Künstliche Intelligenz in ChatGPT und Anwendungen

Wie viel Künstliche Intelligenz steckt in ChatGPT und was sind die Anwendungsfälle?

Seit Bekanntwerden von ChatGPT hat sich eine kollektive Wahrnehmung entwickelt, dass Künstliche Intelligenz (KI) mit ChatGPT gleichzusetzen ist und dass sich wegen dessen Fähigkeiten unser Berufsalltag fundamental transformieren wird. Beides stimmt nur bedingt.

Was steckt hinter ChatGPT & Co.? Wir ordnen ein, wo ChatGPT und Large Language Models im KI Kosmos einzuordnen sind, gehen auf Gruppen von Anwendungsfälle ein und zeigen anhand einfacher Beispiele, was mit dieser Art von Künstlicher Intelligenz möglich ist.

Einordnung

Wir ordnen ein

ChatGPT

ChatGPT generiert menschenähnlichen Text in natürlicher Sprache und kann auf Fragen, Anfragen oder Unterhaltungen reagieren. Es nutzt maschinelles Lernen und neuronale Netzwerke, um Texte zu verstehen und kontextbezogene Antworten zu generieren, basierend auf den eingegebenen Eingaben. ChatGPT gehört zur Kategorie der generativen Künstlichen Intelligenz (KI) - eine mächtige und transformative Technologie, die viele Branchen von der Produktion bis zum Handel und von Finanzen bis zur Medizin voranbringen kann. 

Generative KI

Generative KI zielt darauf ab, realistische Texte, Programmcodes, Designs, Bilder und auch Videos zu erzeugen, die ähnlich, aber nicht identisch zu jenen sind, die für das Training der KI verwendet wurden. Hierfür werden Muster und Strukturen grossen Datensätzen genutzt und reproduziert. Sie sind besonders nützlich für die Automatisierung von Aufgaben, bei denen die Erzeugung von Inhalten auf natürliche Weise erforderlich ist. Diese Technologie wird häufig in Anwendungen wie Textgenerierung, Bildsynthese und Musikkomposition eingesetzt.

Large Language Models (LLMs)

Large Language Models im Speziellen sind auf Sprachverarbeitung spezialisiert und eine Ausprägung von generativer KI. Sie basieren auf neuronalen Netzwerken, welche die Wahrscheinlichkeiten von Wort- bzw. Silbenfolgen (Tokens) lernen und repräsentieren. Dadurch können sie menschenähnliche Antworten auf natürliche Sprachanfragen liefern. Weil LLMs auf riesigen Datenmengen trainiert werden, lesen sich die generierten Texte verblüffend natürlich. Dies schafft viele neue Anwendungsfälle und hat ChatGPT, Google Bard etc., welche LLMs nutzen, zu schnell wachsenden und sehr beliebten Apps gemacht.

Funktion

Wie funktioniert es?

Was können ChatGPT & Co. dank LLMs? Im Kern geht es immer um das Gleiche: Aus einer Eingabe in natürlicher Sprache (optional akustisch) werden Instruktionen an das LLM gegeben. Dieses versucht, die Absicht aus den übermittelten Tokens (grundlegenden Einheiten, in die ein Text für die Verarbeitung durch Maschinen zerlegt wird) zu erkennen und generiert natürlichen Text. Dies geschieht auf zwei Ebenen und wird zusätzlich mit weiteren Parametern beeinflusst:

  • Auf einer höheren Ebene, die als Meta-Ebene bezeichnet wird, erhält das LLM Anweisungen darüber, wie es im Allgemeinen vorgehen soll. Zum Beispiel: «Beantworte Kundenanfragen. Vermeide beleidigende Sprache, nenne keine Preise, mache keine verbindlichen Zusagen.». Die Meta-Ebene wird normalerweise durch den sogenannten Meta-Prompt definiert, der in der Regel von der Plattform festgelegt wird, auf der die KI den Nutzern zur Verfügung steht.
  • Mit dem sogenannten Prompt erhält das LLM die Eingabe der spezifischen Aufgabe. Beispiel: «Hi! I am not satisfied with the product you delivered last week.». Der Prompt entsteht entweder direkt durch die Eingabe des Nutzers oder durch dessen Eingabe und nachträgliche Anreicherung von Informationen durch Programmcode.
  • Zusätzliche Parameter bestimmen, wie präzise oder formell der generierte Text ist. Die Spanne reicht von präzise/ formell bis zu kreativ/ informell und beeinflusst, wie «ernst» die Wahrscheinlichkeiten der aufeinanderfolgenden Token beachtet werden.

Beispiele

Gehen wir auf konkrete Beispiele ein

Während einer Sitzung mit ChatGPT bleiben bereits erteilte Instruktionen und generierter Text erhalten. Der Nutzer kann die Konversation weiterführen, ohne jedes Mal den Kontext und die Instruktionen erneut mitzuteilen. Um auf das oben gennante Beispeil, des sich beklagenden Kundens, zurückzugreifen, erkennt ChatGPT die Eingabe «I want my money back!» und reagiert mit einer passenden Antwort darauf. 

 

Ein weiters Beispiel zeigt sich hier: 

Beispiel «Text generieren»

Prompt (Nuter): Erkläre ChatGPT einem vierjährigen Kind

ChatGPT: ChatGPT ist ein Computerprogramm, das mit dir reden kann. Es lernt, wie Menschen sprechen, indem es viele Texte liest, die Menschen geschrieben haben. Es kann dir Fragen beantworten, Witze erzählen, Geschichten schreiben und vieles mehr. ChatGPT ist wie ein Freund, der immer etwas Interessantes zu sagen hat. 😊

 

Abstrakt betrachtet haben diese Beispiele ein gemeinsames Muster: Sie kreieren einen neuen Text mit Instruktion aus dem Prompt (spezifische Eingabe oder Anfrage, die an ein KI Modell gesendet wird). Dabei werden die Absichten aus dem eingegebenen Text abgeleitet, um damit eine geeignete Antwort zu generieren.

Beispiel «Sprache erkennen, Sprachecode ermitteln und Antwort übersetzen»

Prompt (Nutzer): In welche Sprache ist «Chasch mer no d'Suppechelle gäh?» gesprochen, welcher ISO-Sprachkulturname (zum Beispiel en-EN) ist es und was bedeutet es? Antworte in Castellano (Spanisch)?

 

Aus dem Prompt werden folgende Absichten abgeleitet. Mit Bing Chat - die Microsoft Variante von ChatGPT - werden die erkannten Absichten gleich im Chat angezeigt:

  • Searching for: Chasch mer no d'Suppechelle gäh?
  • Searching for: Chasch mer no d'Suppechelle gäh? translation to Spanish
  • Searching for: Chasch mer no d'Suppechelle gäh? language
  • Searching for: Chasch mer no d'Suppechelle gäh? language ISO Code

…und analog zu ChatGPT folgende Antwort generiert:

Bing Chat: «Chasch mer no d’Suppechelle gäh?» es una frase en suizo alemán, que es un dialecto del alemán hablado en Suiza. El código ISO para el suizo alemán es «de-CH». La traducción al español de esta frase sería «¿Me puedes dar la cuchara de la sopa?».

Die Überprüfung der Antwort mit DeepL - ein KI Dienst für Sprachübersetzungen - ins Deutsche zurückübersetzt bestätigt, dass die Aufgabe mit Bravour bestanden wurde:

DeepL: «Chasch mer no d'Suppechelle gäh?» ist eine Redewendung in Schweizerdeutsch, einem in der Schweiz gesprochenen Dialekt des Deutschen. Der ISO-Code für Schweizerdeutsch ist «de-CH». Die deutschte Übersetzung dieses Satzes wäre «Kann ich den Suppenlöffel haben?».

Beispiel «Konversation mit einem Kunden»

Meta Prompt (System): Du bist Janina vom Kundendienst und beantwortest Kundenanfragen. Vermeide beleidigende Sprache, nenne keine Preise, mache keine verbindlichen Zusagen. Fasse dich kurz aber bleib freundlich.

Prompt (Kunde): Hi! I'm not satisfied with the product I got last week.

Beachte: Der Kunde schreibt in Englisch. ChatGPT erkennt dies und antwortet in der entsprechenden Sprache.

ChatGPT: Hello Peter, I'm sorry to hear that you're not satisfied with the product you received last week. Could you please provide more details about the issue or your concerns? I'll do my best to assist you and address your concerns. Best regards, Janina

Im Laufe der Konversation wechselt der Kunde vor lauter Ärger in seine Muttersprache Deutsch zurück.

Prompt (Kunde): Ich will mein Geld zurück.

Der Kontext der Konversation blieb erhalten und Janina konnte in der eingegebenen Sprache antworten.

ChatGPT: Es tut mir leid zu hören, dass Sie mit dem Produkt unzufrieden sind. Um Ihr Geld zurückzuerhalten, müssen wir die genauen Details und den Grund für Ihre Unzufriedenheit kennen. Bitte geben Sie mehr Informationen, damit ich Ihnen weiterhelfen kann. Mit freundlichen Grüssen, Janina

Prompt Engineering

Bedeutung von Prompt Engineering und die Gefahren des Prompt Hacking

Mann am Lapto stellt Fragen an Chat AI via Prompts

Prompt Engineering nennt man das Optimieren des Promptes. Es braucht Übung, gute Prompts zu entwickeln. Dies umfasst die Auswahl der passenden Worte, die Struktur und den Kontext der Aufforderung, um die Leistung des Modells bei bestimmten Aufgaben zu optimieren, um die gewünschten Informationen oder Antworten zu erhalten. Sind zum Beispiel bestimmte Antworten nicht zulässig, muss verhindert werden, dass Nutzer die Frage nach nicht zulässigen Antworten überhaupt stellen kann.

Prompt Hacking hingegen bezieht sich auf die Praxis, KI-Modelle wie beispielsweise ChatGPT durch geschickte Formulierung von Eingabeaufforderungen zu manipulieren, um unerwünschte oder unangemessene Ergebnisse zu erzielen. Dies kann dazu führen, dass Systeme künstlicher Intelligenz fehlerhafte, voreingenommene oder nicht ethische Antworten liefern. Das Knacken dieser Instruktion durch Nutzer gilt es zu vermeiden. Es soll grundsätzlich verhindert werden, dass ein Benutzer die Frage nach nicht zulässigen Anworten stellen kann. 

Anwendungsfälle

Anwendungsszenarien für den Large Language Model (LLM)

Tabelarische Grafik mit Auflistung von Anwendungsfällen zu ChatGPT

Mit den verschiedenen Fähigkeiten des LLM ergeben sich sehr viele Anwendungsfälle. Hier ein Auszug und eine mögliche Gruppierung solcher Fälle. 

Intelligent Document Processing

Beim Intelligent Document Processing werden aus Dokumenten oder umfangreichen Texten bestimmte Elemente extrahiert und weiterverwertet.

Beispiel: «Key Value Extraction» mit Bing Chat

Prompt (Nutzer): Extrahiere die fünf meistverkauften Automarken gemäss verkauften Einheiten aus Global Cars Brands.


Wenn wir uns die angegebene Internetseite als Quelle ansehen, wird deutlich, dass das LLM die Absicht sehr genau erkennt und eine erhebliche Umwandlung der dort enthaltenen Informationen stattfindet.

Bing Chat: Die fünf meistverkauften Automarken sind:

  • Toyota: 9.53 Millionen
  • Volkswagen: 9.31 Millionen
  • General Motors: 6.83 Millionen
  • Hyundai: 6.71 Millionen
  • Ford: 4.27 Millionen

 

Beispiel: «Document Analysis» mit Bing Chat

Prompt (Nutzer): Gruppiere Automobilhersteller nach Kontinenten aus Global Cars Brands.


Die Künstliche Intelligenz ist fähig, die Elementen und Gruppierungen aus dem Link zu extrahieren und liefert darauf hin folgende Antwort:

Bing Chat: Hier ist ein möglicher Weg, Autohersteller nach Kontinenten zu klassifizieren:

  • Africa: Giad Auto (Sudan), Innoson Vehicle Manufacturing (Nigeria), Kantanka (Ghana), Laraki (Morocco),…
  • Asia: Chery, Geely, Great Wall, SAIC-Motor (China), Daihatsu, Honda, Lexus, Mazda, Mitsubishi, Nissan,…
  • Europe: Aston Martin, Bentley, Jaguar, Land Rover, Lotus Cars, McLaren, Mini, Rolls-Royce (UK), Audi, BMW,…
  • North America: Buick, Cadillac, Chevrolet, Chrysler, Dodge, Ford, GMC, Jeep, Lincoln, Ram Trucks (USA), Acura,…

Customer Service & Operations

In der Kategorie Customer Service & Operations ordnet sich das Beispiel «Konversation mit einem Kunden» von oben ein. Es ist ein Baustein zum Automatisieren eines Geschäftsprozesses oder von Teilprozessen. Die Kombination mit weiteren Fähigkeiten des LLM schafft zusätzlichen Nutzen für die Anwender.

 

Beispiel: «Sentiment Analysis als Vorstufe zur Kundenanfragen»

Mit einer vorgeschalteten Sentiment Analysis erfolgt beispielsweise die Triage von manuell und automatisch zu beantwortenden E-Mails. Die anspruchsvolleren, nicht standartisierten Kundenanfragen beantwortet eine natürliche Intelligenz und die einfacheren Anfragen können mittels KI abgearbeitet werden.

Information Discovery & Knowledge

Unter Information Discovery & Knowledge Mining verstehen sich Anwendungsfälle, wo beispielsweise Wissensdatenbanken die Faktenbasis für das LLM schaffen. Der LLM basierte Chat mit einer Wissensdatenbank als Beispiel, einem Normenkatalog oder Qualitätsstandards bietet ein völlig neues Nutzererlebnis beim Recherchieren und Finden von Information.

Microsoft geht mit gutem Beispiel voran, indem sie die gesamte Produktdokumentation intern mit Hilfe von Azure OpenAI ChatGPT in Verbindung mit weiteren Diensten als Chat zur Verfügung stellen.

 

Weitere Kategorien

Dienste wie GitHub Copilot generieren basierend auf dem LLM sogar Programmcodes oder beschreiben bestehenden eher schwer lesbare Programmcodes für Entwickler.

KI Transformation

Fundamentale Transformation durch Generative KI?

Die hier beschriebenen Anwendungsfälle von Generativer KI sind eine Art von schwacher KI (auch bekannt als «narrow» oder «applied» KI). Schwache KI ist auf spezifische Aufgaben ausgerichtet und kann nur innerhalb ihres vorgegebenen Rahmens arbeiten, der in der Regel durch den Menschen definiert wird. Im Gegensatz dazu bezieht sich starke KI (auch bekannt als «generic» oder «artificial general Intelligence») auf Systeme, die menschenähnliche Intelligenz besitzen und in der Lage sind, eine breite Palette von kognitiven Aufgaben zu lösen. Bislang gibt es keine starke KI, aber die Forschung in diesem Bereich schreitet schnell voran.

Die Transformation der Arbeitsweise ist in greifbarer Nähe, wie der obige Absatz beweist. Er wurde mit einem Prompt für Bing Chat erstellt. Das kreative Schaffen hat sich jedoch nur verlagert - vom Text schreiben hin zum Prompt schreiben und hin zum Überprüfen des generierten Textes. Beide Aktivitäten sich nach wie vor durch menschliche Intelligenz gesteuert.

Im Allgemeinen lässt sich zusammenfassen, dass sich nicht der Alltag, sondern die Art und Weise mit Informationssystemen zu interagieren, fundamental verändert und weiter verändern wird. Vorstellbar ist eine teilweise Abkehr von aufwändig gestalteten Eingabeformularen mit Textfeldern, Schaltflächen, Schiebern und Optionen hin zur Interaktion über natürliche Sprache. Die jüngsten Entwicklungen von Diensten, die sich bestehenden Anwendungen zuschalten lassen und via natürliche Sprache interagieren, untermauern diese These.

Kontakt

Du willst mehr erfahren oder dich austauschen? Kontaktiere mich.

Martin Schreiber

Senior Business Consultant
Dipl. Techniker HF Informatik

martin.schreiber@isolutions.ch
Martin Schreiber