Über den verantwortungsvollen Einsatz von künstlicher Intelligenz (KI) in der Kundeninteraktion

Von 20. August 2018 News

Im Spannungsfeld von Verhaltensökonomie, Technologie und Ethik.

Ist Ihre Unternehmung bereit für den Einsatz von künstlicher Intelligenz? In diesem Beitrag erfahren Sie mehr über den verantwortungsvollen Umgang mit künstlicher Intelligenz in der Kundeninteraktion und welche Kompetenzen dafür notwendig sind.

Was Sie in den nächsten 15 Minuten erwartet

Der Einsatz von künstlicher Intelligenz (KI) im Kundenkontakt verlangt eine adäquate KI-Strategie, welche das Verständnis unterschiedlicher Disziplinen und deren Zusammenspiel voraussetzt:

  1. Verhalten von Menschen in Entscheidungssituationen. (Verhaltensökonomie)
  2. Heute verfügbare technische Möglichkeiten künstlicher Intelligenz (Microsoft Cognitive Services)
  3. Ethische Richtlinien bei der Erstellung und Anwendung von KI (Magna Carta im Umgang mit KI)

Es lohnt sich Strategien im Umgang mit neuen Technologien zu erarbeiten, damit sich der Einsatz von KI nicht negativ auf die Reputation auswirkt und ein finanzielles Risiko darstellt.

Der folgende Beitrag ist als Denkanstoss gedacht und skizziert wie der Umgang mit den neuen technischen Möglichkeiten (anhand eines Beispiels) systematisch angegangen werden kann. – Der Einsatz von KI ist kein technisches Unterfangen, sondern eine interdisziplinäre Angelegenheit, die entsprechendes Know-how und Planung voraussetzt.

Verhalten von Menschen in Entscheidungssituationen. (Verhaltensökonomie)

Die gute Nachricht zuerst. Unsere Aufmerksamkeitsspanne ist nicht geringer als diejenige von Goldfischen und sinkt auch nicht jährlich. Mittlerweile dürfte bekannt sein, dass dieser oft zitierte Vergleich ein Internet-Mythos ist. Was wir jedoch alle feststellen ist, dass wir immer mehr Einflüssen ausgesetzt sind und immer mehr in  zunehmend weniger Zeit zu erledigen haben. Somit wird es immer schwieriger den eigenen Vorsätzen und Strategien zu folgen. Sei es geschäftlich oder privat.

Einen Teil dieses Phänomens erklärt die relativ junge Disziplin der Verhaltensökonomie ziemlich eindrücklich. Die Verhaltensökonomie baut auf dem der klassischen Ökonomie zugrunde liegenden sozialwissenschaftlichen Modell des nutzenmaximierenden Homo Oeconomicus auf, und erweitert es um psychologische Faktoren. Dabei stehen die sogenannten «Biases» (kognitive Verzerrung) oder einfach «Denkfehler» im Mittelpunkt. Sie sind es, die uns davon abhalten bessere Entscheidungen zu treffen.

Sehen wir uns beispielsweise auf der Website einer Bildungsinstitution nach einem Weiterbildungsangebot um, führt das umfassende Angebot allzu oft dazu, dass wir die Suche entweder frustriert abrechen oder uns nach der Buchung nicht wirklich gut fühlen. Aber wieso ist das eigentlich so?

Barry Schwartz liefert in seiner These «The Paradox of Choice» interessante Anhaltspunkte dazu. Im Wesentlichen zielt die These darauf ab, dass eine Entscheidung der nur wenige Optionen zugrunde liegen, uns glücklicher macht als eine Entscheidung mit vielen Wahlmöglichkeiten. Weniger Optionen bedeuten, gemäss Schwartz, eine tiefere Erwartungshaltung. Eine tiefe Erwartungshaltung wiederum führt dazu, dass Erwartungen erfüllt oder sogar übertroffen werden. Wir sind glücklich.

Verhaltensökonomie

Kahneman und Tversky beschreiben in ihrem Werk «Schnelles Denken, langsames Denken» eindrücklich, dass unser Gehirn in zwei Denksystemen funktioniert und wir eben nicht rational entscheiden und handeln. Das erste System arbeitet automatisch, schnell, assoziativ und ist auf das Hier und Jetzt konzentriert. Es wird das «erlebende Selbst» genannt. Das zweite System ist für die kognitiven Aufgaben verantwortlich; es denkt, prüft, rechnet und vergleicht. Es wird das «erinnernde Selbst» genannt. Leider ist unser Gehirn faul, weshalb das erste System (schnelles Denken) dominiert, was konsequenterweise irrationale Entscheidungen zur Folge hat.

Die These von Schwartz wird von einer Studie von Sheena S. Iyengar und Mark R. Lepper aus dem Jahr 2000 gestützt. Die Versuchsanordnung der Studie bestand aus zwei Probiertischen mit Konfitüre in einem Supermarkt. An Tisch A wurden 6 Sorten zum Probieren angeboten, an Tisch B deren 24. Bei Tisch B blieben rund 50% mehr Personen stehen und probierten. Das Erstaunliche ist aber, dass Personen die an Tisch A probierten, sich am Schluss achtmal häufiger zum Kauf entschieden.  Das Fazit der Studie: Weniger Auswahl führt zu deutlich mehr Käufen.

Weniger Optionen erzeugen weniger Erwartungen. Wer eine tiefere Erwartungshaltung hat, dessen Erwartungen werden eher übertroffen. Glückliche Kunden hatten also weniger Optionen.

Eine mögliche Antwort, wieso uns Zweifel plagen nach einer Entscheidung, liefert uns die These «The Paradox of Choice». Aber, wie steht es um die getroffene Entscheidung selbst? Wieso haben wir uns so entschieden, wie wir uns entschieden haben? – Hier folgt der Auftritt der Biases. (Um es gleich vorweg zu nehmen, davon gibt es mittlerweile jede Menge. Laufend werden die Forschungsergebnisse ergänzt und erweitert.) Um den Rahmen dieses Beitrags nicht zu sprengen, konzentrieren wir uns auf folgende drei Beispiele (Bezogen auf das Weiterbildungsangebot):

Zusammengefasst: Biases hindern uns daran, bessere Entscheidungen für uns und unsere Unternehmung zu treffen. Entscheidungen die von System I (Schnelles Denken) unseres Gehirns getroffen wurden, beeinflussen unsere langfristigen Absichten negativ. Dies führt unweigerlich dazu, dass es immer schwieriger wird den eigenen Vorsätzen und Strategien zu folgen.

Genau an diesem Punkt könnte der geschickte und ethisch vertretbare Einsatz von künstlicher Intelligenz grossen Nutzen stiften, für den Kunden aber auch für den Anbieter selbst. Die KI könnte einen Teil der Biases kompensieren und helfen, langfristig bessere Entscheidungen zu treffen.

Heute verfügbare technische Möglichkeiten künstlicher Intelligenz (Microsoft Cognitive Services)

Es ist faszinierend und beängstigend gleichermassen zu beobachten, wie die Technologie-Giganten unserer Zeit laufend neue Errungenschaften präsentieren. Physische und kognitive Fähigkeiten von uns Menschen werden als Teil der Digitalisierung Stück für Stück in Roboter und Algorithmen übertragen und dabei auch noch verbessert. Egal ob wir das gut oder schlecht finden, es passiert. Wir müssen uns im Moment damit arrangieren. Wie wir das tun können, und gleichzeitig unseren Werten treu bleiben können, betrachten wir im letzten Kapitel dieses Blogbeitrags. – Doch davor noch zu den heute vorhandenen technischen Möglichkeiten.

Im Bewusstsein, dass z. B. IBM, Google oder auch Amazon sich intensiv mit Cognitive Services beschäftigen, werden hier diejenigen von Microsoft kurz skizziert. Diese gliedern sich in folgende fünf Kategorien:

  • Vision: Visuelle Erkennung z. B. von Gegenständen, der emotionalen Verfassung oder dem Alter einer Person auf Bild- und Filmmaterial. Anwendungsfälle sind z. B. das Erstellen eines Indexes für kontextrelevantes Marketing auf der Basis von Fotos, Big Data Analytics, Realtime Emotion Recognition des Lesers eines eBooks, Zutrittskontrollen im Lift usw.
  • Speech: Sprach-Text-Umwandlungen, Übersetzungen. Anwendungsfälle sind z. B. die Interaktion mit mobile Devices mittels Sprachbefehlen oder die Echtzeit-Übersetzung des gesprochenen Wortes in eine andere Sprache.
  • Language: Inhaltliche und syntaktische Text-Analyse. Anwendungsfälle sind z. B. Big Data Analytics von grossen Datenmengen wie z. B. Geschäftsberichten oder die direkte Mensch-Maschinen-Interaktionen via Chat Bots, etc.
  • Knowledge: Kontextsensitives Aufbereiten von Inhalten. Anwendungsfälle sind z. B. die gesteuerte Reihenfolge der Suchresultate oder die gezielte Empfehlung von Inhalten aufgrund vorgängig getätigter Clicks / Suchen, das Anzeigen der relevanten Knowledge Artikel z. B. einer Service Arbeit usw.
  • Search: Gezieltes Finden von relevanten Informationen u. A. mittels Metainformationen und der gezielten Anwendung von Filtern aller verfügbaren Datenquellen. Ein Anwendungsfall ist z. B. die Suche nach Immobilien mit mindestens 20m Abstand zur nächsten Immobilie, die heute zum Verkauf steht und weniger als 1 Mio. CHF kostet im Raum Sursee.
  • Labs: Alle weiteren z. T. experimentellen Cognitive Services, die nicht in eine der oberen Kategorien passen. Darunter sind z. B. der «Anomaly Finder», der Muster und Abweichungen von Mustern erkennen kann oder der «Conversation Learner» eine Art Trainingseinheit für die Cognitive Services.

Die Cognitive Services sind eine Art Chemiebaukasten des 21. Jahrhunderts, mit welchem unzählige Anwendungsfälle kreiert werden können. Um auf das Beispiel des Weiterbildungsangebotes zurück zu kommen, ist der Anwendungsfall im Kern simpel: Es gilt das Angebot des Institutes mit den effektiven Bedürfnissen und Interessen der Kundin abzugleichen. Dabei wird die beste Option eruiert. Die Cognitive Services übernehmen dabei die Beratung, eliminieren für die Kunden unrelevante Inhalte und führen sie innert kürzester Zeit ans Ziel. Das erste Ergebnis ist eine neue glückliche Kundin. Das Zweite eine bedeutend höhere Conversion-Rate für das Institut.

In diesem Beispiel kommen in einem ersten Schritt die Funktionen «Text Analytics» und «Linguistic Analytics» zum Einsatz, welche die vorhandenen Kursinformationen (Kurs-Beschreibungen, Kursunterlagen, Voraussetzungen usw.) analysieren, kategorisieren und entsprechende Metainformationen erstellen. Der «Video Indexer» übersetzt das gesprochene Wort der unterschiedlichen Videos in ein Transkript, mit welchem, analog der Kursinformationen, verfahren wird. Nach diesem Prozess «kennt» die KI das Angebot, die Inhalte der Kurse und die Voraussetzungen und Interessen, die dazu nötig sind.

Betrachten wir nun die Suchenden. Die Website der Institution wird konsultiert und das Weiterbildungsangebot angeklickt. Der KI Berater meldet sich und die Interaktion beginnt mit einer freundlichen Begrüssung «Hallo! – Schön, dass Du Dich für unser Weiterbildungsangebot interessierst. Ich bin Marvin (ja, ich bin eine KI), Dein persönlicher Assistent. Ich helfe Dir das perfekt passende Angebot zu finden! – Wie kann ich Dir behilflich sein?» – Folgende Optionen erscheinen:

  • Ich guck mich hier bloss um und brauche Dich im Moment nicht
  • Mich interessiert etwas Konkretes. Z. B. CAS XY (Ich weiss eigentlich was ich möchte, finde es aber nicht.)
  • Ich habe eine Idee, aber noch keine konkrete Vorstellung: Ich lasse mich gerne inspirieren.
  • Ich verrate Dir meine Interessen, Wünsche, Bedürfnisse und Du zeigst mir, was Du allenfalls im Angebot hast.

Die Konversation nimmt ihren Lauf. Die «Language Understanding» Engine wurde entsprechend trainiert und kann einfache Zusammenhänge und Bedeutungen interpretieren. Sie ist die Schnittstelle (Chat Bot), die mit unserer Suchenden interagiert. Sie wird ergänzt durch die «Custom Search» um schneller ans Ziel zu kommen. Im Hintergrund sorgen die «Custom Decision Services» für die Aufbereitung der Ergebnisse und der «QnA Maker» dafür, dass mit halb-strukturierten Informationen verfahren werden kann und die Anfragen der Suchenden mit den aufbereiteten Informationen abgeglichen wird.

Das Ergebnis ist, dass immer die bestmögliche Entscheidungsgrundlage für den nächsten Schritt geliefert wird. Die KI führt die suchende Person elegant durch die Kursanmeldung oder sorgt dafür, dass  im Anschluss an die Chat-Bot-Konversation Kontakt ein „echter“ Kontakt stattfindet. Die entsprechende Aktivität (Aufgabe für das Sekretariat), mit allen relevanten Informationen (inklusive Chatverlauf), wurde bereits in das im Backend vorhandene Customer Relationship Management (CRM) System überspielt.

Das Ergebnis dieses Verfahrens ist eine neue glückliche Kundin mit dem Gefühl, die richtige Wahl getroffen zu haben.

Die KI kompensiert dabei mehrere Biases:

  • Durch die Reduktion von Komplexität und der Einschränkung auf die relevanten Optionen wird das «Paradox of Choice» umgangen. Ebenfalls wird der Entscheidungsprozess erheblich verkürzt. 
  • Mögliches Ablenkungspotenzial wird aufgrund der kurzen Zeitspanne weitgehend eliminiert. Die langfristigen Vorhaben und Pläne unterstützt.
  • Dem Salienz-Effekt wird entgegengewirkt, indem die passenden Angebote gefunden werden
  • Der Feature-Positive Effect wird minimiert, indem eine Interaktion stattfindet und die Interessen und Bedürfnisse mit dem Angebot abgeglichen werden
  • Der Status-Quo-Bias wird vermieden, weil es keinen Standard gibt sondern nur den «Perfect Match».

Zusammengefasst kompensiert die KI unsere Unzulänglichkeiten und hilft uns bessere Entscheidungen zu treffen – die skizzierten Biases sind nur ein kleiner Auszug davon, was während des Entscheidungsprozesses passiert.

Magna Carta im Umgang mit KI

Es stellt sich die Frage: Wie kann den eigenen Unternehmenswerten wie z. B. «Vertrauen», mit dem Einsatz von künstlicher Intelligenz in der Kundenbeziehung Rechnung getragen werden? Hier bietet es sich allenfalls an, eine Art «Magna Carta» zu erstellen, abgeleitet von den Unternehmenswerten. Die Magna Carta beinhaltet schlussendlich die wesentlichen Eckpfeiler im Umgang mit KI, wird als bindende Richtlinie bei der Entwicklung verwendet und ist öffentlich zugänglich.

Das Thema «Verantwortung im Umgang mit neuer Technologie (Privacy, Cybersecurity & Ethical AI)» wurde unlängst an einer Keynote der «Inspire 2018» in Las Vegas auch von Satya Nadella selbst, CEO von Microsoft, thematisiert.

«And when it comes to AI, we have to have a set of principles that guide the development of AI and its use. We want to make sure that anything that we do doesn’t amplify bias, doesn’t hijack our attention, doesn’t sway opinion. These are things where we need to not only build the tools, the technologies – but it’s also a set of design principles, a set of ethical principles that we as builders of technology need to have.»

Satya Nadella, CEO Microsoft

Damit der Unternehmenswert «Verantwortung» direkt in die Magna Carta übertragen werden kann, gilt es, als Erstes eine solide, allgemein anerkannte und belastbare Begriffsdefinition zu eruieren. In unserem Beispiel beziehen wir uns auf die Definition von Prof. Dr. Christian Neuhäuser.

Neuhäuser definiert den Verantwortungsbegriff als eine Relation mit folgenden vier Dimensionen:

  • Urheber: Wer ist verantwortlich
  • Ereignis: Wofür ist «man» verantwortlich
  • Adressat: Wem gegenüber ist «man» verantwortlich.
  • Massstab: Die normative Grundlage, auf deren Basis «man» verantwortlich ist

Eine mögliche Überführung in die Magna Carta liesse sich folgendermassen formulieren: Wir, die Institution XY (Urheber) sind aufgrund unseres Vorsatzes «die beste Weiterbildung für SIE» (Massstab), für die Wahl der optimalen Weiterbildung (Ereignis) unseren möglichen Studierenden (Adressat) verantwortlich. Die von uns eingesetzte KI ist somit ein Hilfsmittel, um unserem Selbstverständnis entsprechend verantwortungsvoll zu handeln. Jetzt ist für alle nachvollziehbar weshalb Optionen zwecks Komplexitätsreduktion nicht angezeigt werden oder weshalb die Reihenfolge der Optionen entsprechend der Interessen der Suchenden dargestellt wird. Natürlich können auch andere Definitionen oder Konzepte der Verantwortung verwendet werden. Entscheidend ist das Verständnis der ethischen Dimension im Kontext KI, sprich die Fragestellung: Weshalb gehen wir als Institution davon aus, dass unsere Absichten und Handlungen, die wir mit KI unterstützen, „gut“ für den Kunden sind? 

Das Beispiel der Verantwortung zeigt auf, dass die differenzierte Auseinandersetzung mit den eigenen Werten und der Überführung dieser, in eine öffentlich verfügbare «KI Magna Carta» sowie die transparente Deklarierung von KI in der Kundenbeziehung selbst (z. B. Hinweise, dass es sich um KI handelt), zwingend sind um die Glaubwürdigkeit der Unternehmung zu wahren. Die Auseinandersetzung mit diesem Thema ist zwingend, weil gerade KI, (z. B. mit der Filterung von Inhalten, dem Aufbereiten von Vorschlägen aufgrund von vorgängigen Clicks etc.) berechtigterweise sehr anfällig für Kritik ist. Vorwürfe paternalistischen Verhaltens oder einer «Verzweckung» der Kunden (Kant lässt grüssen) für eine reine Gewinnmaximierung, stehen bereits nervös am Bühnenrand und warten nur auf ihren Auftritt.

Was also tun?

Fazit und Empfehlung

Erstens: Done is better than perfect. Begeben Sie sich auf die Lernkurve, schaffen Sie sich einen zeitlichen Vorsprung zum Mitbewerb und sammeln Sie Erfahrung im Kontext KI. Die Zeit der mehrjährigen Projekte ist vorbei. Starten Sie ein Programm indem parallel an verschiedenen (kleineren spezifischen) Themen gearbeitet wird.

Zweitens: Der Umgang mit KI ist Chefsache. Der Lead für das Thema KI gehört nicht in die IT. Es handelt sich um ein Interdisziplinäres Vorhaben, bei welchem die IT ihren Beitrag leistet. Die Rolle der IT ist:

  • Aufklärung über die Möglichkeiten
  • Unterstützung des Businesses durch technische Umsetzung
  • Sicherstellung der Privacy und Security der Informationen aller betroffenen Akteure. Setzen Sie ein interdisziplinäres Team ein, welches sich um das Thema KI mit seinen verschiedenen Dimensionen kümmert.

Drittens: Erstellen Sie eine Magna Carta auf der Basis Ihrer Werte, der Kultur, des Portfolios und der Kundeninteraktion Ihrer Unternehmung. Machen Sie diese öffentlich und sorgen Sie dafür, dass diese bei der Umsetzung sämtlicher KI Entwicklungen als Richtlinie angewendet wird. Sie sollte daher verständlich formuliert und bei der Auftragsvergabe an Externe, ein zentrales Element des Vertrags sein.

Viertens: KI Vorhaben sind agil umzusetzen. Die Möglichkeiten, die Anforderungen und die Erkenntnisse ändern und erweitern sich laufend. Ein starres Projekt-Setting misst diesem Umstand keine Bedeutung bei. Schaffen Sie ein Bewusstsein in Ihrer Organisation, dass die Weiterentwicklung dieser Themen eine dauerhafte Aufgabe ist, die es zu institutionalisieren gilt. Daher ist ein entsprechendes organisatorisches Setting zu finden, dass diesem Umstand Rechnung trägt.

Unsere Erfahrung zeigt, dass sich die Herausforderungen der Zukunft nicht mit den Methoden der Vergangenheit bewältigen lassen. Bilden sie interdisziplinäre Teams und schnappen Sie sich einen (IT-) Anbieter, der nicht nur technisches Know-how hat, sondern primär Vorgehens-Methodenkompetenz, um in den neuen Gewässern navigieren zu können und idealerweise noch ein hohes Verständnis für den Umgang mit ethischen Fragestellungen mitbringt.

Bei Fragen und Anmerkungen stehe ich jederzeit gerne zur Verfügung. Zögern Sie nicht mich zu kontaktieren.

Quellenangabe

Teilen Sie diese Seite auf Social Media oder via E-Mail.

Hinterlasse eine Antwort