“Ich möchte mit Ihrem Chatbot sprechen!”

Alle reden über Chatbots, nur mit ihnen reden noch viel zu Wenige. Dabei kann man nur so lernen, was sie leisten können und was nicht.

Meine Begeisterung für Chatbots stammt aus der Zeit, in der ich Woche für Woche jede Episode der Science-Fiction Serie „Star Trek: The Next Generation“ angesehen habe. Dort gibt es im Wesentlichen zwei Chatbots – nicht, dass ich sie damals schon so hätte betiteln können 🙂

Der eine ist den meisten als Lieutenant Commander Data bekannt, der Androide mit der silberfarbenen Haut. Er steht sinnbildlich für das, was ich mir von Künstlicher Intelligenz und Chatbots erhoffe: Hohe Kommunikationskompetenz gepaart mit regem Interesse an uns Menschen.

Der andere Chatbot ist das Raumschiff Enterprise selbst. Der Bordcomputer, obwohl gefühlt größer als Commander Data und allgegenwärtig, wirkt auf mich allerdings weniger schlau, erledigt dafür aber klare Aufgaben wie den Abruf von Informationen, das Ausfindigmachen von Personen oder die Teebestellung von Captain Picard: „Computer, Tee, Earl Grey, heiß.“ 😉

Ich nenne Data einfach mal, ohne ihm zu nahe treten zu wollen, die Marketing-Version eines Chatbots. Doch während Data viele Fans hat, hat der Bordcomputer keine – dabei macht er seinen Job meist zuverlässiger. Für mich ist er die UX-Version eines Chatbots.

Data oder Bordcomputer?

Und genau zwischen diesen beiden Polen von Lieutenant Commander Data und dem Bordcomputer der Enterprise bewegt sich die Begriffsblase rund um Chatbots. Schon 1966 demonstrierte ELIZA, der erste Chatbot, die Möglichkeiten wie man mit Maschinen natürlichsprachlich kommunizieren kann. Und schon vor 50 Jahren zeigte sich, dass die Menschen überhaupt kein Problem damit hatten, mit dieser Maschine zu „reden“.

Allerdings wurde auch schnell klar, dass niemand wirklich diese allgemeine Redemaschine brauchte, weil sie, wie Data, keinen Anwendungsfall hat. Künstliche Intelligenz steckt noch so sehr in den Kinderschuhen, dass sie, wie dieser Eliza-Nachbau, bislang Verständnis nur vortäuscht. Das mag sich eines Tages ändern – aber davon sind wir leider noch weit entfernt.

Aber das macht nichts. Man braucht nämlich keine echte Künstliche Intelligenz, um sinnvolle Chatbots zu entwickeln. Niemand braucht gleich einen ganzen Data für den Kundenservice – meist würde schon ein bisschen Bordcomputer reichen. Doch wo genau ist der Unterschied?

Chatbots brauchen einen Use Case

Elizas Schwäche ist, dass sie als Chatbot keine konkrete Aufgabe hat. Der Bordcomputer hingegen löst alle Probleme, die Computer eines Raumschiffs eben zu lösen haben. Sobald Chatbots also auf Grundlage von konkreten Use Cases entwickelt werden, können sie sehr wohl sinnvoll sein. Auch Data hat keine konkrete Aufgabe – was ihm dennoch die vielen Fans verschafft, ist sein Streben, im Umgang mit Menschen so menschenähnlich zu wirken wie möglich. Dazu imitiert er Humor und ähnliche Eigenschaften – mal mehr, mal weniger erfolgreich 🙂

Daraus lässt sich für Chatbots zum jetzigen Entwicklungsstand einiges ableiten. Zum Beispiel, dass auch eingeschränkte Programme sehr viel Sinn machen können, um zum Beispiel im Customer Support die Customer Experience zu stärken oder einfache Standardfragen zu beantworten und so Personal zu sparen. Chatbots können das, denn während das Kundencenter telefonisch nicht immer sofort zu erreichen ist, können Bots den initialen Wunsch nach Kontaktaufnahme und erster Antwort sofort und jederzeit erfüllen.

Die Antworten der Chatbots müssen im ersten Schritt nicht perfekt sein … sie müssen angesichts der Realtime-Erwartungen heutiger Nutzer aber eben sofort kommen. Und wenn sie sich, wie Data, um die Imitation menschlicher Umgangsformen bemühen, ohne Menschsein vorzutäuschen, dann werden sie auch akzeptiert.

Chatbots bewegen sich in einem Kontext

Viele Use Cases bestehen heute aus der Abfrage einer Information oder der Auswahl aus einer Vielzahl von Möglichkeiten. Beispiel: Wir starten die Wetter-App und wählen Zeit und Ort. Wir selektieren in der TV-App bei den Genres die Filmauswahl „Action“. Wir besuchen die Fluglinien-Website und buchen einen Flug von A nach B zu einem bestimmten Datum.

Die Informationsarchitektur und die Menüsysteme, die wir heute dafür verwenden, sind eigentlich kaum etwas anderes als eine Sammlung vorgefertigter Antworten auf Nutzerfragen. Die Kunst der UX besteht darin, die im Kontext wichtigen und vom Nutzer real gestellten Fragen zu beantworten und ihn idealerweise nicht mit Fragen zu belästigen, die sich ihm gar nicht stellen.

Chatbots beherrschen diese Kunst fast von selber. Denn im natürlichsprachlichen Umgang käme nie jemand auf die Idee, dem Nutzer alle verfügbaren Funktionen und Menüpunkte vorzulesen. Stattdessen tastet man sich im Dialog an das Ziel heran und fragt nach, wenn etwas unklar ist.

Chatbots zwischen Sinn und Marketing-Gag

Wer Chatbots noch nicht ausprobiert hat, sollte es einfach mal tun – die vorhandenen Angebote zeigen bereits, dass sie besser sind, je klarer sie sich einer Aufgabe widmen und je mehr sie nicht Data, sondern dem Bordcomputer nacheifern.

Der Anwaltsgehilfe RATIS hat sich auf Verspätungen mit dem Flugzeug spezialisiert. Mit Hilfe einer Handvoll von Fragen ermittelt der Chatbot interaktiv, ob sich aus der Verspätung eines Fluges ein Recht auf Entschädigung ableiten lässt. Er erledigt auf diese Weise wichtige Vorarbeiten, und am Ende des Entscheidungsprozesses kann der Chatbot dem Nutzer sagen, wieviel Entschädigung er erwarten darf – und ihn gegebenenfalls mit dem menschlichen Anwalt verbinden.

Ein anderes Beispiel ist Dinner Ideas: Hier bekomme ich Gerichte vorgeschlagen, die ich mit den Zutaten und Lebenmittel kochen kann, die ich gerade in meinem Kühlschrank habe. Sehr nützlich und durchaus insprierend, auch wenn der Chatbot einen auf eine andere Seite leitet, wenn man die Anleitung zu einem Rezept erhalten möchte.

Chatbots über alles?

Müssen wir nun alles auf Chatbots umstellen, und muss jetzt jeder einen haben? Natürlich nicht. Sind die zu lösenden Probleme zu allgemein, die Aufgabenstellung zu vage, dann versagen Chatbots – weil wir eben noch keinen Data haben. Bei klar definierten Anforderungen leisten Chatbots hingegen Erstaunliches, weil sie sich ganz auf den jeweiligen Use Case konzentrieren können.

Mein Liebling ist Mildred, auch bekannt als Lufthansa Best Price, in meinen Augen einer der derzeit überzeugendsten Chatbots für Facebook Messenger. Nicht, weil Mildred besonders einfallsreich und intelligent wirken würde. Sondern weil sie ihre ganz spezielle Aufgabe ziemlich gut erledigt – nämlich mir auf Zuruf ruck zuck einen Flug herauszusuchen, schneller als über das normale Web-Interface oder die App.

Mildred versucht weder, eine Künstliche Intelligenz zu sein, noch kann sie (derzeit) komplexe Buchungen vornehmen. Aber sie führt einen jederzeit und sehr schnell zu einem ersten Angebot und ist damit auch ein weiteres Werkzeug für die Kundenbindung.

Usabile Chatbots statt Hype

Nach einem kurzen Hype 2016 waren die Chatbots schnell in der Kritik. Sie seien zu dumm, die Kunden würden sie ablehnen, nicht mit Maschinen sprechen wollen und so weiter. Klar: Chatbots, die sich verbal intelligent geben, aber keinen einzigen echten Use Case befriedigen wollen oder können, werden am Ende vom Nutzer als Enttäuschung empfunden.

Die Kritik mag oft sogar berechtigt sein – basiert aber häufig auf einer falschen Erwartungshaltung: Alle hofften darauf, mit Data zu sprechen – geantwortet hat bislang aber nur ein Bordcomputer, und auch der ist noch deutlich Beta. Und das wird auch noch einige Zeit so bleiben, denn jetzt schon Künstliche Intelligenz via Chatbots einsetzen zu wollen wäre ein klarer Fall von Over-Engineering.

Das heißt: Gute Chatbots haben einen Zweck und klar definierte Use Cases, die sie bedienen. Und das heißt auch: Wer begrenzte, sauber definierbare Anwendungsfälle vorliegen hat, für den lohnt es sich, sich mit dem Thema Chatbot auseinandersetzen. Shops, Lieferdienste, Bahn & Taxis, Banking und Versicherungen, selbst medizinische Anwendungen sind denkbar, in denen Chatbots Symptome abfragen und so erste Diagnosen stellen können.

Für mich typische Fälle für Chatbots:

  • asynchrone Anfragen vieler Nutzer
  • Anfragen zu beliebigen Zeiten
  • Fragen mit Erwartung sofortiger Antworten
  • Fragen mit nur gering personalisiertem Kontext
  • begrenzter Möglichkeitsraum der Fragen (wenigstens zu Beginn einer Kontaktaufnahme)
  • limitierte Auswahl von Möglichkeiten, wie das Ende der Kommunikation aussehen kann (Antwort; Buchungs- oder Produktlink; Weiterleitung an passenden Kundenservicebereich …)

Die gute User Experience bei Chatbots wird dann nur noch davon abhängen, ob sich der Benutzer von der Maschine „verstanden“ fühlt, also sein Wunsch erfüllt wurde. Wenn die maschinellen Gesprächspartner das leisten, wird kein Nutzer es ablehnen, ihr Angebot auch zu nutzen. Und mit der zunehmenden Verfügbarkeit von Spracherkennung auf den Smartphones werden Chatbots ziemlich schnell zu Gesprächspartnern werden, mit denen wir nicht tippend, sondern sprechend kommunizieren. Spätestens dann zahlt es sich aus, sich über Chatbots bereits mit dem Thema Dialog auseinandergesetzt zu haben.

In meinem nächsten Beitrag verrate ich Ihnen 10 Tipps für gute UX bei Chatbots.

Bettina Streit

Geschäftsführerin & Usability Engineer

bs@coeno.com

Newsletter

Bleib auf dem Laufenden!

Mit dem 4x jährlich erscheinenden Newsletter erhalten Sie alle 3 Monate aktuelle Neuigkeiten unserer Agentur. Wir werden Ihre E-Mail Adresse zu keinen weiteren Zwecken verwenden und Sie können den Newsletter jederzeit bequem über einen Link im Mailfooter abbestellen.
Mehr dazu erfahren Sie in unseren Datenschutzbestimmungen.

Thank you! Your submission has been received!
Oh! Etwas hat nicht geklappt. Bitte versuch es nochmal.