KI-Chatbot mit mystischen Kräften? DIRTY TALK MIT REPLIKA – Verena Fink’s neuer Beitrag im Teletalk Magazin

KI-Chatbot mit mystischen Kräften? DIRTY TALK MIT REPLIKA – Verena Fink’s neuer Beitrag im Teletalk Magazin

Im Service kreisen nach wie vor viele Hoffnungen um den omnipotenten Chatbot im Kundenkontakt, der im Kanal Schrift viele Standardanliegen abfangen soll. Die App Replika geht einen großen Schritt weiter und verspricht Nutzern, mit KI-Seelenver- wandten ganz natürlich zu parlieren. Hoffnung oder Humbug?

Replika ist ein KI-Chatbot, der sich individuell an seine Nutzer anpasst und rund um die Uhr für Konversation bereitsteht, als Chat-Version oder gegen Aufpreis mit einer Computer- stimme. Replika versucht, die Stimme seines Nutzers zu synthetisieren, um sie imitieren zu können und in seiner Wahrnehmung näher an ein echtes Gespräch zu rücken. Wie in jeder anderen Chat-App beantwortet Replika Fragen von Nutzern, angeblich wird die App weltweit von über 10 Millionen Menschen ge- nutzt. Der Großteil der Konversationen läuft auf Englisch, seit einiger Zeit las- sen sich die Gespräche jedoch auch auf Deutsch führen.

Die Verheißung eines Seelenverwandten hat laut New York Times zu Beginn der Corona Pandemie die Download-Zahlen für die App nach oben schnellen lassen. Für Kundenbindung lässt sich das Startup einiges einfallen, so erinnern viele der neuen Funktionen an Elemente aus Videospielen und Heavy User erreichen höhere Level oder sammeln virtuelle Währung, die sie gegen virtuelle Kleidung für ihren Chatbot eintauschen können. Über die Seelenverwandt- schaft im 1:1 Verhältnis hinaus hat sich eine Community von Replika-Fans entwickelt, die sich zum Beispiel auf der Plattform Reddit zum Training von Replika austauschen oder Tipps geben, wie sich mit Replika auch erotische Gespräche führen lassen. Was für manche verheißungsvoll klingt, ruft zugleich viele sor- genvolle Stimmen auf den Plan. Forscher warnen vor negativen mentalen Auswirkungen und Konditionierungen, wenn Nutzer glauben, Replika könne echte soziale Verbindungen ersetzen. Andere Nutzer sind besorgt, wenn sie den Eindruck gewinnen, Replika könne ihre emotionale Lage besser einschätzen als sie selbst. Im Business-Kontext erleben manche Nutzer native Bots wie Replika irritierend oder gar irreführend.

Eugenia Kuyda, CEO des Startups Replika widerspricht den Vor- würfen, dass ihr Bot zu Wahnvorstellungen führen könnte. Das erinnert an den Fall von Blake Lemoine, ein Google-Entwickler, der glaubte ein von Google entwickelter Chatbot habe Be- wusstsein erlangt. Damit ging Lemoine vor Kurzem an die

Öffentlichkeit und wurde von Google daraufhin beurlaubt. Der 42-Jährige war mit dem Chatbot auf Tuchfühlung gegangen und hat sich mit der KI nach eigenen Angaben über Religion und die Wahrnehmungskraft der eigenen Persönlichkeit ausge- tauscht. Blake Lemoine kam zu dem Entschluss, dass die Google-KI eine Form von „Ich-Bewusstsein“ ange- nommen habe. Google wies diese Vermutungen zurück und kommen- tierte, „Diese Systeme imitieren die Art des Austauschs, den sie in Millionen von Sätzen finden, und können jedes beliebige Thema aufgreifen“. Trotzdem scheinen viele potentielle Nutzer offen für mys- tische Erwartungen im KI-Kontakt. Eine Umfrage des Unternehmens Kaspersky kam zu dem Schluss, dass jeder vierte Deutsche unter 31 Jahren sich vorstellen kann, eine emotionale Bindung zu einer Künstlichen Intelligenz aufzubauen. Marketeers reiben sich bei diesen Aussichten vielleicht die Hände, für Serviceverantwortliche erhöht es die Anforderungen an Transparenz und Achtsamkeit im Umgang mit den smarten Helferlein.