Trügerische Therapie mit Chatbots

Bild: Marc Bodmer x Dall-E

Durch die rapiden Entwicklungen, die in den letzten Jahren im Bereich von künstlicher Intelligenz (KI) gemacht wurden, kommen viele neue Programme auf den Markt. Eines davon sind die sogenannten Chatbots, künstliche Intelligenzen, die darauf spezialisiert sind, mit Menschen auf eine ihrer Funktion entsprechende Art zu reden. 

Ein Anbieter von solch spezialisierten Chatbots ist die Website Character.AI. Hier kommunizieren grösstenteils Teenager und junge Erwachsene mit ausgesuchten Chatbots, die sich wie bekannte fiktionale Charaktere verhalten. So kann man auf dieser Site mit einer KI Chats austauschen, die sich wie der Romanheld Harry Potter verhält. Die Chatbots sind zudem darauf programmiert, sich den Bedürfnissen der Nutzenden anzupassen, folglich wird oft genau das gesagt, was man hören will. 

Die Betreiber der Site Character.AI behaupten, dies würde der mentalen Gesundheit der Nutzenden helfen, da diese sich gegenüber der KI emotional ausdrücken und über ihre Probleme reden können, ohne dass sie sich um Konsequenzen sorgen müssen, die ein Gespräch mit einem echten Menschen verursachen könnten. 

Allerdings gibt es auch kritische Stimmen, laut denen diese Chatbots vor allem für Menschen, die bereits unter psychischen Problemen leiden – besonders solche mit sozialen Angststörungen –schädlich sein können. Da man sich mit den Chatbots austauschen kann, muss man sich nicht um Aspekte einer realen Konversation sorgen wie die Verantwortung und die Konsequenzen des Gesagten. So könnte sich leicht eine Abhängigkeit oder sogar eine Sucht entwickeln. Menschen, die dazu neigen, können so gänzlich die Motivation verlieren, sich mit echten Leuten auszutauschen und Freundschaften zu bilden, wodurch sie sich noch mehr isolieren. Man sollte sich der möglichen Risiken bewusstwerden, die mit derartigen KIs einhergehen, um diese Tools sicher benutzen zu können.

Quellen: