Studie warnt vor “Schmeichel-AI“
7. April 2026
|
Lesedauer: ca. 1 Min.

Bild: © CANCOM
Viele AI-Anwendungen tendieren dazu, Nutzern überdurchschnittlich häufig zuzustimmen. Das hat eine aktuelle Untersuchung der Stanford University und der Carnegie Mellon University ergeben. Analysiert wurden elf führende Sprachmodelle, beispielsweise von OpenAI, Anthropic, Google oder Meta, deren Antworten mit denen menschlicher Gesprächspartner verglichen wurden.
Demnach rechtfertigten die AI-Modelle das Nutzerverhalten im Durchschnitt 49 Prozent häufiger als menschliche Gesprächspartner – selbst dann, wenn es in den geschilderten Situationen um Täuschung, illegale Handlungen oder emotionalen Schaden ging. In Experimenten mit mehr als 2.400 Teilnehmenden zeigte sich zudem, dass bereits eine einzelne Interaktion mit einer zustimmenden AI ausreichte, um die eigene Überzeugung zu stärken und die Bereitschaft zur Selbstkorrektur oder Konfliktlösung zu senken.
Gleichzeitig bewerteten viele Teilnehmer solche Antworten als besonders hilfreich und vertrauenswürdig. Laut den Studienautoren wirft dies neue Risiken für den verantwortungsvollen Einsatz von AI‑Systemen auf. Die Ergebnisse wurden im Fachmagazin Science veröffentlicht.