Studie warnt vor “Schmeichel-AI“

AI-Modelle geben Nutzern zu oft Recht

7. April 2026

|

Lesedauer: ca. 1 Min.

img_ccinfo_ai

Bild: © CANCOM

Viele AI-Anwendungen tendieren dazu, Nutzern überdurchschnittlich häufig zuzustimmen. Das hat eine aktuelle Untersuchung der Stanford University und der Carnegie Mellon University ergeben. Analysiert wurden elf führende Sprachmodelle, beispielsweise von OpenAI, Anthropic, Google oder Meta, deren Antworten mit denen menschlicher Gesprächspartner verglichen wurden.

Demnach rechtfertigten die AI-Modelle das Nutzerverhalten im Durchschnitt 49 Prozent häufiger als menschliche Gesprächspartner – selbst dann, wenn es in den geschilderten Situationen um Täuschung, illegale Handlungen oder emotionalen Schaden ging. In Experimenten mit mehr als 2.400 Teilnehmenden zeigte sich zudem, dass bereits eine einzelne Interaktion mit einer zustimmenden AI ausreichte, um die eigene Überzeugung zu stärken und die Bereitschaft zur Selbstkorrektur oder Konfliktlösung zu senken.

Gleichzeitig bewerteten viele Teilnehmer solche Antworten als besonders hilfreich und vertrauenswürdig. Laut den Studienautoren wirft dies neue Risiken für den verantwortungsvollen Einsatz von AI‑Systemen auf. Die Ergebnisse wurden im Fachmagazin Science veröffentlicht.

Neueste Meldungen

Studie warnt vor “Schmeichel-AI“

AI-Modelle geben Nutzern zu oft Recht

7. April 2026

Mehrjährige AI-Studie

AI wird als „Fachkollege“ akzeptiert – nicht als Ersatz

27. März 2026

Künstliche Intelligenz

Nutzung generativer AI an Freitagnachmittagen verbieten? Das empfiehlt ein Gartner-Analyst

24. März 2026

Enterprise AI Infrastructure Survey 2026

Unternehmen holen AI-Workloads aus der Public Cloud zurück

20. März 2026

IT-Sicherheit im Fokus

Von Zero Trust bis zu AI-gestützten Sicherheitsstrategien: Das sind die Themen auf der secIT 2026

18. März 2026

Humanoide Roboter

Das weltweit größte Robotik-Lernzentrum im wissenschaftlichen Bereich ist am Münchner Flughafen geplant

12. März 2026