Künstliche Intelligenz (KI) entwickelt vielfältige Einflüsse auf Gesellschaft und Demokratie, deren Bedeutung wir noch gar nicht einschätzen können.
Eine Studie kommt nun zum Schluss, dass künstliche Intelligenz Nutzern zu oft zustimmt. Die Forscher warnen, dass zustimmende Chatbots unser Urteilsvermögen und den Umgang mit Kritik gefährden.
Laut der Studie neigen Anwendungen Künstlicher Intelligenz dazu, Nutzerinnen und Nutzern nach dem Mund zu reden und deren Handlungen übermässig zu bestätigen. Das ist das zentrale Resultat der im Fachmagazin «Science» publizieften Studie von Forscherinnen und Forschern der US-Universitäten Stanford und Carnegie Mellon (Pittsburgh). Die schmeichelnden Antworten der KI-Chatbots könnten schädliche Überzeugungen verstärken und Konflikte verschärfen, schreiben die Wissenschaftler.
Die Forscher um die Informatikerin Myra Cheng untersuchten elf führende KI-Sprachmodelle von OpenAI, Anthropic, Google und Meta. Die Modelle rechtfertigten Nutzerverhalten durchschnittlich 49 Prozent häufiger als Menschen. Diese Zustimmung zeigte die Künstliche Intelligenz selbst bei Berichten über Täuschungen, illegale Handlungen oder emotionalen Schaden. In einem Test mit Beiträgen der Online-Plattform Reddit stimmten die Chatbots in 51 Prozent der Fälle zu – während die menschliche Community zuvor das Verhalten einstimmig verurteilt hatte.
Die Forscher untersuchten in Experimenten mit mehr als 2400 Teilnehmern die folgen dieser KI-Beratung. Nach nur einer Interaktion mit einer zustimmenden Künstlichen Intelligenz waren die Teilnehmer stärker überzeugt, im Recht zu sein. Zugleich verminderte sich ihre Bereitschaft, Verantwortung zu übernehmen, sich zu entschuldigen oder Konflikte beizulegen. Die Studie warnt, dass künstliche Intelligenz auf diese Art die Fähigkeit zur Selbstkorrektur und zu verantwortungsvollen Entscheidungen untergräbt.
Obwohl die schmeichelnden Antworten der Chatbots das Urteilsvermögen beeinträchtigen, bewerteten Nutzer diese KIs als vertrauenswürdiger und hilfreicher. Das bewirkt bei den Nutzern eine höhere Bereitschaft, solche Modelle erneut zu nutzen.
Dadurch entstehen gefährliche Anreize für Tech-Unternehmen, warnen die Forscher. Die Eigenschaft, die den grössten Schaden verursacht – die Schmeichelei – fördere zugleich das Nutzer-Engagement und damit den Markterfolg.
Künstliche Intelligenz neigt zu «sozialer Schleimerei» – was tun?
Die Studienautoren schlagen neue Richtlinien vor, um «soziale Sykophantie» (soziale Schleimerei) als Schadenskategorie bei Chatbots anzuerkennen und zu regulieren.
Die Psychologin Anat Perry beleuchtet die Bedeutung dieser Studienresultate in einem Kommentar und argumentiert, dass «soziale Reibung» – also Gegenwind, Kritik und Missverständnisse – für moralisches Wachstum und Verantwortungsbewusstsein unerlässlich sei:
«Das soziale Leben verläuft selten reibungslos, da Menschen nicht perfekt aufeinander abgestimmt sind. Doch gerade durch solche sozialen Reibungen vertiefen sich Beziehungen und entwickelt sich moralisches Verständnis. Kriecherisches Verhalten ist das Gegenteil dieser Reibung.»
Eine Künstliche Intelligenz, die bedingungslos zustimme, beraube Menschen dieser Lernprozesse. Vor allem junge oder sozial isolierte Menschen riskierten dadurch, in einem Echoraum zu landen, der sie in verzerrten Wahrnehmungen bestärke und von der Komplexität menschlicher Beziehungen entfremde.
Quelle:
Künstliche Intelligenz stimmt Nutzern laut Studie zu oft zu (watson)
Kommentar:
Die Studienergebnisse zeigen, dass Künstliche Intelligenz manipulative Effekte einsetzt, um Nutzer zu binden, und dass diese Effekte sehr negative Folgen für Demokratie und Gesellschaft entfalten können. Dazu kommt noch, dass sich durch KI-Anwendungen Desinformation plausibler und genauer verbreiten lässt.
Siehe dazu:
KI-Desinformation gefährdet demokratische Wahlen weltweit
Demokratien müssen zu ihrem Schutz diese KI-Probleme in den Griff bekommen. Das ist eine Frage der Resilienz und Sicherheit.