Durch Künstliche Intelligenz (KI) lassen sich Desinformationen plausibler und genauer verbreiten als noch vor einigen Jahren. Bilder und Stimmen lassen sich fast beliebig manipulieren. Das ist gefährlich und bisher sind wirksame Gegenmittel nicht in Sicht. Hannah Krause hat dazu im österreichischen «Standard» einen lesenswerten Text publiziert. Sie schreibt zu den besorgniserregenden Möglichkeiten der KI-Desinformation in Demokratien:
«Gerüchte über gegnerische Kandidaten zu verbreiten, ist eine gängige Praxis von Wahlkampfteams weltweit. Es ist jedoch eine Sache, zu behaupten, jemand hätte etwas getan, und eine andere, sich in Sekunden „Beweise“ dafür produzieren lassen zu können. Hierfür stehen KI-generierte Deepfakes zur Verfügung, welche zunehmend schwerer zu enttarnen sind. Doch je nachdem, wie hoch die Informations- und Medienkompetenz in einem Land ist, können sogar qualitativ schlechte Schöpfungen eindrücklichen Erfolg haben.»
KI-Desinformation ist bereits Gegenwart – nicht erst Zukunft
KI-Desinformation in Wahlkämpfen findet bereits statt. Hannah Krause schildert dazu eine Reihe von Beispielen.
In der Slowakei wurden letztes Jahr kurz vor den Präsidentschaftswahlen Audioaufnahmen veröffentlicht, in denen die geklonte Stimme des progressiven Kandidaten Michal Simecka davon berichtet, die Wahlen fälschen und den Bierpreis verdoppeln zu wollen. Zwei Tage vor der Abgabe der Stimmzettel gelang es der slowakischen Oppositionspartei nicht mehr, die Falschmeldung wirksam zu dementieren. Wie es häufig der Fall ist, blieb wohl auch hier die erste Meldung prägnanter hängen als die Gegendarstellung.
Auch die AfD fälscht Stimmen: Im Ampelkalender der Partei waren in der letzten Adventszeit tagtäglich die Stimmen von Mitgliedern der deutschen Bundesregierung in gefälschten Interviews zu hören. Diese «Auftritte» waren zwar als Parodie konzipiert, doch nirgendwo als KI-generiert gekennzeichnet. Die AfD erfindet für ihre Instagram-Kanäle auch Bilder von überzeugten Wählern inklusive Unterstützungs-Statement. Ebenso vermeintlich reale Szenarien wie ein mit Stacheldraht umzäunter Weihnachtsmarkt oder der Feldberg im Schwarzwald übersäht mit Windrädern.
Bei solcher KI-Desinformation wird oft an echte Ereignisse angeknüpft.
So können Aussagen, die eine Person wirklich getätigt hat, modifiziert werden oder mit frei Erfundenem an bestehende Debatten andocken – was sehr zur Glaubhaftigkeit der Falschmeldung beiträgt.
Quelle:
„FAKTEN“ AUF KNOPFDRUCK:
„Lügen-Tsunami“: Die neue Bedrohung durch KI für Wahlen weltweit (Der Standard)
Anmerkung:
Demokratien müssen sich dringend mit diesen Gefahren durch KI-Desinformation befassen und Gegenmittel finden. Es braucht technische Mittel, um KI-Desinformation rasch zu erkennen. Es braucht Bildung, damit möglichst viele Menschen für diese Gefahr sensibilisiert werden. Und in der Zwischenzeit ist es wohl dringlich, dass wir uns ein gesundes Misstrauen gegen Fotos und Videos angewöhnen. Sie sind – und waren es auch nie wirklich – eine sichere Bestätigung von Sachverhalten.
Siehe auch:
George Soros warnt vor Gefahr durch Künstliche Intelligenz (KI)