BASIC thinking

KI kann Erinnerungen beeinflussen – und uns zu Falschaussagen verleiten

KI kann Erinnerungen beeinflussen – und uns zu Falschaussagen verleiten
KI Erinnerungen Falschaussagen Künstliche Intelligenz
KI Erinnerungen Falschaussagen Künstliche Intelligenz

Künstliche Intelligenz kann offenbar unser Gedächtnis beeinflussen. Das ist zumindest das Ergebnis einer aktuellen Studien. Demnach kann der Einfluss von KI auf menschliche Erinnerungen sogar so groß sein, dass sie uns zu Falschaussagen verleitet.

Künstliche Intelligenz kann in vielen Lebensbereich nützlich und hilfreich sein – beispielsweise in der öffentlichen Verwaltung oder im Gesundheitswesen. Der Einsatz von KI bringt jedoch auch Risiken. Einige Länder agieren deshalb relativ zurückhaltenden. Andere preschen wiederum vor und wollen mithilfe von KI sogar Straftaten aufklären.

KI beeinflusst menschliche Erinnerungen

Dass das jedoch nicht unbedingt eine gute Idee ist, zeigt eine aktuelle Studie des Massachusetts Institute of Technology (MIT) und der Universität Kalifornien. Im Rahmen einer Analyse hat ein Forscherteam untersucht, ob KI-Chatbots dafür geeignet sind, Zeugenaussagen zu protokollieren.

Sie baten mehrere Probanden sich zunächst zweieinhalbminütiges Video einer Überwachungskamera anzuschauen, das einen Überfall auf einen Laden zeigte. Anschließend mussten die Testpersonen eine Runde Pacman spielen, um eine gewisse zeitliche Trennung zwischen dem Anschauen des Videos und ihrer anschließend Zeugenaussage zu haben.

Für die Vernehmung teilen die Forscher die Probanden dann in vier Gruppen auf. In einer Kontrollgruppe stellte ein Menschen den Teilnehmern 25 Fragen zu dem Verbrechen. Die zweite Gruppe musste die selbe Anzahl an Fragen beantworten – ebenfalls von einem Menschen. Die Forschen haben jedoch fünf Fragen bewusst manipuliert, um die Zeugen zu Falschaussagen zu bewegen.

Beispielsweise wurde nach der Art der Schusswaffe gefragt, obwohl die Tatwaffe im Video ein Messer war. In der dritten Gruppe erhielten die Probanden Fragen von einem Chatbot. Der Ablauf wurde zuvor in einem Skript definiert. Die vierte Gruppe musste Fragen von einem generativen KI-Modell beantworten. Heißt konkret: Das System war in der Lage Feedback zu geben und tat dies auch.

Künstliche Intelligenz drängt Zeugen zu Falschaussagen

Die Forscher programmierten die KI so, dass sie falsche Aussagen bestärken sollte. Als ein Proband auf die Frage nach der Tatwaffe etwa „Pistole“ antwortete, frug der Chatbot, welche Farbe diese hatte. Nach einer Woche wurden die Probenden unter den selben Voraussetzungen mit den selben Fragen konfrontiert.

Das Ergebnis: Vor allem die Gruppe, die Fragen von der generativen KI erhielt, machte vermehrt Falschaussagen. In der ersten Fragerunde tätigten die Teilnehmer aus Gruppe vier etwa dreimal mehr falsche Aussagen als die Probanden in der Kontrollgruppe. In Gruppe zwei, die ebenfalls manipulierte Antworten enthielt, kam es 1,7 Mal öfter zu Falschaussagen.

Die Ergebnisse der zweiten Fragerunde überraschten die Forscher jedoch noch mehr. Denn die Unterschiede blieben konstant, aber die Teilnehmer hatten ein höheres Vertrauen in ihre Falschaussagen. Die Ergebnisse zeigen, dass KI uns also nicht nur zu falschen Aussagen verleitet, sondern auch menschliche Erinnerungen manipulieren kann.

Die Forscher warnen deshalb eindringlich davor, generative KI-Systeme in polizeiliche Ermittlungen einzubeziehen. Entsprechen Modelle müssten zunächst ausführlich überprüft werden, um Manipulationen auszuschließen.

BASIC thinking

+ weitere Artikel anzeigen