KI in der Lügendetektion: Sozialer Frieden in Gefahr?
16.07.2024Künstliche Intelligenz kann Lügen deutlich besser erkennen als Menschen. Das hat auch Auswirkungen auf das gesellschaftliche Miteinander, wie eine jetzt veröffentlichte Studie zeigt.
Menschen sind schlecht darin, Lügen zu erkennen. Wie Studien regelmäßig belegen, schneiden sie mit ihren Urteilen kaum besser ab als der Zufall. Dieses Unvermögen könnte mit ein Grund dafür sein, warum die meistens davon absehen, andere der Unehrlichkeit zu bezichtigen. Zu peinlich wäre es, wenn sich am Ende herausstellt, dass der angebliche Lügner doch die Wahrheit gesagt hat; zu groß wäre der Ärger, der daraus erwachsen kann.
So gesehen klingt eine Technik, die Lügen viel besser identifizieren kann als ein Mensch, wie ein großartiges Versprechen – gerade in einer Zeit, in der sich Fake News, zweifelhafte Aussagen von Politikern und gefälschte Videos immer weiter ausbreiten. Künstliche Intelligenz (KI) ist dazu in der Lage.
In welchem Ausmaß KI Lügen erkennt und welche Auswirkungen dies auf das menschliche Verhalten hat: Das haben Wissenschaftlerinnen und Wissenschaftler aus Würzburg, Duisburg, Berlin und Toulouse untersucht. Die Ergebnisse hat das Team jetzt in der Fachzeitschrift iScience veröffentlicht. Erstautorin ist Alicia von Schenk, Juniorprofessorin für Angewandte Mikroökonomie, insbesondere Mensch-Maschine-Interaktion an der Julius-Maximilians-Universität Würzburg (JMU); Victor Klockmann, Juniorprofessor an der JMU für Mikroökonomie, insbesondere Digitalisierung, ist Ko-Erstautor.
Die zentralen Ergebnisse dieser Studie lassen sich so zusammenfassen:
- Künstliche Intelligenz übertrifft menschliche Genauigkeit bei textbasierter Lügenerkennung.
- Ohne die Unterstützung von KI zögern Menschen, andere der Lüge zu bezichtigen.
- Mit KI-Unterstützung äußern Menschen sehr viel öfter ihren Verdacht, eine Lüge präsentiert bekommen zu haben.
- Nur etwa ein Drittel der Studienteilnehmer nutzen das Angebot, eine KI um ihre Einschätzung zu bitten. Wenn sie dies tun, folgen jedoch die meisten ihrem Rat.
„Diese Ergebnisse deuten darauf hin, dass KI zum Erkennen von Lügen ein hohes gesellschaftliches Störpotenzial besitzen könnte“, sagt Alicia von Schenk. Denn wenn Menschen vermehrt den Verdacht äußern, ihr Gegenüber könne gelogen haben, fördere dies ein allgemeines Misstrauen und verstärke die Polarisierung zwischen Gruppen, denen es ohnehin schon schwerfällt, einander zu vertrauen.
Auf der anderen Seite könne der Einsatz von KI auch positive Auswirkungen haben. „Auf diese Weise kann möglicherweise Unaufrichtigkeit verhindert und Ehrlichkeit in der Kommunikation gefördert werden“, ergänzt Victor Klockmann.
Die Politik ist gefordert
Während Menschen derzeit noch zurückhaltend sind, technische Unterstützung zu nutzen, um Lügen zu erkennen, könnte dies bei Organisationen und Institutionen ganz anders sein – beispielsweise, wenn Firmen mit Lieferanten oder Kunden kommunizieren, wenn Personaler Bewerbungsgespräche führen oder Versicherungen Ansprüche prüfen.
Aus diesem Grund fordern die Autorinnen und Autoren der Studie „einen umfassenden rechtlichen Rahmen, um die Auswirkungen KI-gestützter Algorithmen zur Erkennung von Lügen zu kontrollieren“. Der Schutz der Privatsphäre und ein verantwortungsvoller Einsatz von KI, insbesondere im Bildungs- und Gesundheitswesen, seien dabei wesentliche Aspekte. Den Einsatz dieser Technik grundlegend ablehnen, wollen die Wissenschaftlerinnen und Wissenschaftler nicht. Aber: „Ein proaktiver Ansatz zur Gestaltung der politischen Landschaft in diesem Bereich wird entscheidend sein, um die potenziellen Vorteile dieser Technologien zu nutzen und gleichzeitig ihre Risiken zu mindern“, so ihre Warnung.
Die Studie
Zur Vorbereitung der Studie hat das Forschungsteam knapp 1.000 Personen darum gebeten, ihre Pläne für das kommende Wochenende aufzuschreiben. Dabei sollten sie neben einer wahren Aussage auch eine erfundene Aussage über ihre Pläne verfassen. Hierbei wurde ein monetärer Anreiz gegeben, die erfundene Aussage möglichst überzeugend zu formulieren. Nach einer Qualitätskontrolle hatte das Team am Ende einen Datensatz mit 1.536 Aussagen von 768 Autorinnen und Autoren.
Basierend auf diesem Datensatz wurde anschließend ein Algorithmus zur Lügenerkennung entwickelt und trainiert, der auf der Grundlage des Open-Source-Sprachmodells BERT von Google arbeitet. Tatsächlich identifizierte dieser Algorithmus nach dem Training knapp 81 Prozent aller Lügen.
Wer vertraut der KI?
Für die Hauptstudie wurden anschließend 510 Aussagen nach dem Zufallsprinzip ausgewählt und 2.040 weitere Teilnehmerinnen und Teilnehmer rekrutiert. Aufgeteilt in vier Gruppen, sollten diese Versuchspersonen beurteilen, ob die ihnen vorgelegten Aussagen wahr oder falsch sind.
Während Gruppe 1 die Aussagen ohne KI-Unterstützung bewerten musste, bekam Gruppe 2 die Einschätzung des Algorithmus vor der Abgabe ihres eigenen Urteils stets angezeigt. Die Gruppen 3 und 4 konnten das Urteil der KI aktiv anfordern, mussten dafür aber einen geringen Geldbetrag bezahlen. Gleichzeitig wurden die Mitglieder dieser Gruppen darüber informiert, dass sie möglicherweise trotz Anforderung kein KI-Urteil erhalten würden. Letztlich sah Gruppe 3 keine KI-Empfehlung, während die Mitglieder von Gruppe 4 stets die Einschätzung der KI erhielten, wenn sie diese anforderten.
„Mit diesem experimentellen Design war es uns möglich zu untersuchen, wie viele Studienteilnehmer tatsächlich Ratschläge der KI erhalten möchten und ob diejenigen, die Ratschläge anfordern, sich in ihrem Verhalten grundsätzlich von denen unterscheiden, die dies nicht tun“, erklärt Alicia von Schenk.
Einige Ergebnisse
Menschen sind nicht in der Lage, wahrheitsgemäße Aussagen von Lügen zu unterscheiden: Das zeigen die Ergebnisse von Gruppe 1. Ohne KI-Unterstützung erreichen ihre Mitglieder bei ihren Urteilen eine Trefferquote von 46,5 Prozent – also in etwa das Ergebnis, das dem Zufall entspricht. Gruppe 2 hingegen schaffte mit KI-Unterstützung bei der Identifizierung von Lügen eine Treffergenauigkeit von 60,1 Prozent.
Menschen scheuen davor zurück, andere einer Lüge zu bezichtigen. Diesen Weg wählten in Gruppe 1 nicht einmal 20 Prozent ihrer Mitglieder. In Gruppe 2, die automatisch die Einschätzung der KI erhielt, stieg dieser Wert auf immerhin 30 Prozent. Noch höher liegt der Wert bei Mitgliedern der Gruppe 4, die eine Vorhersage anforderten und erhielten: ihre Beschuldigungsrate stieg signifikant auf rund 58 Prozent.
Nur etwa ein Drittel der Personen fordert die Vorhersage des Lügendetektion-Algorithmus an. Wer dies jedoch tut, folgt dem algorithmischen Rat in der Regel: Das machen rund 88 Prozent. Nur 57 Prozent sind es unter denen, die die Vorhersage automatisch erhalten. Noch größer ist dieser Unterschied, wertet man nur die Zahlen in dem Fall aus, in dem die KI das Urteil „Lüge“ fällt: Dann schließen sich 85 Prozent derjenigen, die die KI-Einschätzung gewünscht hatten, diesem Urteil an. Unter denen, die die KI-Bewertung automatisch erhalten hatten, folgten nur 40 Prozent.
Originalpublikation
Lie detection algorithms disrupt the social dynamics of accusation behavior. Alicia von Schenk, Victor Klockmann, Jean-François Bonnefon, Iyad Rahwan, Nils Köbis. iScience (2024), https://doi.org/10.1016/j.isci.2024.110201
Kontakt
Prof. Dr. Alicia von Schenk, Juniorprofessur für Angewandte Mikroökonomie, insbesondere Mensch-Maschine-Interaktion, T: +49 931 31-86107, alicia.vonschenk@uni-wuerzburg.de
Prof. Dr. Victor Klockmann, Juniorprofessur für Mikroökonomie, insbesondere Digitalisierung, T: +49 931 31-86297, victor.klockmann@uni-wuerzburg.de