Suche
Newsletter für das Sozialmanagement
Künstliche Intelligenz (KI) konkurriert mit dem menschlichen Gehirn in immer mehr Anwendungsbereichen – warum nicht auch bei der Aufdeckung von Lügen und Täuschungen? In Zeiten, da Fake News und Halbwahrheiten zunehmend die Öffentlichkeit verunsichern, ist das ein großes Versprechen. Auch in alltäglichen Situationen wäre das eine nützliche Anwendung, etwa für die Entzauberung von Werbeversprechen oder die Sichtung von Bewerbungsunterlagen. Eine Studie der Julius-Maximilians-Universität Würzburg untersucht, in welchem Ausmaß KI Lügen erkennt und welche Auswirkungen das auf das soziale Miteinander hat.
Alle tun es, niemand gibt es zu: lügen. „Die Menschen lügen alle“, heißt es schon in einem Psalm der Bibel, und Otto von Bismarcks Bonmot hat noch heute viele Freunde: „Es wird niemals so viel gelogen wie vor der Wahl, während des Krieges und nach der Jagd.“ Dabei sind Flunkereien nicht immer bösartig: Häufig sollen sie Kränkungen vermeiden, Streit umschiffen und Beziehungen pflegen. Als Notlüge navigieren sie durch den Alltag, als Trugbild schützen sie uns vor unliebsamen Wahrheiten. Die Psychologie berichtet über neuere Erkenntnisse, wonach Lügen im Leben unvermeidlich – ja, sogar sinnvoll sind. Die moralische Konsequenz: Lügen sind nur dann verwerflich, wenn sie einem Menschen bewusst schaden.
Dennoch werden Menschen nicht gerne hinters Licht geführt, wollen nicht Opfer von Täuschung und Manipulation werden. Daher will die Psychologie bei der Entschlüsselung der Geheimcodes der Körpersprache helfen: Defensive Haltung und die Vermeidung von Blickkontakt stehen demnach für schlechtes Gewissen und Fluchtinstinkt, weitere Hinweise ergeben sich aus Mimik, Reaktionsschnelligkeit, inhaltlicher Stimmigkeit und versuchten Ablenkungsmanövern des Gegenübers.
Im Alltag mögen solche Beobachtungen einige Schummelattacken abwehren, darüber hinaus aber haben sie eine hohe Irrtumswahrscheinlichkeit. Menschen sind nun mal schlecht darin, Lügen zu erkennen. Auch Richter*innen, Psychiater*innen und Geheimagent*innen entlarven Lügen statistisch gesehen kaum häufiger als Amateur*innen. Dieser Unzulänglichkeit wollten Wissenschaftler*innen des frühen 20. Jahrhunderts die Unbestechlichkeit einer Maschine entgegensetzen – die Geburtsstunde des Lügendetektors. Genau genommen misst das Gerät keine Unwahrheiten, sondern Stress, weshalb das Gerät korrekt Polygraph heißt. Messwerte für Atemfrequenz, Puls, Blutdruck und Schwitzen sollen Lügen aufdecken, zeigen tatsächlich aber nur die ganz normale Nervosität in einer Befragungssituation an. Wegen dieser Unzuverlässigkeit hat der Bundesgerichtshof 1998 Befunde von Lügendetektoren aus Strafprozessen verbannt. Dennoch werden sie noch heute eingesetzt, vor allem in den USA bei Job-Interviews und beim Geheimdienst. Moderne High-Tech-Lügendetektoren arbeiten mittlerweile mit Wärmebildkamera, Stimmenanalyse und Hirnscan und erreichen eine erhöhte Trefferquote.
Die Idee ist nicht totzukriegen, der Lüge mittels Technik und Wissenschaft auf die Schliche zu kommen. Künstliche Intelligenz eröffnet derzeit eine neue Runde. Kann diese Technologie perfekte Sicherheit in der Entlarvung von Lügen bieten? Das erforschten die Wirtschaftswissenschaftlerin Alicia von Schenk mit dem Schwerpunkt in Mensch-Maschine-Interaktion und ihr Kollege Victor Klockmann mit dem Schwerpunkt Digitalisierung in ihrer Studie. Zusammen mit Kolleginnen und Kollegen aus Berlin, Duisburg-Essen und Toulouse entwickeltet das Würzburger Duo einen Algorithmus, der auf der Grundlage des Open-Source-Sprachmodells BERT von Google Lügen aufspürt. Die Studie untersucht mit 2.040 Teilnehmenden aus den USA deren Umgang mit den KI-Ergebnissen.
Die zentralen Ergebnisse dieser Studie lauten zusammengefasst:
Nur etwa ein Drittel der Teilnehmenden nutzt das Angebot einer KI-Software zur besseren Einschätzung. Aber wenn sie das tun, folgen die meisten ihrem Rat.
Die Würzburger Studie zeigt zweierlei: KI hat das Potenzial zuverlässigerer Lügenerkennung als alle menschlichen Bemühungen zuvor. „Auf diese Weise kann möglicherweise Unaufrichtigkeit verhindert und Ehrlichkeit in der Kommunikation gefördert werden“, erklärt Forscher Klockmann. Zugleich birgt der KI-Einsatz die Gefahr eines „hohen gesellschaftlichen Störpotentials“, warnt Forscherkollegin von Schenk: Wenn Menschen vermehrt den Verdacht äußerten, ihr Gegenüber könne gelogen haben, fördere das Misstrauen und soziale Polarisierung. Schließlich kann eine falsche Beschuldigung einschneidende Konsequenzen für alle Betroffenen haben. In diesem Punkt wird die Studie sehr deutlich: „Der Umgang mit den Auswirkungen, einschließlich der Verschiebung des Vertrauens und der Schuldzuweisung, ist von größter Bedeutung. Es ist wichtig, diese Dynamiken zu erkennen und den Übergang zu einer Gesellschaft, die durch vermehrte Anschuldigungen gekennzeichnet ist, sorgfältig zu steuern.“
Rückenwind bekommt das Duo von einer fast zeitgleich erschienenen Studie der Psycholog*innen Kristina Suchotzki und Matthias Gamer. Beide berufen sich auf den Einsatz Künstlicher Intelligenz zur Befragung von Einreisewilligen an den EU-Grenzen. In Griechenland, Lettland und Ungarn ist die Technik im Rahmen des europäischen Projekts für Grenzkontrollen iBorderCtrl bereits erprobt worden. Sie soll Reisende mit kriminellen Absichten identifizieren und wertet dafür automatisierte Befragungen aus.
Dabei zeigten sich mehrere Schwachstellen. Die Technik sei unzuverlässig und intransparent – und leide wie alle Ansätze zuvor unter einem grundsätzlichen Problem: Es gebe keine eindeutigen Verhaltenshinweise dafür, ob jemand die Wahrheit sage oder nicht. „Pinocchios Nase gibt es außerhalb von Büchern nicht“, fassen die Forschenden ihre Kritik zusammen.
Rundherum ablehnen wollen von Schenk und Klockmann den KI-gestützten Lügendetektor zwar nicht. Mit seiner Hilfe ließe sich zum Beispiel routinemäßig der Wahrheitsgehalt von Beiträgen in sozialen Medien bewerten. Dennoch sei die Technologie nicht ausgereift, um rundherum belastbare Ergebnisse zu präsentieren.
Daher fordern die Forschenden „einen umfassenden rechtlichen Rahmen, um die Auswirkungen KI-gestützter Algorithmen zur Erkennung von Lügen zu kontrollieren“. Richtschnur müsse der Schutz der Privatsphäre und ein verantwortungsvoller Einsatz von KI sein. Auf diese Weise ließen sich die potenziellen Vorteile dieser Technologien nutzen und ihre Risiken zu mindern.
Vorerst gilt also: Die Menschheit muss weiterhin mit Lügen leben. Doch wie viele es sind, hat jede und jeder selbst in der Hand.
Alicia von Schenk / Victor Klockmann u.a., Lie detection algorithms disrupt the social dynamics of accusation behavior, in: iScience (2024). Download.
Kristina Suchotzki / Matthias Gamer, Detecting deception with artificial intelligence: promises and perils, in: Trends in Cognitive Sciences. Download.
Digitalisierung
„Smart Ageing“ – Wie schaut die Generation 50plus auf die Digitalisierung?
Künstliche Intelligenz
Besser als der Mensch, aber nicht gut genug: Wie ehrlich ist Künstliche Intelligenz bei der Aufdeckung von Lügen?
Kinderbetreuung
Kitabericht 2024: Bildung und Teilhabe zwischen Anspruch und Wirklichkeit
Buchempfehlung
Der Grund: Die neuen Konflikte um unsere Böden – und wie sie gelöst werden können
Susanne Bauer
Senior Referentin Unternehmenskommunikation
Konrad-Adenauer-Ufer 85
50668 Köln
T 0221 97356-237
F 0221 97356-477
E-Mail