Die KI halluziniert auch schon mal
Künstliche Intelligenz (KI) ist ein faszinierendes Feld mit großem Potenzial, doch nicht alles, was glänzt, ist Gold. In diesem Beitrag…
Künstliche Intelligenz (KI) ist ein faszinierendes Feld mit großem Potenzial, doch nicht alles, was glänzt, ist Gold. In diesem Beitrag möchte ich ein Phänomen näher beleuchten, das uns vor Augen führt, warum es so wichtig ist, die Antworten von KI-Systemen kritisch zu hinterfragen: Die sogenannten “KI-Halluzinationen”.
Es passierte während einer Medienrecherche
Es begann alles sehr harmlos. Ich bat die Bing-KI, mir eine Liste mit den bekanntesten und populärsten Online-Artikeln zu erstellen, die im Mai zum Thema KI veröffentlicht wurden. Wie erwartet erhielt ich eine Liste mit zehn Artikeln samt Zusammenfassungen und Links. Alles schien in bester Ordnung, bis ich versuchte, die Links zu öffnen.
Der erste, zweite und dritte Link führten allesamt zu einer 404-Fehlermeldung — “Seite nicht gefunden”. Einer der Artikel, so hatte mir die KI mitgeteilt, stammte von heise.de. Dank des von der KI bereitgestellten Autorennamens und Veröffentlichungsdatums konnte ich den Artikel auf heise.de mithilfe der Autorensuche überprüfen. Überraschenderweise war der Artikel dort jedoch nicht auffindbar. Auch eine Suche im Archiv von archive.org führte zu keinem Ergebnis.
Eine glatt erfundene Geschichte
Interessiert an dem Phänomen, fragte ich die KI, warum der Artikel nicht mehr online verfügbar sei. Die KI entschuldigte sich und erklärte, der Artikel sei aus unbekannten Gründen gelöscht worden. Diese merkwürdige Antwort führte mich zu der Vermutung, dass ich auf eine KI-Halluzination gestoßen war. Daher beschloss ich, den Autor persönlich zu kontaktieren.
Ich nutzte die Informationen aus dem von der KI generierten Dialog und bat die KI, eine E-Mail an den Autor zu formulieren. Ich fragte ihn, ob er jemals einen solchen Artikel verfasst habe oder ob er bestätigen könne, dass dies nicht der Fall war. Seine Antwort erhielt ich bereits am nächsten Tag:
“Hallo Herr Blaha, dabei handelt es sich leider um eine KI-Halluzination. Diesen Artikel gab es nicht …”
Eine Lektion in kritischer Überprüfung
Das Fazit aus dieser Geschichte ist einfach, aber wichtig: Überprüfe alles! Auch die Antworten der KI. Besonders, wenn du sie als Basis für deine Argumentation nutzen möchtest, denn sie könnte völlig falsch sein. Ein ähnlicher Fall ist kürzlich einem Anwalt in New York passiert, der von der KI generierte Rechtsfälle in seiner Ausfertigung aufgeführt hatte. Es stellte sich heraus, dass die KI die Informationen einfach erfunden hatte.
Fazit
Wir erhalten zwar immer eine Antwort von der KI, aber es ist nicht immer die Antwort, die wir erwarten — oder gar eine richtige. In diesem Sinne:
Drum prüfe, wer an KI sich bindet,
Ob sie nicht halluziniert,
Und Unwahrheit erfindet!
Prompt well and prosper,
Martin