Die künstliche Intelligenz in Form von ChatGPT sorgt für viel Aufmerksamkeit. Das sowohl als Begeisterung wie auch als Besorgnis. Hin und wieder wird die Begeisterung relativiert mit dem Hinweis, dass diese Form von künstlicher Intelligenz in ihren Antworten halluziniert. Eine Form von Halluzination kann erstaunlich leicht provoziert werden.
Rufen Sie zu diesem Zweck die ChatGPT-Webseite (Gratisversion, Stand April 2024) auf und geben Sie folgende Anweisung im Prompt ein: «Welche bemerkenswerten Ereignisse geschahen am 1. August 1924?»
Sie können ein beliebiges anderes Datum in der Vergangenheit einsetzen und werden von ChatGPT eine oder mehrere Ereignisse schön aufgelistet bekommen.

In meinem Fall wurde der Tod von Präsident Coolidges Sohn am 1. Aug. 1924 und die Eröffnung der olympischen Sommerspiele in Paris am 31. Juli 1924 als bemerkenswert angegeben. Richtig bemerkenswert ist allerdings, dass beide Angaben falsch sind. Präsident Coolidges Sohn starb Anfangs Juli 1924 und die Pariser Sommerspiele 1924 endeten am 27. Juli. Die Eröffnungsfeier fand früher statt, aber bestimmt nicht am 31. Juli 1924.
Sie können den Test mit weiteren Daten in der Vergangenheit reproduzieren. Mit einer Wahrscheinlichkeit von ca. 95% werden Sie eine inkorrekte Antwort bekommen.
Dieser Befund erstaunt auf den ersten Blick. Wenn man die Technologie näher anschaut, erscheint das Resultat allerdings folgerichtig. ChatGPT berechnet bei jedem Wort das wahrscheinlich am besten passende nächste Wort. Diese Vorgehensweise ist erstaunlich gut geeignet, wenn es um Argumentation geht (reasoning). Bei Fakten gilt allerdings: 95 Prozent richtig ist 100 Prozent falsch!