Wenn die Künstliche Intelligenz halluziniert, wird die Erde zur Scheibe und es entstehen wunderliche Artefakte, die womöglich funktionieren – ohne dass ein Mensch versteht, warum eigentlich. Gemini, Prompt: Heiko Weckbrodt
Warum Künstliche Intelligenzen halluzinieren – und was Dresdner Forscher als Therapie vorschlagen
Dresden, 25. April 2025. Eine Künstliche Intelligenz (KI) schreibt eine flammende Rede mit dem Nachweis, dass die Erde eine Scheibe ist. Eine andere hält sich nach wenigen Textaufforderungen eines raffinierten „Prompt-Ingenieurs“ für ein verliebtes Schulmädchen. Eine weitere KI soll ein Bild von deutschen Soldaten im II. Weltkrieg malen – und steckt fein säuberlich Menschen jeglicher Hautfarbe in Wehrmachts-Uniformen. In einem anderen Fall wünschen sich Elektronikingenieure einen Schaltkreis, der bestimmte Funktionen beherrscht. In der Folge spuckt die Künstliche Intelligenz eine Reihe vollkommen idiotischer Entwürfe aus – und ein Schaltkreis-Design, das tatsächlich so arbeitet wie gewünscht. Nur: Hinterher versteht kein Mensch, warum und wie dieser Chip überhaupt funktioniert.
Sinnvolle Balance zwischen Chancen und Risiken finden
Solche „Halluzinationen“ und andere schwer oder gar nicht erklärbare Resultate spielen eine wachsende Rolle in Wirtschaft und Gesellschaft, seit immer mehr Unternehmen und Privatleute Künstliche Intelligenz einsetzen, um lästige Routinearbeiten loszuwerden oder Schätze in Datenfluten zu heben. Und sie treiben Manchem erst die Sorgenfalten, dann den Angstschweiß auf die Stirn und tückische Fragen in den Sinn: Könnte es sein, dass wir irgendwann zu viele Aufgaben an halluzinierende KIs delegiert haben? Und die machen Fehler über Fehler – und keiner merkt es oder kann erklären, wie diese Fehler zustande kommen?! Andererseits ermöglichen die Künstlichen Intelligenzen ganz offensichtlich große Produktivitätsfortschritte. Und wenn wir darauf verzichten wollten, würden Chinesen und Amerikaner auch an den letzten europäischen Bastionen wie Maschinenbau und Automobilindustrie endgültig vorbeiziehen, vom Dienstleistungssektor ganz zu schweigen.
Prof. Frank Fitzek. Foto: Wilhelm Mirow für die Wifö DD
„Wenn wir der KI die Aufgabe und Befugnisse geben, die Erderwärmung sicher zu begrenzen, würden wir vielleicht morgen aufwachen und hätten nur noch 100 Millionen Menschen auf dem Planeten.“ Prof. Frank Fitzek vom Ceti Dresden
Um dieses Dilemma zu lösen, haben die TU und Fraunhofer vor sechs Jahren in Dresden das „Center for Explainable and Efficient AI Technologies“ (CEE AI) gegründet. Und in diesem Forscherverbund hat sich immer mehr herauskristallisiert: Viele Künstliche Intelligenzen und ihre „Großen Sprachmodelle“ und Chatbots sind inzwischen ohnehin so komplex, dass kein Mensch imstande ist, solche Halluzinationen im Nachhinein noch „Gedankengang für Gedankengang“ nachzuvollziehen. „Schon der Versuch einer Rekonstruktion wäre müßig“, meint Prof. Frank Fitzek als einer der Koordinatoren des „CEE AI“. Der Königsweg könnten vielmehr KIs sein, die nach vorgegebenen vertrauenswürdigen Standards arbeiten und sich gegenseitig mit verschiedenen Methoden und auf unterschiedlichen Hardware-Plattformen überprüfen. „Für einige Aufgaben könnten beispielsweise Analogrechner als KI-Basis besser geeignet sein, denn ,analog’ ist von Natur aus genau“, argumentiert der Uni-Professor.
KI-Experte Dr. Nicolas Flores-Herr vom Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme (IAIS) in Dresden. Foto: Heiko Weckbrodt
Scheinwissen und Wahrscheinlichkeiten statt echtes Verständnis
Einen weiteren Weg, um Halluzinationen der Künstlichen Intelligenzen zu vermeiden, sieht der Dresdner KI-Experte Dr. Nicolas Flores-Herr vom Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme (IAIS) darin, deren Ursachen nach und nach auszumerzen. „Letztlich sind ChatGPT, Gemini und andere Sprachmodelle wie gigantische Auto-Vervollständiger“, erklärt er Ursachen für KI-Halluzinationen. „Sie arbeiten mit Scheinwissen und Wahrscheinlichkeiten statt echtem Wissen und Fakten. Meist liegen sie damit richtig. Aber wenn sie falsch liegen, kann es richtig teuer werden – zum Beispiel bei rechtlichen Texten, die 100-prozentig stimmen müssen.“
Die KI ist, womit man sie füttert
Und wenn verzerrte KI-Texte dann im Internet landen, werden die Sprachmodelle eben auch mit diesen in die Welt gesetzten Unsinn wieder trainiert. Zudem sind KIs „voreingenommen“: Je nachdem, welches „Unterrichtsmaterial“, welche Korrekturanweisungen ihr menschlicher Lehrer ihnen gibt, kann sich diese „Schlagseite“ verstärken. So wird der Chat-Bot eher konservative oder linke Einschätzungen von sich geben, je nachdem, mit welchen Zeitungen oder Kommentaren er gefüttert worden ist. Von daher können sich KIs in ähnlichen Filterblasen bewegen wie Menschen, die immer dieselben, ihre eigene Meinung bestärkenden Ansichten und (Pseudo-)Fakten konsumieren, statt sich auch mit anderen Sichtweisen auseinander zu setzen.
Fakten-Checks, Quellenangaben und Nach-Trainings können Halluzinationen mindern
„Inzwischen gibt es aber eine neue Generation von Sprachmodellen, die mit Fakten-Checks arbeiten, die die verwendeten Quellen offenlegen und sich für bestimmte Einsatzzwecke gut nachtrainieren lassen“, skizziert Flores-Herr Auswege aus diesen Dilemmata. „Man kann ihnen beispielsweise für die Verwendung in Ministerien Verwaltungsdenken und -sprache beibringen.“ Eine 100-prozentig fehlerfreie KI wird wohl nicht möglich sein, meint der Forscher: „Gerade bei wichtigen Themen muss der Mensch immer noch mal draufsehen“, betont Flores-Herr. Ein genereller Hinderungsgrund für die Verwendung Künstlicher Intelligenzen in Betrieben, Rathäusern und Wohnzimmern seien die heutigen Halluzinationen aber nicht: „Mit immer weiter verbesserten Sicherheitsmechanismen ist ein effizienter und verantwortungsvoller KI-Einsatz auf jeden Fall möglich.“
Der KI das Kommando zu geben, wär keine gute Idee
Das sieht Professor Fitzek ganz ähnlich, betont aber auch: „Wir müssen der KI Grenzen setzen, um die Kontrolle zu behalten“, sagt er. „Bestimmte Aufgaben sollten wir einfach niemals an Künstliche Intelligenz übertragen. Ein Beispiel: Wenn wir der KI die Aufgabe und Befugnisse geben, die Erderwärmung sicher zu begrenzen, würden wir vielleicht morgen aufwachen und hätten nur noch 100 Millionen Menschen auf dem Planeten.“
Autor: Heiko Weckbrodt
Quellen: Interviews Frank Fitzkek/ TUD, Nicolas Flores-Herr, IAIS, Oiger-Archiv, Wikipedia, FAZ, Oiger-Archiv, Princeton University
Ihre Unterstützung für Oiger.de!
Ohne hinreichende Finanzierung ist unabhängiger Journalismus nach professionellen Maßstäben nicht dauerhaft möglich. Bitte unterstützen Sie daher unsere Arbeit! Wenn Sie helfen wollen, Oiger.de aufrecht zu erhalten, senden Sie Ihren Beitrag mit dem Betreff „freiwilliges Honorar“ via Paypal an:
[caption id="attachment_177887" align="aligncenter" width="155"] Heiko Weckbrodt. Foto: Katrin Tominski[/caption]
Heiko Weckbrodt war 16 Jahre als Redakteur bei den "Dresdner Neuesten Nachrichten" tätig und betreute dort neben anderen Themen die Schwerpunkte Wirtschaft, Technologieunternehmen und Forschung sowie die Computerseite. Studiert hat er Publizistik und Geschichte mit dem Fokus DDR-Wirtschaftsgeschichte. Inzwischen ist er als freiberuflicher Journalist tätig und publiziert vor allem auf der Nachrichtenplattfom "Oiger", schreibt aber gelegentlich auch für andere Magazine und Publikationen. Lieblingsbeschäftigung: Lesen! Privat schreibt er über seine Ausflüge auf dem Blog "Reise-Oiger".
Heiko Weckbrodt ist Autor der Sachbücher
• Geboren 1970
• 1991-96 Studium der Geschichte und Publizistik an der Freien Universität Berlin
• 1990-1997: zunächst nebenberuflich, später als Vollzeitjob freier Journalist (u. a. Siegener Zeitung, Sächsische Zeitung, Dresdner Neueste Nachrichten)
• 1999-2000 Volontariat bei den Dresdner Neuesten Nachrichten
• 2000-2014: Redakteur bei den Dresdner Neuesten Nachrichten (u.a. Gerichtsreporter, Sozialpolitik, Wirtschaft, Forschung)
• seit 2015: freiberuflicher Journalist und Herausgeber des Nachrichtenportals Oiger