Künstliche IntelligenzNewszAufi

„Wir müssen der KI Grenzen setzen“

Wenn die Künstliche Intelligenz halluziniert, wird die Erde zur Scheibe und es entstehen wunderliche Artefakte, die womöglich funktionieren - ohne dass ein Mensch versteht, warum eigentlich. Gemini, Prompt: Heiko Weckbrodt
Wenn die Künstliche Intelligenz halluziniert, wird die Erde zur Scheibe und es entstehen wunderliche Artefakte, die womöglich funktionieren – ohne dass ein Mensch versteht, warum eigentlich. Gemini, Prompt: Heiko Weckbrodt

Warum Künstliche Intelligenzen halluzinieren – und was Dresdner Forscher als Therapie vorschlagen

Dresden, 25. April 2025. Eine Künstliche Intelligenz (KI) schreibt eine flammende Rede mit dem Nachweis, dass die Erde eine Scheibe ist. Eine andere hält sich nach wenigen Textaufforderungen eines raffinierten „Prompt-Ingenieurs“ für ein verliebtes Schulmädchen. Eine weitere KI soll ein Bild von deutschen Soldaten im II. Weltkrieg malen – und steckt fein säuberlich Menschen jeglicher Hautfarbe in Wehrmachts-Uniformen. In einem anderen Fall wünschen sich Elektronikingenieure einen Schaltkreis, der bestimmte Funktionen beherrscht. In der Folge spuckt die Künstliche Intelligenz eine Reihe vollkommen idiotischer Entwürfe aus – und ein Schaltkreis-Design, das tatsächlich so arbeitet wie gewünscht. Nur: Hinterher versteht kein Mensch, warum und wie dieser Chip überhaupt funktioniert.

Sinnvolle Balance zwischen Chancen und Risiken finden

Solche „Halluzinationen“ und andere schwer oder gar nicht erklärbare Resultate spielen eine wachsende Rolle in Wirtschaft und Gesellschaft, seit immer mehr Unternehmen und Privatleute Künstliche Intelligenz einsetzen, um lästige Routinearbeiten loszuwerden oder Schätze in Datenfluten zu heben. Und sie treiben Manchem erst die Sorgenfalten, dann den Angstschweiß auf die Stirn und tückische Fragen in den Sinn: Könnte es sein, dass wir irgendwann zu viele Aufgaben an halluzinierende KIs delegiert haben? Und die machen Fehler über Fehler – und keiner merkt es oder kann erklären, wie diese Fehler zustande kommen?! Andererseits ermöglichen die Künstlichen Intelligenzen ganz offensichtlich große Produktivitätsfortschritte. Und wenn wir darauf verzichten wollten, würden Chinesen und Amerikaner auch an den letzten europäischen Bastionen wie Maschinenbau und Automobilindustrie endgültig vorbeiziehen, vom Dienstleistungssektor ganz zu schweigen.

Prof. Frank Fitzek vom Ceti Dresden. Foto: Wilhelm Mirow für die Wifö DD
Prof. Frank Fitzek. Foto: Wilhelm Mirow für die Wifö DD

„Wenn wir der KI die Aufgabe und Befugnisse geben, die Erderwärmung sicher zu begrenzen, würden wir vielleicht morgen aufwachen und hätten nur noch 100 Millionen Menschen auf dem Planeten.“
Prof. Frank Fitzek vom Ceti Dresden

Um dieses Dilemma zu lösen, haben die TU und Fraunhofer vor sechs Jahren in Dresden das „Center for Explainable and Efficient AI Technologies“ (CEE AI) gegründet. Und in diesem Forscherverbund hat sich immer mehr herauskristallisiert: Viele Künstliche Intelligenzen und ihre „Großen Sprachmodelle“ und Chatbots sind inzwischen ohnehin so komplex, dass kein Mensch imstande ist, solche Halluzinationen im Nachhinein noch „Gedankengang für Gedankengang“ nachzuvollziehen. „Schon der Versuch einer Rekonstruktion wäre müßig“, meint Prof. Frank Fitzek als einer der Koordinatoren des „CEE AI“. Der Königsweg könnten vielmehr KIs sein, die nach vorgegebenen vertrauenswürdigen Standards arbeiten und sich gegenseitig mit verschiedenen Methoden und auf unterschiedlichen Hardware-Plattformen überprüfen. „Für einige Aufgaben könnten beispielsweise Analogrechner als KI-Basis besser geeignet sein, denn ,analog’ ist von Natur aus genau“, argumentiert der Uni-Professor.

KI-Experte Dr. Nicolas Flores-Herr vom Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme (IAIS) in Dresden. Foto: Heiko Weckbrodt
KI-Experte Dr. Nicolas Flores-Herr vom Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme (IAIS) in Dresden. Foto: Heiko Weckbrodt

Scheinwissen und Wahrscheinlichkeiten statt echtes Verständnis

Einen weiteren Weg, um Halluzinationen der Künstlichen Intelligenzen zu vermeiden, sieht der Dresdner KI-Experte Dr. Nicolas Flores-Herr vom Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme (IAIS) darin, deren Ursachen nach und nach auszumerzen. „Letztlich sind ChatGPT, Gemini und andere Sprachmodelle wie gigantische Auto-Vervollständiger“, erklärt er Ursachen für KI-Halluzinationen. „Sie arbeiten mit Scheinwissen und Wahrscheinlichkeiten statt echtem Wissen und Fakten. Meist liegen sie damit richtig. Aber wenn sie falsch liegen, kann es richtig teuer werden – zum Beispiel bei rechtlichen Texten, die 100-prozentig stimmen müssen.“

Die KI ist, womit man sie füttert

Und wenn verzerrte KI-Texte dann im Internet landen, werden die Sprachmodelle eben auch mit diesen in die Welt gesetzten Unsinn wieder trainiert. Zudem sind KIs „voreingenommen“: Je nachdem, welches „Unterrichtsmaterial“, welche Korrekturanweisungen ihr menschlicher Lehrer ihnen gibt, kann sich diese „Schlagseite“ verstärken. So wird der Chat-Bot eher konservative oder linke Einschätzungen von sich geben, je nachdem, mit welchen Zeitungen oder Kommentaren er gefüttert worden ist. Von daher können sich KIs in ähnlichen Filterblasen bewegen wie Menschen, die immer dieselben, ihre eigene Meinung bestärkenden Ansichten und (Pseudo-)Fakten konsumieren, statt sich auch mit anderen Sichtweisen auseinander zu setzen.

Fakten-Checks, Quellenangaben und Nach-Trainings können Halluzinationen mindern

„Inzwischen gibt es aber eine neue Generation von Sprachmodellen, die mit Fakten-Checks arbeiten, die die verwendeten Quellen offenlegen und sich für bestimmte Einsatzzwecke gut nachtrainieren lassen“, skizziert Flores-Herr Auswege aus diesen Dilemmata. „Man kann ihnen beispielsweise für die Verwendung in Ministerien Verwaltungsdenken und -sprache beibringen.“ Eine 100-prozentig fehlerfreie KI wird wohl nicht möglich sein, meint der Forscher: „Gerade bei wichtigen Themen muss der Mensch immer noch mal draufsehen“, betont Flores-Herr. Ein genereller Hinderungsgrund für die Verwendung Künstlicher Intelligenzen in Betrieben, Rathäusern und Wohnzimmern seien die heutigen Halluzinationen aber nicht: „Mit immer weiter verbesserten Sicherheitsmechanismen ist ein effizienter und verantwortungsvoller KI-Einsatz auf jeden Fall möglich.“

Der KI das Kommando zu geben, wär keine gute Idee

Das sieht Professor Fitzek ganz ähnlich, betont aber auch: „Wir müssen der KI Grenzen setzen, um die Kontrolle zu behalten“, sagt er. „Bestimmte Aufgaben sollten wir einfach niemals an Künstliche Intelligenz übertragen. Ein Beispiel: Wenn wir der KI die Aufgabe und Befugnisse geben, die Erderwärmung sicher zu begrenzen, würden wir vielleicht morgen aufwachen und hätten nur noch 100 Millionen Menschen auf dem Planeten.“

Autor: Heiko Weckbrodt

Quellen: Interviews Frank Fitzkek/ TUD, Nicolas Flores-Herr, IAIS, Oiger-Archiv, Wikipedia, FAZ, Oiger-Archiv, Princeton University

Repro: Oiger, Original: Madeleine Arndt

Heiko Weckbrodt

[caption id="attachment_177887" align="aligncenter" width="155"]Heiko Weckbrodt. Foto: Katrin Tominski Heiko Weckbrodt. Foto: Katrin Tominski[/caption] Heiko Weckbrodt war 16 Jahre als Redakteur bei den "Dresdner Neuesten Nachrichten" tätig und betreute dort neben anderen Themen die Schwerpunkte Wirtschaft, Technologieunternehmen und Forschung sowie die Computerseite. Studiert hat er Publizistik und Geschichte mit dem Fokus DDR-Wirtschaftsgeschichte. Inzwischen ist er als freiberuflicher Journalist tätig und publiziert vor allem auf der Nachrichtenplattfom "Oiger", schreibt aber gelegentlich auch für andere Magazine und Publikationen. Lieblingsbeschäftigung: Lesen! Privat schreibt er über seine Ausflüge auf dem Blog "Reise-Oiger". Heiko Weckbrodt ist Autor der Sachbücher

Profile

Kurzvita:

•  Geboren 1970 • 1991-96 Studium der Geschichte und Publizistik an der Freien Universität Berlin • 1990-1997: zunächst nebenberuflich, später als Vollzeitjob freier Journalist (u. a. Siegener Zeitung, Sächsische Zeitung, Dresdner Neueste Nachrichten) • 1999-2000 Volontariat bei den Dresdner Neuesten Nachrichten • 2000-2014: Redakteur bei den Dresdner Neuesten Nachrichten (u.a. Gerichtsreporter, Sozialpolitik, Wirtschaft, Forschung) • seit 2015: freiberuflicher Journalist und Herausgeber des Nachrichtenportals Oiger