
KI-Halluzinationen: Gründe, Kosten und Abhilfemaßnahmen
Unternehmen aller Art und aller Branchen wetteifern darum, auf den KI-Zug aufzuspringen. Chatbots, Suchmaschinen und Tools für die Interaktion mit Kunden, Benutzern und anderen werden auf Basis von Large Language Models (LLM) in rasantem Tempo eingeführt. Doch den vielfältigen Risiken, die diese neuen Technologien mit sich bringen, wird oft zu wenig Aufmerksamkeit geschenkt.
In einem kürzlich erschienenen Blogbeitrag hat Barracuda-Softwareingenieur Gabriel Moss detailliert beschrieben, wie Angreifer Datenvergiftungs- und Manipulationstechniken einsetzen können, um LLMs auf eine Weise zu beschädigen, die für ihre Besitzer kostspielig sein kann.
In diesem Artikel ging Gabriel auch kurz auf das Problem der „KI-Halluzinationen“ ein, die ebenfalls kostspielige Folgen haben können, aber nicht das Ergebnis bewusster Aktionen menschlicher Angreifer sind.
Würde ChatGPT Sie anlügen?
Nun, das wirft einige philosophische Fragen auf, etwa, ob es möglich ist zu lügen, ohne zu wissen, dass man lügt, oder überhaupt den Unterschied zwischen Lüge und Wahrheit zu verstehen. Aber dieses und andere LLMs haben sicherlich bewiesen, dass sie in der Lage sind, Dinge zu erfinden.
Wie Sie sicher bereits wissen, nennt man es Halluzinationen, wenn LLMs erfundene Antworten auf Fragen geben. In der Tat hat das Cambridge Dictionary „hallucinate“ zu seinem Wort des Jahres 2023 gekürt, da es eine neue, KI-bezogene Definition des Wortes hinzufügte.
Leider können KI-Halluzinationen einige wirklich schädliche Folgen haben, sowohl für Unternehmen, die LLM-Chatbots einsetzen, als auch für deren Endnutzer. Es gibt jedoch Möglichkeiten, Halluzinationen zu minimieren und die Schäden, die sie verursachen, zu minimieren.
Warum ich keine LLMs verwende
Ich habe einmal einen KI-Chatbot gebeten, einen ersten Entwurf eines Blogbeitrags für mich zu erstellen. Da es auf Informationen trainiert worden war, die vor 2016 veröffentlicht worden waren, habe ich den Bot angewiesen, das Internet zu nutzen, um moderne Informationsquellen zu finden. Und ich habe ausdrücklich angewiesen, Zitate und Links zu den verwendeten Quellen einzufügen.
Was ich zurückbekam, war ein ziemlich guter kleiner Aufsatz. Der Schreibstil war langweilig, aber in Ordnung. Und er zitierte mehrere Nachrichtenartikel und wissenschaftliche Zeitschriften.
Aber ich fand heraus, dass die Zitate alle erfunden wurden. Entweder die Websites oder die zitierten Artikel existierten überhaupt nicht, außer in einem einzigen Fall, in dem der Artikel zwar existierte, aber das direkte Zitat aus dem Artikel, das mein Chatbot enthielt, war nirgends zu finden.
Ich war damals überrascht, hätte es aber nicht sein sollen. Diese Systeme werden in erster Linie von dem Zwang angetrieben, eine Antwort zu liefern, und sie verstehen nicht, dass diese Antwort sachlich sein sollte. Sie können also Zitate erstellen, die wohlgeformt und plausibel sind, ohne zu wissen, wie Zitate eigentlich funktionieren – nämlich dass sie wirklich existierende Quellen genau zitieren müssen.
Ich habe begonnen, diese LLM-Chatbots als „Plausibilitätsmaschinen“ zu bezeichnen. Ich hoffe immer noch, dass es sich durchsetzt, aber bisher ist das nicht der Fall. Nach diesem Vorfall kam ich jedenfalls zu dem Schluss, dass ich in meinem Alter ganz zufrieden damit sei, weiterhin auf die altmodische Art zu schreiben. Aber mit der richtigen Überprüfung und Umschreibung kann ich auch verstehen, warum einige Autoren viel Wert daraus ziehen könnten.
Kostspielige Beispiele aus der Praxis
Nicht jeder hat sich die Mühe gemacht, Zitate in LLM-generierten Texten zu überprüfen, manchmal zum eigenen Nachteil. Zum Beispiel wurden letztes Jahr zwei Anwälte in den USA zusammen mit ihrer Kanzlei mit einer Geldstrafe belegt, als sie eine Klage wegen Flugunfalls vor Gericht eingereicht hatten.
Das Problem bestand darin, dass sie zur Erstellung der Akte ChatGPT verwendet hatten und darin nicht existierende Fälle zitiert worden waren. Der Richter in diesem Fall sah nichts Unzulässiges darin, den LLM zur Unterstützung der Recherche heranzuziehen, stellte jedoch – unnötigerweise so möge man hoffen– fest, dass Anwälte auf die Genauigkeit ihrer Unterlagen achten müssen.
In einem ähnlichen Fall bat ein Universitätsprofessor eine Bibliothekarin, Zeitschriftenartikel aus einer Liste zu erstellen, die er ihr gegeben hatte. Aber er hatte die Liste von ChatGPT erhalten, und die dort aufgeführten Artikel existierten nicht. In diesem Fall sind außer der Peinlichkeit keine extra Kosten angefallen.
Andere Fälle sind potenziell problematischer:
Amazon scheint von KI erstellte Anleitungen zum Pilzesammeln zu verkaufen. Was kann schon schiefgehen?
In seiner ersten öffentlichen Vorstellung lieferte Bing Chat ungenaue Finanzdaten über The Gap und Lululemon. Vorsicht, Investoren! (Googles erste Vorführung von Bard war ähnlich peinlich.)
Der KI-gesteuerte Chatbot MyCity der Stadt New York hat sich städtische Gesetze und Richtlinien ausgedacht und einem Nutzer zum Beispiel gesagt, dass er nicht wegen Nichtzahlung der Miete zwangsgeräumt werden kann.
In mindestens zwei Fällen hat ChatGPT Skandale erfunden, in die echte Personen verwickelt waren (ein Professor, dem angeblich sexuelle Belästigung vorgeworfen wurde, und ein Bürgermeister, der angeblich wegen Bestechung verurteilt worden war), was den betreffenden Personen potenziell echten Schaden zufügen könnte.
So entschärfen Sie das Problem
Natürlich ist die Überprüfung der Fakten und die Überwachung durch den Menschen entscheidend, um KI-Halluzinationen zu erkennen und zu beseitigen. Leider bedeutet das, dass die Kosteneinsparungen, die diese Bots durch den Ersatz menschlicher Arbeitskräfte erzielen, in Frage gestellt werden.
Eine weitere wichtige Strategie besteht darin, die Informationen, mit denen Sie Ihr LLM trainieren, genau zu verwalten und zu kontrollieren. Halten Sie sie für die beabsichtigte Aufgabe des LLM relevant und beschränken Sie sich auf genaue Quellen. Dies wird nicht vollständig verhindern, dass Wörter manchmal ungenau zusammengesetzt werden, aber es reduziert die Anzahl der Halluzinationen, die durch die Verwendung von unzusammenhängenden und unzuverlässigen Inhalten erzeugt werden.
Generell ist es wichtig, die Grenzen dieser Systeme zu verstehen und nicht zu viel von ihnen zu erwarten. Sie haben durchaus ihre Berechtigung und werden sich im Laufe der Zeit wahrscheinlich verbessern (mehr dazu weiter unten).
Warum es wahrscheinlich trotzdem schlimmer wird
Leider gibt es einen wichtigen Grund, warum sich das Problem der Halluzinationen mit der Zeit wahrscheinlich verschlimmern wird: Da sie immer mehr schlechte Ergebnisse erzeugen, werden diese Daten zunehmend Teil des Trainingssatzes des nächsten LLM werden, wodurch eine sich selbst verstärkende Fehlerschleife entsteht, die schnell aus dem Ruder laufen kann.
Zum Schluss wiederhole ich nur den letzten Absatz von Gabriels Blogbeitrag, auf den ich zu Beginn verwiesen habe:
LLM-Anwendungen lernen von sich selbst und von einander, und sie stehen vor einer Krise der Selbst-Feedbackschleife, in der sie beginnen könnten, unbeabsichtigt ihre eigenen und die Trainingssätze der anderen zu vergiften, und das bei schlichter Nutzung dieser Schleife. Ironischerweise steigt mit der zunehmenden Beliebtheit und Nutzung von KI-generierten Inhalten auch die Wahrscheinlichkeit, dass die Modelle in sich selbst zusammenbrechen. Die Zukunft der generativen KI ist alles andere als sicher.

Der Ransomware Insights Bericht 2025
Wichtige Erkenntnisse über die Erfahrungen und Auswirkungen von Ransomware auf Unternehmen weltweit
Abonnieren Sie den Barracuda-Blog.
Melden Sie sich an, um aktuelle Bedrohungsinformationen, Branchenkommentare und mehr zu erhalten.

Managed Vulnerability Security: Schnellere Behebung von Schwachstellen, weniger Risiken, einfachere Compliance
Erfahren Sie, wie einfach es sein kann, die von Cyberkriminellen bevorzugte Schwachstellen zu finden.