ChatGPT erfindet leider manchmal Informationen. Warum passiert das? Und wie schreibst du bessere Prompts, um Halluzinationen zu vermeiden?
Übersicht
Halluzinationen und ChatGPT – ein leidiges Thema
Stundenlang saß Sandra an ihrem Computer. Gemeinsam mit ChatGPT schrieb sie eine Hausarbeit. Das Thema war kompliziert. Doch dank der Künstlichen Intelligenz lief alles wie am Schnürchen. Das Ergebnis liest sich schlüssig und nachvollziehbar. Alles war so einfach. „Lang lebe KI!“, denkt sich Sandra.
„Noch einmal drüberlesen, dann bin ich fertig. Und noch schnell die Quellen checken“, so ihr Plan. Doch dann kommt die große Ernüchterung. Sandra klickt sich durch die von ChatGPT gelieferten Quellenangaben. Viele Links führen zu nicht existenten Seiten. Eine Prüfung der Zitate zeigt außerdem, dass fast keines stimmt.
Sandra ist frustriert. Leider ist sie – wie viele andere Menschen auch – der größten Schwäche von ChatGPT erlegen. Die KI hat unverfroren Fakten frei erfunden, ohne dies zu kennzeichnen. Kurz: ChatGPT hat halluziniert.
Warum ChatGPT hin und wieder fantasiert
Die Künstliche Intelligenz hinter ChatGPT ist nicht wirklich intelligent. Sie basiert auf Mustern. Daher erzeugt das Programm logisch klingende Antworten, indem es die wahrscheinlichsten Wortfolgen vorhersagt. ChatGPT hat somit kein echtes Verständnis von Wahrheit oder Lüge, von Richtig oder Falsch.
Daher kann es vorkommen, dass das KI-Tool gelegentlich halluziniert, also vermeintliche Fakten erfindet. Das sind die Gründe dafür:
🔷 Lücken im Trainingsmaterial
ChatGPT kennt nicht alles. Wenn Informationen fehlen, rät es manchmal.
🔷 Mangel an Quellenprüfung
Wenn du kein ChatGPT Search – also die Internet-Suche – verwendest, kann die KI nur schwer echten Quellen überprüfen.
🔷 Falsch verstandene Fragen
Wenn eine Frage unklar ist, dann fragt ChatGPT nicht immer nach – und liefert einfach eine Antwort. Das gilt besonders für ChatGPT-Modelle wie GPT-5 Instant.
🔷 Zu kreatives Modellverhalten
Je offener die Anfrage, desto eher generiert ChatGPT fantasievolle Inhalte.
🔷 Zwang zur Antwort
ChatGPT wurde trainiert, immer eine Antwort zu geben – auch wenn es dazu phantasieren muss.
...............
Anzeige:
...............
Beispiele: Wie erkennst du, dass ChatGPT halluziniert?
Sei dir immer bewusst: Nicht jede Antwort von ChatGPT ist korrekt! Achte also auf folgende Warnsignale:
🤔 Ungewöhnliche oder unbekannte Fakten
Zahlen, Jahresangaben oder Maße stimmen nicht mit bekannten Quellen überein.
🤔 Nicht existente Quellen
Literaturangaben, Studien, Links oder Zitate wirken plausibel, lassen sich aber nicht verifizieren.
🤔 Widersprüchliche Antworten
Stelle dieselbe Frage anders formuliert. Erhältst du unterschiedliche Antworten, ist Vorsicht geboten.
🤔 Antworten auf unmögliche Aufgaben
Wenn ChatGPT vorgibt, es könne Dinge tun, die gar nicht möglich sind, dann phantasiert die KI.
So vermeidest du ChatGPT-Halluzinationen
Mit klaren und gezielten Prompts kannst du die Genauigkeit der Antworten verbessern. Gehe am besten so vor, um die Wahrscheinlichkeit, dass die KI phantasiert, zu reduzieren:
Frage präzise nach Fakten
❌ Schlechter Prompt
„Erzähl mir etwas über die Geschichte der Luftfahrt.“
✅ Besserer Prompt
„Wann wurde das erste motorisierte Flugzeug erfunden und von wem?“
Fordere Quellen oder Einschränkungen
❌ Schlechter Prompt
„Was sind die neuesten wissenschaftlichen Erkenntnisse über Quantencomputing?“
✅ Besserer Prompt
„Nenne mir drei wissenschaftliche Quellen (mit Titel und Jahr) zu den gesundheitlichen Auswirkungen von Kaffee – nur wenn sie nach 2024 veröffentlicht wurden. Bitte gib an, wenn du keine sicheren Informationen hast.“
Bitte um Unsicherheitsangaben
❌ Schlechter Prompt
„Wie viele Monde hat der Saturn?“
✅ Besserer Prompt
„Wie viele Monde hat der Saturn? Falls du dir unsicher bist oder es neuere Erkenntnisse gibt, weise bitte darauf hin.“
Vermeide Suggestivfragen
❌ Schlechter Prompt
„Warum ist Kaffee gesünder als Tee?“
✅ Besserer Prompt
„Gibt es wissenschaftliche Vergleiche zu den gesundheitlichen Vor- und Nachteilen von Kaffee und Tee?“
Erhöhe das Niveau
❌ Schlechter Prompt
„Gib mir eine schnelle Antwort!“
✅ Besserer Prompt
„Gib mir eine genaue, detaillierte Antwort auf Level-3-Niveau! Lass dir gerne Zeit.“
Nutze Schritt-für-Schritt-Denken
❌ Schlechter Prompt
„Erkläre mir die Relativitätstheorie.“
✅ Besserer Prompt
„Erkläre mir bitte die Relativitätstheorie in einfachen Worten, Schritt für Schritt?“
FAQ zum Thema „ChatGPT Halluzinationen“
Hast du noch offene Fragen? Oder möchtest du mehr Hintergrundinformationen und Tipps haben? Kein Problem! Diese Frequently-Asked-Questions-Liste liefert dir nützliche und hilfreiche Antworten.
Warum halluziniert ChatGPT überhaupt?
Die falschen Ergebnisse von ChatGPT sind keine absichtlichen Lügen. Es handelt sich „nur“ um erfundene Informationen, die die Künstliche Intelligenz als Fakten präsentiert. Das Problem entsteht, weil ChatGPT nicht zwischen Wahrheit und Fiktion unterscheiden kann.
Die KI generiert einfach Antworten basierend auf Mustern und Wahrscheinlichkeiten, nicht auf geprüften Fakten. Das gilt besonders, wenn ChatGPT keinen Internet-Zugriff hat.
Warum sagt ChatGPT nicht einfach, dass es keine Ahnung hat?
ChatGPT ist kein Faktenchecker oder Wissenschaftler, sondern ein großes Sprachmodell (LLM / Large Language Model), das Texte auf Basis von Wahrscheinlichkeiten erstellt. Es wurde darauf trainiert, stets flüssige und logisch klingende Antworten zu liefern, und nicht darauf, die Richtigkeit der Ergebnisse zu garantieren.
Wenn Daten fehlen oder eine Frage unklar ist, füllt das LLM die Lücken einfach auf – mit Zahlen, Studien oder Details, die plausibel klingen, aber nicht stimmen müssen.
Welche Tools helfen, die Antworten von ChatGPT zu überprüfen?
Eine einfache, aber effektive Methode ist, die Antworten von ChatGPT mit denen einer Suchmaschine wie Google oder DuckDuckGo zu vergleichen. Für einen schnellen Faktencheck eignen sich auch , oder Consensus.app, das wissenschaftliche Behauptungen prüft.
Bei rechtlichen oder steuerrelevanten Themen solltest du immer offizielle Quellen wie Gesetze-im-Internet.de oder das Bundesfinanzministerium konsultieren – und/oder direkt einen Experten fragen.
❓ Hast du Steuer- und Rechtsfragen?
Das KI-Känguru-Team hilft dir gerne weiter, beispielsweise bei der Suche nach einem passenden Steuerberater oder Rechtsexperten.
Darf ich ChatGPT-Antworten ungeprüft bei der Arbeit verwenden?
Nein. Ungeprüfte KI-Antworten können zu Fehlentscheidungen, rechtlichen Problemen oder Vertrauensverlust führen. Zudem produzierst du sogenannten „AI Slop“. Dieser „KI-Müll“ kostet dich und deine Kollegen viel Zeit und Nerven – und bremst euer Business aus. Besonders, wenn ihr euch der Gefahren von KI- und ChatGPT-Halluzinationen nicht bewusst seid.
Aus diesem Grund sagt die recht neue KI-Verordnung (die Grundlage ist der EU AI Act), dass alle Menschen, die beruflich mit KI-Systemen arbeiten, einen sogenannten KI-Führerschein machen müssen. Diesen erwirbst du zum Beispiel bei den KI-Känguru KI-Kursen.
Wer haftet, wenn ich falsche ChatGPT-Ergebnisse verwende?
Du trägst die Verantwortung für die Inhalte, die du veröffentlichst oder weitergibst. Es gibt bereits Fälle, in denen Berufstätige wegen falscher KI-generierter Informationen belangt wurden. Schütze dich, indem du die ChatGPT-Antworten immer genau überprüfst und nacharbeitest.
Zudem solltest du mittlerweile KI-Inhalte klar kennzeichnen, zum Beispiel wenn du sie für Website-Inhalte oder Posts auf sozialen Netzwerken verwendest. Das schreibt der EU AI Act vor.
Können die ChatGPT-Halluzinationen gefährlich sein?
Das kommt darauf an, wofür du das KI-Tool einsetzt. Die Folgen können aber gravierend sein, wenn du ChatGPT für geschäftliche Entscheidungen, kritische Inhalte oder Beratungen nutzt. Eine falsche Zahl in einer Präsentation, ein erfundenes Zitat in einem Blogartikel oder eine ungenaue Rechtsauskunft können nicht nur peinlich, sondern auch kostspielig für dich sein.
Noch gefährlicher wird es, wenn du ChatGPT für gesundheitliche oder psychologische Fragen um Rat bittest.
Gab es wirklich schon solche kritischen Folgen?
Ja, leider. Ein bekanntes Beispiel ist der Fall eines Anwalts in den USA, der ChatGPT nutzte, um Präzedenzfälle für eine Klageschrift zu recherchieren. Die KI erfand . Das Gericht sanktionierte den Anwalt, weil die Fälle nie existierten.
Ein anderes Beispiel: Nutzer fragten nach medizinischen Dosierungen und erhielten gefährlich falsche Empfehlungen. Zudem nahmen sich mehrere Teenager mit psychischen Problemen nach einem Chat mit ChatGPT das Leben.
Was sollte ich tun, wenn ich eine Halluzination in einer ChatGPT-Antwort entdecke?
Gib ChatGPT sofort dein Feedback! Weise die Künstliche Intelligenz auf den Fehler hin und bitte um eine Korrektur mit belegten Fakten.
Falls du die Information bereits weitergegeben hast, dann kläre die Empfänger über den Fehler auf und korrigiere ihn transparent. Und: , besonders wenn es um geschäftliche oder rechtliche Inhalte geht.
Werden ChatGPT-Halluzinationen bald verschwinden?
Nein! Die KI-Technologie entwickelt sich weiter, aber das Problem bleibt wahrscheinlich bestehen. Neuere ChatGPT-Modelle wie GPT-5 halluzinieren seltener. Und Techniken wie das Grounding (die Verknüpfung der Ergebnisse mit Live-Daten) reduzieren die Fehlerquote. Dennoch wird ChatGPT in naher Zukunft nicht fehlerfrei arbeiten, davon gehen Wissenschaftler und KI-Experten aus.
Fazit
ChatGPT ist ein mächtiges Werkzeug, aber kein Genie und auch kein Orakel. Deine Fragen entscheiden, wie zuverlässig die Antworten sind. Nutze die genannten Tipps, um Halluzinationen zu erkennen. Und hinterfrage jedes Ergebnis: Klingt es logisch? Gibt es Belege? Mit der Zeit wirst du ein Profi darin, KI-Antworten einzuordnen und ihre Stärken optimal zu nutzen.
Extra-Tipp: Du kannst auch die Künstliche Intelligenz dazu auffordern, seine Ergebnisse zu überprüfen, indem du ChatGPT als Kritiker agieren lässt.
❓ Willst du weitere erstklassige KI- & ChatGPT-Tipps und tolle Inspirationen für neue Prompts bekommen? Dann abonniere den kostenlosen KI-Känguru Newsletter!
...............

Jürgen aka „KI Känguru“ liebt ChatGPT und andere KI-Tools. Deshalb hilft er Einsteigern gerne mit praktischen Tipps, indem er Ratgeber schreibt und Schulungen gibt. Außerdem arbeitet Jürgen als Marketing-Experte und Fachautor für Digitalisierung & Gründerbusiness.
