ChatGPT erfindet leider manchmal Informationen. Warum passiert das? Und wie schreibst du bessere Prompts, um Halluzinationen zu vermeiden?
Warum ChatGPT hin und wieder „lügt“
Die Künstliche Intelligenz hinter ChatGPT ist nicht wirklich intelligent. Sie basiert auf Wahrscheinlichkeiten. Daher erzeugt das Programm logisch klingende Antworten, indem es die wahrscheinlichsten Wortfolgen vorhersagt. ChatGPT hat somit kein echtes Verständnis von Wahrheit oder Lüge, von Richtig oder Falsch.
Daher kann es vorkommen, dass das KI-Tool gelegentlich halluziniert, also vermeintliche Fakten erfindet. Das sind die Gründe dafür:
🔷 Lücken im Trainingsmaterial
ChatGPT kennt nicht alles. Wenn Informationen fehlen, rät es manchmal.
🔷 Mangel an Quellenprüfung
Wenn du kein ChatGPT Search verwendest, kann die KI nur schwer echten Quellen überprüfen.
🔷 Falsch verstandene Fragen
Wenn eine Frage unklar ist, dann fragt ChatGPT nicht immer nach – und liefert einfach eine Antwort.
🔷 Zu kreatives Modellverhalten
Je offener die Anfrage, desto eher generiert ChatGPT fantasievolle Inhalte.
Wie erkennst du eine Halluzination von ChatGPT?
Sei dir immer bewusst: Nicht jede Antwort von ChatGPT ist korrekt! Achte also auf folgende Warnsignale:
🤔 Ungewöhnliche oder unbekannte Fakten
Wenn dir etwas neu oder seltsam vorkommt, recherchiere es selbst.
🤔 Widersprüchliche Antworten
Stelle dieselbe Frage anders formuliert. Erhältst du unterschiedliche Antworten, ist Vorsicht geboten.
🤔 Zahlen und Namen überprüfen
Daten, Jahreszahlen oder Statistiken könnten falsch sein. Prüfe sie in verlässlichen Quellen nach.
...............
Anzeige:
...............
So vermeidest du ChatGPT-Halluzinationen
Mit klaren und gezielten Prompts kannst du die Genauigkeit der Antworten verbessern. Gehe am besten so vor, um die Wahrscheinlichkeit, dass die KI phantasiert, zu reduzieren:
Frage präzise nach Fakten
❌ Schlechter Prompt
„Erzähl mir etwas über die Geschichte der Luftfahrt.“
✅ Besserer Prompt
„Wann wurde das erste motorisierte Flugzeug erfunden und von wem?“
Fordere Quellen oder Einschränkungen
❌ Schlechter Prompt
„Was sind die neuesten wissenschaftlichen Erkenntnisse über Quantencomputing?“
✅ Besserer Prompt
„Kannst du wissenschaftliche Erkenntnisse über Quantencomputing nennen, die nach 2020 veröffentlicht wurden? Bitte gib an, wenn du keine sicheren Informationen hast.“
Bitte um Unsicherheitsangaben
❌ Schlechter Prompt
„Wie viele Monde hat der Saturn?“
✅ Besserer Prompt
„Wie viele Monde hat der Saturn? Falls du dir unsicher bist oder es neuere Erkenntnisse gibt, weise bitte darauf hin.“
Vermeide Suggestivfragen
❌ Schlechter Prompt
„Warum ist Kaffee gesünder als Tee?“
✅ Besserer Prompt
„Gibt es wissenschaftliche Vergleiche zu den gesundheitlichen Vor- und Nachteilen von Kaffee und Tee?“
Nutze Schritt-für-Schritt-Denken
❌ Schlechter Prompt
„Erkläre mir die Relativitätstheorie.“
✅ Besserer Prompt
„Erkläre mir bitte die Relativitätstheorie in einfachen Worten, Schritt für Schritt?“
Fazit
Ja, ChatGPT halluziniert manchmal. Aber zum Glück wird die KI von Monat zu Monat besser. Trotzdem ist es sehr wichtig, dass du immer darauf achtest, was du eintippst und die Aussagen von ChatGPT stets hinterfragst.
Extra-Tipp: Du kannst auch die Künstliche Intelligenz dazu auffordern, seine Ergebnisse zu überprüfen, indem du ChatGPT als Kritiker agieren lässt.
...............
Willst du weitere erstklassige KI- & ChatGPT-Tipps und tolle Inspirationen für neue Prompts bekommen? Dann abonniere den kostenlosen KI-Känguru Newsletter!

Jürgen aka „KI Känguru“ liebt ChatGPT und andere KI-Tools. Deshalb hilft er Einsteigern gerne mit praktischen Tipps, indem er Ratgeber schreibt und Schulungen gibt. Außerdem arbeitet Jürgen als Marketing-Experte und Fachautor für Digitalisierung & Gründerbusiness.