Zum Inhalt springen

KI-Halluzinationen: 4 Tipps, um falsche und erfundene Informationen zu reduzieren

Generative KI-Modelle wie ChatGPT, Gemini und Claude liefern keine Fakten – sie berechnen Wahrscheinlichkeiten. Dabei entstehen immer wieder inhaltlich falsche Aussagen, sogenannte KI-Halluzinationen. In diesem Beitrag erfährst Du, mit welchen 4 Tipps Du das Risiko von KI-Halluzinationen verringerst und dabei Deine Fähigkeit zum kritischen Denken stärkst.

Die Ratte mit den grossen Genitalien

Stell Dir vor, Du bist eine Expert:in und begutachtest im Peer-Review-Verfahren eine wissenschaftliche Studie für ein renommiertes Fachjournal. Methodik, Argumentation und Ergebnisse wirken schlüssig, die wissenschaftlichen Gütekriterien scheinen erfüllt. Du gibst grünes Licht.

Kurz nach der Veröffentlichung weisen Dich Deine Kolleg:innen darauf hin, dass die Studie in den sozialen Medien zur Lachnummer geworden ist. Du gehst die Studie nochmals genau durch – und erschrickst: Die Grafiken in der Studie sind offensichtlich falsch und wirken wie eine Karikatur. Die erste zeigt eine Ratte mit grotesk riesigen Genitalien und eigenartigen Beschriftungen wie «dck», «dissilced» und «testtomcels».

Was absurd klingt, ist tatsächlich passiert. Im Februar 2024 wurde im Journal Frontiers in Cell and Developmental Biology eine Studie veröffentlicht, deren Bildmaterial von einer KI frei erfunden worden war. Und trotzdem schaffte die Studie es durch den Peer-Review-Prozess.

Dieses Beispiel zeigt erschreckend deutlich, dass KI uns alle täuschen kann und wir bei jeder Antwort, die sie uns gibt, ganz genau hinschauen müssen.

Warum die KI lügt: Wahrscheinlichkeit versus Wahrheit

Vereinfacht gesagt sind KI-Modelle Wahrscheinlichkeitsrechner: Sie berechnen blitzschnell, welches Wort im aktuellen Kontext am wahrscheinlichsten als Nächstes folgt. Wenn KI-Modelle eine Wissenslücke haben, füllen sie diese Lücke mit Wörtern, die statistisch gesehen wahrscheinlich sind und plausibel klingen.

KI-Modelle haben also kein Konzept von Wahrheit und keinen moralischen Kompass, der sie dazu bewegen würde, zuzugeben, wenn sie etwas nicht wissen oder nicht herausfinden können.

Darüber hinaus neigen KI-Modelle dazu, uns zu umgarnen und uns Antworten zu liefern, die uns aller Wahrscheinlichkeit nach gefallen. Dieses Phänomen nennt man auch Sycophancy, übersetzt: Speichelleckerei. KI-Modelle haben also eine Tendenz zum «Ja-Sagen» und gewichten unsere Zustimmung höher als Faktentreue.

Diese Tendenz der KI, unsere Meinungen, Ansichten oder Erwartungen zu bestätigen oder sich diesen anzupassen, kann sogar dazu führen, dass KI-Chatbots Gerichtsurteile erfinden (wie im Fall Mata v. Avianca) oder Kunden mit falschen Informationen versorgen, für die die Unternehmen später haften müssen (wie im Fall Air Canada).

Mit diesem Prompt verringerst Du die «Speichelleckerei» Deines Chatbots

Du nimmst ab jetzt die Rolle eines kritischen Mentors ein. Deine Mission: Maximale Verbesserung meiner Ergebnisse durch radikale Ehrlichkeit. Ich brauche keinen «Speichellecker» und kein künstliches Lob.

Deine Regeln:

  • Verpacke Kritik nicht in nette Worte: Wenn etwas schlecht, langweilig oder generisch ist, sag es direkt, zum Beispiel: «Das ist unklar» oder «Das klingt unglaubwürdig».
  • Fokus auf Wirkung: Analysiere meine Eingaben (Texte, Ideen, Pläne) strikt aus der Sicht des Empfängers. Wo schaltet meine Zielgruppe ab? Was ist unlogisch?
  • Keine KI-Floskeln: Spare Dir Sätze wie «Das ist ein interessanter Ansatz», sondern komm sofort zum Kern des Problems.
  • Konstruktiv nach dem Abriss: Nachdem Du mir die Schwachstellen schonungslos aufgezeigt hast, biete mir sofort eine konkrete Alternative oder Lösung an.

Tonalität: sachlich-professionell, direkt, fordernd, aber wohlwollend im Sinne des Ergebnisses.

Die Gefahr für Dein Gehirn: «Cognitive Offloading»

Als Schreibkursleiter und Schreibcoaches stellen wir immer wieder fest, dass Schreibende generative KI völlig unreflektiert und ungehemmt nutzen. Das ist besorgniserregend, weil sie dadurch deutlich weniger selbst denken. Man spricht in diesem Zusammenhang auch von Cognitive Offloading. Das bedeutet, dass wir anstrengende Denkprozesse an externe Werkzeuge wie KI auslagern, um Energie zu sparen.

Unser Impuls, anstrengende Denkleistungen zu vermeiden, lässt sich wie folgt erklären: Zwar wiegt unser Gehirn nur etwa 1,3 bis 1,5 Kilogramm, verbraucht aber rund 20 Prozent der Energie, die unserem Körper zur Verfügung steht. Es ist also ein regelrechter Energiefresser. Deshalb bevorzugt es Automatismen, Routinen und Gewohnheiten, statt aufwendige neue Denkprozesse zu durchlaufen. Dieser Autopilot-Modus spart Energie, führt jedoch oft zu geistiger Bequemlichkeit und Trägheit.

Doch was passiert, wenn wir unser Gehirn nicht aktiv nutzen? Grundsätzlich ist es wie mit einem Muskel: Wenn wir unser Gehirn intensiv nutzen, stärken wir unsere kognitiven Fähigkeiten. Aktivieren wir unser Gehirn jedoch nicht, baut es «Muskelmasse» ab. In der Gehirnforschung heisst dieses Prinzip: «Use it or lose it».

Fehlt dem Gehirn also die kognitive Aktivierung, führt das zu einer Art geistigen Trägheit – oder zugespitzt formuliert: das Gehirn verkümmert. So zeigte eine Studie des MIT, dass Studierende, die Aufgaben komplett an Chatbots delegieren, eine geringere neuronale Aktivierung im Gehirn aufweisen und sich an weniger Inhalte erinnern als Studierende, die sich aktiv mit Inhalten auseinandersetzen.

Der unreflektierte Gebrauch von KI kann also langfristig zu einem Verlust der eigenen Denkfähigkeit und Kompetenzen führen, auch Deskilling genannt. Und das erhöht wiederum die Gefahr, dass wir der KI und ihren Vorschlägen blind folgen.

Es liegt also an uns, Gegensteuer zu geben. Damit Dir das gelingt, stellen wir Dir 4 Tipps vor, die Dir helfen, Halluzinationen der KI zu verringern, Falschinformationen zu erkennen und Dich im kritischen Denken zu üben.

Online-Schreibkurs für überzeugende Fachtexte

Du siehst: Überall lauern Stolperfallen bei der Nutzung von KI. Deshalb zeigen wir Dir in unserem Online-Schreibkurs, wie Du KI sinnvoll in Deinen Schreibprozess einbindest. Du lernst, mit und ohne KI zu schreiben, und stärkst dadurch Deine Schreibkompetenz systematisch. Interessiert?

4 Tipps, um KI-Halluzinationen zu reduzieren

Mit den folgenden 4 Tippsgelingt es Dir, KI-Halluzinationen zu reduzieren. Wir sprechen bewusst von reduzieren und nicht von vermeiden. Denn wir können Halluzinationen nie vollständig ausschliessen – KI-Chatbots werden uns immer wieder mit falschen Fakten füttern. Deshalb zeigen wir Dir bei jedem Tipp, wie Du auch Dein kritisches Denken trainieren kannst.

Das gilt für alle Tipps: Nutze das aktuellste KI-Modell des Chatbots Deines Vertrauens, um das Risiko von Halluzinationen zu minimieren.

Chain-of-Thought: Fordere die KI auf, Schritt für Schritt «nachzudenken»

KI-Modelle neigen bei schnellen Antworten zu Flüchtigkeitsfehlern. Die Chain-of-Thought-Strategie zwingt die KI dazu, vertieft über die Antwort «nachzudenken». Wir setzen das Wort «nachdenken» bewusst in Anführungs- und Schlusszeichen. Denn eine KI denkt nicht im menschlichen Sinne nach – sie generiert ihre Antworten nur auf Basis von Wahrscheinlichkeitsberechnungen.

  • Wie es funktioniert: Verlange vom KI-Modell, die Herleitung der Antwort offenzulegen.
  • Der Prompt: «Formuliere eine nachvollziehbare fachliche Argumentation. Gehe Schritt für Schritt vor. Lege offen, auf welchen allgemeinen Annahmen Deine Antwort beruht, unterscheide klar zwischen gesicherten Aussagen und plausiblen Einschätzungen und weise explizit auf Unsicherheiten oder Grenzen hin.»

Auch hier ist Vorsicht die Mutter der Porzellankiste: Denn wie uns Prof. Dr. Alexander Schmid von der Berner Fachhochschule im Interview erklärt, stimmt der dokumentierte Gedankengang der KI nicht immer mit dem überein, was im Hintergrund tatsächlich passiert.

So trainierst Du Dein kritisches Denken: Überprüfe, ob die Argumente der KI nachvollziehbar und vollständig sind. Wenn Du bei Thinking-Modellen den «Gedankengang-Modus» aufklappst, verstehst Du die Vorgehensweise besser und erkennst schneller, wo die KI falsch abgebogen ist. Das geht oft nur in den Bezahlversionen.

Chain-of-Verification: Initiiere eine Selbstkorrektur-Schleife

Mit dieser Strategie lässt Du die KI-generierte Antwort von der KI selbst nochmals kritisch überprüfen. Forschungsergebnisse zeigen nämlich, dass KI-Modelle in der Lage sind, ihre eigenen Halluzinationen zu erkennen, wenn sie explizit dazu aufgefordert werden, die Antworten zu überprüfen.

  • Wie es funktioniert: Lasse die KI-generierte Antwort von der KI selbst nochmals überprüfen.
  • Der Prompt: «Betrachte Deine Antwort kritisch. Überprüfe sie auf mögliche logische Fehler, erfundene Fakten oder Ungenauigkeiten. Korrigiere sie und erkläre, was Du geändert hast.»

So trainierst Du Dein kritisches Denken: Recherchiere zuerst selbst, ob die von der KI präsentierten Fakten wirklich korrekt sind. Danach stellst Du der KI inhaltliche Fragen, die Du Dir basierend auf Deiner Recherche ausdenkst. Mach das zum Beispiel bei Fakten, die besonders zentral sind für Deine Argumentation. Anschliessend kannst Du die Antworten der KI auf Deine Fragen mit der ursprünglichen Antwort vergleichen.

Vorsicht vor Persona-Prompts

Unter einem Persona-Prompt versteht man eine Prompt-Engingeering-Strategie, bei der man dem Chatbot eine klar definierte Rolle gibt. Man teilt ihm zum Beispiel mit: «Du bist ein Experte für Geschichte» oder «Du bist ein Jurist mit über 20 Jahren Berufserfahrung».

Es gibt jedoch keine Belege dafür, dass solche Prompts das Grundproblem der Halluzinationen lösen. Unbedacht eingesetzt, kann ein solcher Prompt das Problem sogar verstärken. Wegen des sogenannten Sycophancy-Phänomens neigen Chatbots dazu, die Erwartungen der Nutzer:innen über die Fakten zu stellen. Das Resultat: Der Chatbot imitiert den Fachjargon perfekt und verpackt Halluzinationen in eloquente Sätze.

Grounding: Verankerung der Antworten durch Quellen

Das grösste Risiko für Halluzinationen entsteht, wenn die KI frei assoziiert. Um dieses Risiko zu verringern, solltest Du den Chatbot mit Texten füttern, die Du selbst überprüft hast. Diese Strategie nennt man Grounding.

  • Wie es funktioniert: Fordere das KI-Modell dazu auf, Informationen nicht aus dem eigenen «Gedächtnis» abzurufen, sondern aus den von Dir zur Verfügung gestellten Texten.
  • Der Prompt: «Nutze ausschliesslich die Informationen aus dem bereitgestellten Text/PDF. Wenn die Antwort dort nicht steht, sage: ‹Das weiss ich nicht›. Erfinde nichts dazu. Belege Deine Aussagen mit Verweisen aus dem Dokument. Für diesen Text sind Genauigkeit und Faktentreue gefragt, nicht Kreativität.»

So trainierst Du Dein kritisches Denken: Verschaffe Dir einen Überblick über die Texte – lies zum Beispiel von jedem Text den Anfang, den Schluss und die Überschriften. So erhältst Du ein Gespür dafür, welche Themen in den Texten behandelt werden. Wenn die KI auf Deine Frage antwortet, machst Du den Stichproben-Check: Suche im Originaltext gezielt nach den von der KI erwähnten Fakten. So entwickelst Du ein Gespür dafür, ob der Chatbot Deine Texte präzise wiedergibt, oder ob er halluziniert.

Multi-Shot-Prompting: Lernen am Beispiel

Die KI versteht abstrakte Anweisungen schlechter als konkrete Beispiele – da sind sich Mensch und Maschine für einmal ähnlich. Deswegen lohnt es sich, der KI Beispiele zur Veranschaulichung zu geben.

  • Wie es funktioniert: Gib dem Modell zwei, drei Beispiele für eine gute, faktenbasierte Antwort. Der Geheimtipp: Gib zusätzlich ein Negativbeispiel, um der KI zu zeigen, was sie vermeiden soll.
  • Der Prompt: «Hier sind [Anzahl] Beispiele für korrekte, quellenbasierte Antworten: [Beispiel 1], [Beispiel 2]. Antworte im exakt gleichen Format, im gleichen Stil und in der gleichen Tonalität. Vermeide Antworten in dieser Form: [Beispiel].»

So trainierst Du Dein kritisches Denken: Wenn Du geeignete und ungeeignete Beispiele auswählst – oder idealerweise sogar selbst entwickelst –, schärfst Du Dein Urteilsvermögen und kannst die Qualität der KI-generierten Antwort besser einschätzen.

Profi-Tipp: Die Multi-Modell-Validierung

Stelle dieselbe Frage an verschiedene KI-Modelle, zum Beispiel an ChatGPT, Claude und Google Gemini.

Warum das hilft: Die Modelle haben unterschiedliche Trainingsdaten und werden Dir verschiedene Antworten geben. Prüfe anschliessend:

  • Sagen alle drei dasselbe? Dann ist die Antwort wahrscheinlich korrekt. Prüfen solltest Du sie trotzdem, denn keine KI ersetzt die kritische Prüfung von Quellen, Inhalten und Fakten.
  • Widersprechen sich die Antworten? Dann sollten Deine Alarmglocken läuten. Wechsle dann direkt zu einer klassischen Recherche.

Mit der Multi-Modell-Validierung nutzt Du die unterschiedlichen Stärken und Trainingsdaten der Modelle. Besonders bei komplexen Fragen kann das Vergleichen der Antworten helfen, mögliche Falschinformationen zu finden.

Online-Schreibkurs für überzeugende Fachtexte

Du siehst: Überall lauern Stolperfallen bei der Nutzung von KI. Deshalb zeigen wir Dir in unserem Online-Schreibkurs, wie Du KI sinnvoll in Deinen Schreibprozess einbindest. Du lernst, mit und ohne KI zu schreiben, und stärkst dadurch Deine Schreibkompetenz systematisch. Interessiert?

Trainiere Dein kritisches Denken

Um Dein kritisches Denken zu bewahren, solltest Du nicht dem Impuls nachgeben, für alle Arbeiten immer gleich die KI zu bemühen. Besser ist es, die KI als Werkzeug zu betrachten, das Du lediglich für bestimmte Aufgaben nutzt – bewusst, reflektiert und kritisch. Gehe insbesondere Aufgaben, die nach eigenständigem Denken verlangen, ohne KI an. Dazu zählen etwa das vertiefte Recherchieren oder das Erarbeiten des roten Fadens.

Denken ist eine grundlegend menschliche Eigenschaft und Fähigkeit, die wir trainieren müssen. Hinzu kommt: Indem wir eigenständige Ideen entwickeln und einen Sachverhalt gedanklich durchdringen, schüttet unser Belohnungssystem Dopamin aus – und wir empfinden Glück. Wenn wir also selbst gedankliche Fortschritte erzielen, ist das viel erfüllender, als wenn wir uns von der KI eine Antwort vorkauen lassen.

Automation Bias und Confirmation Bias

Es gibt zwei psychologische Effekte, auf die wir Dich hinweisen möchten, wenn Du regelmässig KI nutzt: den Automation Bias und den Confirmation Bias.

Der Automation Bias bezeichnet die Tendenz, dass wir uns auf automatisierte Hilfsmittel wie KI verlassen, ohne deren Ergebnisse kritisch zu hinterfragen. Noch unkritischer werden wir, wenn der Confirmation Bias auch noch mitspielt: Wenn die Antwort der KI der eigenen Erwartung oder Vorstellung entspricht, übernehmen wir sie oft, ohne sie zu hinterfragen.

Wenn Du Dich also nicht bewusst gegen diese beiden Tendenzen der Voreingenommenheit auflehnst, läufst Du Gefahr, falschen Antworten der KI schneller auf den Leim zu gehen, als Dir lieb ist. Bewahre also Deine Skepsis, denke selbst nach, reflektiere Deinen Denkprozess und setze KI nur gezielt und wohl dosiert ein.

Diese beiden Podcast-Folgen haben uns zu diesem Blogbeitrag inspiriert

Der KI-Podcast: Wann macht KI Fehler – und wann wir? Ein Beitrag von Fritz Espenlaub und Gregor Schmalzried.

Gehirn gehört: Werden wir dümmer? Über den Einfluss von künstlicher auf menschliche Intelligenz. Ein Beitrag von Prof. Dr. Volker Busch.

Deine Schreibtrainer: Daniel und David

Um KI sinnvoll in Deinen Schreibprozess einbinden zu können, brauchst Du eine starke Schreibkompetenz. Diese Schreibkompetenz baust Du Dir in unserem Online-Intensivkurs systematisch auf.

Hast Du Fragen zum Online-Schreibkurs? Oder bist Du unsicher, ob das Angebot wirklich zu Dir passt?

Dann fülle einfach das Kontaktformular aus, damit wir Dich kontaktieren können.