Was ist eine Halluzination?
Eine Halluzination entsteht, wenn die KI etwas generiert, das korrekt klingt, aber falsch ist. Sie erfindet Fakten, Quellen, Gesetzesartikel oder Zahlen — mit voller Überzeugung.
Die KI zitiert selbstsicher "Art. 47 Abs. 3 OR" zur Gewährleistungsfrist — klingt perfekt. Nur: Dieser Artikel existiert nicht.
Das ist kein Bug. Es ist eine direkte Konsequenz des Mechanismus: Die KI sagt immer das nächste wahrscheinliche Wort voraus. Sie hat keine separate Schublade mit "gesicherten Fakten" und keine Möglichkeit zu sagen "das weiss ich nicht, deshalb schreibe ich nichts".
Wie entstehen Halluzinationen?
Die KI hat im Training Tausende echte Urteilszitate gesehen — Aktenzeichen, Jahreszahl, Kammer, Leitsatz. Das Muster "BGer 4A_123/2021" ist tief verinnerlicht. Wenn du nach einem Urteil fragst, produziert sie genau dieses Format — mit einer erfundenen Nummer, die perfekt echt aussieht.
Nicht weil sie lügen will, sondern weil "plausibles Urteilszitat" die wahrscheinlichste Fortsetzung ist.
Besonders gefährlich bei:
- Zahlen und Statistiken — die KI erfindet Prozentwerte, die plausibel klingen
- Gesetzesartikel und Regulatorik — korrekte Formatierung, falscher Inhalt
- Quellenangaben — Autoren, Titel und Jahreszahlen, die es nie gab
Warum ist das wichtig für KMU?
Halluzinationen sind das grösste praktische Risiko bei der KI-Nutzung. Die richtige Haltung:
- KI als Entwurfspartner, nie als Quelle der Wahrheit
- Zahlen immer eigenständig prüfen
- Gesetze und Regulatorik verifizieren
- Die Schlussverantwortung bleibt bei dir
Das heisst nicht, dass KI unbrauchbar ist — im Gegenteil. Aber du musst wissen, wo du ihr vertrauen kannst (Struktur, Formulierung, Varianten) und wo nicht (Fakten, Zahlen, Quellen).
Mehr dazu: Warum Anfänger KI schneller adoptieren als Experten