Was bedeutet Datenschutz bei KI?
Datenschutz bei KI hat zwei separate Fragen — und beide müssen stimmen, nicht nur eine.
Ebene 1 — Tool-Sicherheit: Werden deine Eingaben für das Training des Modells verwendet?
- Consumer-Tools (kostenlose Versionen): Eingaben können für Training genutzt werden. Faustregel: keine Kundendaten eingeben.
- Enterprise-Produkte (Claude Teams, ChatGPT Teams): Stärkere Garantien — kein Training, Vertrag, Audit-Logs.
Ebene 2 — Einwilligung: Selbst mit einem sicheren Enterprise-Tool: Hat der Kunde zugestimmt, dass seine Daten an ein KI-System weitergegeben werden? Verträge enthalten typischerweise keine KI-Einwilligung. DSGVO und Schweizer DSG brauchen eine Rechtsgrundlage.
Wie löst man das praktisch?
Drei Stufen, abgestuft nach Sensitivität:
-
Generische Aufgaben (Recherche, Entwürfe, Brainstorming): Top-Cloud-Modelle nutzen (Claude, GPT). Keine Kunden- oder Firmendaten eingeben.
-
Kundendaten: EU-konforme Anbieter mit DPA, EU-Servern und Garantie, dass kein Modelltraining stattfindet. DSGVO-konform.
-
Hochsensible Daten (Mandatsgeheimnisse, NDAs): Lokale Modelle auf eigener Hardware. Daten verlassen das Gebäude nie. Etwas weniger Leistung, aber null Datenschutzrisiko.
Bonus-Ansatz: Ein lokales Modell anonymisiert die Daten vor der Cloud — so kombinierst du Datenschutz mit Top-Qualität.
Warum ist das wichtig für KMU?
Datenschutz ist kein Grund, KI nicht zu nutzen — aber ein Grund, es bewusst zu tun. Die Entscheidung "welche Daten dürfen wohin" wird zur täglichen Routine.
Für Schweizer KMU besonders relevant: Der US CLOUD Act erlaubt US-Behörden den Zugriff auf Daten bei US-Anbietern — auch wenn die Server in Europa stehen. Bei lokaler Installation entfällt dieses Risiko komplett. Die richtige Stufe hängt von deiner Branche und der Sensitivität deiner Daten ab.