Was sind Open-Source-Modelle?
Open-Source-Modelle sind KI-Sprachmodelle, deren Gewichte (das "Gehirn" der KI) frei verfügbar sind. Im Gegensatz zu geschlossenen Modellen wie ChatGPT oder Claude kannst du sie herunterladen und auf eigener Hardware betreiben.
Bekannte Beispiele: Llama (Meta), Mistral (Mistral AI), Kimi (Moonshot AI), Gemma (Google). Sie sind kostenlos nutzbar — du zahlst nur für die Hardware, auf der sie laufen.
Wie funktionieren Open-Source-Modelle?
Es gibt zwei Wege, Open-Source-Modelle einzusetzen:
Lokal mit Ollama:
- Du installierst Ollama auf deinem Rechner oder Server
- Lädst ein Modell herunter (z.B. Llama 3 oder Mistral)
- Die KI läuft komplett lokal — keine Daten verlassen dein Netzwerk
- Braucht allerdings leistungsstarke Hardware (vor allem GPU und RAM)
Über günstige Cloud-APIs:
- Anbieter wie Moonshot AI (Kimi) bieten Open-Source-Modelle als API an
- Oft bis zu 90% günstiger als proprietäre Modelle
- Die Qualität ist bei vielen Aufgaben vergleichbar — Kimi K2.5 übertrifft z.B. Claude Opus in bestimmten Benchmarks
Closed vs. Open — der Trade-off:
| | Closed (ChatGPT, Claude) | Open-Source (Llama, Mistral) | |---|---|---| | Qualität | Oft Spitzenklasse | Sehr gut, holt schnell auf | | Datenschutz | Daten gehen an den Anbieter | Volle Kontrolle möglich | | Kosten | Pro Token (kann teuer werden) | Hardware-Kosten oder günstige APIs | | Aufwand | Sofort einsatzbereit | Setup und Wartung nötig |
Warum ist das wichtig für KMU?
Für Schweizer KMU sind Open-Source-Modelle aus zwei Gründen relevant:
- Datenschutz: Sensible Kundendaten, Verträge oder Finanzzahlen müssen nicht an US-Cloud-Anbieter geschickt werden. Mit einem lokalen Modell bleibt alles im Unternehmen — ein starkes Argument gegenüber Kunden und für die DSGVO/nDSG-Compliance.
- Kosten: Wer KI-Agenten im grossen Stil einsetzt, kann mit Open-Source-Modellen die laufenden Kosten massiv senken.
Der pragmatische Ansatz: Starte mit Cloud-APIs (schnell, einfach). Wenn Datenschutz oder Kosten zum Thema werden, wechsle für spezifische Aufgaben auf Open-Source-Modelle. Du musst nicht alles selbst hosten — aber du kannst.