Zwei Projekte, eine Frage. Innerhalb einer Woche bin ich zweimal in dieselbe Situation geraten: Jemand möchte eine KI nutzen, um echte Geschäftsdaten auszuwerten, und fragt sich im Nachhinein, ob das überhaupt rechtlich sauber ist.
Zwei Praxisbeispiele
Beide Anwendungen sind sinnvoll, effizient und technisch ohne grossen Aufwand umsetzbar. Aber beide arbeiten mit Personendaten, und genau da wird es juristisch interessant.
Was sagt das Schweizer Datenschutzgesetz (DSG)?
Das revidierte Schweizer Datenschutzgesetz (DSG, SR 235.1) ist seit dem 1. September 2023 in Kraft. Die wichtigste Erkenntnis zuerst:
Das klingt beruhigend, ist aber ein zweischneidiges Schwert: Wer KI einsetzt, unterliegt denselben strengen Anforderungen wie bei jeder anderen Datenbearbeitung.
Die 5 wichtigsten DSG-Pflichten beim KI-Einsatz
Was ein typischer Betrieb regelt, und was das DSG wirklich fordert
Viele Unternehmen haben inzwischen einen internen KI-Leitfaden. Das ist gut. Wer sich solche Dokumente aber genauer anschaut, stellt fest, dass sie oft eine wichtige Lücke haben: Sie regeln das operative Verhalten der Mitarbeitenden, aber nicht die rechtliche Grundlage dahinter.
Ein typischer Leitfaden enthält Folgendes:
- ✓ Datenkategorien: personenbezogen, sensibel, unbedenklich
- ✓ Liste freigegebener Tools (z. B. Microsoft Copilot, DeepL via Unternehmenslogin)
- ✓ Faustregel: nicht freigegebene Tools nur für «unbedenkliche» Anfragen
- ✓ Hinweis auf Transparenz gegenüber Kunden und Partnern
- ✓ Allgemeine Werte: Vertrauen, Integrität, Respekt
Das klingt solide. Das Problem: Der Leitfaden sagt den Mitarbeitenden, was sie tun sollen, aber nicht warum das rechtlich gilt, und er beantwortet die entscheidenden Fragen nicht.
Der Punkt ist nicht, dass solche Leitfäden wertlos sind. Sie helfen, ein Bewusstsein zu schaffen und offensichtliche Fehler zu vermeiden. Aber sie ersetzen keine rechtliche Grundlage, und sie schliessen die Lücken nicht, die das DSG konkret adressiert.
Das Problem mit Claude Pro
Hier kommt der Punkt, der viele überrascht, mich selbst eingeschlossen.
Was funktioniert, und was kostet es?
Die Lösung ist einfacher als erwartet: die Anthropic API (Developer Platform / Commercial Plan).
Für kleine Betriebe und Einzelunternehmen ist die API mit Pay-as-you-go die kosteneffizienteste Lösung: keine monatliche Grundgebühr, kein Seat-Minimum, und alle Commercial Terms mit DPA sind inklusive.
Was das konkret bedeutet: die beiden Praxisbeispiele
Fallbeispiel 1: Bauprogramm-Dashboard
Daten im Spiel: Baustellenpläne mit Mitarbeiternamen, Subunternehmern, Terminplänen, Maschinendisposition. Wenn natürliche Personen identifizierbar sind, gilt das DSG.
Was zu tun ist:
- Mitarbeiter und Subunternehmer informieren (Transparenzpflicht)
- Prüfen, ob die KI-Analyse «automatisierte Einzelentscheidungen» trifft (z. B. automatische Ressourcenzuteilung)
- API-Plan von Anthropic nutzen, nicht Claude Pro
- Im Arbeitsvertrag sowie im Subunternehmervertrag den KI-Einsatz regeln
Tipp: Bauprogramme mit nur aggregierten Daten (keine Namen, nur Rollen und Funktionen) reduzieren den Datenschutzaufwand erheblich.
Fallbeispiel 2: Onlineshop-Auswertung
Daten im Spiel: Bestellhistorie, Kaufverhalten, Kundensegmente, also klassische Personendaten mit oft Profiling-Charakter (Art. 5 Bst. f DSG).
Was zu tun ist:
- Datenschutzerklärung des Shops erweitern: KI-Einsatz, Zweck und Empfänger (Anthropic als Auftragsbearbeiter) nennen
- Anthropic API nutzen (DPA als Auftragsbearbeitungsvertrag nach Art. 9)
- Bei hochriskantem Profiling: ausdrückliche Einwilligung einholen und Datenschutz-Folgenabschätzung (Art. 22) durchführen
- Daten vor Übermittlung an die KI anonymisieren oder pseudonymisieren, wo möglich
Tipp: Für reine Auswertungen ist es oft sinnvoll, Kundendaten vor der KI-Analyse zu aggregieren, dann fällt die Datenbearbeitung oft gar nicht mehr unter das DSG.
DSG-Compliance-Checkliste
Mein Fazit
KI kann im Betrieb echten Mehrwert schaffen, ob beim Bauprogramm-Dashboard oder der Shop-Auswertung. Das Schweizer DSG verbietet das nicht. Es verlangt aber Transparenz, einen passenden Vertrag mit dem KI-Anbieter und Sorgfalt beim Umgang mit Personendaten.
Der häufigste Fehler: Man startet mit dem KI-Tool, das man privat bereits kennt, also Claude Pro/Max oder ChatGPT Plus, und vergisst, dass diese Consumer-Pläne für geschäftliche Kundendaten weder vertraglich noch datenschutzrechtlich taugen.
Die gute Nachricht: Die Anthropic API ist pay-as-you-go, enthält alle nötigen kommerziellen Garantien inklusive DPA, und untersagt das Training mit Kundendaten vertraglich. Für kleine Betriebe ist sie oft günstiger als ein Flat-Rate-Plan, weil man nur zahlt, was man wirklich nutzt.
Quellen
- [1] EDÖB, Update: Geltendes Datenschutzgesetz ist auf KI direkt anwendbar, 8. Mai 2025 (aktualisiert 22. August 2025). Eidgenössischer Datenschutz- und Öffentlichkeitsbeauftragter, Bern. edoeb.admin.ch
- [2] Bundesgesetz über den Datenschutz (DSG), SR 235.1, in Kraft seit 1. September 2023. fedlex.admin.ch
- [3] Anthropic, Consumer Terms of Service und Commercial Terms of Service, Stand Oktober 2025. anthropic.com/legal
- [4] Anthropic, Data Processing Addendum (DPA), verfügbar für API- und kommerzielle Pläne. anthropic.com/legal/data-processing-addendum
- [5] Anthropic, Privacy Policy, Abschnitt zur Datennutzung für Modelltraining, Stand 2025. anthropic.com/legal/privacy
- [6] Fredric Paul, Anthropic: You can still use your Claude accounts to run OpenClaw, NanoClaw and Co., The New Stack, 2025. thenewstack.io
Fun Fact: Der OpenClaw-Streit und was er über Anthropics ToS verrät
OpenClaw, NanoClaw und ähnliche persönliche KI-Agenten funktionieren genau so, wie dieser Beitrag es beschreibt: Sie nutzen den OAuth-Token eines Claude Pro oder Max Accounts, ohne einen API-Key. Das macht sie erschwinglich, aber es ist rechtlich eine Grauzone.
Anfang 2025 aktualisierte Anthropic seine Dokumentation und stellte klar, dass die Nutzung von Pro/Max-Zugangsdaten in Drittanbieter-Tools gegen die Nutzungsbedingungen verstösst. Die Reaktion der Community war heftig, und Anthropic ruderte zurück: «Nothing is changing about how you can use the Agent SDK and MAX subscriptions.» Die offizielle Linie seither: Privater Gebrauch ist in Ordnung. Wer aber ein Geschäftsmodell darauf aufbaut oder Kundendaten verarbeitet, soll einen API-Key verwenden.
Genau das ist der Punkt. Wer OpenClaw für persönliche Experimente nutzt, bewegt sich im tolerierten Bereich. Wer damit Kundendaten aus seinem Betrieb auswertet, landet wieder bei der Ausgangsfrage dieses Artikels: kein DPA, kein Training-Ausschluss, kein SCC-Nachweis, Consumer ToS. Die Technologie ist dieselbe, der rechtliche Kontext ist ein völlig anderer.
Hinweis: Dieser Beitrag gibt einen praxisorientierten Überblick und ersetzt keine Rechtsberatung. Bei konkreten Datenschutzfragen empfiehlt sich die Konsultation einer Fachperson oder des EDÖB.

