KI im Betrieb: Claude als Analyse-Tool, und was das Schweizer Datenschutzgesetz dazu sagt

KI im Betrieb: Claude als Analyse-Tool, und was das Schweizer Datenschutzgesetz dazu sagt

Zwei Projekte, eine Frage. Innerhalb einer Woche bin ich zweimal in dieselbe Situation geraten: Jemand möchte eine KI nutzen, um echte Geschäftsdaten auszuwerten, und fragt sich im Nachhinein, ob das überhaupt rechtlich sauber ist.


Zwei Praxisbeispiele

🏗️
Fallbeispiel 1
Bauführer und KI-Dashboard
Ein Bauführer hat mit Hilfe von Claude ein Dashboard zur Auswertung seines Bauprogramms und der Disposition gebaut. Wochenpläne, Ressourcenauslastung, Terminabweichungen: alles auf einen Blick, automatisch analysiert.
🛒
Fallbeispiel 2
Onlineshop-Auswertung
Für einen meiner Kunden habe ich eine KI-gestützte Auswertung in seinen Onlineshop integriert: Bestellmuster, Kundenverhalten, umsatzstarke Segmente, alles direkt aus den echten Shop-Daten.

Beide Anwendungen sind sinnvoll, effizient und technisch ohne grossen Aufwand umsetzbar. Aber beide arbeiten mit Personendaten, und genau da wird es juristisch interessant.


Was sagt das Schweizer Datenschutzgesetz (DSG)?

Das revidierte Schweizer Datenschutzgesetz (DSG, SR 235.1) ist seit dem 1. September 2023 in Kraft. Die wichtigste Erkenntnis zuerst:

EDÖB: «Update: Geltendes Datenschutzgesetz ist auf KI direkt anwendbar», 8. Mai 2025
Das DSG ist technologieneutral formuliert. Es gilt direkt und vollumfänglich für KI-gestützte Datenbearbeitungen, eine zusätzliche KI-spezifische Regulierung ist dafür nicht nötig.

Das klingt beruhigend, ist aber ein zweischneidiges Schwert: Wer KI einsetzt, unterliegt denselben strengen Anforderungen wie bei jeder anderen Datenbearbeitung.

Die 5 wichtigsten DSG-Pflichten beim KI-Einsatz

🔍
Transparenzpflicht (Art. 19)
Kunden müssen wissen, dass ihre Daten durch eine KI verarbeitet werden, sowie zu welchem Zweck. Im Onlineshop bedeutet das: Datenschutzerklärung aktualisieren, KI-Einsatz explizit erwähnen.
🤚
Automatisierte Einzelentscheidung (Art. 21)
Bei automatisierten Einzelentscheidungen (z. B. automatische Preisgestaltung pro Kunde, Kreditwürdigkeitsprüfung) haben Betroffene das Recht, eine menschliche Überprüfung zu verlangen.
📋
Auftragsbearbeitungsvertrag (Art. 9)
Wer einen externen KI-Dienst (wie Claude, GPT-4 etc.) einsetzt, benötigt zwingend einen Data Processing Agreement (DPA) mit dem Anbieter. Ohne DPA ist die Nutzung mit Kundendaten rechtswidrig.
🌍
Auslandübermittlung (Art. 16)
Anthropic (Claude) ist ein US-Unternehmen. Daten ins Ausland zu übermitteln ist grundsätzlich erlaubt, aber nur wenn geeignete Garantien bestehen (z. B. EU-Standardvertragsklauseln mit Swiss Addendum, die der EDÖB für die Schweiz akzeptiert).
⚖️
Datenschutz-Folgenabschätzung (Art. 22)
Bei hohem Risiko für Betroffene (z. B. grossangelegtes Profiling) ist eine vorgängige Folgenabschätzung gesetzlich vorgeschrieben. Bei besonders hohem Restrisiko muss der EDÖB konsultiert werden.

Was ein typischer Betrieb regelt, und was das DSG wirklich fordert

Viele Unternehmen haben inzwischen einen internen KI-Leitfaden. Das ist gut. Wer sich solche Dokumente aber genauer anschaut, stellt fest, dass sie oft eine wichtige Lücke haben: Sie regeln das operative Verhalten der Mitarbeitenden, aber nicht die rechtliche Grundlage dahinter.

Ein typischer Leitfaden enthält Folgendes:

Was betriebliche KI-Leitfäden typischerweise enthalten
  • Datenkategorien: personenbezogen, sensibel, unbedenklich
  • Liste freigegebener Tools (z. B. Microsoft Copilot, DeepL via Unternehmenslogin)
  • Faustregel: nicht freigegebene Tools nur für «unbedenkliche» Anfragen
  • Hinweis auf Transparenz gegenüber Kunden und Partnern
  • Allgemeine Werte: Vertrauen, Integrität, Respekt

Das klingt solide. Das Problem: Der Leitfaden sagt den Mitarbeitenden, was sie tun sollen, aber nicht warum das rechtlich gilt, und er beantwortet die entscheidenden Fragen nicht.

Was solche Leitfäden typischerweise nicht beantworten
?
Warum ist ein Tool «freigegeben»?
Was hat der Anbieter konkret unterschrieben? Gibt es ein DPA nach Art. 9 DSG? Wer hat geprüft, ob die Standardvertragsklauseln (SCCs) für die USA-Übermittlung ausreichen?
?
Was gilt bei KI-gestützten Auswertungen, nicht nur Übersetzungen?
Wenn die KI Kundenverhalten analysiert, Muster erkennt oder Ressourcenentscheidungen trifft, greift Profiling (Art. 5 DSG) und möglicherweise das Recht auf menschliche Überprüfung (Art. 21 DSG).
?
Wer haftet bei einem Datenschutzvorfall?
Art. 60-66 DSG droht Bussen bis CHF 250'000 gegen natürliche Personen. Ein interner Leitfaden ohne Rechtsgrundlage schützt weder das Unternehmen noch die verantwortliche Einzelperson.
?
Werden Kundendaten für das Training des Modells genutzt?
Gerade bei Consumer-Plänen (ChatGPT Free, Claude Pro) ist das die Standardeinstellung. Ein Leitfaden, der das nicht adressiert, lässt eine der zentralen Fragen offen.
Typischer Leitfaden sagt
DSG verlangt zusätzlich
«Verwende nur freigegebene Tools»
Schriftlicher Auftragsbearbeitungsvertrag mit dem Anbieter (Art. 9)
«Informiere Kunden bei KI-Einsatz»
Aktive Informationspflicht mit Angabe von Zweck und Empfängern in der Datenschutzerklärung (Art. 19)
«Keine sensiblen Daten eingeben»
Nachweis, dass auch pseudonymisierte Daten nicht re-identifizierbar sind (Art. 6)
Keine Angabe zu Ausland-Servern
Dokumentierte Garantien für Datenübermittlung in die USA (Art. 16, SCCs)

Der Punkt ist nicht, dass solche Leitfäden wertlos sind. Sie helfen, ein Bewusstsein zu schaffen und offensichtliche Fehler zu vermeiden. Aber sie ersetzen keine rechtliche Grundlage, und sie schliessen die Lücken nicht, die das DSG konkret adressiert.


Das Problem mit Claude Pro

Hier kommt der Punkt, der viele überrascht, mich selbst eingeschlossen.

⚠️
Claude Pro ist für geschäftliche Kundendaten nicht geeignet
Die Consumer-Pläne von Anthropic (Claude Pro $20/Mt., Claude Max $100–$200/Mt.) sind laut Nutzungsbedingungen für den persönlichen, nicht-kommerziellen Gebrauch bestimmt. Für geschäftliche Nutzung mit Kundendaten gelten drei kritische Einschränkungen:
Kein DPA
Kein Data Processing Agreement verfügbar, Art. 9 DSG damit nicht erfüllbar
⚠️
Training standardmässig aktiv
Eingaben können für Modelltraining verwendet werden. Opt-out möglich, aber nicht vollständig (Safety-Reviews bleiben aktiv)
🚫
Nutzungsbedingungen
Kommerzielle Nutzung mit Kundendaten verstösst gegen die Consumer ToS

Was funktioniert, und was kostet es?

Die Lösung ist einfacher als erwartet: die Anthropic API (Developer Platform / Commercial Plan).

Anforderung (DSG)
Pro / Max
Team
API ✓
Geschäftliche Nutzung erlaubt?
Data Processing Agreement (Art. 9)
Kein Training mit Kundendaten (vertraglich garantiert)
SCCs für Auslandübermittlung
Kosten (ungefähr)
Pro $20 / Max $100–$200/Mt.
min. $150/Mt.
Pay-as-you-go

Für kleine Betriebe und Einzelunternehmen ist die API mit Pay-as-you-go die kosteneffizienteste Lösung: keine monatliche Grundgebühr, kein Seat-Minimum, und alle Commercial Terms mit DPA sind inklusive.


Was das konkret bedeutet: die beiden Praxisbeispiele

Fallbeispiel 1: Bauprogramm-Dashboard

Daten im Spiel: Baustellenpläne mit Mitarbeiternamen, Subunternehmern, Terminplänen, Maschinendisposition. Wenn natürliche Personen identifizierbar sind, gilt das DSG.

Was zu tun ist:

  • Mitarbeiter und Subunternehmer informieren (Transparenzpflicht)
  • Prüfen, ob die KI-Analyse «automatisierte Einzelentscheidungen» trifft (z. B. automatische Ressourcenzuteilung)
  • API-Plan von Anthropic nutzen, nicht Claude Pro
  • Im Arbeitsvertrag sowie im Subunternehmervertrag den KI-Einsatz regeln

Tipp: Bauprogramme mit nur aggregierten Daten (keine Namen, nur Rollen und Funktionen) reduzieren den Datenschutzaufwand erheblich.

Fallbeispiel 2: Onlineshop-Auswertung

Daten im Spiel: Bestellhistorie, Kaufverhalten, Kundensegmente, also klassische Personendaten mit oft Profiling-Charakter (Art. 5 Bst. f DSG).

Was zu tun ist:

  • Datenschutzerklärung des Shops erweitern: KI-Einsatz, Zweck und Empfänger (Anthropic als Auftragsbearbeiter) nennen
  • Anthropic API nutzen (DPA als Auftragsbearbeitungsvertrag nach Art. 9)
  • Bei hochriskantem Profiling: ausdrückliche Einwilligung einholen und Datenschutz-Folgenabschätzung (Art. 22) durchführen
  • Daten vor Übermittlung an die KI anonymisieren oder pseudonymisieren, wo möglich

Tipp: Für reine Auswertungen ist es oft sinnvoll, Kundendaten vor der KI-Analyse zu aggregieren, dann fällt die Datenbearbeitung oft gar nicht mehr unter das DSG.


DSG-Compliance-Checkliste

Vor dem KI-Einsatz mit Kundendaten prüfen
Sind die Daten Personendaten (natürliche Personen identifizierbar)? Wenn ja, gilt das DSG.
KI-Anbieter mit Commercial Terms und DPA wählen, keine Consumer-Pläne verwenden.
Datenschutzerklärung aktualisieren: KI-Einsatz, Zweck und Empfänger (Anthropic) erwähnen.
Daten vor KI-Eingabe anonymisieren oder aggregieren, wenn vollständige Identifizierbarkeit nicht nötig ist.
Bei Profiling mit hohem Risiko: ausdrückliche Einwilligung einholen.
Auskunfts- und Widerspruchsrecht der Betroffenen sicherstellen.
Datenschutz-Folgenabschätzung (Art. 22) bei hohem Risiko durchführen.

Mein Fazit

KI kann im Betrieb echten Mehrwert schaffen, ob beim Bauprogramm-Dashboard oder der Shop-Auswertung. Das Schweizer DSG verbietet das nicht. Es verlangt aber Transparenz, einen passenden Vertrag mit dem KI-Anbieter und Sorgfalt beim Umgang mit Personendaten.

Der häufigste Fehler: Man startet mit dem KI-Tool, das man privat bereits kennt, also Claude Pro/Max oder ChatGPT Plus, und vergisst, dass diese Consumer-Pläne für geschäftliche Kundendaten weder vertraglich noch datenschutzrechtlich taugen.

Die gute Nachricht: Die Anthropic API ist pay-as-you-go, enthält alle nötigen kommerziellen Garantien inklusive DPA, und untersagt das Training mit Kundendaten vertraglich. Für kleine Betriebe ist sie oft günstiger als ein Flat-Rate-Plan, weil man nur zahlt, was man wirklich nutzt.

KI-Integration für Ihren Betrieb?
Ich helfe dabei, KI-gestützte Auswertungen DSG-konform in bestehende Systeme zu integrieren: von der technischen Umsetzung bis zum passenden Vertrag mit dem KI-Anbieter.
Kontakt aufnehmen

Quellen

Verwendete Quellen und weiterführende Links
  • [1] EDÖB, Update: Geltendes Datenschutzgesetz ist auf KI direkt anwendbar, 8. Mai 2025 (aktualisiert 22. August 2025). Eidgenössischer Datenschutz- und Öffentlichkeitsbeauftragter, Bern. edoeb.admin.ch
  • [2] Bundesgesetz über den Datenschutz (DSG), SR 235.1, in Kraft seit 1. September 2023. fedlex.admin.ch
  • [3] Anthropic, Consumer Terms of Service und Commercial Terms of Service, Stand Oktober 2025. anthropic.com/legal
  • [4] Anthropic, Data Processing Addendum (DPA), verfügbar für API- und kommerzielle Pläne. anthropic.com/legal/data-processing-addendum
  • [5] Anthropic, Privacy Policy, Abschnitt zur Datennutzung für Modelltraining, Stand 2025. anthropic.com/legal/privacy
  • [6] Fredric Paul, Anthropic: You can still use your Claude accounts to run OpenClaw, NanoClaw and Co., The New Stack, 2025. thenewstack.io

Fun Fact: Der OpenClaw-Streit und was er über Anthropics ToS verrät

💡
Fun Fact aus der Praxis

OpenClaw, NanoClaw und ähnliche persönliche KI-Agenten funktionieren genau so, wie dieser Beitrag es beschreibt: Sie nutzen den OAuth-Token eines Claude Pro oder Max Accounts, ohne einen API-Key. Das macht sie erschwinglich, aber es ist rechtlich eine Grauzone.

Anfang 2025 aktualisierte Anthropic seine Dokumentation und stellte klar, dass die Nutzung von Pro/Max-Zugangsdaten in Drittanbieter-Tools gegen die Nutzungsbedingungen verstösst. Die Reaktion der Community war heftig, und Anthropic ruderte zurück: «Nothing is changing about how you can use the Agent SDK and MAX subscriptions.» Die offizielle Linie seither: Privater Gebrauch ist in Ordnung. Wer aber ein Geschäftsmodell darauf aufbaut oder Kundendaten verarbeitet, soll einen API-Key verwenden.

Genau das ist der Punkt. Wer OpenClaw für persönliche Experimente nutzt, bewegt sich im tolerierten Bereich. Wer damit Kundendaten aus seinem Betrieb auswertet, landet wieder bei der Ausgangsfrage dieses Artikels: kein DPA, kein Training-Ausschluss, kein SCC-Nachweis, Consumer ToS. Die Technologie ist dieselbe, der rechtliche Kontext ist ein völlig anderer.


Hinweis: Dieser Beitrag gibt einen praxisorientierten Überblick und ersetzt keine Rechtsberatung. Bei konkreten Datenschutzfragen empfiehlt sich die Konsultation einer Fachperson oder des EDÖB.

Kommentare

Kommentare werden geladen...