DSGVO & KI-Agenten: Was du wissen musst, bevor dein Agent live geht
Dein KI-Agent liest Kunden-E-Mails, recherchiert Absender auf LinkedIn und erstellt Antwortvorschläge. Alles automatisiert. Alles täglich.
Aber weißt du, wo diese Daten landen? Wer Zugriff hat? Was mit den personenbezogenen Informationen passiert — rechtlich gesehen?
Die meisten KMU-Gründer, die ihre ersten KI-Agenten deployen, verstehen nicht, dass das DSGVO-Konsequenzen hat. Und das wird teuer — bis zu 10 Millionen Euro Geldbuße, wenn es die Aufsichtsbehörde so sieht.
Dieser Artikel zeigt dir, wo die rechtlichen Fallen liegen, welche Compliance-Anforderungen wirklich bindend sind, und wie du deinen Agenten von Anfang an DSGVO-konform aufbaust.
Warum DSGVO bei KI-Agenten anders ist
Zunächst die schlechte Nachricht: KI-Agenten sind nicht einfach "klassische Software" mit Datenschutz-Vorsorge. Sie sind etwas qualitativ anderes.
Drei kritische Unterschiede:
- Autonome Aktion: Ein Agent trifft Entscheidungen ohne menschlichen Input in jedem Schritt. Das triggert Art. 22 DSGVO — das Recht auf keine automatisierte Entscheidung.
- Datentransfer in Black Boxes: Jedes Mal, wenn dein Agent einen Prompt an eine LLM-API sendet (OpenAI, Anthropic, etc.), wandern Daten über das Internet zu externen Servern — oft in den USA. Das ist Datenverarbeitung im rechtlichen Sinne, nicht bloß eine technische Funktion.
- Entscheidungen mit Auswirkung auf Menschen: Wenn dein Agent eingehende Leads als "unqualifiziert" einstuft und entsprechend routet, trifft er eine Entscheidung über eine Person. Das hat Konsequenzen für die betroffene Person — genau das reguliert die DSGVO.
Dein Agent liest Kunden-E-Mails, recherchiert Absender auf LinkedIn und erstellt Antwortvorschläge — weißt du, wo diese Daten landen? Ohne AVV mit deinen LLM-Anbietern: nirgendwo, das sollte sie nicht hin. Mit AVV, aber ohne Zero Data Retention: 30 Tage im OpenAI-System. Rechtlich haftbar bist du — nicht OpenAI.
Die vier DSGVO-Säulen für KI-Agenten
Nicht alle DSGVO-Artikel sind für Agenten gleich relevant. Vier stehen im Fokus:
Menschen haben das Recht, nicht Gegenstand einer Entscheidung zu sein, die ausschließlich auf automatisierter Verarbeitung beruht — wenn diese Entscheidung sie rechtlich oder in erheblicher Weise betrifft. Konkret: Dein Agent kann nicht einfach sagen "Lead abgelehnt" und die Anfrage in den Papierkorb verschieben. Es muss ein Mensch die Entscheidung überprüfen. Das ist der Human-in-the-Loop-Ansatz.
Datenschutz darf nicht nachträglich "eingebaut" werden. Es muss von Anfang an Teil der Architektur sein. Für Agenten bedeutet das: Welche Daten fütterst du dem Agent ein (Data Minimization)? Wie lange speichert er sie? Können betroffene Personen ihre Daten löschen lassen? Das alles muss im Design festgelegt sein, bevor die erste Zeile Code geschrieben wird.
Wenn dein Agent Daten an externe LLM-APIs sendet, sind diese Anbieter Auftragsverarbeiter im rechtlichen Sinne. Das bedeutet: Ohne schriftlichen AVV mit OpenAI, Anthropic, Google etc. ist die Datenverarbeitung illegal. Bußgeld bis zu 10 Millionen Euro. Ein AVV mit LLM-Anbietern ist nicht optional — es ist Pflicht. Und nein, die Standard-ToS von OpenAI ist kein AVV. Du musst einen separaten, individuellen Vertrag haben.
Sobald dein Agent personenbezogene Daten verarbeitet mit "Profiling" oder automatisierten Entscheidungen, ist eine DSFA zwingend. Das ist ein schriftliches Risikoanalysedokument, in dem du dokumentierst: Welche Daten verarbeitest du? Wer hat Zugriff? Wo liegen die Risiken? Welche technischen und organisatorischen Maßnahmen setzt du um, um diese Risiken zu minimieren? Die DSFA ist nicht einmalig — sie wird mindestens jährlich überprüft und aktualisiert.
LLM-APIs und Datentransfer — das unterschätzte Risiko
Hier sitzt der größte Compliance-Knackpunkt. Viele KMU realisieren nicht, dass der Datenaustausch mit LLM-APIs ein komplexes rechtliches Problem ist.
Das Grundproblem: Daten-in-Transit
Jedes Mal, wenn dein Agent einen Prompt mit Kundendaten an OpenAI, Anthropic oder ein anderes US-Unternehmen sendet, findet eine Datenverarbeitung statt. Die Daten "wandern" in die USA. Das triggert zwei regulatorische Komplexitäten: Das Schrems-II-Urteil des EuGH (2020) und den CLOUD Act der USA.
Vergleich: US-Anbieter vs. EU-Alternativen
US-Anbieter (OpenAI, Anthropic)
- Höhere Performance (neueste Modelle)
- Besserer Support
- Etablierte Ökosysteme
ABER: Datenretention (OpenAI 30 Tage, Anthropic 7 Tage), Schrems-II-Problem, CLOUD Act, brauchen Standard Contractual Clauses (SCCs) + supplementäre Maßnahmen.
EU-Alternativen (Mistral, Aleph Alpha)
- Processing in EU (meist)
- Einfachere DSGVO-Compliance
- Kein Transatlantik-Transfer
- SCCs nicht nötig
ABER: Modelle oft weniger performant, kleinere Communities, weniger Integration.
Was ein AVV für LLM-Nutzung enthalten muss
Falls du dich für US-Anbieter entscheidest, brauchst du einen AVV, der diese Punkte abdeckt:
- Verarbeitungsumfang: Welche Datentypen sendest du? (E-Mail-Adressen, Namen, Inhalte?)
- Sub-Prozessoren: Welche anderen Services nutzt der Anbieter? (z.B. OpenAI nutzt Microsoft-Infrastruktur)
- Datenlöschung: Wie lange werden Daten gespeichert? Kannst du verlangen, dass sie gelöscht werden?
- Datenübermittlung: Werden Daten in Drittländer übertragen? Falls ja: SCCs vorhanden?
- Audit & Compliance: Darf dein Datenschutzbeauftragter den Anbieter kontrollieren?
Viele LLM-Anbieter haben mittlerweile "Enterprise AVVs" im Portfolio. OpenAI bietet das unter der "Business" Subscription (mit DPA). Anthropic bietet es. Mistral auch. Aber du musst aktiv danach fragen — es ist nicht automatisch inklusive in der Standard-Subscription. Und: Frage nach "Zero Data Retention" oder "30-Day Retention". Bei OpenAI kannst du Data Retention auf 0 Tage setzen — das reduziert das Risiko erheblich.
EU AI Act — was ab August 2026 gilt
Neben der DSGVO kommt eine neue Regelwerk: Der EU AI Act wird ab 2. August 2026 enforceable. Das ist nur drei Monate nach diesem Artikel — also jetzt relevant.
Risikoklassifizierung
Der EU AI Act klassifiziert KI-Systeme nach Risiko:
- Verbotene Hochrisiko-Systeme: Social-Credit-Scores, Migranten-Screening, Manipulation von Menschen
- Hochrisiko-Systeme (müssen zertifiziert werden): HR-Recruiting, Bonität-Scoring, Kreditvergabe, Medizinische Diagnosen
- Begrenzte Risiko-Systeme: Chatbots, Gesichtserkennungs-Systeme, Content-Moderation
- Minimal/Kein Risiko: Die meisten Business-Process-Agenten
Was für deine KMU-Agenten gilt
Die meisten KI-Agenten für Geschäftsprozesse (Lead-Qualifizierung, E-Mail-Bearbeitung, Content-Erstellung) fallen in die Kategorien "Minimal Risk" oder "Limited Risk". Das bedeutet:
- Keine Zertifizierung erforderlich
- ABER: Transparenzpflichten (Menschen müssen wissen, dass KI am Werk ist)
- ABER: Dokumentationspflichten (du musst nachweisen können, wie der Agent funktioniert)
- ABER: Wenn dein Agent High-Risk-Aufgaben macht (z.B. automatisierte Recruiting-Entscheidungen), brauchst du Conformity Assessment
Dein Business-Agent ist wahrscheinlich kein Hochrisiko-System — aber auch kein Freifahrtschein. Transparenzpflichten und Dokumentation gelten trotzdem. Wenn dein Agent automatisiert Bewerber ablehnt, Leads ratet oder Preise kalkuliert: Das könnte High-Risk sein. Dann brauchst du Conformity Assessment.
Die 5 häufigsten Fehler — und wie du sie vermeidest
Das Risiko: Bußgeld bis 10 Mio. EUR. Die Lösung: Vor dem Launch einen AVV mit deinem LLM-Anbieter abschließen. Frage nach "Zero Data Retention" oder "On-Demand Deletion". Mistral und andere EU-Anbieter sind rechtlich einfacher, wenn es keine US-Partner gibt.
Das Risiko: Verstoß gegen DSGVO Art. 13/14 (Informationspflicht) und EU AI Act Transparenzpflichten. Die Lösung: Klarer Hinweis auf E-Mails, Chat-Responses, und jeden Kundenkontakt: "Diese Antwort wurde mit KI-Unterstützung erstellt" oder ähnlich. Rechtlich ausreichend — wenn sichtbar und verständlich.
Das Risiko: BfDI kann dich dazu verpflichten — mit Geldbuße bis 20 Mio. EUR im Extremfall. Die Lösung: Vor dem Go-Live eine formale DSFA durchführen. Nicht kompliziert: Spreadsheet mit Datentypen, Risiken, Mitigation. Mindestens jährlich überprüfen, wenn sich Architektur ändert.
Das Risiko: Art. 22 Verstoß. Betroffene Person kann Gerichtsklagen einreichen. Die Lösung: Wenn dein Agent eine Entscheidung trifft, die Auswirkungen auf eine Person hat (Lead-Rejection, Kreditablehnung, etc.): Ein Mensch muss sich das anschauen, bevor es final ist. Das kann auch "System sagt nein, Mensch schaue 10% der Fälle an" sein — nicht 100% Human-Review.
Das Risiko: Speichern von Daten über den Zweck hinaus ist illegal. Die Lösung: Aufbewahrungszeiträume festlegen: Wie lange brauchst du E-Mail-Protokolle? Kundendaten? Logs? Alles sollte automatisiert gelöscht werden nach Zweckerfüllung. Zum Beispiel: Leads 2 Jahre (Geschäftsbelange), Anfragen-Logs 6 Monate (Debugging), dann weg.
Checkliste — KI-Agent DSGVO-konform deployen
Vor der Produktion
- Rechtsgrundlage dokumentiert (Vertragserfüllung? Berechtigte Interessen?)
- DSFA durchgeführt und Risiken bewertet
- AVV mit LLM-Anbieter unterzeichnet
- Datenminimierung umgesetzt (nur nötigste Daten füttern)
- Löschkonzept definiert (wie lange speichern?)
- Sub-Prozessoren identifiziert (wer hat noch Zugriff?)
Bei Deployment
- Privacy-Hinweise sichtbar für Kunden/Nutzer
- Human-in-the-Loop-Prozess eingerichtet (wer überprüft kritische Entscheidungen?)
- Logging & Audit Trail aktiv (was hat der Agent getan?)
- Verschlüsselung für Daten in Transit (TLS/HTTPS) und at Rest (Datenbank)
- Datenschutzbeauftragter informiert (falls pflicht)
Laufend
- DSFA mindestens jährlich aktualisieren
- Betroffenenrechte-Anfragen beantwortbar (Auskunftsrecht, Löschrecht, Datenportabilität)
- Neue BfDI-Guidance und BfDI-Orientierungspapiere beobachten
- Log-Review: Sind Daten korrekt verarbeitet worden?
- AVV überprüfen: Genügt sie noch? Haben sich Technik oder Anbieter geändert?
Fazit — DSGVO ist kein Blocker, sondern Wettbewerbsvorteil
Die erste Reaktion vieler KMU auf DSGVO + KI-Agenten ist Lähmung: "Das ist ja zu kompliziert, wir lassen es sein."
Das ist ein Fehler.
Unternehmen, die Datenschutz richtig bauen, haben einen enormen Vorteil:
- Sie bauen Vertrauen auf — Kunden fragen explizit, wie ihre Daten geschützt sind
- Sie sparen Geldstrafen ein — die BfDI verteilt keine Preise für Compliance, aber sie vergibt sehr reale Bußgelder für Verstöße
- Sie können schneller skalieren — wenn die Grundarchitektur DSGVO-konform ist, braucht man keine Retroaktiv-Fixes beim Wachstum
- Sie gewinnen Kundenprojekte — gerade größere Firmen fragen: "Wie regelt ihr Datenschutz?" — wer eine klare Antwort hat, gewinnt.
Und ehrlich gesagt: Wenn du die Technologie verstehst (was KI-Agenten sind, wie sie arbeiten), ist der Compliance-Aufbau nicht schwer. Es sind einfach drei Dinge: (1) Einen AVV abschließen, (2) eine DSFA schreiben, (3) Human-Review-Prozesse einbauen. Das ist es. Keine Magie.
KI-Agent geplant? Wir machen ihn DSGVO-konform.
In einem kostenlosen Erstgespräch klären wir, welche Datenschutz-Anforderungen für deinen Use Case gelten — und wie wir sie von Anfang an richtig umsetzen. Kein Legalese, sondern praktische Steps.