Startseite Coaching Beratung Agenten Blog Readiness-Check Über uns Kontakt

DSGVO & KI-Agenten: Was du wissen musst, bevor dein Agent live geht

Dein KI-Agent liest Kunden-E-Mails, recherchiert Absender auf LinkedIn und erstellt Antwortvorschläge. Alles automatisiert. Alles täglich.

Aber weißt du, wo diese Daten landen? Wer Zugriff hat? Was mit den personenbezogenen Informationen passiert — rechtlich gesehen?

Die meisten KMU-Gründer, die ihre ersten KI-Agenten deployen, verstehen nicht, dass das DSGVO-Konsequenzen hat. Und das wird teuer — bis zu 10 Millionen Euro Geldbuße, wenn es die Aufsichtsbehörde so sieht.

Dieser Artikel zeigt dir, wo die rechtlichen Fallen liegen, welche Compliance-Anforderungen wirklich bindend sind, und wie du deinen Agenten von Anfang an DSGVO-konform aufbaust.

Warum DSGVO bei KI-Agenten anders ist

Zunächst die schlechte Nachricht: KI-Agenten sind nicht einfach "klassische Software" mit Datenschutz-Vorsorge. Sie sind etwas qualitativ anderes.

Drei kritische Unterschiede:

  1. Autonome Aktion: Ein Agent trifft Entscheidungen ohne menschlichen Input in jedem Schritt. Das triggert Art. 22 DSGVO — das Recht auf keine automatisierte Entscheidung.
  2. Datentransfer in Black Boxes: Jedes Mal, wenn dein Agent einen Prompt an eine LLM-API sendet (OpenAI, Anthropic, etc.), wandern Daten über das Internet zu externen Servern — oft in den USA. Das ist Datenverarbeitung im rechtlichen Sinne, nicht bloß eine technische Funktion.
  3. Entscheidungen mit Auswirkung auf Menschen: Wenn dein Agent eingehende Leads als "unqualifiziert" einstuft und entsprechend routet, trifft er eine Entscheidung über eine Person. Das hat Konsequenzen für die betroffene Person — genau das reguliert die DSGVO.
Die Kernfrage:

Dein Agent liest Kunden-E-Mails, recherchiert Absender auf LinkedIn und erstellt Antwortvorschläge — weißt du, wo diese Daten landen? Ohne AVV mit deinen LLM-Anbietern: nirgendwo, das sollte sie nicht hin. Mit AVV, aber ohne Zero Data Retention: 30 Tage im OpenAI-System. Rechtlich haftbar bist du — nicht OpenAI.

Die vier DSGVO-Säulen für KI-Agenten

Nicht alle DSGVO-Artikel sind für Agenten gleich relevant. Vier stehen im Fokus:

Artikel 22 — Automatisierte Entscheidungsfindung

Menschen haben das Recht, nicht Gegenstand einer Entscheidung zu sein, die ausschließlich auf automatisierter Verarbeitung beruht — wenn diese Entscheidung sie rechtlich oder in erheblicher Weise betrifft. Konkret: Dein Agent kann nicht einfach sagen "Lead abgelehnt" und die Anfrage in den Papierkorb verschieben. Es muss ein Mensch die Entscheidung überprüfen. Das ist der Human-in-the-Loop-Ansatz.

Artikel 25 — Privacy by Design & Datenschutz durch Technik und Organisatorische Massnahmen

Datenschutz darf nicht nachträglich "eingebaut" werden. Es muss von Anfang an Teil der Architektur sein. Für Agenten bedeutet das: Welche Daten fütterst du dem Agent ein (Data Minimization)? Wie lange speichert er sie? Können betroffene Personen ihre Daten löschen lassen? Das alles muss im Design festgelegt sein, bevor die erste Zeile Code geschrieben wird.

Artikel 28 — Auftragsverarbeitungsvertrag (AVV)

Wenn dein Agent Daten an externe LLM-APIs sendet, sind diese Anbieter Auftragsverarbeiter im rechtlichen Sinne. Das bedeutet: Ohne schriftlichen AVV mit OpenAI, Anthropic, Google etc. ist die Datenverarbeitung illegal. Bußgeld bis zu 10 Millionen Euro. Ein AVV mit LLM-Anbietern ist nicht optional — es ist Pflicht. Und nein, die Standard-ToS von OpenAI ist kein AVV. Du musst einen separaten, individuellen Vertrag haben.

Artikel 35 — Datenschutz-Folgenabschätzung (DSFA)

Sobald dein Agent personenbezogene Daten verarbeitet mit "Profiling" oder automatisierten Entscheidungen, ist eine DSFA zwingend. Das ist ein schriftliches Risikoanalysedokument, in dem du dokumentierst: Welche Daten verarbeitest du? Wer hat Zugriff? Wo liegen die Risiken? Welche technischen und organisatorischen Maßnahmen setzt du um, um diese Risiken zu minimieren? Die DSFA ist nicht einmalig — sie wird mindestens jährlich überprüft und aktualisiert.

LLM-APIs und Datentransfer — das unterschätzte Risiko

Hier sitzt der größte Compliance-Knackpunkt. Viele KMU realisieren nicht, dass der Datenaustausch mit LLM-APIs ein komplexes rechtliches Problem ist.

Das Grundproblem: Daten-in-Transit

Jedes Mal, wenn dein Agent einen Prompt mit Kundendaten an OpenAI, Anthropic oder ein anderes US-Unternehmen sendet, findet eine Datenverarbeitung statt. Die Daten "wandern" in die USA. Das triggert zwei regulatorische Komplexitäten: Das Schrems-II-Urteil des EuGH (2020) und den CLOUD Act der USA.

Vergleich: US-Anbieter vs. EU-Alternativen

US-Anbieter (OpenAI, Anthropic)

  • Höhere Performance (neueste Modelle)
  • Besserer Support
  • Etablierte Ökosysteme

ABER: Datenretention (OpenAI 30 Tage, Anthropic 7 Tage), Schrems-II-Problem, CLOUD Act, brauchen Standard Contractual Clauses (SCCs) + supplementäre Maßnahmen.

EU-Alternativen (Mistral, Aleph Alpha)

  • Processing in EU (meist)
  • Einfachere DSGVO-Compliance
  • Kein Transatlantik-Transfer
  • SCCs nicht nötig

ABER: Modelle oft weniger performant, kleinere Communities, weniger Integration.

Was ein AVV für LLM-Nutzung enthalten muss

Falls du dich für US-Anbieter entscheidest, brauchst du einen AVV, der diese Punkte abdeckt:

Praktischer Tipp:

Viele LLM-Anbieter haben mittlerweile "Enterprise AVVs" im Portfolio. OpenAI bietet das unter der "Business" Subscription (mit DPA). Anthropic bietet es. Mistral auch. Aber du musst aktiv danach fragen — es ist nicht automatisch inklusive in der Standard-Subscription. Und: Frage nach "Zero Data Retention" oder "30-Day Retention". Bei OpenAI kannst du Data Retention auf 0 Tage setzen — das reduziert das Risiko erheblich.

EU AI Act — was ab August 2026 gilt

Neben der DSGVO kommt eine neue Regelwerk: Der EU AI Act wird ab 2. August 2026 enforceable. Das ist nur drei Monate nach diesem Artikel — also jetzt relevant.

Risikoklassifizierung

Der EU AI Act klassifiziert KI-Systeme nach Risiko:

Was für deine KMU-Agenten gilt

Die meisten KI-Agenten für Geschäftsprozesse (Lead-Qualifizierung, E-Mail-Bearbeitung, Content-Erstellung) fallen in die Kategorien "Minimal Risk" oder "Limited Risk". Das bedeutet:

Compliance Clarity:

Dein Business-Agent ist wahrscheinlich kein Hochrisiko-System — aber auch kein Freifahrtschein. Transparenzpflichten und Dokumentation gelten trotzdem. Wenn dein Agent automatisiert Bewerber ablehnt, Leads ratet oder Preise kalkuliert: Das könnte High-Risk sein. Dann brauchst du Conformity Assessment.

Die 5 häufigsten Fehler — und wie du sie vermeidest

Fehler 1: Personendaten ohne AVV an US-APIs senden

Das Risiko: Bußgeld bis 10 Mio. EUR. Die Lösung: Vor dem Launch einen AVV mit deinem LLM-Anbieter abschließen. Frage nach "Zero Data Retention" oder "On-Demand Deletion". Mistral und andere EU-Anbieter sind rechtlich einfacher, wenn es keine US-Partner gibt.

Fehler 2: Keine Transparenz — Kunden wissen nicht, dass KI antwortet

Das Risiko: Verstoß gegen DSGVO Art. 13/14 (Informationspflicht) und EU AI Act Transparenzpflichten. Die Lösung: Klarer Hinweis auf E-Mails, Chat-Responses, und jeden Kundenkontakt: "Diese Antwort wurde mit KI-Unterstützung erstellt" oder ähnlich. Rechtlich ausreichend — wenn sichtbar und verständlich.

Fehler 3: DSFA nicht durchgeführt

Das Risiko: BfDI kann dich dazu verpflichten — mit Geldbuße bis 20 Mio. EUR im Extremfall. Die Lösung: Vor dem Go-Live eine formale DSFA durchführen. Nicht kompliziert: Spreadsheet mit Datentypen, Risiken, Mitigation. Mindestens jährlich überprüfen, wenn sich Architektur ändert.

Fehler 4: Automatisierte Ablehnungen ohne Human-in-the-Loop

Das Risiko: Art. 22 Verstoß. Betroffene Person kann Gerichtsklagen einreichen. Die Lösung: Wenn dein Agent eine Entscheidung trifft, die Auswirkungen auf eine Person hat (Lead-Rejection, Kreditablehnung, etc.): Ein Mensch muss sich das anschauen, bevor es final ist. Das kann auch "System sagt nein, Mensch schaue 10% der Fälle an" sein — nicht 100% Human-Review.

Fehler 5: Keine Löschfristen definiert

Das Risiko: Speichern von Daten über den Zweck hinaus ist illegal. Die Lösung: Aufbewahrungszeiträume festlegen: Wie lange brauchst du E-Mail-Protokolle? Kundendaten? Logs? Alles sollte automatisiert gelöscht werden nach Zweckerfüllung. Zum Beispiel: Leads 2 Jahre (Geschäftsbelange), Anfragen-Logs 6 Monate (Debugging), dann weg.

Checkliste — KI-Agent DSGVO-konform deployen

Vor der Produktion

Bei Deployment

Laufend

Fazit — DSGVO ist kein Blocker, sondern Wettbewerbsvorteil

Die erste Reaktion vieler KMU auf DSGVO + KI-Agenten ist Lähmung: "Das ist ja zu kompliziert, wir lassen es sein."

Das ist ein Fehler.

Unternehmen, die Datenschutz richtig bauen, haben einen enormen Vorteil:

Und ehrlich gesagt: Wenn du die Technologie verstehst (was KI-Agenten sind, wie sie arbeiten), ist der Compliance-Aufbau nicht schwer. Es sind einfach drei Dinge: (1) Einen AVV abschließen, (2) eine DSFA schreiben, (3) Human-Review-Prozesse einbauen. Das ist es. Keine Magie.

KI-Agent geplant? Wir machen ihn DSGVO-konform.

In einem kostenlosen Erstgespräch klären wir, welche Datenschutz-Anforderungen für deinen Use Case gelten — und wie wir sie von Anfang an richtig umsetzen. Kein Legalese, sondern praktische Steps.