DSGVO & KI-Systeme – Datenschutz richtig einordnen
Künstliche Intelligenz verändert die Art, wie Organisationen arbeiten. Doch mit den Chancen kommen auch datenschutzrechtliche Herausforderungen. Diese Seite hilft Ihnen, den Einsatz von KI-Systemen ohne juristische Fachbegriffe DSGVO-konform zu gestalten, praxisnah und verständlich.
Wichtig zu wissen
Warum KI aus DSGVO-Sicht besonders herausfordernd ist
KI-Systeme sind aus datenschutzrechtlicher Sicht keine gewöhnlichen IT-Anwendungen. Sie verarbeiten häufig große Mengen personenbezogener Daten und lernen kontinuierlich dazu. Was einmal in ein KI-System eingegeben wurde, kann Teil des Modells werden, mit weitreichenden Folgen für die Betroffenenrechte.
Die DSGVO verbietet KI nicht grundsätzlich. Aber sie fordert von Organisationen, sich bewusst mit den Risiken auseinanderzusetzen. Dazu gehören Fragen der Transparenz, der Zweckbindung und der technischen Kontrollierbarkeit.
Kernaussage
KI ist nicht per se verboten, aber datenschutzrechtlich anspruchsvoll. Wer KI nutzt, muss die Verarbeitung personenbezogener Daten verstehen und steuern können.
Drei Gründe, warum KI besondere Aufmerksamkeit verlangt
Komplexe Datenverarbeitung
KI-Systeme verarbeiten Daten nicht nur einmalig. Trainings-, Logging- und Optimierungsprozesse schaffen zusätzliche Verarbeitungsvorgänge, die oft schwer nachvollziehbar sind.
Mangelnde Transparenz
Viele KI-Modelle arbeiten wie eine „Black Box". Wie Entscheidungen zustande kommen, lässt sich nicht immer nachvollziehen, ein Problem für die Rechenschaftspflicht nach DSGVO.
Persistente Daten
Einmal in ein KI-System eingegebene Daten können dauerhaft im Modell verbleiben. Eine vollständige Löschung ist technisch oft nicht möglich. Das steht im Konflikt mit Betroffenenrechten.
Grundlagen
Personenbezogene Daten im KI-Kontext
Definition und Anwendbarkeit der DSGVO
Die DSGVO gilt, sobald Informationen verarbeitet werden, die sich auf eine identifizierte oder identifizierbare Person beziehen. Dies trifft auch auf die Nutzung von KI-Systemen zu.
Unterschätzte Entstehung von Daten
Im KI-Kontext können personenbezogene Daten schnell entstehen. Nicht nur explizite Angaben wie Namen, sondern auch indirekte Hinweise in Freitexten können zur Identifizierung einer Person führen.
Typische Beispiele für personenbezogene Daten in KI-Systemen
Namen in Texteingaben
Wird ein Kundenname in einem Prompt erwähnt, gilt dies bereits als Verarbeitung personenbezogener Daten.
E-Mails und Dokumente
Das Hochladen von E-Mails, Verträgen oder Protokollen enthält fast immer personenbezogene Informationen.
Freitexte mit indirektem Bezug
Selbst scheinbar anonyme Texte können durch Kontextinformationen Rückschlüsse auf Personen ermöglichen.

Merksatz: Auch scheinbar harmlose Texte können personenbezogene Daten enthalten. Im Zweifel gilt: Lieber einmal mehr prüfen als zu wenig.
Drittländer
KI-Systeme außerhalb der EU – warum das kritisch ist
Viele KI-Dienste – darunter bekannte Large Language Models und Cloud-Plattformen – werden außerhalb der Europäischen Union gehostet. Das ist aus datenschutzrechtlicher Sicht hochrelevant, denn die DSGVO stellt strenge Anforderungen an die Übermittlung personenbezogener Daten in Drittländer.
Problematisch wird es besonders dann, wenn personenbezogene Daten nicht nur verarbeitet, sondern auch zum Training oder zur Modellverbesserung genutzt werden. Dann sind diese Daten dauerhaft Teil des Systems, eine Löschung ist praktisch nicht mehr möglich.
Das Drittland-Problem bei KI im Detail
Die Übermittlung personenbezogener Daten in Länder außerhalb der EU unterliegt strengen Anforderungen. Die DSGVO verlangt ein „angemessenes Schutzniveau", das in vielen Staaten nicht automatisch gegeben ist. Hier kommen Standardvertragsklauseln, Zertifizierungen oder Angemessenheitsbeschlüsse ins Spiel.
Besondere Herausforderung bei KI
KI-Systeme nutzen eingegebene Daten oft zur Modellverbesserung. Personenbezogene Informationen werden Teil der Trainingsdaten und können technisch nicht mehr vollständig entfernt werden.
Praxisbeispiel
Ein Mitarbeiter gibt den Namen eines Kunden in ein externes KI-Tool ein, um eine E-Mail zu formulieren. Diese Eingabe wird vom Anbieter protokolliert und zur Optimierung des Modells genutzt. Eine spätere vollständige Löschung des Namens ist faktisch nicht mehr kontrollierbar.
DSGVO-Konflikt
Das widerspricht zentralen Grundsätzen der DSGVO: Zweckbindung (Daten dürfen nur für definierte Zwecke verarbeitet werden), Datenminimierung (nur so viel wie nötig) und Recht auf Löschung (Betroffene können Löschung verlangen).
Rollen & Verantwortung
Verantwortlichkeiten nach DSGVO – wer ist verantwortlich?
Eine der häufigsten Fragen beim Einsatz von KI-Systemen lautet: Wer trägt eigentlich die datenschutzrechtliche Verantwortung? Die Antwort ist nicht immer eindeutig und hängt davon ab, wie das KI-System eingesetzt wird und welche Rolle der Anbieter spielt.
Die DSGVO kennt verschiedene Verantwortlichkeitsmodelle. Entscheidend ist, wer über Zweck und Mittel der Verarbeitung bestimmt. Diese Einordnung hat direkte Konsequenzen für vertragliche Pflichten, Transparenzvorgaben und Haftungsfragen.
Die drei zentralen Rollen im Datenschutz
Verantwortlicher
Die Organisation, die entscheidet, wofür und wie personenbezogene Daten verarbeitet werden. Sie trägt die Hauptverantwortung und muss die Einhaltung der DSGVO sicherstellen.
Auftragsverarbeiter
Ein Dienstleister, der personenbezogene Daten ausschließlich im Auftrag des Verantwortlichen verarbeitet. Er hat keine eigenen Zwecke und handelt nur nach Weisung.
Gemeinsame Verantwortliche
Mehrere Parteien, die gemeinsam über Zweck und Mittel der Verarbeitung entscheiden. Beide tragen Verantwortung und müssen ihre Pflichten vertraglich regeln.

Wichtig: Die Einordnung der Rollen ist keine Formsache. Sie bestimmt, wer haftet, wer Betroffenenanfragen bearbeiten muss und welche Verträge erforderlich sind.
AVV
Auftragsverarbeitungsvertrag bei KI-Systemen
AVV-Grundlagen
Regelt die Verarbeitung personenbezogener Daten durch Dienstleister im Auftrag. Rechtlich verpflichtend bei Auftragsverarbeitungsverhältnissen.
Abgrenzung der Verarbeitung
Nicht jede Dienstleistung ist automatisch AV. Entscheidend ist, ob der Anbieter nur nach Weisung oder auch für eigene Zwecke (z.B. Modellverbesserung) handelt.
Herausforderung KI-Anbieter
Rechtliche Einordnung oft unklar. Nutzungsbedingungen sind vage, es ist offen, ob Daten zum Training genutzt werden.
Grenzen des AVV
Ein AVV allein schützt nicht ausreichend, wenn der Anbieter eigene Datenzwecke verfolgt und die Daten nicht ausschließlich nach Weisung verarbeitet.
Wann ein AVV bei KI sinnvoll oder erforderlich ist
Ein AVV ist dann das richtige Instrument, wenn der KI-Anbieter Daten ausschließlich auf Weisung verarbeitet und keine eigenen Zwecke verfolgt. In der Praxis ist das bei vielen KI-Systemen nicht der Fall.
1
Weisungsgebunden
Prüfen, ob Anbieter nur auf Weisung verarbeitet.
2
Keine Eigenzwecke
Verifizieren: keine Verarbeitung für eigenes Training.
3
Klare Vertragslage
Bestätigen: vertragliche Regelungen sind eindeutig.
Typische Herausforderungen
  • Nutzungsbedingungen sind zu offen formuliert
  • Trainings- und Verbesserungszwecke nicht ausgeschlossen
  • Technische Details der Verarbeitung unklar
  • Löschfristen und -modalitäten nicht definiert
Merksatz
Ein AVV allein reicht nicht, wenn der Anbieter eigene Zwecke verfolgt. Dann liegt keine reine Auftragsverarbeitung vor und es braucht eine andere rechtliche Grundlage.
Joint Controllership
Joint Controllership – gemeinsame Verantwortung
Wenn sowohl die nutzende Organisation als auch der KI-Anbieter Einfluss auf Zweck und Mittel der Verarbeitung haben, liegt eine gemeinsame Verantwortlichkeit vor. Das ist bei vielen KI-Diensten der Fall, wird in der Praxis aber oft übersehen.
Joint Controllership entsteht beispielsweise dann, wenn ein KI-System Eingaben aktiv zur Modellverbesserung nutzt. Beide Seiten – Organisation und Anbieter – bestimmen damit über einen Teil der Verarbeitung. Die DSGVO verlangt in solchen Fällen klare vertragliche Regelungen und Transparenz gegenüber den Betroffenen.
Wann Joint Controllership vorliegen kann
Beispiel aus der Praxis
Eine Organisation nutzt ein externes KI-System zur Text-Analyse. Die eingegebenen Texte enthalten Namen und werden vom Anbieter zur Verbesserung des Modells verwendet. Beide Parteien bestimmen damit über Zweck und Mittel – eine gemeinsame Verantwortlichkeit liegt vor.
Konsequenzen für Organisationen
  • Gemeinsame datenschutzrechtliche Verantwortung mit dem Anbieter, Vertragliche Regelung der jeweiligen Pflichten erforderlich (sog. Joint-Controller-Agreement)
  • Transparenz gegenüber betroffenen Personen über die gemeinsame Verantwortung, Betroffene können Rechte gegenüber beiden Verantwortlichen geltend machen
  • Beide Parteien haften für Datenschutzverstöße
Häufige Fehler
Typische Irrtümer in der Praxis
Im Umgang mit KI-Systemen kursieren einige hartnäckige Missverständnisse, die datenschutzrechtlich problematisch sind. Diese Irrtümer entstehen oft aus Unwissenheit oder aus dem Wunsch, KI-Systeme schnell und unkompliziert einzusetzen.
1
„Der Anbieter ist verantwortlich, nicht wir"
Richtigstellung: Die nutzende Organisation bleibt datenschutzrechtlich verantwortlich, auch bei Nutzung externer Dienste. Sie muss sicherstellen, dass die Verarbeitung DSGVO-konform erfolgt.
2
„Die Daten sind ja nur kurz eingegeben"
Richtigstellung: Bereits die kurzfristige Verarbeitung gilt als Datenverarbeitung im Sinne der DSGVO. Zudem können Daten dauerhaft gespeichert oder zum Training genutzt werden, auch wenn das nicht sofort sichtbar ist.
3
„Namen im Text sind kein Problem"
Richtigstellung: Namen sind klassische personenbezogene Daten. Ihre Verarbeitung unterliegt den vollen Anforderungen der DSGVO, unabhängig davon, ob sie in einem Fließtext oder strukturiert eingegeben werden.
Handlungsschritte
Was Organisationen jetzt konkret tun sollten
Datenschutz bei KI-Systemen ist kein abstraktes Thema, sondern erfordert konkrete Maßnahmen. Die gute Nachricht: Mit einem strukturierten Vorgehen lassen sich die Anforderungen der DSGVO erfüllen, ohne auf die Vorteile von KI verzichten zu müssen.
Der erste Schritt ist immer eine Bestandsaufnahme: Welche KI-Systeme werden genutzt? Welche Daten werden verarbeitet? Wo liegen die Daten? Erst auf dieser Basis lässt sich eine fundierte Bewertung vornehmen.
Ergänzende Maßnahmen für mehr Datenschutz
Technische Maßnahmen
  • Datenminimierung: Nur notwendige Daten eingeben
  • Pseudonymisierung: Direkte Identifikatoren entfernen
  • Zugriffskontrolle: Nur befugte Personen dürfen KI nutzen
  • Logging: Dokumentation der KI-Nutzung
Organisatorische Maßnahmen
  • Schulungen für Mitarbeitende
  • Richtlinien zur KI-Nutzung
  • Datenschutz-Folgenabschätzung bei Hochrisiko-Anwendungen
  • Regelmäßige Überprüfung der Anbieter

Datenschutz ist kein einmaliges Projekt, sondern ein kontinuierlicher Prozess. Überprüfen Sie regelmäßig, ob neue KI-Tools hinzugekommen sind und ob bestehende Verträge noch aktuell sind.
Fazit
KI DSGVO-konform einsetzen – es ist möglich
Künstliche Intelligenz bietet enorme Chancen für Effizienz, Innovation und Wettbewerbsfähigkeit. Die DSGVO steht dem nicht im Weg, sie gibt den Rahmen vor, in dem KI verantwortungsvoll genutzt werden kann.
Entscheidend ist, datenschutzrechtliche Anforderungen von Anfang an mitzudenken. Wer KI-Systeme bewusst auswählt, Verträge sorgfältig prüft und Transparenz schafft, kann die Vorteile nutzen und gleichzeitig die Rechte der Betroffenen wahren.
Datenschutz ist kein Hindernis, sondern eine Investition in Vertrauen. Organisationen, die verantwortungsvoll mit KI umgehen, positionieren sich als verlässliche Partner für Kunden, Mitarbeitende und Geschäftspartner.
Wichtigste Erkenntnis
KI kann DSGVO-konform eingesetzt werden, wenn Organisationen die rechtlichen Anforderungen kennen und umsetzen.
Erfolgsfaktor
Datenschutz früh mitzudenken verhindert spätere Risiken, Haftungsfragen und Reputationsschäden.