7

KI und DSGVO: Datenschutzkonform automatisieren

23. Januar 2026 Sven Kasek 13 Min. Lesezeit

Viele Unternehmen bremsen sich bei der KI-Einführung selbst aus, weil sie DSGVO-Risiken fürchten, ohne genau zu wissen, wo diese tatsächlich liegen. Das ist verständlich, aber unnötig. Wer die relevanten Datenschutzpflichten kennt und von Anfang an in seine Automatisierungsprojekte einplant, kann KI rechtskonform einsetzen, ohne monatelang auf Rechtsabteilungen warten zu müssen. Dieser Leitfaden zeigt, welche DSGVO-Anforderungen bei KI-gestützter Automatisierung wirklich zählen und wie Sie praktisch vorgehen.

Was Die DSGVO Mit KI Zu Tun Hat

Die DSGVO trat 2018 in Kraft, lange bevor Large Language Models den Mainstream erreichten. Dennoch gilt sie vollumfänglich für jeden Einsatz von KI-Systemen, der personenbezogene Daten berührt. Personenbezogene Daten sind dabei weiter definiert, als viele denken. Namen, E-Mail-Adressen und Telefonnummern sind offensichtlich, aber auch IP-Adressen, Kundennummern in Kombination mit anderen Merkmalen oder Sprachaufnahmen fallen darunter.

Der entscheidende Punkt: Nahezu jede KI-gestützte Automatisierung in einem Unternehmen berührt irgendwann personenbezogene Daten. Ein Chatbot, der Kundenanfragen beantwortet, verarbeitet Namen und Anliegen. Ein automatisierter E-Mail-Assistent liest Postfächer mit Kundenkommunikation. Ein KI-Tool zur Rechnungsverarbeitung erfasst Lieferantendaten. Die Frage ist nicht ob die DSGVO gilt, sondern wie man sie einhält.

Gleichzeitig gibt es eine wichtige Unterscheidung: KI-Systeme, die ausschließlich interne, nicht personenbezogene Daten verarbeiten, also etwa Produktionsdaten, Maschinenmetriken oder aggregierte Verkaufszahlen ohne Personenbezug, unterliegen der DSGVO nicht. In der Beratungspraxis sehen wir häufig, dass Unternehmen hier unnötig vorsichtig sind und auch bei unkritischen Daten aufwändige Prozesse aufsetzen.

Die Fünf Wichtigsten Dsgvo-Anforderungen Für KI-Projekte

flowchart TD
    A[KI-Projekt geplant] --> B{Personenbezogene\nDaten betroffen?}
    B -- Nein --> C[Keine DSGVO-Pflichten\nProjekt starten]
    B -- Ja --> D[Rechtsgrundlage\nfestlegen]
    D --> E[Verarbeitungsverzeichnis\neintragen]
    E --> F{Hohes Risiko\nfür Betroffene?}
    F -- Ja --> G[DSFA durchführen]
    F -- Nein --> H[Technische Maßnahmen\numsetzen]
    G --> H
    H --> I[Auftragsverarbeitungs-\nvertrag mit Anbieter]
    I --> J[KI-System live]

Die erste Anforderung ist die Rechtsgrundlage. Jede Verarbeitung personenbezogener Daten braucht eine Grundlage nach Artikel 6 DSGVO. Für Unternehmen kommen in der Praxis vor allem drei in Frage. Vertragserfüllung gilt, wenn die Datenverarbeitung zur Erfüllung eines Vertrags mit der betroffenen Person notwendig ist, zum Beispiel wenn ein KI-System Bestellungen eines Kunden verarbeitet. Berechtigte Interessen nach Art. 6 Abs. 1 lit. f erlauben die Verarbeitung, wenn das Unternehmensinteresse gegenüber den Interessen der betroffenen Person überwiegt, was einer Abwägung bedarf. Die Einwilligung ist die dritte Option, in der Praxis bei B2B-Anwendungen aber oft unpraktisch.

Die zweite Anforderung ist der Eintrag ins Verarbeitungsverzeichnis. Artikel 30 DSGVO verpflichtet Unternehmen, ein Verzeichnis aller Verarbeitungstätigkeiten zu führen. Jedes neue KI-gestützte System, das personenbezogene Daten verarbeitet, muss dort dokumentiert werden. Dazu gehören Zweck der Verarbeitung, Datenkategorien, Empfänger, Löschfristen und technische Schutzmaßnahmen. Das klingt aufwändiger als es ist. Ein strukturiertes Spreadsheet reicht aus, solange es vollständig und aktuell ist.

Die dritte Anforderung betrifft die Datenschutz-Folgenabschätzung, kurz DSFA. Nach Artikel 35 DSGVO ist eine DSFA verpflichtend, wenn eine Verarbeitung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge hat. Für KI-Systeme ist das besonders relevant bei automatisierten Entscheidungen mit erheblichen Auswirkungen, bei der Verarbeitung besonderer Kategorien von Daten wie Gesundheitsdaten, und bei der systematischen Überwachung von Personen. Ein einfacher KI-Chatbot für FAQ-Antworten braucht keine DSFA. Ein KI-System, das Kreditwürdigkeit bewertet oder Mitarbeiterverhalten analysiert, sehr wohl.

Die vierte Anforderung ist das Transparenzgebot. Betroffene Personen müssen nach Artikel 13 und 14 DSGVO informiert werden, wenn ihre Daten verarbeitet werden. Für KI-Systeme bedeutet das: In der Datenschutzerklärung muss der Einsatz von KI-Tools und der damit verbundene Datentransfer an Drittanbieter erwähnt sein. Besonders bei amerikanischen KI-Anbietern ist das relevant, weil Datentransfers in die USA einer gesonderten Grundlage bedürfen.

Die fünfte Anforderung ist der Auftragsverarbeitungsvertrag, kurz AVV. Immer wenn ein externer KI-Anbieter personenbezogene Daten im Auftrag Ihres Unternehmens verarbeitet, ist ein AVV nach Artikel 28 DSGVO Pflicht. Das gilt für nahezu alle Cloud-basierten KI-Tools. Die gute Nachricht: Große Anbieter wie Microsoft, OpenAI, Google und Anthropic stellen standardisierte AVVs bereit, die in der Regel direkt akzeptiert werden können.

Das Drittland-Problem: KI-Tools Und Usa-Datentransfer

Das größte praktische Problem für deutsche Unternehmen ist der Datentransfer in die USA. Die populärsten KI-Dienste, darunter ChatGPT, Claude, Gemini und die meisten spezialisierten SaaS-Tools, werden von amerikanischen Unternehmen betrieben und verarbeiten Daten auf amerikanischen Servern. Das stellt nach DSGVO-Kapitel V ein Drittlandtransfer dar, der einer gesonderten Grundlage bedarf.

Seit dem EU-US Data Privacy Framework, das im Juli 2023 in Kraft trat, gibt es wieder eine gültige Grundlage für Transfers in die USA, allerdings nur für Unternehmen, die im Framework zertifiziert sind. OpenAI, Microsoft, Google und Anthropic sind zertifiziert. Das bedeutet: Wenn Sie die Enterprise-Versionen dieser Dienste nutzen und einen AVV abgeschlossen haben, sind Transfers in die USA aktuell rechtlich möglich. Trotzdem bleibt eine Unsicherheit, weil das Framework politisch angreifbar ist. Der Europäische Gerichtshof hat schon zwei Vorgängerregelungen gekippt. Wer auf Nummer sicher gehen will, prüft europäische Alternativen oder eine On-Premises-Lösung.

Konkret bedeutet das für die Praxis: Wenn Sie ChatGPT in der API-Version mit aktiviertem Datenschutz-Modus nutzen und personenbezogene Daten einspeisen, brauchen Sie den OpenAI-AVV, die Zertifizierung im EU-US Data Privacy Framework als Übertragungsgrundlage und einen Eintrag im Verarbeitungsverzeichnis. Wenn Sie dagegen die kostenlosen Consumer-Versionen von ChatGPT oder ähnlichen Tools nutzen und Mitarbeitern erlauben, Kundendaten einzugeben, fehlen alle drei Grundlagen. Das ist ein typisches Muster bei KMUs, das schnell teuer werden kann. Die DSGVO-Bußgelder der europäischen Behörden lagen laut dem CNIL-Bericht 2023 europaweit bei insgesamt über 1,7 Milliarden Euro im Jahr 2023.

Europäische Alternativen mit Serverstandort in der EU existieren, sind aber nicht immer die beste Wahl. Aleph Alpha aus Deutschland bietet Luminous-Modelle an, die on-premises oder in deutschen Rechenzentren betrieben werden können. Mistral AI aus Frankreich bietet Modelle an, die ebenfalls in der EU gehostet werden können. Die Qualität dieser Modelle ist für viele Anwendungsfälle ausreichend, erreicht aber bei komplexen Aufgaben noch nicht das Niveau von GPT-4 oder Claude 3.5 Sonnet. Wer sich für die Modellwahl interessiert, findet in unserem Vergleich von ChatGPT, Claude und Gemini eine ausführliche Analyse.

Datensparsamkeit Und Zweckbindung Praktisch Umsetzen

Zwei Prinzipien der DSGVO sind besonders relevant für KI-Automatisierungen: Datensparsamkeit nach Artikel 5 Abs. 1 lit. c und Zweckbindung nach Artikel 5 Abs. 1 lit. b. Datensparsamkeit bedeutet, dass nur Daten verarbeitet werden dürfen, die für den jeweiligen Zweck tatsächlich notwendig sind. Zweckbindung bedeutet, dass Daten nicht für andere Zwecke genutzt werden dürfen als ursprünglich angegeben.

Für KI-Projekte hat das konkrete Konsequenzen. Ein häufiger Fehler in der Praxis: Unternehmen geben ihrem KI-System Zugriff auf gesamte Datenbankbestände oder komplette CRM-Systeme, obwohl für die jeweilige Aufgabe nur ein Bruchteil der Daten benötigt wird. Ein KI-Assistent, der Terminbuchungen verwaltet, braucht keinen Zugriff auf Umsatzdaten oder Bonitätsinformationen. Die technische Umsetzung von Datensparsamkeit bedeutet: Zugriffsrechte granular setzen, Daten vor der Übergabe an KI-Systeme anonymisieren oder pseudonymisieren wo möglich, und regelmäßig prüfen, welche Daten tatsächlich im KI-Prompt landen.

Pseudonymisierung ist ein unterschätztes Werkzeug. Wenn Sie Kundennamen und E-Mail-Adressen durch interne IDs ersetzen, bevor die Daten an ein KI-System übergeben werden, und die Zuordnungstabelle sicher intern verbleibt, reduziert das das Datenschutzrisiko erheblich. Das KI-System verarbeitet dann pseudonymisierte Daten, was bei vielen Anwendungsfällen vollständig ausreicht.

Die Zweckbindung schlägt bei KI besonders zu, weil viele Anbieter ihre Modelle mit Nutzerdaten trainieren, sofern das nicht explizit ausgeschlossen wird. OpenAI trainiert standardmäßig mit API-Daten nur dann nicht, wenn der Nutzer das in den Einstellungen deaktiviert oder die Enterprise-Version nutzt. Anthropic und Google haben ähnliche Regelungen. Das Training-Opt-out ist Pflicht, wenn Sie personenbezogene Daten über die API verarbeiten, weil das Training für einen anderen Zweck als die ursprüngliche Verarbeitung genutzt würde und damit gegen Zweckbindung verstößt.

flowchart LR
    A[Rohdaten mit\nPersonenbezug] --> B[Pseudonymisierung\nintern]
    B --> C[KI-System\nverarbeitet]
    C --> D[Ergebnis\nzurück]
    D --> E[Re-Identifikation\nintern]
    E --> F[Aktion beim\nKunden]
    G[Zuordnungs-\ntabelle] -.->|bleibt intern| B
    G -.->|wird genutzt| E

AUTOMATISIERTE ENTSCHEIDUNGEN UND ARTIKEL 22 DSGVO

Artikel 22 DSGVO gibt betroffenen Personen das Recht, nicht einer ausschließlich automatisierten Entscheidung unterworfen zu werden, die ihnen gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt. Das ist der Kern der KI-Regulierung innerhalb der DSGVO und für viele KI-Anwendungsfälle hochrelevant.

Was bedeutet das konkret? Ein KI-System, das automatisch entscheidet, ob ein Kreditantrag abgelehnt wird, ob eine Versicherungsleistung gewährt wird oder ob ein Bewerber in die nächste Runde kommt, fällt unter Artikel 22. Für solche Systeme gelten besondere Pflichten: Die betroffene Person muss informiert werden, sie hat das Recht auf menschliche Überprüfung der Entscheidung, und sie muss ihren Standpunkt darlegen können.

In der Beratungspraxis sehen wir häufig, dass Unternehmen glauben, dieses Problem zu umgehen, indem sie formal einen Menschen in den Prozess einbinden. Das ist rechtlich nur dann ausreichend, wenn dieser Mensch die Entscheidung tatsächlich prüft und bei Bedarf abändern kann, und nicht nur formal bestätigt, was das KI-System vorgeschlagen hat. Eine bloße Rubber-Stamp-Funktion schützt nicht vor Artikel 22. Wer KI-Automatisierung im Unternehmen einführt, sollte Entscheidungsprozesse von Anfang an so gestalten, dass echte menschliche Kontrolle stattfindet.

Praktische Schritte Für Ein Dsgvo-Konformes KI-Projekt

Der erste Schritt vor jedem KI-Projekt ist die Datenschutz-Vorabprüfung. Sie beantworten vier Fragen: Welche Daten werden verarbeitet? Gibt es einen Personenbezug? Welche Rechtsgrundlage gilt? Muss eine DSFA durchgeführt werden? Das dauert in der Praxis eine bis zwei Stunden, spart aber im Nachgang erheblichen Aufwand.

Im zweiten Schritt klären Sie die technische Umsetzung des Datenschutzes. Das umfasst die Konfiguration der Zugriffsrechte des KI-Systems, die Aktivierung von Training-Opt-outs beim Anbieter, die Verschlüsselung von Daten in Übertragung und Speicherung sowie die Einrichtung von Löschfristen für Daten, die im KI-System temporär gespeichert werden. Bei Workflow-Automatisierungstools wie n8n, Make oder Zapier bedeutet das konkret: Prüfen Sie, wo Daten zwischengespeichert werden und wie lange. Zapier speichert Daten standardmäßig 30 Tage in der Aufgabenhistorie. Bei sensiblen Daten sollte das deaktiviert oder die Speicherdauer reduziert werden. Mehr zu diesen Tools finden Sie in unserem Vergleich von n8n, Zapier und Make.

Im dritten Schritt schließen Sie die notwendigen Verträge ab. Das ist der AVV mit dem KI-Anbieter. Für OpenAI Enterprise, Microsoft Azure OpenAI, Google Vertex AI und Anthropic API sind diese Verträge online verfügbar und direkt abschließbar. Überprüfen Sie dabei, ob der Anbieter im EU-US Data Privacy Framework gelistet ist, was Sie auf dataprivacyframework.gov prüfen können.

Im vierten Schritt aktualisieren Sie Ihre Datenschutzerklärung. Die KI-Tools, deren Anbieter, der Zweck der Verarbeitung und die Grundlage für Drittlandtransfers müssen dort aufgeführt sein. Das ist keine Kür, sondern Pflicht nach Artikel 13 DSGVO. Betroffene, die auf Ihrer Website interagieren oder deren Daten im CRM liegen, müssen wissen, dass KI-Systeme deren Daten verarbeiten.

Im fünften Schritt schulen Sie Ihre Mitarbeiter. Die häufigste Datenschutzverletzung bei KI ist nicht technisch, sondern menschlich. Mitarbeiter, die aus Bequemlichkeit Kundendaten in die kostenlose ChatGPT-Version eingeben, weil der Firmenzugang komplizierter ist, stellen ein reales Risiko dar. Klare interne Richtlinien, welche Tools für welche Daten genutzt werden dürfen, sind ein einfaches und wirksames Gegenmittel.

Der EU AI Act: Was Zusätzlich Zu Beachten Ist

Die DSGVO ist nicht der einzige regulatorische Rahmen, der KI-Projekte betrifft. Der EU AI Act, der ab August 2026 vollständig gilt, führt eine Risikoklassifizierung für KI-Systeme ein, die über die DSGVO hinausgeht. Hochrisiko-KI-Systeme in Bereichen wie Personalwesen, Kreditvergabe und kritische Infrastruktur unterliegen zusätzlichen Pflichten wie technischer Dokumentation, Konformitätsbewertungen und Registrierungspflichten.

Für die meisten KMUs, die KI für interne Prozesse wie Dokumentenverarbeitung, Kundenkommunikation oder Vertriebsunterstützung nutzen, sind die Hochrisiko-Anforderungen nicht relevant. Die Pflichten für General-Purpose-AI-Modelle, also die großen Sprachmodelle wie GPT-4 oder Claude, liegen beim Anbieter, nicht beim Nutzer. Trotzdem empfiehlt es sich, schon jetzt die Risikokategorie der genutzten KI-Systeme zu dokumentieren. Das wird bei zukünftigen Compliance-Prüfungen relevant. Eine ausführliche Analyse der EU AI Act Anforderungen finden Sie in unserem Artikel zum EU AI Act 2026.

Häufige Fehler Und Wie Sie Diese Vermeiden

Ein typisches Muster bei KMUs ist die nachträgliche Datenschutzprüfung. Ein KI-Tool wird eingeführt, weil es einen konkreten Vorteil bietet, und erst danach fragt jemand, ob das datenschutzrechtlich in Ordnung ist. Das führt entweder zu teuren Anpassungen oder zu dem Dilemma, ein bereits genutztes Tool wieder abschalten zu müssen. Privacy by Design, also Datenschutz von Anfang an einplanen, ist nicht nur ein DSGVO-Prinzip nach Artikel 25, sondern auch wirtschaftlich vernünftig.

Ein zweiter häufiger Fehler ist die Annahme, dass ein AVV allein ausreicht. Der AVV regelt die Auftragsverarbeitung, ersetzt aber nicht die Rechtsgrundlage für die eigentliche Verarbeitung. Beides muss vorhanden sein. Ein Unternehmen, das einen validen AVV mit OpenAI hat, aber keine Rechtsgrundlage für die Verarbeitung von Kundendaten in diesem System, verstößt trotzdem gegen die DSGVO.

Ein dritter Fehler ist das Vernachlässigen von Betroffenenrechten. Nach Artikel 15 bis 22 DSGVO haben Personen das Recht auf Auskunft, Berichtigung, Löschung und Datenportabilität. Wenn Kundendaten in einem KI-System verarbeitet wurden, muss ein Unternehmen auf eine Löschanfrage auch die im KI-System verarbeiteten Daten löschen können. Das ist technisch nicht trivial, besonders wenn Daten in Vektordatenbanken für RAG-Systeme gespeichert sind. Die Architektur muss von Anfang an so gestaltet sein, dass individuelle Datensätze identifiziert und gelöscht werden können.

Was Datenschutzkonform Nicht Bedeutet

Ein ehrlicher Punkt am Ende: Datenschutzkonformer KI-Einsatz bedeutet nicht, KI nur minimal oder gar nicht einzusetzen. Die DSGVO verbietet keine KI-Automatisierung. Sie setzt einen Rahmen, innerhalb dessen Automatisierung möglich und legal ist. Unternehmen, die KI-Projekte aus pauschaler Datenschutzangst blockieren, verschenken Effizienzpotenzial ohne regulatorischen Gewinn.

Gleichzeitig gibt es echte Grenzen. Bestimmte Kategorien besonderer Daten nach Artikel 9 DSGVO, also Gesundheitsdaten, biometrische Daten, religiöse Überzeugungen und ähnliche sensible Informationen, unterliegen sehr strengen Anforderungen. KI-Systeme, die solche Daten verarbeiten, brauchen eine explizite Einwilligung oder eine andere spezifische Grundlage aus Artikel 9 Abs. 2. Das schließt viele einfache Automatisierungslösungen aus und erfordert aufwändigere technische und organisatorische Maßnahmen. Hier ist Vorsicht angebracht, und externe rechtliche Beratung empfiehlt sich.

Die gute Nachricht: Die meisten KMU-Anwendungsfälle für KI-Automatisierung, also Dokumentenverarbeitung, Kundenkommunikation, interne Wissenssuche, Vertriebsunterstützung und ähnliches, sind mit vertretbarem Aufwand datenschutzkonform umsetzbar. Es geht um Sorgfalt, nicht um Perfektion.

Fazit

KI und DSGVO schließen sich nicht aus. Wer die Rechtsgrundlage klärt, den passenden AVV abschließt, Datensparsamkeit technisch umsetzt und die Mitarbeiter schult, kann KI-Automatisierungen rechtssicher einführen. Der größte Fehler ist, Datenschutz als nachgelagerte Aufgabe zu behandeln statt als Bestandteil der Projektplanung. Starten Sie mit einer ehrlichen Bestandsaufnahme: Welche KI-Tools nutzt Ihr Unternehmen bereits, welche Daten fließen dort hinein, und welche der fünf Anforderungen sind noch offen? Vereinbaren Sie ein kostenloses Erstgespräch mit uns, um Ihre konkrete Situation zu bewerten und einen umsetzbaren Plan zu entwickeln.

Sven Kasek berät als KI-Stratege in Berlin kleine und mittelständische Unternehmen bei der datenschutzkonformen Einführung von KI-Systemen und Automatisierungslösungen.

Bereit für den nächsten Schritt?

Vereinbaren Sie ein kostenloses Erstgespräch. Wir analysieren Ihre Prozesse und zeigen Ihnen konkrete Optimierungspotenziale.

Erstgespräch vereinbaren