
KI kann SIS‑Berichte erleichtern — aber nur mit DSGVO‑konformen Lösungen: AVV, EU‑Server, DSFA und Schulungen nötig.
Ja, aber nur unter strengen Bedingungen. Der Einsatz von KI, wie ChatGPT, in der Pflegedokumentation kann Zeit sparen und Prozesse vereinfachen. Doch die DSGVO setzt klare Grenzen: Gesundheitsdaten gehören zu den sensibelsten Informationen und müssen besonders geschützt werden. Standard-ChatGPT (Free/Plus-Versionen) erfüllt diese Anforderungen nicht, da:
Lösungen: Nur spezialisierte, DSGVO-konforme KI-Tools (z. B. Enterprise-Versionen) mit AVV und EU-Servern sind geeignet. Zudem ist eine Datenschutz-Folgenabschätzung (DSFA) verpflichtend. Wichtig: Pflegekräfte müssen geschult werden, um sensible Daten sicher zu handhaben und KI-Ergebnisse stets zu prüfen, etwa bei der digitalen Pflegedokumentation mit Spracherkennung.
Fazit: KI kann in der Pflege helfen, aber nur mit sorgfältiger Planung, sicheren Systemen und klaren Richtlinien.

ChatGPT Standard vs. Enterprise: DSGVO-Konformität für Pflegedokumentation im Vergleich
Im Folgenden werden die rechtlichen Rahmenbedingungen zur Nutzung von ChatGPT in der Pflegedokumentation erläutert.
Die Pflegedokumentation umfasst Gesundheitsdaten gemäß Art. 9 DSGVO, die zu den sensibelsten Kategorien personenbezogener Daten zählen. Daher unterliegt ihre Verarbeitung besonders strengen Vorgaben. Pflegeeinrichtungen müssen eine rechtliche Grundlage für die Datenverarbeitung nachweisen, wie beispielsweise die Erfüllung gesetzlicher Verpflichtungen oder die Einwilligung der betroffenen Person.
Die DSGVO schreibt Prinzipien wie Datenminimierung, Zweckbindung und Transparenz vor. Das bedeutet, dass nur die absolut notwendigen Gesundheitsdaten erhoben und ausschließlich für den vorgesehenen Pflegezweck verwendet werden dürfen. Zudem sind Pflegeeinrichtungen verpflichtet, Bewohner klar und verständlich darüber zu informieren, wie ihre Daten verarbeitet werden (Art. 13/14 DSGVO) [3].
Ein weiteres Muss ist der Abschluss eines Auftragsverarbeitungsvertrags (AVV) gemäß Art. 28 DSGVO, wenn ein externer Anbieter wie eine KI-Plattform beauftragt wird. Dieser Vertrag stellt sicher, dass der Anbieter die Daten ausschließlich nach den Weisungen der Pflegeeinrichtung verarbeitet. Ohne diesen Vertrag liegt bereits ein Verstoß gegen die DSGVO vor [2][3].
Im nächsten Abschnitt wird beleuchtet, warum die Standard-Version von ChatGPT diese Anforderungen nicht erfüllt.
Die Standard-Version von ChatGPT ist aufgrund der strengen DSGVO-Vorgaben – insbesondere in Bezug auf Datenminimierung, Zweckbindung und Transparenz – nicht geeignet. Die kostenlosen und Standard-Versionen (Free und Plus) bieten keinen Auftragsverarbeitungsvertrag an. Dieser ist nur für die Enterprise-, Team- und API-Versionen des Tools verfügbar [4].
Ein weiteres Problem ergibt sich aus der Datenverarbeitung auf Servern außerhalb der EU, vor allem in den USA [2]. Für solche Drittlandübermittlungen sind zusätzliche Schutzmaßnahmen wie Standardvertragsklauseln und eine Datentransfer-Folgenabschätzung notwendig. Rechtsanwalt Sören Siebert bringt es auf den Punkt:
„Ein datenschutzkonformer Einsatz von ChatGPT im Unternehmenskontext ist nur dann möglich, wenn Sie weder personenbezogene Daten noch Geschäftsgeheimnisse im Chat eingeben." [4]
Die Risiken gehen jedoch noch weiter: Bei den Standard-Versionen können eingegebene Daten zur Weiterentwicklung des KI-Modells verwendet werden. Selbst wenn Namen entfernt werden, können Kombinationen aus Alter, Geschlecht und Diagnosen ausreichen, um Personen zu identifizieren [4][2][1]. Im Dezember 2024 verhängte die italienische Datenschutzbehörde eine Geldstrafe von 15 Millionen Euro gegen OpenAI wegen Verletzungen der DSGVO, darunter mangelnde Transparenz und fehlende Rechtsgrundlagen [4]. Theoretisch könnten Bußgelder bis zu 4 % des weltweiten Jahresumsatzes betragen – bei OpenAI wären das bis zu 452 Millionen US-Dollar [4].
Die folgende Tabelle verdeutlicht die Unterschiede zwischen den Standard- und Enterprise-Versionen von ChatGPT:
| Merkmal | Standard ChatGPT (Free/Plus) | ChatGPT Enterprise/API |
|---|---|---|
| AVV verfügbar | ❌ Nein | ✅ Ja (Art. 28 DSGVO-konform) |
| Datennutzung für Training | ⚠️ Ja (automatisch aktiviert) | ✅ Nein (automatisch deaktiviert) |
| Serverstandort | 🇺🇸 USA | 🇺🇸 USA (zusätzliche Schutzmaßnahmen erforderlich) |
| Eignung für SIS-Berichte | ❌ Nicht geeignet | ⚠️ Eventuell geeignet – sofern eine DSFA vorliegt |
Nachdem die rechtlichen Rahmenbedingungen geklärt sind, werfen wir nun einen Blick auf die operativen Herausforderungen, die bei der praktischen Integration von KI in bestehende Abläufe auftreten. Besonders die Umsetzung der DSGVO erfordert nicht nur rechtliche, sondern auch klare operative Maßnahmen – von der Datensicherheit bis hin zur Integration in bestehende Systeme.
Der Einsatz von KI-Tools bringt erhebliche Risiken für die Sicherheit sensibler Gesundheitsdaten mit sich. Ein Hauptproblem ist das sogenannte „Blackbox-Problem“ – die fehlende Transparenz darüber, welche Daten gesammelt, wie sie verarbeitet und ob sie an Dritte weitergegeben werden. Besonders kritisch: Pflegebeobachtungen und Bewohnerdaten könnten in zukünftigen KI-Modellen weiterverwendet werden. Oft erfolgt die Speicherung dieser Daten außerhalb der EU, was die Einhaltung europäischer Datenschutzstandards erschwert und das Risiko unbefugter Zugriffe erhöht.
Zusätzlich sind Betroffenenrechte wie das Recht auf Löschung oder Korrektur von Daten schwer umsetzbar, sobald die Informationen vom KI-System verarbeitet wurden. Auch die Erfassung von Metadaten und Kontoinformationen birgt weitere Datenschutzrisiken. Diese Herausforderungen unterstreichen, wie wichtig es ist, Sicherheitslücken frühzeitig zu erkennen und zu adressieren.
Die wichtigsten Risikokategorien und ihre Auswirkungen auf die Pflegedokumentation sind in der folgenden Tabelle zusammengefasst:
| Risikokategorie | Beschreibung | Risikostufe für Pflegedokumentation |
|---|---|---|
| Nutzungsdaten | Erfassung von Kontoinformationen und Metadaten; unklare Weitergabe an Dritte | Mittel |
| Eingabedaten | Risiko durch Eingabe sensibler Gesundheitsdaten oder interner Informationen | Hoch |
| Betroffenenrechte | Schwierige Umsetzung von Lösch- oder Korrekturrechten | Hoch |
| Automatisierte Entscheidungen | Gefahr, sich auf KI-Berichte ohne menschliche Überprüfung zu verlassen | Hoch |
Ein großes Hindernis ist die technische Einbindung von KI-Tools in bestehende Pflegedokumentationssysteme. Derzeit arbeiten viele KI-Lösungen, wie spezialisierte GPT-Modelle, als eigenständige, webbasierte Anwendungen, die auf externen Plattformen gehostet werden. Nutzer müssen ihre gewohnten Systeme verlassen, um Inhalte zu erstellen, und greifen dabei auf einen „Copy-and-Paste“-Workflow zurück.
Was fehlt, sind APIs oder Plugins, die eine direkte, automatisierte Synchronisation mit vorhandenen Pflegedokumentationssystemen ermöglichen. Ohne diese Funktionen bleibt die Integration umständlich und zeitaufwändig, was den Nutzen der KI erheblich einschränkt.
Neben technischen Herausforderungen erfordert die Einführung von KI auch einen organisatorischen Wandel. Um einen sicheren Umgang mit KI im Pflegealltag zu gewährleisten, sind umfassende Schulungen notwendig. Pflegeeinrichtungen tragen als Verantwortliche im Sinne der DSGVO die Pflicht, sicherzustellen, dass die KI-gestützte Dokumentation den Prinzipien der Datenrichtigkeit, Zweckbindung und Datenminimierung entspricht.
Der Landesbeauftragte für den Datenschutz und die Informationsfreiheit Baden-Württemberg betont dazu:
„Der Verantwortliche ist zur Einhaltung der datenschutzrechtlichen Grundsätze [...] verpflichtet. Er ist zudem rechenschaftspflichtig, hat die Erfüllung der vorgenannten Anforderungen und deren Anwendung auf das KI-System nachzuweisen." [5]
Eine besondere Herausforderung ist der sichere Umgang mit sogenannten Prompts. Pflegekräfte müssen lernen, zwischen allgemeinen und bewohnerspezifischen Formulierungen zu unterscheiden. Ein unsachgemäß formulierter Prompt wie „Was ist die Krankengeschichte von [Name]?“ könnte zur Re-Identifizierung von Personen führen oder sensible Gesundheitsdaten offenlegen.
Zusätzlich besteht das Risiko, dass KI-Systeme fiktive Inhalte – sogenannte Halluzinationen – generieren, was die Datenrichtigkeit gefährden kann. Daher bleibt eine kontinuierliche menschliche Überprüfung unerlässlich. Auch technische Risiken wie Membership Inference Attacks oder Model Inversion Attacks, bei denen Dritte versuchen könnten, Trainingsdaten aus dem KI-Modell zu extrahieren, sollten nicht außer Acht gelassen werden [5].
Die Risiken sind bekannt, aber wie kann KI dennoch sicher und rechtskonform eingesetzt werden? Mit der richtigen Kombination aus technischen und organisatorischen Maßnahmen ist eine DSGVO-konforme Nutzung möglich. Drei zentrale Ansätze stehen dabei im Fokus: die Auswahl passender KI-Lösungen, technische Sicherheitsvorkehrungen und eine gründliche Datenschutz-Folgenabschätzung (DSFA).
Um datenschutzrechtliche Anforderungen zu erfüllen, müssen Pflegeeinrichtungen sorgfältig die passenden KI-Tools auswählen. Empfehlenswert sind Enterprise- oder Business-Versionen, die standardmäßig keine Nutzerdaten für Trainingszwecke verwenden und einen Auftragsverarbeitungsvertrag bieten[4][6]. Bei kostenlosen Versionen muss das Training oft manuell deaktiviert werden – ein Schritt, der leicht übersehen werden kann, beispielsweise über die „Data Controls“ oder das OpenAI Privacy Portal[4].
Spezialisierte medizinische KI-Lösungen, die auf Servern innerhalb der EU betrieben werden, bieten zusätzlichen Schutz[2][6]. Solche Lösungen sind besonders wertvoll, da sie umfassende Datenschutzmaßnahmen und entsprechende Verträge bereits integriert haben.
Zusätzliche Schutzmaßnahmen umfassen:
Neben der Wahl der richtigen Software sind technische Sicherheitsvorkehrungen essenziell. Grundlage ist eine sichere Verschlüsselung, wie TLS für die Datenübertragung und AES-256 für gespeicherte Daten[2]. Ergänzend sollten Pflegeeinrichtungen auf folgende Maßnahmen setzen:
Da Gesundheitsdaten zu den sensibelsten Datenkategorien der DSGVO zählen, kann eine Übermittlung an Anbieter außerhalb der EU ohne rechtliche Grundlage oder Auftragsverarbeitungsvertrag schwerwiegende Folgen haben. Ein solcher Verstoß könnte sogar meldepflichtig sein[2].
Die Konsequenzen von Datenschutzverstößen sind erheblich. Ein Beispiel: OpenAI wurde im Dezember 2024 von der italienischen Datenschutzbehörde mit einer Strafe von 15 Mio. € belegt[4]. Generell können Bußgelder bis zu 20 Mio. € oder 4 % des weltweiten Jahresumsatzes betragen[2]. Diese Maßnahmen bilden die Basis für die anschließende Datenschutz-Folgenabschätzung.
Nach der Umsetzung technischer und organisatorischer Maßnahmen ist eine Datenschutz-Folgenabschätzung der nächste Schritt. Vor dem Einsatz von KI in der Pflegedokumentation ist die DSFA verpflichtend[3][6]. Sie dient dazu, Risiken bei der Verarbeitung von Gesundheitsdaten zu bewerten und Gegenmaßnahmen festzulegen. Dabei sollten folgende Punkte geprüft werden:
Die DSFA sollte auch untersuchen, ob spezialisierte Lösungen die Anforderungen der Pflegedokumentation effizienter erfüllen können. Wichtig ist, dass die Bewertung vor der Implementierung abgeschlossen wird, um rechtliche Risiken zu minimieren.
Nachdem die rechtlichen und technischen Grundlagen geklärt sind, rückt die praktische Umsetzung in den Mittelpunkt. Damit KI-Tools nicht nur rechtskonform genutzt werden, sondern auch das Pflegepersonal überzeugt, sind klare interne Richtlinien, ein schrittweiser Rollout und umfassende Schulungen unverzichtbar.
Bevor KI-Tools in der Pflege zum Einsatz kommen, sollte jede Einrichtung eine klare Nutzungsrichtlinie entwickeln. Diese Regelung legt fest, welche Aufgaben durch KI unterstützt werden dürfen, und gibt dem Team klare Anweisungen an die Hand. Eine einfache Liste mit „Do's & Don'ts“ kann hier hilfreich sein – zum Beispiel: „Niemals Bewohnernamen in ChatGPT eingeben“ [8].
Darüber hinaus ist es wichtig, Verantwortlichkeiten festzulegen. So könnte die IT-Abteilung für die technische Sicherheit zuständig sein, Datenschutzbeauftragte übernehmen rechtliche Prüfungen, und die Pflegedienstleitung kontrolliert die fachliche Qualität [8][9]. Ein weiterer zentraler Punkt: ein Meldeprozess für Vorfälle. Was passiert, wenn die KI falsche Informationen liefert oder versehentlich personenbezogene Daten verarbeitet? Solche Szenarien müssen klar geregelt sein.
„Eine gute Policy schafft einen Rahmen, der sichere Nutzung und Innovation gleichzeitig unterstützt." – Proliance [8]
Da sich KI-Technologien rasch weiterentwickeln, sollten diese internen Vorgaben regelmäßig überprüft und angepasst werden. Nur so bleibt die Einrichtung auf dem neuesten Stand und minimiert Risiken.
Ist die Richtlinie einmal erstellt, kann der Einsatz der KI-Tools schrittweise erfolgen. Mit einem stufenweisen Rollout lassen sich Risiken minimieren, und das Team kann sich langsam mit der neuen Technologie vertraut machen. Besonders sinnvoll ist es, mit risikoarmen Anwendungen zu starten – etwa der Strukturierung allgemeiner Notizen, die keine personenbezogenen Daten enthalten. Erst wenn das Team sicher im Umgang ist, können komplexere Aufgaben wie die vollständige SIS-Dokumentation integriert werden.
An festgelegten Meilensteinen sollten Compliance-Checks durchgeführt werden, um sicherzustellen, dass Datenschutzmaßnahmen wie Pseudonymisierung korrekt umgesetzt werden. Gleichzeitig können Rückmeldungen aus dem Team genutzt werden, um Unsicherheiten oder Probleme frühzeitig zu erkennen. So bleibt die Einrichtung nicht nur DSGVO-konform, sondern kann ihre internen Richtlinien kontinuierlich verbessern.
Seit Februar 2025 schreibt der EU AI Act verpflichtende Schulungen für alle Mitarbeitenden vor, die mit KI-Systemen arbeiten [4]. Diese Schulungen sind entscheidend, damit das Personal genau weiß, welche Daten in welche Tools eingegeben werden dürfen und wie die verschiedenen Klassifizierungsstufen – öffentlich, intern, vertraulich – anzuwenden sind [10].
Die Schulungen sollten auch praktische Aspekte abdecken. Dazu gehören Tipps, wie man präzise Prompts formuliert, KI-Halluzinationen erkennt und Daten korrekt pseudonymisiert. Ein hilfreiches Klassifizierungsrichtlinien-Template, das den Anforderungen der EU-DSGVO gemäß Art. 32 entspricht, ist bereits für 79,90 € erhältlich [10]. Diese Investition ist überschaubar und trägt dazu bei, rechtssichere Prozesse zu gewährleisten. Ergänzend können regelmäßige interne Audits sicherstellen, dass die Vorgaben im Arbeitsalltag konsequent umgesetzt werden [10].
KI-Tools wie ChatGPT eröffnen spannende Möglichkeiten für die Pflegedokumentation – von effizienteren Arbeitsprozessen bis hin zu klarer strukturierten SIS-Berichten. Doch mit diesen Chancen gehen auch Herausforderungen einher. Besonders die Anforderungen der DSGVO an den Umgang mit sensiblen Gesundheitsdaten stellen Pflegeeinrichtungen vor große Verantwortung. Als „Verantwortliche“ tragen sie die volle Rechenschaftspflicht.
Ein zentraler Ansatz, um diese Herausforderungen zu bewältigen, ist der Privacy-by-Design-Ansatz. Datenschutz und technologische Innovation sollten von Anfang an Hand in Hand gehen. Der Landesbeauftragte für den Datenschutz und die Informationsfreiheit Baden-Württemberg bringt es auf den Punkt:
„Nach dem Motto „Daten nützen, Daten schützen" sollten Datenschutz und Künstliche Intelligenz von Anfang an gemeinsam gedacht werden" [5].
Pflegeeinrichtungen müssen daher DSGVO-konforme Lösungen einsetzen, technische Schutzmaßnahmen umsetzen und regelmäßige Risikoanalysen durchführen.
Ebenso wichtig ist die ständige Anpassung interner Richtlinien. Die rechtlichen Rahmenbedingungen für KI entwickeln sich schnell weiter, und neue Sicherheitsrisiken wie „Model Inversion Attacks“ erfordern kontinuierliche Updates der Schutzmaßnahmen [5]. Darüber hinaus müssen Einrichtungen neben der DSGVO auch die Vorgaben der EU-KI-Verordnung einhalten. Diese Maßnahmen verbinden die rechtlichen und operativen Anforderungen, die zuvor thematisiert wurden.
Letztlich gilt: Eine verantwortungsvolle Einführung von KI – unterstützt durch klare Richtlinien, einen schrittweisen Rollout und verpflichtende Schulungen – ermöglicht es, die Vorteile der Technologie zu nutzen, ohne die Sicherheit der Bewohnerdaten zu gefährden. Investitionen in DSGVO-konforme Systeme und Schulungen zahlen sich aus: Pflegeeinrichtungen profitieren von rechtlich abgesicherten Prozessen, einer verbesserten Dokumentationsqualität und einer spürbaren Entlastung des Pflegepersonals. So werden gesetzliche Anforderungen erfüllt und die betrieblichen Abläufe effizienter gestaltet.
Personenbezogene Daten dürfen in SIS-Berichten nur dann mit KI verarbeitet werden, wenn dies zweckgebunden, datenschutzkonform und im notwendigen Umfang gemäß der Datenschutz-Grundverordnung (DSGVO) erfolgt. Es ist entscheidend, dass alle Daten ausschließlich für den festgelegten Zweck genutzt werden und sämtliche Vorgaben des Datenschutzes strikt eingehalten werden.
Eine Datenschutz-Folgenabschätzung (DSFA) für den Einsatz von KI in der Pflegedokumentation muss mehrere wesentliche Aspekte abdecken. Dazu gehört die Beschreibung der Verarbeitung personenbezogener Daten, einschließlich der Art der Daten, der Verarbeitungszwecke und der beteiligten Systeme. Ebenso wichtig ist die Darstellung der Zweckbindung, um sicherzustellen, dass die Daten nur für festgelegte und rechtmäßige Zwecke verwendet werden.
Ein weiterer zentraler Punkt sind die möglichen Risiken für die Betroffenen. Hierzu zählen etwa Risiken für die Privatsphäre, potenzielle Diskriminierung oder unbefugte Zugriffe. Um diesen Risiken entgegenzuwirken, müssen in der DSFA auch konkrete Maßnahmen zur Risikominderung beschrieben werden. Dazu gehören technische und organisatorische Maßnahmen wie Datenverschlüsselung, Zugriffsbeschränkungen oder regelmäßige Überprüfungen der KI-Algorithmen.
Abschließend sollte die DSFA detailliert darlegen, wie die Datenschutzkonformität sichergestellt wird. Dies umfasst die Einhaltung der DSGVO, insbesondere in Bezug auf Transparenz, Datenminimierung und die Rechte der Betroffenen. Ziel ist es, eine klare Dokumentation vorzulegen, die sowohl die Sicherheit der Daten als auch die Wahrung der Rechte aller Beteiligten gewährleistet.
KI-Halluzinationen entstehen, wenn eine KI falsche oder erfundene Informationen liefert. Diese können besonders problematisch sein, wenn sie in sensiblen Bereichen wie Pflegeberichten auftreten.
Wie erkennt man KI-Halluzinationen?
Es ist wichtig, Berichte auf ihre Plausibilität zu prüfen. Vergleichen Sie die generierten Inhalte mit bekannten Fakten oder zuverlässigen Quellen, um Fehler aufzudecken.
Wie kann man sie vermeiden?
So können Sie die Qualität und Zuverlässigkeit von Pflegeberichten langfristig sichern.