
Die Nutzung von ChatGPT in der Pflegedokumentation birgt erhebliche Datenschutz‑ und Haftungsrisiken und kann arbeitsrechtlich bis zur Kündigung führen.
Die Nutzung von ChatGPT in der Pflegedokumentation birgt Chancen, aber auch erhebliche rechtliche Risiken. Pflegeeinrichtungen können durch KI-Tools Zeit sparen, jedoch stoßen sie auf Datenschutzprobleme, Haftungsfragen und arbeitsrechtliche Konsequenzen. Besonders kritisch: Ohne klare Richtlinien und DSGVO-konforme Maßnahmen drohen Bußgelder, Abmahnungen oder sogar Kündigungen.
Kernaussagen:
Die rechtssichere Nutzung von KI erfordert ein strukturiertes Vorgehen. Pflegeeinrichtungen sollten klare Regeln schaffen, Mitarbeitende schulen und ausschließlich DSGVO-konforme Systeme einsetzen.
Die Pflegedokumentation in Deutschland unterliegt strengen gesetzlichen Vorgaben – besonders im Umgang mit sensiblen Gesundheitsdaten. Diese Vorgaben sind auch für den Einsatz von KI-Tools wie ChatGPT entscheidend.
Gesundheitsdaten zählen laut Artikel 9 DSGVO zu den „besonderen Kategorien personenbezogener Daten". Ihre Verarbeitung ist grundsätzlich untersagt, es sei denn, es liegt eine ausdrückliche Einwilligung vor oder ein öffentliches Interesse rechtfertigt die Nutzung [1]. Verstöße gegen die Datenrichtigkeit können teuer werden: Unternehmen drohen Bußgelder von bis zu 4 % des weltweiten Jahresumsatzes [2].
Daten, die in einen Chatbot eingegeben werden, können problematisch sein. Sie werden auf externen Servern verarbeitet, oft außerhalb der EU [4][6]. Rechtsanwalt Sören Siebert warnt:
„Indem Sie personenbezogene Daten in den Chatbot von Open AI eingeben, verlieren Sie die Kontrolle über diese Daten und können Betroffenen im Nachhinein keine exakte Auskunft geben." [5]
Laut Artikel 13 und 14 DSGVO müssen Einrichtungen Patienten informieren, wenn ihre Daten durch KI verarbeitet werden – einschließlich der zugrunde liegenden Logik [4]. Ein späteres Löschen der Daten (Artikel 17 DSGVO) ist jedoch schwierig, wenn diese bereits in das Trainingsmodell einer KI eingeflossen sind [4][5]. Diese Herausforderungen beim Datenschutz beeinflussen auch andere Dokumentationsvorgaben.

Die Strukturierte Informationssammlung (SIS) ist die Basis der Pflegeplanung. Werden KI-Tools genutzt, um die Pflegeplanung zu schreiben, müssen die Ergebnisse sorgfältig geprüft werden. Der Medizinische Dienst der Krankenversicherung (MDK) kontrolliert, ob die Dokumentation korrekt, nachvollziehbar und individuell auf den Bewohner abgestimmt ist [6]. Hier können KI-generierte Texte problematisch sein: Eine Studie zeigt, dass vier gängige KI-Assistenten – darunter ChatGPT – in 45 % der Fälle falsche Inhalte lieferten [3]. Solche Fehler, auch als Halluzinationen bezeichnet, gefährden die Datenrichtigkeit und damit die Beweiskraft der Dokumentation.
Prof. Dr. Jens Prütting von der Bucerius Law School betont:
„Im ärztlichen Einsatz bleibt zusätzlich der Behandler haftungsrechtlich in der Pflicht, denn er darf KI-Ergebnisse nicht blind übernehmen. Stattdessen muss er sie medizinisch plausibilisieren und validieren." [1]
Auch in der Pflege bleibt die Verantwortung bei den Fachkräften. KI-Tools können zwar sprachlich unterstützen, doch die inhaltliche Prüfung und fachliche Entscheidung liegen weiterhin beim Menschen [1].

ChatGPT-Versionen im DSGVO-Vergleich: Rechtssichere Nutzung in der Pflegedokumentation
Der Einsatz von ChatGPT in der Pflegedokumentation bringt erhebliche Risiken in den Bereichen Recht, Datenschutz und Arbeitsrecht mit sich. Je nach Nutzung können Verstöße gegen Datenschutzbestimmungen oder arbeitsrechtliche Vorgaben schwerwiegende Folgen haben. Die rechtlichen Anforderungen in diesem sensiblen Bereich verschärfen die Problematik zusätzlich.
Ein Blick auf die rechtlichen Vorgaben zeigt, dass die kostenlosen oder Standardversionen von ChatGPT (Free, Plus, Pro) nicht den Anforderungen für den sicheren Umgang mit sensiblen Gesundheitsdaten genügen. Ein zentraler Punkt ist das Fehlen eines Auftragsverarbeitungsvertrags (AV-Vertrag), der gemäß der DSGVO zwingend erforderlich ist. Lediglich die Business-Varianten (Enterprise, Team oder API Platform) bieten diesen Schutz.
Ein weiteres Problem besteht in der möglichen Nutzung von Patientendaten zur Optimierung des KI-Modells. Selbst wenn die Funktion zur Modellverbesserung deaktiviert ist, bleibt die Kontrolle über die Daten eingeschränkt, was den Grundsatz der Zweckbindung verletzt und datenschutzrechtlich problematisch ist [5].
Das Hauptproblem liegt im Kontrollverlust über sensible Gesundheitsdaten. Lars Werner, Datenschutzbeauftragter für Pflegeeinrichtungen, hebt hervor:
„Gesundheitsdaten verlassen damit unter Umständen die geschützte Umgebung der Einrichtung, ohne dass dies bewusst wahrgenommen wird." [6]
Selbst anonymisierte Daten können durch Kombination mit weiteren Informationen wie Alter, Diagnosen oder spezifischen Beschreibungen wieder identifiziert werden. Zudem nutzen viele Pflegekräfte private Geräte und Anwendungen wie ChatGPT, was als „Shadow IT“ bezeichnet wird. Diese Praxis birgt erhebliche Risiken, da sensible Daten außerhalb der institutionellen Sicherheitsmaßnahmen verarbeitet werden. In solchen Fällen haftet die Einrichtung für Datenschutzverstöße.
Ab dem 2. Februar 2025 verpflichtet der EU AI Act Unternehmen, ihre Mitarbeitenden im sicheren Umgang mit KI-Systemen zu schulen. Ohne diese Schulungen trägt der Arbeitgeber das volle Haftungsrisiko [5]. Neben Datenschutzfragen ergeben sich auch arbeitsrechtliche Herausforderungen.
Die Nutzung von ChatGPT ohne ausdrückliche Genehmigung des Arbeitgebers kann in Deutschland als Pflichtverletzung gewertet werden. Die möglichen arbeitsrechtlichen Konsequenzen reichen von Verwarnungen über Abmahnungen bis hin zu fristlosen Kündigungen [9]. Besonders brisant wird es, wenn sensible Patientendaten oder Betriebsgeheimnisse in öffentliche Chatbots eingegeben werden. Solche Verstöße können als Geheimnisverrat nach §203 StGB strafrechtlich verfolgt werden.
Darüber hinaus kann bei grober Fahrlässigkeit oder Vorsatz eine zivilrechtliche Haftung entstehen. Dies wäre etwa der Fall, wenn durch KI-generierte Fehler Medikationsprobleme oder Behandlungsverzögerungen auftreten [9].
Nach der Betrachtung potenzieller Risiken ist es wichtig, konkrete Maßnahmen zu ergreifen, um ChatGPT sicher und gesetzeskonform in der Pflegedokumentation einzusetzen. Mit klar definierten Richtlinien, gezielten Schulungen und passenden technischen Schutzmaßnahmen kann dies gelingen.
Pflegeeinrichtungen sollten verbindliche Richtlinien zur Nutzung von KI-Tools festlegen. Laut einem Beschluss des Arbeitsgerichts Hamburg (24 BVGa 1/24) gehören solche Richtlinien zum „Arbeitsverhalten“ und können oft ohne Mitbestimmung des Betriebsrats eingeführt werden, solange Informations- und Beratungsrechte nach § 90 BetrVG gewahrt bleiben [13].
Wichtige Punkte, die in den Richtlinien geregelt werden sollten:
Neben diesen Regeln ist es essenziell, die Mitarbeitenden entsprechend zu schulen, damit die Vorgaben auch in der Praxis umgesetzt werden.
Pflegekräfte müssen die Funktionsweise und Grenzen von KI-Systemen wie ChatGPT verstehen. Diese Modelle können sogenannte „Halluzinationen“ erzeugen – also Aussagen, die zwar plausibel klingen, aber faktisch falsch sind [10]. Ab dem 2. Februar 2025 fordert der EU AI Act, dass Unternehmen ihre Mitarbeitenden im sicheren Umgang mit KI schulen. Andernfalls haftet der Arbeitgeber vollumfänglich [7].
Schulungsinhalte sollten Folgendes umfassen:
Um Patientendaten zu schützen, sind sichere technische Maßnahmen unverzichtbar. Dazu gehören:
Mit diesen Maßnahmen können Pflegeeinrichtungen ChatGPT sicher und datenschutzkonform einsetzen, ohne die Integrität der sensiblen Patientendaten zu gefährden.
Die Nutzung von ChatGPT in der Pflegedokumentation ist klar durch den EU AI Act geregelt. Unternehmen sind verpflichtet, ihre Mitarbeitenden im Umgang mit KI zu schulen, um einen rechtssicheren Einsatz zu gewährleisten [7][9]. Eine Nutzung ohne ausdrückliche Zustimmung des Arbeitgebers kann schwerwiegende arbeitsrechtliche Konsequenzen nach sich ziehen, wie Abmahnungen oder sogar Kündigungen [9].
„Die Nutzung von KI-Anwendungen ist ohne ausdrückliche Erlaubnis des Arbeitgebers tabu. Ignoriert ein Mitarbeiter dies eigenmächtig, um Aufgaben schneller zu erledigen, begeht er eine arbeitsrechtliche Pflichtverletzung." – unternehmer.de [9]
Besonders brisant wird es, wenn sensible Patientendaten unbefugt in öffentliche Chatbots eingegeben werden. Dies kann als Geheimnisverrat gewertet werden und eine fristlose Kündigung nach sich ziehen [9]. Dabei bleibt die Verantwortung für die korrekte Dokumentation stets bei den Pflegefachkräften – KI-Tools dienen lediglich als unterstützendes Werkzeug [14]. Arbeitgeber, die den Einsatz solcher Tools erlauben, jedoch keine klaren Richtlinien oder Schulungen anbieten, tragen das volle Haftungsrisiko [9]. Regelmäßige Schulungen und klar definierte Richtlinien sind daher essenziell, um den rechtssicheren Einsatz von ChatGPT zu gewährleisten. Diese Maßnahmen verdeutlichen, dass ein kontinuierliches Risikomanagement unerlässlich ist, um sowohl aktuelle als auch zukünftige Entwicklungen im Blick zu behalten.
Die rechtlichen Bestimmungen rund um KI entwickeln sich stetig weiter. Ein Beispiel: Im Dezember 2024 verhängte die italienische Datenschutzbehörde eine Geldstrafe von 15 Mio. € gegen OpenAI wegen Verstößen gegen die DSGVO [2]. Auch in Deutschland richten Aufsichtsbehörden ihre Aufmerksamkeit zunehmend auf kleinere und mittlere Pflegeeinrichtungen [6]. Daher ist es für diese Einrichtungen entscheidend, ihre KI-Richtlinien regelmäßig zu überprüfen und sicherzustellen, dass alle Mitarbeitenden entsprechend geschult sind.
Eine sichere Integration von KI-Tools erfordert verbindliche Regeln, technische Schutzmaßnahmen und fortlaufende Weiterbildung. Wer diese Voraussetzungen erfüllt, kann die Effizienz in der Pflege steigern, ohne rechtliche Risiken einzugehen.
Die gesetzlich erlaubte Version von ChatGPT für die Pflegedokumentation ist jene, die keine personalisierte Rechtsberatung mehr bereitstellt. OpenAI hat die Nutzungsbedingungen dahingehend geändert, dass rechtliche Informationen nur noch mit einem Hinweis versehen werden dürfen, um sicherzustellen, dass keine individuelle Rechtsberatung erfolgt.
Um Pflegedaten anonym zu gestalten und eine Re-Identifizierung zu verhindern, müssen sensible Informationen wie Name, Geburtsdatum, Adresse und Telefonnummer entfernt oder unkenntlich gemacht werden. Dabei ist es entscheidend, sämtliche Merkmale zu eliminieren, die Rückschlüsse auf eine Person ermöglichen könnten. Gleichzeitig müssen die Anforderungen der Datenschutz-Grundverordnung (DSGVO) strikt eingehalten werden. Ein sorgfältiges Vorgehen ist unerlässlich, um die Privatsphäre von Pflegepersonen und Patienten effektiv zu schützen.
Wenn Fehler in der Pflegedokumentation auftreten, die durch KI-generierte Texte verursacht wurden, liegt die Verantwortung in der Regel bei der zuständigen Pflegekraft oder der jeweiligen Einrichtung. Trotz des Einsatzes von KI bleibt die rechtliche Verantwortung bei den Ärzten und Pflegefachkräften, die diese Technologien nutzen.
Wichtig: Die Inhalte, die von KI-Tools erstellt werden, müssen sorgfältig geprüft und gegebenenfalls angepasst werden. Nur so können mögliche Haftungsrisiken zuverlässig reduziert werden. Der verantwortungsvolle Umgang mit KI bleibt daher unverzichtbar.