
Pflegeheime brauchen eine DSFA bei KI-gestützter Pflegedokumentation, um Gesundheitsdaten zu schützen, Risiken zu minimieren und DSGVO-Strafen zu vermeiden.
Pflegeheime müssen eine Datenschutz-Folgenabschätzung (DSFA) durchführen, wenn sie neue Technologien wie KI-gestützte Pflegedokumentation einsetzen. Warum? Weil sie täglich mit hochsensiblen Gesundheitsdaten arbeiten, die unter die strengen Vorgaben der DSGVO fallen. Eine DSFA hilft, Risiken für Bewohner frühzeitig zu erkennen und zu minimieren. Ohne diese Analyse drohen hohe Strafen und Vertrauensverlust.
Wichtige Punkte:
Ab 2026 verschärfen der EU AI Act und die DSGVO die Anforderungen weiter. Pflegeheime, die transparente und sichere Prozesse sicherstellen, schützen nicht nur Daten, sondern stärken auch das Vertrauen der Bewohner und Angehörigen.
Eine Datenschutz-Folgenabschätzung (DSFA) ist ein Verfahren, das dazu dient, frühzeitig potenzielle Risiken für die Rechte und Freiheiten von Personen zu erkennen, zu bewerten und zu minimieren, wenn neue digitale Systeme eingeführt werden [2]. Laut Artikel 35 der DSGVO ist eine DSFA erforderlich, wenn eine geplante Datenverarbeitung – insbesondere durch den Einsatz neuer Technologien – wahrscheinlich ein hohes Risiko für die betroffenen Personen birgt. Sie ist ein zentraler Bestandteil des Prinzips „Privacy by Design“ und trägt dazu bei, das Vertrauen von Bewohnern und Angehörigen zu stärken. Diese Vorgaben schaffen die Grundlage für den sicheren Einsatz von KI in der Pflegedokumentation. Im Folgenden wird erläutert, wann eine DSFA in Pflegeheimen notwendig ist.
Pflegeheime sind in mehreren typischen Szenarien verpflichtet, eine DSFA durchzuführen. Dies gilt insbesondere bei der Verarbeitung sensibler Gesundheitsdaten, beim Einsatz von KI-gestützten Tools wie Sprachdokumentationssystemen oder automatisierten Pflegeplanungen sowie bei der Nutzung von Technologien, die kontinuierliche Datenüberprüfungen oder automatisierte Entscheidungsprozesse beinhalten – zum Beispiel bei der Einstufung in Pflegegrade. Um Klarheit zu schaffen, stellen deutsche Aufsichtsbehörden sogenannte Positivlisten bereit. Diese enthalten Verarbeitungsvorgänge, die eine DSFA zwingend erforderlich machen. Pflegeeinrichtungen sollten diese Listen prüfen, bevor sie neue digitale Lösungen einsetzen.
Hier sind einige typische Auslöser für eine DSFA im Pflegebereich:
| DSFA-Auslöser | Konkretes Beispiel im Pflegeheim |
|---|---|
| Sensible Daten | Verarbeitung umfangreicher Krankenakten und Gesundheitsinformationen |
| Neue Technologien | Einführung von KI-gestützter Sprachdokumentation oder Pflegeplanung |
| Vulnerable Gruppen | Datenverarbeitung bei Bewohnern mit eingeschränkter Entscheidungsfähigkeit |
| Automatisierte Entscheidungen | Software, die Bewohnerprofile erstellt oder Pflegestufen automatisch festlegt |
Die DSFA muss vor Beginn der Datenverarbeitung durchgeführt werden und sollte mindestens alle drei Jahre überprüft werden. Dabei ist es unerlässlich, den Datenschutzbeauftragten einzubeziehen. Falls die DSFA ein hohes Risiko aufzeigt, das nicht ausreichend reduziert werden kann, ist die zuständige Aufsichtsbehörde zu konsultieren, bevor mit der Verarbeitung begonnen wird.
Die Datenschutz-Folgenabschätzung (DSFA) ist ein unverzichtbares Werkzeug, um Pflegeheime beim Einsatz von KI-gestützten Dokumentationssystemen abzusichern. Solche Systeme bieten zwar Vorteile, bringen aber auch spezifische Risiken im Bereich Datenschutz und Vertrauen mit sich. Laut Artikel 35 DSGVO ist eine DSFA erforderlich, wenn durch neue Technologien ein hohes Risiko für die Rechte und Freiheiten von Personen besteht [4]. Besonders im Gesundheitswesen, wo KI-Systeme beispielsweise für Telemedizin oder algorithmische Datenauswertungen genutzt werden, gelten diese Anwendungen als Hochrisiko und erfordern eine DSFA [4].
Die DSFA dient dazu, Risiken frühzeitig zu erkennen und zu minimieren, bevor die Datenverarbeitung beginnt [4]. Wird eine DSFA trotz Notwendigkeit nicht durchgeführt, drohen empfindliche Strafen: Bußgelder von bis zu 10 Millionen Euro oder 2 % des weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres [4]. Hier sind die zentralen Risiken, die eine DSFA adressiert.
Ein wesentliches Problem ist die zweckfremde Nutzung von Bewohnerdaten. Viele Anbieter von KI-Systemen verwenden die eingegebenen Daten, um ihre Modelle zu trainieren und zu verbessern – oft ohne rechtliche Grundlage oder ausdrückliche Zustimmung. Dies verstößt gegen den Zweckbindungsgrundsatz der DSGVO [5]. Dr. Uwe Schläger, Geschäftsführer der DSN Holding, betont:
„Patientendaten sollten nicht für die Optimierung und das Training des KI-Modells verwendet werden. Eine solche Nutzung wäre mit einer nicht zweckgebundenen Verwendung der Daten verbunden, für die es keine Rechtsgrundlage gibt." [5]
Pflegeheime sollten daher auf separate Instanzen wie den Azure OpenAI Service setzen, bei denen Daten logisch getrennt verarbeitet werden und nicht für das Modelltraining genutzt werden [5]. Web-basierte KI-Chatbots sind für sensible Bewohnerdaten ungeeignet.
Ein weiteres Risiko betrifft die Berufsverschwiegenheit nach § 203 StGB. Standard-Auftragsverarbeitungsverträge (AVV) reichen hier oft nicht aus. Stattdessen sind spezielle „Berufsverschwiegenheitsvereinbarungen“ erforderlich, die auch Unterauftragnehmer der KI-Dienstleister zur Geheimhaltung verpflichten [5]. Cloud-Anbieter, die Gesundheitsdaten in Deutschland verarbeiten, müssen häufig ein C5-Typ-2-Zertifikat besitzen und eine Niederlassung in Deutschland unterhalten (§ 393 SGB V) [5].
Internationale Datentransfers sind ebenfalls kritisch. US-Anbieter unterliegen dem CLOUD Act, der US-Behörden Zugriff auf in Europa gespeicherte Daten ermöglicht – ein Widerspruch zu den deutschen Verschwiegenheitspflichten [5]. Eine DSFA hilft, solche Risiken durch Maßnahmen wie Verschlüsselung, dedizierte Instanzen und spezifische Vertragsklauseln zu minimieren [5].
Neben technischen Datenschutzrisiken beeinflussen KI-Systeme auch direkt die Rechte und das Vertrauen der Bewohner.
Zusätzlich zu den Datenschutzrisiken stellen automatisierte Funktionen wie Profiling und Bewertungen weitere Herausforderungen dar. Wenn KI-Systeme Bewohnerprofile erstellen oder Pflegestufen automatisiert festlegen, können intransparente Entscheidungen das Vertrauen der Betroffenen untergraben. Es ist daher entscheidend, die Notwendigkeit und Verhältnismäßigkeit solcher Datenverarbeitungen klar zu dokumentieren [4].
Eine DSFA erfordert ein interdisziplinäres Team aus IT, Datenschutzexperten, Risikomanagement und Fachkräften, um sicherzustellen, dass alle Auswirkungen auf Bewohner berücksichtigt werden [4]. Dabei muss geprüft werden, ob der Einsatz von KI-gestütztem Profiling gerechtfertigt ist und ob die Vorteile die Risiken für die Privatsphäre der Bewohner überwiegen [4].
Ein weiteres Risiko betrifft die Beweiskraft der Dokumentation. KI-generierte Pflegedokumentationen müssen objektiv, nachvollziehbar und „urkundenfest“ sein, um in Haftungsfällen vor Gericht Bestand zu haben [6][7]. Das DocCheck Flexikon formuliert es treffend:
„Nicht dokumentiert, nicht gemacht." [7]
Manipulierbare oder unvollständige KI-Dokumentationen könnten zu Vorwürfen der Urkundenfälschung oder zum Verlust wichtiger Beweismittel führen [6][7]. Die DSFA muss daher eine detaillierte Beschreibung der Verarbeitungsvorgänge, eine Bewertung der Risiken für die Rechte und Freiheiten der Bewohner sowie konkrete Maßnahmen zur Risikominderung enthalten [4]. Zudem sollte sie regelmäßig aktualisiert werden, insbesondere bei neuen Risiken im laufenden Betrieb des KI-Systems [4].
Die Datenschutz-Folgenabschätzung (DSFA) spielt eine entscheidende Rolle, wenn es um die Einführung digitaler und KI-gestützter Dokumentationssysteme in Pflegeheimen geht. Sie hilft nicht nur bei der Einhaltung gesetzlicher Vorschriften, sondern stärkt auch das Vertrauen und minimiert Risiken. Hier sind die wichtigsten Vorteile im Detail.
Eine korrekt durchgeführte DSFA unterstützt Pflegeheime dabei, die Anforderungen der DSGVO zu erfüllen und empfindliche Strafen zu vermeiden. Organisationen, die automatisierte Sicherheitsstandards vollständig implementiert haben, beheben Datenschutzverletzungen 108 Tage schneller als solche ohne diese Standards – das entspricht einer Verbesserung von 74 % [8]. Diese Geschwindigkeit ist entscheidend, da die durchschnittlichen Kosten einer Datenschutzverletzung im Gesundheitswesen bei etwa 4,4 Millionen US-Dollar liegen [9]. Durch Maßnahmen, die im Rahmen einer DSFA ergriffen werden, können diese Kosten um bis zu 3,05 Millionen US-Dollar pro Vorfall gesenkt werden [8].
Eine DSFA deckt Schwachstellen auf und ermöglicht den Einsatz moderner Schutzmaßnahmen wie End-to-End-Verschlüsselung (AES-256) oder Multi-Faktor-Authentifizierung (MFA). Da 23 % aller Datenschutzverletzungen im Gesundheitswesen durch menschliches Versagen verursacht werden [8], sind rollenbasierte Zugriffskontrollen ein unverzichtbarer Bestandteil. Neben der rechtlichen Absicherung trägt dies auch zur Vertrauensbildung bei den Betroffenen bei.
Eine DSFA zeigt Bewohnern, Angehörigen und Mitarbeitern, dass Datenschutz ernst genommen wird – ein entscheidender Schritt in einer Zeit, in der viele Menschen KI im Gesundheitswesen skeptisch gegenüberstehen. Nur ein Drittel der Menschen vertraut darauf, dass Gesundheitseinrichtungen KI verantwortungsvoll nutzen [10], und 60 % der US-Erwachsenen fühlen sich unwohl, wenn ihr Pflegeanbieter auf KI setzt [10]. Gleichzeitig möchten 63 % der Patienten informiert werden, wenn KI in ihre Diagnose oder Behandlung einbezogen wird [10].
Die DSFA legt den Grundstein für Transparenz, indem sie klar definiert, was, wann, wer und wie über den Einsatz von KI kommuniziert wird. EisnerAmper bringt es auf den Punkt:
„Die Schaffung der Grundlage für Transparenz ist nicht länger eine einfache regulatorische Anforderung, die Unternehmen abhaken müssen. Sie ist entscheidend, um Vertrauen aufzubauen, rechtliche Risiken zu reduzieren und die Beziehung zwischen Pflegeanbieter und Patient zu stärken." [10]
Durch die Dokumentation von Human-in-the-Loop-Kontrollen wird zudem verdeutlicht, dass KI als Unterstützungstool dient und keine professionelle pflegerische Beurteilung ersetzt. Dies ist besonders wichtig, da KI-bezogene Haftpflichtansprüche zwischen 2022 und 2024 um 14 % zugenommen haben [10].
Eine DSFA identifiziert Risiken, bevor die Datenverarbeitung beginnt, und hilft, diese gezielt zu adressieren. Im Jahr 2025 berichteten 72 % der Gesundheitsorganisationen von Störungen in der Patientenversorgung aufgrund von Cyberangriffen [9]. Eine gründliche Risikoanalyse kann solche Unterbrechungen verhindern, die beispielsweise zu Verzögerungen bei Medikamenten oder Behandlungsgenehmigungen führen könnten.
Zusätzlich fördert die DSFA die Einrichtung automatisierter, verschlüsselter Backup- und Wiederherstellungsprozesse, die sicherstellen, dass Daten auch bei Ransomware-Angriffen oder Hardwareausfällen zugänglich bleiben. Ein Vorfall aus dem Jahr 2024 verdeutlicht dies: Ein Cyberangriff auf Change Healthcare betraf fast 190 Millionen Personen und führte dazu, dass 33 % der betroffenen Krankenhäuser monatelang Einnahmeverluste erlitten [9]. Solche Ereignisse zeigen, wie wichtig es ist, Lieferanten-Risiken im Rahmen einer DSFA zu bewerten.
Frühzeitig erkannte Schwachstellen können auch Versicherungsprämien senken. Einrichtungen mit automatisierten Sicherheitsprozessen zahlen bis zu 15 % weniger für Versicherungen und erleben 27 % weniger Sicherheitsvorfälle im Vergleich zu Organisationen mit manuellen Prozessen [8]. Diese Maßnahmen schützen nicht nur finanziell, sondern stärken auch den Betrieb und die Servicequalität in Pflegeheimen.
5 Schritte zur DSFA-Durchführung in Pflegeheimen
Eine Datenschutz-Folgenabschätzung (DSFA) kann zunächst komplex erscheinen, aber in fünf klaren Schritten lässt sich der Prozess strukturieren. Diese Anleitung zeigt, wie Pflegeheime den Einsatz von KI-gestützten Dokumentationssystemen datenschutzkonform bewerten können.
Erstellen Sie eine detaillierte Übersicht aller Verarbeitungsschritte. Bei sprachgestützter Pflegedokumentation gehören dazu:
Notieren Sie alle betroffenen Datenkategorien, wie z. B. Stammblätter, Pflegeanamnesen oder Medikationspläne. Wichtig ist es, zwischen Daten für den primären Pflegezweck und solchen zu unterscheiden, die eventuell zur Verbesserung von KI-Modellen genutzt werden könnten. Dr. Uwe Schläger betont:
„Zunächst sollte bei der Beschaffung und Entwicklung des medizinischen KI-Systems darauf geachtet werden, dass personenbezogene Daten und insbesondere Patientendaten nicht zur Optimierung und zum Training des KI-Modells genutzt werden." [5]
Berücksichtigen Sie auch die Rolle externer Dienstleister: Welcher Cloud-Anbieter wird genutzt? Verfügt dieser über ein C5-Testat und eine Niederlassung in Deutschland, um die Anforderungen nach § 393 SGB V zu erfüllen [5]?
Abschließend prüfen Sie, ob der Einsatz der KI wirklich notwendig ist.
Hier evaluieren Sie, ob das KI-Tool die beabsichtigten Ziele erreicht und ob es verhältnismäßig ist. Führen Sie eine Alternativenanalyse durch und definieren Sie klare Ziele, wie z. B. die Reduzierung der Dokumentationszeit um 15 Minuten pro Schicht. Überlegen Sie, ob pseudonymisierte Daten ausreichen oder Audiodateien direkt nach der Transkription gelöscht werden können.
Die Verhältnismäßigkeit erfordert eine gründliche Abwägung: Überwiegen die Vorteile, wie mehr Zeit für Bewohner oder genauere Berichte, die potenziellen Risiken für die Rechte der Betroffenen?
Bewerten Sie mögliche Risiken, wie algorithmische Fehlinterpretationen oder den Verlust der Datenkontrolle. Eine Risikomatrix hilft dabei, Eintrittswahrscheinlichkeiten und Auswirkungen zu analysieren.
| Risikokategorie | Mögliche Auswirkung | Minderungsmaßnahme |
|---|---|---|
| Datenpanne | Unbefugter Zugriff auf sensible Gesundheitsdaten | Multi-Faktor-Authentifizierung und Datenbankverschlüsselung |
| KI-Halluzination | Fehlerhafte Informationen führen zu Fehlern | Menschliche Prüfung aller KI-Ausgaben |
| Biometrische Privatsphäre | Missbrauch von Stimmenprofilen | Sofortige Löschung der Audiodateien nach Transkription |
| Anbieter-Abhängigkeit | Verlust der Datensouveränität | Klare Verträge mit Löschklauseln |
Auf Basis dieser Analyse setzen Sie gezielte Schutzmaßnahmen um.
Technische Maßnahmen wie End-to-End-Verschlüsselung und Pseudonymisierung sind essenziell. Ergänzen Sie diese mit Human-in-the-Loop-Protokollen, bei denen qualifizierte Pflegekräfte jeden KI-Eintrag prüfen, bevor er in die Dokumentation aufgenommen wird.
Schulen Sie Ihr Personal im Umgang mit dem Tool und im Datenschutz, insbesondere zur Vermeidung von Aufnahmen Dritter. Dokumentieren Sie alle Maßnahmen sorgfältig und aktualisieren Sie die DSFA bei größeren Änderungen oder Software-Updates.
Bleibt nach der Risikoanalyse ein hohes Restrisiko bestehen, ziehen Sie die zuständige Datenschutzaufsichtsbehörde hinzu. Ihr Datenschutzbeauftragter sollte die DSFA begleiten, während Sie als Leitung praktische Einblicke aus dem Pflegealltag einbringen.
Dieser letzte Schritt sorgt dafür, dass alle verbleibenden Risiken extern geprüft werden und der Prozess rechtskonform abgeschlossen wird.
Praxisfälle zeigen, wie die Datenschutz-Folgenabschätzung (DSFA) in Pflegeeinrichtungen konkret umgesetzt wird. Die folgenden Beispiele illustrieren, wie verschiedene Anwendungsbereiche durch eine gut durchdachte DSFA abgesichert werden können.
Die sprachbasierte Dokumentation fällt gemäß Artikel 35 DSGVO fast immer unter die DSFA-Pflicht, da sie umfangreiche sensible Gesundheitsdaten verarbeitet [11][3]. Eine zentrale Frage ist, ob die erfassten Spracheingaben (Prompts) zur Verbesserung der KI-Modelle des Anbieters verwendet werden dürfen.
Eine DSFA hilft hier, indem sie sicherstellt, dass Nutzer die Möglichkeit haben, der Verwendung ihrer Daten für das KI-Training zu widersprechen (Opt-out-Optionen). Außerdem wird garantiert, dass menschliche Überprüfungen integriert werden, um Fehler oder sogenannte „Halluzinationen“ der Sprach-zu-Text-KI zu vermeiden, die zu ungenauen oder potenziell diskriminierenden Pflegeentscheidungen führen könnten. Ebenso verpflichtet die DSFA Anbieter dazu, das Prinzip der Datenminimierung einzuhalten. So wird etwa geprüft, ob die Anwendung ohne personenbezogene Daten oder nur mit der minimal notwendigen Datenerfassung arbeiten kann. Um biometrische Risiken zu minimieren, sollten Audiodateien sofort nach der Transkription gelöscht werden.
Bei der Einführung von KI-Tools zur Unterstützung der Strukturierten Informationssammlung (SIS) greift Artikel 22 DSGVO, der den Bewohnern das Recht einräumt, nicht ausschließlich automatisierten Entscheidungen unterworfen zu werden [15]. Eine DSFA stellt sicher, dass Pflegekräfte die von der KI generierten Vorschläge kritisch prüfen, ihre eigenen Einschätzungen einbringen und Entscheidungen gegebenenfalls korrigieren können.
Ein bekanntes Beispiel, das die Bedeutung einer DSFA verdeutlicht, ist der Fall von Google DeepMind und dem Royal Free London NHS Foundation Trust aus dem Jahr 2017. Hier wurden 1,6 Millionen Patientenakten ohne Zustimmung verarbeitet. Das britische Information Commissioner's Office (ICO) machte klar, dass auch bei klinischen Anwendungen die Datenschutzgesetze strikt einzuhalten sind. Eine DSFA hätte in diesem Fall helfen können, Risiken schon vor der Datenfreigabe zu erkennen [13].
Für die SIS-Pflegeplanung bedeutet dies konkret: Anbieterzertifizierungen sollten überprüft, solide Auftragsverarbeitungsverträge abgeschlossen und Techniken wie die Pseudonymisierung eingesetzt werden, um die Privatsphäre der Bewohner zu schützen [12][14]. Zusätzlich sollten Datenschutzerklärungen aktualisiert und die Bewohner oder ihre gesetzlichen Vertreter über die Funktionsweise und Logik der KI-gestützten Entscheidungen informiert werden [12][14].
Diese Beispiele zeigen, wie eine sorgfältige DSFA dazu beiträgt, Datenschutzrisiken zu verringern und das Vertrauen in KI-basierte Systeme zu stärken.
Die Datenschutz-Folgenabschätzung (DSFA) ist für Pflegeheime, die KI-gestützte Dokumentationssysteme einführen, eine gesetzliche Verpflichtung. Gemäß Artikel 35 DSGVO ist eine DSFA erforderlich, wenn „neue Technologien“ wie KI zum Einsatz kommen und dabei ein hohes Risiko für die Rechte und Freiheiten der Bewohner besteht [11][12]. Da Pflegeeinrichtungen sensible Gesundheitsdaten nach Art. 9 DSGVO verarbeiten, wird diese Pflicht durch den Einsatz von KI automatisch ausgelöst [11][12]. Gleichzeitig liefert die DSFA wertvolle Erkenntnisse, um Risiken zu minimieren.
Eine gut durchgeführte DSFA geht über die reine Einhaltung rechtlicher Vorgaben hinaus. Sie ermöglicht es, potenzielle Risiken wie fehlerhafte KI-Entscheidungen, Datenlecks oder Diskriminierung frühzeitig zu identifizieren und zu entschärfen [3][12]. Zudem unterstreicht sie den Ansatz des „Datenschutzes durch Technikgestaltung“ [3][12].
Um den Anforderungen gerecht zu werden, ist eine strukturierte Herangehensweise entscheidend. Dies umfasst die frühzeitige Einbindung von Expertenteams, da sowohl KI-Technologien als auch rechtliche Rahmenbedingungen einem ständigen Wandel unterliegen [3][12].
Angesichts möglicher DSGVO-Strafen von bis zu 10 Millionen Euro oder 2 % des weltweiten Jahresumsatzes [12] und der Tatsache, dass EU-weite Bußgelder bereits 5,65 Milliarden Euro überschritten haben [1], ist die DSFA weit mehr als nur eine Compliance-Maßnahme. Sie dient als Schutzinstrument für die Bewohner, stärkt das Vertrauen in die Einrichtung und sichert deren Position in der digitalen Transformation der Pflege. Mit einer sorgfältigen DSFA können Pflegeheime die Herausforderungen der Digitalisierung verantwortungsvoll angehen und das Vertrauen in neue Technologien langfristig festigen.
Die Datenschutz-Folgenabschätzung (DSFA) in einem Pflegeheim wird von einer Person durchgeführt, die fundierte Kenntnisse im Bereich Datenschutz besitzt. In den meisten Fällen handelt es sich dabei um den Datenschutzbeauftragten (DSB) oder eine speziell geschulte Fachkraft mit entsprechender Qualifikation.
Eine Datenschutzfolgenabschätzung (DSFA) ist unerlässlich, wenn KI-Systeme eingesetzt werden, da sie potenzielle Risiken im Umgang mit personenbezogenen Daten analysiert und bewertet. Ziel ist es, die Risiken zu identifizieren und geeignete Maßnahmen zur Minimierung dieser Risiken zu definieren.
Was gehört dazu?
Vorlagen als Unterstützung
Um den Prozess zu erleichtern, können Vorlagen genutzt werden, die als Orientierungshilfe dienen. Diese helfen dabei, alle relevanten Aspekte systematisch zu erfassen und sicherzustellen, dass keine wichtigen Punkte übersehen werden.
Eine gut durchgeführte DSFA ist nicht nur gesetzlich vorgeschrieben, sondern auch ein wichtiger Schritt, um Vertrauen in den Einsatz von KI-Systemen zu schaffen.
Die Durchführung einer Datenschutz-Folgenabschätzung (DSFA) kann mehrere Wochen bis hin zu mehreren Monaten in Anspruch nehmen. Wie lange der Prozess dauert, hängt stark davon ab, wie umfangreich die Datenverarbeitung ist und wie komplex die damit verbundenen Risiken sind. Ein klar strukturierter und sorgfältig dokumentierter Ablauf ist dabei entscheidend, um sicherzustellen, dass alle rechtlichen Vorgaben eingehalten werden.