KI in der Therapie nur mit Verstand
Künstliche Intelligenz kann im Praxisalltag unterstützen, doch beim Umgang mit sensiblen Gesundheitsdaten gelten klare Regeln. Erfahre in diesem Beitrag, warum Tools wie ChatGPT nicht einfach mit Patientendaten gefüttert werden dürfen, welche Risiken bestehen und wie ein verantwortungsvoller Einsatz möglich ist.

Künstliche Intelligenz und Datenschutz in der Praxis
Was Therapeutinnen über Datenschutz und Patientendaten wissen müssen
Digitale Helfer sind längst Teil unseres Alltags geworden. Viele Gesundheitsfachpersonen nutzen bereits heute Tools zur Terminplanung, Dokumentation oder Textgestaltung. In diesem Zusammenhang taucht immer häufiger ein Begriff auf, der grosse Aufmerksamkeit erhält: Künstliche Intelligenz (KI).
Vor allem sogenannte Sprachmodelle, also Programme, die selbstständig Texte schreiben oder zusammenfassen können, erfreuen sich wachsender Beliebtheit. Besonders bekannt ist ChatGPT, doch es gibt viele ähnliche Anwendungen. Sie versprechen Zeitersparnis, kreative Vorschläge und Unterstützung bei Schreibaufgaben.
Gerade im Praxisalltag klingt das verlockend. Warum nicht eine Sitzung zusammenfassen lassen? Warum nicht einen Therapiebericht von der KI sprachlich überarbeiten lassen? Die Möglichkeiten wirken attraktiv. Doch sie haben auch eine Schattenseite.
Denn sobald persönliche Informationen von Patientinnen verarbeitet werden, betreten wir einen sensiblen Bereich mit klaren rechtlichen Grenzen.
Dieser Beitrag zeigt auf
- warum Gesundheitsdaten besonders geschützt sind
- weshalb viele KI-Systeme wie ChatGPT nicht dafür verwendet werden dürfen
- welche Risiken bestehen
- und wie eine sinnvolle Nutzung trotzdem möglich ist
Gesundheitsdaten benötigen besonderen Schutz
Gesundheitsdaten zählen zu den sensibelsten personenbezogenen Informationen. Sie sind sowohl in der Schweiz durch das revidierte Datenschutzgesetz als auch in der EU durch die Datenschutz-Grundverordnung besonders geschützt.
Dazu gehören zum Beispiel:
- Diagnosen und Beschwerden
- Therapieverläufe und Behandlungspläne
- Informationen über psychische oder körperliche Belastungen
- Gesprächsinhalte aus Sitzungen
- jede Form von Zuordnung zu einer bestimmten Person
Auch wenn keine Namen genannt werden, können Kontextinformationen ausreichen, um Patientinnen indirekt erkennbar zu machen. Genau deshalb ist Vorsicht geboten, sobald externe digitale Systeme ins Spiel kommen.
Warum viele KI-Tools nicht erlaubt sind
1. Kein datenschutzkonformer Vertrag
Die meisten öffentlich zugänglichen KI-Systeme bieten keinen rechtsgültigen Vertrag zur sogenannten Auftragsverarbeitung an. Das bedeutet, es gibt keine rechtliche Absicherung dafür, wie die eingegebenen Daten verwendet, gespeichert oder geschützt werden. Ohne diese Grundlage ist eine Nutzung mit Patientendaten rechtlich nicht zulässig.
2. Daten werden ausserhalb der Schweiz verarbeitet
Viele bekannte Systeme wie ChatGPT betreiben ihre Server ausserhalb der Schweiz und der EU. Häufig stehen sie in den USA. Solche Länder gelten datenschutzrechtlich als unsicher. Eine Übertragung von Gesundheitsdaten dorthin ist nur mit ausdrücklicher und informierter Zustimmung der betroffenen Person möglich. Diese Einwilligung muss freiwillig erfolgen und darf nicht vorausgesetzt werden.
3. Inhalte werden für Trainingszwecke gespeichert
Bei vielen KI-Anbietern fliessen die eingegebenen Inhalte in das sogenannte Modelltraining ein. Das bedeutet, sie werden gespeichert, analysiert und zur Weiterentwicklung des Systems verwendet. Wenngleich keine Namen enthalten sind, verlassen die Informationen den geschützten Raum und können langfristig weiterverwendet werden.
Welche Risiken entstehen in der Praxis
Verletzung der Schweigepflicht
Gesundheitsfachpersonen unterliegen der beruflichen Schweigepflicht. Wer ohne rechtliche Grundlage Patientendaten in ein externes System eingibt, riskiert einen Verstoss mit berufsrechtlichen und möglicherweise strafrechtlichen Folgen.
Fehlende Kontrolle über die Daten
Einmal eingegebene Daten können nicht zurückgeholt werden. Die Kontrolle über deren weiteren Verbleib ist verloren. Es ist nicht nachvollziehbar, was damit passiert, wer Zugriff darauf hat oder wie sie verarbeitet werden.
Haftungsfragen bei Fehlern
KI-Systeme erzeugen Inhalte, die glaubwürdig wirken, aber nicht immer korrekt sind. Wird ein solcher Text im therapeutischen Zusammenhang verwendet und daraus ein Schaden entsteht, stellt sich die Frage nach der Verantwortung. Ohne klare Richtlinien kann das schnell problematisch werden.
Was ist erlaubt und wo liegt der Nutzen
Trotz aller Einschränkungen bedeutet das nicht, dass KI im Praxisalltag grundsätzlich tabu ist. Richtig eingesetzt, kann sie nützlich sein, solange keine personenbezogenen Informationen verwendet werden. Mögliche Anwendungen sind:
- Formulierungshilfen für neutrale Texte, etwa für die Website oder Patienteninformationen
- Sprachliche Unterstützung bei allgemeinen Themen ohne Personenbezug
- Recherche zu Fachthemen oder therapeutischen Ansätzen
- Erstellung von anonymisierten Fallbeispielen zur Supervision oder Weiterbildung
Der entscheidende Punkt ist die strikte Trennung zwischen allgemeinen Inhalten und sensiblen Daten.
Gibt es sichere Alternativen?
Wer KI gezielt in der Praxis nutzen möchte, sollte auf Lösungen setzen, die den Datenschutzanforderungen genügen. Dazu zählen zum Beispiel:
- Schweizer Anbieter mit Serverstandort in der Schweiz
- Selbst gehostete Systeme, also lokal betriebene KI-Tools auf Praxisservern
- Open-Source-Modelle, die offline auf dem eigenen Gerät laufen
- Kommerzielle Versionen von KI-Tools mit deaktivierter Datenspeicherung und vertraglicher Absicherung
Wichtig ist, dass die eingesetzten Systeme vollständig unter eigener Kontrolle stehen und keine Daten an Dritte übertragen werden.
Empfehlungen für Praxen und Teams
- Klare Richtlinien erstellen zur Nutzung digitaler Systeme
- Mitarbeitende schulen im Umgang mit sensiblen Informationen
- KI-Tools nur dort einsetzen, wo kein Personenbezug besteht
- Transparenz gegenüber Patientinnen schaffen, falls digitale Systeme verwendet werden
- Datenschutz und Technik regelmässig überprüfen und dokumentieren
Fazit
Künstliche Intelligenz ist auch im Gesundheitsbereich angekommen. Sie bietet neue Möglichkeiten zur Entlastung im Alltag. Gleichzeitig verlangt ihr Einsatz ein hohes Mass an Verantwortung. Wer mit Patientendaten arbeitet, muss besonders sorgfältig prüfen, ob und wie digitale Hilfsmittel eingesetzt werden dürfen.