Apr 09, 2025

KI in der Therapie nur mit Verstand

Künstliche Intelligenz kann im Praxisalltag unterstützen, doch beim Umgang mit sensiblen Gesundheitsdaten gelten klare Regeln. Erfahre in diesem Beitrag, warum Tools wie ChatGPT nicht einfach mit Patientendaten gefüttert werden dürfen, welche Risiken bestehen und wie ein verantwortungsvoller Einsatz möglich ist.

Künstliche Intelligenz und Datenschutz in der Praxis

Was Therapeutinnen über Datenschutz und Patientendaten wissen müssen

Digitale Helfer sind längst Teil unseres Alltags geworden. Viele Gesundheitsfachpersonen nutzen bereits heute Tools zur Terminplanung, Dokumentation oder Textgestaltung. In diesem Zusammenhang taucht immer häufiger ein Begriff auf, der grosse Aufmerksamkeit erhält: Künstliche Intelligenz (KI).

Vor allem sogenannte Sprachmodelle, also Programme, die selbstständig Texte schreiben oder zusammenfassen können, erfreuen sich wachsender Beliebtheit. Besonders bekannt ist ChatGPT, doch es gibt viele ähnliche Anwendungen. Sie versprechen Zeitersparnis, kreative Vorschläge und Unterstützung bei Schreibaufgaben.

Gerade im Praxisalltag klingt das verlockend. Warum nicht eine Sitzung zusammenfassen lassen? Warum nicht einen Therapiebericht von der KI sprachlich überarbeiten lassen? Die Möglichkeiten wirken attraktiv. Doch sie haben auch eine Schattenseite.

Denn sobald persönliche Informationen von Patientinnen verarbeitet werden, betreten wir einen sensiblen Bereich mit klaren rechtlichen Grenzen.

Dieser Beitrag zeigt auf

  • warum Gesundheitsdaten besonders geschützt sind
  • weshalb viele KI-Systeme wie ChatGPT nicht dafür verwendet werden dürfen
  • welche Risiken bestehen
  • und wie eine sinnvolle Nutzung trotzdem möglich ist

Gesundheits­daten benötigen besonderen Schutz

Gesundheitsdaten zählen zu den sensibelsten personenbezogenen Informationen. Sie sind sowohl in der Schweiz durch das revidierte Datenschutzgesetz als auch in der EU durch die Datenschutz-Grundverordnung besonders geschützt.

Dazu gehören zum Beispiel:

  • Diagnosen und Beschwerden
  • Therapieverläufe und Behandlungspläne
  • Informationen über psychische oder körperliche Belastungen
  • Gesprächsinhalte aus Sitzungen
  • jede Form von Zuordnung zu einer bestimmten Person

Auch wenn keine Namen genannt werden, können Kontextinformationen ausreichen, um Patientinnen indirekt erkennbar zu machen. Genau deshalb ist Vorsicht geboten, sobald externe digitale Systeme ins Spiel kommen.

Warum viele KI-Tools nicht erlaubt sind

1. Kein datenschutz­konformer Vertrag

Die meisten öffentlich zugänglichen KI-Systeme bieten keinen rechtsgültigen Vertrag zur sogenannten Auftragsverarbeitung an. Das bedeutet, es gibt keine rechtliche Absicherung dafür, wie die eingegebenen Daten verwendet, gespeichert oder geschützt werden. Ohne diese Grundlage ist eine Nutzung mit Patientendaten rechtlich nicht zulässig.

2. Daten werden ausserhalb der Schweiz verarbeitet

Viele bekannte Systeme wie ChatGPT betreiben ihre Server ausserhalb der Schweiz und der EU. Häufig stehen sie in den USA. Solche Länder gelten datenschutzrechtlich als unsicher. Eine Übertragung von Gesundheitsdaten dorthin ist nur mit ausdrücklicher und informierter Zustimmung der betroffenen Person möglich. Diese Einwilligung muss freiwillig erfolgen und darf nicht vorausgesetzt werden.

3. Inhalte werden für Trainingszwecke gespeichert

Bei vielen KI-Anbietern fliessen die eingegebenen Inhalte in das sogenannte Modelltraining ein. Das bedeutet, sie werden gespeichert, analysiert und zur Weiterentwicklung des Systems verwendet. Wenngleich keine Namen enthalten sind, verlassen die Informationen den geschützten Raum und können langfristig weiterverwendet werden.

Welche Risiken entstehen in der Praxis

Verletzung der Schweigepflicht

Gesundheitsfachpersonen unterliegen der beruflichen Schweigepflicht. Wer ohne rechtliche Grundlage Patientendaten in ein externes System eingibt, riskiert einen Verstoss mit berufsrechtlichen und möglicherweise strafrechtlichen Folgen.

Fehlende Kontrolle über die Daten

Einmal eingegebene Daten können nicht zurückgeholt werden. Die Kontrolle über deren weiteren Verbleib ist verloren. Es ist nicht nachvollziehbar, was damit passiert, wer Zugriff darauf hat oder wie sie verarbeitet werden.

Haftungsfragen bei Fehlern

KI-Systeme erzeugen Inhalte, die glaubwürdig wirken, aber nicht immer korrekt sind. Wird ein solcher Text im therapeutischen Zusammenhang verwendet und daraus ein Schaden entsteht, stellt sich die Frage nach der Verantwortung. Ohne klare Richtlinien kann das schnell problematisch werden.

Was ist erlaubt und wo liegt der Nutzen

Trotz aller Einschränkungen bedeutet das nicht, dass KI im Praxisalltag grundsätzlich tabu ist. Richtig eingesetzt, kann sie nützlich sein, solange keine personenbezogenen Informationen verwendet werden. Mögliche Anwendungen sind:

  • Formulierungshilfen für neutrale Texte, etwa für die Website oder Patienteninformationen
  • Sprachliche Unterstützung bei allgemeinen Themen ohne Personenbezug
  • Recherche zu Fachthemen oder therapeutischen Ansätzen
  • Erstellung von anonymisierten Fallbeispielen zur Supervision oder Weiterbildung

Der entscheidende Punkt ist die strikte Trennung zwischen allgemeinen Inhalten und sensiblen Daten.

Gibt es sichere Alternativen?

Wer KI gezielt in der Praxis nutzen möchte, sollte auf Lösungen setzen, die den Datenschutzanforderungen genügen. Dazu zählen zum Beispiel:

  • Schweizer Anbieter mit Serverstandort in der Schweiz
  • Selbst gehostete Systeme, also lokal betriebene KI-Tools auf Praxisservern
  • Open-Source-Modelle, die offline auf dem eigenen Gerät laufen
  • Kommerzielle Versionen von KI-Tools mit deaktivierter Datenspeicherung und vertraglicher Absicherung

Wichtig ist, dass die eingesetzten Systeme vollständig unter eigener Kontrolle stehen und keine Daten an Dritte übertragen werden.

Empfehlungen für Praxen und Teams

  • Klare Richtlinien erstellen zur Nutzung digitaler Systeme
  • Mitarbeitende schulen im Umgang mit sensiblen Informationen
  • KI-Tools nur dort einsetzen, wo kein Personenbezug besteht
  • Transparenz gegenüber Patientinnen schaffen, falls digitale Systeme verwendet werden
  • Datenschutz und Technik regelmässig überprüfen und dokumentieren

Fazit

Künstliche Intelligenz ist auch im Gesundheitsbereich angekommen. Sie bietet neue Möglichkeiten zur Entlastung im Alltag. Gleichzeitig verlangt ihr Einsatz ein hohes Mass an Verantwortung. Wer mit Patientendaten arbeitet, muss besonders sorgfältig prüfen, ob und wie digitale Hilfsmittel eingesetzt werden dürfen.