L'IA en thérapie uniquement avec raison
L'intelligence artificielle peut être utile dans la pratique quotidienne, mais il existe des règles claires lorsqu'il s'agit de données de santé sensibles. Dans cet article, découvrez pourquoi des outils tels que ChatGPT ne peuvent pas simplement être alimentés par les données des patients, quels sont les risques existants et comment ils peuvent être utilisés de manière responsable.

L'intelligence artificielle et la protection des données en pratique
Ce que les thérapeutes doivent savoir sur la protection des données et les données des patients
Les assistants numériques font depuis longtemps partie de notre vie quotidienne. De nombreux professionnels de santé utilisent déjà des outils de planification, de documentation ou de conception de textes. Dans ce contexte, un terme qui fait l'objet d'une grande attention apparaît de plus en plus fréquemment : l'intelligence artificielle (IA).
Les modèles dits linguistiques en particulier, c'est-à-dire les programmes capables d'écrire ou de résumer des textes de manière indépendante, gagnent en popularité. ChatGPT est particulièrement connu, mais il existe de nombreuses applications similaires. Ils promettent des gains de temps, des suggestions créatives et une assistance pour les tâches de rédaction.
Cela semble tentant, surtout dans la pratique quotidienne. Pourquoi ne pas faire un résumé de la session ? Pourquoi ne pas demander à l'IA de réviser linguistiquement un rapport de traitement ? Les options sont intéressantes. Mais ils ont aussi un inconvénient.
Parce que dès que les informations personnelles des patients sont traitées, nous entrons dans une zone sensible avec des limites légales claires.
Ce message pointe vers
- Pourquoi les données de santé sont particulièrement protégées
- Pourquoi de nombreux systèmes d'IA tels que ChatGPT ne peuvent pas être utilisés pour cela
- Quels sont les risques
- et comment une utilisation significative est encore possible
Les données de santé nécessitent une protection particulière
Les données de santé constituent l'une des informations personnelles les plus sensibles. Ils sont particulièrement protégés en Suisse par la loi révisée sur la protection des données et dans l'UE par le règlement général sur la protection des données.
Il s'agit, par exemple, de :
- Diagnostics et plaintes
- Cours thérapeutiques et plans de traitement
- Informations sur le stress mental ou physique
- Contenu des conversations issues des réunions
- toute forme d'attribution à une personne spécifique
Même si aucun nom n'est mentionné, les informations contextuelles peuvent suffire à rendre les patients indirectement reconnaissables. C'est précisément pourquoi il convient de faire attention dès que des systèmes numériques externes entrent en jeu.
Pourquoi de nombreux outils d'IA ne sont pas autorisés.
1. Aucun contrat conforme à la protection des données
La plupart des systèmes d'IA accessibles au public ne proposent pas de contrat juridiquement valable pour ce que l'on appelle le traitement des commandes. Cela signifie qu'il n'existe aucune garantie légale quant à la manière dont les données saisies sont utilisées, stockées ou protégées. Sans cette base, l'utilisation des données des patients n'est pas légalement autorisée.
2. Les données sont traitées en dehors de la Suisse
De nombreux systèmes de grande renommée, tels que ChatGPT, exploitent leurs serveurs en dehors de la Suisse et de l'UE. Ils sont souvent situés aux États-Unis. Ces pays sont considérés comme dangereux en vertu de la législation sur la protection des données. Il n'est possible d'y transférer des données de santé qu'avec le consentement exprès et éclairé de la personne concernée. Ce consentement doit être donné volontairement et ne doit pas être requis.
3. Le contenu est stocké à des fins de formation
De nombreux fournisseurs d'IA intègrent le contenu saisi dans ce que l'on appelle la formation sur modèles. Cela signifie qu'ils sont stockés, analysés et utilisés pour développer davantage le système. Bien qu'aucun nom ne soit inclus, les informations quittent l'espace protégé et peuvent être réutilisées à long terme.
Quels sont les risques dans la pratique
Violation de la confidentialité
Les professionnels de santé sont soumis au secret professionnel. Toute personne qui saisit des données de patients dans un système externe sans base légale s'expose à une violation avec des conséquences professionnelles et éventuellement pénales.
Manque de contrôle sur les données
Une fois saisies, les données ne peuvent pas être récupérées. Le contrôle de leur localisation continue est perdu. Il est incompréhensible ce qui leur arrive, qui y a accès ou comment ils sont traités.
Problèmes de responsabilité en cas d'erreur
Les systèmes d'IA génèrent du contenu crédible, mais qui n'est pas toujours exact. Si un tel texte est utilisé dans un contexte thérapeutique et qu'il en résulte des dommages, la question de la responsabilité se pose. Sans directives claires, cela peut rapidement devenir un problème.
Qu'est-ce autorisé et où est l'avantage
Malgré toutes les restrictions, cela ne signifie pas que l'IA est fondamentalement taboue dans la pratique quotidienne. Utilisée correctement, elle peut être utile tant qu'aucune information personnelle n'est utilisée. Les applications possibles incluent :
- Aides à la formulation pour les textes neutres, tels que pour le site Web ou les informations destinées aux patients
- Assistance linguistique pour des sujets généraux sans référence personnelle
- recherche sur des sujets spécialisés ou des approches thérapeutiques
- Préparation d'études de cas anonymisées pour la supervision ou la formation continue
Le point clé est la séparation stricte entre le contenu général et les données sensibles.
Existe-t-il des alternatives sûres ?
Toute personne souhaitant utiliser l'IA spécifiquement dans la pratique doit s'appuyer sur des solutions qui répondent aux exigences de protection des données. Il s'agit, par exemple, de :
- Fournisseur suisse dont le serveur est situé en Suisse
- Systèmes autohébergés, c'est-à-dire des outils d'IA conduits localement sur des serveurs d'entraînement
- Modèles open source qui s'exécutent hors ligne sur votre propre appareil
- Versions commerciales des outils d'IA avec le stockage des données désactivé et protection contractuelle
Il est important que les systèmes utilisés soient entièrement sous votre contrôle et qu'aucune donnée ne soit transférée à des tiers.
Recommandations pour les pratiques et les équipes
- Créez des directives claires pour utiliser systèmes numériques
- Former les employés lorsqu'il s'agit d'informations sensibles
- N'utilisez les outils d'IA qu'en l'absence de référence personnelle
- Créer de la transparence pour les patients si des systèmes numériques sont utilisés
- Passez régulièrement en revue la protection des données et la technologie et document
Conclusion
L'intelligence artificielle est également arrivée dans le secteur de la santé. Il offre de nouvelles opportunités pour soulager le stress de la vie quotidienne. Dans le même temps, leur utilisation exige un haut degré de responsabilité. Toute personne travaillant avec les données des patients doit vérifier avec une attention particulière si et comment les outils numériques peuvent être utilisés.