L’intelligence artificielle s’invite un peu plus chaque jour dans le champ de la santé.
Début janvier 2026, OpenAI a annoncé le déploiement progressif de ChatGPT Santé, un espace dédié au sein de ChatGPT permettant aux utilisateurs de mieux comprendre et organiser leurs données de santé. Une évolution majeure, alors que plus de 230 millions de personnes utilisent chaque semaine ChatGPT pour des questions liées à la santé.
Cette annonce soulève toutefois de nombreuses interrogations, notamment pour les professionnels de santé : à quoi sert réellement ChatGPT Santé, quels usages sont envisagés, et quelles précautions doivent être prises ?
ChatGPT Santé : de quoi parle-t-on exactement ?
ChatGPT Santé se présente comme un onglet distinct, spécifiquement conçu pour les échanges liés à la santé et au bien-être. L’objectif affiché par OpenAI est de structurer un usage déjà massif, en isolant les conversations sensibles du reste des interactions avec l’outil.
Concrètement, cette fonctionnalité permettrait aux utilisateurs de connecter certaines données issues de dossiers médicaux électroniques ou d’applications de suivi de santé, comme Apple Santé. L’IA peut alors reformuler des résultats biologiques, résumer des comptes rendus médicaux, mettre en évidence des évolutions dans le temps ou aider à préparer une consultation médicale, en traduisant un langage technique en termes plus accessibles.
OpenAI insiste cependant sur un point central : ChatGPT Santé ne délivre ni diagnostic ni traitement, et ne se substitue en aucun cas à un professionnel de santé. Cette limite est essentielle, tant sur le plan éthique que réglementaire.
Un outil d’aide à la compréhension, pas à la décision médicale
Pour les patients, l’intérêt principal de ChatGPT Santé réside dans la pédagogie. Comprendre un bilan sanguin, relire un compte rendu d’imagerie ou structurer ses questions avant un rendez-vous médical sont des usages fréquemment évoqués.
Du point de vue des professionnels de santé, cet outil peut contribuer indirectement à améliorer la relation soignant-soigné, en favorisant des patients mieux informés et plus acteurs de leur parcours. Néanmoins, il ne remplace ni l’expertise clinique, ni l’examen physique, ni le raisonnement médical.
Ces enjeux font écho aux réflexions déjà abordées dans notre article IA & diagnostic médical : vers une collaboration homme-machine incontournable ?, où la complémentarité entre intelligence humaine et intelligence artificielle apparaît comme la voie la plus pertinente.
Données de santé : des enjeux éthiques et réglementaires majeurs
L’utilisation de données de santé soulève nécessairement des questions sensibles. OpenAI affirme que les conversations liées à ChatGPT Santé sont cloisonnées, chiffrées et exclues de l’entraînement des modèles. Toutefois, comme toute plateforme numérique, l’entreprise peut être soumise à des obligations légales de transmission dans certains contextes judiciaires.
En Europe, ces questions sont étroitement encadrées par le RGPD et par des exigences spécifiques relatives aux données de santé. À ce stade, ChatGPT Santé est déployé aux États-Unis, et son éventuelle arrivée en Europe dépendra de l’évaluation des autorités compétentes, notamment en matière de protection des données personnelles.
Pour approfondir ces aspects, des ressources institutionnelles sont disponibles sur le site de la CNIL et de la Commission européenne.

Les limites de l’IA générative en santé
Au-delà des données, la fiabilité des réponses constitue un enjeu central. Les grands modèles de langage fonctionnent par probabilité statistique et peuvent produire des réponses plausibles mais inexactes. En santé, ces « hallucinations » peuvent avoir des conséquences importantes si elles sont mal interprétées.
Certains experts alertent également sur un possible effet anxiogène, notamment chez les patients sujets à l’hypocondrie ou à l’autosurveillance excessive. Ces risques rappellent la nécessité d’un cadre clair d’utilisation et d’une information adaptée des patients.
Quel rôle pour les professionnels de santé face à ces outils ?
L’émergence de solutions comme ChatGPT Santé renforce le rôle du professionnel de santé comme référent, interprète et garant de la décision médicale. Médecins, infirmiers et pharmaciens restent les interlocuteurs légitimes pour valider une information, contextualiser un résultat et orienter le patient.
Dans ce contexte, la montée en compétence des professionnels sur les usages et les limites de l’IA devient un enjeu clé. Comprendre le fonctionnement de ces outils permet de mieux accompagner les patients et d’éviter les malentendus. Cette évolution s’inscrit pleinement dans une logique de formation continue, en lien avec les obligations de DPC, comme expliqué dans notre article Comprendre l’obligation triennale DPC : le guide complet pour les professionnels de santé.
Conclusion
ChatGPT Santé marque une nouvelle étape dans l’intégration de l’intelligence artificielle au parcours de santé des patients. S’il offre des opportunités intéressantes en matière de compréhension et d’organisation de l’information médicale, il ne saurait se substituer à l’expertise des professionnels de santé.
Pour ces derniers, l’enjeu n’est pas de s’opposer à ces outils, mais de les comprendre, d’en encadrer les usages et de continuer à jouer un rôle central dans la qualité et la sécurité des soins. L’IA, plus que jamais, apparaît comme un outil d’appui dont l’efficacité repose sur une collaboration raisonnée entre technologie et pratique clinique.
Proforma France vous accompagne, au plus près de l’actualité et des besoins des professionnels de santé.
