L’IA au service du diagnostic médical
0
Dans le domaine médical, les diagnostics complexes peuvent mener à une grande frustration tant pour les patient·e·s que pour les professionnels de santé. Cette consultation racontée dans ce thread par un médecin neurologue met en lumière les difficultés rencontrées par les patient·e·s en errance médicale et par les médecins en quête de diagnostics précis. Et si l’IA pouvait dans ces cas précis faire médiation entre le patient·e et le médecin afin d’aboutir plus rapidement à un diagnostic médical ? On en parle ci-dessous.
Diagnostic médical : le rôle de médiation que peut jouer l’IA :
Un thread de @qffwffq
En consultation j'ai vu récemment une patiente adressée par un interniste pour "troubles polymorphes"
En français ça veut dire "qui ressemble à rien, est-ce seulement réel, bonne chance au neurologue"
La dame était abattue, dans le sens où elle voulait même plus se battre 1/
— Qffwffq (@qffwffq) October 30, 2024
On discute, j'essaye de la rassurer en lui disant que je ferais peut-être pas mieux que les nombreux autres médecins qu'elle avait vu avant, mais que si je trouvais rien, au moins elle n'avait pas de problème neurologique de base (j'ai pas prétention de tout savoir en neuro).
— Qffwffq (@qffwffq) October 30, 2024
Ce qui m'étonne, c'est que contrairement à 99,9999% des gens qui viennent pour "troubles polymorphes", elle décrit avec précision ET concision ses troubles, la façon dont ils se sont installés, les examens réalisés (et leur logique) et les traitements essayés.
— Qffwffq (@qffwffq) October 30, 2024
Je m'en étonne et lui demande si elle a des proches dans le domaine médical (je savais déjà qu'elle avait un job qui n'a rien à voir)
Parce que c'est pas tous les jours que quelqu'un vient vous dire "j'ai des symptômes proches de ce qui est décrit dans les dysautonomies)
— Qffwffq (@qffwffq) October 30, 2024
Là elle hésite
Elle cherche visiblement ses mots
Et elle me demande si je me méfie d'elle parce qu'elle a été trop précise
Elle ajoute qu'elle sait jamais quelle attitude avoir parce qu'elle a bien vu que ça faisait peur à certains médecins
— Qffwffq (@qffwffq) October 30, 2024
Et elle termine en disant qu'elle sait bien que y'a rien de pire comme phrase à prononcer par un patient que : "j'ai fait mais propre recherches"
[NDA : c'est vrai, faites jamais ça]
Là je propose à la patiente de faire une digression.
— Qffwffq (@qffwffq) October 30, 2024
Parce que clairement entre son attitude défaite avant même qu'on discute, sa façon précise de raconter son histoire de façon factuelle sans essayer de trouver des causalité imaginaires, et sa crainte (vaut échaudé) de se faire jeter parce qu'elle connait son dossier…
— Qffwffq (@qffwffq) October 30, 2024
…avant même de discuter de ce qu'elle a, faut qu'on discute de la confiance que j'ai en ses propos et de celle qu'elle peut (ou pas) avoir en moi.
Sachant qu'une consultation c'est 30 minutes max +/- le temps que j'accepte de prendre en plus au détriment du RDV suivant.
— Qffwffq (@qffwffq) October 30, 2024
Le truc, et elle le dit super bien, c'est que pendant longtemps, elle a refusé de croire que ce qu'elle avait allait être difficile à diagnostiquer (et je parle même pas du traitement).
Donc…
— Qffwffq (@qffwffq) October 30, 2024
Pendant des mois elle allait chez un médecin n, disait qu'elle avait des "trucs" car "cause +/- fantaisiste" qu'elle voulait pas de "examen random" mais "un traitement en général soumis à des restrictions de prescription"
Et comme on lui disait non, elle passait à un médecin n+1
— Qffwffq (@qffwffq) October 30, 2024
Il lui a fallu presque deux ans pour conclure que c'était pas une façon efficace pour elle de trouver un solution à ses problèmes.
Et puis elle a demandé comment faire (et non pas ce qu'elle avait) à ChatGPT.
— Qffwffq (@qffwffq) October 30, 2024
L'IA lui a proposé de reprendre un suivi et de l'aider à synthétiser ses plaintes, ses examens etc (cf le début du thread).
L'IA lui a également suggéré le vocabulaire et le ton à employer et lui a rédigé un résumé (celui qu'elle m'a donné au début de la consultation)
— Qffwffq (@qffwffq) October 30, 2024
Accessoirement ChatGPT a eu raison d'évoquer une dysautonomie parce que c'est exactement ce qu'elle a.
Bon si je vous raconte tout ça, c'est parce que je pense que pour de nombreux patients en errance diagnostique, qui errent d'autant plus qu'ils sont en colère d'errer…
— Qffwffq (@qffwffq) October 30, 2024
la médiation par une IA est peut-être une solution à envisager beaucoup plus sérieusement qu'un simple gadget.
Après y'a plein de note bene :
— Qffwffq (@qffwffq) October 30, 2024
NB1 elle a donné ses données médicales à chatGPT
NB2 même si je pense qu'il y a eu un raté dans sa prise en charge initiale avec se med gé je l'accable pas
D'une part ma consultation a duré une heure, d'autre part ses symptômes sont enseignés dans le tronc commun de médecine
— Qffwffq (@qffwffq) October 30, 2024
NB3 il est probable (certain) que même avec une heure de consultation je n'aurais jamais eu le temps de me taper la lecture de la pile épaisse de son dossier médical, s'il n'avait été synthétisé en quelques secondes par l'IA.
— Qffwffq (@qffwffq) October 30, 2024
NB4 s'il y a un truc que les neurologues partagent avec les psychiatres, c'est que même si tous les médecins sont supposés faire preuve de neutralité bienveillante, dans nos spécialités, le comportement des gens fait pleinement partie du processus de diagnostic.
— Qffwffq (@qffwffq) October 30, 2024
D'un coup, peut-être que là aussi la méditation d'une IA peut aider à mieux vivre une consultation.
— Qffwffq (@qffwffq) October 30, 2024