Un prompt rétablissement

L'IA s'invite dans la relation médecin-patient. Outil d'émancipation pour les uns, arme de gestion pour les autres, elle révèle nos valeurs, notamment à l’égard du handicap. Malick Reinhard analyse une (r)évolution à double tranchant qui humanise autant qu'elle déshumanise la médecine.

Un prompt rétablissement
© Mondame Productions

Il y a de ces articles que l’on écrit d’emblée avec une pointe de désillusion. Le genre de papier où l’on sait d’avance que les faits, si durement vérifiés, paraîtront déjà ridicules demain. Écrire sur l’intelligence artificielle, en 2025, c’est un peu comme essayer de photographier un TGV avec un appareil à soufflet : le temps de développer la plaque, le paysage a changé dix fois.

Pourtant, ce qui se joue en ce moment dans le silence feutré des cabinets médicaux n’est pas qu’une affaire de vitesse. C’est le « colloque singulier » qui se voit contaminé. Concept central de l’éthique médicale occidentale, il désigne cette rencontre sacrée entre « une confiance » (celle de la patiente ou du patient) et « une conscience » (celle de la ou du médecin). Un dialogue bilatéral, protégé par le secret, fondé sur l’empathie et la confiance mutuelle. C’est ce pilier qui vacille aujourd’hui, car un troisième acteur s’est invité sans frapper : le « tiers algorithmique ». L'intelligence artificielle.

Trois personnes sont présentes dans une salle d’examen médicale : une personne assise sur une table d’examen en blouse d’hôpital, un individu à la peau bleue (un robot) debout portant une blouse blanche et un stéthoscope, et une autre personne assise au sol dans un placard ouvert, attachée avec une corde près de balais.
ChatGPT (GPT-4o) : "Cartoon hospital scene in Rick and Morty style, a panicked patient on exam table, a humanoid robot doctor with rollers and stethoscope, real doctor tied up in a closet."

🥼 « Docteur, mon chatbot m’a dit que… »

Le tableau est nouveau. Des patientes et patients, et particulièrement des personnes en situation de handicap longtemps marginalisées du dialogue médical, n'arrivent plus seulement avec leurs symptômes. Celles et ceux-ci arrivent désormais armés. Armés de diagnostics générés par ChatGPT, Gemini, Claude, ou encore Grok. Une enquête du cabinet londonien Censuswide, relayée par le magazine Rolling Stone (oui, oui), révèle que 31 % des Américains utiliseraient déjà des chatbots pour préparer leurs questions médicales, et que 39 % leur feraient confiance pour ce type d’aide.

Le neurologue américain Benjamin Tolchin, lui, par exemple, notait dès 2023, dans la revue Scientific American, que les autodiagnostics de sa patientèle étaient souvent « raisonnables » — comprenez : cohérents avec les observations cliniques du médecin. Et deux ans, à l’échelle des avancées de l’IA, c’est une éternité. Alors, imaginez aujourd’hui.

Pour une personne aveugle utilisant SeeingAI pour qu'on lui décrive le monde, ou pour une personne aphasique — un trouble du langage qui peut entraîner une perte partielle ou totale de la capacité à comprendre, parler, lire ou écrire — dont l'application Voiceitt traduit la parole inhabile, l'IA n'est pas qu'un gadget. C'est une émancipation. L'asymétrie fondamentale du «savoir», celle qui plaçait le médecin et les équipes soignantes en position d'autorité unique, est en train de voler en éclats.

🖱️ L'Homme qui valait trois clics (selon l'IA)

Mais cette révolution a un miroir sombre, une face B, qui sent la vieille administration et le formulaire mal rempli. Que se passe-t-il lorsque l’algorithme n’est plus un outil d’autonomie pour les malades, mais un outil de gestion contre elles et eux ?

Faire remarcher des tétraplégiques : enquête sur les dérives éthiques des implants cérébraux
Faire remarcher des tétraplégiques ? La promesse fascine le monde. Mais répond-elle à un besoin réel ou au fantasme des « valides » et à l’égo des chercheurs ? Dérives éthiques, discours contrôlés, gros sous… Enquête sur une science qui vise les étoiles, quand le quotidien, lui, reste sur terre.

À lire également…

Pour le savoir, il faut regarder (par exemple) du côté de l’Arkansas. Entre 2016 et 2019, le 25e État américain a déployé « ARChoices », un algorithme censé «optimiser l’allocation des soins à domicile» pour 8 000 bénéficiaires handicapés. Résultat, documenté par un rapport de l’American Civil Liberties Union : une coupe de 43 % des services pour les plaignantes et plaignants. Et tout ça, sans intervention humaine directe — juste une IA un tantinet susceptible. Toujours selon le rapport, des personnes tétraplégiques ou atteintes de paralysie cérébrale auraient été « contraintes de rester assises dans leurs excréments », incapables de manger ou hospitalisées faute de soins.

Et ce n’est pas un bug, c’est une logique. C’est l’algorithme d’Optum — entreprise américaine de soins, utilisé selon les sources pour 70 à 200 millions de patients, qui discriminait les patientes et patients en utilisant les « coûts de santé » comme indicateur des « besoins » — ignorant que les barrières d’accès aux soins réduisaient justement leurs dépenses. Michael Hickson, décédé en 2020 au Texas, à qui l’on a refusé un traitement contre la COVID au motif algorithmique qu’il ne pouvait « ni marcher ni parler », est un des exemples les plus probants du rapport de l’American Civil Liberties Union.

Le problème, comme le soulignent les « Disability Studies » (les études sur le handicap), c’est que l’IA est fondamentalement biaisée contre le handicap. Elle est entraînée selon un modèle médical, où le handicap est perçu comme un « déficit » à réparer, ignorant le modèle social, selon lequel c’est l’environnement qui crée la barrière. Une étude de 2025, citée par Purdue Science, a révélé que seuls 5 % à 11,7 % des descriptions de personnes générées par l’IA (ChatGPT et Gemini) incluaient le handicap, alors que sa prévalence réelle est de 15 % à 27 % de la population — en fonction des pays et des méthodes de calculs.


Les modèles de production du handicap

Les modèles de « production du handicap »

Le handicap est vu comme un problème individuel, directement lié à la condition physique ou mentale de la personne, qui nécessite un traitement ou une guérison ; elle doit être « réparée » pour s'aligner sur la norme. C'est aujourd'hui le modèle de pensée majoritaire dans nos sociétés occidentales.

Le handicap est le résultat des barrières sociétales et environnementales qui limitent l'accès et la participation des personnes ayant des déficiences physiques, sensorielles, intellectuelles et/ou psychiques. C'est notamment le modèle de pensée dominant dans les mouvements militants du handicap.

Il s'agit d'un modèle, introduit par l'Organisation mondiale de la santé (OMS) avec la Classification internationale du fonctionnement, du handicap et de la santé (CIF). Il intègre des éléments des modèles médical et social. Selon ce modèle, le handicap est un juste milieu entre « un problème individuel » et « le résultat des barrières sociétales et environnementales ».

Le handicap est abordé sous l'angle des Droits de la personne, où les principales préoccupations sont l'égalité des droits et la non-discrimination, peu importe la véritable nature de celui-ci. C'est ainsi le modèle de pensée qu'utilise la plupart des associations de défense des droits des personnes handicapées pour mener leurs actions.


🦾 Une conscience, une confiance... et une IA

Et les médecins, dans tout ça ? Elles et ils voient leur « colloque singulier » se transformer en « colloque pluriel ». Ils ne sont plus seuls avec leurs patients : il y a l’IA, les analystes de données, les équipes de développement, les intérêts et valeurs des entreprises éditrices. Comme le rappelle le professeur Stéphane Oustric, président de l’Ordre des médecins français (CNOM) : « La technologie doit rester sous le contrôle du professionnel ; jamais l’inverse. L’IA peut aider au diagnostic, pas remplacer le jugement clinique. »

L’ironie la plus cruelle est peut-être celle de « l’empathie ». Fin 2023, le JAMA Internal Medicine a révélé que les patients jugeaient les réponses de ChatGPT 9,8 fois plus empathiques que celles de vrais médecins. Non pas que la machine « ressente » quoi que ce soit. Simplement, elle n’est pas débordée. Elle a le temps de formuler des politesses et du blabla rassurant qu’un humain surchargé, mû par la rentabilité, a depuis longtemps sacrifiés. Bien souvent, malgré soi.

De la honte au glamour : comment nos lunettes ont échappé aux stigmates du handicap
Pourquoi nos lunettes de vue sont-elles devenues un accessoire de mode, quand un fauteuil roulant reste un symbole de souffrance ? Malick Reinhard plonge dans cette fracture étrange qui révèle nos peurs les plus profondes face au handicap.

À lire également…

Face à ce Far West technologique, l’Europe dégaine son « AI Act ». Entré en vigueur cet été, le texte classe d’office les IA médicales en « haut risque ». La Suisse, elle, n’est pas en reste : elle tente de bâtir son propre « hub d’IA de confiance » via des pôles d’excellence, de NAIPO, en oncologie jusqu'aux déploiements concrets aux Hôpitaux universitaires de Genève (HUG) et au Centre hospitalier universitaire vaudois (CHUV).

Mais la loi ne suffira pas à régler le fond du problème. C’est en tout cas ce que pense la professeure Effy Vayena, bioéthicienne à l'École polytechnique fédérale de Zurich (ETH Zurich). « L’IA n’est ni bonne ni mauvaise, par nature : elle amplifie les valeurs du système qui l’emploie. Si l’on veut qu’elle humanise la médecine, il est impératif que la médecine reste humaine. »

The Velvet Sundown – End the Pain (titre et album réalisés entièrement par une IA)

🩻 La fracture dans l'objectif

Alors oui, je vous l’ai dit : les faits d’aujourd’hui paraîtront ridicules demain. Les « benchmarks » de toutes les meilleures intelligences artificielles du marché seront obsolètes d’ici Noël. C’est la photo du TGV déjà floue. Mais la désillusion initiale, celle qui pousse à écrire un article, ne vient pas de cette vitesse. Elle vient de ce paradoxe central, de cette fracture béante que l’IA ne crée pas, mais qu’elle éclaire d’une lumière plutôt crue.

D’un côté, on y trouve la promesse d’une ou d’un patient « augmenté » qui utilise un chatbot pour traduire sa parole non standard ou décomposer une tâche anxiogène, regagnant ainsi une autonomie qu’on lui a toujours refusée. De l’autre, la réalité d’un système qui « optimise » les soins jusqu’à l’absurde, transformant un être humain en une ligne de tableur, décidant de sa dignité sur la base d’un coût et en privant les plus vulnérables. Ce n’est pas une question de technologie, mais de choix. Et ce fait-là n’a rien de flou. Son avenir, lui, en revanche…


Journaliste, Malick Reinhard vit avec une maladie qui limite considérablement ses mouvements. Dans Couper l’herbe sous les roues, le Suisse propose chaque semaine analyses, témoignages et enquêtes sur le handicap, une réalité qui concerne une personne sur deux au cours de sa vie.


🤩 Vous avez aimé cet article ? Un petit geste, même symbolique, aide à la pérennité de cette infolettre et rend ce rendez-vous accessible à tout le monde — car une personne sur deux vivra le handicap au cours de sa vie. Connaître ces réalités, c’est aussi garantir votre qualité de vie si, un jour, le handicap sonne à votre porte. Merci du fond du cœur pour votre soutien !

Retour au sommet en style