Intelligence artificielle : Un perroquet stochastique extrêmement bien entraîné

« Si on ne va pas chercher l’information, quand on demande aux hommes « êtes-vous
exposé ? », la réponse est presque toujours non. » Pr Jeanne Perrin

En consultation d’infertilité, les expositions environnementales sont rarement identifiées
spontanément. Ni par les patients, ni par les soignants, faute de temps, de formation et
d’outils adaptés.


Lors du congrès Andro-Caraïbes 2025, le Pr Jeanne Perrin, praticienne hospitalière en
médecine et biologie de la reproduction au CHU de Marseille, a posé une question
résolument pragmatique :
➡️ comment intégrer les expositions environnementales dans la prise en charge de
l’infertilité, sans alourdir les consultations et sans culpabiliser les couples ❓

Quand l’exposition n’est ni perçue, ni déclarée

Quand l’exposition n’est ni perçue, ni déclarée
Dans une première étude pilote, l’équipe a évalué les connaissances des patients, leur
perception d’exposition et la réalité des expositions via un questionnaire de dépistage
validé.
Le tabac et l’alcool sont globalement identifiés. En revanche, la chaleur, les solvants ou
certains compléments alimentaires anabolisants restent largement sous-estimés.
➡️ Lorsqu’un dépistage structuré est réalisé, seuls 26 % des hommes chez lesquels une
exposition repro-toxique est identifiée en ont conscience.

 

⚠️Des performances mesurées qui dépendent du contexte

Plusieurs exemples illustrent à la fois le potentiel et les limites de ces outils.

Une étude française a comparé les performances d’un outil de type ChatGPT à celles d’internes et d’experts face à des cas cliniques standardisés : l’IA fait mieux que les internes, mais reste en deçà des experts.

➡️ L’intérêt n’est pas de remplacer, mais d’accompagner la formation.

À l’inverse, une équipe japonaise a montré qu’un algorithme de machine learning pouvait prédire une azoospermie à partir du seul bilan hormonal. Une véritable performance, mais uniquement adaptée à une population japonaise.

⚠️Transposé tel quel à une population caribéenne, l’outil présenterait des biais majeurs.

« Un algorithme n’est jamais meilleur que les données sur lesquelles il a été entraîné », Safouane Hamdi

AlphaFold : quand le deep learning accélère la recherche fondamentale

L’exemple le plus spectaculaire concerne AlphaFold, algorithme de deep learning capable de prédire la structure tridimensionnelle des protéines [1].

Un article publié dans Cell a montré que la liaison spermatozoïdeovocyte repose, chez tous les vertébrés, sur un complexe conservé de trois protéines, du poisson à l’homme [2].

➡️ Le gain de temps scientifique est considérable, avec des perspectives à la fois diagnostiques et contraceptives.

📌 Les auteurs précisent avoir utilisé ChatGPT pour raccourcir et clarifier l’article, tout en assumant pleinement la responsabilité scientifique du contenu – une distinction essentielle.

 

Comprendre l’outil pour le maîtriser

Safouane Hamdi insiste sur un point fondamental : l’IA n’est pas intelligente au sens humain. Les grands modèles de langage reposent sur des probabilités statistiques, pas sur le raisonnement clinique.

« ChatGPT n’est pas intelligent. C’est un perroquet stochastique extrêmement bien entraîné » Safouane Hamdi

⚠️ Cette capacité à produire des réponses rapides et parfaitement formulées explique à la fois leur efficacité et le risque d’erreurs parfaitement plausibles, particulièrement problématiques en santé.

➡️ Au-delà des usages médicaux, la pression économique autour de l’IA constitue un facteur déterminant de son déploiement, parfois indépendamment de sa pertinence clinique.

 

⚖️ Enjeux éthiques, juridiques et responsabilité médicale

Face à ces risques, l’Organisation mondiale de la Santé a défini six principes éthiques pour l’usage de l’IA en santé : supervision humaine, transparence, responsabilité, équité, robustesse et durabilité [3].

➡️ Les cadres juridiques évoluent – loi de bioéthique en France, régulation FDA aux États-Unis, règlement européen sur l’IA adopté en 2024 (IA Act). Ils convergent vers une même exigence : l’IA doit rester un outil d’aide, jamais un décideur autonome.

 

🩺 Former, évaluer, encadrer : le rôle des sociétés savantes

L’IA va s’imposer en santé reproductive. Pour le praticien, cela implique d’identifier les situations où l’IA peut aider (formation, tri, standardisation) et celles où elle ne doit pas intervenir : interprétation clinique, décision thérapeutique, information du patient.

➡️ Les sociétés savantes ont un rôle central à jouer pour évaluer les outils, accompagner les usages et défendre une médecine centrée sur le patient.

« L’intelligence artificielle doit rester une aide, jamais un décideur autonome » Safouane Hamdi

ADDENDUM

Safouane Hamdi ajoute : « Cette conférence a été donnée il y a exactement un an. Depuis, l’usage et les performances des LLM ont suivi une courbe exponentielle mais il n’y a toujours pas de solutions souveraines et réglementairement reconnues pour les utilisations en pratique clinique ou la formation. Une limite va sûrement être franchie mais c’est encore difficile de se projeter derrière. »


Sources

[1] Jumper J, Evans R, Pritzel A, et al. Highly accurate protein structure prediction with AlphaFold. Nature. 2021;596(7873):583–589. doi: 10.1038/s41586-021-03819-2

[2] Zhang L, et al. Conserved protein complex mediates sperm–egg interaction across vertebrates. Cell. 2023;186(2):345–359.e8. doi : 10.1016/j.cell.2024.09.035

[3] World Health Organization. Ethics and governance of artificial intelligence for health. Geneva: WHO; 2021.

Fait avec <3 par l' Agence Moun