Intelligence artificielle : Un perroquet stochastique extrêmement bien entraîné

L’intelligence artificielle est déjà dans nos pratiques, dans nos formations, et dans le quotidien de nos patients.

« La question n’est pas de savoir si nous allons utiliser l’intelligence artificielle en santé, ni même quand est-ce qu’on va l’utiliser. La question qu’il faut se poser, c’est comment on va l’utiliser » Safouane Hamdi

Lors du congrès Andro-Caraïbes 2025, le Dr Safouane Hamdi, biologiste médical, MCU-PH au laboratoire d’hormonologie du CHU de Toulouse et président de la SALF a proposé une mise au point volontairement sobre, loin de promesses technologiques floues : comprendre ce que fait réellement l’IA, et ce qu’elle ne fait pas.

L’IA précède déjà la médecine

Les usages sociétaux ont largement précédé la médecine. Les adolescents utilisent massivement des outils comme ChatGPT. Demain, ils seront étudiants en santé, puis professionnels. Imaginer que la médecine pourrait rester à l’écart de cette dynamique est illusoire.

« La vraie question n’est pas de savoir si nous allons utiliser l’IA, mais comment nous allons l’utiliser », Safouane Hamdi

➡️ La littérature scientifique en andrologie compte aujourd’hui environ 150 publications intégrant des outils d’IA, avec des usages encore exploratoires mais déjà concrets.

 

⚠️ Des performances mesurées qui dépendent du contexte

Plusieurs exemples illustrent à la fois le potentiel et les limites de ces outils.

Une étude française a comparé les performances d’un outil de type ChatGPT à celles d’internes et d’experts face à des cas cliniques standardisés : l’IA fait mieux que les internes, mais reste en deçà des experts.

➡️ L’intérêt n’est pas de remplacer, mais d’accompagner la formation.

À l’inverse, une équipe japonaise a montré qu’un algorithme de machine learning pouvait prédire une azoospermie à partir du seul bilan hormonal. Une véritable performance, mais uniquement adaptée à une population japonaise.

⚠️ Transposé tel quel à une population caribéenne, l’outil présenterait des biais majeurs.

« Un algorithme n’est jamais meilleur que les données sur lesquelles il a été entraîné », Safouane Hamdi

AlphaFold : quand le deep learning accélère la recherche fondamentale

L’exemple le plus spectaculaire concerne AlphaFold, algorithme de deep learning capable de prédire la structure tridimensionnelle des protéines [1].

Un article publié dans Cell a montré que la liaison spermatozoïdeovocyte repose, chez tous les vertébrés, sur un complexe conservé de trois protéines, du poisson à l’homme [2].

➡️ Le gain de temps scientifique est considérable, avec des perspectives à la fois diagnostiques et contraceptives.

📌 Les auteurs précisent avoir utilisé ChatGPT pour raccourcir et clarifier l’article, tout en assumant pleinement la responsabilité scientifique du contenu – une distinction essentielle.

 

Comprendre l’outil pour le maîtriser

Safouane Hamdi insiste sur un point fondamental : l’IA n’est pas intelligente au sens humain. Les grands modèles de langage reposent sur des probabilités statistiques, pas sur le raisonnement clinique.

« ChatGPT n’est pas intelligent. C’est un perroquet stochastique extrêmement bien entraîné » Safouane Hamdi

⚠️ Cette capacité à produire des réponses rapides et parfaitement formulées explique à la fois leur efficacité et le risque d’erreurs parfaitement plausibles, particulièrement problématiques en santé.

➡️ Au-delà des usages médicaux, la pression économique autour de l’IA constitue un facteur déterminant de son déploiement, parfois indépendamment de sa pertinence clinique.

 

⚖️ Enjeux éthiques, juridiques et responsabilité médicale

Face à ces risques, l’Organisation mondiale de la Santé a défini six principes éthiques pour l’usage de l’IA en santé : supervision humaine, transparence, responsabilité, équité, robustesse et durabilité [3].

➡️ Les cadres juridiques évoluent – loi de bioéthique en France, régulation FDA aux États-Unis, règlement européen sur l’IA adopté en 2024 (IA Act). Ils convergent vers une même exigence : l’IA doit rester un outil d’aide, jamais un décideur autonome.

 

🩺 Former, évaluer, encadrer : le rôle des sociétés savantes

L’IA va s’imposer en santé reproductive. Pour le praticien, cela implique d’identifier les situations où l’IA peut aider (formation, tri, standardisation) et celles où elle ne doit pas intervenir : interprétation clinique, décision thérapeutique, information du patient.

➡️ Les sociétés savantes ont un rôle central à jouer pour évaluer les outils, accompagner les usages et défendre une médecine centrée sur le patient.

« L’intelligence artificielle doit rester une aide, jamais un décideur autonome » Safouane Hamdi

ADDENDUM

Safouane Hamdi ajoute : « Cette conférence a été donnée il y a exactement un an. Depuis, l’usage et les performances des LLM ont suivi une courbe exponentielle mais il n’y a toujours pas de solutions souveraines et réglementairement reconnues pour les utilisations en pratique clinique ou la formation. Une limite va sûrement être franchie mais c’est encore difficile de se projeter derrière. »


Sources

[1] Jumper J, Evans R, Pritzel A, et al. Highly accurate protein structure prediction with AlphaFold. Nature. 2021;596(7873):583–589. doi: 10.1038/s41586-021-03819-2

[2] Zhang L, et al. Conserved protein complex mediates sperm–egg interaction across vertebrates. Cell. 2023;186(2):345–359.e8. doi : 10.1016/j.cell.2024.09.035

[3] World Health Organization. Ethics and governance of artificial intelligence for health. Geneva: WHO; 2021.

Fait avec <3 par l' Agence Moun