28 Mars 2025

Les biais cognitifs de jugement peuvent être particulièrement prégnants quand une décision doit être prise en ne disposant que d’une information incomplète ou peu nuancée.

Or, en situation d’urgence de soins, où l’incomplétude des informations est fréquente, ces biais peuvent s’avérer particulièrement préjudiciables pour le patient.

Aussi, une équipe de recherche de l’Inserm (Institut national de la santé et de la recherche médicale) et de l’Université de Bordeaux a souhaité mettre au point une méthode d’intelligence artificielle (IA) générative dite LLM (Large Language Model), pour aider à identifier ces biais.

Son travail est publié dans la revue Proceedings of Machine Learning Research

Les modèles LLM sont capables d’imiter des décisions humaines grâce à leur compréhension du langage.

Ils sont à l’origine d’applications célèbres comme ChatGPT ou DeepSeek.

Ils sont notamment capables d’appréhender un texte médical dit « libre », c’est-à-dire un ensemble des données cliniques consignées par le personnel soignant, même si elles ne sont pas organisées dans un schéma pré-établi.

L’équipe a entraîné l’IA à examiner et trier plus de 480 000 dossiers de patients entrés au service des urgences du CHU de Bordeaux entre janvier 2013 et décembre 2021.

Le but était de vérifier la capacité du logiciel à attribuer un score de triage, évaluant la sévérité de la situation clinique d’un patient, à partir de la lecture de son dossier.

Puis l’équipe de recherche a voulu déterminer l’existence éventuelle d’un biais lié au genre dans le triage effectué par les infirmiers dans la vie réelle.

Pour cela, elle a modifié les dossiers examinés par l’IA en modifiant le genre des patients dans les textes cliniques. Ensuite elle a demandé à l’IA d’établir un nouveau score.

Pour lire la suite 🡺 Quand l’intelligence artificielle débusque les biais cognitifs : ça fait mauvais genre

Ou m’écrire à 🡺 gacougnolle@gmail.com