Les pathologistes humains sont largement formés pour reconnaître le moment où des échantillons de tissus d’un patient se retrouvent accidentellement sur les lames d’un autre patient (un problème appelé contamination tissulaire). Cependant, une telle contamination peut facilement confondre les modèles d’intelligence artificielle (IA) qui sont souvent formés dans des environnements vierges et simulés, rapporte une nouvelle étude de Northwestern Medicine.

«Nous entraînons les IA à distinguer «A» de «B» dans un environnement artificiel très propre, mais dans la vraie vie, l’IA verra une variété de matériaux sur lesquels elle n’a pas été formée. “Quand elle fait cela, des erreurs peuvent se produire”, a déclaré l’auteur correspondant, le Dr. Jeffery Goldstein, directeur de pathologie périnatale et professeur adjoint de pathologie périnatale et d’autopsie à la Feinberg School of Medicine de l’Université Northwestern.

« Nos résultats rappellent que l’IA qui fonctionne incroyablement bien en laboratoire peut potentiellement échouer dans le monde réel. Les patients doivent continuer à s’attendre à ce qu’un expert humain prenne la décision finale concernant les diagnostics sur les biopsies et autres échantillons de tissus. Les pathologistes craignent – ​​et les sociétés d’IA l’espèrent – ​​que les ordinateurs prennent le pas sur nos emplois. Pas encore.”

Dans la nouvelle étude, les scientifiques ont formé trois modèles d’IA pour scanner des lames de microscope de tissu placentaire afin (1) de détecter les dommages aux vaisseaux sanguins ; (2) estimer l’âge gestationnel ; et (3) classer les lésions macroscopiques. Ils ont formé un quatrième modèle d’IA pour détecter le cancer de la prostate dans les tissus prélevés lors de biopsies à l’aiguille. Lorsque les modèles étaient prêts, les scientifiques ont exposé chaque modèle à de petits morceaux de tissus contaminés (vessie, sang, etc.) prélevés au hasard sur d’autres lames. Enfin, ils ont testé les réactions des IA.

L’étude a révélé que chacun des quatre modèles d’IA accordait trop d’attention à la contamination des tissus, entraînant des erreurs dans le diagnostic ou la détection des lésions vasculaires, de l’âge gestationnel, des lésions et du cancer de la prostate.

Les résultats ont été publiés dans la revue plus tôt ce mois-ci Pathologie moderne. Il s’agit de la première étude examinant comment la contamination des tissus affecte les modèles d’apprentissage automatique.

“Pour un humain, nous appellerions cela une distraction, comme un objet brillant et brillant.”

La contamination des tissus est un problème bien connu des pathologistes, mais elle surprend souvent les chercheurs ou les médecins non pathologistes, selon l’étude. Un pathologiste examinant 80 à 100 lames par jour peut s’attendre à en trouver deux à trois contenant des contaminants, mais il a été formé pour les ignorer.

Lorsque les gens examinent des tissus sur des lames, ils ne peuvent regarder qu’une zone limitée au microscope, puis passer à une nouvelle zone, et ainsi de suite. Après avoir examiné l’ensemble de l’échantillon, ils combinent toutes les informations recueillies pour établir un diagnostic. Un modèle d’IA fonctionne de la même manière, mais l’étude a révélé que l’IA est facilement induite en erreur par les polluants.

“Le modèle d’IA doit décider à quelles parties prêter attention et à quelles parties ne pas prêter attention, et c’est une somme nulle”, a déclaré Goldstein. « S’il prête attention à la contamination des tissus, il accorde alors moins d’attention aux tissus du patient examiné. Pour un humain, nous appellerions cela une distraction, comme un objet brillant et brillant.

Les modèles d’IA ont accordé une grande attention aux polluants, ce qui suggère que les contaminants biologiques ne peuvent pas être codés. Les praticiens devraient s’efforcer de quantifier et d’améliorer ce problème, affirment les auteurs de l’étude.

Des scientifiques de l’IA en pathologie ont examiné divers types d’artefacts d’image tels que le flou, les débris sur la lame, les rides ou les bulles, mais c’est la première fois qu’ils examinent la contamination des tissus.

« Convaincu que l’IA pour le placenta est réalisable »

Les pathologistes périnatals comme Goldstein sont extrêmement rares. En fait, il n’y en a que 50 à 100 dans l’ensemble des États-Unis, la plupart dans de grands centres universitaires, a déclaré Goldstein. Cela signifie que seulement 5 % des placentas aux États-Unis sont examinés par des experts humains. À l’échelle mondiale, ce chiffre est encore plus faible. L’intégration de ce type d’expertise dans les modèles d’IA pourrait aider les pathologistes de tout le pays à faire leur travail mieux et plus rapidement, a déclaré Goldstein.

“Je suis en fait très enthousiasmé par la façon dont nous avons réussi à construire les modèles et à quel point ils ont fonctionné avant de les casser intentionnellement pour l’étude”, a déclaré Goldstein. « Nos résultats me rendent convaincu que les évaluations du placenta par l’IA sont réalisables. Nous avons rencontré un réel problème, mais après avoir atteint ce ralentisseur, nous sommes sur la bonne voie pour mieux intégrer l’utilisation de l’apprentissage automatique dans la pathologie.



Source