Éthique

Quelles stratégies pour limiter les biais des systèmes d’IA ?

Une session du RSNA 2022 s'est intéressée aux défis éthiques de l'intelligence artificielle, et notamment l'identification et la réduction des biais. La radiologue américaine Zi Zhang a présenté des stratégies pour éviter ces biais lors du développement, de l'évaluation et du déploiement clinique des systèmes.

icon réservé aux abonnésArticle réservé aux abonnés
Le 14/12/22 à 8:00, mise à jour aujourd'hui à 14:10 Lecture 4 min.

« Les biais peuvent se cacher dans les données, dans les algorithmes et dans les applications cliniques. Ils reflètent souvent des déséquilibres profonds dans les structures institutionnelles et les relations sociales », relève Zi Zhang. © C. F.

Les considérations éthiques de l’intelligence artificielle (IA) en radiologie étaient l’un des sujets saillants du RSNA 2022. Le 27 novembre, une session a traité la question des biais de l’IA. « Les biais peuvent se cacher dans les données, dans les algorithmes et dans les applications cliniques », a souligné Zi Zhang, professeure assistante de radiologie à l’hôpital universitaire Jefferson, à Philadelphie.

La communauté médicale sur le qui-vive

Selon elle, ces biais reflètent souvent des déséquilibres profonds dans les structures institutionnelles et les relations sociales. Des considérations techniques et sociales doivent donc être apportées pour les identifier, les réduire et, in fine les éliminer des systèmes d’IA. Concernant cette problématique, l’intervenante cite une déclaration multisociétaire commune entre l’Europe et l’Amérique du Nord, publiée en 2019 dans la revue Radiology [1]. Le document stipule que la responsabilité ultime de l'IA incombe à ses concepteurs et à ses opéra

Il vous reste 82% de l’article à lire

Docteur Imago réserve cet article à ses abonnés

S'abonner à l'édition
  • Tous les contenus « abonnés » en illimité
  • Le journal numérique en avant-première
  • Newsletters exclusives, club abonnés

Abonnez-vous !

Docteur Imago en illimité sur desktop, tablette, smartphone, une offre 100% numérique

Offre mensuelle 100 % numérique

23 €

par mois

S’abonner à Docteur Imago

Auteurs

Carla Ferrand

Journaliste cheffe de rubrique

Voir la fiche de l’auteur

Bibliographie

  1. Raymond Geis J., Brady A. P., Carol C. et coll., « Ethics of artificial intelligence in radiology: summary of the joint european and north american multisociety statement », Radiology, novembre 2019, vol. 293, n° 2, p. 241-244. DOI : 10.1148/radiol.2019191903.
  2. Vokinger K. N., Feuerriegel S., Kesselheim A. S. et coll., « Mitigating bias in machine learning for medicine », Nature Communications Medicine, 2021, vol. 1, n° 25. DOI : 10.1038/s43856-021-00028-w.
  3. Zou J., Schiebinger L., « AI can be sexist and racist – it’s time to make it fair », Nature, juillet 2018, vol. 559, p. 324-326. DOI : 10.1038/d41586-018-05707-8.

Discussion

Aucun commentaire

Laisser un commentaire

Le fil Docteur Imago

13 Mar

16:20

Un système d'IA a démontré une haute sensibilité pour détecter les pneumothorax importants sur les radiographies en décubitus dorsal, aidant ainsi à identifier les patients nécessitant un drainage pleural (étude).

13:59

Le score individualisé de récidive précoce basé sur l'IRM (MERIS) serait plus performant que les systèmes pronostiques basés sur l'analyse pathologique pour prédire le risque de récidive précoce après résection d'un CHC solitaire de 5 cm ou moins (étude).

7:30

12 Mar

16:00

La TEP-TDM au 18F-FDG est un outil diagnostique à haut rendement pour les fièvres d'origine inconnue, avec une performance optimale chez les patients présentant des marqueurs inflammatoires élevés, de la fièvre au moment de l’imagerie et une utilisation antérieure limitée d’antibiotiques, conclut une étude présentée dans JNM.  
Docteur Imago

GRATUIT
VOIR