Aide à la décision

La façon dont l’IA justifie ses résultats influencerait les performances diagnostiques du médecin

Une étude a comparé les performances diagnostiques de médecins assistés par l’IA en fonction du niveau d’exactitude et de la façon dont le l’outil justifiait ses prédictions. Leur précision était supérieure quand l’outil décrivait les données qui avaient guidé son raisonnement.

icon réservé aux abonnésArticle réservé aux abonnés
Le 01/12/24 à 15:00 Lecture 3 min.

Quand le conseil de l’IA était correct, la précision diagnostique des médecins était de 92,8 % (± 0.62) avec une explication locale et de 85,3 % (± 0.85) avec une explication globale (photo d'illsutration). D. R.

La précision diagnostique d’un médecin qui utilise un outil d’intelligence artificielle pour l’interprétation des radiographies thoraciques varie en fonction de la façon dont cet outil explique son raisonnement, selon une étude présentée dans Radiology [1].

Huit radiographies avec un conseil d’une IA simulée

Ses auteurs ont rassemblé un panel de 220 médecins, dont 132 radiologues, auxquels ils ont soumis une série de huit radiographies thoraciques (vues frontale et latérale quand elle était disponible), issues de la base de données de l’hôpital Beth Israel Deaconess de Boston, Massachusetts. Chaque examen s’accompagnait d’une suggestion émise par un assistant IA simulé, dont les performances étaient comparables à celles d’un radiologue expert. Les conseils étaient corrects dans six cas sur huit, avec un niveau randomisé de confiance affichée.

Explication locale et globale

Cette IA virtuelle justifiait son conseil de selon deux modalités choisies de façon aléatoire : l’explication «

Il vous reste 75% de l’article à lire

Docteur Imago réserve cet article à ses abonnés

S'abonner à l'édition
  • Tous les contenus « abonnés » en illimité
  • Le journal numérique en avant-première
  • Newsletters exclusives, club abonnés

Abonnez-vous !

Docteur Imago en illimité sur desktop, tablette, smartphone, une offre 100% numérique

Offre mensuelle 100 % numérique

23 €

par mois

S’abonner à Docteur Imago

Auteurs

Jérome Hoff

Rédacteur en chef adjoint BOM Presse Clichy

Voir la fiche de l’auteur

Bibliographie

    Prinster D, Mahmood A, Saria S, et al (2024) Care to Explain? AI Explanation Types Differentially Impact Chest Radiograph Diagnostic Performance and Physician Trust in AI. Radiology 313:e233261. https://doi.org/10.1148/radiol.233261

Discussion

Aucun commentaire

Laisser un commentaire

Le fil Docteur Imago

20 Mar

16:18

Le congrès du Groupe francophone de radiothérapie en urologie (GFRU), aura lieu du 26 au 27 mars au centre de congrès de Lyon (69).

13:00

Une méta-analyse publiée dans European Radiology montre que les systèmes d’intelligence artificielle basés sur le deep learning détectent le cancer de la prostate cliniquement significatif avec une performance comparable à celle des radiologues, avec une légère supériorité en spécificité. L’IA pourrait donc améliorer potentiellement la précision et réduisant les biopsies inutiles grâce à un affinement plus approfondi du modèle.

7:11

Une enquête menée par la société européenne d'imagerie mammaire (EUSOBI) démontre que, malgré des aspects procéduraux très variés dans la biopsie mammaire à aiguille centrale guidée par échographie, des niveaux de stérilité perçus plus élevés ne sont pas associés à une diminution des infections. L'étude met en lumière l'importance de réduire en toute sécurité l’utilisation des ressources et l’impact environnemental.
19 Mar

16:00

La réponse de perfusion à l’adénosine semble être spécifique à chaque organe, conclut une étude parue dans JNM. L’adénosine augmente la perfusion au niveau du cœur, du foie, du côlon et du duodénum, tandis que la perfusion est réduite par l’adénosine dans le cerveau, la rate, les reins, le muscle squelettique et l’os, écrivent les chercheurs.
Docteur Imago

GRATUIT
VOIR