La plupart des algorithmes d’intelligence artificielle en imagerie diagnostique ne seraient pas validés de façon correcte pour une utilisation en clinique, selon une méta-analyse coréenne décrite dans la revue Korean Journal of Radiology [1]. Sur 516 études recensées pour l’année 2018 dans les bases PubMed MEDLINE et Embase, seules 31, soit 6 % auraient en effet recours à la validation externe pour tester leurs algorithmes.
Aucune cohorte de test ne présente les critères requis
De plus, aucune n’utiliserait des données de validation collectées à la façon d’une étude de cohorte, au sein de plusieurs centres et de manière prospective. Ces trois caractéristiques de conception sont pourtant recommandées « pour une validation robuste des performances cliniques des algorithmes d’IA », écrivent Kim Dong Wook, du centre de santé et hôpital du comté de Taean-gun, et ses confrères de l’école de médecine de l’université d’Ulsan, à Séoul.
Des données difficiles à collecter
« De façon typique, les déve
Discussion
Aucun commentaire
Commenter cet article