ICTjournal 03/2021

  • Selon
  • Outils
  • Applications
  • Technologies
  • Solutions
  • Ainsi
  • Containers
  • Netzmedien
  • Entreprises
  • Suisse

32 diagnostic médical

32 diagnostic médical Covid-19 Les lacunes des algorithmes pour diagnostiquer la Covid-19 Depuis une année, des spécialistes du monde entier développent des algorithmes pour dépister la Covid-19, en particulier dans les radiographies des poumons. Une méta-étude montre que ces développements souffrent de trop de lacunes pour une utilisation clinique. Rodolphe Koller Depuis l’irruption de la pandémie, de nombreux scientifiques cherchent à mettre au point des algorithmes à même de diagnostiquer les personnes infectées à partir de différentes données. Les développements ont en commun de chercher une alternative aux tests PCR, qui soit plus facile d’accès ou plus précise. Une équipe de l’EPFL a ainsi développé un algorithme pour diagnostiquer une infection à partir du son de la toux enregistré sur un smartphone et la start-up suisse Ava évalue la performance de son bracelet de fertilité pour dépister les personnes infectées par le coronavirus. Si l’exploitation du son de la toux ou des données physiologiques captées par un bracelet, peuvent sembler incongrues pour dépister les personnes infectées, une autre source de diagnostic est déjà bien établie: l’imagerie des poumons. Recherche à l’Hôpital de l’Ile Une équipe de l’Université de Berne et de l’Hôpital de l’Ile, qui compte depuis peu un centre pour l’emploi de l’IA en médecine, a ainsi publié en novembre dernier une étude sur la détection de Covid-19. Entraîné sur un corpus de près de 8000 images de torse aux rayons X, l’algorithme développé par les chercheurs s’est montré plus performant que les spécialistes humains, avec 97% de diagnostic correct, contre 53% pour les radiologues. «Les radiologues sont généralement bons pour détecter les anomalies. Ici aussi, ils ont été presque aussi bons que l’IA. Mais pour classer les pneumonies en cas de Covid-19 et de non-Covid-19, l’ordinateur était largement supérieur. Cela suggère que l’ordinateur peut détecter quelque chose dans les images qui échappe à l’œil humain. Cet aspect fera l’objet d’une attention accrue dans les recherches à venir. Grâce à la synergie entre l’analyse d’images assistée par l’IA et l’expertise des médecins, nous tirons le meilleur parti des nouvelles technologies», commente le professeur Andreas Christe, chef du service de radiologie de l’Hôpital de l’Ile. Des études manquant souvent de rigueur Les recherches menées à l’Université de Berne ne sont pas un cas isolé. Des chercheurs de l’Université de Cambridge ont recensé pas moins de 2200 études publiées l’an dernier ayant en commun d’utiliser le machine learning pour détecter une infection au coronavirus dans des radiographies et des scans des poumons 1 . Suite à l’analyse des 62 études les plus probantes, les chercheurs britanniques dressent un constat amer: «Notre examen révèle qu’aucun des modèles identifiés ne possède un potentiel d’utilisation clinique en raison de défauts méthodologiques et/ou de biais sousjacents». Publié dans Nature, leur article explique que les publications actuelles sur le diagnostic Covid-19, pour prometteuses qu’elles soient, n’ont ni la robustesse ni la reproductibilité pour envisager leur utilisation clinique. Les chercheurs britanniques énumèrent de nombreux manquements tant au niveau des données-images (fiabilité et biais des sources, agrégation de jeux de données disparates, etc.) que des méthodologies employées «à la hâte» (utilisation de populations non représentatives, non-prise en compte des erreurs des tests, etc.). (*) Références 1 «Common pitfalls and recommendations for using machine learning to detect and prognosticate for COVID-19 using chest radiographs and CT scans», Nature Machine Intelligence, Vol 3, Mars 2021 Image: National Cancer Institute / Unsplash.com Collaboration avec les praticiens Outre des recommandations pour combler ces lacunes, les auteurs appellent les concepteurs à collaborer plus étroitement avec les praticiens: «Le lien complexe de tout algorithme d’IA pour la détection, le diagnostic ou le pronostic des infections à COVID-19 avec un besoin clinique clair est essentiel pour une application réussie. Le développement d’algorithmes d’IA nécessite donc une expertise informatique et clinique complémentaire, ainsi que des données de santé de haute qualité. Une évaluation significative de la performance d’un algorithme a plus de chances de se produire dans un cadre clinique prospectif.» 03 / 2021 www.ictjournal.ch © netzmedien ag

diagnostic médical systèmes apprenants 33 S’assurer du bon fonctionnement d’un logiciel apprenant L’agence US du médicament FDA travaille sur une réglementation des dispositifs médicaux dotés d’intelligence artificielle et susceptibles d’apprendre et donc de se modifier une fois déployés. Le framework en cours d’élaboration pourrait inspirer les entreprises. Rodolphe Koller Spécialisée dans le diagnostic médical, Optellum vient de voir son application Virtual Nodule Clinic approuvée par la FDA, l’agence américaine des produits alimentaires et médicamenteux. Destiné à assister les pneumologues et radiologues, le logiciel de la société britannique utilise l’intelligence artificielle pour calculer le risque de cancer d’un patient à partir d’un scanner de ses poumons. C’est la première solution exploitant l’IA dans le diagnostic du cancer du poumon à bénéficier du feu vert de la FDA. «Cette autorisation permettra aux praticiens de disposer de l’aide à la décision clinique dont ils ont besoin pour diagnostiquer et traiter le cancer du poumon au stade le plus précoce possible, en exploitant le potentiel de la collaboration entre les médecins et l’IA – au bénéfice des patients», commente Václav Potešil, cofondateur et CEO d’Optellum Logiciels, algorithmes verrouillés, systèmes apprenants L’utilisation de logiciels à des fins de diagnostic médical est chose courante et les agences de certification – y compris Swissmedic – ont adapté leurs procédures pour certifier des software en tenant compte de leur spécificité. Des règles déterminent notamment les cas où une mise à jour du logiciel nécessite une nouvelle procédure d’autorisation. Avec l’émergence de logiciels médicaux exploitant l’IA, de nouveaux défis apparaissent pour lesquelles les agences devront développer des exigences particulières. La FDA a pour l’heure approuvé des systèmes intelligents dont les algorithmes sont verrouillés, c’est-à-dire qu’ils ne changent pas avec l’utilisation et qu’une même entrée livre à chaque fois le même résultat (static look-up tables, decision trees, complex classifiers), à l’instar de la solution d’Optellum. Les choses sont cependant plus complexes lorsque les dispositifs intelligents ont la capacité d’apprendre lors de leur utilisation dans le monde réel et de se modifier après avoir été déployés. «La nature hautement itérative, autonome et adaptative de ces outils nécessite une nouvelle approche réglementaire du cycle de vie du produit permettant à ces dispositifs de s’améliorer continuellement tout en fournissant des garanties efficaces», explique l’agence américaine dans un document de travail. Quelles exigences pour les systèmes apprenants? Dans son projet de réglementation pour les dispositifs médicaux dotés d’intelligence artificielle apprenant, la FDA explore plusieurs types d’exigences en discussion avec les fabricants. Ces travaux pourraient s’appliquer dans d’autres domaines et notamment aux départements IT et achats lorsqu’ils formulent des exigences à leurs fournisseurs de logiciels dotés d’IA. Une première mesure consiste à demander aux fabricants de soumettre un plan des modifications prévues et de la méthodologie employée pour les mettre en œuvre de manière contrôlée. Les fournisseurs devraient en outre être transparents et faire le suivi de la performance de leur système dans le monde réel. Une deuxième mesure consiste à exiger des fabricants d’adopter des systèmes de qualité et des bonnes pratiques en matière de machine learning. Les exigences concerneraient typiquement la pertinence des données disponibles par rapport au problème clinique; la cohérence des données et le fait qu’elles autorisent une généralisation; la séparation entre les données d’entraînement, de réglage et de test; ainsi que la transparence à la fois des résultats et de l’algorithme. Enfin, un troisième volet concerne l’information donnée cette fois aux utilisateurs. «Promouvoir la transparence est un aspect central de l’approche orientée sur les patients et nous estimons qu’elle est particulièrement importante pour les dispositifs IA médicaux, qui sont susceptibles d’apprendre et de changer avec le temps et qui peuvent intégrer des algorithmes ayant une certaine opacité», explique la FDA. Les fabricants pourraient avoir à décrire les données ayant servi à entraîner l’algorithme, la pertinence des inputs, la logique employée (si possible), le rôle attendu des outputs et les preuves de la performance du dispositif. Pour l’heure, la FDA approuve uniquement des systèmes dont les algorithmes sont verrouillés. Image: umanoide / Unsplash.com «La nature hautement itérative, autonome et adaptative de ces outils nécessite une nouvelle approche réglementaire.» L’agence US du médicament FDA www.ictjournal.ch © netzmedien ag 03 / 2021