Health

comment cela aidera-t-il ou entravera-t-il ?

Written by admin

jeun cas classique de trouver un équilibre entre les coûts et les avantages de la science, les chercheurs sont aux prises avec la question de savoir comment l’intelligence artificielle en médecine peut et doit être appliquée aux soins cliniques des patients – tout en sachant qu’il existe des exemples où elle met la vie des patients en danger.

La question était au cœur d’un récent séminaire de l’université d’Adélaïde, dans le cadre des mardis de la recherche série de conférencesintitulé “Antidote AI”.

Alors que l’intelligence artificielle gagne en sophistication et en utilité, nous avons commencé à la voir apparaître de plus en plus dans la vie quotidienne. De Contrôle du trafic par IA et études écologiquesà l’apprentissage automatique pour trouver le origines d’une météorite martienne et lire l’art rupestre de la Terre d’Arnhemles possibilités semblent infinies pour la recherche en IA.

Certaines des utilisations les plus prometteuses et les plus controversées de l’intelligence artificielle se situent peut-être dans le domaine médical.

Le véritable enthousiasme que ressentent les cliniciens et les chercheurs en intelligence artificielle pour le perspective d’une aide de l’IA dans les soins aux patients est palpable et honorable. La médecine consiste, après tout, à aider les gens et le fondement éthique est « ne pas nuire ». L’IA fait certainement partie de l’équation pour faire progresser notre capacité à traiter les patients à l’avenir.

L’IA fait certainement partie de l’équation pour faire progresser notre capacité à traiter les patients à l’avenir.

Khalia Primer, candidate au doctorat à la faculté de médecine d’Adélaïde, souligne de nombreux domaines de la médecine où l’IA fait déjà des vagues. “Les systèmes d’IA découvrent des risques sanitaires cruciaux, détecter le cancer du poumondiagnostiquer le diabète, classer les troubles cutanés et déterminer les meilleurs médicaments pour lutter contre les maladies neurologiques.

« Nous n’avons peut-être pas à nous inquiéter d’une montée en puissance des appareils de radiologie, mais quels problèmes de sécurité faut-il prendre en compte lorsque l’apprentissage automatique rencontre la science médicale ? De quels risques et dommages potentiels les travailleurs de la santé devraient-ils être conscients et quelles solutions pouvons-nous mettre sur la table pour nous assurer que ce domaine passionnant continue de se développer ? » demande Primer.

Ces défis sont aggravés, dit Primer, par le fait que “l’environnement réglementaire a eu du mal à suivre” et “la formation en IA pour les travailleurs de la santé est pratiquement inexistante”.

“La formation en IA pour les travailleurs de la santé est pratiquement inexistante.”

Abécédaire Khalia

À la fois clinicien de formation et chercheur en IA, le Dr Lauren Oakden-Rayner, chercheur principal à l’Institut australien d’apprentissage automatique (AIML) de l’Université d’Adélaïde et directeur de la recherche en imagerie médicale au Royal Adelaide Hospital, équilibre les avantages et les inconvénients de l’IA en médecine.

« Comment parle-t-on de l’IA ? » elle demande. Une façon consiste à mettre en évidence le fait que les systèmes d’IA sont aussi performants, voire plus performants que les humains. La deuxième façon est de dire que l’IA n’est pas intelligente.

“Vous pourriez les appeler, la position “hype” de l’IA et la position “contrariante” de l’IA”, déclare Oakden-Rayner. “Les gens ont fait des carrières entières en occupant l’un de ces postes maintenant.”

Oakden-Rayner explique que ces deux positions sont vraies. Mais comment les deux peuvent-ils être corrects ?

« Vous pourriez les appeler la position ‘hype’ de l’IA et la position ‘contrariante’ de l’IA. Les gens ont fait toute une carrière en occupant l’un de ces postes maintenant.

Dr Lauren Oakden-Rayner

Le problème selon Oakden-Rayner réside dans la façon dont nous comparons l’IA aux humains. Une ligne de base assez compréhensible étant donné que nous sommes humain, mais le chercheur insiste sur le fait que cela ne sert qu’à confondre le paysage de l’IA en anthropomorphisant l’IA.

Oakden-Rayner mentionne une étude de 2015 en psychologie comparée – l’étude des intelligences non humaines. Cette recherche a montré que, pour une friandise savoureuse, les pigeons pouvaient être entraînés à détecter le cancer du sein dans les mammographies. En fait, les pigeons n’ont mis que deux à trois jours pour atteindre des performances d’expert.

Bien sûr, personne ne prétendrait une seconde que les pigeons sont aussi intelligents qu’un radiologue qualifié. Les oiseaux n’ont aucune idée de ce qu’est le cancer ou de ce qu’ils regardent. Le “Canon de Morgan” – le principe selon lequel le comportement d’un animal non humain ne doit pas être interprété en termes psychologiques complexes s’il peut plutôt être interprété avec des concepts plus simples – dit que nous ne devrions pas supposer qu’une intelligence non humaine fait quelque chose d’intelligent s’il y a une explication plus simple. Cela s’applique certainement à l’IA.

“Ces technologies ne fonctionnent pas souvent comme nous l’attendons.”

Dr Lauren Oakden-Rayner

Oakden-Rayner raconte également une IA qui a regardé une photo d’un chat et l’a correctement identifié comme un félin – avant de devenir entièrement certain qu’il s’agissait d’une photo de guacamole. L’IA est si sensible à la reconnaissance des formes. Le mélange hilarant chat/guacamole reproduit dans un cadre médical devient beaucoup moins drôle.

Cela amène Oakden-Rayner à se demander : « Cela met-il les patients en danger ? Cela présente-t-il des problèmes de sécurité ? »

La réponse est oui.

Un des premiers outils d’IA utilisé en médecine a été utilisé pour examiner les mammographies, tout comme les pigeons. Au début des années 1990, l’outil a reçu le feu vert pour une utilisation dans la détection du cancer du sein chez des centaines de milliers de femmes. La décision était basée sur des expériences en laboratoire qui ont montré que les radiologues amélioraient leurs taux de détection lors de l’utilisation de l’IA. Génial, non ?

Vingt-cinq ans plus tard, une étude de 2015 a examiné l’application réelle du programme et les résultats n’étaient pas si bons. En fait, les femmes étaient moins bien loties là où l’outil était utilisé. La conclusion pour Oakden-Rayner est que “ces technologies ne fonctionnent pas souvent comme nous l’attendons”.

L’IA a tendance à être moins performante pour les patients les plus à risque – en d’autres termes, les patients qui nécessitent le plus de soins.

De plus, Oakden-Rayner note qu’il existe 350 systèmes d’IA sur le marché, mais seulement cinq environ ont été soumis à des essais cliniques. Et l’IA a tendance à être moins performante pour les patients les plus à risque – en d’autres termes, les patients qui nécessitent le plus de soins.

L’IA s’est également révélée problématique lorsqu’il s’agit de différents groupes démographiques. Les systèmes de reconnaissance faciale disponibles dans le commerce se sont avérés peu performants sur les personnes noires. “Les entreprises qui ont réellement pris cela en compte, sont revenues et ont corrigé leurs systèmes en se formant sur des ensembles de données plus diversifiés”, note Oakden-Rayner. « Et ces systèmes sont maintenant beaucoup plus égaux dans leur rendement. Personne n’a même pensé à essayer de le faire lorsqu’ils ont construit les systèmes à l’origine et les ont mis sur le marché. »

Beaucoup plus inquiétant est un algorithme utilisé aux États-Unis par les juges pour déterminer la peine, la libération sous caution, la libération conditionnelle et pour prédire la probabilité de récidive chez les individus. Le système est toujours utilisé malgré les rapports des médias de 2016 selon lesquels il était plus probable qu’il se trompe en prédisant qu’une personne noire récidive.

Alors, où cela laisse-t-il les choses pour Oakden-Rayner ?

« Je suis une chercheuse en intelligence artificielle », dit-elle. «Je ne suis pas seulement quelqu’un qui fait des trous dans l’IA. J’aime beaucoup l’intelligence artificielle. Et je sais que la grande majorité de mon discours porte sur les méfaits et les risques. Mais la raison pour laquelle je suis comme ça, c’est parce que je suis clinicien, et nous devons donc comprendre ce qui peut mal tourner, afin de pouvoir le prévenir.

“J’aime beaucoup l’intelligence artificielle […] nous devons comprendre ce qui peut mal tourner, afin de pouvoir le prévenir.

Dr Lauren Oakden-Rayner

Selon Oakden-Rayner, la clé pour rendre l’IA plus sûre est de mettre en place des normes de pratique et des lignes directrices pour la publication d’essais cliniques impliquant l’intelligence artificielle. Et, croit-elle, tout cela est très réalisable.

Le professeur Lyle Palmer, maître de conférences en épidémiologie génétique à l’Université d’Adélaïde et également chercheur principal à l’AIML, souligne le rôle que joue l’Australie-Méridionale en tant que centre de recherche et de développement sur l’IA.

S’il y a une chose dont vous avez besoin pour une bonne intelligence artificielle, dit-il, ce sont les données. Données diverses. Et beaucoup. L’Australie-Méridionale est un endroit privilégié pour les grandes études sur la population étant donné les vastes antécédents médicaux de l’État, explique Palmer. Mais il fait également écho aux sentiments d’Oakden-Rayner selon lesquels ces tests doivent inclure divers échantillons pour saisir les différences entre les différentes données démographiques.

« Tout cela est possible. Nous avons la technologie pour le faire depuis des lustres.

Professeur Lyle Palmer

“Quelle chose cool ce serait si tout le monde en Australie-Méridionale avait sa propre page d’accueil, où tous leurs résultats médicaux étaient publiés et où nous pouvions les engager dans la recherche médicale, et toute une gamme d’autres activités autour de choses comme la promotion de la santé”, Palmer dit avec enthousiasme. « Tout cela est possible. Nous avons la technologie pour le faire depuis des lustres.

Palmer dit que cette technologie est particulièrement avancée en Australie – en particulier en Australie-Méridionale.

Ces données historiques peuvent aider les chercheurs à déterminer, par exemple, la durée de vie d’une maladie pour mieux comprendre ce qui provoque le développement de maladies chez différents individus.

Pour Palmer, l’IA va être essentielle en médecine compte tenu des “temps difficiles” des soins de santé, y compris dans le pipeline de distribution de médicaments, qui voit de nombreux traitements ne pas atteindre les personnes qui en ont besoin.

L’IA peut faire des choses merveilleuses. Mais, comme le prévient Oakden-Rayner, c’est une erreur de le comparer aux humains. Les outils ne sont aussi bons que les données que nous les alimentons et, même dans ce cas, ils peuvent commettre de nombreuses erreurs bizarres en raison de leur sensibilité aux modèles.

L’intelligence artificielle transformera la médecine (plus lentement que certains ne l’ont suggéré dans le passé, semble-t-il) à coup sûr. Mais, tout comme la nouvelle technologie elle-même est destinée à soigner les patients, les créateurs humains de la technologie doivent s’assurer que la technologie est elle-même sûre et ne fait pas plus de mal que de bien.



About the author

admin

Leave a Comment