L'intelligence artificielle dans la recherche scientifique : problèmes courants et solutions potentielles

Publié le: septembre 2023Catégories: Série éditoriale 2023, Éditoriaux, Thème 3 : ChatGPT

Auteurs):

Connor Nurmi

Université McMaster

Doctorant en biochimie

Momoko Ueda, PhD

Science des données et automatisation à la HirePhD Career Society

Un collège de portraits d'un homme blanc en costume bleu et d'une femme asiatique
Clause de non-responsabilité : La version française de cet éditorial a été auto-traduite et n’a pas été approuvée par l’auteur.

L'émergence récente de chatbots basés sur un grand modèle de langage (LLM) comme celui d'Open AI ChatGPT ont suscité l’intérêt du public pour l’intelligence artificielle (IA). Pour l'amateur moyen d'IA, les chatbots basés sur LLM sont un outil pratique qui peut être facilement utilisé pour effectuer des tâches simples telles que rédiger des e-mails banals, expliquer des sujets difficiles et relire des documents. 

Toutefois, pour les scientifiques, de nouveaux outils d’IA ont été développés, notamment des LLM capables d’analyser des ensembles de données volumineux et complexes, d’identifier des modèles et d’extraire des informations utiles, dans le but ultime d’améliorer l’efficacité de la recherche. Un tel exemple est un outil LLM appelé Obtenir, développé par les scientifiques en IA Jungwon Byun et Andreas Stuhlmüller, qui permet d'extraire automatiquement des informations clés d'études scientifiques telles que la taille de l'échantillon de population, les mesures et les résultats expérimentaux. Bien que ces outils aident les scientifiques à gagner du temps et à améliorer les résultats de la recherche, de nombreux problèmes doivent être résolus et des politiques réglementaires plus strictes doivent être élaborées avant que l’IA puisse être pleinement intégrée au sein de la communauté de recherche.

En général, l’IA, et les LLM en particulier, peuvent être confrontés à des défis imminents lors de la formation de nouveaux modèles génératifs. Un problème important concerne la qualité des données utilisées pour former ces modèles, où les tentatives d'amélioration des ensembles de données peuvent limiter leur efficacité. Prenez ChatGPT, par exemple ; il intègre déjà une grande quantité de données textuelles générées par l'homme et accessibles au public pour générer des réponses aux requêtes. Cependant, si l’on devait mettre à l’échelle un tel modèle pour tenter d’améliorer son efficacité, une solution viable pour augmenter l’ensemble de données de formation pourrait consister à utiliser des données synthétiques ou générées artificiellement. Cependant, cette approche donne involontairement lieu à un phénomène connu sous le nom de «effondrement du modèle», dans lequel le modèle néglige et ignore progressivement les informations moins fréquentes, conduisant finalement à une dégradation des performances. Il est important pour les chercheurs qui souhaitent améliorer la qualité ou la quantité des bases de données utilisées pour entraîner les algorithmes d’IA utilisés dans les études d’éviter de les compléter avec des données synthétiques. Les bases de données existantes doivent également être soigneusement inspectées et vérifiées avant utilisation afin d’éviter d’utiliser involontairement des données générées artificiellement.

Une autre considération critique à l’horizon pour faire progresser les modèles linguistiques consiste à utiliser du texte généré par l’homme et ancré dans domaines sensibles comme les données du patient ou confidentielles. Cette question devient particulièrement pertinente lorsque l’on envisage l’application des LLM à la recherche médicale, où l’intégration des données des patients pourrait considérablement améliorer les capacités du modèle. Méthodes sur la façon de accéder L'accès aux informations sur le fonctionnement interne de la base de données utilisée pour former le LLM est relativement simple et pourrait être effectué par des personnes ayant une expertise informatique limitée en IA, et pourrait potentiellement être utilisé pour accéder aux informations confidentielles des patients qui y sont intégrées. Il faut veiller à préserver la confidentialité et à empêcher toute information identifiable sur le patient de pénétrer dans l'ensemble de données de formation, et les chercheurs doivent prendre toutes les précautions nécessaires pour garantir la sécurité de la plateforme d'IA utilisée.

Les plates-formes d’IA utilisées dans la recherche scientifique ont également été critiquées en raison de leur utilisation excessive, où il a été continuellement démontré que les techniques statistiques traditionnelles surpassent les nouvelles plates-formes d’IA pour la même application. Par exemple, un 2019 Avis publié dans le Journal of Clinical Epidemiology, a examiné 71 études utilisant l'apprentissage automatique (ML), un type de plate-forme d'IA, pour prédire le diagnostic clinique ou les résultats de diverses maladies et n'a trouvé aucune preuve d'une prédiction supérieure à l'aide des méthodes d'apprentissage automatique par rapport aux méthodes les plus couramment utilisées. modélisation de régression logistique. Un similaire Avis en 2020, a examiné 15 études qui utilisaient le ML pour prédire les résultats cliniques d'un traumatisme crânien et, encore une fois, n'ont trouvé aucun avantage à son utilisation par rapport aux méthodes statistiques traditionnelles. Il n’existe actuellement aucune politique obligeant explicitement les chercheurs à valider l’utilisation de l’IA dans la modélisation statistique. Ainsi, lignes directrices pour le choix de l’approche statistique devraient être inclus dans les politiques futures qui permettront à la recherche de tirer parti des avantages de l’IA par rapport aux techniques statistiques traditionnelles.

Contrairement à la surutilisation de l’IA, une mauvaise utilisation peut se produire lorsque des ensembles de données mal choisis peuvent conduire au développement de biais, et parfois même sexiste et raciste, modèles d'IA. Google Translate, qui utilise un type d'IA appelé traitement du langage naturel (NLP) pour alimenter son outil de traduction en ligne, utilise souvent par défaut les pronoms masculins plutôt que les féminins lors des traductions de texte. En effet, la base de données Web de langue anglaise utilisée pour entraîner l'algorithme de traduction automatique basé sur la PNL contenait deux fois plus de pronoms masculins que de pronoms féminins. De plus, chaque pronom masculin généré par le programme alimentait la base de données utilisée pour entraîner l'algorithme de traduction, augmentant ainsi le problème via une rétroaction positive. Dans un contexte scientifique, des données de mauvaise qualité utilisées pour former de nouveaux modèles d’IA peuvent conduire à des situations similaires, dans lesquelles des biais peuvent être introduits par inadvertance et générer une boucle de rétroaction positive qui exacerbe le problème. Dans le cas de Google, leur réponse comprenait la création d'une équipe axée sur Gouvernance de l'IA pour examiner les nouvelles applications de recherche en IA afin de détecter tout biais potentiel. Les politiques de recherche scientifique devraient emboîter le pas et plaider en faveur d’une vérification approfondie des biais potentiels dans l’IA et prendre des mesures pour réduire les biais dans les bases de données utilisées pour former les algorithmes d’IA afin de garantir qu’ils sont éthiques et plus efficaces.

À l’heure actuelle, il n’existe aucun cadre réglementaire au Canada pour moduler l’utilisation de l’IA et des LLM. Le projet de loi C-27, qui est une législation actuellement à l'étude à la Chambre des communes, sert à réglementer l'IA à travers le Loi sur l'intelligence artificielle et les données (AÏDA). L'AIDA décrit les exigences relatives aux nouveaux modèles d'IA pour répondre aux utilisations prévues et aux limites de la plate-forme, aux biais potentiels et fournir des stratégies pertinentes d'atténuation des risques. Cependant, l'AIDA note que ces exigences s'appliquent explicitement aux entreprises et qu'aucune exigence n'est définie pour d'autres applications pertinentes comme la recherche scientifique. Pour la communauté scientifique, l'Organisation de coopération et de développement économiques (OCDE) a récemment publié une examen complet des défis et des opportunités de l'IA dans la recherche qui pourraient servir de modèle pour l'élaboration d'exigences plus ciblées par le biais de l'AIDA. De manière plus proactive, il est essentiel que les établissements de recherche, où une partie importante des nouveaux modèles d’IA sont développés, sensibilisent et établissent potentiellement des politiques exigeant une formation complète des chercheurs concernant les limites inhérentes de l’IA et des LLM. Une approche robuste impliquerait de veiller à ce qu’une telle formation soit enracinée dans les établissements de recherche et les études supérieures, favorisant ainsi une compréhension fondamentale de ces subtilités.