Qui est responsable de la gouvernance de l'IA pour la science et l'ingénierie ?
Auteur:
Thérèse Scassa
Université d'Ottawa
Chaire de recherche du Canada en droit et politique de l'information
La recherche scientifique et l'innovation sont rapidement transformées par les technologies de l'intelligence artificielle (IA). L'IA promet de résoudre certains des défis les plus difficiles auxquels sont confrontés les humains, de la recherche de nouveaux antibiotiques non résistants aux microbes à la résolution des problèmes critiques liés au changement climatique. Pourtant, l'impact de l'IA sur la science va au-delà de l'utilisation de cette puissante nouvelle technologie comme outil ; L'IA est sur le point de transformer de nombreuses autres dimensions de la recherche scientifique. Cela comprend la prise de décisions sur les voies de recherche à poursuivre, les projets de recherche à financer et les chercheurs à soutenir ou à embaucher. L'IA peut également jouer un rôle déterminant dans l'examen par les pairs des demandes de recherche et de subventions, façonnant ainsi les trajectoires de carrière des scientifiques. Les technologies de l'IA poseront de nouveaux défis épistémologiques à la recherche scientifique, car ces technologies parfois impénétrables soulèvent de nouveaux problèmes de reproductibilité et d'explicabilité. Ce ne sont là que quelques-uns des défis identifiés dans Sauts et limites, le rapport 2022 du Conseil des académies canadiennes sur les questions juridiques, éthiques, sociales et politiques soulevées par l'IA en sciences et en génie.
Réaliser le plein potentiel des technologies d'IA en science et en ingénierie signifie anticiper et relever les défis que ces technologies posent pour nos institutions et nos valeurs. Comment garantir la qualité et l'intégrité de la recherche lorsque des outils d'IA complexes et adaptables peuvent fonctionner de manière peu transparente ? Comment concilier les objectifs de la science ouverte avec les données et algorithmes propriétaires dans un contexte de commercialisation très concurrentiel ? Comment garantir que les technologies d'IA utilisées pour évaluer, classer ou évaluer les chercheurs et leurs travaux ne reproduisent pas la discrimination systémique passée dans un domaine qui s'efforce désormais d'atteindre l'équité, la diversité et l'inclusion ? Et comment intégrons-nous l'éthique dans des technologies qui manifestent un tel pouvoir pour transformer notre façon de vivre et d'interagir les uns avec les autres ?
Les risques de biais et de discrimination en IA sont réels. Ces technologies ne seront aussi bonnes que les données qui les alimentent, et nous avons des réserves de données qui ont été amassées dans des systèmes qui ont toujours privilégié certains groupes par rapport à d'autres, créant une discrimination durable et systémique que nous risquons d'intégrer dans nos technologies « intelligentes ». . Bien que ces biais soient plus évidents avec les systèmes d'IA qui reposent sur des données d'origine humaine (telles que des informations personnelles sur la santé), il ne faut pas oublier que les biais et la discrimination ont également eu un impact sur les décisions passées concernant les questions qui méritent d'être étudiées, et de sous quel angle ou perspective ils doivent être étudiés. De telles pratiques façonnent les données disponibles et peuvent intégrer des biais dans l'IA de manière subtile qui doivent être examinées et traitées de manière critique.
Pour l'instant, il est plus facile de poser les questions qu'il faut se poser que d'y répondre, même si un travail considérable est déjà en cours dans la sphère politique. UN prolifération de cadres éthiques pour l'IA ont été élaborés par des acteurs publics, privés et à but non lucratif. Nous commençons également à voir apparaître des formes émergentes de réglementation des risques liés à l'IA, telles que la proposition de l'UE Loi sur l'IA et le Canada Loi sur l'intelligence artificielle et les données qui fait partie de Le projet de loi C-27, actuellement devant le Parlement. Pourtant, bien que ces initiatives soient importantes, elles ne suffisent pas à elles seules. Aborder les questions juridiques, éthiques, sociales et politiques avec l'IA n'est pas une responsabilité qui peut être déléguée à un seul acteur, une institution ou un texte législatif. La gouvernance de l'IA nécessitera l'engagement des gouvernements nationaux et régionaux, ainsi que des organismes internationaux de normalisation. Cela nécessitera l'élaboration de normes éthiques autour desquelles un consensus mondial inclusif pourra être construit. Cela exigera également l'engagement des organismes d'éthique de la recherche, des organismes subventionnaires, des associations professionnelles, des universités – et, en fin de compte, des scientifiques eux-mêmes.