Le cas d'une politique d'utilisation et d'adoption de ChatGPT pour l'administration du secteur public

Auteurs):

Anirban Kundu

Anthèse Conseil

Senior Consultant

Un portrait d'un Indien en costume et lunettes souriant à la caméra.
Clause de non-responsabilité : La version française de cet éditorial a été auto-traduite et n’a pas été approuvée par l’auteur.

Chat Generative Pre-Trained Transformer (« ChatGPT ») est un chatbot basé sur un grand modèle de langage (LLM) développé par OpenAI (un laboratoire de recherche en IA basé à San Francisco) qui a signalé 100 millions d'utilisateurs en seulement 2 mois et a le potentiel de offrir de la valeur dans plusieurs secteurs. Les versions qui ont suivi incluaient GPT-4 et d'autres variantes pour différentes fonctions, par exemple : ChatClimat (un outil basé sur le LLM pour les conversations sur le climat développé par des chercheurs de l'Université de Zurich), BloombergGPT (un modèle LLM pour la finance développé par Bloomberg). De plus, l'industrie selon une analyse de l’Université de Princeton a également prédit que ChatGPT jouerait divers rôles dans les secteurs du marketing, des opérations, de la R&D, de l'ingénierie et du droit, avec un potentiel d'ajout 2.6 à 4.4 billions de dollars en valeur marchande. Compte tenu de la manière dont ChatGPT génère des analyses et des informations de manière efficace, son application dans le secteur public est un développement intéressant à surveiller, ce qui rend d’autant plus important le plaidoyer en faveur d’une politique d’utilisation efficace. 

Toutefois, la politique précède l'application : plaider en faveur d’une politique d’utilisation efficace de ChatGPT dans l’administration publique est essentiel à l’adoption. L'administration publique est régie par la transparence, la responsabilité, l'agilité et une approche centrée sur la société. En conséquence, une politique ChatGPT doit prendre en compte ces nuances à la lumière des avantages, des risques et des limites de l'outil. Ceux-ci comprennent a) transparence, responsabilité et partialité : c'est un défi car le code source des LLM tels que ChatGPT n'est pas très bien compris, b) Efficacité: l'efficacité opérationnelle remarquable de ChatGPT est éclipsée par le besoin d'une puissance de calcul considérable, c) qualité de la sortie générée : bien que ChatGPT s'appuie sur une base de données de formation complète pour générer des réponses, toutes les réponses peuvent ne pas être similaires en termes de profondeur et de qualité, la fiabilité étant régie par la complexité de la requête d'entrée (Remarque : GPT-3 a été formé sur 570 Go de données de formation, donc GPT-4 serait probablement formé sur un volume de données encore plus important, cependant, les détails n'ont pas été divulgués par OpenAI). Étonnamment, en interrogeant ChatGPT, beaucoup de ces points sont apparus (veuillez vous référer à Schéma 1). Bien que l'outil offre efficacité, puissance de traitement des données et support linguistique, ses défis en matière de préoccupations éthiques, de sécurité, de désinformation et de nécessité de diligence raisonnable soulignent la nécessité d'une enquête minutieuse pour son utilisation par l'administration publique.

Schéma 1. Conversation avec ChatGPT (GPT-4) sur l'état de préparation de l'outil pour une utilisation par les politiques publiques et l'administration (pour plus de clarté, au lieu de captures d'écran de la console ChatGPT, les réponses générées ont été collées et partagées sous forme d'image)

A spirituelle parmi les dirigeants du gouvernement américain sur l'adoption de ChatGPT dans l'administration publique fournit un éclairage important sur l'adoption : a) l'absence de politique pour l'utilisation de ChatGPT et l'acceptabilité variable de son utilisation par les agences gouvernementales, b) la nécessité d'établir des garde-fous pour éviter une dépendance inutile, c) le la nécessité d'impliquer les parties prenantes et les experts en innovation pour articuler une politique efficace en matière d'IA, d) la nécessité de garantir la transparence dans l'utilisation et l'alignement sur la vie privée et les droits de propriété intellectuelle. De plus, au Canada, les nouvelles indiquent l'accent mis par le gouvernement provincial sur des garde-fous efficaces contre l'utilisation de l'IA dans le secteur public, garantissant une utilisation transparente et fiable de l'IA. Dans l'ensemble, alors que les agences gouvernementales reconnaissent que ChatGPT (et plus généralement les LLM) sont essentiels pour simplifier les opérations et stimuler l'innovation, elles soulignent également que l'utilisation de ChatGPT dans l'administration publique est à un stade plutôt en développement et nécessite une évaluation éclairée pour élaborer des politiques efficaces.

Voici quelques moyens par lesquels une évaluation éclairée peut être réalisée : a) Gouvernance ChatGPT qui implique le rôle des partenariats multilatéraux pour éclairer les meilleures pratiques tout au long de la chaîne de valeur via i) faciliter la compréhension des risques et des opportunités, ii) établir des normes efficaces, iii) promouvoir l'accès à des outils de pointe, et iv) promouvoir la recherche sur la sécurité de l'IA (Source : Google DeepMind); b) Rôle des partenariats public-privé d'articuler une solution efficace Cadre de gestion des risques liés à l'IA et recommandations à adopter ; c) Nécessité de cadres juridiques et réglementaires efficaces qui prennent en compte la transparence et les considérations éthiques des résultats de ChatGPT, d) Financer davantage de recherche dans les applications ChatGPT et LLM, et le nature et performances comparatives de différents outils à travers différents scénarios pertinents pour l'administration publique. En outre, les directives publiées fournissent des conseils utiles, par exemple, a) le Directive du gouvernement du Canada sur la prise de décision automatisée, dont l’objectif (en résumé) consiste à garantir un faible risque lors du déploiement de décisions fondées sur l’IA, favorisant ainsi également une prise de décision fondée sur les données, en mettant l’accent sur des évaluations approfondies de l’impact des algorithmes d’IA et en mettant les données nécessaires à la disposition du public ; b) L'Observatoire des politiques d'IA de l'OCDE (OECD.AI) qui consolide les contributions et les recherches des parties prenantes pour fournir des analyses politiques fondées sur des preuves sur une multitude de sujets tels que la responsabilité de l'IA, les considérations technologiques et socio-économiques, la cartographie des défis et des opportunités, le paysage réglementaire, etc. Enfin, développer l'alphabétisation du personnel gouvernemental dans ChatGPT (et LLM) l'utilisation éthique, la transparence et l'application sont tout aussi importantes et peuvent être mises en œuvre par a) des efforts de formation, d'apprentissage et de développement, b) l'organisation de sessions d'interaction avec les parties prenantes pour recueillir les commentaires des parties prenantes sur l'utilisation et les garde-fous de ChatGPT, c) le développement continu de contributions améliorées. requêtes, d) être conscient des règles et restrictions d'utilisation, e) assurer les tests pilotes, le suivi et l'évaluation pendant l'exécution, f) mener des audits internes d'IA (Adapté de Guide de démarrage ChatGPT de l'UNESCO dans l'enseignement supérieur). 

L'écosystème LLM et ses outils tels que ChatGPT sont là pour rester. Consciente du fait que de tels écosystèmes et outils offrent de nombreux avantages opérationnels, la gouvernance publique devrait cependant prendre du recul, évaluer de manière critique et identifier la manière la plus efficace d'appliquer ChatGPT (et les LLM en général), tout en garantissant l'intellect humain, les preuves. la prise de décision basée sur la transparence et la transparence ne sont pas diluées dans l’élaboration des politiques publiques et la gouvernance. De plus, un tel effort serait déterminant pour développer des politiques d’utilisation et suivre le rythme de l’intégration de ces outils dans la collecte, l’analyse et la prise de décision modernes de données.