Réglementer l'IA dans l'incertitude : défis et stratégies

Publié le: août 2023Catégories: Série éditoriale 2023, Éditoriaux, Thème 3 : ChatGPT

Auteurs):

Piers Eaton

Université d'Ottawa

Doctorant

portrait d'un homme blanc en costume bleu.
Clause de non-responsabilité : La version française de cet éditorial a été auto-traduite et n’a pas été approuvée par l’auteur.

Donald Rumsfeld est célèbre pour, entre autres choses, affirmant qu'il existe des connus connus, des inconnus connus et des inconnus inconnus. C'était cette dernière catégorie, les inconnus inconnus, qu'il identifiait comme le type qui avait tendance à être difficile pour ce qu'il considérait comme des pays libres. Contrairement aux pays autoritaires, les pays libres exigent un débat (souvent long) avant de modifier les lois et fonctionnent sur un large consensus, et surtout limitent le pouvoir de ceux qui appliquent la loi et maintiennent l'ordre politique.

L'intelligence artificielle (IA) et les grands modèles de langage (LLM), dont ChatGPT est le plus populaire, impliquent ses trois variations sur le savoir et le non-savoir.

Tout d'abord, les connus connus. Je sais que les étudiants utilisent ChatGPT pour faire leurs devoirs à leur place. Je sais que ChatGPT peut reproduire la première ligne de Hamlet mais a du mal avec la neuvième (bien qu'il puisse y arriver avec quelques conseils).

Deuxièmement, les inconnues connues. L'IA et les LLM sont souvent des boîtes noires, donnant au public (et aux régulateurs) une vue limitée de leurs opérations. Nous ne connaissons pas les détails de la façon dont ChatGPT propose ses réponses. Même s'il s'agissait d'une boîte en verre, avec un jeu de données aussi volumineux que celui de ChatGPT, il n'est pas possible de vraiment savoir comment un LLM crée ses réponses.

Pourtant, la if ChatGPT était une boîte de verre et nous pouvions comprendre toutes ses entrées, comprendrions-nous comment il génère le langage ? Nous comprenons à peine comment les humains ont acquis le langage, cela semble donc douteux. De nombreuses questions restent sans réponse dans ce domaine. ChatGPT pourrait-il créer son propre langage ? Si tel était le cas, suivrait-il la grammaire universelle identifiée par Noam Chomsky ? Les humains seraient-ils capables de comprendre un langage produit par ChatGPT ?

D'autres inconnues connues incluent le taux d'amélioration. Nous ne pouvons que deviner quand les LLM atteindront des jalons particuliers. Le moment où cela aura un impact sur certains secteurs d'emploi est également une inconnue connue.

Et, comme Rumsfeld l'a affirmé, les inconnues inconnues ont tendance à être les plus difficiles. Comme Nick Bostrom l'a noté dans son travail Superintelligence, une IA suffisamment intelligente utiliserait des moyens que nous ne pouvons pas anticiper, aurait des objectifs que nous n'y avons pas programmés et serait capable de sortir de notre contrôle par des moyens que nous ne verrions peut-être pas venir. Bien que ces problèmes soient eux-mêmes des inconnues connues, ils suggèrent la possibilité d'inconnues extrêmement importantes.

Cette réalité suggère que l'élaboration de la législation entourant l'IA et les LLM se déroule dans des conditions d'incertitude intense. Beaucoup de réglementation est faite dans ce genre de circonstances. La fameuse "Section 230" de l'American Communications Decency Act de 1996, qui protège les sites Web de la responsabilité du contenu généré par les utilisateurs sur leurs sites Web, est nécessaire au fonctionnement des sites de médias sociaux comme Facebook et Twitter (maintenant X), et vraiment n'importe où sur Internet qui autorise le contenu généré par l'utilisateur. Mais la loi n'a évidemment pas été adoptée en pensant aux médias sociaux, car la création de ces sites est intervenue des années plus tard et a été facilitée par les essais et erreurs de précurseurs qui s'appuyaient également sur l'article 230.

Mais l'histoire de l'article 230 montre exactement pourquoi il est si important d'élaborer une bonne législation dans des situations d'incertitude. L'article 230 a été critiqué par les conservateurs, qui estiment qu'il permet un parti pris anti-conservateur sur les plateformes (ou alternativement, ils soutiennent que si les plateformes vont censurer le discours conservateur, elles assument le rôle d'"éditeurs" et ne devraient donc pas bénéficier des protections de l'article 230). Les libéraux soutiennent que l'article 230 protège les sites qui autorisent la parole non protégée et leur permet de se soustraire à leurs responsabilités de protéger leurs utilisateurs contre les contenus préjudiciables. Alors que l'opposition à l'article 230 est divisée, le soutien à la disposition est uni et ils ont l'avantage d'avoir à défendre le statu quo.

Parce qu'il y a moins de points de veto dans le processus législatif au Canada qu'aux États-Unis, il peut être plus facile pour notre parlement de réviser les lois. Dans le même temps, le Canada, avec un secteur technologique plus petit que les États-Unis - dont la Silicon Valley est un pôle technologique mondial - devra adopter une position ferme et diriger s'il veut avoir un effet significatif sur la réglementation de l'IA et des LLM.

Il existe quelques façons de rendre la législation dans l'incertitude plus efficace que les politiciens peuvent adopter. La première consiste à donner à ceux qui appliquent la législation, tels que les régulateurs, les bureaucrates et les juges, une marge de manœuvre suffisante dans la manière de faire appliquer la loi. Étant donné que des situations imprévues se produiront, un manque de souplesse dans l'application peut produire des résultats sous-optimaux. Dans les pires circonstances, cela peut forcer les régulateurs à produire sciemment de mauvais résultats.

La deuxième façon de légiférer efficacement dans l'incertitude est de rendre très clair l'objectif de la législation. Il ne suffit pas que l'objectif soit mentionné dans les discussions parlementaires et les conférences de presse avec les ministres ; l'objectif devrait être mentionné dans la législation elle-même. Un objectif clair permettra aux régulateurs et aux juges chargés de l'application de la législation d'identifier clairement les cas où l'application est en deçà - ou même contraire - aux objectifs de la législation.

Enfin, veiller à ce que les régulateurs soient régulièrement responsables devant les institutions démocratiques dont ils tirent leur autorité. S'ils doivent régulièrement se présenter devant le parlement pour expliquer comment ils atteignent les objectifs qui leur sont fixés, ils doivent alors expliquer comment ils s'adaptent aux nouvelles situations et élaborent de nouvelles stratégies. Cela permet également au Parlement d'évaluer si les régulateurs actuels doivent être remplacés.

Ces deux dernières stratégies législatives atténuent une inquiétude qui peut découler de la première stratégie de réduction de l'incertitude – l'érosion de l'autorité des institutions démocratiques par la plus grande marge de manœuvre des instances non démocratiques. L'autonomisation des institutions non démocratiques peut conduire à un État bureaucratique qui poursuit ses propres fins plutôt que celles définies par ses créateurs, de sorte que garantir la responsabilité peut aider à atténuer cette préoccupation.

Il y a toujours un degré auquel les législateurs élaborent une politique dans l'incertitude, mais lorsqu'il s'agit de tout ce qui concerne l'IA et les LLM, les risques et l'incertitude sont plus grands que la normale. Le potentiel de nombreuses inconnues inconnues entourant les LLM rend une législation claire dans ses objectifs et flexible dans sa mise en œuvre, avec des régulateurs responsables, essentiels pour une réglementation efficace.