Rapidité contre vérité : conférer une légitimité à un système rapide

Publié le: juin 2023Catégories: Série éditoriale 2023, Éditoriaux, Thème 3 : ChatGPT

Auteurs):

Dean Honte

Université de la Saskatchewan

doctorat Candidat

Tête d'un homme blanc chauve avec une barbiche. Le mur derrière lui a de nombreux petits cadres de photos.
Clause de non-responsabilité : La version française de cet éditorial a été auto-traduite et n’a pas été approuvée par l’auteur.

Je n'ai absolument aucun intérêt matériel dans le succès ou l'échec d'un système ou d'une entreprise d'IA donné, du moins pas plus ou moins que toute autre personne sans investissement monétaire en eux. 

Je ne suis pas non plus la première ou la seule personne à suggérer que l'IA, et plus précisément les grands modèles de langage (LLM), ne constituent peut-être pas des risques existentiels au sens de nos pires cauchemars de science-fiction. Mais, contrairement à ces cauchemars, je pense qu'il y a des progrès de l'IA qui pourraient signifier quelque chose qui s'apparente à une extinction sociale. Cependant, même cette prédiction peut être tempérée par une réglementation et une gouvernance raisonnables, si nous comprenons les éléments fondamentaux qui doivent être réglementés. 

Commençons ici : l'innovation devient de plus en plus difficile. Les preuves et les anecdotes sur cet argument sont partout, mais je vais présumer ce point sur l'article de Jones de 2009 dans la Review of Economic Studies, "The Burden of Knowledge" (https://www.jstor.org/stable/20185091) . Les nouveaux inventeurs sont confrontés à une charge éducative croissante car chaque génération précédente a repoussé la frontière du savoir de plus en plus loin. C'est pourquoi, dans une certaine mesure, les scientifiques universitaires et industriels se sont de plus en plus spécialisés – cela réduit le fardeau. 

L'une des solutions potentielles à ce fardeau proposée par Jones est qu'il pourrait y avoir une technologie future qui rende la diffusion/acquisition des connaissances suffisamment efficace pour que le coût pour atteindre la frontière des connaissances soit réduit. L'IA et les LLM ressemblent exactement à ce type de technologie - et c'est formidable ! 

Mais pour qu'un LLM améliore le processus de diffusion et d'acquisition, il devrait battre le statu quo - Internet tel qu'il existe aujourd'hui. À l'heure actuelle, je peux trouver des informations crédibles, perspicaces et réfléchies sur Internet avec une relative facilité sans l'utilisation d'une IA générative. Cependant, je dois encore passer beaucoup de temps à réfléchir de manière critique aux résultats que me donne un moteur de recherche : je dois passer au crible les articles pour trouver ce qui est le plus ou le moins lié à ce qui m'intéresse réellement et, je dois décider après coup ce qui Je pense que cela devrait en fait avoir de l'importance dans la façon dont je vois le sujet à portée de main. Alors, comment un LLM pourrait-il améliorer cela? La réponse évidente est qu'il peut synthétiser et distiller beaucoup d'informations dans moins d'espace et nécessite moins de temps pour parvenir à la compréhension. C'est aussi, peut-être, super !

Le coût de cela est que nous commençons à obtenir des réponses à des questions importantes qui "ressemblent à ce qu'une réponse devrait ressembler, ce qui est différent de ce qu'une réponse devrait être" (https://spectrum.ieee.org/gpt-4-calm-down). À mesure que l'IA générative s'améliore, nous sommes susceptibles de lui conférer de plus en plus d'autorité et, de facto, de ses créateurs. Lorsque cela se produit, nous avons conféré l'autorité à un système qui, par nécessité, a réduit la complexité à la simplicité. 

Nous nous soumettons au processus d'IA générative et lui donnons autorité sur une grande partie de la vérité, en échangeant du temps et des efforts contre la simplicité. 

 Cela nous amène à ma critique et à mon appel à une bonne gouvernance de l'IA et des LLM. Sam Altman, PDG d'OpenAI et leader apparent de l'IA générative qui façonne le marché à l'heure actuelle, a récemment plaidé en faveur d'une réglementation de l'IA auprès du Sénat américain. Il devrait être applaudi pour cela, mais nous ne pouvons pas ignorer son énorme intérêt dans le succès d'OpenAI - si des murs réglementaires sont construits de telle sorte que le fardeau de la concurrence est trop lourd, alors nous lui avons conféré, ainsi qu'à ses collègues FAANG, une autorité. 

C'est le premier compromis, et peut-être le plus évident, que les décideurs doivent prendre en compte lorsqu'ils abordent la réglementation de l'IA. Comment concevons-nous une barrière à l'entrée suffisamment faible pour permettre l'entrée et la concurrence (c'est-à-dire : pour non seulement légitimer et aider les plus grandes entreprises technologiques à monopoliser cet espace) tout en réglementant également un produit potentiellement socialement corrosif ?

 

Si nous imaginons un monde où l'IA générative a une "expertise" et l'autorité conférée de convoquer de manière fiable cette expertise pour nous expliquer le monde, cela soulage une partie du fardeau de la connaissance. Mais si les systèmes, ou les personnes qui construisent les systèmes, qui nous expliquent le monde le font d'une manière qui alimente notre besoin de simplicité, nous perdons la complexité et la richesse du monde qui nous donne la vérité. 

Lorsque j'ai demandé à ChatGPT comment nous devrions réglementer les LLM afin que leurs avantages sociaux soient maximisés tout en minimisant leurs coûts, on m'a proposé plus de dix idées potentielles :

«Pour réglementer efficacement les grands modèles linguistiques (LLM), tenez compte de la transparence, de la responsabilité, de la confidentialité des données, de la détection des préjugés, de l'assurance qualité, de l'audit algorithmique, de la collaboration, des directives éthiques, de la surveillance, de l'éducation et de la coopération internationale. Cette approche vise à maximiser les avantages tout en minimisant les risques.

ChatGPT a également pu facilement développer chacune de ces idées, apportant un peu plus de nuances et de profondeur à ce qui est, franchement, des idées si larges qu'elles sont inutilisables. Cela me semble bien ! Mais, dans un monde où les LLM sont nettement plus puissants que ce que nous avons aujourd'hui, et où nous leur conférons de plus en plus d'autorité, ils nous offrent encore une autre fenêtre pour nous isoler les uns des autres. Nous perdons la complexité et le désordre lorsque nous recherchons le simple et nous devons nous méfier de cette simplicité… de ce manque de vérité. 

La réglementation de l'IA et des LLM devrait viser à empêcher un avenir où nous renonçons à la vérité au profit de l'approximation la plus rapide de celle-ci. Je ne crois pas que nous nous dirigeons vers un monde où les humains sont détruits par une IA sensible, mais nous pourrions nous diriger vers un monde où nous détruisons les connexions que nous partageons et la richesse de notre monde incroyablement complexe.