Ralentir la boîte de Pandore

Publié le: août 2023Catégories: Série éditoriale 2023, Éditoriaux, Thème 3 : ChatGPT

Auteurs):

George Wang

Ingénieur de recherche en IA / Freelance

Tête d'un homme asiatique portant des lunettes et des cheveux longs.
Clause de non-responsabilité : La version française de cet éditorial a été auto-traduite et n’a pas été approuvée par l’auteur.

Cette pensée me revient sans cesse ces derniers temps : tout est sur le point de devenir vraiment bizarre. Pour l' Ces deux dernières années, j'ai été aux premières loges de la soupe primordiale de la recherche et des startups en matière d'intelligence artificielle (IA). J'ai construit quelques produits basés sur des modèles de langage, consulté sur des outils de musique générative et exploré tous les aspects de l'IA générative, notamment l'image, la transcription audio, la voix, etc. Une vague massive de produits commerciaux arrive, pour laquelle ChatGPT n'est que la pointe de l'iceberg.

L’IA a progressé de manière assez constante de manière exponentielle. Le problème avec la croissance exponentielle est que pendant longtemps, on dirait que rien ne se passe, puis on dirait que quelque chose se passe enfin se passe, et pendant que vous êtes encore en train de traiter quelque chose qui se passe, la croissance explose et… euh oh, tout à coup, tout devient bizarre maintenant. On est toujours dans le « hein, on dirait quelque chose se passe enfin »avec l’IA.

Une certaine pandémie récente a démontré que nous ne sommes pas très doués pour aborder la prochaine phase de croissance exponentielle. Mais Covid ne se souciait pas de ce qui était ou non intuitif pour nous ; le monde juste changé du jour au lendemain de toute façon. Nous nous sommes empressés de réagir et d'aplatir la courbe, mais pas avant. déjà une fatalité qu'il y a pourra être une énorme courbe. Quand il s'agit d'IA, c'est Heureusement, tous les inconvénients ne sont pas comparables à ceux d’une pandémie mondiale. L’IA a un potentiel incroyable à apporter prospérité – certains l’ont même comparé à la découverte du feu ou de l’électricité. Mais il y a un côté le plus sombre, et ce côté croît également de façon exponentielle.

En écrivant ceci, j'ai sauté sur X (anciennement connu sous le nom de Twitter, RIP) et j'ai vu un article sur attaques pratiques sur les canaux latéraux acoustiques sur les claviers. Le modèle présenté dans cet article peut identifier correctement 93 % de vos frappes au clavier à partir de l'audio capté par un appel Zoom. Je vois des nouvelles comme celle-ci plus souvent que ce qui est confortable, puis je me dis, comme on pouvait s'y attendre, que tout est sur le point de devenir vraiment bizarre. Il faut vraiment se démarquer de nos jours pour être remarquable – il y a quelques mois, une équipe de recherche réussi à lire dans l'esprit humain(!) avec une précision > 90 % en entraînant un modèle sur des analyses IRMf.

Les optimistes d’entre nous espéreraient en vain que la technologie de l’IA ne soit pas utilisée à mauvais escient. FraudGPT et WormGPT sont deux cousins ​​de ChatGPT, reconvertis pour permettre les cyberattaques et les escroqueries. ChaosGPT était un robot (heureusement inefficace) dont la tâche était littéralement de détruire l'humanité. Que se passe-t-il à mesure que nous progressons le long de la courbe de croissance exponentielle et que les personnes qui construisent ces IA nuisibles ont accès à de nouveaux jouets brillants ? Dario Amodei, PDG d'Anthropic, a témoigné devant le Congrès américain qu'une simple extrapolation des systèmes actuels suggère que des attaques biologiques à grande échelle pourraient être possibles en seulement deux ou trois ans. Il a continué à dire que si nous ne disposons pas de mécanismes pour restreindre les systèmes d’IA d’ici 2025-26, « nous allons passer une très mauvaise période ».

Deux à trois ans, ce n'est pas beaucoup de temps, et nous ne savons même pas quelle est la bonne restriction. les mécanismes le sont encore! Ce serait formidable d'avoir un peu plus de temps pour comprendre les choses avant le la courbe de progrès exponentielle nous dépasse. Heureusement, contrairement à la pandémie, nous pouvons faire en sorte que cela se produise pour l'IA. Le Future of Life Institute a rédigé un lettre ouverte avec plus 33,000 XNUMX signatures appelant à un moratoire de six mois sur le développement de l'IA, signées par de nombreux pays les plus grands noms de la recherche et de la technologie en IA. Il n’est pas clair que le plan spécifique d’un moratoire de six mois serait le plus efficace, mais cela semble correct dans le sens. Les décideurs politiques pourraient envisager une législation prophylactique qui permettrait à un tel moratoire d’entrer en vigueur si certaines conditions sont remplies. La gouvernance informatique est un mécanisme de ralentissement similaire, dans lequel les grandes séries de formation de modèles d'IA sont limitées en termes de puissance de calcul qu'elles sont autorisées à utiliser. Le seuil peut être ajusté au fil du temps pour avoir un certain contrôle sur le rythme du développement sans que ce soit tout ou rien. Ce ne sont pas des solutions à long terme, mais elles permettraient de gagner du temps pour élaborer des mesures plus permanentes.

Outre les délais courts pour faire face à des risques graves, un autre défi majeur pour rendre l’IA sûre est la Asymétrie entre attaque et défense. Il y a tout simplement trop d’angles d’attaque pour être capable de couvrir toutes les vulnérabilités – mais la politique peut remodeler le paysage de l’IA en quelque chose de plus défendable. Lorsque l’IA avancée est trop ouvertement accessible, n’importe qui peut choisir d’en adopter une. de ces nombreux angles d'attaque, une solution évidente pourrait donc être d'empêcher l'IA avancée de étant trop ouvertement accessible.

Nous pouvons y parvenir via des mesures réglementaires, mais il s'agit d'un sujet assez controversé dans le secteur technologique. monde; open source (rendre publiquement accessible) votre recherche et votre code sont généralement synonyme de belles choses comme la transparence, la collaboration, et même la sécurité puisque vous avoir davantage d’yeux pour corriger les vulnérabilités. En outre, un contre-argument courant en faveur de la fermeture L'accès à la technologie de l'IA est qu'il centralise trop de pouvoir entre les mains de quelques grandes IA. laboratoires et que nous ne pouvons avoir un juste équilibre des pouvoirs que si la technologie est disponible pour toutes les personnes.

Mais le monde n’est pas toujours plus sûr lorsque les gens ont davantage accès à la technologie. Les Etats Unis a beaucoup d'armes et – surprise – beaucoup de fusillades de masse. Si tout le monde avait une arme nucléaire dans sa poche, ce ne serait qu'une question de temps avant que la plupart des villes urbaines ne disparaissent dans un champignon nuage. Il suffit qu’une seule personne fasse la mauvaise chose. Et si tout le monde dispose d’une IA capable d’attaques biologiques à grande échelle sur son ordinateur personnel, Dario Amodei l’a bien dit : nous allons passer un très mauvais moment.

Il semble peu probable que nous puissions fermer entièrement la boîte de Pandore sur l’IA, mais nous pouvons y parvenir maniable. Tout est sur le point de devenir vraiment bizarre, mais nous avons toujours le pouvoir de décider si ce sera un bon bizarre ou un mauvais.