Nestor Burma écrivait:
-------------------------------------------------------
> Un bel article sur l'IA et ses enjeux dans le
> quotidien "La Croix" de ce matin, en page 2 & 3
> ...
[
www.la-croix.com]
Intelligence artificielle : menace réelle ou fabriquée ?
Analyse Incohérence, cynisme, calcul ? Des figures majeures de l’intelligence artificielle sèment le trouble en alertant bruyamment sur les menaces que leurs technologies pourraient faire planer sur l’avenir de l’humanité.
Mélinée Le Priol, le 14/06/2023 à 11:00
Le 28 mars, Elon Musk, le patron de Tesla et SpaceX réclamait avec un millier d’autres figures du secteur une pause de six mois dans les recherches avancées en intelligence artificielle (IA), le temps d’instaurer certains garde-fous.
Cela a commencé par Elon Musk, sans doute la personnalité la plus extravagante de ce début de XXIe siècle en matière de course technologique. Le 28 mars, le patron de Tesla et SpaceX réclamait avec un millier d’autres figures du secteur une pause de six mois dans les recherches avancées en intelligence artificielle (IA), le temps d’instaurer certains garde-fous. « Devrions-nous développer des esprits non humains susceptibles d’être un jour plus nombreux et plus intelligents que nous, nous rendre obsolètes et nous remplacer ? », s’inquiétaient les signataires, essentiellement américains.
À lire aussiIntelligence artificielle : maîtrise
Deux semaines après cette alerte retentissante, le grand public apprenait qu’Elon Musk venait de lancer dans le Nevada sa propre start-up d’intelligence artificielle, X.AI. Objectif ? Faire concurrence à ChatGPT, l’agent conversationnel qui affolait la planète depuis novembre… et faisait trembler, du moins semblait-il, les auteurs de la lettre ouverte.
Le printemps s’est écoulé, et Sam Altman s’y est mis à son tour. Le patron de l’entreprise californienne OpenAI, qui développe ledit ChatGPT, a signé, le 30 mai, une déclaration du même acabit, quoique plus laconique. Cette fois, 350 personnalités (dont une partie des signataires de la lettre de mars) ont voulu attirer l’attention sur le « risque d’extinction » de l’humanité que soulève l’IA selon eux, au même titre que « les pandémies ou la guerre nucléaire ».
Storytelling
Google, Microsoft, Apple, Anthropic, Stability AI… De nombreux dirigeants et salariés des principales entreprises du secteur ont joint leurs signatures à celles d’Elon Musk en mars, puis de Sam Altman en mai, aux côtés d’universitaires aux motivations variées. Meta, la maison mère de Facebook, s’est quant à elle abstenue : son directeur de la recherche sur l’IA, le Français Yann Le Cun, est l’un des chefs de file du « camp des optimistes » quant à l’impact de ces technologies.
À lire aussiIntelligence artificielle : Raja Chatila, de la robotique au doute éthique
« Recourir au storytelling pour capter l’attention – et donc les financements – est une activité centrale dans la Silicon Valley », analyse le sociologue Olivier Alexandre (1). En clair, agiter les bras en disant « Attention, ce qui se passe ici est très important, c’est le sujet de l’avenir ! », qu’il s’agisse d’un avenir florissant ou catastrophique, modèle les imaginaires tout en créant de la valeur économique.
Les « bons » et les « méchants »
Dans la « tech », les modes passent et chacun redoute d’être dépassé par la concurrence. Présenter son produit comme le plus avancé dans un écosystème potentiellement dangereux peut donc se révéler payant. « Ce que disent les entrepreneurs qui signent ces pétitions, c’est que le grand danger de l’IA est qu’elle soit captée par des gens malintentionnés : cybercriminels, régimes ennemis… Eux-mêmes, bien sûr, ne font jamais partie des “bad guys” qu’ils dénoncent, poursuit le sociologue Olivier Alexandre. Ce moralisme technologique est emblématique de la Silicon Valley : ce qui en sort est “bon”, et ce qui vient d’ailleurs est “mauvais”. »
À lire aussiIntelligence artificielle, faut-il faire une pause dans son développement ?
Laura Tocmacov, directrice de la fondation suisse impactIA, s’agace d’un discours jugé « paternaliste ». « Ces entrepreneurs nous disent qu’ils savent ce qui est bon pour nous, et que nous avons donc intérêt à les laisser aux commandes. Mais sur des questions aussi capitales, c’est à la société civile de dire ce qu’elle veut ou ne veut pas ! Elle doit revendiquer sa place dans ce débat, aux côtés des gouvernements et des entreprises. »
Peser sur la régulation
Pour l’heure, ces dernières jouent un rôle clé dans la régulation du secteur. Quitte, là encore, à souffler le chaud et le froid. C’est ce qu’a fait Sam Altman, quelques jours avant de signer la pétition du 30 mai.
Le 16 mai, au Sénat américain, il a réclamé que l’IA dite « générative » (2) soit davantage régulée, disant redouter qu’elle cause « d’importants dommages au monde ». Puis, à Londres le 24 mai, il a semblé menacer de « cesser d’opérer en Europe » si la réglementation communautaire en cours d’élaboration, l’AI Act, s’y faisait trop stricte. Avant de se raviser à Paris le 26 mai : « Nous aimons l’Europe », a-t-il assuré devant un auditoire perplexe.
À lire aussiIntelligence artificielle : à Bruxelles, d’intenses tractations pour la réguler
Sachant qu’il fait pour l’instant la course en tête sur l’IA générative, Sam Altman a sans doute intérêt à ériger aussi vite que possible des barrières derrière lui. En affichant sa volonté de coopérer avec les régulateurs, il minimise, en filigrane, sa responsabilité dans le développement de ces technologies : à l’en croire, celles-ci se déploient d’elles-mêmes.
Transhumanisme
Selon une vision dystopique véhiculée par ces tribunes, des « superintelligences » pourraient à terme aider des dictateurs à fabriquer des armes biochimiques, à truquer des élections… Pire, une « IA générale » dépassant les capacités cognitives humaines pourrait émerger, échappant à tout contrôle : on appelle ce moment critique la « singularité technologique ».
« Cette thèse n’a aucun fondement scientifique », tranche Marc Lelarge, chercheur en informatique à l’Inria et à l’ENS de la rue d’Ulm. « Le postulat de départ, erroné, est que le développement de systèmes de plus en plus performants peut générer une boucle de rétroaction positive et un mouvement de croissance exponentiel. » Parler d’une IA unique lui paraît également problématique : « Ce sont desalgorithmes, différents et cloisonnés. »
À lire aussiÀ Bruxelles, la régulation de l’IA surveillée de près par les lobbys
Pour Jean-Gabriel Ganascia (3), chercheur au laboratoire d’informatique de Paris 6 (Lip6), les récentes lettres ouvertes s’inscrivent dans une perspective ouvertement transhumaniste et long-termiste. « Les transhumanistes ont une confiance démesurée dans le pouvoir de la technique, et c’est à double tranchant : soit elle nous permettra de parvenir à une forme d’immortalité, soit elle se retournera contre nous. »
Et à court terme ?
Quant aux long-termistes, bien que rares à travers le monde, ils se vouent à un bruyant plaidoyer contre les « risques existentiels » posés dans un avenir lointain par les armes nucléaires, les pandémies… et surtout l’IA. Depuis 2015, des textes collectifs comme ceux de ce printemps paraissent régulièrement, à l’initiative d’une poignée d’organisations comme le Future of Life, qui a lancé le texte de la fin mars.
À lire aussiDaniel Motaung, la révolte d’une « petite main » de Facebook
Se focaliser sur ces périls hypothétiques offre l’avantage, pour les entrepreneurs de la tech, de préserver leur modèle économique en détournant l’attention des problèmes posés par leurs systèmes ici et maintenant. Biais, atteintes au droit d’auteur, exploitation de « petites mains » sous-payées, coût environnemental colossal… Les accusations ne manquent pas.
« Ce sont des lettres ouvertes sur les risques à court terme qu’il faudrait », regrette Jean-Gabriel Ganascia. Il ajoute que c’est le rôle des comités d’éthique dont il a fait partie, à l’instar de celui du CNRS et du Comité national pilote d’éthique du numérique (CNPEN), récemment pérennisé par le gouvernement. Mais, de toute évidence, leurs sérieux « avis » ont moins d’écho que les prophéties apocalyptiques des « géants de la tech ».
(1) La Tech. Quand la Silicon Valley refait le monde, Seuil, 2023
(2) Capable, à partir de données en très grand nombre, de créer des contenus originaux (textes, images, vidéos).
(3) Le Mythe de la singularité. Faut-il craindre l’intelligence artificielle ?, Seuil, 2017
Modifié 1 fois. Dernière modification le 14/06/23 17:33 par Nestor Burma.