L'autre raison de ce retard est qu'à chaque fois que je regardais la vidéo de Rishi Sunak, premier ministre de Little Britain, assis aux pieds d'Elon Musk et disant des choses comme "Étant donné que vous êtes connu pour être un innovateur et un technologue si brillant...", je m'effondrais dans un fou rire impuissant.

D'aucuns prétendent que M. Sunak cherchait à obtenir un poste auprès de M. Musk lorsqu'il perdra les élections de l'année prochaine et sera défenestré par son propre parti conservateur, mais ce n'est pas juste. Sunak n'a pas besoin d'un emploi post-politique ; son beau-père possède la moitié de l'Inde. Il n'est qu'un nerd maladroit qui aimerait bien être lui aussi un frère de la technologie.

Quoi qu'il en soit, le sujet à Bletchley Park était l'IA. Entre l'annonce par Joe Biden de la création d'un "Institut de sécurité de l'IA" aux États-Unis et le "Sommet de la sécurité de l'IA" organisé par Sunak (avec la participation de la vice-présidente Kamala Harris, du roi Charles III et d'Elon Musk), beaucoup de choses ont été dites au sujet de l'intelligence artificielle. La plupart de ces propos étaient absurdes.

Demis Hassabis, PDG de Google DeepMind, a déclaré : "Je ne suis pas dans le camp des pessimistes en ce qui concerne l'IA, évidemment, sinon je n'y travaillerais pas", mais en mai dernier, il a averti que la menace d'extinction de l'humanité par l'IA devrait être traitée comme un risque sociétal comparable aux pandémies ou aux armes nucléaires.

Kamala Harris a opté pour la profondeur : "Tout comme l'IA a le potentiel de faire un bien profond, elle a aussi le potentiel de faire un mal profond". C'est tout aussi vrai pour les drogues, l'argent et les couteaux tranchants. Elle n'est toujours pas prête pour le prime time.

Le roi Charles pensait que "l'essor rapide d'une intelligence artificielle puissante n'est pas moins important que... la maîtrise du feu". Au risque de commettre un lèse-majesté, il faut répondre : Non, ce n'est pas le cas, et d'ailleurs cela ne s'est pas encore produit.

Musk, qui n'est jamais à court de mots, a estimé que l'IA est une "menace existentielle" parce que les êtres humains sont pour la première fois confrontés à quelque chose "qui va être beaucoup plus intelligent que nous". C'était un jamboree de banalités et de présages.

Ces penseurs profonds parlaient tous de risque existentiel, mais il s'agit d'une éventualité qui ne se présenterait que si les machines étaient dotées de ce que l'on appelle "l'intelligence générale artificielle", c'est-à-dire de capacités cognitives dans les logiciels comparables ou supérieures à l'intelligence humaine.

Ces systèmes d'intelligence artificielle générale auraient des capacités intellectuelles aussi souples et complètes que celles des êtres humains, mais ils seraient plus rapides et mieux informés car ils pourraient accéder à d'énormes quantités de données et les traiter à une vitesse incroyable. Ils constitueraient une véritable menace potentielle, mais ils n'existent pas.

Rien ne prouve que nous soyons plus proches de la création de tels logiciels qu'il y a cinq ou dix ans. De grands progrès ont été réalisés dans des formes étroites d'intelligence artificielle, comme les véhicules à conduite autonome et les systèmes juridiques automatisés, mais la seule menace qu'ils représentent, s'il y en a une, concerne l'emploi.

Ce n'est pas une question mineure, mais elle n'est pas existentielle. Et l'arrivée de chatbots capables de rédiger des dissertations et de remplir des demandes d'emploi à votre place n'est pas non plus de l'IAG.

Les "grands modèles de langage" sur lesquels les chatbots sont formés les rendent experts dans le choix du mot suivant le plus plausible. Cela peut occasionnellement produire des phrases aléatoires contenant de nouvelles données ou idées utiles, mais il n'y a pas d'activité intellectuelle impliquée dans le processus, sauf chez l'humain qui reconnaît que c'est utile.

Il y a de quoi s'inquiéter de la façon dont des programmes informatiques "plus intelligents" vont détruire des emplois (y compris des emplois hautement qualifiés), ainsi que de la facilité avec laquelle il est devenu possible de manipuler l'opinion au moyen de "deepfakes" et d'autres méthodes similaires. Mais rien de tout cela ne nécessitait une conférence très médiatisée à Bletchley Park.

Alors pourquoi s'y sont-ils tous rendus et ont-ils fini par parler de menaces existentielles ? Il est possible que les dirigeants des géants de la technologie aient voulu s'assurer qu'ils participeraient à l'élaboration des règles dès le début, car de nouvelles règles concernant l'IA seront certainement établies au cours des prochaines années.

La plupart de ces règles porteront sur des questions commerciales banales, et non sur des menaces pour l'existence humaine. Vous pourriez penser qu'il serait inapproprié que les personnes qui gagneront de l'argent grâce à ces activités commerciales soient celles qui établissent les règles.

D'un autre côté, ils devraient certainement être impliqués dans les décisions relatives aux menaces existentielles découlant de leurs nouvelles technologies, et il est donc tactiquement plus logique qu'ils orientent la discussion dans cette direction. Ils ne sont pas stupides, vous savez.


Author

Gwynne Dyer is an independent journalist whose articles are published in 45 countries.

Gwynne Dyer