La technologie sophistiquée de l’intelligence artificielle peut être utilisée comme un outil puissant pour manipuler les individus, a averti un informaticien. La journaliste de Sky News, Sophy Ridge, a déclaré que la perspective était « vraiment très effrayante » lors d’un segment sur Sky News ce matin. Le professeur Stuart Russell, directeur du Kavli Center for Ethics, Science, and the Public de l’Université de Californie, est l’un des plus de 30 000 signataires d’une lettre ouverte appelant à la prudence en ce qui concerne le développement de logiciels d’IA sophistiqués.
Plus précisément, ils appellent à une pause sur la formation de systèmes d’IA plus puissants que GPT-4, un modèle de machine si sophistiqué qu’il peut même passer l’examen du barreau.
Le professeur Russell, à qui Mme Ridge a demandé de faire part de ses préoccupations, a déclaré: «Il existe une distinction entre les systèmes qui existent déjà, et je pense que l’une des plus grandes préoccupations est la désinformation et les contrefaçons profondes.
«Nous avons eu de la désinformation pendant longtemps, de la propagande et tout ça, mais la différence ici est que je peux maintenant demander à GPT-4 de tout lire sur la présence de Sophy Ridge sur les réseaux sociaux, tout ce que Sophy Ridge a jamais dit ou écrit, tout sur Les amis de Sophie Ridge.
Il a poursuivi: «Et puis je pourrais commencer une campagne progressivement en ajustant votre fil d’actualité, peut-être en envoyant occasionnellement de fausses nouvelles dans votre fil d’actualité, de sorte que vous souteniez un peu moins l’Ukraine.
« Et vous commencez à pousser plus fort les politiciens qui disent que nous devrions soutenir l’Ukraine dans la guerre contre la Russie, etc. Ce sera très facile à faire et ce qui fait vraiment peur, c’est que nous pourrions le faire à un million de personnes différentes avant le déjeuner.
« Et vous pouvez donc avoir un impact énorme avec ces systèmes pour le pire, en manipulant les gens d’une manière dont ils ne réalisent même pas ce qui se passe. »
Interrogé par Mme Ridge, qui a décrit la perspective comme «vraiment vraiment effrayante», si de telles choses se produisaient déjà, il a ajouté: a répondu: «Je dirais très probablement, oui.
« Il y a, nous le savons, en Chine, en Russie et en Corée du Nord, de grandes équipes de personnes qui diffusent de la désinformation. Et nous venons de leur donner un outil électrique.
Tourné vers l’avenir, il a déclaré: «La préoccupation de la lettre concerne vraiment la prochaine génération du système. À l’heure actuelle, les systèmes, je pense, ont certaines limites dans leur capacité à construire des plans compliqués.
« Par exemple, vous savez, si vous voulez planifier qu’une entreprise en reprenne une autre, c’est une chose vraiment compliquée et je ne pense pas que ces systèmes puissent générer ce genre de plans avec succès.
« Mais il est tout à fait possible que la prochaine génération ou la génération suivante puisse commencer à le faire et vous pourriez alors voir des entreprises dirigées par des systèmes d’IA. Vous pourriez voir des campagnes militaires organisées par des systèmes d’IA et à long terme, la préoccupation est assez simple.
« Si vous construisez des systèmes qui sont plus puissants que les êtres humains, comment les êtres humains gardent-ils le pouvoir sur ces systèmes pour toujours ? Et c’est la vraie préoccupation derrière la lettre ouverte.
Le patron de SpaceX, Elon Musk, et le cerveau de Virgin Galactic, Sir Richard Branson, ont également signé la lettre, publiée par l’institut Future of Life au début du mois. Il déclare : « Devrions-nous laisser les machines inonder nos canaux d’information de propagande et de contrevérité ?
« Devrions-nous automatiser tous les emplois, y compris ceux qui sont épanouissants ? Devrions-nous développer des esprits non humains qui pourraient éventuellement être plus nombreux, plus intelligents, obsolètes et nous remplacer ? Devrions-nous risquer de perdre le contrôle de notre civilisation ?
« De telles décisions ne doivent pas être déléguées à des leaders technologiques non élus.
Des systèmes d’IA puissants ne devraient être développés qu’une fois que nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables.