L'intelligence artificielle pourrait "tuer de nombreux humains" d'ici deux ans, prévient le conseiller de Sunak

L’intelligence artificielle (IA) pourrait avoir la capacité d’être à l’origine d’avancées qui « tuent de nombreux humains » dans seulement deux ans, selon le conseiller de Rishi Sunak sur la technologie.

Matt Clifford a déclaré qu’à moins que les producteurs d’IA ne soient réglementés à l’échelle mondiale, il pourrait y avoir des systèmes « très puissants » que les humains pourraient avoir du mal à contrôler.

Même les risques à court terme étaient « assez effrayants », a-t-il déclaré à TalkTV, l’IA ayant le potentiel de créer des cyber-armes et des armes biologiques qui pourraient infliger de nombreux décès.

Les commentaires interviennent après la publication la semaine dernière d’une lettre soutenue par des dizaines d’experts, dont des pionniers de l’IA, avertissant que les risques de la technologie doivent être traités avec la même urgence que les pandémies ou la guerre nucléaire.

Les hauts patrons d’entreprises telles que Google DeepMind et Anthropic ont signé la lettre avec le soi-disant « parrain de l’IA », Geoffrey Hinton, qui a démissionné de son poste chez Google plus tôt ce mois-ci, affirmant que l’IA pourrait être utilisée entre de mauvaises mains. nuire aux gens et signifier la fin de l’humanité.

Clifford conseille le Premier ministre sur le développement de la Foundation Model Taskforce du gouvernement britannique, qui étudie les modèles de langage d’IA tels que ChatGPT et Google Bard, et est également président de l’Advanced Research and Invention Agency (Aria).

Il a déclaré à TalkTV: «Je pense qu’il existe de nombreux types de risques différents avec l’IA et souvent dans l’industrie, nous parlons de risques à court et à long terme, et les risques à court terme sont en fait assez effrayants.

« Vous pouvez utiliser l’IA aujourd’hui pour créer de nouvelles recettes d’armes biologiques ou pour lancer des cyberattaques à grande échelle. Ce sont de mauvaises choses.

« Le genre de risque existentiel dont parlaient les auteurs de la lettre, je pense, concerne… ce qui se passe une fois que nous créons effectivement une nouvelle espèce, une intelligence supérieure à celle des humains. »

Tout en concédant qu’un délai de deux ans pour que les ordinateurs dépassent l’intelligence humaine se situait à « l’extrémité haussière du spectre », Clifford a déclaré que les systèmes d’IA devenaient « de plus en plus capables à un rythme toujours croissant ».

Interrogé lundi 5 juin lors de l’émission First Edition sur le pourcentage de chances qu’il donnerait que l’humanité soit anéantie par l’IA, Clifford a déclaré: « Je pense que ce n’est pas zéro. »

Il a poursuivi: « Si nous revenons à des choses comme les armes biologiques ou les cyber (attaques), vous pouvez avoir des menaces vraiment très dangereuses pour les humains qui pourraient tuer de nombreux humains – pas tous les humains – simplement d’où nous nous attendrions à ce que les modèles soient en deux ans de temps.

« Je pense que la chose sur laquelle nous devons nous concentrer maintenant est de savoir comment nous assurer que nous savons comment contrôler ces modèles, car ce n’est pas le cas pour le moment. »

L’expert en technologie a déclaré que la production d’IA devait être réglementée à l’échelle mondiale et pas seulement par les gouvernements nationaux.

Les applications d’IA sont devenues virales en ligne, les utilisateurs publiant de fausses images de célébrités et de politiciens, et les étudiants utilisant ChatGPT et d’autres « modèles d’apprentissage des langues » pour générer des essais de niveau universitaire.

Mais l’IA peut également effectuer des tâches vitales, telles que des algorithmes analysant des images médicales telles que des rayons X, des scanners et des ultrasons, aidant les médecins à identifier et à diagnostiquer des maladies telles que le cancer et les maladies cardiaques avec plus de précision et de rapidité.

Clifford a déclaré que l’IA, si elle était exploitée de la bonne manière, pourrait être une force pour le bien.

« Vous pouvez imaginer que l’IA guérit les maladies, rend l’économie plus productive, nous aide à atteindre une économie neutre en carbone », a-t-il déclaré.

Le Parti travailliste fait pression pour que les ministres interdisent aux développeurs de technologies de travailler sur des outils d’IA avancés à moins qu’ils n’aient obtenu une licence.

La secrétaire numérique fantôme Lucy Powell, qui doit prendre la parole lors de la conférence de TechUK mardi, a déclaré au Guardian que l’IA devrait être autorisée de la même manière que les médicaments ou l’énergie nucléaire.

« C’est le genre de modèle auquel nous devrions penser, où vous devez avoir une licence pour construire ces modèles », a-t-elle déclaré.