L'ancien chef de Google prévient que l'IA considérera l'humanité comme une "racaille" et créera des "machines à tuer"

L’intelligence artificielle est susceptible de considérer les humains comme des « racailles » qui doivent être contrôlées, et pourrait même « créer des machines à tuer parce que les humains les créent », a averti un ancien chef de Google.

Mo Gawdat, ancien directeur commercial de l’aile de recherche et développement de l’entreprise appelée X, craint que le film de Will Smith, I, Robot, ne devienne réalité si l’intelligence artificielle décide qu’elle doit prendre le relais et anéantir les humains.

L’homme de 55 ans a déclaré au podcast Secret Leaders: « Maintenant que ChatGPT est sur nous, tout le monde se réveille et dit » panique, panique, faisons quelque chose à ce sujet « .

« Si vous regardez la façon dont votre esprit pense que vous pensez aux applications, à l’IA qui nous anéantira complètement. Vous ne pensez pas à l’entre-deux.

« C’est entre les deux que se situe le problème – entre maintenant et le moment où l’IA peut générer sa propre puissance informatique et faire elle-même des installations à l’aide de bras robotiques.

« Il a l’agence pour créer des machines à tuer parce que les humains les créent, donc l’IA pourrait l’utiliser pour dicter un programme comme le film I, Robot. Mais c’est encore un peu loin.

« Ce qui est au milieu, c’est le processus pour nous y amener. L’humanité va décider de consacrer plus de puissance à ces machines. »

M. Gawdat a rejeté toute affirmation selon laquelle l’IA devrait être diabolisée, tout en donnant un aperçu de la façon dont elle pourrait voir les humains à l’avenir.

« C’est l’humanité qui est la menace. La question serait des probabilités – quelle est la probabilité que l’IA nous considère comme de la racaille aujourd’hui ?

« Très haut. Parce qu’on n’est pas assez intelligent pour voir au-delà de l’évidence et parce qu’on est de la racaille.

« Ce que nous montrons dans le monde réel est le pire d’entre nous. Nous sommes faux sur les réseaux sociaux, nous sommes impolis, nous sommes en colère ou nous mentons sur les réseaux sociaux. »

M. Gawdat a fermé « des scientifiques et des chefs d’entreprise très éminents » qui, selon lui, veulent suspendre le développement de l’IA, avertissant que « c’est déjà arrivé et que rien ne l’arrête ».

Il a poursuivi: « Des scientifiques et des chefs d’entreprise très éminents disent: » Arrêtons le développement de l’IA « .

« Mais cela n’arrivera jamais, non pas à cause de problèmes techniques, mais à cause du dilemme commercial.

« Si Google développe l’IA et craint que Facebook ne les batte, ils ne s’arrêteront pas car ils ont la certitude absolue que s’ils s’arrêtent, quelqu’un d’autre ne le fera pas.

« Les États-Unis ne s’arrêteront pas parce qu’ils savent que la Chine développe l’IA. Nous avons construit un système humain, pas un système technologique, qui nous empêchera de nous arrêter. »

Récemment, Elon Musk a averti que la technologie émergente de l’IA était une « épée à double tranchant » et a affirmé qu’elle pourrait « détruire l’humanité » si elle « tournait mal ».

Il a cofondé OpenAI – la start-up derrière ChatGPT – et avant de quitter l’entreprise en 2018, il a d’abord apporté son soutien à la mise en œuvre de la technologie de l’IA dans la société.

Mais le propriétaire de SpaceX, Tesla et Twitter a maintenant déclaré : « Il y a une forte probabilité que cela rendra la vie bien meilleure et que nous aurons une ère d’abondance.

« Et il y a des chances que cela tourne mal et détruise l’humanité.

« J’espère que cette chance est petite. Mais ce n’est pas zéro.

« Je pense que nous voulons prendre toutes les mesures auxquelles nous pouvons penser pour minimiser la probabilité que l’IA tourne mal. »