L'IA "ressemble à Barbie mais peut être Oppenheimer", prévient un expert, soulignant les risques "significatifs"

L’intelligence artificielle (IA) présente des risques « multiformes » si elle est utilisée par des personnes aux intentions hostiles – y compris des acteurs étatiques tels que la « ferme de trolls » financée par le fondateur du groupe Wagner, Yevgeny Prigozhin, a averti un expert en cybertechnologie.

Suid Adeyanju, PDG des spécialistes de la cybersécurité RiverSafe, s’exprimait après la publication d’une étude alarmante publiée plus tôt cette semaine par l’Université de Surrey indiquant que l’IA peut identifier les mots de passe avec une précision supérieure à 90 % grâce au son des frappes.

L’étude décrit comment les chercheurs ont appuyé sur chacune des 36 touches d’un MacBook Pro, y compris toutes les lettres et tous les chiffres, 25 fois de suite, en utilisant différents doigts et avec une pression variable.

Les sons ont été enregistrés à la fois via un appel Zoom et sur un smartphone placé à une courte distance du clavier.

Lorsqu’il a été entraîné sur des frappes enregistrées par un téléphone à proximité, le classificateur a atteint une précision de 95 %, la précision la plus élevée observée sans l’utilisation d’un modèle de langage.

M. Adeyanju a déclaré: « Cette étude devrait servir de signal d’alarme sur les véritables risques posés par l’intelligence artificielle lorsque la technologie est détournée par des cybercriminels.

« Beaucoup trop d’organisations se précipitent pour adopter la technologie sans effectuer les tests de diligence raisonnable les plus élémentaires et au mépris total des protocoles de sécurité standard.

« Les cadres trop enthousiastes devraient prendre note que l’IA peut ressembler à Barbie, mais elle pourrait s’avérer être Oppenheimer si les cyberprotections et les procédures réglementaires nécessaires ne sont pas en place. »

Il a déclaré à Express.co.uk : « Les risques réels d’une technologie comme l’IA sont multiformes et incluent n’importe où des cyberattaques, des problèmes de sécurité et de confidentialité, des dilemmes éthiques, des inégalités économiques, des défis juridiques et réglementaires. »

Du point de vue de la cybersécurité, les cyberattaques basées sur l’IA constituaient une menace pressante pour les entreprises, les recherches de RiverSafe indiquant que 80 % des responsables de la sécurité de l’information (CISO) pensaient qu’il s’agissait de leur plus grande menace.

Ils prédisent également que l’IA dépassera les cyberdéfense, incitant les entreprises à prendre des mesures urgentes pour renforcer leur posture de sécurité.

M. Adeyanju a poursuivi : « L’IA peut être utilisée à mauvais escient par divers acteurs de la menace, y compris les cybercriminels et les individus malveillants.

« Un exemple est l’utilisation de l’IA pour mener des attaques de phishing. Les e-mails de phishing ont été assez faciles à repérer grâce à une mauvaise écriture, les e-mails de phishing créés par un acteur malveillant qui ne connaît pas une langue ont tendance à être faciles à repérer en raison d’une mauvaise grammaire, d’erreurs vocabulaire et faute d’orthographe.

«De telles erreurs flagrantes étaient faciles à détecter par des personnes raisonnablement prudentes ainsi que par des défenses automatisées.

« Mais avec l’IA, il est très probable qu’un e-mail de phishing semblera authentique, ce qui incitera davantage de victimes potentielles à cliquer sur des liens malveillants, ce qui les rendra très efficaces et dangereux.

« L’exemple ci-dessus met en évidence la nécessité de mesures de sécurité solides et de considérations éthiques dans le développement et le déploiement des technologies d’IA. »

Interrogé sur le potentiel de l’Agence de recherche Internet d’Evgueni d’utiliser la technologie en développement rapide à des fins néfastes, M. Adeyanju a ajouté : « Les acteurs étatiques tirent de plus en plus parti de l’IA dans leurs efforts de cybersécurité.

« L’IA peut être utilisée par des pirates informatiques parrainés par l’État pour mener des cyberattaques sophistiquées, notamment des campagnes de phishing ciblées, des violations de données, des enlèvements virtuels et la conception de logiciels malveillants.

« Les acteurs étatiques peuvent également utiliser l’IA pour recueillir des renseignements, analyser les vulnérabilités des logiciels et des systèmes et garder une longueur d’avance sur les défenses en matière de cybersécurité. »

De plus, l’IA pourrait être utilisée pour manipuler l’opinion publique et diffuser de faux récits, permettant aux acteurs étatiques d’influencer les paysages politiques et même de déstabiliser les gouvernements, a souligné M. Adeyanju.

Il a conclu: « L’utilisation de l’IA par les acteurs étatiques dans la cybersécurité pose des défis importants pour la défense contre les menaces avancées et persistantes. »