La révélation soulève des inquiétudes concernant les armes d’IA de type terminator qui pourraient tuer des personnes dans des conflits sans aucun contrôle humain. Le drone a été déployé en mars de l’année dernière lors du conflit entre les forces gouvernementales libyennes et une faction militaire séparatiste dirigée par Khalifa Haftar, commandant de l’armée nationale libyenne.
Le rapport sur l’incident du Groupe d’experts du Conseil de sécurité de l’ONU sur la Libye a été obtenu par le magazine New Scientist.
Le drone était un quadricoptère Kargu-2 créé par la société de technologie militaire turque STM.
L’arme a une charge explosive et peut viser une cible et exploser à l’impact.
Le rapport, publié plus tôt cette année, a expliqué comment les forces de Haftar étaient «traquées et engagées à distance» par les drones qui fonctionnaient dans un mode autonome «très efficace» ne nécessitant aucun contrôleur humain.
Dans le Bulletin des scientifiques atomiques, il a déclaré: «Les systèmes actuels basés sur l’apprentissage automatique ne peuvent pas distinguer efficacement un agriculteur d’un soldat.
«Les agriculteurs peuvent tenir un fusil pour défendre leur terre, tandis que les soldats peuvent utiliser un râteau pour renverser une tourelle de canon. … Même une classification adéquate d’un véhicule est difficile.
M. Kallenborn a expliqué comment sans un humain pour porter un jugement, les risques sont trop élevés.
Il a ajouté: «Toute arme autonome donnée a une certaine chance de gâcher, mais ces erreurs pourraient avoir un large éventail de conséquences.
«Les armes autonomes les plus risquées sont celles qui ont une forte probabilité d’erreur et tuent beaucoup de gens quand elles le font.
«Rater un magnum .357 est une chose; faire exploser accidentellement une ogive nucléaire W88 est autre chose.