« Les robots tueurs » et les guerres… les humains peuvent-ils échapper au piège de « la tête chauve »?
En 2020, lors d’un match de football en Écosse, une caméra d’intelligence artificielle a continué de confondre le ballon avec une tête chauve sur les lignes de touche.
C’était l’une des manifestations du progrès rapide de la technologie de l’intelligence artificielle, qui a suscité de nombreuses craintes dans le monde entier, surtout avec l’intrusion de cette technologie dans les champs de bataille, la transformant en arme décisive sur la vie et la mort sans aucune intervention humaine.
Ce sont les « robots tueurs » que les experts militaires s’accordent à dire qu’ils peuvent changer la face de la guerre, mais ils soulèvent des questions sur où commence le contrôle humain et où il se termine ?
L’apparition et le déploiement de telles machines suscitent des débats intensifs entre experts, militants et diplomates du monde entier alors qu’ils luttent avec les avantages et les risques potentiels de l’utilisation des robots, et réfléchissent à la possibilité de les arrêter et à la manière de le faire.
C’est ce qui a été discuté lors d’une conférence internationale à Vienne, en présence de plus de 900 délégués et envoyés d’organisations non gouvernementales et internationales de près de 143 pays, appelant à redoubler d’efforts pour réglementer l’utilisation de l’intelligence artificielle dans les systèmes d’armes autonomes pouvant créer ce que l’on appelle des « robots tueurs ».
L’humanité à la croisée des chemins
La conférence, intitulée « L’humanité à la croisée des chemins : les systèmes d’armes autonomes et le défi de la réglementation », vise à relancer les discussions largement suspendues sur cette question.
Avec l’avancée rapide de la technologie de l’intelligence artificielle, les systèmes d’armes capables de tuer sans intervention humaine se rapprochent plus que jamais, imposant des défis éthiques et juridiques que la plupart des pays estiment devoir être abordés rapidement.
Lors d’une réunion à Vienne, le ministre autrichien des Affaires étrangères, Alexander Schallenberg, a déclaré : « Nous ne pouvons pas laisser passer cette occasion sans agir. Le moment est venu de convenir de règles et de normes internationales pour garantir le contrôle humain ».
Il a ajouté : « Au moins assurons-nous que la décision la plus profonde et la plus lointaine, celle de qui vit et qui meurt, reste entre les mains des humains et non des machines ».
De son côté, la présidente du Comité international de la Croix-Rouge, Miriana Spoljaric, a appelé lors d’une table ronde lors de la conférence à « agir rapidement ».
Plus tôt ce mois-ci, les États-Unis ont annoncé qu’ils étudiaient un rapport selon lequel l’armée israélienne utilise l’intelligence artificielle pour aider à identifier les cibles de frappes à Gaza.
Jean Tallinn, programmeur de logiciels et investisseur dans le domaine de la technologie, a déclaré : « Nous avons déjà vu que l’intelligence artificielle commet des erreurs de sélection, des plus grandes aux plus petites, depuis la méprise sur une tête chauve prise pour un ballon de football jusqu’aux décès de piétons causés par des voitures autonomes incapables de reconnaître les piétons ».
Il a souligné « la nécessité d’une extrême prudence quant à la dépendance à l’égard de la précision de ces systèmes, que ce soit dans le secteur militaire ou civil ».
L’organisation Human Rights Watch affirme que les armes entièrement autonomes, connues sous le nom de « robots tueurs », seront capables de choisir des cibles et de s’engager avec elles sans contrôle humain significatif.
Des équivalents de ces armes, tels que les drones armés, sont développés et déployés par des pays comme les États-Unis, Israël, la Russie et d’autres.