L’intelligence artificielle dans les guerres… Quand la machine devient à la fois juge et « bourreau »
Avec le développement de la technologie militaire, l’intelligence artificielle (IA) a fait son entrée sur les champs de bataille, entraînant un changement radical dans la manière de mener les guerres.
-
Comment les groupes terroristes utilisent-ils les réseaux sociaux pour recruter des réseaux et collecter des fonds ?
-
Expert Révèle : L’Iran investit dans le financement d’armes et de technologies militaires pour ses affiliés dans la région
De Gaza à l’Ukraine, des armes basées sur l’intelligence artificielle ont fait leur apparition, soulevant des questions sur les critères utilisés par ces systèmes pour prendre des décisions telles que : quand et qui doit-on tirer sur ?
Ces interrogations ont suscité des inquiétudes, incitant les décideurs politiques et les organisations indépendantes à exiger la présence de l’homme dans la gestion de ces armes, ainsi qu’à repenser la relation entre l’homme et la machine dans les guerres futures, selon le journal Foreign Affairs.
-
« Nucléaire iranien » : Efforts diplomatiques pour contenir l’escalade
-
Rapport : Le principal financier de l’État islamique-Khorasan en Europe opérait depuis la Turquie sous des noms d’emprunt
Des inquiétudes « légitimes »
Les Nations Unies cherchent à interdire les armes entièrement autonomes et ont proposé des règles contraignantes au niveau international, exigeant la présence humaine dans le cycle de gestion de ces systèmes. De nombreuses organisations non gouvernementales, telles que Stop Killer Robots, le Future of Life Institute et Amnesty International, ont adopté la cause du contrôle humain sur les armes autonomes.
Bien qu’il soit rassurant d’imaginer que des humains en vie empêchent les algorithmes dénués de raison de tuer de manière indiscriminée, ce consensus contredit la réalité technologique. Les modèles d’IA qui pilotent les armes autonomes modernes sont souvent si sophistiqués que même les opérateurs les mieux formés ne peuvent pas les superviser efficacement, d’après le journal américain.
-
Le « Scorpion » à queue double : Une progression militaire chinoise impressionnante
-
Mouvement iranien pour combler le fossé entre les dirigeants du Cadre de Coordination
Dans des conditions normales, il serait difficile de s’attendre à ce qu’un humain pèse les avantages d’un système d’IA et propose des solutions d’action, mais cela devient impossible dans des conditions de combat — caractérisées par un stress intense, un temps limité et des communications sporadiques ou inexistantes entre les individus, les unités et les autorités supérieures.
Ainsi, au lieu de céder à l’« illusion que les humains pourront contrôler les armes autonomes en temps de guerre », les armées doivent construire la confiance dans leurs modèles d’armement autonome dès maintenant — en temps de paix — et les laisser fonctionner sans une intervention humaine excessive lorsque le feu commence à être tiré, conclut le journal américain.
-
Le Maroc renforce son industrie militaire avec divers types de drones
-
Rapport : La falsification de l’argent est l’une des méthodes utilisées par les groupes terroristes pour financer leurs activités
Accélérer la guerre
Le journal indique que la compétition militaire entre les États-Unis et la Chine a rendu inévitable le développement et le déploiement des systèmes d’armement autonomes, la guerre en Ukraine offrant un premier aperçu de ce changement de modèle.
En parallèle, le gouvernement des États-Unis s’engage à déployer l’IA largement et immédiatement pour une variété d’usages sécuritaires, dont l’analyse du renseignement, la sécurité biologique, la cybersécurité, et bien d’autres.
-
Le Maroc renforce son arsenal militaire avec des véhicules blindés américains
-
« Mohajer 6 » : Capacités offensives du drone utilisé par l’armée soudanaise
Selon le Foreign Affairs, l’automatisation, l’intelligence artificielle et les drones sont des éléments essentiels des derniers concepts opérationnels des forces militaires américaines : la conception de la force des Marines 2030, les opérations maritimes distribuées de la marine, les opérations de combat à grande échelle de l’armée et le concept opérationnel futur des forces aériennes. Tous ces éléments reposent sur une initiative lancée en 2022 appelée « Commandement et contrôle commun dans tous les domaines », d’un coût de 1,4 milliard de dollars en 2024.
Selon le ministère de la Défense américain, le programme vise à relier « chaque capteur et chaque lanceur de projectiles, afin de découvrir, collecter, relier, assembler, traiter et exploiter les données provenant de tous les domaines et sources, et ainsi créer un tissu de données unifié ».
-
Macron promet d’augmenter le budget de l’armée pour se préparer à la guerre
-
La Turquie promeut comme l’un des exportateurs d’armes dans le monde pour deux raisons, lesquels ?
Violation des principes ?
Cependant, du point de vue éthique, de nombreux observateurs craignent qu’en l’absence de supervision, les machines dénuées de réflexion ne se lancent dans un chaos, violant des principes fondamentaux tels que la proportionnalité (qui stipule que les dommages infligés par une action militaire ne doivent pas dépasser ses bénéfices) et la distinction (qui exige que les armées fassent la distinction entre combattants et civils).
Certains redoutent que les systèmes autonomes exploitent des populations vulnérables en raison des biais dans les données de formation, ou que des acteurs non étatiques piratent ou volent les armes autonomes et les utilisent à des fins malveillantes.
-
Israël a-t-elle fabriqué des appareils sans fil imités pour les faire exploser au Liban ?
-
Découvrez les tactiques « primitives » du Hezbollah face à la technologie israélienne
Les détracteurs des armes autonomes affirment que les humains intègrent un contexte plus large dans leurs décisions, ce qui les rend meilleurs pour gérer la nouveauté ou le chaos, tandis que les machines restent limitées à la rigueur des ordres. Peu de gens ont confiance dans la capacité des machines à prendre des décisions risquées, comme tuer, ou à étendre l’échelle d’une campagne militaire. Jusqu’à présent, les hypothèses de la plupart des analystes reposent sur des incidents notoires d’erreurs informatiques, tels que des accidents de voitures autonomes ou des « hallucinations » de chatbots. Beaucoup supposent que les humains sont moins enclins à provoquer des morts inutiles ou à intensifier un conflit.
Ces arguments éthiques et pratiques soutiennent la vérité fondamentale selon laquelle même les systèmes d’IA les plus avancés commettront des erreurs. Cependant, l’IA a progressé au point où le contrôle humain est souvent plus nominal qu’effectif, selon le Foreign Affairs.
-
Le Groupe des Frères Musulmans a Pris Conscience Tôt de l’Importance de l’Utilisation des Technologies de l’Information – Comment ?
-
Washington impose des sanctions sur un réseau de contrebande de technologie américaine vers Téhéran
Ces préoccupations sont-elles réelles ?
Le Foreign Affairs indique que la perception exagérée de la capacité des humains à contrôler l’IA risque, en fait, d’aggraver les risques mêmes que les critiques redoutent.
Le journal souligne que l’illusion selon laquelle les humains pourraient intervenir dans des scénarios de combat futurs, qui seront caractérisés par une forte tension et une grande rapidité — durant lesquels les communications se dégraderont ou disparaîtront — empêche les responsables politiques, les militaires et les concepteurs de systèmes de prendre les mesures nécessaires pour innover, tester et évaluer des systèmes autonomes sûrs dès maintenant.
-
Expert en technologie : L’intelligence artificielle peut être utilisée pour affaiblir les groupes terroristes
-
Expert Révèle : L’Iran investit dans le financement d’armes et de technologies militaires pour ses affiliés dans la région
Il est précisé qu’obliger les humains à intervenir dans les décisions tactiques ne rendra pas le meurtre plus éthique dans les guerres qui dépendent de l’intelligence artificielle. Les armées modernes utilisent depuis longtemps des systèmes avec différentes formes d’autonomie graduelle, comme le système Aegis Combat de la marine, qui exige des niveaux variés de contrôle humain pour lancer les armes.
Mais la décision d’un opérateur humain de tirer repose sur un système informatique qui analyse les données et génère une liste d’options. Dans ce contexte, le choix humain, avec son jugement éthique correspondant, agit plus comme un tampon qu’une véritable décision éclairée : l’opérateur fait déjà confiance aux capteurs qui ont collecté les données et aux systèmes qui les ont analysées et identifiées comme cibles.
-
Comment les Émirats arabes unis cherchent-ils à progresser dans le domaine de la technologie et de l’innovation ?
-
Sous le règne du Roi Abdallah II – Évolution sans précédent du secteur des communications et des technologies de l’information
Le journal ajoute que les guerres futures, fondées sur l’intelligence artificielle, seront plus rapides et plus dépendantes des données, car des systèmes d’armement autonomes (comme des essaims de drones) pourront être déployés rapidement et à grande échelle. Les humains n’auront ni le temps ni la capacité cognitive d’évaluer ces données indépendamment des machines.