Politique

L’intelligence artificielle dans les guerres… Quand la machine devient à la fois juge et « bourreau »


Avec le développement de la technologie militaire, l’intelligence artificielle (IA) a fait son entrée sur les champs de bataille, entraînant un changement radical dans la manière de mener les guerres.

De Gaza à l’Ukraine, des armes basées sur l’intelligence artificielle ont fait leur apparition, soulevant des questions sur les critères utilisés par ces systèmes pour prendre des décisions telles que : quand et qui doit-on tirer sur ?

Ces interrogations ont suscité des inquiétudes, incitant les décideurs politiques et les organisations indépendantes à exiger la présence de l’homme dans la gestion de ces armes, ainsi qu’à repenser la relation entre l’homme et la machine dans les guerres futures, selon le journal Foreign Affairs.

Des inquiétudes « légitimes »

Les Nations Unies cherchent à interdire les armes entièrement autonomes et ont proposé des règles contraignantes au niveau international, exigeant la présence humaine dans le cycle de gestion de ces systèmes. De nombreuses organisations non gouvernementales, telles que Stop Killer Robots, le Future of Life Institute et Amnesty International, ont adopté la cause du contrôle humain sur les armes autonomes.

Bien qu’il soit rassurant d’imaginer que des humains en vie empêchent les algorithmes dénués de raison de tuer de manière indiscriminée, ce consensus contredit la réalité technologique. Les modèles d’IA qui pilotent les armes autonomes modernes sont souvent si sophistiqués que même les opérateurs les mieux formés ne peuvent pas les superviser efficacement, d’après le journal américain.

Dans des conditions normales, il serait difficile de s’attendre à ce qu’un humain pèse les avantages d’un système d’IA et propose des solutions d’action, mais cela devient impossible dans des conditions de combat — caractérisées par un stress intense, un temps limité et des communications sporadiques ou inexistantes entre les individus, les unités et les autorités supérieures.

Ainsi, au lieu de céder à l’« illusion que les humains pourront contrôler les armes autonomes en temps de guerre », les armées doivent construire la confiance dans leurs modèles d’armement autonome dès maintenant — en temps de paix — et les laisser fonctionner sans une intervention humaine excessive lorsque le feu commence à être tiré, conclut le journal américain.

Accélérer la guerre

Le journal indique que la compétition militaire entre les États-Unis et la Chine a rendu inévitable le développement et le déploiement des systèmes d’armement autonomes, la guerre en Ukraine offrant un premier aperçu de ce changement de modèle.

En parallèle, le gouvernement des États-Unis s’engage à déployer l’IA largement et immédiatement pour une variété d’usages sécuritaires, dont l’analyse du renseignement, la sécurité biologique, la cybersécurité, et bien d’autres.

Selon le Foreign Affairs, l’automatisation, l’intelligence artificielle et les drones sont des éléments essentiels des derniers concepts opérationnels des forces militaires américaines : la conception de la force des Marines 2030, les opérations maritimes distribuées de la marine, les opérations de combat à grande échelle de l’armée et le concept opérationnel futur des forces aériennes. Tous ces éléments reposent sur une initiative lancée en 2022 appelée « Commandement et contrôle commun dans tous les domaines », d’un coût de 1,4 milliard de dollars en 2024.

Selon le ministère de la Défense américain, le programme vise à relier « chaque capteur et chaque lanceur de projectiles, afin de découvrir, collecter, relier, assembler, traiter et exploiter les données provenant de tous les domaines et sources, et ainsi créer un tissu de données unifié ».

Violation des principes ?

Cependant, du point de vue éthique, de nombreux observateurs craignent qu’en l’absence de supervision, les machines dénuées de réflexion ne se lancent dans un chaos, violant des principes fondamentaux tels que la proportionnalité (qui stipule que les dommages infligés par une action militaire ne doivent pas dépasser ses bénéfices) et la distinction (qui exige que les armées fassent la distinction entre combattants et civils).

Certains redoutent que les systèmes autonomes exploitent des populations vulnérables en raison des biais dans les données de formation, ou que des acteurs non étatiques piratent ou volent les armes autonomes et les utilisent à des fins malveillantes.

Les détracteurs des armes autonomes affirment que les humains intègrent un contexte plus large dans leurs décisions, ce qui les rend meilleurs pour gérer la nouveauté ou le chaos, tandis que les machines restent limitées à la rigueur des ordres. Peu de gens ont confiance dans la capacité des machines à prendre des décisions risquées, comme tuer, ou à étendre l’échelle d’une campagne militaire. Jusqu’à présent, les hypothèses de la plupart des analystes reposent sur des incidents notoires d’erreurs informatiques, tels que des accidents de voitures autonomes ou des « hallucinations » de chatbots. Beaucoup supposent que les humains sont moins enclins à provoquer des morts inutiles ou à intensifier un conflit.

Ces arguments éthiques et pratiques soutiennent la vérité fondamentale selon laquelle même les systèmes d’IA les plus avancés commettront des erreurs. Cependant, l’IA a progressé au point où le contrôle humain est souvent plus nominal qu’effectif, selon le Foreign Affairs.

Ces préoccupations sont-elles réelles ?

Le Foreign Affairs indique que la perception exagérée de la capacité des humains à contrôler l’IA risque, en fait, d’aggraver les risques mêmes que les critiques redoutent.

Le journal souligne que l’illusion selon laquelle les humains pourraient intervenir dans des scénarios de combat futurs, qui seront caractérisés par une forte tension et une grande rapidité — durant lesquels les communications se dégraderont ou disparaîtront — empêche les responsables politiques, les militaires et les concepteurs de systèmes de prendre les mesures nécessaires pour innover, tester et évaluer des systèmes autonomes sûrs dès maintenant.

Il est précisé qu’obliger les humains à intervenir dans les décisions tactiques ne rendra pas le meurtre plus éthique dans les guerres qui dépendent de l’intelligence artificielle. Les armées modernes utilisent depuis longtemps des systèmes avec différentes formes d’autonomie graduelle, comme le système Aegis Combat de la marine, qui exige des niveaux variés de contrôle humain pour lancer les armes.

Mais la décision d’un opérateur humain de tirer repose sur un système informatique qui analyse les données et génère une liste d’options. Dans ce contexte, le choix humain, avec son jugement éthique correspondant, agit plus comme un tampon qu’une véritable décision éclairée : l’opérateur fait déjà confiance aux capteurs qui ont collecté les données et aux systèmes qui les ont analysées et identifiées comme cibles.

Le journal ajoute que les guerres futures, fondées sur l’intelligence artificielle, seront plus rapides et plus dépendantes des données, car des systèmes d’armement autonomes (comme des essaims de drones) pourront être déployés rapidement et à grande échelle. Les humains n’auront ni le temps ni la capacité cognitive d’évaluer ces données indépendamment des machines.

Afficher plus

Articles similaires

Bouton retour en haut de la page