Politique

Première chasseuse autonome au monde : une avancée technologique et une impasse éthique


La jeune entreprise de défense Shield AI a dévoilé, lors d’une cérémonie fastueuse à Washington, son nouvel avion de combat « X-Bat », présenté comme la première chasseuse entièrement autonome. Selon le magazine Responsible Statecraft, cette annonce relance des débats intenses sur la pertinence de confier à des systèmes automatisés des décisions mettant en jeu des vies humaines et le cours des affrontements sur les théâtres d’opération.

La société affirme que l’appareil, baptisé X-Bat, est capable d’exécuter des missions de combat de façon totalement indépendante — de l’engagement aérien aux frappes au sol — sans intervention humaine directe. Le directeur général, Armor Harris, a décrit l’aéronef comme un outil de dissuasion stratégique susceptible de « remporter la victoire sans guerre », par le biais d’un avantage technologique et psychologique.

D’après Shield AI, l’appareil peut décoller et atterrir verticalement depuis des plateformes en mouvement, supprimant ainsi la dépendance à des pistes conventionnelles et offrant une grande souplesse opérationnelle. Son autonomie opérationnelle est annoncée au-delà de 2 000 milles nautiques, et la firme laisse entendre que sa vitesse figurera parmi « les plus élevées du ciel ».

La production est prévue à partir de 2029, bien que le prototype n’ait jusqu’à présent fait l’objet d’aucun essai de campagne confirmé.

Le système d’intelligence artificielle

Le cœur du dispositif est l’IA « Hive Mind », développée par la société et déjà utilisée dans des expérimentations de vol menées pour le compte de l’armée américaine. Lors de la présentation, Harris a exposé un scénario virtuel dans lequel l’appareil défendait automatiquement un espace aérien donné et engageait tout objet non identifié en se référant à des règles d’engagement préprogrammées.

Face aux interrogations d’ordre éthique, Harris a affirmé que la société adopte le principe d’un « humain dans la boucle » pour chaque décision létale offensive, afin de permettre une intervention humaine susceptible d’interrompre l’action si nécessaire. Brandon Tsang, ancien officier de la Marine américaine et président de Shield AI, a pour sa part soutenu que la décision morale relative à l’emploi de la force létale doit « rester exclusivement entre les mains des humains ».

Pourtant, cette garantie soulève d’importantes difficultés pratiques : la société indique que l’avion peut poursuivre une attaque même en cas de perte de liaison, rendant alors toute intervention humaine impossible au moment décisif. Des responsables ont reconnu que certaines décisions de ciblage pourraient être prises avant le lancement de la mission, limitant d’autant l’efficacité du contrôle humain durant les phases critiques.

Conséquences et risques

Le déploiement de cette technologie suscite des craintes majeures, en particulier dans les environnements civils densément peuplés, où des frappes larges pourraient provoquer des pertes collatérales non intentionnelles. Des expériences antérieures en zones urbaines ont montré que la dépendance aux systèmes d’IA pour l’établissement de listes de cibles peut aboutir à des frappes fondées sur des informations inexactes ou évaluées en quelques dizaines de secondes seulement.

L’avenir de l’X-Bat oscille entre deux perspectives : d’un côté, une rupture stratégique dans la défense aérienne ; de l’autre, une problématique éthique et juridique majeure qui pourrait ouvrir la voie à l’attribution aux machines d’un pouvoir de vie et de mort.

Afficher plus

Articles similaires

Bouton retour en haut de la page