Moyen-Orient

Nouvelles technologies israéliennes à Gaza : l’intelligence artificielle soulève un débat éthique


Larmée israélienne utilise des algorithmes et des systèmes automatisés pour bombarder des cibles et assassiner des dirigeants de factions palestiniennes à Gaza et au Liban, ce qui a entraîné la mort dun grand nombre de civils.

Une enquête publiée par le journal américain The New York Times a révélé l’utilisation par Israël de technologies avancées d’intelligence artificielle (IA) lors de sa dernière guerre contre la bande de Gaza, suscitant un large débat éthique, notamment en ce qui concerne la protection des civils. Israël a testé une série de nouvelles technologies utilisées pour la première fois sur le champ de bataille, soulevant des interrogations sur l’avenir des guerres, qui pourraient davantage reposer sur des algorithmes et des systèmes automatisés plutôt que sur des décisions humaines directes.

Selon l’enquête, Israël a déployé des systèmes d’IA dans divers domaines militaires à Gaza, notamment pour la localisation de cibles, la reconnaissance faciale et l’analyse de contenus en arabe. Ces technologies ont amélioré l’efficacité des opérations militaires et la précision des frappes, mais leurs implications éthiques sont graves et pourraient ouvrir la voie à des usages encore plus complexes dans les guerres futures.

Le rapport indique qu’Israël a utilisé un outil de reconnaissance vocale alimenté par l’IA, développé par les ingénieurs de l’unité 8200, pour localiser Ibrahim Biari, un dirigeant du Hamas, après l’échec du renseignement israélien à le retrouver via le réseau de tunnels. Le 31 octobre 2023, une frappe aérienne guidée par cette technologie a tué Biari, mais a également causé la mort de plus de 125 civils, selon l’organisation britannique Airwars.

Cette frappe a marqué un tournant dans l’utilisation de l’IA dans les guerres modernes : malgré la grande précision de ces systèmes, les pertes civiles inattendues ont soulevé de vives questions sur les considérations éthiques liées à leur emploi.

Depuis cette opération, Israël a accéléré l’intégration de l’IA dans ses opérations militaires. Parmi les principales technologies figurent des programmes de reconnaissance faciale déployés dans les espaces publics et aux frontières nord et sud de Gaza, ainsi que des outils de sélection automatique de cibles militaires, rendant les frappes aériennes de plus en plus dépendantes des algorithmes, sans intervention humaine directe.

Une autre innovation est un grand modèle linguistique en arabe capable d’analyser les publications et communications électroniques dans différentes variantes dialectales. Cette technologie a été utilisée pour évaluer les réactions populaires après certaines opérations, comme l’assassinat du chef du Hezbollah, Hassan Nasrallah, permettant ainsi de prévoir les réactions publiques dans le monde arabe.

Malgré le succès technologique, de nombreux risques sont apparus. Selon des responsables israéliens, certaines erreurs d’identification ont conduit à des arrestations injustifiées et à des pertes civiles. Hadass Lorber, experte en IA et ancienne directrice du Conseil national de sécurité israélien, a mis en garde contre les dangers d’une utilisation incontrôlée, déclarant : « L’intelligence artificielle a changé les règles du jeu sur le terrain, mais sans des contrôles stricts, cela pourrait avoir des conséquences désastreuses. »

Aviv Shapira, fondateur de la société Extend spécialisée dans les drones, a également souligné l’importance de trouver un équilibre entre efficacité et éthique. Selon lui, les algorithmes modernes sont capables de suivre des cibles mobiles avec une précision redoutable, rendant les guerres futures potentiellement plus complexes et moins humaines.

La question de la responsabilité éthique dans l’usage militaire de l’IA occupe désormais une place centrale dans le débat mondial sur l’avenir des conflits. Des responsables américains et européens se sont dits préoccupés que ce qui se passe à Gaza puisse devenir un modèle des guerres de demain, où les algorithmes prendraient une part majeure dans les décisions militaires, au risque d’erreurs dramatiques et d’un mépris accru pour la vie civile.

Le développement rapide de l’IA permet aux systèmes militaires de prendre des décisions de combat fondées sur les données, mais expose aussi les civils à de graves dangers si des contrôles stricts ne sont pas mis en place pour vérifier la précision des cibles et des décisions.

Enfin, il est important de rappeler qu’Israël a déjà utilisé des technologies de pointe dans des conflits antérieurs, notamment le système de défense Dôme de Fer et les drones offensifs. Toutefois, dans la dernière guerre à Gaza, l’usage de l’intelligence artificielle a dépassé les frontières traditionnelles, devenant une composante essentielle des opérations militaires.

Afficher plus

Articles similaires

Bouton retour en haut de la page