Un conflit venu du futur : le Pentagone se heurte à Anthropic
L’utilisation des technologies d’intelligence artificielle dans l’industrie militaire suscite des divergences éthiques et des inquiétudes tournées vers l’avenir.
Selon trois sources informées citées par l’agence Reuters, le département américain de la Défense (Pentagone) et la société Anthropic, spécialisée dans le développement de l’intelligence artificielle, sont en désaccord sur la possibilité de lever certaines garanties qui pourraient permettre au gouvernement d’utiliser sa technologie de manière autonome dans des systèmes d’armement.
Ces discussions constituent un premier test visant à déterminer si les entreprises technologiques, qui ont regagné la confiance de Washington après des années de tensions, sont en mesure d’influencer la manière dont l’armée et les services de renseignement américains utilisent une intelligence artificielle de plus en plus puissante sur les champs de bataille.
Six sources proches du dossier ont indiqué qu’après plusieurs semaines de négociations, le département américain de la Défense et Anthropic étaient parvenus à une impasse.
Le Pentagone a commencé à faire pression pour supprimer les « garanties » limitant l’usage qu’il peut faire des applications de l’entreprise, dans une note publiée le 9 janvier courant.
La position de la société concernant l’utilisation de ses outils d’intelligence artificielle a aggravé les divergences avec l’administration du président Donald Trump.
Anthropic refuse que les capacités de calcul avancées de son application Claude soient utilisées pour des opérations de surveillance intérieure ou pour l’analyse à grande échelle de données de renseignement, estimant que cela constituerait une violation de ses politiques d’utilisation sûre visant à protéger les libertés civiles.
L’entreprise s’attache également au principe de « l’intelligence artificielle constitutionnelle » et affirme que sa technologie ne doit pas être utilisée pour développer des armes autonomes susceptibles d’échapper à tout contrôle.
À l’inverse, l’administration Trump adopte une stratégie selon laquelle le gouvernement doit être en mesure de déployer des solutions d’intelligence artificielle commerciales indépendamment des politiques d’utilisation des entreprises, dès lors que cet usage est conforme au droit américain.
