Société

Les Risques de l’IA Conduiront-ils à l’« Extinction Humaine » ?


Un groupe d’employés actuels et anciens de grandes entreprises de la Silicon Valley, impliqués dans le développement des technologies d’intelligence artificielle (IA), ont averti que ces technologies pourraient représenter une menace d’« extinction de l’humanité ».

Cet avertissement est venu dans une lettre ouverte signée par 13 anciens employés, principalement des entreprises telles qu’OpenAI, Anthropic et DeepMind (une filiale de Google).

La lettre a souligné que les chercheurs seniors en IA ont besoin de plus de protection pour pouvoir critiquer les nouveaux développements et les orientations de l’innovation en IA.

Les signataires ont exprimé leur croyance dans les avantages sans précédent que la technologie de l’IA pourrait offrir à l’humanité, mais ont également reconnu les risques significatifs que ces technologies posent, en particulier lorsqu’elles acquièrent de nouvelles capacités puissantes comme engager des conversations vocales directes avec les humains et interagir avec des informations visuelles telles que la création de vidéos et d’images.

Les risques vont de l’approfondissement des inégalités et de la manipulation à la perte de contrôle sur les systèmes autonomes d’IA, ce qui pourrait potentiellement conduire à l’extinction humaine.

Éviter une Surveillance Efficace

La lettre indiquait que les entreprises développant des technologies d’IA puissantes, y compris l’IA générale (un système théorique aussi intelligent ou plus intelligent que l’intelligence humaine), ont de fortes incitations financières à éviter une surveillance efficace par leurs employés, leur direction et le public.

Ils ont souligné que tout laboratoire visant à développer l’IA générale devrait démontrer qu’il mérite la confiance du public et devrait accorder aux employés un droit protégé de dénoncer.

La lettre a également appelé les entreprises à s’abstenir de punir ou de faire taire les employés actuels ou anciens qui parlent publiquement des risques de l’IA.

Réponse d’OpenAI

Un porte-parole d’OpenAI a convenu qu’un débat rigoureux sur l’IA est nécessaire compte tenu de l’importance de cette technologie.

Le porte-parole a confirmé que l’entreprise continuera de s’engager avec les gouvernements, la société civile et d’autres communautés dans le monde entier.

Ils ont expliqué qu’OpenAI prend plusieurs mesures pour s’assurer que ses employés sont entendus et que ses produits sont développés de manière responsable, y compris une hotline anonyme pour les travailleurs et un comité de sécurité et de sûreté qui examine les développements de l’entreprise.

OpenAI a également souligné son soutien à une réglementation accrue de l’IA et à des engagements volontaires concernant la sécurité de cette technologie.

Il est à noter que plusieurs chercheurs seniors ont quitté l’entreprise ces derniers mois, y compris le co-fondateur Ilya Sutskever. Cela survient après que l’entreprise ait connu une importante dispute interne au niveau du conseil d’administration l’année dernière, qui a temporairement évincé le PDG Sam Altman avant qu’il ne soit réintégré en moins d’une semaine.

Afficher plus

Articles similaires

Bouton retour en haut de la page