OpenAI et Google cachent-ils les dangers de l’IA qui pourraient mener à l’extinction de l’humanité ? D’anciens employés tirent la sonnette d’alarme !

D’anciens employés d’OpenAI et de Google DeepMind affirment que les entreprises dissimulent au grand public des informations cruciales sur leurs modèles d’IA. Ils réclament une meilleure protection pour les lanceurs d’alerte, afin de pouvoir exprimer leurs inquiétudes quant aux risques potentiellement catastrophiques de ces technologies.

L’IA, entre progrès et périls

Les dangers, les risques et les défis liés au développement de modèles d’intelligence artificielle toujours plus puissants et performants sont au cœur des débats actuels. Un groupe d’anciens et d’actuels employés d’OpenAI et de Google DeepMind vient de relancer la discussion en affirmant que ces entreprises dissimulent les dangers de l’IA qui pourraient conduire à l’extinction de l’humanité.

Dans une lettre ouverte intitulée « Un droit d’alerter sur l’intelligence artificielle avancée », 13 signataires, dont certains sont restés anonymes, soutiennent que l’IA a le potentiel de générer des bénéfices sans précédent pour l’humanité, mais qu’elle présente également des risques extrêmement élevés. Bien que ces risques aient été reconnus par les entreprises qui développent la technologie, ainsi que par des experts et des gouvernements du monde entier, il existe un manque de transparence sur le sujet.

Des entreprises opaques sur les risques de l’IA

Les anciens et actuels employés d’OpenAI et de Google citent des exemples frappants des dangers de l’IA que les entreprises elles-mêmes ont reconnus. Le scénario le plus extrême envisage la possible extinction de l’humanité face à la perte de contrôle des systèmes d’IA autonomes. Mais ils exposent aussi des cas plus tangibles dans l’immédiat, comme la désinformation, la manipulation de l’opinion publique ou l’aggravation des inégalités existantes.

Cependant, le point le plus intrigant de la lettre concerne les informations que les entreprises ne divulguent pas au grand public. Les experts qui ont travaillé chez OpenAI et DeepMind affirment que les entreprises disposent d’une vaste quantité de données sur le fonctionnement de leurs systèmes d’IA, les mesures de sécurité appliquées et les dommages auxquels la société est exposée en les utilisant. Mais comme elles n’ont aucune obligation d’en informer la société civile, elles choisissent de les cacher.

Un appel à plus de transparence et de protection des lanceurs d’alerte

Dans ce contexte, les experts demandent qu’OpenAI, Google DeepMind, Anthropic, Meta et autres acteurs de l’industrie de l’IA s’engagent à fournir des méthodes sûres permettant aux employés de partager leurs critiques et leurs craintes auprès des entreprises elles-mêmes, des régulateurs ou d’organismes indépendants sans craindre de représailles.

  • Les accords de confidentialité imposés par les entreprises sont jugés trop restrictifs
  • Les protections existantes pour les lanceurs d’alerte sont insuffisantes face aux enjeux de l’IA
  • Un processus adéquat de signalement anonyme des inquiétudes doit être mis en place

Parmi les 13 signataires, 7 sont d’anciens employés d’OpenAI, 4 y travaillent actuellement, 1 est un employé actuel de Google DeepMind et le dernier est un ex-membre de cette entreprise. La lettre est également soutenue par d’autres experts, dont Geoffrey Hinton, considéré comme le « parrain de l’intelligence artificielle », qui a quitté Google en 2023 pour exprimer librement ses inquiétudes sur le développement de la technologie.

Face à l’opacité des géants de la tech et à l’absence de régulation suffisante, ces lanceurs d’alerte tentent de sensibiliser le public aux risques potentiellement existentiels de l’IA. Leur appel à plus de transparence et de protection soulève des questions cruciales sur la gouvernance de ces technologies disruptives, dont les enjeux dépassent largement le cadre des entreprises qui les développent. L’avenir de l’humanité pourrait bien en dépendre.

Afficher Masquer le sommaire