Suivez Nous

Les employés d’OpenAI et Google DeepMind tirent la sonnette d’alarme sur les risques de l’IA

Alexandre Martin | | Technologie

Un groupe d’employés actuels et anciens d’OpenAI et de Google DeepMind, deux géants de l’intelligence artificielle (IA), ont rompu le silence pour exprimer leurs profondes inquiétudes quant aux risques liés au développement effréné de cette technologie. Dans une lettre ouverte publiée le 4 juin 2024, ils dénoncent un manque de transparence et de responsabilité de la part des entreprises du secteur, mettant en péril l’avenir de l’humanité.

Des risques allant de la désinformation à l’extinction de l’humanité

Les signataires, dont certains ont préféré garder l’anonymat par crainte de représailles, mettent en garde contre une série de dangers potentiels liés à l’IA. Parmi ceux-ci figurent la propagation massive de fausses informations, la perte de contrôle sur des systèmes d’IA autonomes, l’exacerbation des inégalités sociales et économiques, et même, dans le pire des scénarios, l’extinction de l’espèce humaine.

« Ces risques vont de l’aggravation des inégalités existantes à la manipulation et à la désinformation, à la perte de contrôle des systèmes d’IA autonomes, pouvant potentiellement entraîner l’extinction de l’humanité. Les sociétés d’IA elles-mêmes ont reconnu ces risques, tout comme les gouvernements. à travers le monde et d’autres experts en IA. » ont-ils écrit .

« Nous espérons que ces risques pourront être atténués de manière adéquate grâce à des conseils suffisants de la part de la communauté scientifique, des décideurs politiques et du public. Cependant, l’IA les entreprises sont fortement incitées financièrement à éviter une surveillance efficace, et nous ne pensons pas que des structures sur mesure de gouvernance d’entreprise soient suffisantes pour changer cette situation.« 

Un appel à la transparence et à la responsabilité

Les employés d’OpenAI et de Google DeepMind appellent à une prise de conscience urgente de la part des dirigeants du secteur, des gouvernements et du grand public. Ils demandent la mise en place de réglementations strictes pour encadrer le développement de l’IA, ainsi qu’une plus grande transparence sur les recherches et les expérimentations menées dans ce domaine.

« Les sociétés d’IA possèdent des informations non publiques substantielles sur les capacités et les limites de leurs systèmes, l’adéquation de leurs mesures de protection et les risques. niveaux de différents types de préjudices. Cependant, ils n’ont actuellement que de faibles obligations de partager certaines de ces informations avec les gouvernements, et aucune avec la société civile. Nous ne pensons pas qu’on puisse compter sur eux pour le partager volontairement. »

Une mobilisation qui prend de l’ampleur

Cette lettre ouverte intervient dans un contexte de prise de conscience croissante des risques liés à l’IA. De nombreux experts et personnalités publiques, dont Elon Musk et le regretté Stephen Hawking, ont déjà mis en garde contre les dangers potentiels de cette technologie. La mobilisation des employés d’OpenAI et de Google DeepMind pourrait marquer un tournant dans le débat public sur l’IA et inciter les décideurs à prendre des mesures concrètes pour protéger l’humanité.

Alexandre Martin

Laisser un commentaire