Les initiés d’OpenAI et de DeepMind exigent des protections pour les lanceurs d’alerte en matière d’IA

Le 4 juin, des personnes ayant occupé des postes passés et présents chez OpenAI et Google DeepMind ont appelé à la protection des critiques et des lanceurs d’alerte.

Les auteurs d’une lettre ouverte ont exhorté les sociétés d’IA à ne pas conclure d’accords qui bloquent les critiques ou à riposter contre les critiques en entravant les avantages économiques.

En outre, ils ont déclaré que les entreprises devraient créer une culture de « critique ouverte » tout en protégeant les secrets commerciaux et la propriété intellectuelle.

Les auteurs ont demandé aux entreprises de créer des protections pour les employés actuels et anciens là où les processus de reporting des risques existants ont échoué. Ils ont écrit:

« Les protections ordinaires des lanceurs d’alerte sont insuffisantes car elles se concentrent sur les activités illégales, alors que bon nombre des risques qui nous préoccupent ne sont pas encore réglementés. »

Enfin, les auteurs ont déclaré que les entreprises d’IA devraient créer des procédures permettant aux employés de soulever de manière anonyme leurs préoccupations liées aux risques. De telles procédures devraient permettre aux individus de faire part de leurs préoccupations aux conseils d’administration des entreprises ainsi qu’aux organismes et régulateurs externes.

Préoccupations personnelles

Les treize auteurs de la lettre se décrivent comme des employés actuels et anciens d’« entreprises pionnières de l’IA ». Le groupe comprend 11 membres passés et présents d’OpenAI, ainsi qu’un ancien membre de Google DeepMind et un membre actuel de DeepMind, anciennement chez Anthropic.

Ils ont fait part de leurs préoccupations personnelles, déclarant :

“Certains d’entre nous craignent raisonnablement diverses formes de représailles, compte tenu de l’histoire de tels cas dans l’industrie.”

Les auteurs ont souligné divers risques liés à l’IA, tels que l’inégalité, la manipulation, la désinformation, la perte de contrôle de l’IA autonome et l’extinction potentielle de l’humanité.

Ils ont déclaré que les entreprises d’IA, ainsi que les gouvernements et les experts, ont reconnu les risques. Malheureusement, les entreprises ont de « fortes incitations financières » pour éviter toute surveillance et peu d’obligations de partager volontairement des informations privées sur les capacités de leurs systèmes.

Les auteurs affirmaient par ailleurs leur croyance dans les avantages de l’IA.

Lettre antérieure à 2023

La demande fait suite à une lettre ouverte d’avril 2023 intitulée « Pause Giant AI Experiments », qui mettait également en évidence les risques liés à l’IA. La lettre précédente a obtenu la signature de leaders de l’industrie tels que le PDG de Tesla et le président de X. Elon Musk et co-fondateur d’Apple Steve Wozniak.

La lettre de 2023 exhortait les entreprises à suspendre les expériences d’IA pendant six mois afin que les décideurs politiques puissent créer des cadres juridiques, de sécurité et autres.

Mentionné dans cet article
Publié dans : États-Unis, IA, En vedette

More Info

Greatly hearted has who believe. Drift allow green son walls years for blush. Sir margaret drawings repeated recurred exercise.

You have been successfully Subscribed! Ops! Something went wrong, please try again.

Quick Links

Services

About Me

Projects

Contact

Address

+1-(360) 416-7563

Phone Number

FelicitymcDowell@mail.com

Email Address

© 2024 Created with Royal Elementor Addons