OpenAI, the start-up to the origin of ChatGPT, demande aux législateurs Americains de réguler l’intelligence artificielle. Par le biais de son PDG, la société évoque la creation d’une agence de régulation dédiee à l’IA… mais celle-ci pourrait réclamer des données qu’OpenAI n’est pas prête à communiquer.

Sam Altman, PDG and co-founder d’OpenAI, a témoigné devant les membres du Sénat américain ce mardi 16 may 2023. Au cours de l’audience, l’entrepreneur a longuement pressé les législateurs de mettre en place un cadre réglementaire autour de l’intelligence artificielle. In a miroir d’une myriad de personalities, don’t Steve Wozniak, Elon Musk or Eric Schmidt, Sam Altman alerte sur les dangers inherent in the IA générative :

« Je pense que si cette technology tourne mal, elle peut faire beaucoup de dégâts. Et nous voulons nous faire entender à ce sujet ».

L’impact de l’IA sur l’emploi

Sans surprise, le PDG d’OpenAI estime que l’intelligence artificielle comporte autant de benefices que de risques. Selon lui, les IA génératives peuvent à la fois suppresser des emplois – 300 millions de jobs risquent d’ailleurs de disparaître selon Goldman Sachs – et créer de new professions.

Mais, for the moment, the solutions deployed by the start-up, like ChatGPT or Dall-E, are presented plus d’avantages que de risques, Tempere Altman. Le trentenaire consider néanmoins qu’il est “Essential de veiller à leur security for notre travail” en s’associate avec les gouvernements.

À lire also : ces deux nouveautés from all changer à ChatGPT

Une agency pour supervisor l’IA

Concrètement, Sam Altman a plaidé pour la creation d’une agence federale chargeee de livrer des licenses pour la creation de nouveaux modèles d’IA. Sans l’accord de cette autorité, les géants de la technologie ne pourraient pas deployer de grands modèles linguistiques. L’entité serait également en mesure de mettre en place les règles et les tests qu’une IA doit absolutely passer avant d’être mise à disposition des utilisateurs.

« Nous devons travailler ensemble for trouver une approach totalement nouvelle »ahead of Sam Altman, ready to collaborate with the legislateurs.

L’idée d’une agence dédiée a été reprise par plusieurs sénateurs. Ceux-ci souhaitent d’ailleurs que la future entity puisse obliger les companies à divulguer les lingerie de leurs models d’IA. Par example, les législateurs voudraient que les concepts partagent des informations sur le fonctionnement des IA et sur les données avec lesquelles elles ont été formées.

A manque de transparency

Notez qu’OpenAI refuse ferment de révéler quels types de données ont été utilisées pour entraîner ChatGPT. Comme l’a remarqué Gary Marcus, an expert de l’IA present devant le sénat, OpenAI manque encore de transparency sur la manière dont ChatGPT a été formé.

Mettant en avant les risques en matière de sécurité, the start-up se contente de préciser qu’une base de données antérieures à 2021 a permis d’entraîner GPT-4, la dernière itération du modèle GPT derrière ChatGPT. U.N “corpus de données” comprent « des solutions correctes et incorrectes aux problèmes mathématiques, un raisonnement faible et fort, des énoncés contradictoires et coherents, et represent a grande variété d’idéologies et d’idées » a été utilisé, precise la société. Si l’agence conseillée par Sam Altman venait à voir le jour, elle pourrait bien réclamer des informations confidentielles qu’OpenAI n’a pas envie de divulguer…

Par ailleurs, the senateurs reclaim the creation d’a regulation antitrust visant à éviter les pratiques anticoncurrentielles. If futures measure doivent éviter qu’un géant, comme Microsoft or Google, ou qu’une start-up devenue un mastodonte, tel qu’OpenAI, ne prenne le control complete du secteur de l’IA.

La regulation s’organise

Dans le reste du monde, the regulation of l’IA s’organe également. La Chine a en effet mis en place des règles très strictes pour réglementer l’intelligence artificielle, au risque de brider l’innovation. En Europe, the European Council for the Protection of Donations (CEPD) creates a group of travel destinations to determine the position of the adopter concerned ChatGPT and other robots conversations. En parallel, “l’AI Act” a été adopted par le Parlement européen. Ce texte vise à encadrer l’activité des IA génératives sur le territoire européen.

sources :

New York Times

California18

Welcome to California18, your number one source for Breaking News from the World. We’re dedicated to giving you the very best of News.

Leave a Reply