OpenAI soutient une loi californienne exigeant l’ajout d’un filigrane sur les contenus générés par l’IA

L'intelligence artificielle

Dans un contexte où les contenus générés par l’IA prennent une place croissante, certains acteurs prennent position, comme YouTube qui a dernièrement pris les devants pour permettre aux créateurs de contenus d’étiqueter les vidéos générés par l’IA. Dans ce contexte, OpenAI se positionne en faveur d’une nouvelle législation californienne visant à renforcer la transparence. Cette initiative, qui fait écho aux préoccupations concernant la désinformation, pourrait marquer un tournant dans la régulation des technologies émergentes. Découvrons ensemble les enjeux et implications de ce projet de loi.

Un projet de loi pour encadrer les contenus synthétiques

Le projet de loi AB 3211, proposé en Californie, vise à obliger les entreprises à étiqueter les contenus générés par l’IA. Cette mesure inclut non seulement des éléments innocents comme les mèmes, mais aussi des créations potentiellement nuisibles, telles que les deepfakes. Ces derniers, utilisés pour diffuser de fausses informations, notamment en période électorale, soulèvent de sérieuses préoccupations.

La législation cherche à prévenir les risques associés à la manipulation de l’opinion publique en imposant un marquage clair des contenus d’origine synthétique. OpenAI, le créateur de ChatGPT, a exprimé son soutien à cette initiative, soulignant l’importance de la transparence en matière de provenance des contenus, surtout dans un contexte mondial où les élections se multiplient.

Le contexte législatif en Californie de ce projet de loi AB 3211

La Californie, en tant que leader technologique, a déjà introduit plusieurs projets de loi visant à encadrer l’utilisation de l’IA. En 2023, l’État a vu plus de 65 propositions législatives sur le sujet, allant de la sécurité des modèles IA à la protection de la propriété intellectuelle post-mortem.

Malgré l’abondance de ces projets, beaucoup n’ont pas abouti. Cependant, l’AB 3211 a su capter l’attention, notamment grâce à l’implication d’acteurs majeurs comme OpenAI. Contrairement au projet SB 1047, qui impose des tests de sécurité pour certains modèles IA, l’AB 3211 se concentre sur la transparence et la protection des électeurs contre les manipulations numériques.

Les prochaines étapes pour le projet de loi

Après avoir été adopté à l’unanimité par l’Assemblée de l’État de Californie, le projet de loi AB 3211 doit désormais être voté par l’ensemble du Sénat. Si ce dernier l’approuve, la législation sera soumise au gouverneur Gavin Newsom pour signature avant la fin septembre. Cette échéance est capitale, car elle déterminera si la Californie adoptera ou non des règles strictes pour le marquage des contenus générés par l’IA avant la fin de la session législative.

OpenAI, par l’intermédiaire de son directeur de la stratégie Jason Kwon, a affirmé que des normes technologiques peuvent aider le public à discerner la provenance des contenus en ligne. Ce projet de loi pourrait ainsi jouer un rôle clé pour éviter la confusion entre les contenus authentiques et ceux créés par IA, particulièrement lors des élections où la manipulation de l’information est une préoccupation majeure.

Source : https://www.reuters.com/technology/artificial-intelligence/openai-supports-california-ai-bill-requiring-watermarking-synthetic-content-2024-08-26/

[Nouveau] 4 ebooks sur le digital marketing à télécharger gratuitement

Cet article vous a plu ? Recevez nos prochains articles par mail

Inscrivez-vous à notre newsletter, et vous recevrez un mail tous les jeudis avec les derniers articles d’experts publiés.

D’autres articles sur le même thème :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *