Comment les modèles d’IA à risques systémiques doivent se conformer aux règles de l’AI Act ?

IA Google

La Commission européenne a récemment publié de nouvelles directives pour aider les modèles d’intelligence artificielle identifiés comme présentant des risques systémiques à se conformer à la réglementation de l’Union européenne sur l’IA. Ces mesures visent à clarifier les attentes pour les entreprises avant l’application de la loi, prévue pour l’année prochaine.

L’essentiel à retenir

  • Les modèles d’IA à risques systémiques doivent respecter de nouvelles directives de conformité établies par la Commission européenne.
  • Les entreprises risquent de lourdes amendes en cas de non-conformité, pouvant atteindre 35 millions d’euros ou 7% du chiffre d’affaires mondial.
  • La loi s’appliquera à partir du 2 août de l’année prochaine pour les modèles d’IA concernés, notamment ceux développés par des géants comme Google, OpenAI et Meta.

C’est quoi exactement les risques systémiques des modèles d’IA ?

Les modèles d’IA identifiés comme présentant des risques systémiques sont ceux dotés de capacités de calcul très avancées, susceptibles d’affecter la santé publique, la sécurité, les droits fondamentaux ou la société dans son ensemble. Ces modèles doivent désormais se soumettre à une série d’obligations rigoureuses pour évaluer et atténuer les risques potentiels.

Les entreprises responsables de ces modèles d’IA devront réaliser des évaluations de modèles, tester leur résistance aux attaques, et signaler tout incident grave à la Commission européenne. Elles devront également assurer une protection adéquate contre le vol et l’utilisation abusive de leurs systèmes.

Les modèles d’IA à usage général ou dits modèles fondamentaux devront quant à eux se conformer à des exigences de transparence, y compris la rédaction de documentation technique, l’adoption de politiques de droit d’auteur (voir le cas de l’action collective à l’encontre d’Anthropic aux États-Unis), et la fourniture de résumés détaillés sur le contenu utilisé pour l’entraînement des algorithmes.

Les conséquences financières pour non-conformité

Les entreprises qui ne se conformeront pas à ces nouvelles règles s’exposent à des amendes sévères. Celles-ci peuvent atteindre jusqu’à 35 millions d’euros ou 7% de leur chiffre d’affaires mondial, ce qui souligne l’importance de respecter ces directives.

Henna Virkkunen, responsable technologique de l’UE, a déclaré que ces directives visent à soutenir l’application fluide et efficace de l’AI Act, en apportant une clarté nécessaire aux entreprises concernées.

La Commission européenne joue un rôle central dans la régulation du secteur technologique dans l’UE. Avec l’AI Act, elle cherche à établir un cadre de gouvernance pour l’IA qui protège les citoyens tout en encourageant l’innovation. Google, OpenAI, Meta et d’autres leaders du secteur devront s’adapter à ces nouvelles exigences pour continuer à opérer sur le marché européen.

[Nouveau] 4 ebooks sur le digital marketing à télécharger gratuitement

Cet article vous a plu ? Recevez nos prochains articles par mail

Inscrivez-vous à notre newsletter, et vous recevrez un mail tous les jeudis avec les derniers articles d’experts publiés.

D’autres articles sur le même thème :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *