La Commission européenne a récemment publié de nouvelles directives pour aider les modèles d’intelligence artificielle identifiés comme présentant des risques systémiques à se conformer à la réglementation de l’Union européenne sur l’IA. Ces mesures visent à clarifier les attentes pour les entreprises avant l’application de la loi, prévue pour l’année prochaine.
L’essentiel à retenir
- Les modèles d’IA à risques systémiques doivent respecter de nouvelles directives de conformité établies par la Commission européenne.
- Les entreprises risquent de lourdes amendes en cas de non-conformité, pouvant atteindre 35 millions d’euros ou 7% du chiffre d’affaires mondial.
- La loi s’appliquera à partir du 2 août de l’année prochaine pour les modèles d’IA concernés, notamment ceux développés par des géants comme Google, OpenAI et Meta.
C’est quoi exactement les risques systémiques des modèles d’IA ?
Les modèles d’IA identifiés comme présentant des risques systémiques sont ceux dotés de capacités de calcul très avancées, susceptibles d’affecter la santé publique, la sécurité, les droits fondamentaux ou la société dans son ensemble. Ces modèles doivent désormais se soumettre à une série d’obligations rigoureuses pour évaluer et atténuer les risques potentiels.
Les entreprises responsables de ces modèles d’IA devront réaliser des évaluations de modèles, tester leur résistance aux attaques, et signaler tout incident grave à la Commission européenne. Elles devront également assurer une protection adéquate contre le vol et l’utilisation abusive de leurs systèmes.
Les modèles d’IA à usage général ou dits modèles fondamentaux devront quant à eux se conformer à des exigences de transparence, y compris la rédaction de documentation technique, l’adoption de politiques de droit d’auteur (voir le cas de l’action collective à l’encontre d’Anthropic aux États-Unis), et la fourniture de résumés détaillés sur le contenu utilisé pour l’entraînement des algorithmes.
Les conséquences financières pour non-conformité
Les entreprises qui ne se conformeront pas à ces nouvelles règles s’exposent à des amendes sévères. Celles-ci peuvent atteindre jusqu’à 35 millions d’euros ou 7% de leur chiffre d’affaires mondial, ce qui souligne l’importance de respecter ces directives.
Henna Virkkunen, responsable technologique de l’UE, a déclaré que ces directives visent à soutenir l’application fluide et efficace de l’AI Act, en apportant une clarté nécessaire aux entreprises concernées.
La Commission européenne joue un rôle central dans la régulation du secteur technologique dans l’UE. Avec l’AI Act, elle cherche à établir un cadre de gouvernance pour l’IA qui protège les citoyens tout en encourageant l’innovation. Google, OpenAI, Meta et d’autres leaders du secteur devront s’adapter à ces nouvelles exigences pour continuer à opérer sur le marché européen.