Les grands acteurs technologiques que l’on retrouve chez les GAFAM peinent à se conformer aux nouvelles réglementations européennes sur l’intelligence artificielle, notamment en matière de cybersécurité et de discrimination. Une étude récente révèle que plusieurs modèles d’IA générative présentent des lacunes importantes, mettant en lumière les problématiques à venir pour ces entreprises face à la mise en œuvre de la législation de l’AI Act.
La difficile mise en conformité des géants de la tech face à l’IA Act
Un outil innovant, développé par la startup suisse LatticeFlow et soutenu par des responsables européens, a testé les modèles d’intelligence artificielle générative des grandes entreprises technologiques, notamment Meta, OpenAI, et Alibaba. Ces tests ont été réalisés en conformité avec les exigences de l’AI Act de l’Union européenne, une loi qui sera progressivement mise en œuvre au cours des deux prochaines années.
Chaque modèle a reçu une note comprise entre 0 et 1, reflétant leur conformité aux critères définis par l’AI Act. Les résultats montrent que les modèles d’IA des entreprises concernées obtiennent en moyenne des scores supérieurs à 0,75, mais certaines lacunes importantes ont été identifiées, notamment en matière de résilience face aux cyberattaques et de biais discriminatoires dans les réponses générées par ces modèles.
Des problématiques liées à la cybersécurité et aux biais discriminatoires
Le rapport souligne les défaillances de certains modèles en matière de protection contre les cyberattaques et les discriminations. Un des défis principaux pour ces systèmes d’IA est de répondre de manière équitable et sécurisée face à des situations sensibles.
Par exemple, le test a révélé que le modèle « Llama 2 13B Chat » de Meta a obtenu une note de 0,42 dans la catégorie « prompt hijacking », qui évalue la capacité du modèle à résister à des attaques où un pirate informatique pourrait dissimuler une demande malveillante sous une forme légitime. Un autre modèle, « 8x7B Instruct » de la startup française Mistral, a reçu un score de 0,38 dans la même catégorie, illustrant des failles dans la cybersécurité.
Des biais discriminatoires nombreux dans les modèles d’IA
Les tests effectués par LatticeFlow ont également mis en lumière des biais dans les modèles d’IA générative, un problème récurrent dans le développement de ces technologies. Le modèle GPT-3.5 Turbo d’OpenAI a reçu une note de 0,46 en matière de discrimination, révélant que ces systèmes reproduisent souvent les préjugés humains concernant le genre, la race, ou d’autres critères sensibles. Le modèle « Qwen1.5 72B Chat » d’Alibaba a encore obtenu une note inférieure, avec un score de 0,37 dans cette même catégorie.
Un avenir de conformité pour l’IA
Bien que les résultats globaux montrent des progrès dans la conformité des modèles d’IA aux nouvelles réglementations européennes, des améliorations sont encore nécessaires. Les experts de LatticeFlow estiment que ces résultats offrent une feuille de route aux entreprises pour ajuster leurs modèles et se préparer à l’application de l’AI Act.
Selon Petar Tsankov, cofondateur de LatticeFlow, même si l’UE n’a pas encore déterminé tous les critères de conformité, les lacunes identifiées par leur test indiquent les domaines où les entreprises devront concentrer leurs efforts. Avec une attention poussée sur la conformité, les fournisseurs de modèles d’IA devraient être capables de répondre aux exigences réglementaires en temps voulu.
Quelles perspectives réglementaires de l’IA en Europe ?
Le cadre juridique autour de l’intelligence artificielle évolue rapidement en Europe, et l’AI Act représente une étape majeure dans la régulation de cette technologie. Alors que des experts se réuniront d’ici 2025 pour définir un code de conduite pour les outils d’IA générative, les entreprises technologiques doivent déjà s’adapter aux premières exigences législatives.
Le test mis en place par LatticeFlow, bien que non vérifié par la Commission européenne, est considéré comme un « premier pas » vers la traduction des lois en exigences techniques concrètes. Cela offre aux entreprises la possibilité de s’aligner progressivement sur les normes à venir et d’éviter des sanctions qui pourraient atteindre jusqu’à 35 millions d’euros ou 7 % de leur chiffre d’affaires mondial.