Le 5 septembre 2024 dernier, après l’AI act, un moment historique a été marqué par la signature d’un traité contraignant sur l’intelligence artificielle et les droits de l’homme. Ce texte, élaboré par le Conseil de l’Europe, vise à garantir que les systèmes d’IA respectent les droits fondamentaux, la démocratie et l’État de droit. Une initiative qui rassemble plusieurs nations, dont les États-Unis, le Royaume-Uni et l’Union européenne, autour d’une vision commune pour un développement responsable de l’IA. Découvrez les enjeux de ce traité inédit.
Un traité juridiquement contraignant pour l’IA et les droits de l’homme
La signature du premier traité juridiquement contraignant sur l’intelligence artificielle marque un tournant dans la régulation de cette technologie. Ce texte, signé à Vilnius lors d’une conférence du Conseil de l’Europe, vise à assurer que l’essor de l’IA reste conforme aux droits de l’homme, à la démocratie et à l’État de droit.
Le Conseil de l’Europe, à l’origine de cette initiative, a conçu un cadre qui prend en compte l’ensemble du cycle de vie des systèmes d’IA. Ce traité international encadre non seulement les progrès technologiques, mais aussi les risques qu’ils peuvent poser pour les libertés individuelles. On a récemment évoqué un risque à long terme pour l’IA de se nourrir de ses propres données. La neutralité technologique du texte permet à celui-ci d’évoluer en parallèle des innovations futures, le rendant adaptable aux nouveaux défis.
Les principes fondamentaux de la convention-cadre
Les activités entourant le développement et l’utilisation des systèmes d’IA doivent se conformer à des principes clés, comme la dignité humaine, l’égalité, la non-discrimination et la protection des données personnelles. Ce cadre insiste sur la transparence des décisions prises à l’aide de l’IA et garantit aux citoyens la possibilité de contester ces décisions si elles affectent leurs droits.
Le respect de la vie privée et l’autonomie individuelle sont également au centre des préoccupations, tout comme la surveillance des systèmes d’IA. Des mécanismes de responsabilité sont prévus, garantissant que les États et les acteurs privés sont tenus de rendre compte de l’utilisation de ces technologies, afin de prévenir tout abus.
Un cadre légal pour l’utilisation de l’IA dans les secteurs public et privé
Le traité impose des obligations directes aux États, tout en leur laissant une marge de manœuvre pour adapter les mesures aux contextes nationaux. Concernant les acteurs privés, chaque pays peut décider s’il inclut ou non ce secteur dans le champ d’application de la convention. Cette flexibilité pourrait toutefois poser des questions quant à l’efficacité globale du traité, notamment pour les services publics sous-traités à des entreprises privées.
Il est à noter que les activités militaires et de sécurité nationale ne sont pas couvertes par ce texte. De plus, les systèmes d’IA en phase de recherche et développement ne sont pas concernés, sauf si ces activités peuvent porter atteinte aux droits de l’homme ou à la démocratie.
Des mécanismes de protection et des lignes rouges
Le traité prévoit des évaluations d’impact sur les droits de l’homme pour les systèmes d’IA susceptibles d’influencer fortement la jouissance des droits fondamentaux. Les États signataires devront également assurer la mise en place de mesures de protection pour limiter l’impact des technologies sur les libertés individuelles.
On a vu que certains projets autour de l’IA pouvaient avoir une incidence sur l’humain : par exemple, le projet Butterflies AI est un réseau social qui accueille aussi bien des personnages alimentés par l’IA que des humains, permettant aux humains d’interagir avec ces utilisateurs virtuels.
Dans ce traité, des lignes rouges sont fixées pour certaines applications de l’IA, offrant aux autorités la possibilité d’introduire des moratoires ou des interdictions sur des systèmes jugés trop risqués pour les droits de l’homme ou la démocratie. Cette approche préventive vise à anticiper les dangers avant qu’ils ne deviennent irréversibles.
Le résultat de négociations internationales
Ce texte est le fruit de plusieurs années de discussions entre les États membres du Conseil de l’Europe et 11 pays non membres, comme les États-Unis, le Canada et le Japon. Adopté en mai 2024 par les ministres des Affaires étrangères, il ne sera effectif qu’après la ratification par au moins 5 signataires, dont 3 États membres du Conseil de l’Europe.
Ce processus de ratification marque une étape clé avant la mise en œuvre du traité, qui pourrait alors servir de base à une régulation plus globale des systèmes d’intelligence artificielle à l’échelle internationale.