ChatGPT interdit en Italie : quel impact en France ?

OpenAI et GPT-3

ChatGPT, l’assistant virtuel d’OpenAI, est connu pour ses performances exceptionnelles. Cependant, l’accès à ce robot conversationnel a été interdit en Italie, soulevant des interrogations sur une éventuelle interdiction en France.

→ Le meilleur outil basé sur OpenAI : testez gratuitement Jasper.ai (10 000 mots offerts)

ChatGPT et la protection des données personnelles : des failles inquiétantes

La fréquence des cyberattaques est en augmentation, et ChatGPT n’a malheureusement pas réussi à protéger les données personnelles de ses abonnés. Le 20 mars dernier, les données personnelles de 1,2% des abonnés à la version payante de ChatGPT, ChatGPT Premium, ont été compromises. De plus, la société aurait dû le signaler en vertu du Règlement général sur la protection des données (RGPD), mais ne l’a pas fait.

Les utilisateurs de ChatGPT sont également préoccupés par l’absence de vérification de l’âge de ses utilisateurs, ce qui est pourtant une exigence du RGPD. L’âge minimum requis pour utiliser la plateforme est de 13 ans, car l’IA pourrait fournir des réponses inappropriées aux plus jeunes.

Des doutes ont donc été émis quant à la conformité de ChatGPT aux règles du RGPD en matière d’IA. Enfin, l’entreprise aurait utilisé des données personnelles des utilisateurs pour développer d’autres modèles d’intelligence artificielle sans en informer ni avoir l’autorisation légale.

L’Italie interdit l’accès à ChatGPT

Le 30 mars 2023, le président de l’Autorité italienne de protection des données personnelles (GPDP) a annoncé l’interdiction d’accès à ChatGPT. Cette décision de l’équivalent de la CNIL en Italie, montre que la protection des données personnelles est prioritaire par rapport aux avancées de l’intelligence artificielle.

Ce n’est pas la première fois que l’Italie manifeste une certaine réticence à l’égard de l’IA. En février dernier, la GPDP avait interdit le robot de chat Replika, invoquant un non-respect du RGPD et un danger pour les utilisateurs vulnérables.

Cependant, il faut savoir que l’Italie n’a décrété qu’une interdiction temporaire : ChatGPT a jusqu’au 30 avril pour éviter une amende très lourde pouvant aller jusqu’à 20 millions d’euros ou 4 % de son chiffre d’affaires mondial annuel, soit le maximum prévu par le RGPD. Le 6 avril, l’entreprise a annoncé qu’elle renforcerait la transparence dans l’utilisation des données personnelles et les garanties pour les mineurs.

Les législateurs européens travaillent déjà sur un cadre juridique pour l’intelligence artificielle, mais il reste encore beaucoup à faire pour protéger efficacement les données personnelles des utilisateurs de l’IA.

→ Le meilleur outil basé sur OpenAI : testez gratuitement Jasper.ai (10 000 mots offerts)

La France préfère l’encadrement au bannissement

Cette décision italienne pourrait donner des idées à ses voisins européens, qui ont tous en commun le RGPD. Doit-on s’attendre à une interdiction de ChatGPT en France ? Il semblerait que non. Bien que la CNIL ait soutenu la décision de la GPDP, le ministre de la Transition numérique, Jean-Noël Barrot, a déclaré le 6 avril que « la question posée » par l’Italie est « subtile et intéressante, même si elle y apporte une mauvaise réponse ».

Il a déclaré à La Tribune que ChatGPT, dont le modèle d’apprentissage GPT-4 récemment annoncé est venu éclipser le modèle GPT-3, ne respecte pas certaines réglementations européennes, mais qu’il préfère « encadrer le développement de l’IA dans le sens que nous voulons » plutôt que de l’interdire totalement. Ce serait une meilleure façon de concilier l’intelligence artificielle avec les principes de protection de la vie privée et de la sécurité des utilisateurs.

La France est d’ailleurs déjà engagée dans cette voie, avec la loi du 8 avril 2021 visant à encadrer l’utilisation de l’IA. Cette loi, qui doit encore être votée par le Sénat, prévoit des obligations de transparence, de loyauté et de responsabilité pour les entreprises utilisant des algorithmes, ainsi que des garanties pour les personnes concernées. Les entreprises devront notamment faire preuve de vigilance en matière de discrimination et d’atteinte à la vie privée.

Pour être plus clair, la France ne semble pas sur le point d’interdire ChatGPT, mais plutôt de mettre en place un cadre juridique et éthique qui encadre l’utilisation de l’IA. Le débat entre interdiction et encadrement de l’IA n’est pas nouveau, mais l’interdiction semble être une solution radicale qui ne résout pas tous les problèmes posés par l’utilisation de ces technologies.

Que dit ChatGPT quand on lui demande ce qu’il pense des données personnelles ?

Réponse ChatGPT donnees-utilisateurs

Il est intéressant de s’adresser directement à ChatGPT pour savoir comment il gère les données de ses utilisateurs. À la question « que penses-tu de la gestion des données des utilisateurs de ChatGPT« , ce dernier nous répond de façon assez complète :


La protection des données personnelles est une préoccupation majeure pour ChatGPT. En tant que modèle de langage, ChatGPT est conçu pour traiter de grandes quantités de données, y compris des données personnelles. Nous prenons cela très au sérieux et nous nous engageons à protéger les données personnelles des utilisateurs de ChatGPT.

Nous utilisons des mesures de sécurité techniques et organisationnelles appropriées pour protéger les données personnelles des utilisateurs de ChatGPT contre la perte, l’utilisation abusive, l’accès non autorisé, la divulgation ou la modification. Nous nous conformons également aux lois applicables en matière de protection des données personnelles.

Lorsque vous interagissez avec ChatGPT, nous pouvons collecter des données personnelles telles que votre adresse IP, votre emplacement géographique, les informations de votre navigateur, les pages que vous visitez et les requêtes de recherche que vous effectuez. Nous utilisons ces données pour améliorer l’expérience utilisateur et pour optimiser les performances de ChatGPT.

Nous ne partageons pas vos données personnelles avec des tiers, sauf dans les cas suivants :

  • Si vous nous donnez votre consentement pour le partage de vos données personnelles avec des tiers ;
  • Si nous sommes tenus de le faire par la loi ou par une ordonnance judiciaire ;
  • Si nous avons besoin de partager vos données personnelles avec des prestataires de services tiers pour fournir des services en votre nom (par exemple, pour héberger des données ou pour fournir des services de support technique).

Dans tous les cas, nous prenons des mesures appropriées pour protéger vos données personnelles lorsque nous les partageons avec des tiers.

Nous conservons les données personnelles que nous collectons aussi longtemps que nécessaire pour les finalités pour lesquelles elles ont été collectées, à moins que la loi ne nous oblige à les conserver plus longtemps.

Si vous avez des questions ou des préoccupations concernant la protection des données personnelles de ChatGPT, n’hésitez pas à nous contacter à l’adresse privacy@chatgpt.com.


Reste à garder à l’esprit que les outils virtuels d’IA doivent être utilisés avec discernement : il ne faut pas oublier que lui fournir des données sensibles, privées, voire secret défense, ne sont pas conseillées. En effet, les IA fonctionnent toutes sur le modèle de machine learning, c’est-à-dire d’apprentissage automatique, se nourrissent des données des utilisateurs pour améliorer leur manière de répondre aux questions.

→ Le meilleur outil basé sur OpenAI : testez gratuitement Jasper.ai (10 000 mots offerts)

[Nouveau] 4 ebooks sur le digital marketing à télécharger gratuitement

Cet article vous a plu ? Recevez nos prochains articles par mail

Inscrivez-vous à notre newsletter, et vous recevrez un mail tous les jeudis avec les derniers articles d’experts publiés.

D’autres articles sur le même thème :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *