BlogActualitéChatGPT, IA et conformité des tiers : ce que prévoit le Parlement Européen

ChatGPT, IA et conformité des tiers : ce que prévoit le Parlement Européen

Alliant des applications innovantes à des enjeux de conformité, ChatGPT, outil d’IA générative développé par OpenAI, est au cœur des préoccupations des entreprises et des régulateurs.

Dans cet article, Provigis explore les fonctionnalités de ChatGPT, ses applications dans le monde de l’entreprise, les risques associés à son utilisation ainsi que les récents développements réglementaires liés à l’IA en Europe. Nous discuterons enfin de l’importance de la gestion de la conformité des tiers dans ce macroenvironnement technologique en effervescence.

Qu’est-ce que ChatGPT ?

ChatGPT est une intelligence artificielle de traitement du langage naturel développée par OpenAI. Il s’agit d’une version spécifique du modèle de langage GPT (Generative Pretrained Transformer), optimisée pour la génération de textes en réponse à des entrées textuelles.

GPT fait partie d’une classe de modèles d’apprentissage profond appelés « transformateurs », qui utilisent des mécanismes d’attention pour pondérer l’importance relative des différentes parties d’une entrée lors de la génération d’une sortie. Le « pré-entraînement » fait référence à la manière dont ces modèles sont d’abord formés sur une grande quantité de textes leur permettant d’apprendre un grand nombre de faits (jusqu’à 2021), de relations grammaticales, de structures syntaxiques et de tendances stylistiques.

La version spécifique du modèle utilisée par ChatGPT est GPT-4, qui a intègre des milliards de « paramètres ». Ces paramètres sont des poids numériques ajustés pendant la phase de pré-entraînement pour minimiser la différence entre les prédictions du modèle et les sorties effectives. Après le pré-entraînement, le modèle est ensuite affiné sur une tâche spécifique, comme la génération de réponses à des questions ou la rédaction de textes persuasifs.

Bien que ChatGPT soit capable de générer des réponses précises et pertinentes à un grand nombre de questions, il n’a pas de « compréhension » de ses réponses à proprement parler. Il s’agit simplement d’un outil de traitement du langage basé sur des modèles statistiques qui opère des choix probabilistes pour déterminer le mot le plus susceptible de « faire sens » après le dernier mot rédigé.

Quelles sont les applications de ChatGPT dans l’entreprise ?

Dès son lancement fin novembre 2022, ChatGPT a rapidement trouvé sa place dans le monde de l’entreprise, notamment dans les départements marketing.

  1. Service Client : ChatGPT peut être utilisé en tant que chatbot pour automatiser les interactions avec les clients, répondre aux questions fréquemment posées, aider les utilisateurs à naviguer sur un site web ou une application et résoudre les problèmes courants sans nécessiter l’intervention d’un humain ;
  2. Aide à la décision : les entreprises peuvent utiliser ChatGPT pour synthétiser et résumer les informations à partir de diverses sources de données, ce qui peut aider les dirigeants à prendre des décisions éclairées ;
  3. Rédaction et édition de contenu : c’est sans doute l’application la plus courante. ChatGPT peut en effet générer du contenu comme des articles de blog, des communiqués de presse, des descriptions de produits, des emails, etc. Il peut également jouer le rôle d’un assistant de création de contenu en suggérant des idées, des plans, des angles, etc. ;
  4. Formation et apprentissage en ligne : les programmes de formation peuvent utiliser ChatGPT pour fournir des réponses instantanées aux questions des apprenants, créer des scénarios de formation interactifs ou même générer des examens et des exercices personnalisés ;
  5. Recrutement et RH : ChatGPT peut aider à automatiser certaines tâches de recrutement comme la présélection des candidatures, la réponse aux questions fréquemment posées par les candidats, une initiation à la culture de l’entreprise, etc. ;
  6. Automatisation des tâches administratives : ChatGPT peut être utilisé pour automatiser certaines tâches administratives comme la rédaction d’emails, de notes de service ou de rapports, la planification de réunions, la gestion des rappels de tâches, etc.

Les risques associés à l’utilisation des outils d’IA générative

Comme toute technologie, l’intelligence artificielle générative et les modèles de traitement du langage naturel comme ChatGPT présentent des risques d’abus, notamment :

  1. Diffusion de fausses informations : si un modèle d’IA est formé sur des données contenant des informations erronées, il peut répéter ces erreurs dans ses propres générations. C’est ce que l’on appelle « Garbage In, Garbage Out » (GIGO) ;
  2. Discrimination et biais : les modèles d’IA sont formés sur des données existantes qui peuvent refléter les biais présents dans la société. Par conséquent, l’IA peut apprendre et perpétuer ces biais, ce qui peut entraîner une discrimination dans ses décisions ou ses suggestions ;
  3. Atteinte à la vie privée : les outils d’IA peuvent être utilisés pour automatiser la collecte et l’analyse de grandes quantités de données, avec un risque de violation du RGPD par exemple ;
  4. Propriété intellectuelle : si un outil d’IA génère un contenu original (par exemple un article de blog ou une fiche de produit), il peut être difficile de déterminer qui possède les droits d’auteur sur ce contenu. De plus, si un outil d’IA utilise des données ou du contenu protégés par les droits d’auteur pour se former, l’entreprise s’expose au plagiat.

S’ils sont inhérents à la technologie de l’IA générative en elle-même, ces risques se sont exacerbés avec l’adoption massive de ChatGPT depuis la fin de l’année 2022. En effet, le chatbot d’OpenAI a signé la croissance la plus rapide de l’histoire des applications destinées au grand public, dépassant le cap des 100 millions d’utilisateurs actifs mensuels en deux mois. A titre de comparaison, TikTok a eu besoin de neuf mois pour dépasser la barre des 100 millions, contre plus de deux ans pour Instagram. C’est donc tout naturellement que le Parlement européen s’est emparé de la question.

Le parlement européen veut mieux encadrer l’usage de l’IA générative

Le projet européen de régulation de l’IA a obtenu un premier feu vert des eurodéputés le jeudi 11 mai 2023 pour imaginer un cadre juridique dédié à l’usage des outils de type ChatGPT. Rappelons que Bruxelles avait mis au point un projet de règlement il y a plus de deux ans, mais il a été rendu obsolète par les avancées fulgurantes des outils IA comme ChatGPT mais aussi Midjourney. « Nous avons reçu plus de 3 000 amendements. Il suffit d’allumer la télé, chaque jour on constate l’importance de ce dossier pour les citoyens. L’Europe veut une approche éthique, basée sur l’humain », explique Dragos Tudorache, corapporteur du texte.

Le rapport du Parlement européen dresse les grandes lignes des régulations à venir :

  • Le texte s’inscrit dans le sillage des réglementations existantes sur la sécurité des produits et s’adresse avant tout aux entreprises ;
  • Les applications jugées « à haut risque » seront les premières à être visées, notamment les infrastructures critiques, l’éducation, les ressources humaines, la santé, le maintien de l’ordre, etc. ;
  • Le projet prévoit un contrôle humain sur les outils IA, la mise en place d’une documentation technique et le déploiement d’un système de gestion du risque ;
  • La question des droits d’auteur se pose avec force, et certains eurodéputés souhaitent que les fournisseurs de solutions d’IA révèlent les travaux utilisés pour développer et alimenter leurs algorithmes, notamment les études scientifiques, les musiques, les photos, les vidéos, etc. ;
  • Il appartiendra à chaque Etat membre de désigner les autorités de surveillance, mais les CNIL (et équivalent) sont fortement pressenties pour jouer ce rôle.

L’Italie a été le premier pays européen à prendre des mesures, interdisant l’accès à ChatGPT sur son territoire fin mars 2023, le temps qu’OpenAI réponde aux interrogations de l’autorité italienne de protection des données personnelles sur le respect du RGPD. L’interdiction a été levée le 28 avril 2023, après qu’OpenAI a diffusé sur son site une note d’information aux utilisateurs sur les données collectées par la firme pour entraîner ses algorithmes.

En parallèle, des personnalités du monde de l’IT et des scientifiques médiatisés ont réclamé un moratoire sur le développement des outils d’IA comme ChatGPT pour prévenir les dérives, notamment en matière de fake news et de deep fake.

L’IA générative et la conformité des tiers

Alors que l’Europe s’active pour développer un arsenal juridique adapté à la cadence des avancées en matière d’IA, l’utilisation d’outils comme ChatGPT et Midjourney suscite des questions de conformité qui dépassent les frontières de l’entreprise elle-même pour englober l’ensemble de son écosystème, y compris ses partenaires et fournisseurs. Toute faille dans la conformité de ces tiers à des réglementations cruciales comme le RGPD pourrait avoir des répercussions juridiques, financières et réputationnelles significatives pour l’entreprise.

Dans ce contexte, l’obligation de la gestion de la conformité des tiers vis-à-vis de l’utilisation de l’IA n’est qu’une question de temps. À mesure que ces technologies s’installent dans le quotidien des entreprises, les exigences de conformité liées à leur utilisation deviendront de plus en plus rigoureuses et étendues. Il sera donc essentiel pour les entreprises de pouvoir attester de la conformité de leurs partenaires et fournisseurs en matière d’IA.

En tant que Tiers de Collecte Probatoire (TCP), Provigis accompagne les entreprises pour simplifier la gestion et le suivi de la conformité de leurs tiers et leur permettre de se concentrer sur leur activité principale pour stimuler la croissance, capitaliser sur les opportunités majeures de ces avancées technologiques tout en se protégeant des menaces qu’elles peuvent induire.

Claude Tempe

Diplômé de Paris Dauphine, Claude Tempe a travaillé pendant 20 ans dans le Conseil (Ernst & Young, création du cabinet de conseil Cartem puis Direction Générale du Groupe Alti (CA 120 M€, plus de 1 000 consultants)) avant de rejoindre Freelance.com en 2015. Claude a été appelé par CBV Ingénierie, nouvel actionnaire majoritaire de Freelance.com en 2015, pour restructurer et relancer Freelance.com. Directeur Général de Freelance.com de 2015 à fin 2018, Claude a redressé Freelance.com et l’a ramené à la croissance et à la profitabilité avec 24 trimestre de croissance à 2 chiffres, tous rentable. Il a notamment géré l’intégration de l’activité portage salarial d’AD’Missions et construit une stratégie de croissance rentable. A partir de 2019, en tant que Vice-Président du Groupe et Senior Advisor, Claude aide dans la définition de la Stratégie, est le porte-parole du Groupe auprès des investisseurs et des médias et accompagne la mise en place d’une stratégie de croissance externe ambitieuse (rachat d’Inop’s en 2020, d’Helvetic Payroll en 2021).

Profil linkedin
Ses autres articles
Temps de lecture
7 min
Nous suivre
L’actu de Provigis

Abonnez-vous à notre newsletter pour recevoir nos dernières actualités.

Découvrez des articles de blog

La manière la plus simple d'opérer vos diligences et contrôles de conformité