skip to content

RGPD assoupli en 2025 : l'Europe cède-t-elle aux géants de l'IA ?

Nicolas Verlhiac : photo de l'auteur de l'article
Nicolas Verlhiac
La Commission européenne assouplit le RGPD et l'AI Act en novembre 2025 : analyse des changements majeurs, entre pragmatisme économique et recul des droits numériques.

Le 20 novembre 2025, la Commission européenne a déclenché ce que certains qualifient déjà de “tournant historique” dans la régulation numérique européenne. Le Digital Omnibus Package propose d’assouplir simultanément le RGPD, l’AI Act, la directive e-Privacy, le Data Act et NIS2, avec un objectif affiché : réduire de 10 à 20 milliards d’euros par an les coûts de conformité pour les entreprises européennes.

Derrière cette simplification administrative se cache une réalité beaucoup plus complexe. Pour les uns, c’est une modernisation pragmatique indispensable face au retard européen en intelligence artificielle (seulement 4% des modèles IA mondiaux développés en UE). Pour les autres, c’est un “rollback historique des droits numériques”, orchestré sous la pression des lobbies technologiques et des menaces de Donald Trump contre les régulations européennes “excessives”.

Dans cet article, vous découvrirez :

  • Les modifications majeures apportées au RGPD et à l’AI Act
  • Le contexte géopolitique qui explique ce revirement
  • Les réactions opposées des défenseurs de la vie privée et de l’industrie tech
  • Les implications concrètes pour les entreprises et les DPO européens
  • Les actions prioritaires pour anticiper ces changements

Qu’est-ce que le Digital Omnibus Package ?

Le Digital Omnibus Package — ou “paquet omnibus numérique” — est une proposition législative de la Commission européenne. Son ambition : amender simultanément cinq réglementations numériques majeures.

Le premier volet, axé sur les données et la vie privée, modifie le RGPD (2018), la directive e-Privacy, le Data Act (2023) et NIS2 sur la cybersécurité. Le second volet cible l’AI Act adopté en 2024, alors même que celui-ci n’est pas encore pleinement entré en vigueur.

L’objectif officiel tient en trois mots : simplifier, harmoniser, accélérer. La Commission veut réduire la “fatigue réglementaire” des entreprises, notamment les PME et startups, tout en stimulant l’innovation européenne face aux géants américains et chinois.

Les chiffres clés :

  • 10 à 20 milliards d’euros d’économies annuelles attendues pour les entreprises
  • 30% de réduction des coûts de conformité visée
  • 5 réglementations majeures amendées simultanément
  • Délai reporté à décembre 2027 pour l’AI Act (au lieu d’août 2026)

Mais cette initiative arrive dans un contexte politique explosif. Le rapport Draghi de septembre 2024 sur la compétitivité européenne avait alerté sur un retard structurel de l’Europe en technologies numériques. Les coûts de mise en conformité représenteraient jusqu’à 10% du PIB européen selon certaines estimations industrielles. Ajoutez à cela les critiques répétées de Donald Trump contre le RGPD et le Digital Markets Act, et vous obtenez un cocktail de pressions économiques et géopolitiques.

Les modifications majeures du RGPD : vers un assouplissement pour l’IA

Le Règlement Général sur la Protection des Données, adopté en 2018 et devenu le standard mondial de protection de la vie privée, subit des modifications ciblées mais significatives.

L’intérêt légitime étendu pour l’entraînement des IA

La modification la plus controversée : l’introduction d’un nouvel article 88c reconnaissant l’intérêt légitime comme base légale pour le développement et l’exploitation de modèles d’intelligence artificielle.

Concrètement, cela signifie que les entreprises technologiques pourront utiliser des données personnelles pour entraîner leurs IA sans nécessairement obtenir le consentement des personnes concernées, à condition que cet usage soit “nécessaire et proportionné”.

Avant la réforme : Les entreprises devaient obtenir un consentement explicite ou démontrer une base légale stricte (contrat, obligation légale) pour utiliser des données personnelles dans l’entraînement de modèles IA. Les zones grises juridiques multipliaient les litiges.

Après : L’intérêt légitime devient une base reconnue pour l’IA, facilitant l’accès à des volumes massifs de données nécessaires aux modèles génératifs (type ChatGPT, Claude, Gemini).

L’argument de la Commission : Cette clarification résout des incertitudes juridiques et aligne le RGPD avec la jurisprudence de la COUR de Justice de l’Union européenne (CJUE). Elle permettrait aux acteurs européens (Mistral AI, Aleph Alpha) de rivaliser avec OpenAI et Google.

La critique des défenseurs de la vie privée : NOYB (organisation de Max Schrems) et 127 ONG dénoncent un accès “incontrôlé aux données intimes” sans consentement, transformant le RGPD en “passoire juridique” pour les géants de la tech.

Redéfinition des données sensibles : un rétrécissement préoccupant

Le RGPD protège avec une vigilance particulière les données sensibles (article 9) : origine ethnique, opinions politiques, santé, orientation sexuelle, données biométriques…

La modification proposée restreint cette protection aux données “directement révélatrices”. Les inférences obtenues via profilage algorithmique ne seraient plus automatiquement considérées comme sensibles.

Exemple concret : Actuellement, si une IA déduit votre orientation sexuelle à partir de vos comportements en ligne (likes, abonnements, historique de navigation), cette inférence est traitée comme une donnée sensible protégée. Avec la nouvelle définition, seule une déclaration explicite de votre orientation sexuelle resterait protégée. L’inférence algorithmique échappe à ce régime strict.

Impact direct : Moins de protections pour les systèmes de profilage massif utilisés par les plateformes publicitaires, les assureurs ou les recruteurs. Les algorithmes peuvent catégoriser les personnes sans les mêmes garde-fous.

Décisions automatisées : élargissement des exemptions

L’article 22 du RGPD garantit le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé produisant des effets juridiques (refus de crédit, embauche, assurance).

La modification élargit les exemptions en autorisant les décisions automatisées même si un humain pourrait aboutir au même résultat. La nuance semble subtile, mais elle est lourde de conséquences.

Avant : Une banque ne pouvait refuser un crédit via IA sans intervention humaine significative. Après : Si la banque démontre qu’un analyste humain aurait refusé le même crédit, l’automatisation devient légitime.

Risque identifié : Les biais algorithmiques (discrimination raciale, genrée, socio-économique) peuvent être légitimés sous prétexte que les biais humains existeraient aussi.

Clarification de l’anonymisation et de la pseudonymisation

Le paquet propose une clarification (via un nouveau considérant) pour faciliter l’anonymisation des données. Les données pseudonymisées (identifiants remplacés par des codes) deviendraient plus facilement utilisables pour l’IA.

Enjeu technique : L’anonymisation véritable est quasi-impossible à grande échelle (risques de ré-identification). La pseudonymisation reste une donnée personnelle selon le RGPD actuel. En l’assouplissant, on facilite l’exploitation mais on accroît les risques de fuites.

L’AI Act revu et corrigé : report des délais et exemptions stratégiques

L’AI Act, première réglementation mondiale sur l’intelligence artificielle, a été adopté en juillet 2024 avec une mise en application progressive entre août 2025 et août 2027. Le paquet omnibus le modifie avant même son entrée en vigueur complète.

Report massif des délais de conformité

La mesure phare : Les systèmes d’IA à haut risque (biométrie, santé, crédit, justice, emploi) bénéficient d’un report de 16 mois pour leur conformité, passant d’août 2026 à décembre 2027.

Une période de transition supplémentaire d’un an est accordée pour l’étiquetage des contenus générés par IA (watermarking, transparence).

Justification officielle : Éviter un “choc réglementaire” qui pénaliserait les entreprises européennes encore immatures face aux géants américains. Permettre une mise en œuvre “fluide” avec des standards techniques encore en développement.

Critique : Ce report profite surtout aux grandes entreprises technologiques (Google, Microsoft, Meta) qui ont les ressources pour se préparer, tandis que les PME innovantes perdent l’avantage concurrentiel d’une réglementation stricte qui aurait nivelé le terrain.

Exemptions pour les systèmes à usage “étroit”

Les systèmes d’IA à haut risque utilisés pour des tâches “étroites” ou des procédures internes ne nécessiteraient plus d’enregistrement obligatoire.

Exemple : Un algorithme de tri de CV dans une entreprise ne serait plus soumis aux obligations de l’AI Act s’il est considéré comme “outil interne” et “procédure étroite”.

Risque : Ces outils internes produisent pourtant des effets discriminatoires majeurs documentés (biais contre les femmes, les minorités ethniques, les seniors). Les exempter supprime une protection essentielle.

Centralisation de la supervision à l’AI Office

Le paquet renforce le rôle de l’AI Office (bureau européen de l’IA) pour centraliser la surveillance, y compris sur les plateformes comme Google Search ou Facebook.

Cohérence réglementaire : L’objectif est d’éviter les doublons avec le Cyber Resilience Act et le RGPD. Une interface unique doit permettre de signaler les incidents de sécurité.

Inquiétude : Centraliser trop de pouvoir dans un seul organisme européen, encore peu mature, pourrait créer un goulet d’étranglement et ralentir les sanctions contre les abus.

La fin des bannières de cookies : simplification ou abandon de contrôle ?

La directive e-Privacy (2002) et sa révision en cours régissent les cookies et le consentement en ligne. La réforme propose des changements radicaux.

Exceptions élargies pour les cookies “non risqués”

Les cookies non essentiels mais “non risqués” (mesure d’audience, sécurité basique) ne nécessiteraient plus de consentement explicite. Les bannières de cookies, omniprésentes et agaçantes, disparaîtraient en partie.

Mécanisme proposé : Consentement centralisé via les navigateurs (signaux automatisés type Global Privacy Control). Vous configurez une fois vos préférences dans Chrome, Firefox ou Safari, et elles s’appliquent à tous les sites.

Économies annoncées : Des milliards d’euros économisés par les éditeurs web qui n’auraient plus à gérer des systèmes de consentement complexes (Consent Management Platforms).

Contrepartie : Les utilisateurs perdent la granularité de contrôle site par site. Si votre navigateur accepte par défaut les cookies de mesure d’audience, vous êtes tracé partout sans action consciente.

Déplacement des règles d’accès aux appareils

Les règles d’accès aux données des appareils (géolocalisation, contacts, photos) passent de la directive e-Privacy vers le RGPD, avec des exceptions pour les “fournisseurs de services”.

Flou juridique : Qui sont ces “fournisseurs de services” ? Google, Apple, les opérateurs télécoms ? Cette formulation vague pourrait créer des brèches de sécurité majeures.

Pourquoi ce revirement ? Le contexte géopolitique et économique

Ce paquet ne surgit pas du néant. Plusieurs facteurs convergents expliquent cette proposition controversée.

Le rapport Draghi : un diagnostic alarmiste

En septembre 2024, Mario Draghi, ancien président de la Banque centrale européenne, a remis un rapport dévastateur sur la compétitivité européenne. Ses conclusions sur le numérique sont sans appel.

L’Europe ne produit que 4% des modèles d’IA mondiaux, contre 60% pour les États-Unis et 30% pour la Chine. Les coûts réglementaires atteindraient jusqu’à 10% du PIB européen selon certaines industries. Les licornes tech européennes fuient vers les États-Unis pour lever des fonds. L’Europe est devenue un marché captif : elle consomme des technologies américaines et chinoises sans en produire.

La recommandation du rapport ? Simplifier les réglementations pour libérer l’innovation.

Les pressions de l’industrie technologique

Les lobbies de la tech ont multiplié les pressions ces derniers mois. La CCIA Europe (qui représente Google, Meta, Apple, Amazon) martèle trois arguments.

D’abord, le coût : le RGPD représenterait 2,5 milliards d’euros par an pour les entreprises européennes. Ensuite, l’applicabilité : l’AI Act serait inapplicable en l’état, faute de standards techniques. Enfin, la fragmentation : 27 interprétations nationales différentes paralysent les services transfrontaliers.

La CCIA salue la réforme RGPD/AI Act comme un “pas positif” mais appelle à aller plus loin.

La menace Trump et la guerre commerciale

Donald Trump a qualifié le RGPD de “règle stupide” et menacé de représailles commerciales contre les régulations européennes “excessives”. Lors de son retour au pouvoir en janvier 2025, il a annoncé vouloir bloquer l’accès des entreprises américaines à l’UE si les amendes du Digital Markets Act continuent.

La Commission européenne, sous la présidence d’Ursula von der Leyen, cherche à éviter une guerre réglementaire transatlantique qui isolerait l’Europe. Le paquet numérique est aussi une réponse géopolitique.

Le retard européen en IA : un constat partagé

Au-delà des lobbies, un consensus émerge : l’Europe risque de devenir un “musée technologique”, brillant dans les réglementations mais absent des innovations de rupture.

Les chiffres sont parlants. Aucune entreprise européenne ne figure dans le top 15 mondial de l’IA générative. Mistral AI, le champion français, est valorisé à 6 milliards de dollars — contre 157 milliards pour OpenAI. En 2024, l’Europe a investi 12 milliards en IA, les États-Unis 150 milliards. Un écart de 1 à 12.

Ce diagnostic justifie, pour certains, un rééquilibrage entre protection et innovation.

Réactions : une fracture idéologique majeure

La réforme a immédiatement créé une ligne de fracture entre deux visions opposées de l’Europe numérique.

Les défenseurs de la vie privée sonnent l’alarme

NOYB et 127 organisations (dont Amnesty International, EDRi, Access Now) ont publié une lettre ouverte qualifiant le paquet de “plus grand rollback des droits numériques de l’histoire de l’UE”.

Leur réquisitoire est structuré. L’extension de l’intérêt légitime pour l’IA ouvrirait un accès incontrôlé aux données intimes — santé, sexualité, opinions — sans consentement. Le rétrécissement des données sensibles légaliserait le profilage discriminatoire. Les exemptions de l’AI Act offriraient une carte blanche pour les systèmes à haut risque. Et la centralisation du consentement via les navigateurs ? Une perte de contrôle individuel au profit de Google Chrome, qui domine avec 65% de parts de marché.

Max Schrems, fondateur de NOYB, résume : “Ce paquet transforme le RGPD en coquille vide. On légalise ce qu’on combattait depuis 7 ans.”

EDRi (European Digital Rights) va plus loin : “C’est une pandémie offerte à la Big Tech sous prétexte de compétitivité. Les droits fondamentaux ne se négocient pas.”

L’industrie applaudit mais demande plus

À l’opposé, les lobbies technologiques et industriels saluent une “reconnaissance des réalités économiques”.

CCIA Europe : “C’est un pas positif pour équilibrer protection et progrès, mais insuffisant. Il faut aller plus loin dans la simplification.”

AFME (Association des marchés financiers) applaudit les assouplissements pour l’IA dans les services bancaires et d’assurance.

News Media Europe (éditeurs de presse) : “Nous soutenons l’élan de simplification pour des règles modernes adaptées au numérique.”

Mais attention : Certains acteurs tech restent prudents. Apple et Microsoft, qui misent sur le privacy comme argument commercial, ne se sont pas encore prononcés publiquement.

Les politiques européens divisés

Au Parlement européen, la fracture suit les lignes partisanes.

Soutiens : Valdis Dombrovskis (Commissaire Économie) justifie : “Nous ne pouvons pas payer le prix de notre retard global.” Henna Virkkunen (Antitrust) : “Ce paquet adresse le fait que l’Europe est en retard.”

Oppositions : Kim van Sparrentak (Verts/ALE) : “C’est céder aux lobbies de la Big Tech. Le Parlement doit défendre les droits numériques.” Brando Benifei (S&D, rapporteur de l’AI Act) : “On défait ce que nous avons construit.”

Enjeu politique : Les élections européennes de 2024 ont renforcé les groupes de droite et d’extrême-droite, plus favorables à la dérégulation. Le rapport de force au Parlement s’est déplacé.

Implications concrètes pour les entreprises européennes

Au-delà des débats idéologiques, quels sont les impacts opérationnels pour les DPO, responsables conformité et dirigeants d’entreprises ?

Opportunités pour les acteurs de l’IA

Les startups et scaleups européennes en IA pourraient bénéficier d’un triple avantage. D’abord, un accès facilité aux données pour entraîner leurs modèles. Ensuite, une réduction des coûts de conformité grâce à des procédures simplifiées. Enfin, des délais supplémentaires pour se mettre en conformité avec l’AI Act.

Mistral AI, Aleph Alpha et Helsing pourraient ainsi accélérer leur développement et lever plus facilement des fonds.

Risques juridiques accrus

Mais ces opportunités s’accompagnent de zones grises juridiques. La notion d‘“intérêt légitime nécessaire et proportionné” reste floue — et sera interprétée différemment par les 27 autorités de protection des données. Que signifie exactement un “système à usage étroit” ? Qui décide ? Les recours devant la CJUE vont se multiplier, créant des années d’incertitude.

Pression concurrentielle des géants américains

Les GAFAM bénéficieront massivement de ces assouplissements. Ils disposent déjà de volumes de données incomparables. Leur faciliter l’accès légal aux données européennes via l’intérêt légitime creuse encore l’écart avec les acteurs européens.

Paradoxe : Une réforme censée aider les startups européennes pourrait finalement consolider la domination américaine.

Impact sur la confiance des consommateurs

Les entreprises européennes ont construit un avantage concurrentiel sur la confiance et le privacy-by-design. Si ces protections sont affaiblies, la différenciation avec les acteurs américains s’estompe.

Risque commercial : Les consommateurs sensibles à la vie privée pourraient se détourner des services européens s’ils perdent cette garantie de protection supérieure.

Actions concrètes pour les DPO et responsables conformité

Face à ce bouleversement annoncé, voici les actions prioritaires pour anticiper les changements.

1. Auditer vos bases légales de traitement

Maintenant : Recensez tous vos traitements de données personnelles et leurs bases légales actuelles (consentement, contrat, intérêt légitime, obligation légale).

Si la réforme est adoptée : Identifiez les traitements qui pourraient basculer du consentement vers l’intérêt légitime (notamment pour l’IA, l’analytique, le profilage).

Attention : La transition ne sera pas automatique. Vous devrez démontrer que votre usage est “nécessaire et proportionné” et réaliser des analyses de balance des intérêts.

2. Réévaluer vos systèmes d’IA à haut risque

Si vous développez ou déployez des systèmes d’IA dans des domaines sensibles (RH, crédit, santé, justice), le report à décembre 2027 vous donne du répit, mais ne changez pas vos priorités.

Recommandation : Anticipez la conformité plutôt que de repousser. Les entreprises qui seront prêtes en 2026 auront un avantage concurrentiel lorsque les obligations entreront en vigueur.

3. Suivre les débats au Parlement européen

Le texte proposé va être amendé pendant les trilogues (Commission, Parlement, Conseil) au premier semestre 2026. Des modifications substantielles sont probables.

Trois leviers d’action s’offrent à vous : suivre les positions des parlementaires de votre pays, participer aux consultations publiques, et rejoindre des groupes de travail sectoriels (AFME, CCIA, associations métier).

4. Préparer deux scénarios

Scénario 1 (60% de probabilité) : Adoption avec modifications modérées. Les assouplissements majeurs passent, mais avec des garde-fous supplémentaires (ex. : registres obligatoires pour l’intérêt légitime en IA).

Scénario 2 (30% de probabilité) : Rejet partiel par le Parlement. Les modifications les plus controversées (données sensibles, IA) sont rejetées ou considérablement amendées.

Scénario 3 (10% de probabilité) : Adoption intégrale du texte de la Commission.

Préparez des plans de conformité pour les scénarios 1 et 2.

5. Renforcer la gouvernance des données dès maintenant

Quelle que soit l’issue, une gouvernance des données robuste reste indispensable. Cela passe par une cartographie précise des flux de données, des analyses d’impact (DPIA) systématiques pour les traitements à risque, une documentation exhaustive des bases légales, et une formation continue des équipes aux évolutions réglementaires.

Les entreprises dotées d’une gouvernance solide s’adapteront plus facilement aux changements — quelle que soit la version finale du texte.

Le grand débat : innovation vs droits fondamentaux ?

Cette réforme cristallise un débat philosophique et politique de fond : l’innovation technologique justifie-t-elle l’affaiblissement des droits fondamentaux ?

La thèse de la simplification nécessaire

L’Europe se serait enfermée dans un “piège réglementaire” où l’excès de normes tue l’innovation. Le RGPD aurait créé une bureaucratie telle que les PME renoncent à innover. L’AI Act, avant même son entrée en vigueur, serait inapplicable. Sans simplification, l’Europe deviendrait un musée technologique dépendant des États-Unis et de la Chine.

Les exemples abondent. Des startups européennes déménagent à San Francisco pour échapper au RGPD. Les modèles d’IA sont entraînés sur des données américaines faute d’accès légal aux données européennes. La fragmentation des 27 interprétations nationales paralyse les services transfrontaliers.

La vision sous-jacente : l’Europe doit être pragmatique et accepter des compromis entre protection et compétitivité.

La thèse du recul historique

À l’opposé, les défenseurs de la vie privée martèlent : les droits fondamentaux ne se négocient pas pour des raisons économiques. Le RGPD a établi un standard mondial — le CPRA californien et le LGPD brésilien s’en inspirent directement. L’affaiblir maintenant enverrait un signal désastreux : l’Europe capitule face aux lobbies.

Les données empiriques leur donnent des arguments. Les entreprises européennes qui respectent le RGPD ont vu leur confiance client augmenter : 70% des Européens privilégient les services respectueux de la vie privée. Les amendes RGPD contre Google, Meta et Amazon ont rapporté 4,5 milliards d’euros. Et surtout : le retard européen en IA n’est pas causé par le RGPD, mais par le manque d’investissements — les États-Unis investissent 10 fois plus en R&D.

La vision alternative : l’Europe doit assumer son modèle et investir massivement dans une IA éthique, plutôt que copier le modèle de surveillance américain.

Notre analyse

La vérité se situe probablement entre ces deux extrêmes. Certaines simplifications sont justifiées : harmonisation des interprétations nationales, clarification des zones grises, réduction des doublons réglementaires. Mais les assouplissements structurels — intérêt légitime pour l’IA sans limites claires, rétrécissement des données sensibles — risquent de créer plus de problèmes qu’ils n’en résolvent.

Le vrai enjeu : l’Europe peut-elle innover en respectant ses valeurs ? Le succès de Galileo (système GPS européen plus précis que l’américain) et les avancées de Mistral AI en IA open-source prouvent que c’est possible. Mais cela nécessite des investissements publics massifs et une vision à long terme.

Cette réforme résout des symptômes (complexité administrative) sans traiter les causes profondes : sous-investissement, fragmentation et fuite des talents.

Calendrier et étapes suivantes : ce qui va se passer

Novembre-Décembre 2025 : soumission et premiers débats

La Commission a soumis le paquet au Parlement européen et au Conseil de l’UE (représentant les 27 États membres). Les commissions parlementaires (LIBE pour les libertés civiles, IMCO pour le marché intérieur, ITRE pour l’industrie) vont nommer des rapporteurs chargés d’examiner le texte.

Premières auditions : Experts, ONG, lobbies industriels seront entendus.

Premier semestre 2026 : trilogues et amendements

Les trilogues (négociations à trois entre Commission, Parlement, Conseil) vont commencer. C’est là que le texte sera réellement façonné.

Plusieurs amendements sont probables : renforcement des garanties pour l’intérêt légitime en IA (via des registres publics obligatoires), maintien partiel de la définition élargie des données sensibles pour certains traitements, et ajout de clauses de révision après deux ans d’application.

Trois pays seront à surveiller de près : l’Irlande (siège européen des GAFAM), l’Allemagne (traditionnellement protectrice de la vie privée), et la France (cherchant un équilibre entre protection et innovation).

Adoption prévue : mi-2026

Si les négociations avancent rapidement, le texte final pourrait être adopté en juin-juillet 2026. Mais des blocages sont possibles, reportant l’adoption à fin 2026.

Mise en application : 2027-2028

Après adoption, les États membres auront 12 à 24 mois pour transposer les directives dans leur droit national. Les règlements (RGPD, AI Act) s’appliqueront directement.

Date clé : Décembre 2027 pour l’entrée en vigueur des obligations AI Act reportées.

Concepts & Notions

Digital Omnibus Package

Proposition législative de la Commission européenne (novembre 2025) visant à simplifier simultanément cinq réglementations numériques majeures (RGPD, AI Act, e-Privacy, Data Act, NIS2) pour réduire les coûts de conformité et stimuler l’innovation européenne en IA.

Intérêt légitime (base légale RGPD)

Base légale permettant le traitement de données personnelles sans consentement si l’entreprise démontre un intérêt légitime poursuivi, à condition qu’il ne porte pas atteinte aux droits et libertés des personnes. Le Digital Omnibus l’étend explicitement au développement de modèles d’IA.

Données sensibles (Article 9 RGPD)

Catégories particulières de données personnelles révélant l’origine raciale ou ethnique, les opinions politiques, les convictions religieuses, l’appartenance syndicale, les données de santé, l’orientation sexuelle, les données biométriques ou génétiques. Leur traitement est interdit sauf exceptions strictes.

Système d’IA à haut risque (AI Act)

Système d’intelligence artificielle utilisé dans des domaines sensibles (biométrie, santé, justice, crédit, éducation, emploi, infrastructures critiques) présentant des risques significatifs pour les droits fondamentaux et nécessitant une conformité stricte.

Trilogues

Négociations informelles entre la Commission européenne, le Parlement européen et le Conseil de l’UE pour parvenir à un accord sur un texte législatif avant son adoption formelle.

Global Privacy Control (GPC)

Signal technique envoyé par les navigateurs web pour indiquer automatiquement aux sites visités que l’utilisateur refuse le partage de ses données personnelles avec des tiers. Le Digital Omnibus propose de généraliser ce mécanisme.

Profilage

Traitement automatisé de données personnelles visant à évaluer certains aspects d’une personne (comportement, préférences, situation économique) notamment via des algorithmes prédictifs. Encadré par les articles 4(4) et 22 du RGPD.

Rapport Draghi

Rapport sur la compétitivité européenne remis par Mario Draghi en septembre 2024, diagnostiquant un retard structurel de l’Europe en technologies numériques et recommandant une simplification réglementaire pour libérer l’innovation.

📚 Sources et références