Introduction
IA et RGPD PME : l’association de ces trois termes résume l’un des défis les plus concrets auxquels font face les dirigeants et responsables IT en 2026. L’intelligence artificielle s’est installée dans les entreprises à une vitesse que peu de législations avaient anticipée. Assistants de rédaction, outils d’analyse de données clients, chatbots de support, systèmes de scoring RH : ces solutions traitent, parfois sans que leurs utilisateurs en soient pleinement conscients, des volumes considérables de données personnelles.
Or le Règlement Général sur la Protection des Données s’applique dès lors qu’une donnée personnelle est traitée, quelle que soit la technologie utilisée. L’IA n’échappe pas à cette règle. Pire : elle en complexifie l’application, car ses mécanismes de traitement sont souvent opaques, ses fournisseurs localisés hors de l’Union européenne et ses finalités parfois difficiles à définir précisément.
Pour une PME, les conséquences d’une non-conformité peuvent être sévères : amendes administratives, actions en justice, atteinte à la réputation, perte de marchés publics ou privés exigeant une certification. Ce guide identifie les sept risques juridiques prioritaires et les actions concrètes pour les maîtriser.
Contents : IA et RGPD PME
1. Pourquoi l’IA aggrave les risques RGPD pour les PME
Le RGPD est en vigueur depuis 2018. La plupart des PME ont, au moins partiellement, adapté leurs pratiques : mentions légales mises à jour, consentements aux cookies, registre des traitements. Mais ces ajustements ont été pensés pour un monde numérique relativement lisible : un formulaire collecte des données, un CRM les stocke, un prestataire les traite.
L’IA bouleverse cette logique de trois manières simultanées. D’abord, elle traite des données de manière massive et souvent indifférenciée : un modèle de langage auquel on soumet un contrat client va analyser des dizaines d’informations personnelles sans que l’utilisateur ait défini explicitement ce traitement. Ensuite, elle produit des inférences — des déductions sur des personnes à partir de données qui ne les concernent pas directement — ce que le RGPD encadre spécifiquement. Enfin, elle repose quasi systématiquement sur des fournisseurs tiers, souvent américains ou asiatiques, ce qui soulève des questions de transfert de données hors Union européenne que les PME ne sont pas toujours équipées pour traiter.
Le contexte réglementaire s’est lui-même alourdi : le règlement européen sur l’IA, officiellement entré en application en 2025, ajoute une couche d’obligations spécifiques aux entreprises utilisant certaines catégories de systèmes d’IA, indépendamment du RGPD.
2. Risque 1 — Transferts de données hors UE non encadrés
C’est le risque le plus fréquent et le moins visible. Lorsqu’une PME utilise un outil SaaS intégrant de l’IA — un assistant de rédaction, un outil d’analyse de leads, un système de transcription de réunions — les données saisies ou traitées sont envoyées vers des serveurs qui peuvent être localisés aux États-Unis, en Asie ou dans d’autres pays tiers.
Le RGPD autorise ces transferts, mais sous conditions strictes. Le pays destinataire doit bénéficier d’une décision d’adéquation de la Commission européenne, ou le contrat doit inclure des clauses contractuelles types (CCT) validées par la CNIL. Depuis l’invalidation du Privacy Shield en 2020 et les remous autour du Data Privacy Framework adopté en 2023, la stabilité juridique de ces transferts vers les États-Unis reste un sujet de vigilance active.
En pratique, la majorité des PME n’ont jamais vérifié si leurs outils IA respectaient ces exigences. La démarche à adopter est simple : consulter les conditions générales du fournisseur, identifier où les données sont hébergées et traitées, et s’assurer que des mécanismes de transfert conformes sont en place. Cette vérification doit figurer dans le registre des traitements.
3. Risque 2 — Absence de base légale pour les traitements IA
Le RGPD impose qu’un traitement de données personnelles repose sur l’une des six bases légales définies à l’article 6 : consentement, exécution d’un contrat, obligation légale, intérêts vitaux, mission d’intérêt public, ou intérêt légitime. Cette exigence s’applique sans exception aux traitements réalisés par ou via des outils d’IA.
Or beaucoup de PME déploient des outils IA sans avoir identifié la base légale applicable. Utiliser un outil d’analyse comportementale sur les données de navigation de ses clients sans leur consentement explicite constitue une violation du RGPD, même si l’outil est un produit commercial reconnu. Utiliser un système d’IA pour scorer les candidatures RH sans information préalable des candidats est également non conforme.
L’IA et RGPD PME, c’est d’abord cette discipline fondamentale : avant tout déploiement d’un outil traitant des données personnelles, identifier la base légale, la documenter dans le registre des traitements et s’assurer que les personnes concernées sont informées de manière claire et accessible.
4. Risque 3 — Décisions automatisées sans information ni recours
L’article 22 du RGPD encadre spécifiquement les décisions prises uniquement sur la base d’un traitement automatisé et produisant des effets significatifs sur une personne. Cet article est directement concerné par de nombreux usages IA en PME : scoring de solvabilité automatique pour l’octroi d’un crédit client, classement automatisé de CV, détection automatique de fraudes entraînant un blocage de compte.
Dans ces situations, les personnes concernées ont le droit d’être informées de l’existence d’une telle décision automatisée, de demander une intervention humaine, d’exprimer leur point de vue et de contester la décision. Ces droits doivent être rendus effectifs, ce qui implique des processus internes adaptés : un interlocuteur humain capable de réexaminer la décision, une documentation du fonctionnement du système et une information claire dans la politique de confidentialité.
Ce risque est particulièrement aigu pour les PME utilisant des outils de crédit management, de recrutement assisté ou de gestion de la relation client intégrant des fonctionnalités d’automatisation poussée.
5. Risque 4 — Opacité des sous-traitants IA
Le RGPD distingue le responsable de traitement — l’entreprise qui détermine les finalités et les moyens du traitement — du sous-traitant, qui agit pour son compte. Lorsqu’une PME utilise un outil IA tiers qui traite des données personnelles, ce fournisseur est en principe un sous-traitant au sens du RGPD.
Cette qualification impose la signature d’un contrat de sous-traitance conforme à l’article 28, détaillant les obligations du prestataire en matière de sécurité, de confidentialité, de localisation des données et de comportement en cas de violation. En 2026, une large part des PME utilisent des dizaines d’outils SaaS intégrant de l’IA sans avoir signé un tel contrat, souvent parce que le fournisseur n’en propose pas ou parce que les équipes IT ignorent cette obligation.
La démarche à mettre en place est celle d’un inventaire des outils IA utilisés dans l’entreprise, suivi d’une vérification systématique de l’existence d’un DPA (Data Processing Agreement) pour chacun d’eux. Les grands fournisseurs comme Microsoft, Google ou OpenAI proposent ces documents dans leurs espaces contractuels. Pour les fournisseurs plus petits qui n’en disposent pas, c’est un signal d’alerte sérieux.
6. Risque 5 — Données sensibles intégrées dans des modèles tiers
C’est l’un des risques les plus méconnus et potentiellement les plus graves. Certains modèles d’IA, notamment les modèles de langage, utilisent les données qui leur sont soumises pour améliorer leurs propres performances, sauf si l’utilisateur a explicitement désactivé cette option. Cela signifie que des données personnelles, voire des données sensibles au sens de l’article 9 du RGPD — données de santé, données syndicales, données relatives à des infractions — peuvent théoriquement être intégrées dans un modèle partagé accessible à d’autres utilisateurs.
Pour une PME traitant des dossiers médicaux, des informations sur des salariés en situation de handicap ou des données financières confidentielles de clients, ce risque est concret. La première précaution est de vérifier, pour chaque outil IA utilisé, si les données soumises sont utilisées pour l’entraînement et comment désactiver cette option. La seconde est de former les collaborateurs à ne jamais intégrer de données personnelles sensibles dans des interfaces IA non contractuellement sécurisées.
7. Risque 6 — Absence d’analyse d’impact (AIPD) avant déploiement
L’analyse d’impact relative à la protection des données, connue sous l’acronyme AIPD ou DPIA en anglais, est obligatoire lorsqu’un traitement est susceptible d’engendrer un risque élevé pour les droits et libertés des personnes. Le déploiement d’un système d’IA traitant des données personnelles à grande échelle entre fréquemment dans ce périmètre.
En pratique, très peu de PME réalisent une AIPD avant de déployer un outil IA. Cette omission expose l’entreprise à un risque juridique direct en cas de contrôle de la CNIL, et prive le décideur d’une analyse structurée des risques qui pourrait pourtant révéler des problèmes majeurs avant qu’ils ne se concrétisent.
La CNIL met à disposition un outil gratuit, PIA (Privacy Impact Assessment), qui guide pas à pas la réalisation d’une analyse d’impact. Pour les traitements IA présentant un risque moyen, une AIPD simplifiée d’une demi-journée suffit généralement. Pour les traitements à risque élevé — profilage comportemental, traitement de données sensibles, surveillance des salariés — une AIPD complète, idéalement conduite avec l’appui d’un DPO ou d’un avocat spécialisé, est indispensable.
8. Risque 7 — Non-conformité au règlement européen sur l’IA
Entré en application progressive depuis août 2024, le règlement européen sur l’intelligence artificielle (AI Act) ajoute une couche réglementaire spécifique que le RGPD ne couvre pas. Il classe les systèmes d’IA par niveau de risque et impose des obligations différenciées selon cette classification.
Pour les PME, les implications les plus immédiates concernent les systèmes d’IA dits à haut risque : recrutement et gestion RH assistés par IA, scoring de crédit, systèmes d’IA utilisés dans l’éducation ou la formation professionnelle. Ces systèmes sont soumis à des obligations de transparence, de documentation technique, de supervision humaine et d’enregistrement dans une base de données européenne.
Les PME qui utilisent ces outils — souvent en tant qu’utilisatrices de solutions tierces plutôt que comme développeuses — doivent s’assurer que leurs fournisseurs respectent les obligations qui leur incombent en tant que fournisseurs de systèmes à haut risque, et que leur propre usage est documenté et conforme. La Commission européenne maintient une page de référence sur l’AI Act accessible aux entreprises.
9. Tableau de synthèse des risques et actions prioritaires : IA et RGPD PME
| Risque | Probabilité PME | Impact potentiel | Action prioritaire |
|---|---|---|---|
| Transferts hors UE non encadrés | Très élevée | Amende CNIL, suspension | Vérifier DPA et localisation des données |
| Absence de base légale | Élevée | Mise en demeure, amende | Documenter la base légale dans le registre |
| Décisions automatisées non encadrées | Moyenne | Plainte, recours | Prévoir intervention humaine et information |
| Sous-traitants sans contrat RGPD | Très élevée | Responsabilité solidaire | Inventaire outils + DPA à signer |
| Données sensibles dans modèles tiers | Moyenne | Violation de données | Former les équipes, désactiver l’entraînement |
| Absence d’AIPD | Élevée | Sanction CNIL | Réaliser AIPD via outil PIA CNIL |
| Non-conformité AI Act | Croissante | Amende, retrait du marché | Cartographier les outils IA à haut risque |
Pour approfondir les obligations spécifiques en matière de protection des données, les lignes directrices publiées par la CNIL sur l’intelligence artificielle constituent la référence française incontournable. Le Comité européen de la protection des données (EDPB) publie également des orientations harmonisées au niveau européen.
Conclusion : IA et RGPD PME, une conformité qui se construit par étapes
La convergence entre IA et RGPD PME crée un environnement réglementaire inédit, mais pas ingérable. Les entreprises qui abordent ce sujet avec méthode disposent d’une feuille de route claire : inventorier les outils IA utilisés, vérifier l’existence de contrats de sous-traitance conformes, identifier les bases légales des traitements, former les collaborateurs aux bonnes pratiques et réaliser les analyses d’impact nécessaires.
Cette démarche n’exige pas nécessairement l’embauche d’un DPO à temps plein. Pour une PME de taille modeste, une mission de mise en conformité conduite par un prestataire externe spécialisé, combinée à une sensibilisation interne bien menée, permet d’atteindre un niveau de conformité opérationnel en quelques semaines.
Ce qui est certain, c’est que l’inaction n’est plus une option. La CNIL a clairement signalé que les contrôles relatifs aux usages de l’IA figurent parmi ses priorités pour 2025 et 2026. Les amendes prononcées ces dernières années en Europe — y compris contre des entreprises de taille modeste — montrent que la taille de la structure n’est pas un bouclier. La conformité IA et RGPD est aujourd’hui une condition de confiance pour les clients, les partenaires et les donneurs d’ordre publics.
A lire également
Quelle IA choisir pour une PME : ChatGPT, Claude, Gemini ou Copilot ?









