Depuis le 1er août 2024, le règlement européen sur l’intelligence artificielle, l’AI Act, est officiellement entré en vigueur. Mais pour la majorité des PME, c’est à partir du 2 août 2026 que les obligations réglementaires deviendront pleinement contraignantes, notamment pour les systèmes d’IA à haut risque. Une échéance concrète, qui arrive vite, et que beaucoup sous-estiment encore.
Si vous utilisez un logiciel de tri de CV, un outil d’analyse prédictive, un assistant IA intégré à votre CRM ou un chatbot sur votre site, ce texte vous vise directement. Le règlement ne distingue pas les grandes entreprises des petites structures : il encadre tous les acteurs qui mettent en service ou déploient des systèmes d’IA sur le marché européen. La question n’est donc plus de savoir si vous êtes concerné, mais comment vous préparer, et avec qui.

Comprendre l’AI Act : un cadre réglementaire par niveau de risque
L’AI Act est le premier cadre juridique au monde spécifiquement conçu pour réguler l’IA. Adopté par l’Union européenne et publié au Journal officiel en juillet 2024 (Règlement (UE) 2024/1689), il repose sur une logique centrale : proportionner les obligations au niveau de risque que présente chaque système.
Quatre niveaux structurent le règlement. Les systèmes à risque inacceptable sont purement et simplement interdits : manipulation comportementale subliminale, notation sociale généralisée, identification biométrique en temps réel dans l’espace public (sauf exceptions strictes). Ces interdictions sont en vigueur depuis le 2 février 2025. Les systèmes à risque minimal (filtres anti-spam, moteurs de recommandation génériques) ne font l’objet d’aucune obligation particulière. Entre ces deux extrêmes, les systèmes à risque limité (chatbots, assistants virtuels, générateurs de contenu) imposent essentiellement des obligations de transparence : l’utilisateur doit savoir qu’il interagit avec une IA. Et enfin, les systèmes à risque élevé, la catégorie la plus structurante pour les petites et moyennes entreprises, déclenche des exigences bien plus lourdes.
C’est cette dernière catégorie qui cristallise l’enjeu de l’échéance 2026.
Qu’est-ce qu’un système à haut risque pour une PME ?
L’annexe III du règlement dresse la liste des domaines concernés : les ressources humaines (tri automatisé de CV, notation de candidats, évaluation de la performance), la finance et l’assurance (analyse automatisée de solvabilité, décisions de crédit), la santé, l’éducation, ou encore certains services publics. En d’autres termes, si votre entreprise utilise un ATS (Applicant Tracking System) dopé à l’IA pour filtrer les candidatures, ou un outil d’analyse prédictive pour évaluer la fidélité de vos clients, vous entrez dans ce périmètre réglementaire, quelle que soit votre taille.
Le règlement distingue deux rôles principaux : le fournisseur, qui conçoit et commercialise le système, et le déployeur, qui l’intègre dans son fonctionnement opérationnel. La plupart des petites et moyennes entreprises se situent du côté des déployeurs, car elles utilisent des solutions développées par des tiers. Or cette position n’exonère pas de toute obligation. En tant que déployeur d’un système à haut risque, votre organisation doit notamment superviser son utilisation, former les équipes, informer les personnes concernées et notifier les incidents à l’autorité compétente.
Le calendrier de mise en conformité : ce qui s’applique déjà, ce qui arrive
L’application de l’AI Act est progressive, ce qui laisse une fenêtre d’adaptation, mais cette fenêtre se referme.
Février 2025 a marqué l’entrée en vigueur des interdictions relatives aux pratiques à risque inacceptable. Si votre entreprise recourt à des outils d’analyse comportementale poussée ou de profilage automatisé à grande échelle, il est urgent de vérifier leur conformité à ces dispositions.
Août 2025 a introduit les premières obligations applicables aux modèles d’IA à usage général (GPAI), à savoir les modèles fondamentaux comme GPT ou Mistral. Ces obligations visent principalement les fournisseurs de ces modèles, mais les déployeurs qui s’appuient dessus pour des décisions à haut risque restent soumis aux règles correspondantes.
Août 2026 est l’échéance critique pour la grande majorité des acteurs économiques. C’est à cette date que l’ensemble des obligations relatives aux systèmes classés à haut risque deviendront pleinement exigibles : documentation technique détaillée, qualité des données, information renforcée des utilisateurs, supervision humaine obligatoire, enregistrement dans la base de données de l’Union. Le chapitre IV du règlement, qui impose d’informer clairement les utilisateurs lorsqu’ils interagissent avec un système d’IA ou lorsque des contenus ont été générés artificiellement, s’appliquera également à partir de cette date.
2027 marque enfin l’extension de la réglementation aux systèmes intégrés à des produits soumis à une législation sectorielle existante, comme les dispositifs médicaux, les machines industrielles, les jouets ou les ascenseurs.
Il reste donc quelques mois pour agir. Et d’après une enquête du Centre for Data Innovation de fin 2025, moins de 30 % des structures européennes de taille intermédiaire avaient entamé une démarche de conformité à cette date.
Ce que le règlement impose concrètement aux entreprises déployeuses
Pour une PME qui utilise des outils d’IA à haut risque dans ses opérations, les obligations à anticiper avant le 2 août 2026 s’articulent autour de plusieurs axes.
La cartographie des systèmes IA
Avant toute démarche de mise en conformité, il faut savoir ce que l’on déploie. Beaucoup d’organisations sous-estiment le nombre de composants IA présents dans leurs outils quotidiens : un CRM intégrant de l’analyse prédictive, un ERP avec des recommandations automatisées, un ATS utilisant le machine learning pour classer les profils. Cette cartographie est le point de départ indispensable. Elle doit documenter pour chaque outil : le fournisseur, la finalité, les données traitées, les populations impactées et le niveau d’autonomie décisionnelle accordé au système.
La qualité des données et la documentation technique
Pour les systèmes à haut risque, le règlement exige que les données d’entraînement soient pertinentes, représentatives et exemptes de biais discriminatoires. En tant que déployeur, la PME n’est pas responsable de la conception du modèle, mais elle doit être en mesure de vérifier que le fournisseur satisfait à ces prérequis, et de tenir à jour une documentation sur les usages effectifs du système dans son environnement propre.
La transparence et l’information des personnes concernées
L’article 50 du règlement impose que les personnes directement impactées soient clairement informées de l’intervention d’un système d’IA dans une décision les affectant. Dans un contexte RH, cela signifie qu’un candidat dont le dossier est présélectionné ou écarté par un algorithme doit être informé de ce traitement. Dans un contexte commercial, un client soumis à une notation automatisée doit disposer d’une information accessible et compréhensible.
La supervision humaine
Le règlement insiste sur le maintien d’une capacité de contrôle humain sur les décisions prises ou assistées par les systèmes classés à haut risque. Ce prérequis n’est pas anodin : il implique de former les équipes, de définir des procédures de révision, et de garantir qu’aucune décision structurante (recrutement, crédit, accès à un service) ne repose entièrement sur une sortie automatisée sans possibilité d’intervention humaine effective.
Les dispositions spécifiques prévues pour les PME
Le législateur européen a anticipé les difficultés des structures de taille modeste. L’article 62 du règlement prévoit des mesures d’accompagnement dédiées aux PME et aux startups : accès prioritaire aux bacs à sable réglementaires (environnements d’expérimentation supervisés), allégements dans les exigences de documentation technique, et réductions proportionnelles de sanctions. Ces dispositifs existent, mais ils ne dispensent pas de se conformer aux obligations de fond.

AI Act et RGPD : deux textes qui s’additionnent
Une confusion fréquente consiste à traiter l’AI Act comme un simple prolongement du RGPD. Ces deux règlements coexistent, mais ne se substituent pas l’un à l’autre. Le RGPD encadre le traitement des données personnelles ; l’AI Act encadre les systèmes d’IA dans leur ensemble. Leurs périmètres se croisent souvent, notamment lorsque ces systèmes traitent des données personnelles, ce qui est quasi systématique en RH, en relation client ou en finance, mais leurs obligations sont distinctes.
La bonne nouvelle pour les PME déjà conformes au RGPD : les bases documentaires existantes (registre des traitements, analyses d’impact) constituent un point de départ solide pour la cartographie IA requise par le nouveau texte. L’approche la plus efficace est intégrée : construire une stratégie commune RGPD/AI Act plutôt que deux chantiers parallèles, en identifiant les synergies et en évitant les redondances documentaires.
Chez Mink, nous accompagnons nos clients dans cette démarche consolidée, en construisant des architectures IA qui intègrent dès la conception les obligations de conformité, pour ne pas avoir à les ajouter en urgence après coup.
Les sanctions : proportionnées, mais dissuasives
Le règlement prévoit des sanctions à trois niveaux. Les infractions les plus graves, à savoir l’utilisation de systèmes à risque inacceptable, peuvent atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial. Le non-respect des obligations applicables aux systèmes à haut risque expose à des amendes allant jusqu’à 15 millions d’euros ou 3 % du chiffre d’affaires. Pour les petites structures et les startups, des plafonds proportionnels réduits s’appliquent, mais l’impact réputationnel d’un manquement documenté reste un risque stratégique à part entière.
Ces chiffres doivent être mis en regard du coût réel de se conformer. Selon une analyse citée par plusieurs observateurs du secteur, engager cette démarche pour une PME déployant des systèmes à haut risque pourrait représenter entre 2 000 et 8 000 euros par an, audit et formation inclus. Un investissement très largement inférieur aux risques encourus en cas de contrôle.
L’AI Act comme levier stratégique, pas comme contrainte
Il serait réducteur de n’aborder l’AI Act que sous l’angle défensif. Le règlement crée en réalité un cadre de confiance pour l’IA en Europe, et les organisations qui anticipent peuvent en tirer un avantage concurrentiel réel.
Sur les marchés B2B, la capacité à démontrer une utilisation responsable et documentée de l’IA devient un argument de différenciation. Face à des donneurs d’ordre (grands comptes, institutions publiques, clients internationaux), disposer d’un pilotage structuré de ses outils d’IA renforce la crédibilité comme partenaire fiable. Cela vaut aussi en interne : former ses équipes à l’analyse des usages IA et définir des processus de supervision humaine, c’est développer une maturité organisationnelle qui améliore la qualité des décisions.
L’innovation n’est pas bridée par la réglementation lorsqu’elle est anticipée. Les bacs à sable réglementaires prévus par l’article 57 du règlement permettent de tester des systèmes d’IA dans des environnements encadrés, avec un accès facilité à l’expertise des autorités compétentes. C’est une opportunité concrète pour les PME qui souhaitent développer des produits IA innovants tout en sécurisant leur trajectoire réglementaire.
Par où commencer ? Un plan d’action en quatre étapes
Se préparer à l’AI Act n’exige pas de tout faire simultanément. Une approche structurée et séquencée permet de progresser sans alourdir inutilement les opérations.
Première étape : l’inventaire. Listez exhaustivement tous les outils et systèmes intégrant de l’IA dans vos processus, y compris les solutions SaaS avec composant IA (CRM, ATS, ERP, outils marketing). Identifiez le fournisseur, la finalité et les données impliquées pour chacun.
Deuxième étape : la classification. Pour chaque outil identifié, déterminez son niveau de risque au sens du règlement. La grande majorité des solutions courantes relèvent du risque minimal ou limité. Seuls quelques usages spécifiques entrent dans le périmètre haut risque. Cette analyse permet de concentrer les efforts là où ils sont réellement nécessaires.
Troisième étape : le chantier de mise en conformité ciblé. Pour les systèmes classés à haut risque, engagez les axes prioritaires : documentation technique, qualité des données, information des personnes, formation des équipes. Si vous développez des solutions IA en interne ou sur mesure, la question réglementaire doit être intégrée dès la phase de conception, selon la logique du privacy by design, transposé ici en compliance by design.
Quatrième étape : l’ancrage dans la durée. Se conformer à l’AI Act n’est pas un projet ponctuel mais un processus continu. Il suppose une surveillance régulière des systèmes déployés, une mise à jour de la documentation au fil des évolutions, et une capacité d’adaptation aux lignes directrices que la Commission continue de publier, notamment les normes harmonisées attendues pour le second semestre 2026.

Conclusion : la conformité IA est une décision stratégique
Ce règlement n’est pas un sujet réservé aux juristes ou aux grandes structures. C’est une réalité opérationnelle qui touche toute entreprise qui exploite l’IA dans ses processus, et elles sont de plus en plus nombreuses à le faire, souvent sans en avoir pleinement conscience.
L’enjeu d’août 2026 est double : éviter des sanctions réglementaires, certes, mais surtout bâtir un usage de l’IA qui soit fiable, documenté et aligné avec les valeurs de transparence et de respect des droits fondamentaux que porte ce texte. Les organisations qui traitent cette échéance comme une opportunité de structurer leur pratique de l’IA plutôt que comme une contrainte administrative, en sortiront plus fortes, plus crédibles et mieux armées pour les années à venir.
Naviguer dans ce cadre réglementaire tout en continuant à innover demande une expertise à la croisée du technique, du produit et du réglementaire. C’est précisément ce que Mink apporte à ses clients : une vision globale qui articule développement sur mesure, architecture IA robuste et conformité intégrée dès la conception. Si vous souhaitez faire le point sur vos usages actuels de l’IA et identifier vos obligations avant août 2026, parlons-en.
Ecrit par
Jathursan MEHAVARNAN
Partager l'article :
Site, application ou automatisation de process : nos équipes conçoivent et développent des solutions sur-mesure qui répondent à vos enjeux métier.