Nouvelle série d'obligations découlant de la loi sur l'IA en vigueur depuis le 2 août 2025
La réglementation en matière d'IA ne cesse de s'étendre : depuis le 2 août 2025, de nouvelles obligations s'appliquent aux fournisseurs de modèles d'IA génériques. Mais il ne s'agit là que d'une étape dans un déploiement plus large et progressif. En 2026 et 2027, des obligations supplémentaires suivront, notamment pour les utilisateurs de systèmes d'IA présentant un profil de risque limité ou élevé.
Dans cette newsletter, NOMA vous guide à travers les obligations actuelles, les changements à venir et la manière dont vous pouvez vous positionner stratégiquement dans un cadre réglementaire de plus en plus strict en matière d'intelligence artificielle.
Une nouvelle phase dans la réglementation sur l'IA : que réserve l'avenir à votre entreprise ?
Les nouvelles dispositions ne sont pas une note de bas de page dans la réglementation sur l'IA, mais le cœur battant d'une approche européenne progressive. Ce qui semble non contraignant aujourd'hui deviendra une réalité contraignante à partir des mois d'août 2025 et 2026. Les entreprises, y compris les PME, feraient bien de ne pas attendre la supervision, mais d'élaborer dès maintenant une stratégie de mise en conformité. Lauren explique le cadre de gouvernance à plusieurs niveaux :
Au niveau européen, l'Office de l'IA, un Conseil de l'IA, un Forum consultatif et un Groupe scientifique sont en train d'être mis en place. Ces institutions élaborent des lignes directrices, mettent en commun leur expertise et contrôlent le respect de la loi sur l'IA.
Parallèlement, chaque État membre désigne au moins une autorité de notification et un régulateur de marché. La surveillance de l'utilisation de l'intelligence artificielle prend ainsi des contours concrets. "Pour les entreprises, cela signifie : plus de clarté, mais aussi plus de responsabilité. L'Office européen de l'IA élaborera également des codes de conduite et des recommandations pratiques, guidant les entreprises qui intègrent des applications d'IA dans leurs activités."
Obligations de transparence pour les développeurs de modèles d'IA
Outre la gouvernance, la loi sur l'IA prévoit, à partir d'août 2025, des obligations spécifiques pour les fournisseurs de modèles d'IA à usage général, les modèles fondamentaux sur lesquels Copilot et ChatGPT, entre autres, sont basés.
Bien que ces règles ne s'appliquent qu'aux entreprises technologiques qui développent de tels modèles, il est essentiel que les utilisateurs finaux en comprennent l'impact. En effet, les fournisseurs sont tenus de
- conserver la documentation technique relative à la formation, aux essais et à l'évaluation du modèle d'IA
- mettre des informations à la disposition des fournisseurs de systèmes qui intègrent leur modèle
- prendre des mesures supplémentaires en cas de risque accru pour le système, y compris l'enregistrement des incidents, la cybersécurité et l'évaluation régulière.
Ces obligations peuvent être intégrées indirectement dans les accords contractuels entre les fournisseurs et les utilisateurs. La transparence et la responsabilité deviennent des principes partagés dans la chaîne de l'IA.
La Commission européenne a reçu un premier code de conduite de l'AI Office le 10 juillet 2025, destiné aux développeurs de modèles d'IA à usage général. Ce code n'est pas contraignant, mais son respect peut atténuer les risques d'application. La Commission européenne envisage également un système de certification pour ceux qui respectent le code de conduite. Ce système pourrait servir de label de qualité pour l'intelligence artificielle éthique sur le marché de l'UE.
Sanctions en cas de non-respect de la loi sur l'IA
À partir d'août 2025, chaque autorité de régulation disposera de sanctions sévères. En cas de violation de la loi sur l'IA, des amendes administratives pouvant atteindre 35 millions d'euros ou 7 % du chiffre d'affaires annuel mondial s'appliquent aux grandes entreprises. Un plafond réduit de 7,5 millions d'euros ou de 1,5 % du chiffre d'affaires, le montant le plus élevé étant retenu, a été prévu pour les PME.
« Ces sanctions ne sont pas théoriques », prévient Lauren. « La loi sur l'IA prévoit un mécanisme d'application qui sera systématiquement mis en place à partir de 2026, sous la coordination de l'Office de l'IA. »
À partir d'août 2026 : des règles contraignantes pour l'intelligence artificielle à risque limité et élevé
Le 2 août 2026, le règlement sur l'IA entrera presque entièrement en vigueur. Le cadre européen relatif à l'intelligence artificielle entrera ainsi dans une nouvelle phase, au cours de laquelle les applications d'IA à risque limité et à risque élevé seront également soumises à des obligations légales. Ce qui est encore souvent utilisé de manière informelle aujourd'hui recevra alors des règles de base formelles.
Une politique en matière d'IA n'est pas une formalité, mais un cadre qui oriente l'utilisation quotidienne. Ceux qui investissent aujourd'hui dans cette politique créent une clarté juridique, un contrôle interne et une crédibilité externe.
Obligation de transparence pour l'IA à risque limité
Les chatbots, les assistants virtuels et les outils génératifs tels que Copilot ou ChatGPT sont déjà utilisés dans de nombreuses entreprises pour la communication avec les clients, les processus internes ou la création de contenu. Ces applications relèvent du régime du « risque limité ». « À partir de 2026, elles seront elles aussi soumises à des obligations concrètes de transparence », explique Lauren.
Qu'est-ce qui deviendra obligatoire exactement ?
1 | Informations sur l'utilisateur : les organisations doivent communiquer clairement et explicitement que quelqu'un interagit avec un système d'IA. Par exemple : "Vous parlez à un assistant numérique. Pour les questions complexes, nous sommes heureux de vous renvoyer vers un membre du personnel."
2 | Comprendre les données d'entraînement : si le système d'IA génère des résultats basés sur du matériel protégé par le droit d'auteur, il doit être clair sur quels ensembles de données ils sont basés.
3 | Protection contre les contenus préjudiciables : les systèmes doivent être conçus pour éviter les contenus illégaux ou inappropriés. Une forme minimale de surveillance ou de filtrage devient obligatoire.
Un chatbot ne sera donc plus un outil de communication occasionnel, mais un canal réglementé et surveillé. Pour les entreprises, cela signifie : une attention particulière à la conception, à la configuration et à la surveillance de leurs outils d'IA.
Attention : l'utilisation d'une IA à risque limité dans des contextes sensibles pourrait potentiellement conduire à une reclassification en tant que risque élevé à l'avenir. Envisagez des invites telles que « sélectionnez les cinq meilleurs candidats parmi ces 100 CV », lorsque l'IA est utilisée comme aide à la décision dans un contexte RH. La Commission recueille actuellement des exemples pratiques afin de préciser quand les systèmes d'IA peuvent être considérés comme présentant un risque élevé, et intégrera ces informations dans les futures orientations sur la classification et les obligations.
Intelligence artificielle à haut risque : des conditions strictes, même pour les systèmes faisant l'objet d'un marché extérieur
L'intelligence artificielle déployée dans des secteurs ayant un impact significatif sur les droits ou la sécurité des personnes relève du régime à haut risque. Il s'agit notamment d'applications dans les domaines de la gestion des ressources humaines, des soins de santé et de l'application de la loi.
« Pensez à l'intelligence artificielle utilisée pour présélectionner des candidatures, soutenir des diagnostics ou analyser des preuves », explique Lauren. « Dès lors que l'IA contribue à influencer les décisions dans des contextes aussi sensibles, des règles plus strictes s'appliquent automatiquement. »
Les obligations suivantes s'appliquent à ces systèmes à partir de 2026 :
- Gestion des risques : les entreprises doivent mettre en place un système de gestion des risques, tenir à jour la documentation technique et enregistrer systématiquement les incidents.
- Intervention humaine : l'IA ne doit jamais prendre de décisions totalement autonomes. Il doit toujours y avoir une possibilité de contrôle, de correction ou d'intervention humaine.
- Obligation d'informer les personnes concernées : les utilisateurs, les demandeurs ou les patients doivent être informés de l'utilisation de l'IA et de l'impact possible sur leurs droits.
Ces obligations s'appliquent indépendamment du fait que le système d'IA ait été développé en interne ou acheté à un fournisseur externe. Ainsi, même en cas d'intégration d'un logiciel tiers, la responsabilité finale de l'entreprise est bien réelle.
La loi sur l'IA n'est pas un concept lointain, elle touche au cœur des activités des entreprises, même des PME.
IA intégrée dans les produits physiques : supervision à partir d'août 2027
La dernière partie du règlement entrant en vigueur à partir d'août 2027, l'IA intégrée dans des produits physiques réglementés sera également soumise à une supervision. Pensez aux dispositifs médicaux intelligents, aux ascenseurs, aux jouets ou aux machines industrielles. « La loi sur l'IA complète les directives du cadre réglementaire existant sur les produits, connu sous le nom de nouveau cadre législatif, qui fournit un cadre harmonisé pour la sécurité des produits », précise M. Lauren. « Cela crée un modèle de surveillance unique et intégré, y compris pour les applications physiques de l'intelligence artificielle. »
Votre entreprise est-elle prête pour la réglementation relative à l'intelligence artificielle ?
La loi sur l'IA n'est pas un règlement statique, mais une boussole juridique qui guide l'innovation technologique. Il ne s'agit pas d'attendre que les règles deviennent obligatoires, mais de faire des choix intelligents dès aujourd'hui.Une préparation réfléchie commence par la cartographie de l'ensemble du paysage de l'IA au sein de l'organisation : quels outils sont actuellement utilisés et quelles applications sont prévues ? « Ce n'est que lorsque vous avez une vue d'ensemble que vous pouvez évaluer correctement le niveau de risque de chaque application : faible, limité ou élevé - en fonction du contexte, de la fonctionnalité et de l'impact », explique Lauren.
En outre, la transparence est essentielle : les utilisateurs doivent savoir quand ils interagissent avec un système d'IA. Enfin, il est utile d'élaborer une politique claire en matière d'IA, qui définit qui est autorisé à utiliser quels outils, quelles responsabilités s'appliquent et comment la supervision et la formation sont organisées. « De cette manière, non seulement vous créez un point d'ancrage en interne, conclut Lauren, mais vous montrez également à l'extérieur que vous déployez l'intelligence artificielle de manière consciente, contrôlée et conforme à la réglementation. »
Vous souhaitez aligner votre politique en matière d'IA sur votre secteur, votre structure et votre vision de l'avenir ? NOMA vous guidera dans tous les aspects de la conformité à l'IA : de l'évaluation des risques et des directives internes à la mise en œuvre. Prenez contact avec nous.
Faire appel à un avocat spécialisé?
L'équipe de NOMA est à votre disposition pour vous fournir des conseils spécialisés et un accompagnement sur mesure dans un cadre confidentiel!
N'hésitez pas à nous contacter pour une consultation personnelle dans nos bureaux de Bruxelles, Bruges ou Courtrai.
Des conseils juridiques en route ?
Bienvenue sur Law by NOMA, un regard lucide sur l'actualité juridique. Dans ce podcast, les avocats de NOMA partagent leur expertise. Pratique, accessible et concret, ce podcast s'adresse aux entrepreneurs et aux entreprises ambitieuses.