Nouvelles
Entrepreneuriat

La maîtrise de l'IA a désormais force de loi : que signifie la loi sur l'IA pour votre entreprise ?

Authors
Lauren D’hooghe
Avocat
NOMA blog AI act header sfeerbeeld
Partager

Ce qui semblait être une musique d'avenir est devenu réalité : depuis février 2025, le règlement européen sur l'IA (AI Act) est officiellement en vigueur. L'Union européenne entre ainsi dans l'histoire en devenant le premier ordre juridique à réglementer de manière exhaustive l'intelligence artificielle par la loi. L'ambition est double : stimuler l'innovation et protéger les droits fondamentaux. Mais qu'est-ce que cela signifie concrètement pour vous en tant qu'entrepreneur ? Et pourquoi ne pas attendre demain pour agir ? Lauren D'hooghe, avocate chez NOMA, vous guide à travers les obligations essentielles et les implications pour vos activités commerciales.

Quatre catégories de risques : quels sont les systèmes d'IA à surveiller ?

La loi sur l'IA repose sur une approche à plusieurs niveaux, fondée sur les risques. Chaque système d'IA est classé dans l'une des quatre catégories de risque, chacune ayant ses propres obligations légales :

  • Les systèmes d'IA interdits, tels que l'évaluation sociale ou la reconnaissance des émotions sur le lieu de travail.
  • Les systèmes d'IA à risque élevé, tels que les applications dans les domaines des ressources humaines, de l'éducation ou de l'application de la loi.
  • L'IA à risque limité, comme les chatbots ou le contenu généré par l'IA, soumis à des obligations de transparence.
  • l'IA à risque faible ou négligeable, comme les filtres anti-spam ou l'IA dans les jeux, pour laquelle des lignes directrices volontaires s'appliquent.


Important : même les entreprises qui ne développent pas elles-mêmes l'intelligence artificielle, mais se contentent de l'utiliser, n'échappent pas à la réglementation. De nombreuses entreprises, y compris des PME, seront désignées comme des cas d'utilisation au titre de la loi sur l'IA, avec des obligations directes qui leur sont propres. Par conséquent, un premier exercice essentiel pour toute entreprise consiste à cartographier tous les systèmes d'IA déployés.
 

Un agent utilisateur est toute personne physique ou morale - y compris les gouvernements, les agences ou autres organismes publics - qui déploie un système d'IA sous sa propre responsabilité. Les applications dans un contexte strictement personnel et non professionnel constituent une exception.

Quelle sera l'obligation légale pour les entreprises à partir de février 2025 ?

Interdiction des systèmes d'IA présentant un "risque inacceptable

La loi dresse une liste exhaustive des systèmes d'IA interdits dans l'UE. Il s'agit notamment des applications qui évaluent les individus en fonction de leur comportement, de leur origine ou de leur profil socio-économique. Les systèmes de reconnaissance des émotions sur le lieu de travail, dans les écoles ou lors du recrutement sont également interdits. Ceux qui déploient de telles applications s'exposent à de lourdes sanctions.

Promouvoir la culture de l'IA au sein de votre entreprise

Connaissance de l'IA : compétences, connaissances et compréhension qui permettent aux fournisseurs, aux contrôleurs de l'utilisation et aux personnes concernées, compte tenu de leurs droits et obligations respectifs en vertu du présent règlement, de déployer des systèmes d'IA en connaissance de cause et d'être plus conscients des possibilités et des risques de l'IA et des dommages potentiels qu'elle peut causer.

Une première en droit européen : les entreprises sont désormais légalement tenues de promouvoir la culture de l'IA auprès de leur personnel. Cette obligation s'applique à tous les systèmes d'IA, quel que soit leur profil de risque.

Concrètement, cela signifie que les employés doivent avoir une compréhension suffisante du fonctionnement, des risques et des limites des outils d'IA qu'ils utilisent. Ce transfert de connaissances devrait de préférence se faire par le biais d'une formation adaptée à leur fonction et à leur type d'utilisation : après tout, les besoins d'un développeur sont fondamentalement différents de ceux d'un assistant administratif

La loi sur l'IA oblige les entreprises à gérer l'intelligence artificielle en toute connaissance de cause. Désormais, la maîtrise de l'IA n'est plus un atout, mais une obligation légale.

Bien qu'une politique ou un code de conduite en matière d'IA ne soit pas (encore) une obligation légale, l'Office européen de l'IA recommande aux entreprises d'établir des règles de base claires concernant l'utilisation de l'intelligence artificielle. Un tel document permet d'organiser l'utilisation de l'IA au sein de l'entreprise de manière structurée et conforme : qui est autorisé à utiliser quoi, dans quelles conditions, et comment cela est-il contrôlé ?

De nouvelles règles
pour l'IA à haut risque
NOMA blog AI act header sfeerbeeld 2

Pourquoi agir dès aujourd'hui en faveur de l'intelligence artificielle ?

Toutes les obligations ne prennent pas effet immédiatement. L'Union européenne utilise une entrée en vigueur progressive. Par exemple, les règles supplémentaires pour les modèles génériques d'IA (tels que les modèles de fondation) ne s'appliqueront qu'à partir du 2 août 2025, et les obligations de transparence pour les risques limités et les nouvelles règles pour l'IA à haut risque suivront en 2026.

Néanmoins, il est crucial pour les entreprises de prendre les bonnes mesures dès aujourd'hui. Celles qui investissent dans la conformité dès maintenant évitent non seulement les risques juridiques et les atteintes à la réputation, mais démontrent également leur engagement en faveur de la bonne gouvernance et de l'entrepreneuriat éthique. En outre, une approche réfléchie renforce la confiance des clients, des employés et des régulateurs.

Une approche réfléchie et précoce offre également l'avantage de pouvoir intégrer l'intelligence artificielle de manière stratégique et responsable dans les activités de l'entreprise.

NOMA, partenaire juridique de la transition vers l'IA

Vous voulez savoir si votre entreprise est correctement positionnée dans le cadre de la loi sur l'IA ? Vous cherchez un cadre clair pour structurer l'utilisation de l'IA au sein de votre organisation ?

De l'évaluation des risques à la rédaction de politiques et de formations, les avocats de NOMA vous guideront à travers le cadre juridique complexe avec des conseils sur mesure. N'hésitez pas à nous contacter.

Dans notre prochain blog, nous expliquerons les obligations supplémentaires applicables à partir du 2 août 2025, avec un accent particulier sur les outils d'IA couramment utilisés tels que les chatbots et Copilot.

À propos
Lauren D’hooghe

Lauren D’Hooghe, rattachée à NOMA depuis 2024, combine une solide formation théorique à une expérience pratique en droit des entreprises et en fusions-acquisitions (M&A). Elle a obtenu son master en droit à l’Université de Gand, où elle s’est approfondie dans les problématiques juridiques liées aux entreprises et aux fusions. Lauren est l’auteure de plusieurs publications académiques dans lesquelles elle explore l’impact juridique et économique de ces thématiques. Chez NOMA, elle accompagne les entreprises dans leurs décisions stratégiques majeures et leur fournit des conseils juridiques en parfaite adéquation avec leurs objectifs stratégiques.

CTA blog

Faire appel à un avocat spécialisé?

L'équipe de NOMA est à votre disposition pour vous fournir des conseils spécialisés et un accompagnement sur mesure dans un cadre confidentiel!

N'hésitez pas à nous contacter pour une consultation personnelle dans nos bureaux de Bruxelles, Bruges ou Courtrai.

Podcast

Des conseils juridiques en route ?

Bienvenue sur Law by NOMA, un regard lucide sur l'actualité juridique. Dans ce podcast, les avocats de NOMA partagent leur expertise. Pratique, accessible et concret, ce podcast s'adresse aux entrepreneurs et aux entreprises ambitieuses.

Restez informé par email