Nieuwe reeks verplichtingen uit de AI Act van kracht sinds 2 augustus 2025
De AI-regelgeving breidt gestaag uit: sinds 2 augustus 2025 zijn nieuwe verplichtingen van kracht voor aanbieders van generieke AI-modellen.
Maar dit is slechts één fase in een bredere, gefaseerde uitrol. In 2026 en 2027 volgen bijkomende verplichtingen, onder meer voor gebruikers van AI-systemen die onder een beperkt of hoog risicoprofiel vallen. In deze nieuwsbrief gidst NOMA u door de actuele verplichtingen, de aankomende wijzigingen, en hoe u zich strategisch kunt positioneren binnen een steeds strikter regelgevend kader rond artificiële intelligentie.
Een nieuwe fase in de AI-regelgeving: wat staat uw bedrijf te wachten?
De nieuwe bepalingen zijn geen voetnoot in de AI-regelgeving, maar vormen het kloppend hart van een gefaseerde, Europese aanpak. Wat vandaag nog vrijblijvend lijkt, wordt vanaf augustus 2025 en 2026 een bindende realiteit. Ondernemingen, ook kmo’s, doen er goed aan om niet te wachten op toezicht, maar hun compliance nu al strategisch op te bouwen. Lauren licht het gelaagd governancekader toe:
Op Europees niveau worden het AI Office, een AI Board, een adviesforum en een wetenschappelijk panel opgericht. Deze instellingen ontwikkelen richtlijnen, bundelen expertise en waken over de naleving van de AI Act.
Tegelijk duidt elke lidstaat minstens één aanmeldende autoriteit en één markttoezichthouder aan. Het toezicht op het gebruik van artificiële intelligentie krijgt zo tastbare contouren. "Voor ondernemingen betekent dit: meer duidelijkheid, maar ook meer verantwoordelijkheid. Het Europees AI Office zal bovendien gedragscodes en praktische aanbevelingen uitwerken, richtinggevend voor bedrijven die AI-toepassingen integreren in hun werking."
Transparantieverplichtingen voor ontwikkelaars van AI-modellen
Naast governance voorziet de AI Act vanaf augustus 2025 in specifieke verplichtingen voor aanbieders van general purpose AI models, de fundamentele modellen waarop onder meer Copilot en ChatGPT zijn gebaseerd.
Hoewel deze regels enkel gelden voor technologiebedrijven die zulke modellen ontwikkelen, is het voor eindgebruikers cruciaal om de impact te begrijpen. Leveranciers worden namelijk verplicht om:
- technische documentatie bij te houden over de training, het testen en evalueren van het AI-model
- informatie ter beschikking te stellen van systeemaanbieders die hun model integreren
- extra maatregelen te nemen bij verhoogd systeemrisico, waaronder incidentenregistratie, cyberbeveiliging en regelmatige evaluatie
Deze verplichtingen kunnen indirect doorwerken naar de contractuele afspraken tussen leveranciers en gebruikers. Transparantie en verantwoordelijkheid worden gedeelde principes in de AI-keten.
De Europese Commissie ontving op 10 juli 2025 een eerste gedragscode van het AI Office, gericht op ontwikkelaars van dergelijke general purpose AI-modellen. De code is niet bindend, maar naleving kan handhavingsrisico’s beperken. De Europese Commissie overweegt bovendien een certificeringssysteem voor wie de gedragscode volgt. Dit zou kunnen dienen als kwaliteitslabel voor ethische artificiële intelligentie binnen de EU-markt.
Sancties bij niet-naleving van de AI Act
Vanaf augustus 2025 beschikt elke toezichthouder over krachtige sancties. Bij inbreuken op de AI Act gelden administratieve geldboetes tot € 35 miljoen of 7 % van de wereldwijde jaaromzet voor grote ondernemingen. Voor kmo’s werd een verlaagd plafond voorzien van € 7,5 miljoen of 1,5 % van de omzet, afhankelijk van welk bedrag het hoogste is.
"Deze sancties zijn niet theoretisch," waarschuwt Lauren. "De AI Act voorziet in een handhavingsmechanisme dat vanaf 2026 stelselmatig zal worden uitgerold, onder coördinatie van het AI Office."
Vanaf augustus 2026: bindende regels voor artificiële intelligentie met beperkt én hoog risico
Op 2 augustus 2026 treedt de AI-verordening nagenoeg volledig in werking. Daarmee belandt het Europese kader rond artificiële intelligentie in een nieuwe fase, waarin ook toepassingen met beperkt risico én hoogrisico-AI-systemen onder wettelijke verplichtingen vallen. Wat vandaag vaak nog informeel wordt gebruikt, krijgt dan formele spelregels.
Een AI-policy is geen formaliteit, maar een kader dat richting geeft aan dagelijks gebruik. Wie daar vandaag in investeert, creëert juridische duidelijkheid, interne controle en externe geloofwaardigheid.
Transparantieplicht voor AI met beperkt risico
Chatbots, virtuele assistenten en generatieve tools zoals Copilot of ChatGPT worden in veel ondernemingen al ingezet in klantcommunicatie, interne processen of contentcreatie. Deze toepassingen vallen onder het regime van ‘beperkt risico’. “Vanaf 2026 worden ook zij onderworpen aan concrete transparantieverplichtingen,” licht Lauren toe.
Wat wordt precies verplicht?
1 | Gebruikersinformatie: organisaties moeten helder en expliciet communiceren dat iemand met een AI-systeem in interactie is. Bijvoorbeeld: “U spreekt met een digitale assistent. Voor complexe vragen verwijzen wij u graag door naar een medewerker.”
2 | Inzicht in trainingsdata: als het AI-systeem output genereert op basis van auteursrechtelijk beschermd materiaal, moet het duidelijk zijn op welke datasets dit gebaseerd is.
3 | Beveiliging tegen schadelijke inhoud: systemen moeten ontworpen zijn om illegale of ongepaste inhoud te vermijden. Een minimale vorm van monitoring of filtering wordt verplicht.
Een chatbot wordt zo geen vrijblijvende communicatietool meer, maar een gereguleerd kanaal dat onder toezicht staat. Voor ondernemingen betekent dit: extra aandacht voor ontwerp, configuratie én opvolging van hun AI-tools.
Opgelet: het gebruik van beperkte-risico-AI in gevoelige contexten kan in de toekomst mogelijks leiden tot de herclassificatie als hoog risico. Denk aan prompts zoals “selecteer de vijf beste kandidaten uit deze 100 cv’s”, waarbij AI beslissingsondersteunend wordt ingezet in een hr-context. De Commissie verzamelt momenteel praktijkvoorbeelden om te verduidelijken wanneer AI-systemen als hoog risico gelden, en zal deze input verwerken in toekomstige richtsnoeren over classificatie en verplichtingen.
Hoogrisico-AI: strikte voorwaarden, ook bij extern aangekochte systemen
Artificiële intelligentie die wordt ingezet in sectoren met aanzienlijke impact op de rechten of veiligheid van personen vallen onder het hoogrisicoregime. Het gaat om toepassingen in onder meer personeelsbeheer, gezondheidszorg en rechtshandhaving.
“Denk aan AI die wordt gebruikt om sollicitaties te screenen, diagnoses te ondersteunen of bewijsmateriaal te analyseren,” zegt Lauren. “Zodra AI mee beslissingen beïnvloedt in zulke gevoelige contexten, gelden er automatisch strengere regels.”
Voor deze systemen gelden vanaf 2026 de volgende verplichtingen:
- Risicobeheersing: ondernemingen moeten een risicobeheersingssysteem opzetten, technische documentatie bijhouden en incidenten systematisch registreren.
- Menselijke tussenkomst: AI mag nooit volledig autonoom beslissen. Er moet altijd de mogelijkheid zijn tot menselijke controle, correctie of tussenkomst.
- Informatieplicht aan betrokkenen: gebruikers, sollicitanten of patiënten moeten geïnformeerd worden over het gebruik van AI, en over de mogelijke gevolgen voor hun rechten.
Deze verplichtingen gelden ongeacht of het AI-systeem zelf werd ontwikkeld of werd aangekocht bij een externe leverancier. Ook bij integratie van derde software is de eindverantwoordelijkheid van de onderneming dus reëel.
De AI Act is geen ver-van-mijn-bedshow, maar dringt door tot in de kern van bedrijfsvoering, ook bij kmo’s.
AI geïntegreerd in fysieke producten: toezicht vanaf augustus 2027
Met het laatste luik van de verordening, dat in werking treedt vanaf augustus 2027, wordt ook AI die deel uitmaakt van gereguleerde fysieke producten onderworpen aan het toezicht. Denk aan slimme medische apparaten, liften, speelgoed of industriële machines. “De AI Act vormt een aanvulling op de richtlijnen onder het bestaande productregelgevend kader, het zogenaamde New Legislative Framework, dat een geharmoniseerd kader voor productveiligheid biedt,” verduidelijkt Lauren. “Zo ontstaat één geïntegreerd toezichtmodel, ook voor fysieke toepassingen van artificiële intelligentie.”
Is uw onderneming klaar voor de regelgeving rond artificiële intelligentie?
De AI Act is geen statisch wetboek, maar een juridisch kompas dat richting geeft aan technologische innovatie. Het is geen kwestie van wachten tot de regels dwingend worden, maar van vandaag al slimme keuzes maken.Een doordachte voorbereiding begint met het in kaart brengen van het volledige AI-landschap binnen de organisatie: welke tools worden momenteel gebruikt en welke toepassingen zijn gepland? “Pas wanneer je zicht hebt op het geheel, kan je het risiconiveau van elke toepassing correct beoordelen: laag, beperkt of hoog - afhankelijk van context, functionaliteit en impact,” legt Lauren uit.
Daarnaast is transparantie essentieel: gebruikers moeten weten wanneer ze met een AI-systeem interageren. Tot slot loont het om een heldere AI-policy uit te werken waarin wordt vastgelegd wie welke tools mag gebruiken, welke verantwoordelijkheden gelden, en hoe toezicht en opleiding worden georganiseerd. “Zo creëer je niet alleen intern houvast,” besluit Lauren, “maar toon je ook extern dat je artificiële intelligentie bewust, gecontroleerd en in lijn met de regelgeving inzet.”
Wilt u uw AI-beleid afstemmen op uw sector, structuur en toekomstvisie? NOMA begeleidt u bij elk aspect van AI-compliance: van risicobeoordeling en interne richtlijnen, tot implementatie. Neem contact op.
Op zoek naar een toegewijde advocaat?
Het team van NOMA staat voor u klaar met gespecialiseerd advies en begeleiding op maat in een vertrouwelijk kader!
Neem gerust contact op voor een persoonlijk gesprek op onze kantoren in Brussel, Brugge of Kortrijk.
Juridische tips onderweg?
Welkom bij Law by NOMA, een glasheldere blik op de juridische actualiteit. In deze podcast delen de advocaten van NOMA hun expertise. Praktisch, toegankelijk en to the point, op maat van ambitieuze ondernemers en bedrijven.