De Europese Unie heeft met de AI Act een ambitieus regelgevend kader gecreëerd voor kunstmatige intelligentie. Een belangrijk onderdeel hiervan is het toezicht op algemeen toepasbare AI-modellen, ook wel bekend als general-purpose AI (GPAI). Deze modellen vormen de basis voor tal van AI-toepassingen en hebben potentieel verstrekkende gevolgen voor onze samenleving. Hoe gaat de EU om met het reguleren van deze krachtige technologie? En wat betekent dit voor ontwikkelaars, overheden en burgers?
De kern van GPAI-toezicht in de AI Act
Het toezicht op algemeen toepasbare AI-modellen wordt in de AI Act geregeld in samenhang met Verordening 2019/1020, die gaat over markttoezicht en productconformiteit in de EU. Een belangrijk aspect hierbij is de rol van het AI Office, een nieuw op te richten Europees orgaan.
Wanneer zowel het GPAI-model als het daarop gebaseerde AI-systeem door dezelfde aanbieder zijn ontwikkeld, treedt artikel 75 van de AI Act in werking. In dat geval zal het AI Office toezicht houden op de naleving en beschikt het over alle bevoegdheden van een markttoezichtautoriteit[1].
Verplichtingen voor GPAI-aanbieders
Naast de algemene verplichtingen voor aanbieders van GPAI-modellen en modellen met systemisch risico (vastgelegd in hoofdstuk 5 van de AI Act), bevat de wet ook specifieke bepalingen voor het toezicht, onderzoek, handhaving en monitoring van deze modellen. Deze extra maatregelen onderstrepen het belang dat de EU hecht aan het verantwoord ontwikkelen en inzetten van krachtige AI-technologie.
Een omstreden onderwerp
De regulering van GPAI was tijdens het wetgevingsproces van de AI Act een heet hangijzer. Europese ondernemers uitten hun zorgen over de strikte regels voor GPAI-modellen. Ze vreesden dat deze regels innovatie zouden belemmeren en het voor EU-bedrijven moeilijk zouden maken om te concurreren met Amerikaanse tegenhangers.
Deze discussie is niet uniek voor Europa. In Californië werd onlangs een AI-veiligheidswet (SB 1047) gevetood door de gouverneur. Deze wet zou van toepassing zijn geweest op AI-modellen “getraind met een hoeveelheid rekenkracht groter dan 10^26 integer of floating-point operaties, waarvan de kosten meer dan honderd miljoen dollar ($100.000.000) bedragen”. De gouverneur stelde:
“Door zich alleen te richten op de duurste en grootschalige modellen, creëert SB 1047 een regelgevend kader dat het publiek een vals gevoel van veiligheid kan geven over het beheersen van deze snel evoluerende technologie. Kleinere, gespecialiseerde modellen kunnen net zo gevaarlijk of zelfs gevaarlijker blijken dan de modellen waarop SB 1047 zich richt – met het risico dat de innovatie die vooruitgang stimuleert ten gunste van het algemeen belang wordt beperkt.”[2]
Hoge verwachtingen en internationale concurrentie
Er zijn hoge verwachtingen over de potentiële vooruitgang die GPAI-modellen en hun toepassingen kunnen brengen. Veel landen zijn daarom terughoudend met strenge regulering, uit angst om de internationale concurrentiestrijd te verliezen.
In deze context worden bepalingen zoals vastgelegd in artikelen 88-94 van de AI Act door velen in de industrie als “streng” beschouwd. Deze artikelen kunnen GPAI-aanbieders verplichten tot:
- Het verstrekken van informatie die als zeer vertrouwelijk kan worden beschouwd
- Het toestaan van evaluaties door het AI Office
- Het nemen van maatregelen op verzoek van de Europese Commissie om aan de AI Act te voldoen
- Het implementeren van risicobeperkende maatregelen
- Het beperken van de toegang tot de markt, het terugtrekken of terugroepen van het model
Kernbepalingen voor GPAI-toezicht
Laten we enkele cruciale artikelen en hun bepalingen nader bekijken:
Artikel 91: informatieverzoeken
Dit artikel stelt dat de Europese Commissie de aanbieder van een GPAI-model kan verzoeken om:
- Documentatie te verstrekken die is opgesteld in overeenstemming met artikelen 53 en 55 van de AI Act
- Aanvullende informatie te leveren die nodig is om de naleving van de verordening te beoordelen
Ook kan de Commissie, op verzoek van het wetenschappelijk panel, informatie opvragen bij een GPAI-aanbieder als dit noodzakelijk en evenredig is voor de taken van het panel.
Artikel 92: evaluaties
Het AI Office kan, na raadpleging van de AI-raad, evaluaties uitvoeren van het betreffende GPAI-model om:
- De naleving van verplichtingen te beoordelen wanneer de informatie uit artikel 91 ontoereikend is
- Systemische risico’s op EU-niveau te onderzoeken, vooral na een gekwalificeerde waarschuwing van het wetenschappelijk panel
De Commissie kan onafhankelijke deskundigen aanstellen om deze evaluaties uit te voeren. Voor deze evaluaties kan de Commissie toegang vragen tot het GPAI-model via API’s of andere technische middelen, inclusief broncode.
Artikel 93: handhavingsmaatregelen
De Commissie kan aanbieders verzoeken om:
- Passende maatregelen te nemen om te voldoen aan de verplichtingen uit artikelen 53 en 54
- Risicobeperkende maatregelen te implementeren bij ernstige zorgen over systemische risico’s
- De toegang tot de markt te beperken, het model terug te trekken of terug te roepen
Implicaties voor de AI-industrie
Tot nu toe hebben we weinig publieke debatten gezien over deze specifieke bepalingen. Grote technologiebedrijven hebben wel kritiek geuit op EU-regelgeving in het algemeen, waaronder de GDPR en de AI Act, maar niet specifiek op deze artikelen voor GPAI-toezicht.
Een mogelijke verklaring is dat juridische teams van GPAI-aanbieders deze artikelen nog niet grondig hebben bestudeerd. De meeste bedrijven zijn tot nu toe terughoudend geweest met het delen van informatie over hun modellen. Denk bijvoorbeeld aan het interview met Mira Murati over de trainingsdataset van Sora, waarin weinig concrete details werden prijsgegeven[3].
De bovengenoemde artikelen geven de Europese Commissie en het AI Office, op basis van een redelijk verzoek, toegang tot alle documentatie over het GPAI-model die zij relevant achten om naleving te verifiëren. Dit kan voor sommige bedrijven een uitdaging vormen, gezien hun wens om bedrijfsgeheimen te beschermen.
Europa versus de rest van de wereld
Tot dusver is de regulering van GPAI-modellen in de EU veel strenger dan in de VS, waar de meeste ontwikkelaars van deze modellen gevestigd zijn. De rest van de wereld observeert momenteel en besluit welk regelgevend model zij willen volgen.
Het is te hopen dat de VS en andere landen binnenkort AI-reguleringsmaatregelen op nationaal niveau zullen invoeren. Dit zou zorgen voor meer symmetrie en mondiale governance van GPAI-modellen. Als dit niet gebeurt, bestaat het risico dat bedrijven de EU verlaten en dat deze extreem krachtige modellen grotendeels ongereguleerd blijven.
Conclusie: balanceren tussen innovatie en verantwoordelijkheid
De EU loopt voorop met de regulering van algemeen toepasbare AI-modellen via de AI Act. Deze aanpak biedt kansen voor verantwoorde AI-ontwikkeling, maar brengt ook uitdagingen met zich mee voor innovatie en internationale concurrentiekracht.
Voor overheden en beleidsmakers in de publieke sector is het cruciaal om de ontwikkelingen rond GPAI-regulering nauwlettend te volgen. Het vinden van de juiste balans tussen innovatie stimuleren en risico’s beheersen zal bepalend zijn voor de toekomst van AI in Europa en daarbuiten.
Wilt u meer weten over de implicaties van de AI Act voor uw organisatie of advies over verantwoorde AI-implementatie? Neem dan contact op met CiviQs. Onze experts staan klaar om u te helpen navigeren in het complexe landschap van AI-governance en compliance.