Artificiële Intelligentie: hot and happening, maar wat stelt de aankomende wet?

Artificiële intelligentie

Kunstmatige intelligentie of artificiële intelligentie (‘AI’) is hot and happening. Een recent veel besproken voorbeeld van AI is ChatGPT, een chatbot die op basis van leertechnieken gesprekken kan voeren met een gebruiker. Andere voorbeelden van (producten gebaseerd op) artificiële intelligentie zijn zelfrijdende auto’s, gepersonaliseerde aanbiedingen, beeldherkenning en slimme stoplichten. Kort gezegd, AI is niet meer weg te denken uit onze samenleving. De inzet van AI levert ook zeker economische en maatschappelijke voordelen op. Maar het kan ook risico’s of negatieve gevolgen met zich meebrengen. In dat kader heeft de Europese Commissie een voorstel gedaan voor een verordening tot vaststelling van Europese regels over artificiële intelligentie. In dit artikel bespreken wij de basis van dit voorstel. 

Wat is artificiële intelligentie?

In het wetsvoorstel wordt AI omschreven als software die is ontwikkeld aan de hand van techniek(en) en benaderingen waarmee voor bepaalde doelstellingen (opgesteld door mensen) output kan worden gegenereerd. Hierbij kan worden gedacht aan inhoud, voorspellingen, aanbevelingen of beslissingen die van invloed zijn op de omgeving waarmee het AI-systeem interactie heeft. Deze huidige definitie staat nog niet vast en zal hoogstwaarschijnlijk ook nog wel worden aangepast in de definitieve versie van de verordening.

In de praktijk wordt artificiële intelligentie ook wel beschreven als “machines die kunnen denken als mensen”. Dit komt omdat de machines feitelijk gezien zelf kunnen leren, redeneren, analyseren en meer.

De inzet van artificiële intelligentie brengt echter niet alleen voordelen met zich mee. Vaak zijn AI-systemen onvoldoende transparant, verklaarbaar en gedocumenteerd. Bovendien kan verkeerde input ook zorgen voor verkeerde output. Wanneer AI-systemen op een verkeerde manier worden ingezet, zoals bij individuele risicobeoordelingen of in de zorg, kan dit grote gevolgen hebben. Het reguleren van AI-systemen is dan ook van belang.

De AI-verordening

De AI-verordening heeft als doel AI-systemen te reguleren. Deze verordening zal:

  • regels introduceren voor het in de handel brengen, in gebruik stellen én gebruiken van AI in de Unie;
  • verboden instellen op bepaalde praktijken op het gebied van AI;
  • specifieke voorschriften opstellen voor AI-systemen met een hoof risico en verplichtingen voor de beheerders van dergelijke systemen;
  • transparantievoorschriften opstellen voor AI in bepaalde situaties, met name wanneer chatbots of ‘deep fakes’ worden gebruikt;
  • regels opstellen over markttoezicht en -monitoring.

De verordening heeft daarnaast een ruim toepassingsgebruik. De verplichtingen uit de verordening zullen van toepassing zijn op aanbieders die AI-systemen in de Unie in de handel brengen of in gebruik stellen. Maar óók op gebruikers van AI-systemen die zich in de Unie bevinden. Bovendien zal de verordening van toepassing zijn op aanbieders en gebruikers van AI-systemen die zich buiten de Unie bevinden, maar waarvan de output van het systeem wel in de Unie wordt gebruikt.

De verordening kent een ‘risk-based approach’, waarbij verschillende voorschriften gelden, afhankelijk van of het een systeem is met een onaanvaardbaar hoog risico, een hoog risico, een beperkt risico of een laag risico. Welk risiconiveau kan worden toegekend aan een AI-systeem is afhankelijk van het beoogde gebruik en wordt nader toegelicht in de bijlagen bij de verordening. Hierna lichten we dit nader toe.

AI-systemen met een onaanvaardbaar risico

AI-systemen met een onaanvaardbaar risico worden verboden. Onder systeem met een onaanvaardbaar risico verstaan we systemen die technieken gebruiken om personen te manipuleren of misbruik te maken van hun (psychische of fysieke) kwetsbaarheden, zonder dat die personen zich daarvan bewust zijn. Deze systemen hebben het doel hun gedrag te verstoren of andere psychische of fysieke letsels toe te brengen.

Ook het gebruik van AI-systemen voor social scoring-doeleinden wordt verboden als de sociale score gevolgen heeft voor een nadelige of ongunstige behandeling van de betrokkene(n) (zoals gebeurd is bij de Belastingdienst met de Fraude Signalering Voorziening).

Tot slot wordt het gebruik verboden van ‘real time’ biometrische systemen voor identificatie op afstand in openbare ruimten met het oog op de rechtshandhaving (zoals camera’s met gezichtsherkenning). Tenzij het gebruik bijvoorbeeld strikt noodzakelijk is om vermiste kinderen op te sporen, een terroristische aanslag te voorkomen of een verdachte van een strafbaar feit op te sporen.

AI-systemen met een hoog risico

Sommige AI-systemen worden geclassificeerd als systemen met een hoog risico. Deze systemen zijn niet verboden, maar hiervoor zullen striktere voorschriften gelden. Het gaat om AI-systemen met een hoog risico voor de gezondheid, veiligheid of grondrechten. Hierbij denken we aan medische hulpmiddelen, maar ook aan AI-systemen met implicaties op het gebied van grondrechten zoals het onderwijs, werkgelegenheid en rechtshandhaving.

De AI-systemen met een hoog risico moeten onder meer een Europese conformiteitsbeoordeling ondergaan. Daarnaast zullen er regels gelden voor documentatie en het bijhouden van gegevens, transparantie en informatieverstrekking aan gebruikers, menselijk toezicht, robuustheid, nauwkeurigheid en beveiliging.

Een aanbieder van een AI-systeem met een hoog risico moet op basis van het wetsvoorstel:

  • een gedegen systeem voor kwaliteitsbeheer vaststellen;
  • technische documentatie opstellen en verstrekken;
  • een monitoringssysteem inrichten
  • een conformiteitsbeoordelingsprocedure doorlopen;
  • een CE-conformiteitsmarkering aanbrengen;
  • de EU-conformiteitsverklaring ondertekenen;
  • het AI-systeem bij de EU-databank registreren.

Transparantieverplichtingen

Voor bepaalde AI-systemen met een ‘beperkt risico’ gelden transparantieverplichtingen, ook als er geen sprake is van een hoog risico. Hierbij gaat het om AI-systemen die:

  1. interageren met mensen;
  2. worden gebruikt om emoties te detecteren of mensen in te delen in (sociale) categorieën op basis van biometrische gegevens; of
  3. inhoud genereren of manipuleren (‘deep fakes’).

Deze transparantieverplichtingen geven personen de mogelijkheid weloverwogen keuzes te maken of afstand te nemen van bepaalde AI-systemen.

Gedragscodes

In het wetsvoorstel wordt ook een kader voor gedragscodes omschreven die ervoor moet zorgen dat ook aanbieders van AI-systemen met een beperkt risico de strenge voorschriften overnemen die gelden voor systemen met een hoog risico. In deze codes kunnen we vrijwillige afspraken maken over relevante zaken bij AI-systemen zoals milieuduurzaamheid, toegankelijkheid voor personen met een handicap, inspraak van belanghebbenden tijdens het ontwerp en de ontwikkeling van AI-systemen, en diversiteit binnen de ontwikkelingsteams.

Gevolgen bij overtreding?

Het overtreden van de verordening kan worden beboet door ten hoogste een geldboete tot 30 miljoen euro of 6% van de totale wereldwijde jaarlijkse omzet, als dat laatste hoger is. De geldboeten kunnen dus hoog oplopen.

Het zal nog wel even duren voordat de AI-verordening van kracht zal gaan. Er wordt momenteel kritisch gekeken naar het voorstel door de Europese instanties. Het opstellen van een Europese AI-verordening is namelijk niet eenvoudig. De snelheid van de technologische veranderingen en de mogelijke uitdagingen die daarbij komen kijken hebben hier invloed op. Wanneer de definitieve versie wordt gepubliceerd, zullen wij met een update komen.

Met ook dank aan Willemijn Schut (student-stagiaire).

Heeft u vragen of wilt u een afspraak maken?