Er lijkt geen maat te staan op de opkomst van Artificial Intelligence (‘AI’). Door de opkomst van ChatGPT is AI in een korte tijd bekend geworden bij een breed publiek, maar AI omvat veel meer dan chatbots. Denk aan toepassingen op het gebied van gezondheid (zoals het detecteren van kanker), werkgelegenheid, videogames en jouw YouTube feed. AI komt terug in bijna alle facetten van het dagelijkse leven. Reden genoeg dus om stil te staan bij het juridisch kader van AI. In deze blogreeks behandelt het Holla AI-team verschillende juridische vraagstukken op het gebied van AI. Onderstaande blog is deel 4 van de reeks en gaat in op de conceptrichtlijn betreffende aanpassing van regels inzake niet-contractuele civielrechtelijke aansprakelijkheid aan AI.

AI en aansprakelijkheid

AI brengt diverse kansen met zich en zorgt voor nieuwe toepassingen die men enkele jaren geleden niet voor mogelijk hield. Deze toepassingen leiden ook tot nieuwe vraagstukken op het gebied van aansprakelijkheid waar de huidige wetgeving veelal niet (volledig) op is afgestemd. Het meest bekende voorbeeld daarbij is wie er aansprakelijk is bij een verkeersongeval dat veroorzaakt is door een zelfrijdende auto; de producent van de zelfrijdende auto of de gebruiker van de zelfrijdende auto? Dat er een spanningsveld bestaat tussen AI en aansprakelijkheid blijkt wel uit het feit dat 43 % van de bedrijven die AI in haar bedrijfsvoering wil toepassen, dit nog niet heeft gedaan in verband met aansprakelijkheidsrisico’s en de daarmee gepaard gaande rechtsonzekerheid. Dit percentage volgt uit het voorstel voor een Europese richtlijn voor niet-contractuele civielrechtelijke aansprakelijkheid bij AI. Tot op heden remt de onduidelijkheid omtrent regelgeving namelijk de ontwikkeling van deze bedrijven. De nationale aansprakelijkheidsregelingen zijn daarnaast veelal gericht op schuldaansprakelijkheid. Dit kan het voor benadeelden van (toepassingen van) AI-systemen complex maken om de verantwoordelijke partij aan te spreken of het causaal verband tussen het handelen of nalaten van het AI-systeem en de schuld van de aanbieder of gebruiker van het AI-systeem aan te tonen. De Europese Commissie is van oordeel dat de huidige wetgeving niet volstaat voor de recente ontwikkelingen met betrekking tot AI. De Europese Commissie heeft dan ook een tweetal voorstellen voor richtlijnen gepresenteerd. Een van deze richtlijnen heeft betrekking op een herziening van de huidige regels van productaansprakelijkheid en de ander aldus op aanpassing van de wettelijke regels inzake niet-contractuele civielrechtelijke aansprakelijkheid aan AI. In deze blog zal ik nader ingaan op het tweede voorstel. Het voorstel beslaat de buitencontractuele aansprakelijkheid die niet onder de regelingen van productaansprakelijkheid valt.

Waarom aanpassing van regels?

De Europese Commissie noemt een tweetal redenen waarom aanpassing van de regels benodigd is. De eerste is dat aansprakelijkheidsregels vooralsnog hoofdzakelijk gebaseerd zijn op het schuldbegrip. Bij het schuldbegrip is het aan benadeelden om aan te tonen dat zijn schade is toegebracht door de toerekenbare schuld van een ander. Dit zou bij toepassing van AI-systemen inhouden dat het aan de benadeelde is om aan te tonen dat de schade die is ontstaan door het gebruik van het AI-systeem te wijten is aan de schuld van de aanbieder of de gebruiker van het AI-systeem. Gezien de complexiteit van AI-systemen kan dit een benadeelde hinderen om voornoemde schuld aan te tonen of dient een benadeelde hoge (juridische) kosten te maken alvorens dit verband aan te kunnen tonen. Dit kan benadeelden ervan weerhouden om een vordering in te stellen. De Europese Commissie acht het wenselijk om de huidige regelgeving aan te passen om te voorkomen dat benadeelden van een AI-systeem verstoken blijven van schadevergoeding. Het tweede doel van de Europese Commissie is om de bestaande rechtsonzekerheid (voor met name bedrijven) ten gevolge van de toepassing van AI-systemen weg te nemen. Het hanteren van het schuldbegrip bij AI-systemen kan tot gevolg hebben dat een rechter aan de hand van de omstandigheden van het geval tot een billijke oplossing probeert te komen. Dit leidt tot rechtsonzekerheid. Het is immers voor een bedrijf dat gebruik maakt van een AI-systeem op voorhand lastig in te schatten wat het uiteindelijke oordeel van een rechter zal zijn. Het is voor een bedrijf dan ook lastig om op voorhand te anticiperen op een dergelijk onzeker oordeel. Dit kan bij de huidige regelgeving een bedrijf ervan weerhouden om AI-systemen toe te passen aangezien de aansprakelijkheidsrisico’s niet voorzienbaar zijn. De rechtsonzekerheid wordt groter als een bedrijf in meerdere Europese lidstaten actief is. Wat in de ene lidstaat is toegestaan, kan immers in een andere lidstaat tot aansprakelijkheid leiden. Als minder bedrijven gebruik maken van AI-systemen dan heeft dat het onwenselijke gevolg dat de ontwikkeling van AI wordt afgeremd. Middels een verbeterde rechtsbescherming van de benadeelde van een AI-systeem en het verminderen van de rechtsonzekerheid poogt de Europese Commissie de belemmeringen voor het uitrollen van betrouwbare AI-systemen zoveel als mogelijk weg te nemen. De Europese Commissie is van oordeel dat voornoemde doelstellingen het best behaald kunnen worden door uniforme regels op EU-niveau. Deze uniforme regels hebben voornamelijk betrekking op openbaarmaking van bewijsmateriaal (artikel 3 van het voorstel) en een weerlegbaar vermoeden van causaal verband in geval van schuld (artikel 4 van het voorstel). Ik zal in het hiernavolgende de belangrijkste punten van deze artikelen bespreken.
Artikel 3 Openbaar making van bewijsmateriaal en weerlegbaar vermoeden van niet-nakoming; 
Art. 3 lid 1 van het voorstel zorgt ervoor dat een nationale rechter op verzoek van een  potentiële eiser of gebruiker van een AI-systeem bewijsmateriaal openbaar kan maken. Een potentiële eiser is blijkens het voorstel een natuurlijke persoon of rechtspersoon die overweegt een vordering tot schadevergoeding in te stellen, maar dat nog niet heeft gedaan. Alvorens een rechter gelast tot openbaarmaking, dient aan de volgende criteria te worden voldaan:
  • Het dient te gaan om een aanbieder van een AI-systeem met een hoog risico;
  • Het dient te gaan om relevant bewijsmateriaal ten aanzien van een specifiek AI-systeem;
  • Het AI-systeem heeft schade veroorzaakt of vermoed wordt dat het AI-systeem schade heeft veroorzaakt;
  • Een eerder verzoek tot openbaarmaking is geweigerd.
Indien aan de hiervoor aangehaalde vereisten wordt voldaan, gelast de rechter dat het bewijsmateriaal aan de benadeelde wordt verstrekt. Blijkens lid 2 zal een rechter alleen openbaarmaking gelasten indien een eiser redelijkerwijs alles heeft gedaan om het relevante bewijsmateriaal te verkrijgen. De openbaarmaking van bewijsmateriaal wordt beperkt tot de noodzakelijke en evenredige informatie die nodig is om de vordering van de benadeelde te kunnen onderbouwen blijkens lid 3. Ook kan een nationale rechter maatregelen treffen om het bewijsmateriaal te bewaren of om de vertrouwelijkheid van het bewijsmateriaal te borgen bij bedrijfsgeheimen (lid 3 en 4). De lidstaten dienen ervoor te zorgen dat diegene die gelast wordt om bewijsmateriaal te verstrekken passende rechtsmiddelen tot zijn beschikking heeft tegen het bevel van openbaarmaking. Tot slot bepaalt lid 5 dat indien geen gevolg wordt gegeven aan het bevel tot openbaarmaking van bewijsmateriaal de rechter in dat geval uitgaat van het vermoeden dat de informatieverstrekker een zorgvuldigheidsplicht heeft geschonden. Aangezien het hier een vermoeden betreft, bestaat er voor de informatieverstrekker de mogelijkheid om dit vermoeden te weerleggen.
Artikel 4 Weerlegbaar vermoeden van causaal verband in geval van schuld
Artikel 4 van het voorstel regelt het weerlegbaar vermoeden van causaal verband tussen de schuld van de aanbieder of gebruiker van het AI-systeem en de door het AI-systeem gegenereerde output of het verzuim door het AI-systeem output te genereren. Alvorens men toekomt aan dit bewijsvermoeden dient blijkens lid 1 van artikel 4 aan de volgende voorwaarden te worden voldaan:

a) Eiser heeft aangetoond dat de aanbieder van het AI-systeem een zorgvuldigheidsplicht heeft geschonden die bedoeld is om bescherming te bieden tegen de geleden schade;

b) Aan de hand van de omstandigheden van het geval kan redelijkerwijs worden aangetoond dat de schuld de door het AI-systeem gegenereerde output of het verzuim door het AI-systeem om output te genereren heeft beïnvloed;

c) Eiser heeft aangetoond dat de door het AI-systeem gegenereerde output of het verzuim door het AI-systeem om output te genereren de schade heeft veroorzaakt.

Het bereik van lid 1 wordt beperkt in de leden 4 en 5. Lid 4 stelt dat een rechter niet uit dient te gaan van het bewijsvermoeden indien er sprake is van een AI-systeem met een hoog risico en de verweerder aantoont dat de benadeelde over voldoende bewijsmateriaal en deskundigheid beschikt om het causaal verband aan te tonen. Als het gaat om een AI-systeem dat geen AI-systeem met een hoog risico is dan is het bewijsvermoeden van lid 1 slechts van toepassing als de rechter oordeelt dat het voor de benadeelde ‘buitensporig moeilijk’ is om het in lid 1 bedoelde causaal verband aan te tonen. Blijkens lid 7 heeft een verweerder de mogelijkheid om het vermoeden van lid 1 te weerleggen. In lid 2 en lid 3 van artikel 4 wordt genoemd wanneer aan sub a) wordt voldaan bij een aanbieder van een AI-systeem met een hoog risico (lid 2) en wanneer aan sub a) wordt voldaan bij een gebruiker van een AI-systeem met een hoog risico. Blijkens lid 6 is het bewijsvermoeden bij een niet professionele gebruiker van het AI-systeem slechts van toepassing als deze gebruiker de voorwaarden van de werking van het AI-systeem wezenlijk heeft verstoord of wanneer de verweerder verplicht en in staat was de voorwaarden voor de werking van het AI-systeem vast te stellen en dit heeft nagelaten.

Conclusie

Het voorstel lijkt op het eerste oog met name de belangen van de benadeelde te beschermen middels het openbaar maken van bewijsmateriaal en het weerlegbaar vermoeden van causaal verband met betrekking tot schuld. Door deze instrumenten slechts van toepassing te verklaren als aan enkele specifieke voorwaarden wordt voldaan houdt het voorstel ook rekening met de belangen van aanbieders of gebruikers van AI-systemen. Door het harmoniseren van de regelgeving worden de belangen van een benadeelde beter beschermd en zijn de aansprakelijkheidsrisico’s voor aanbieders of gebruikers van AI-systemen op voorhand beter in te schatten hetgeen leidt tot minder rechtsonzekerheid. Het risico tot openbaarmaking van bewijsmateriaal aan een benadeelde kan aanbieders of gebruikers van AI-systemen ertoe bewegen om de voor hen geldende regels (beter) na te leven. De in dit artikel besproken richtlijn betreft vooralsnog een voorstel tot een richtlijn. Dit neemt niet weg dat er regelgeving geldt ten aanzien van AI-systemen. Maakt u gebruik van AI binnen uw bedrijfsvoering of bent u voornemens van AI gebruik te gaan maken dan is het van belang om de daarmee gepaard gaande (mogelijke) aansprakelijkheidsrisico’s in kaart te brengen. Mocht u hierover vragen hebben of heeft u hierbij hulp nodig? Neem dan contact op met ons AI-team. Zij helpen u graag verder.

Eerder verschenen in deze blogreeks:

Meld je aan voor onze nieuwsbrief

Geen juridische updates missen? Maak dan een selectie uit de diverse expertises van Holla legal & tax.

Aanmelden nieuwsbrief