Nieuws

Aansprakelijkheid in het AI-tijdperk: is de kwalitatieve aansprakelijkheid voor gebrekkige roerende zaken toe aan een update?

Gepubliceerd op 12 jun 2025

Aansprakelijkheid in het AI-tijdperk: is de kwalitatieve aansprakelijkheid voor gebrekkige roerende zaken toe aan een update?

1. Inleiding

Dit artikel is op 20 mei 2025 gepubliceerd door AI-Forum in AIF 2025/2.

Artificial intelligence (hierna: ‘AI’) speelt een steeds grotere rol in onze samenleving. Zo is AI bezig met een flinke opmars in onder andere de financiële sector, in bestuursrechtelijke besluitvormingsprocessen en bij de opkomst van zelfrijdende voertuigen in de transportsector.[1] Hét voorbeeld dat tot ieders verbeelding spreekt, is ChatGPT:[2] een deep learning-model dat getraind is op basis van een zeer grote dataset van honderden miljarden woorden uit allerlei uiteenlopende bronnen, waarbij gebruikers vragen stellen die de tool beantwoordt met een eigen tekst. In de wetenschappelijke literatuur bestaat discussie over de precieze betekenis van AI. In het algemeen wordt aangenomen dat het gaat om machines of systemen die ‘menselijke intelligentie’ nabootsen.[3] Ondanks dat de betekenis niet altijd evident is, is het begrip ‘AI’ niet meer weg te denken uit ons hedendaags taalgebruik.

Naast de ontwikkeling van AI-robots, wordt in toenemende mate intelligente software ontwikkeld en aangewend. Deze AI-software wordt gekwalificeerd als een vorm van computersoftware die de toepassing van AI mogelijk maakt om grote hoeveelheden gegevens te verwerken en om taken te verrichten waarvoor anders menselijke intelligentie nodig zou zijn.[4]

Op het moment dat handelingen worden verricht of besluiten worden genomen op basis van dergelijke AI-software, rijzen vragen ten aanzien van de verantwoordelijkheid voor schade die kan optreden. Het ontstaan van fouten bij inzet van nieuwe technologieën, ook bij het gebruik van hoogwaardige technologie als AI-systemen, is namelijk niet uit te sluiten. Het vaststellen van schuld is lastiger bij AI-systemen dan bij menselijke fouten. AI-systemen zijn namelijk zelfstandig in staat beslissingen of aanbevelingen te maken. Het is om die reden echter niet uit te sluiten dat een AI-systeem een bepaalde keuze maakt die niet voorzienbaar was voor de programmeurs of die niet gebaseerd is op een transparante redenering. Voor individuen die schadevergoeding vorderen voor een beweerdelijke fout door het gebruik van AI-software, ontstaan nieuwe uitdagingen. Op dit moment kent het Nederlandse recht immers (nog) geen aansprakelijkheidsregeling die specifiek ziet op schade door het gebruik van AI-systemen.

Waar in het Nederlandse recht op dit moment geen (privaatrechtelijke) wettelijke regulering van AI aanwezig is, is op Unierechtelijk niveau getracht concrete stappen te zetten om tot AI-wetgeving te komen. Naast de verordening die bekend staat als de ‘Wet op de Artificiële Intelligentie’[5], zijn zowel door het Europees Parlement als de Europese Commissie resoluties en voorstellen geformuleerd voor de vormgeving van speciale buitencontractuele aansprakelijkheden ten aanzien van schade veroorzaakt door AI-systemen. Zo heeft de Europese Commissie op 28 september 2022 een voorstel gepresenteerd voor een Richtlijn inzake AI-aansprakelijkheid.[6] Eerder dit jaar is dit voorstel echter ingetrokken.[7]

Het wegvallen van deze potentiële regelgeving betreffende buitencontractuele aansprakelijkheid roept de vraag op of dit verstrekkende gevolgen heeft voor het Nederlandse buitencontractuele aansprakelijkheidsrecht. Biedt het Nederlandse recht op zichzelf voldoende middelen voor AI-aansprakelijkheid? Artikel 6:173 van het Burgerlijk Wetboek (hierna: ‘BW’) voorziet in een risicoaansprakelijkheid voor de bezitter van een
gebrekkige roerende zaak wanneer deze schade veroorzaakt. De vraag die centraal zal staan in deze bijdrage is of artikel 6:173 BW ook toegepast kan worden bij schade veroorzaakt door AI(-software).

Om deze vraag te beantwoorden, zullen enkele relevante criteria uit artikel 6:173 BW worden toegelicht in het licht van de toepassing van AI-software. Allereerst zal de reikwijdte van het begrip ‘roerende zaak’ worden bepaald (paragraaf 2). Vervolgens zal in worden gegaan op de inhoud van het bezittersbegrip (paragraaf 3). Bovendien zal worden onderzocht hoe de gebrekkigheid van AI(-software) kan worden bepaald (paragraaf 4). Tot slot zal een antwoord op de onderzoeksvraag worden geformuleerd (paragraaf 5).

2. De onstoffelijkheid van AI-software

Voor de vestiging van aansprakelijkheid op grond van artikel 6:173 BW dient sprake te zijn van een roerende zaak. De vraag is echter of AI-software kan worden aangemerkt als een roerende zaak.

Voor de uitleg van dit begrip dient aansluiting te worden gezocht bij de definitie van ‘een zaak’ uit artikel 3:2 BW. De kwalificatie van AI-software als een zaak in de zin van artikel 3:2 BW is echter een gecompliceerd vraagstuk. Software is namelijk naar zijn aard als computerprogramma geen voor menselijke beheersing vatbaar stoffelijk object; software kun je immers niet aanraken of voelen. Strikt genomen betekent dit dat artikel 6:173 BW niet van toepassing is wanneer AI-software wordt gebruikt, omdat software niet als zaak kan worden aangemerkt. Een voorbeeld van de wrijving tussen deze aspecten blijkt uit de bespreking van de vraag in hoeverre de regeling van consumentenkoop (artikel 7:1 e.v. BW) van toepassing is op de aanschaf van software. Op grond van artikel 7:1 BW ziet koop namelijk op de verbintenis tot het leveren van een zaak.

De Hoge Raad heeft in 2012 overwogen dat artikel 7:1 BW ook van toepassing is op software.[8] Alhoewel de Hoge Raad niet expliciet heeft geoordeeld dat software onder het zaaksbegrip valt, is hieruit wel een verruiming af te leiden van wettelijke regelingen waarin een ‘zaak’ centraal staat. Daarnaast zou een dergelijke verruiming, waardoor software hieronder valt, in de huidige tijdsgeest passen; in de huidige maatschappij en economie ligt een grotere nadruk op producten in de vorm van software.[9] In het verlengde hiervan leert een blik op artikel 4 van de nieuwe Richtlijn Productaansprakelijkheid bijvoorbeeld dat als product ook roerende zaken met inbegrip van software wordt aangemerkt.[10]
Een teleologische benadering geniet daarom de voorkeur boven de strenge en puur privaatrechtelijke wetssystematiek die artikel 3:2 BW impliceert. Met inachtneming van bovengenoemd standpunt zou dit betekenen dat in ieder geval AI-software aangemerkt kan worden als zaak in de zin van artikel 6:173 BW. Een kritische noot die echter hierbij geplaatst dient te worden, is dat zowel de wetgever als de rechter nog geen dergelijke benadering hebben aangenomen.

Hoewel de vraag of AI-software onder artikel 6:173 BW valt, onbeantwoord blijft door de wetgever, zal in de rest van deze bijdrage hier wel van uit worden gegaan.[11]

3. Bezit van AI-software

Artikel 6:173 BW houdt specifiek de bezitter van een gebrekkige zaak die schade doet ontstaan aansprakelijk. Of iemand bezitter is, dient te worden beoordeeld aan de hand van Boek 3, titel 5 BW. Diegene die een zaak voor zichzelf houdt, zonder direct eigenaar van de zaak te zijn, is een bezitter in de zin van artikel 3:107 lid 1 BW.

In sommige gevallen is het duidelijk wanneer sprake is van bezit. Bij software is dit, vanwege zijn onstoffelijke aard, echter niet vanzelfsprekend. Bij software, in tegenstelling tot stoffelijke objecten, spelen over het algemeen twee entiteiten een rol: de frontend operator en de backend operator. De frontend operator wordt gedefinieerd als elke natuurlijke persoon of rechtspersoon die een mate van controle uitoefent over het AI-systeem en baat heeft bij de werking van dit systeem. De backend operator is elke natuurlijke persoon of rechtspersoon die continu de kenmerken van een AI-systeem definieert en essentiële gegevens en ondersteuning biedt, en daardoor ook een zekere mate van controle uitoefent.[12] Op het eerste oog lijken deze definities geen antwoord te geven op de vraag welke operator de software voor zichzelf houdt. In het geval van zelfrijdende auto’s houdt een frontend operator, een bestuurder van het voertuig, de auto en de software voor zichzelf. Tegelijkertijd zijn er ook scenario’s denkbaar waarin de backend operator software voor zichzelf houdt, bijvoorbeeld een werkgever die AI-software heeft ontwikkeld welke wordt gebruikt door haar werknemers.

De oorspronkelijke Resolutie van het Europees Parlement behelsde een buitencontractuele aansprakelijkheid voor schade door het gebruik van AI-systemen van zowel frontend als backend operators.[13] Het Europees Parlement heeft twee belangrijke argumenten geboden om aansprakelijkheid van frontend operators én backend operators te verdedigen. Allereerst het controleargument: een operator oefent een mate van controle uit over een AI-systeem, net zoals een eigenaar controle uitoefent over zijn auto. Deze omstandigheid rechtvaardigt dat de operator wordt aangesproken indien het AI-systeem schade veroorzaakt.[14] Dit controleargument is ook door de Hoge Raad in overweging genomen; de Hoge Raad ziet het hebben van controle over een zaak echter niet als voorwaarde om per definitie aansprakelijkheid aan te nemen, maar ziet het gebrek aan uitoefenen van controle als een van de af te wegen omstandigheden.[15] Ten tweede speelt het feit dat de frontend operator baat heeft bij het gebruik van een AI-systeem ook een reden om aansprakelijkheid aan te nemen volgens het Europees Parlement. Dit argument komt overeen met het in het Nederlands recht bekende profijtargument; degene die profiteert van het gebruik van een zaak dient ook op te draaien voor de schade die door een gebrek in deze zaak wordt veroorzaakt.[16] 

Desalniettemin kan hiermee nog niet de kwalificatie van front- en backend operators een-op-een worden vergeleken met het bezittersbegrip van artikel 6:173 BW. Niet alleen omdat het voorstel inzake AI-aansprakelijkheid[17] is ingetrokken, maar ook omdat de aansprakelijkheid uit het voorstel een schuldaansprakelijkheid betrof en er daardoor een mate van verwijtbaarheid van de gebruiker aanwezig dient te zijn. Daar staat tegenover dat artikel 6:173 BW een risicoaansprakelijkheid betreft, waardoor aansprakelijkheid kan worden gevestigd zonder dat aan de bezitter een verwijt dient te worden gemaakt. Ook ten aanzien van dit aspect van artikel 6:173 BW ligt een uitdaging voor de Nederlandse wetgever en/of rechter om uit te leggen hoe bezit van software juridisch gekwalificeerd dient te worden.

4. Gebrekkigheid van AI-software

Zoals eerder toegelicht maken veel AI-softwaresystemen gebruik van machine en deep learning-technieken. Deze technieken werken op basis van algoritmes die een grote hoeveelheid data in verschillende lagen analyseren om bepaalde patronen te ontdekken. Door dergelijke analyses kan het systeem zichzelf aanleren om deze patronen te ontdekken en vervolgens op basis hiervan in concrete gevallen beslissingen of andere output te geven. Door de grote hoeveelheid data die de software op diepgaand niveau kan verwerken komt een dergelijk systeem namelijk sneller en efficiënter tot uitkomsten dan de gemiddelde mens. Ook wordt beweerd dat de
output accurater is en minder fouten in uitkomsten tot stand komen.

Tegelijkertijd kennen de huidige vormen van deze AI-software een groot nadeel. Door de complexiteit van de algoritmes en de gelaagde structuur hiervan, is het voor de (gemiddelde) mens namelijk praktisch onmogelijk om te achterhalen waarom uit de software specifieke uitkomsten komen en welke redenen achter deze
uitkomsten zitten. De software kan bijvoorbeeld een optimale keuze maken of een prognose bepalen, maar kan geen inzicht geven in welke factoren doorslaggevend waren voor deze output. Deze situatie waarin een AI-systeem – zonder supervisie van een menselijke expert – een gecompliceerde analyse als output levert, zonder te vermelden welke gegevens of analytische processen zijn gebruikt om tot die output te komen, wordt aangeduid als het black box-probleem. [18] De vraag is of, en in hoeverre, het black box-probleem een rol speelt bij de invulling van het gebrekscriterium uit artikel 6:173 BW. Is het mogelijk om AI-software als gebrekkig aan te merken, zonder inzicht te hebben in de precieze werkwijze en logica in een specifieke situatie?

Om deze vraag te beantwoorden, is een nadere blik op het gebrekscriterium noodzakelijk. Voor het succesvol vaststellen van aansprakelijkheid is vereist dat de roerende zaak niet voldoet aan de eisen die men daaraan in de gegeven omstandigheden mag stellen. Bij dit criterium gaat het niet om de vraag of de betreffende zaak een fysiek gebrek bezit, maar of er een onveiligheid aanwezig is die men niet behoefde te verwachten.[19] Op dit punt loopt het gebrekscriterium parallel aan het vereiste voor productaansprakelijkheid: een producent is enkel aansprakelijk voor ontstane schade indien het product niet de veiligheid biedt die men daarvan
mag verwachten.[20]

Wat men precies mag verwachten van een zaak is niet concreet ingevuld door de wetgever; alle relevante feiten en omstandigheden zijn relevant voor de beoordeling van de gebrekkigheid van een zaak. De vraag is nu juist wat men mag verwachten van AI-software, gelet op het black box-probleem. De ondergrens voor een zaak is dat deze voldoet aan wettelijke veiligheidseisen.[21] Het niet voldoen aan een productveiligheidsvoorschrift kan echter alleen tot gebrekkigheid leiden als dat specifieke voorschrift bedoeld is om te beschermen tegen het risico van de geleden schade.[22] Het enkel voldoen aan wettelijke veiligheidsnormen betekent daarnaast nog niet dat de zaak volledig voldoet aan de verwachtingen van de gebruiker.[23] Tjong Tjin Tai & Boesten en De Bruin betogen dat AI-systemen zoals automatische voertuigen beter uitgerust zouden moeten zijn om externe gevaren te herkennen en om hierop te anticiperen. Door dit zelflerend vermogen zouden ongevallen kunnen worden voorkomen. Daarom zou er volgens hen steeds minder ruimte komen voor succesvolle verweren tegen aansprakelijkheid.[24] Voorts zou de grens met betrekking tot de verwachtingen dan dienen te liggen bij het vermogen van de software om net zo veilig te functioneren als een mens of zoals vergelijkbare AI-software zou functioneren.[25] Zo wordt betoogd dat analyses van door het AI-systeem eerder behaalde resultaten, en voorspellingen op basis hiervan, kunnen indiceren of het systeem geschikt is om een bepaald concreet doel te halen. Deze analyses zouden bijvoorbeeld gebruikt kunnen worden om de algemene prestatieniveaus van bepaalde software te vergelijken met die van vergelijkbare software of een maatmens. Deze methode zou geschikt zijn voor gevallen waarin ‘standaardtaken’ uitgevoerd dienen te worden en de uitkomsten weinig uiteen kunnen lopen.[26] Begrijpelijk is dat bepaalde AI-software niet absoluut foutloos functioneert; een mens kan namelijk ook fouten maken. Het zou echter in strijd zijn met het doel van de inzet van AI-software om bepaalde software aan te wenden die beduidend meer fouten maakt dan een mens; met de inzet van AI-systemen wordt juist beoogd om taken (op snellere en efficiëntere wijze) over te nemen van mensen. Daarnaast werken mensen en AI-systemen (onderling) juist op verschillende wijzen en maken daardoor verschillende soorten fouten.[27] Als de fouten die mensen maken worden vergeleken met de eisen die worden gesteld aan AI-software, dan leidt dit er mogelijk toe dat bepaalde menselijke fouten ook worden ‘geaccepteerd’ bij de betreffende AI-software, terwijl de aantrekkingskracht van AI-software juist ligt in het vermijden van die fouten.[28]

Desalniettemin ligt enige meerwaarde in de vergelijking van algemene prestatieniveaus als één van de relevante factoren om de gebrekkigheid van AI-software te beoordelen. Gebrekkigheid kan dan bijvoorbeeld aangenomen worden als het prestatieniveau van specifieke AI-software aanzienlijk lager ligt dan dat van een redelijk handelende en bekwame vakman die de taak van de AI-software gebruikelijk zou verrichten, of vergelijkbare software, omdat de software in kwestie niet voldoet aan de veiligheid die men normaal gesproken mag verwachten. Gezien hetgeen hiervoor is uiteengezet over de parallellie tussen artikel 6:173 BW en de regeling van de productaansprakelijkheid ten aanzien van het gebreksbegrip, is het nuttig om te kijken of de productaansprakelijkheidsregels een verdere invulling kunnen geven aan de veiligheid die men van een product mag verwachten. In dit kader zijn in de literatuur de gebreken die een product kan bezitten, onderscheiden in drie categorieën: het ‘productie-/fabricagegebrek’, het ‘ontwerpgebrek’ en het ‘instructiegebrek’.[29] Een nadere blik op deze categorieën is eveneens relevant bij de beoordeling van de gebrekkigheid van AI-software, omdat deze categorieën aanwijzingen bieden voor specifieke aspecten van een product of de productie ervan waarnaar gekeken kan worden ter beoordeling van een door de producent gemaakte fout. Hierbij kan worden gedacht aan fouten in het ‘ontwerp’ van de software. In het licht van artikel 6:173 BW is het ‘ontwerpgebrek’ ook met name van belang. Software wordt namelijk niet telkens als individueel product in een fabriek geproduceerd; eventuele fouten zullen dus in de gehele uitvoering van de software openbaren. Wat mag, naast het voldoen aan veiligheids- en kwaliteitsnormen, verder worden verwacht van het ontwerp van dergelijke software? Aangezien een AI-algoritme zelflerend wordt door middel van de kwantiteit en kwaliteit aan data waarmee deze getraind wordt, zou een ontwerpgebrek aanwezig kunnen zijn als aan het AI-systeem een te beperkt aantal trainingsscenario’s is gevoed.[30] Zo kan het bij zelfrijdende auto’s problematische en grote gevolgen hebben als de software geen of beperkte trainingsbeelden heeft gekregen waarin mensen met verschillende soorten lichaamstypen of huidskleuren te zien zijn, waardoor het AI-systeem geen goede beslissingen kan maken bij voetgangers met een lichaamstype of huidskleur die de software minder goed kent.

Voorts is het voorstelbaar dat er ook gebreken zijn die – gezien hun aard – ‘eigen’ zijn aan AI-software. Hierbij kan het bijvoorbeeld gaan om een bepaalde component van een zaak die ervoor zorgt dat de zaak niet functioneert zoals hij eigenlijk zou dienen te functioneren. Bij AI-software kan het dan gaan om een gebrek in de wijze waarop de ingevoerde data wordt geanalyseerd, zodat deze grotendeels afwijkt van de wijze waarop een mens de informatie zou analyseren. Interessant op dit punt is artikel 7 lid 2 aanhef en onder c, van de nieuwe Richtlijn Productaansprakelijkheid. Hierin is ‘het effect op het product van het vermogen om te blijven leren of nieuwe functies te verwerven nadat het in de handel is gebracht of in gebruik is gesteld’ opgenomen als een van de relevante omstandigheden waarmee gebrekkigheid kan worden getoetst.[31] Hierbij komt echter het eerdergenoemde black box-probleem om de hoek kijken, omdat het op dit moment uitermate lastig is om inzicht te verkrijgen in de precieze werking van AI-software. Daarom is het zonder de benodigde en relevante wetenschappelijke kennis lastig om in te vullen welke veiligheid van AI-software verwacht mag worden, laat staan dat vervolgens ook nog een juridisch kader nodig zal zijn om de grenzen van dit specifieke gebreksbegrip vast te leggen en te reguleren. Zonder nadere rechtsontwikkeling omtrent de tekortkomingen van AI-software is het daarom ook niet mogelijk om de interne gebrekkigheid van AI-software verder te duiden. Zodoende bestaat hier nog een zekere leemte.

Daarnaast bestaan ten aanzien van andere aspecten uit het bovenstaande kader van het gebrekscriterium nog enkele onduidelijkheden die nadere invulling door de wetgever of de rechter behoeven. In het kader van de vergelijking van prestatieniveaus is bijvoorbeeld nog onduidelijk wanneer AI-software als ‘vergelijkbaar’ kunnen
worden aangemerkt.[32] Bovendien kan worden afgevraagd bij welke hoeveelheid aan trainingsdata een AI-algoritme voldoende is gevoed om zelfstandig te kunnen functioneren. Voor de rechter in het bijzonder ligt de belangrijke taak om op deze concrete punten enige verduidelijking te brengen, omdat de rechter, met inachtneming van alle omstandigheden van het geval, oordeelt wanneer een zaak voldoet aan de (veiligheids)eisen die men hiervan mag verwachten.[33]

5. Conclusie

Samenvattend is de toepassing van artikel 6:173 BW in situaties waarin iemand schade lijdt door het gebruik van gebrekkige AI-software nog lang niet eenvoudig of vanzelfsprekend. Los van het feit dat het Nederlandse recht nog geen antwoord biedt op de vraag of software valt onder het zaaksbegrip, is ook onzeker of software in aanmerking komt voor bezit, en zo ja, wie dan als de bezitter aangemerkt dient te worden. De Unierechtelijke voorstellen omvatten een aansprakelijkheid van frontend operators én backend operators, maar sinds deze zijn ingetrokken tast de juridische wereld vooralsnog in het duister ten aanzien van de vraag wie aansprakelijk is voor fouten door AI-software. De in paragraaf 3 besproken baat- en controleargumenten, kunnen goede basisprincipes blijken om de aansprakelijkheid voor fouten door AI-software terug te leggen naar de verantwoordelijke partij.

Wel blijkt dat het begrip ‘gebrek’ als open norm in beginsel een groot goed is; het faciliteert namelijk dat de werking van een zaak wordt getoetst aan de hand van de context waarin deze wordt gebruikt. In het licht van AI-systemen, zoals AI-software, bestaat echter nog geen kader om gebrekkigheid, naast ondergrenzen zoals het voldoen aan wettelijke eisen en ontwerpeisen, op inhoudelijk en diepgaand niveau te beoordelen. Hoewel het ontbreken van een dergelijk juridisch kader niet in de weg hoeft te staan aan toepassing van artikel 6:173 BW, aangezien alle feiten en omstandigheden in de beoordeling door een rechter dienen te worden betrokken, kan de rechtsonzekerheid voor zowel de benadeelde als de bezitter in zijn verdediging toenemen. Een benadeelde weet nu namelijk niet welke veiligheid verwacht mag worden van AI-software en wanneer AI-software hier niet aan voldoet, en een bezitter weet nu niet voor welke risico's hij wel en niet aansprakelijk is.

Is artikel 6:173 BW aldus toereikend geformuleerd om vraagstukken omtrent AI(-software) te kunnen beoordelen? In zekere mate, maar onder een aantal voorwaarden. Niet alleen is er nog werk aan de winkel met betrekking tot het zaaks- en bezittersbegrip, maar is het van uiterst belang dat – voor zover mogelijk – specifiekere regels worden geformuleerd ten aanzien van de (veiligheids)eisen waar AI-systemen aan dienen te voldoen. De open normen van artikel 6:173 BW maken echter dat deze grondslag, met behulp van meer juridische duiding van AI(-software), in de toekomst nader in te vullen is en toepasbaar wordt in situaties waarin schade optreedt door AI-software.

Eveneens is het wenselijk dat er regels worden vastgesteld over de mate van inzicht in en toezicht op de werking van deze systemen die verschaft dient te worden. Dergelijke regelgeving biedt namelijk juridische aanknopingspunten wanneer het black box-probleem in de praktijk een obstakel blijkt te zijn. Tot slot is het van belang dat de rechter in zijn uitspraken omtrent AI-aansprakelijkheid de algemene eisen die gesteld worden aan bepaalde AI-software, en de verplichtingen van een bezitter bij het gebruik hiervan, nader invult. Er liggen aldus een aantal belangrijke taken klaar voor de juridische wereld om de AI-revolutie bij te kunnen benen.

[1] A. Bahrammirzaee, ‘A comparative survey of artificial intelligence applications in finance: artificial neural networks, expert system and hybrid intelligent systems’, Neural Computing & Applications 2010/19, afl. 8, p. 1165–1195; J.S. Kruijt, ‘De Verordening Artificiële Intelligentie en de betekenis daarvan voor financiële ondernemingen’, TFRP 2021/1053, afl. 7-8, p. 55-56; B.H.M Custers, F. Dechesne, T.J. De Graaf, A.C.M. Meuwese & I.S. Wuisman, ‘Waarom (basis)kennis van AI onontbeerlijk is voor juristen’, AA 2021/12, p. 1138; Y. Ma, Z. Wang, H, Yang, L. Yang, ‘Artificial Intelligence Applications in the Development of Autonomous Vehicles: A Survey’, IEEE/CAA Journal of Automatica Sinica 2020/7, afl. 2, p. 315.

[2] Aangeboden door OpenAI, https://openai.com/blog/chatgp....

[3] Door de Europese Commissie, in samenwerking met de aangestelde High-Level Expert Group on Artificial Intelligence, wordt een AI-systeem gedefinieerd als: “software die is ontwikkeld aan de hand van een of meer van de technieken en benaderingen […] en die voor een bepaalde reeks door mensen gedefinieerde doelstellingen output kan genereren, zoals inhoud, voorspellingen, aanbevelingen of beslissingen die van invloed zijn op de omgeving waarmee wordt geïnterageerd” (artikel 3, onder 1 van de concept-Verordening (EU) 2021/0106).

[4] High-Level Expert Group on Artificial Intelligence 2019, p. 7, https://digitalstrategy.ec.eur....

[5] Verordening van het Europees Parlement en de Raad tot vaststelling van geharmoniseerde regels betreffende artificiële intelligentie (Wet op de Artificiële Intelligentie) en tot wijziging van bepaalde wetgevingshandelingen van de Unie ((EU) 2024/1689).

[6] Resolutie van het Europees Parlement van 20 oktober 2020 met aanbevelingen aan de Commissie betreffende het civielrechtelijk aansprakelijkheidsstelsel voor kunstmatige intelligentie (2020/2014(INL); Europese Commissie, Voorstel voor een Richtlijn van het Europees Parlement en de Raad betreffende de aanpassing van de regels inzake niet-contractuele civielrechtelijke aansprakelijkheid aan artificiële intelligentie (AI) (2022/0303(COD)).

[7] M. Zwart, ‘Er komt geen akkoord: De Europese Commissie trekt de AI Liability Directive in’, ICTrecht.nl 13 februari 2025. 

[8] HR 27 april 2012, ECLI:NL:HR:2012:BV1301, NJ 2012/293, r.o. 3.5 (De Beeldbrigade/Hulskamp). De Hoge Raad heeft het daarbij specifiek over de aankoop van standaardsoftware voor een niet in tijdsduur beperkt gebruik tegen betaling van een bepaald bedrag.

[9] Zie bijvoorbeeld in het kader van medische software R.P. Wijne, De geneeskundige behandelingsovereenkomst (Monografieën BW nr. B87),
Deventer: Wolters Kluwer 2021/8.2. 

[10] Richtlijn (EU) 2024/2853 is op 9 december 2024 in werking getreden en ziet op een uitbreiding van
begrippen binnen de productaansprakelijkheid uit de eerdere Productaansprakelijkheidsrichtlijn. Artikel 4, aanhef en onder 1 van deze nieuwe richtlijn luidt als volgt: “Voor de toepassing van deze richtlijn gelden de volgende definities: 1) “product”: elke roerende zaak, ook nadat zij is geïntegreerd in of onderling is verbonden met een andere roerende of onroerende zaak, met inbegrip van elektriciteit, digitale fabricagedossiers, grondstoffen en software;”. Zie ook considerans nr. 13.

[11] In deze bijdrage wordt geen nadere aandacht besteed aan de goederenrechtelijke kwalificatie van AI-software.

[12] Artikel 4 lid 1 jo. 5 jo. 7 van het Voorstel voor een Richtlijn van het Europees Parlement en de Raad betreffende de aanpassing van de regels inzake nietcontractuele civielrechtelijke aansprakelijkheid aan artificiële intelligentie (AI) (2022/0303(COD)); J. van Staalduinen, ‘Medische aansprakelijkheid en AI: Welke wegen leiden naar Rome? Overzicht, analyse en vraagstukken’, NJB 2022/2239, afl. 32, p. 2580.

[13] Resolutie van het Europees Parlement van 20 oktober 2020 met aanbevelingen aan de Commissie betreffende het civielrechtelijk aansprakelijkheidsstelsel voor kunstmatige intelligentie (2020/2014(INL)).

[14] Randnummer 10 van de Resolutie van het Europees Parlement van 20 oktober 2020 met aanbevelingen aan de Commissie betreffende het civielrechtelijk aansprakelijkheidsstelsel voor kunstmatige intelligentie (2020/2014(INL)).

[15] HR 5 januari 1968, ECLI:NL:HR:1968:AB6963, NJ 1968/102, m.nt. G.J. Scholten (Fokker/Zentveld).

[16] Zie bijvoorbeeld Concl. A-G M.H. Wissink, ECLI:NL:PHR:2020:176, randnummer 10.5, bij HR 19 juni 2020, ECLI:NL:HR:2020:1090, NJ 2021/16 (PIP-implantaten).

[17] Voorstel voor een Richtlijn van het Europees Parlement en de Raad betreffende de aanpassing van de regels inzake niet-contractuele civielrechtelijke aansprakelijkheid aan artificiële intelligentie (AI) (2022/0303(COD)).

[18] L.A. Lynn, ‘Artificial intelligence systems for complex decision-making in acute care medicine: a review’, Patient Safety in Surgery 2019/6, afl. 13, p. 3.

[19] F.T. Oldenhuis, in: C.J.J.M. Stolker (red.), Groene Serie Onrechtmatige daad, art. 6:173 BW, aant. 5.1.

[20] G.H. Lankhorst, in: Tekst & Commentaar BW, commentaar op art. 6:173 BW, aant. 2C.

[21] In dit kader kan gedacht worden aan de zogenoemde CE-markeringen of veiligheidsgerelateerde cyberbeveiligingsvoorschriften waar producenten ook rekening mee dienen te houden, zoals uit de Europese Wet op de Artificiële Intelligentie. Zie Richtlijn (EU) 2024/2853, artikel 7 lid 2, aanhef en onder f; R.W. De Bruin, ‘Nieuwe productaansprakelijkheidsregels en AI: goed voor innovatie en acceptatie?’, VR 2023/80, p. 202.

[22] Vgl. artikel 6:163 BW. Zie De Graaf, ‘Buitencontractuele aansprakelijkheid van producenten van AI-systemen’, NTBR 2023/42, p. 393.

[23] B.W.M. Mutsaers, ‘Een certificaat zegt ook niet alles, maar wat zegt het dan wel?’, Tijdschrift Waar & Wet 2020/52, afl. 4, p. 12.

[24] E. Tjong Tjin Tai & S. Boesten, ‘Aansprakelijkheid, zelfrijdende auto’s en andere zelfbesturende objecten’, NJB 2016/496, afl. 10, p. 659; R.W. De Bruin, ‘Verkeersrecht en Autonome Voertuigen: “zoek de fout” wordt problematisch’, VR 2023/2, p. 10. Deze auteurs betogen dit in het licht van het overmachtsverweer ex artikel 185 Wegenverkeerswet, maar deze opvatting is tevens relevant met betrekking tot het gehele aansprakelijkheidsrecht.

[25] E. Tjong Tjin Tai & S. Boesten, ‘Aansprakelijkheid, zelfrijdende auto’s en andere zelfbesturende objecten’, NJB 2016/496, afl. 10, p. 660; N.E. Veilinga, ‘Productaansprakelijkheid en de komst van zelfrijdende auto’s: klaar voor een bestuurderloze toekomst?’, AA 2021/10, p. 959.

[26] J. van Staalduinen, ‘Medische aansprakelijkheid en AI: Welke wegen leiden naar Rome? Overzicht, analyse en vraagstukken’, NJB 2022/2239, afl. 32, p. 2576.

[27] J. van Staalduinen, ‘Medische aansprakelijkheid en AI: Welke wegen leiden naar Rome? Overzicht, analyse en vraagstukken’, NJB 2022/2239, afl. 32, p. 2576.

[28] N.E. Veilinga, ‘Productaansprakelijkheid en de komst van zelfrijdende auto’s: klaar voor een bestuurderloze toekomst?’, AA 2021/10, p. 959.

[29] A.I. Schreuder, ‘Aansprakelijkheid voor ‘zelfdenkende’ apparatuur’, AV&S 2014/20, afl. 5/6, p. 132; E. Tjong Tjin Tai & S. Boesten, ‘Aansprakelijkheid, zelf-rijdende auto’s en andere zelfbesturende objecten’, NJB 2016/496, afl. 10, p. 660.

[30] E. Tjong Tjin Tai & S. Boesten, ‘Aansprakelijkheid, zelfrijdende auto’s en andere zelfbesturende objecten’, NJB 2016/496, afl. 10, p. 660.

[31] Richtlijn (EU) 2024/2853, artikel 7 lid 2, aanhef en onder c.

[32] J. van Staalduinen, ‘Medische aansprakelijkheid en AI: Welke wegen leiden naar Rome? Overzicht, analyse en vraagstukken’, NJB 2022/2239, afl. 32, p. 2576.

[33] J.T. Hiemstra, ‘Ongeschikte zaken en gebrekkige producten: twee zijden van dezelfde medaille?’, AV&S 2014/18, afl. 5/6, par. 2.

Meld je aan voor onze nieuwsbrief

Geen juridische updates missen? Maak dan een selectie uit de diverse expertises van Holla legal & tax.

Aanmelden nieuwsbrief