Er lijkt geen maat te staan op de opkomst van Artificial Intelligence (‘AI’). Door de opkomst van ChatGPT is AI in een korte tijd bekend geworden bij een breed publiek, maar AI omvat veel meer dan chatbots. Denk aan toepassingen op het gebied van gezondheid (zoals het detecteren van kanker), werkgelegenheid, videogames en jouw YouTube feed. AI komt terug in bijna alle facetten van het dagelijkse leven. Reden genoeg dus om stil te staan bij het juridisch kader van AI. In deze blogreeks behandelt het Holla AI-team verschillende juridische vraagstukken op het gebied van AI. Onderstaande blog is deel 6 van de reeks en gaat in op de arbeidsrechtelijke aspecten die spelen bij het inzetten van AI.

De opkomst van AI-chatbots op de werkvloer

“Gretig bedrijfsleven omarmt ChatGPT’”, zo kopt het Financieel Dagblad na een onderzoek van de bank Goldman Sachs. Dit onderzoek voorspelt dat AI een ‘ontwrichting op de arbeidsmarkt’ zal veroorzaken. Veel werkgevers staan te springen om personeel en zien in AI dan ook een kans om structureel kosten te besparen. Deze werkgevers zien voornamelijk voordelen op het gebied van efficiëntie. Hun werknemers hoeven dan minder tijdrovende taken uit te voeren, zoals het herlezen en (her)schrijven van teksten. AI-chatbots zullen in de toekomst dan ook naar alle waarschijnlijkheid een belangrijke rol gaan spelen op de werkvloer en naar verwachting ook een enorme invloed hebben op de arbeidsmarkt. Ondanks al deze voordelen zijn bedrijven toch ook voorzichtig. In de voorgaande blogs in deze blogreeks zijn al een aantal risico’s van AI genoemd. Zo kan de informatie verouderd zijn, geen bronvermelding bevatten, foutieve input van het internet hebben gehaald en bestaan er gevaren voor bias, een datalek of auteursrechtelijke claims. Met name de risico’s ten aanzien van databescherming van klanten en bedrijfsgevoelige informatie zorgen ervoor dat een aantal werkgevers al zijn overgegaan op een algeheel verbod op het gebruik van open source AI-chatbots, zoals ChatGPT. Dit zijn bedrijven zoals Samsung, Amazon, Apple, Bank of America en Deutsche Bank. Daarnaast heeft Microsoft haar personeel verzocht om geen gevoelige informatie te delen met ChatGPT. Dit terwijl Microsoft miljarden investeert in OpenAI, de ontwikkelaar van ChatGPT. Kennelijk hebben ze toch onvoldoende vertrouwen in de beveiliging van het systeem.

Wat kan een werkgever doen?

Alle genoemde risico’s, zowel in deze blog als in de overige blogs in deze reeks, kunnen bijdragen aan de wens van een werkgever om het gebruik van AI-chatbots op de werkvloer te willen beperken of te reguleren. Maar welke middelen heeft een werkgever ter beschikking? Op dit moment zijn de meest voor de hand liggende opties in de eerste plaats een beleid in het personeelshandboek. In tweede plaats het opnemen van een verbod op het delen van gevoelige informatie met AI-chatbots via een geheimhoudingsbeding.

Personeelshandboek

Het opleggen van een bepaalde werkwijze, of het verbieden daarvan, valt in principe onder het instructierecht (artikel 7:660 Burgerlijk Wetboek) van de werkgever. Door het verbod op het gebruik van een AI-chatbot op te nemen in het personeelshandboek, kan de werkgever een sanctie verbinden aan een overtreding van het beleid. Dit kan variëren van een waarschuwing tot ontslag op staande voet. Het is bij toepassing van sancties belangrijk om consistent te handelen om zo willekeur te voorkomen en dat ook zichtbaar te maken.

Geheimhoudingsbeding

Naast een verbod in het personeelshandboek kan een werkgever ook kiezen voor een uitbreiding van het geheimhoudingsbeding in de arbeidsovereenkomst. In dat geval ziet het verbod specifiek op het delen van gevoelige informatie met een AI-chatbot. Het opnemen van het verbod in het geheimhoudingsbeding heeft een aantal voordelen. Ten eerste zal schending van het geheimhoudingsbeding sneller kunnen leiden tot een reden voor ontslag. Ten tweede kan de werkgever ook een boete of schadevergoeding vorderen indien dit is opgenomen in het geheimhoudingsbeding. De werknemer moet uiteraard wel akkoord gaan met (de toevoeging van) dit beding.

Controle

Voor een werkgever die het gebruik van AI-chatbots op de werkvloer wil verbieden, zal met name de controle van dit beleid een grote uitdaging zijn. Het achteraf controleren of stukken tekst of andere output zijn gegenereerd door AI lijkt op dit moment nog niet goed mogelijk. Controlesystemen zijn in de basis al onvoldoende betrouwbaar en manipuleerbaar om aan de huidige normen van bewijslast te voldoen. De kans dat een werknemer op heterdaad wordt betrapt is daarnaast klein. Uit de praktijk zal moeten blijken hoe zwaar een rechter een overtreding van een verbod op AI-chatbots zal wegen. Een werkgever kan wel de nodige maatregelen treffen door de werknemer vooraf expliciet en ondubbelzinnig op het verbod te wijzen en te informeren over de redenen voor het verbod, namelijk de hiervoor beschreven (bedrijfs)risico’s. Daarmee wordt door de werkgever ook wel een ‘zerotolerancebeleid’ gehanteerd. Een dergelijk beleid is eventueel bij u bekend ten aanzien van KLM. Zeer kleine vergrijpen – zoals het stelen van een flesje water of een zakje nootjes – kan voor werknemers van KLM leiden tot ernstige gevolgen, zoals ontslag op staande voet. KLM heeft immers een groot belang bij het voorkomen van enige diefstal, hoe klein ook. Ten aanzien van AI-chatbots kan een vergelijkbare argumentatie worden aangevoerd. Namelijk dat er aanzienlijke risico’s voor de werkgever bestaan, zonder hier goed op te kunnen controleren. Of dit voldoende is, zal in de praktijk moeten blijken. Ook zal de AI-verordening naar alle waarschijnlijkheid een verplichting opleggen aan gebruikers van AI-systemen met een hoog risico om – alvorens het systeem op een werkplek wordt ingezet –, de ondernemingsraad te raadplegen en de werknemers te informeren dat zij aan het AI-systeem zullen worden onderworpen. Voor meer informatie over wanneer een AI-systeem kwalificeert als een systeem met een hoog risico, verwijzen wij naar onze eerste blog van deze reeks.

Wat kunt u nu doen?

Voor werkgevers die over willen gaan tot maatregelen is het van groot belang dat het beleid juist is opgesteld. Het beleid moet duidelijk, kenbaar en voldoende onderbouwd zijn. Het is ten zeerste aan te raden op dergelijk beleid altijd door een advocaat arbeidsrecht te laten controleren. Mocht u hierover vragen hebben of heeft u hierbij hulp nodig? Neem dan contact op met ons AI-team. Zij helpen u graag verder.

Eerder verscheen in deze blogreeks:

Meld je aan voor onze nieuwsbrief

Geen juridische updates missen? Maak dan een selectie uit de diverse expertises van Holla legal & tax.

Aanmelden nieuwsbrief