Artificial Intelligence (AI) & civielrechtelijke aansprakelijkheid
Blog
Op 20 oktober 2020 heeft het Europees Parlement (EP) een resolutie gepubliceerd betreffende het civielrechtelijk aansprakelijkheidsstelsel voor kunstmatige intelligentie (‘de Resolutie’). Kunstmatige intelligentie is onder ingewijden voornamelijk bekend onder de afkorting ‘AI’: artificiële intelligentie. AI maakt een steeds groter deel uit van ons alledaagse leven. Van je face-ID scan op je mobiele telefoon, tot aan je slimme thermometer thuis. Waar een groot publiek veelal de voordelen van kunstmatige intelligentie ziet, kunnen de meeste juristen niet anders dan ook te denken aan de nodige juridische haken en ogen. In deze blog worden de aanbevelingen van het EP besproken waarmee de juridische hobbels en onzekerheden bij het gebruik van AI-systemen ondervangen dienen te worden.
De Resolutie – 2020/2014(INL)
Het EP heeft in de Resolutie aanbevelingen gedaan aan de Europese Commissie (de Commissie) omtrent de ‘implementatie’ van AI in ons huidige aansprakelijkheidsstelsel. Hierin benadrukt het EP direct het belang van dit onderwerp: de problemen die gepaard gaan met de invoering van AI-systemen behoren tot de belangrijkste kwesties op de huidige politieke agenda. Feit is dat steeds verdergaande innovaties ons om de juridische oren vliegen en steeds meer AI-systemen tot de orde van de dag behoren. Ons civielrechtelijk aansprakelijkheidsstelsel is hier niet voor uitgerust en spoedige aanpassing kan dan ook niet uitblijven.
Tegelijkertijd begrijpt het EP dat de praktijk voor aanzienlijke, juridische en praktische uitdagingen zal komen te staan bij deze implementatie. Een evenwicht zal moeten worden gevonden tussen de bescherming van (potentiële) slachtoffers van schade enerzijds en de benodigde ruimte voor ondernemingen om te kunnen blijven ontwikkelen anderzijds. Het EP onderstreept hierbij dat de ontwikkeling van technologie niet ten koste mag gaan van de bescherming van gebruikers tegen schade die door AI-apparaten en systemen kan worden veroorzaakt.
Uniforme regels in verordening
Waar de Resolutie hoofdzakelijk op aanstuurt is dat wat het EP betreft uniforme, op beginselen gebaseerde en toekomstbestendige wetgeving in de gehele Europese Unie voor álle AI-systemen dient te worden opgesteld. Volgens het EP dient dit in de vorm van een verordening te worden gegoten, waarbij aansprakelijkheidskwesties van groot belang zijn. Daarbij wordt de kanttekening gemaakt dat sectorspecifieke regelgeving weliswaar de voorkeur verdient, maar een geharmoniseerd rechtskader nodig lijkt om juridische helderheid te waarborgen en burgerrechten doeltreffend te kunnen beschermen. Digitale systemen worden immers gekenmerkt door een snelle en niet aan grenzen gebonden dynamiek.
Aansprakelijkheidsregelingen en AI-systemen
Volgens het EP behoeven de bestaande aansprakelijkheidsregelingen niet volledig te worden herzien, maar zijn specifieke en gecoördineerde aanpassingen nodig om ze doeltreffend te laten zijn. Nu het moeilijk of soms zelfs onmogelijk zal zijn om specifieke, schadelijke acties van AI-systemen te herleiden tot concrete personen of beslissingen in het ontwerp, dienen volgens het EP verschillende personen in de algehele waardeketen aansprakelijk gehouden te kunnen worden. Daarbij gaat het om de personen die het risico creëren, in stand houden en/of beheersen.
Het EP spoort de Commissie met klem aan om te beoordelen in hoeverre de richtlijn productaansprakelijkheid moet worden herzien en moet/kan worden omgezet in een rechtstreeks werkende verordening. Daarbij adviseert het EP concreet de aanpassing van een aantal definities, zoals ‘producten’, ‘schade’, ‘gebrek’ en ‘producent’. Zo dienen onder laatstgenoemd begrip bijvoorbeeld ook ontwikkelaars, programmeurs en backend operators te vallen, aldus het EP. Ook vult het EP de definities ‘frontend operator’ en ‘backend operator’ concreet in. Een ander belangrijk punt dat het EP hierbij aanstipt, maar verder niet over uitweidt, is dat de regels ten aanzien van de bewijslast ook kritisch beoordeeld dienen te worden.
Daarnaast biedt de bestaande, op schuldaansprakelijkheid gebaseerde wetgeving van de lidstaten inzake onrechtmatige daad volgens het EP in de meeste gevallen voldoende bescherming. Het door een hacker/derde ‘binnendringen’ vormt bijvoorbeeld in de regel een verwijtbare handeling. Het zal echter geregeld voorkomen dat een dergelijke derde onvindbaar is, waardoor aanvullingen noodzakelijk lijken. De nadruk daarbij dient, wat het EP betreft, te komen te liggen op de civielrechtelijke aansprakelijkheidsvorderingen tegen de operator(s). Waarbij moet worden bedacht dat potentiële schadeslachtoffers veelal geen contractuele aansprakelijkheidsvordering jegens de operators zullen hebben en voorkomen moet worden dat zij vanuit die positie telkens tegen het probleem aanlopen dat de schuld van de operator moeilijk is aan te tonen. Dit zou hun vorderingsrecht immers grotendeels illusoir maken. Zo stelt het EP voor dat de betrokken persoon bijvoorbeeld het voordeel moet hebben van een vermoeden van schuld van de operator, die zichzelf kan vrijpleiten door te bewijzen dat hij heeft voldaan aan zijn zorgplicht. Hier zullen vermoedelijk nog de nodige discussies over gaan worden gevoerd.
Aansprakelijkheid van operators
Voor aansprakelijkheid van operators vindt het EP rechtvaardiging in het feit dat zij de controle hebben over de risico’s die aan de AI-systemen zijn verbonden en veelal ook het eerste zichtbare aanspreekpunt voor de betrokkenen zijn.
In het geval er meer dan één operator is, dienen alle operators hoofdelijk aansprakelijk te zijn, aldus het EP, en moeten zij naar evenredigheid op elkaar kunnen verhalen. De verdeelsleutel daarbij moet gebaseerd zijn op de mate van controle die de operators hadden over het desbetreffende risico. Om zo goed als mogelijk de betrokkenheid van de verschillende personen in de verschillende fases te kunnen vaststellen, dient de traceerbaarheid van het product te worden verbeterd. Gebrek aan transparantie van AI-systemen kan er immers toe leiden dat de vaststelling van het vereiste van het causaal verband tussen de schade en het schadeveroorzakende gedrag uiterst gecompliceerd wordt, met als gevolg dat slachtoffers mogelijk geen vergoeding zouden ontvangen. Ik vermoed dat de (steeds beter wordende) zelflerende capaciteiten van AI-systemen hierbij ook de nodige juridische vragen zullen gaan opwerpen.
Verschillende risico’s
Het evenwicht tussen de verschillende belangen kan volgens het EP het best worden bereikt met een op risico gebaseerd systeem. Haar voorstel: alle AI-systemen met ‘een hoog risico’ worden opgenomen in een uitputtende lijst, die een bijlage vormt bij de voorgestelde verordening. Gezien de snelle ontwikkelingen zal deze lijst onverwijld, maar ten minste iedere zes maanden moeten worden herzien. Daarnaast dient ook een versnelde procedure te worden ingericht waarbij de potentiële risico’s van nieuwe apparaten en systemen kunnen worden geanalyseerd.
Van een hoog risico is sprake, aldus het EP, indien de autonome werking leidt tot een aanzienlijke kans op schade die verder gaat dan wat redelijkerwijs mag worden verwacht. Bij de invulling hiervan dient onder meer gekeken te worden naar de sector waarin de risico’s zich naar verwachting zullen voordoen. Ik vraag mij hierbij hardop af of de aanname die hierbij gedaan lijkt te worden, namelijk dat de risico’s van nieuwe AI-systemen telkens vooraf (in voldoende mate) zijn in te schatten, realistisch is.
Verplichte aansprakelijkheidsverzekering
Een van de sleutelfactoren in de Resolutie is de verplichte aansprakelijkheidsdekking voor alle operators met AI-systemen met een hoog risico. Zodat de voordelen van AI-systemen kunnen worden benut en vergroot, maar tegelijkertijd krachtige waarborgen zijn ingebouwd. Het EP meent dat de onzekerheid over de risico’s niet mag leiden tot onbetaalbare verzekeringspremies die onderzoek en innovatie belemmeren. Een oplossing voor dit reële probleem heeft het EP echter niet, haar advies; werk nauw samen met de verzekeringsbranche om tot aanvaardbare verzekeringspolissen te komen.
Afsluiting
Het EP heeft met haar aanbevelingen een duidelijke denkrichting aangegeven voor het bereiken van het benodigde evenwicht tussen de verschillende belangen, waarbij rechtszekerheid en bescherming van het publiek centraal staat. Het is nu aan de Commissie, alsook alle betrokken deskundigen en verzekeraars om de voorgestelde wijzigingen concreet en in de praktijk werkbaar te maken: duidelijke regels die kunnen meebewegen in de dynamische wereld van AI-systemen.
Keywords
Auteur(s)
Advocaat bij Van Iersel Luchtman Advocaten