Aansprakelijkheid botsing zelfrijdende auto’s

AutoTechgiganten Uber, Google, Tesla, maar ook autofabrikanten zoals General Motors en Mercedes-Benz experimenten momenteel met zelfsturende auto’s. Een recent dodelijk ongeval met een ‘autonome’ Uber, maakt de vraag actueel wie er aansprakelijk is bij een botsing. Dit is nog onderwerp van discussie. Kan een artificieel intelligent (AI) systeem aansprakelijk worden gesteld, wordt het de ontwikkelaar, het bedrijf dat de auto op de markt brengt of misschien wel de passagier, die er immers voor kiest om in een dergelijke auto te rijden? Hieronder leest u meer.

Tesla crash Google is er al sinds 2009 mee bezig en had eind 2015 al 17 ongelukken veroorzaakt. De Tesla autopilot reed recentelijk in op een stilstaande brandweerwagen en General Motors is inmiddels aangeklaagd voor letselschade na een aanrijding door een autonome GM auto.

De bedrijven zijn desondanks voorstander van de intuïtieve, responsieve sensoren van hun voertuigen. Deze zouden veiliger zijn dan menselijke chaffeurs, die af te leiden zijn.

Directe aansprakelijkheid
Een zelfsturende auto zelf kan mogelijk direct verantwoordelijk worden gesteld voor ongevallen. In praktijk betekent dit dat de ontwikkelaar van het AI systeem of het bedrijf dat de auto op de markt brengt aansprakelijk is. Die treedt dan juridisch in de plaats van het door hen ontwikkelde systeem en wordt direct dader.

Indirecte dader
Andere juristen gaan er van uit dat een AI-programma kan worden gelijkgesteld met een mentaal onbekwaam persoon. Mentaal onbekwame personen kunnen niet verantwoordelijk worden gesteld omdat de wil ontbreekt. Er kan dus ook geen sprake zijn van kwade wil. Bij een zelfrijdende auto kan het AI-programma dan ook niet verantwoordelijk worden gesteld, maar de programmeur of de gebruiker die het systeem instrueert wel. Die wordt dan indirecte dader bij een overtreding.

Directe dader bij natuurlijk en waarschijnlijk gevolg
Ook is het mogelijk dat het AI systeem goed werkt, maar wordt misbruikt voor illegale activiteiten. Als een zelfsturende auto bijvoorbeeld wordt ingezet voor illegale races en hierbij een ongeluk veroorzaakt, dan kan het systeem zelf waarschijnlijk niet verantwoordelijk worden gesteld. Vergelijk het met een gehackte computer, waarvan de werking is overgenomen door de hacker, die via die computer vervolgens inbreekt bij een bank. Ook hier ontbreekt de kwade opzet bij de ontwikkelaar.

In beginsel moet een zelfrijdende auto echter herkennen dat bepaalde instructies niet legaal zijn en dergelijke instructies dan ook niet uitvoeren. Om aan het verkeer te kunnen en mogen deelnemen, moeten de wettelijke limitaties immers goed worden geankerd in de programmatuur. Dat is de verantwoordelijkheid van de ontwikkelaar. Maar stel nou dat u een hoogzwangere vrouw in de auto hebt, dan wilt u waarschijnlijk wel de mogelijkheid hebben om iets harder dan de wettelijke limiet te rijden, om op tijd in het ziekenhuis te zijn – programmatuur voor noodgevallen dus. Het systeem zou dan moeten begrijpen wanneer het een legitieme reden is om te hard te rijden. Of die mogelijkheid straks wel of niet wordt ingebouwd, kan dus grote gevolgen hebben voor de aansprakelijkheid – iets wat ontwikkelaars liever vermijden.

Wordt vervolgd!

Advertenties

Geef een reactie

Vul je gegevens in of klik op een icoon om in te loggen.

WordPress.com logo

Je reageert onder je WordPress.com account. Log uit /  Bijwerken )

Google+ photo

Je reageert onder je Google+ account. Log uit /  Bijwerken )

Twitter-afbeelding

Je reageert onder je Twitter account. Log uit /  Bijwerken )

Facebook foto

Je reageert onder je Facebook account. Log uit /  Bijwerken )

w

Verbinden met %s