Sign up with your email address to be the first to know about new products, VIP offers, blog features & more.

Waarom onze toekomstige auto’s lessen ethiek moeten volgen

door Juliaan Schutzelaars 

De zelfrijdende auto is van fictie realiteit geworden. Nu al rijden er volledig autonome voertuigen op de openbare weg. De belofte van de zelfrijdende auto kunnen wij niet negeren. Met deze technologie zijn we in staat het aantal verkeersongelukken – door menselijk falen – met tachtig procent te laten dalen. Iedereen kan dan veilig en gemakkelijk van A naar B reizen.

Maar voordat deze technologie in handen komt van de consument, moeten we het eerst hebben over de ethische vraagstukken die hiermee gepaard gaan. De auto’s van de toekomst moeten door middel van algoritmen morele keuzes gaan maken. Noem het ‘algoritmische moraliteit’. Wetenschappers en programmeurs gaan morele beslissingen vooraf inprogrammeren. Als inzittende van de auto ben jij dan niet meer in staat deze beslissingen te beïnvloeden. Op welke gronden moeten onze toekomstige auto’s keuzes gaan maken? En, wie gaat beslissen welke ethische lessen onze auto’s gaan leren?

 

Ethische grenzen

Stel je eens voor: je bent de gelukkige eigenaar van een zelfrijdende auto en je bent onderweg naar je skivakantie. Terwijl je een film aan het kijken bent, rijd je over een smalle, slingerende bergweg. Net wanneer jij de bocht om komt, struikelt er een kind bij het oversteken. Zijn moeder rent de weg op om het snel overeind te helpen. De auto kan niet meer op tijd remmen en zal het gevallen kind en zijn moeder onvermijdelijk en dodelijk aanrijden. Om hen te redden moet de auto bijsturen. Met als gevolg dat de auto zichzelf inclusief inzittende (jij dus!) opoffert door in het ravijn te rijden. Wat zou jezelf doen in deze situatie?

Dit dilemma is een moderne variant van het zogeheten ‘trolleyprobleem’, dat filosofen gebruiken om na te denken over ethiek. Je kunt honderden variaties verzinnen, elke net iets anders. Zou je van gedachten veranderen wanneer je eigen kind bij jou in de auto zou zitten? Of als in plaats van één kind een hele groep kinderen gestruikeld was? Ga zo maar door. Je moet altijd een afweging maken tussen meerdere onwenselijke uitkomsten. Door de situatie steeds te veranderen, kun je vaststellen waar jouw ethische grenzen liggen.

 

Utilitaristische auto

Deze abstracte ethische dilemma’s werken vaak verlammend en lijken op het eerste gezicht zeer onwaarschijnlijk. Je moet daarom deze scenario’s niet te letterlijk nemen. Er zullen altijd veel meer mogelijke uitkomsten zijn. Maar wanneer miljoenen zelfrijdende auto’s op de weg rijden, is het statistisch gezien een kwestie van tijd totdat een auto zo’n afweging moet maken. Precies in deze afweging gaat ethiek een rol spelen.

Professor Iyad Rahwan ondervroeg in een onderzoek deelnemers (woonachtig in de VS) welke beslissingen de auto moest nemen in verschillende situaties. De opties waar de deelnemers uit konden kiezen, waren geïnspireerd door twee filosofen: Jeremy Bentham en Immanuel Kant. De keuze voor  Kant’s plichtethiek zou betekenen dat de auto geen actie mag ondernemen die kan leiden tot de dood van een ander. ‘Gij zult niet doden’, leerde Kant. De auto mag zijn koers niet veranderen, zelfs niet wanneer het aantal mensen dat om het leven komt, daardoor kleiner zou zijn.

De meeste ondervraagden zouden eerder een auto kopen die koste wat kost henzelf zal beschermen

Over het algemeen gaven de deelnemers de voorkeur aan het utilitaristische gedachtegoed van Jeremy Bentham. Dat wil zeggen: de auto moet díe beslissing nemen, die het aantal (dodelijke) slachtoffers minimaliseert. In het bovengenoemde voorbeeld zal de auto, met jou erin, het ravijn in rijden om zo moeder en kind te redden. Het lijkt op het eerste gezicht simpel. Programmeer auto’s zo, dat deze zo min mogelijk slachtoffers maken. Men is het erover eens dat iedereen beter af is wanneer zelfrijdende auto’s utilitaristisch van aard zijn. Voilà, probleem opgelost. Maar de onderzoekers stelden een interessante vervolgvraag: zou jij zo’n utilitaristische auto kopen?

 

Duizenden levens

Uit het onderzoek van Iyad Rahwan bleek dat veruit het grootste aantal ondervraagden niet bereid was om een utilitaristische auto te kopen, wetend dat zo’n auto mogelijk hun leven zou opofferen. Ze kozen voor hun eigenbelang. De meeste ondervraagden zouden eerder een auto kopen die koste wat kost henzelf zal beschermen. Tegelijk willen ze wel dat ánderen een auto kopen die de inzittenden eventueel opoffert voor het algemeen belang. Dit is een sociaal dilemma. Wanneer te veel mensen voor hun eigenbelang kiezen, gaat dit ten koste van de publieke veiligheid. De overheid zou middels wetgeving dan ook moeten reguleren dat alleen zelfrijdende auto’s met utilitaristische algoritmen op de markt komen. Zo kan de overheid het aantal slachtoffers minimaliseren. De inzittenden weten dan zeker dat ze niet de enigen zijn die – in een zeldzaam geval – hun leven opofferen voor het algemeen belang.

 

Echter, de overheid komt met deze utilitaristische wetgeving wel voor een probleem te staan. Uit het onderzoek blijkt namelijk ook dat mensen liever helemaal geen ethisch gereguleerde auto kopen. Terwijl deze auto’s wel  duizenden levens kunnen redden! Wanneer je het huidige grote aantal dodelijke verkeersongelukken in ogenschouw neemt, kun je stellen dat het juist ónethisch is om geen utilitaristisch-geprogrammeerde auto’s in te voeren.

 

[ Dit artikel verscheen in Phronèsis Nummer 1 Maart 2017 ]