Regels voor robots

met Katleen Gabriels

maandag 15 maart 2021

De titel van de ontmoeting ‘Regels voor Robots’ is tevens titel van het boek van moraalfilosoof Katleen Gabriels uit eind 2019. Het is een appèl op ontwerpers en ingenieurs van technische producten én op de gebruikers ervan, om alles van techniek niet bij voorbaat te vertrouwen.

In het boek en in de lezing komen voorbeelden aan de orde die gevolg zijn van het gebrek aan het maken van ethische overwegingen. Gabriels doceert aan Universiteit van Maastricht en is gespecialiseerd in computerethiek. Haar boodschap: ‘Wat jullie doen heeft ethische impact.’

De kern van de kwestie
Het internet startte in 1989; mobiel internet was er in 2007.
Hoe moeten we leren daarmee om te gaan?

In deze jaren kregen de gebruikers het steeds makkelijker.
We kregen te maken met deepfake, en cheap fakes, er zijn problemen met privacy, criminaliteit en phishing. En veel beleidsmakers zien niet wat er mogelijk is.

In Gabriels’ studie tot moraalfilosoof constateerde ze een parallel tussen vragen die wel gesteld worden in de bio-ethica die in het technische ontbraken – vragen naar hoe om te gaan met de uitbreiding van de menselijke mogelijkheden. Ze zegt: zoals wij het nu als vanzelfsprekend aanvaarden dat mensen geboren worden uit IVF, zo is ook onze definitie over wat realiteit is uitgebreid. De online-wereld is structureel deel gaan uitmaken van de ervaren werkelijkheid. Daar moeten we mee leren omgaan. Cyberpesten is een helder voorbeeld.

Inmiddels is de focus van Gabriels zwakke kunstmatige intelligentie en algoritmes
Daarin komen samen:

  • een fascinatie voor de mens;
  • moraliteit als belangrijke eigenschap en deel van de menselijke evolutie;
  • techniek als belangrijke eigenschap van mensen;
  • taal als belangrijke eigenschap van mensen;
  • de actualiteit;
  • oude vragen die ook hier terugkeren.

Techniek beïnvloedt hoe je je gedraagt, en hoe je de wereld ziet. Met simpele ingrepen kun je gedrag veranderen – denk aan de verkeersdrempel. Wij zijn beïnvloedbaar door context, en door wat anderen doen. Die context kan gemaakt zijn door technologie – waarbij technologie elk voorwerp betreft dat door mensen is gemaakt.

“Wij zijn morele wezens, we maken functionele en morele keuzes”

Deze contextuele beïnvloeding kun je productief maken – niet door te moraliseren maar door nudging in te zetten: een klein (technologisch) duwtje geven dat leidt tot het gewenste gedrag. Voorbeeld: de vlieg in het urinoir. Deze vorm van beïnvloeding op internet heeft risico’s – online heb je het middel om op basis van profielen gedrag aan te (doen) passen, op het niveau van het individu, en dat heeft ethische gevolgen.

Ontwerpers denken dat ze functionele keuzes maken.  Om de morele implicaties van die keuzes te kunnen zien is het nodig om te starten met een definitie van wat moraliteit is. Vooralsnog is er veelal sprake van voortschrijdend inzicht waarin effecten van keuzes pas later aan het licht komen. Maar: wij zijn morele wezens, we maken functionele en morele keuzes (Gabriels).

Voorbeeld
De draaideur werd ontworpen om kou buiten te houden.
Effect: mensen met kinderwagens en rolstoelen konden niet meer naar binnen.

Zo zagen ontwerpers de gevolgen van het gebruik van internet niet aankomen. Mogelijk nieuw gedrag dat niet in je verbeeldingskader zit kun je niet inschatten. We weten niet wat we ooit normaal gaan vinden.

Wat we moeten voorkomen is het ontstaan van moral disengagement: afstand nemen van effecten en de verantwoordelijkheid daarvoor bij de technologie leggen. En dan zeggen dat het onbekend is hoe die technologie (bijvoorbeeld met algoritmes) tot een beslissing gekomen is. Er wordt dan gedelegeerd naar de technologie. Een algoritme is zo goed of zo slecht als de data waarmee het gevoed is, getraind werd, en daarmee dus zo goed of zo slecht als het ontwerpteam. Algoritmes zijn feitelijk gecodeerde meningen.

Daarom pleit ontwikkelaar Tony Faddell voor een Eed van Hippocrates voor ontwerpers: “Ik zal geen schade toebrengen. En een divers en interdisciplinair team dat naar nieuwe ontwerpen kijkt zal mogelijke effecten beter voorzien. Dit is tegenovergesteld aan een werkwijze waarbij er vooral ”vele handen” aan een product werken. In dat geval is er juist niemand van A tot Z verantwoordelijk, en ontbreekt morele verantwoordelijkheid.

Voorbeeld
Een algoritme, getraind in gezichtsherkenning, is vooral gevoed met witte mannelijke gezichten. Een zwarte studente wordt pas herkend als mens zodra ze een wit masker voorzet. (Voorbeeld uit de documentaire Coded BiasdoorShalini Kantayya)

Wat we nodig hebben is explainable A.I. (Artificial Intelligence) – met inzicht in het algoritme dat invloed uitoefent. Ieder mens heeft het recht op uitleg over hoe “het” tot stand is gekomen, dat het inzichtelijk is hoe een algoritme tot een beslissing komt. Er is overzicht.

In digitale ethiek is er aandacht voor het mensenrecht privacy, en erkenning van de waarde van autonomie. We moeten duidelijk maken wat moraliteit is: 1) dat mensen morele wezens zijn; 2) die niet alleen maar functionele maar ook morele keuzes maken; 3) en dat we bedrijven aansprakelijk moeten maken.

Dit is Gabriels’ ultieme pleidooi:

  • meer multidisciplinariteit;
  • ook bij politici inzetten op kennis over digitaliseren;
  • het profiel van beleidsmakers is vooralsnog niet technisch. Is dit een onderschatten van de reikwijdte van techniek?

Belangrijk is dat ook de gewone gebruiker zich afvraagt wat hij, wat zij zelf kan doen.  Enerzijds betekent dat bewustwording over gratis is niet gratis, want met data betaald. Anderzijds is het bewustwording over dat we techniek ten onrechte intelligentie, en zelfs soms menselijkheid toekennen.  Dan spreekt men over machine-autonomie. Maar bij het hele proces zijn er nog steeds mensen betrokken.

De vraag naar machine-intelligentie is een filosofische vraag.  Als je spreekt over computionele intelligentie – daarin zijn machines beter. Maar empathie en emotionele intelligentie hebben computers niet.  Dat moet duidelijk blijken.

Er zijn bedrijven die misbruik maken van onze valkuilen door een voortdurende distraction by design te creëren.  Dan spreken we over bedrijven, mensen die expliciet denken over hoe kunnen we mensen zo lang mogelijk op ons platform houden. Ze haken in bij de aandachtseconomie.

Voorbeeld
Het instellen van een maximale schermtijd instellen legt het probleem bij de individuele gebruiker, niet bij de ontwerper. Die gebruiker wordt voortdurend blootgesteld aan trucs.

Oproep aan alle gebruikers;
Denk aan wat je allemaal vrijgeeft, bijvoorbeeld met je klantenkaart en met cookies.

We moeten nadenken over wat we willen, voor onszelf, alle gebruikers, en voor jongeren en kinderen.  Het debat hierover ontbreekt vooralsnog.  We hebben goede beleidsmakers nodig die goede krijtlijnen maken – en afspraken om ons daaraan te houden.
En: het online-bestaan heeft ook consequenties voor de relatie ouder-kind; Volgen ouders hun kind op internet? En als ja – hoe doen ze dat dan?

Over de auteur
Trees Steeghs ontwerpt, organiseert en verzorgt multidisciplinair cultuuronderwijs waarin taal centraal staat. De betekenis die het maken en ervaren van kunst in het dagelijkse bestaan kan hebben, praktisch, en theoretisch, is daarin altijd belangrijk.