De ethische kant van technologie

Jeroen Pets Jeroen Pets
26 April, 2019

Mensen en technologie gaan hand in hand. Het is niet de eerste keer dat we het over Humanogy (humans+technology) hebben: collega Pim Van Vlaenderen berichtte eind vorig jaar over de EuroIA Summit waar Humanogy centraal stond en elaboreerde op onze vorige Tech Dive over de ethische kant van technologie. Als managing partner van de UX-divisie Continuous neem ik die ethische kant graag verder onder de loep. Want hoe zorgen we ervoor dat technologie ethisch verantwoorde keuzes maakt? Hoe bouwen we een gebruiksvriendelijk moreel kompas in? In deze blog ga ik er graag dieper op in aan de hand van enkele cases en geef je enkele tips mee om een ethische humanogy te creëren.

 
 

Technologie een neutrale wetenschap?

Er is een nieuw tijdperk aangebroken binnen artificiële intelligentie. AI-technologie wordt niet langer enkel ingezet om ons gemakshalve te helpen, we vertrouwen er stilaan meer belangrijkere zaken aan toe. Denk maar aan zelfrijdende auto’s of AI-rechters en -immigratiebeambten.
Handelingen waarvan we dachten dat er menselijk inzicht vereist was, worden nu (blindelings?) toevertrouwd aan technologische vernuftigheden. Dat is niet zonder gevaar. Wij gaan ervan uit dat technologie neutraal is, dat het objectieve beslissingen maakt die vrij zijn van opinies en de uitvoering ervan louter berust op wetenschap. Programmeertaal bestaat immers uit eentjes en nulletjes, toch? Nochtans is al uitvoerig aangetoond dat ook technologie wel eens last heeft van vooroordelen. Hoe komt dat?
Jerry Kaplan, professor aan de Stanford University, onderzoekt al jaren de sociale en economische impact van artificiële intelligentie. Eind vorig jaar schreef hij een interessant opiniestuk in de Washington Post over de “algorithmic bias”: een steeds vaker voorkomend neveneffect van een digitale wereld in ontwikkeling. Het verschijnsel duidt op systematische en herhalende fouten in een computersysteem waardoor de uitkomst bedrieglijk is. Kaplan haalt onder meer Google’s zoekresultaten aan, die niet altijd even neutraal zijn. Google’s fout? Helemaal niet. “Its search results, like it or not, reflect the actual behavior of its audience. And if that’s what folks like me click on most frequently, that’s what Google assumes I want to see.”
Een algoritme dat werkt op input van mensen, zal uiteindelijk onvermijdelijk een menselijke bias of vooroordeel vertonen. Google je “grootmoeder”, krijg je in de eerste plaats afbeeldingen van oude, blanke, grijsharige vrouwen. Dit terwijl er ongetwijfeld even veel Afrikaanse of Aziatische grootmoeders zijn. Het zoekresultaat is gebaseerd op wat Google denkt dat je wil zien, dat op zijn beurt weer gebaseerd is op een bredere zoekgeschiedenis van pakweg iedereen die in België ooit ‘grootmoeder’ opzocht.
Wat zijn vooroordelen?

Dat wij als mens bepaalde vooroordelen hebben is normaal. We zijn nu eenmaal het product van onze omgeving met alle culturele en persoonlijke waarden die we meekrijgen. Hoewel ze evenzeer positief als negatief kunnen zijn, zijn vooroordelen vooral een oneerlijke kijk op de dingen. Het is een onvolmaakte blik op de wereld, een blik waarvan we moeten beseffen dat die onvolledig is door gebrek aan of misperceptie van bepaalde data. Beschouwen wij personen met een haakneus als gevaarlijk omdat dat zo is? Of omdat gevaarlijke figuren in pakweg Disneyfilms zo afgebeeld worden? Het begrip ‘vooroordeel’ rijkt heel ver en diep, en het is een discussie die we hier niet gaan houden. Wel moeten we inzicht kweken in onze vooroordelen om zo een eerste stap richting evolutie te maken. Om te beseffen dat wij allen een bepaalde bril op hebben en van daaruit denken en handelen met als resultaat de huidige technologische bias. Die biases moeten we durven counteren.

Artificial intelligence met vooroordelen

We zitten dus met een hoop vooroordelen. Die sijpelen door naar onze technologie, omdat het nog steeds mensen zijn die de technologie ontwikkelen en verder ontplooien.

Ook zelflerende systemen kampen met dit probleem. Dit zijn systemen die leren van de data die je het voedt. Ze bestaan uit complexe algoritmes die door veelvuldige training bepaalde patronen herkennen en reproduceren. Het systeem wordt dus een product van de data die het krijgt.

Een kenmerkend geval daarvoor was de Twitter-chatbot Tay van Microsoft die in minder dan 24 uur van een onschuldig chatsysteem naar een extreemrechtse nazistische robot evolueerde. Oorzaak was de racistische en seksistische praat die de chatbot te lezen kreeg, en met deze data zichzelf vormde. Het speeltje werd dan ook met grote schaamte en teleurstelling offline gehaald.
Een ander voorbeeld van technologische systemen met een bevooroordeelde blik, is het gebruik van biometrische data tijdens facial recognition. Joy Buolamwini, een jonge Afrikaans-Amerikaanse computerwetenschapper aan het M.I.T. Media Lab, werd niet herkend door gezichtsherkenningstechnologie. Enkel wanneer ze een wit masker droeg, deed de software haar ding. Reden van die bias was dat de gezichtsherkenningssoftware voornamelijk getraind was op blanke mannen en mensen met een donkere huidskleur dus niet (vlot) herkend werden. Geen programmeerfout maar een afwijking eigen aan de trainingsdata die de AI ontving. Buolamwini neemt het nu op zich om deze algorithmic bias aan te kaarten en de wereld uit te helpen met haar Algorithmic Justice League.
Een andere technologische uitvinding die elke dag belangrijker wordt is de zelfrijdende auto. De technologie is er, alleen breekt het nog niet door bij het grote publiek en daar is een reden voor. Wat als de remmen het begeven en de auto moet kiezen tussen een groep schoolkinderen omverrijden of twee oma’s? Hoe programmeer je zoiets? Het is een klassieke toepassing van het trolleyprobleem, een ethisch dilemma dat voor het eerst in 1967 werd geïntroduceerd.

Hoe je zo’n keuzes maakt en programmeert, hangt ook sterk af van wie je bent en wat je positie is in de maatschappij. Op Moral Machine kan je zelf dergelijke dilemma’s uittesten. Het online platform verzamelt menselijke inzichten over de morele beslissingen die zelfrijdende auto’s moeten maken. Met een reeks verschillende hartverscheurende keuzes, probeert Moral Machine het debat over ethische AI open te trekken en inzicht te krijgen in de menselijke perceptie van beslissingnemende artificiële intelligentie. Ga gerust de uitdaging eens aan!
 
 

Technologische ethiek in de toekomst

Hoe kunnen we nu al die issues vertalen naar ons werk, IT en UX?

Een eerste belangrijke missie is verscheidenheid creëren in teams. We moeten ervoor zorgen dat de ontwikkelaars aan het roer niet langer overwegend Westers, blank en/of mannelijk zijn maar samen een brede populatie vertegenwoordigen met verschillende culturele achtergronden. Een tweede aandachtspunt is de ethische kwaliteitscontrole van big data. We moeten vermijden dat fouten als de gezichtsherkenning bij Buolamwini zich herhalen door de gebruikte dataset zo goed als mogelijk te randomiseren.

Naast een divers team, moeten we onze AI-producten ook zo divers mogelijk testen. We kunnen geen zelfrijdende auto’s uitsluitend in Noord-Europa testen en dan uitrollen in Zuid-Europa, dat zou catastrofale gevolgen hebben.

Het is onze plicht om hier als developers, testers en gebruikers zo bewust mogelijk mee om te gaan. Het is een uitdaging om technische oplossingen te ontwikkelen die ons kunnen helpen en die ethisch zijn opgebouwd. Enkel op die manier kunnen mens en technologie samen verder leren, want we zijn te ver geëvolueerd om nog terug te gaan naar een uitsluitende mensenmodus. Technology is here to stay.

 

Ook een mening over de algorithmic bias? Enkele tips te delen met de IT community?
Ik ga graag in dialoog!

 
Jeroen Pets
Jeroen Pets
Managing partner van Continuous en UX-expert
Contacteer ons