Michel Philippens

‘Het wordt gevaarlijk wanneer algoritmes slachtoffer worden van een gebrek aan diversiteit’

Michel Philippens CTO SAS Belux

Algoritmes worden onterecht bestempeld als het toonbeeld van objectiviteit, stelt Michel Philippens. Hij pleit ervoor om AI-ontwikkelteams diverser te maken. “Want hoe meer uiteenlopende profielen aan eenzelfde algoritme werken, hoe kleiner de kans dat de uiteindelijke code nog intrinsieke cognitieve vooroordelen bevat.”

Data science, AI, advanced analytics… de zakenwereld duizelt bij het denken aan alle mogelijkheden die de nieuwste technologie biedt. Eén van de onbetwiste voordelen van deze nieuwe technologieën is dat aan al onze beslissingen en observaties een objectieve waarheid wordt toegevoegd die deze beslissingen kan rechtvaardigen. Dit gaat tegenwoordig behoorlijk ver. Eén bedrijf in Noorwegen heeft zelfs een AI-machine een zitje in het management team gegeven, inclusief stemrecht, om de ‘objectieve realiteit’ ook meer gewicht te geven.

‘Het wordt gevaarlijk wanneer algoritmes slachtoffer worden van een gebrek aan diversiteit’

Deze voordelen zijn onbetwist, maar is die schijn van objectiviteit wel terecht? Het lijkt wel alsof een machine die gegevens analyseert en hieruit conclusies en inzichten formuleert, de objectiviteit zelve moet zijn. Maar in feite zijn die analyses en conclusies in het slechtste geval even bevooroordeeld als eender welk individu. De algoritmes waarmee zulke machines hun berekeningen maken worden immers opgesteld door mensen, en kunnen dus evengoed gebaseerd zijn op al dan niet bewuste vooroordelen als eender welke menselijke redenering en beslissing.

Zonder diversiteit geen objectiviteit

Dat is slechts één van de vele redenen om te streven naar diversiteit binnen de onderneming. Hoe meer mensen met uiteenlopende profielen aan eenzelfde algoritme werken, hoe kleiner de kans dat de uiteindelijke code ook intrinsieke ‘cognitieve vooroordelen’ bevat, zoals dat in het vakjargon wordt genoemd. Het is dus zaak om zo veel mogelijk te streven naar diversiteit, en dit op alle vlakken: leeftijd, geslacht, afkomst, culturele en religieuze overtuiging,…

Diversiteit binnen teams lijkt vanzelfsprekend: hoe heterogener je team, hoe meer het de realiteit buiten de bedrijfsmuren weerspiegelt, en dat is voor elke afdeling een goede zaak.

Diversiteit stopt trouwens niet bij het data science team, het slaat ook op de communicatie tussen de diverse groepen binnen een bedrijf. Bedrijven die datascience en AI succesvol inzetten, hebben meestal een cultuur van open, pro-actieve discussies tussen afdelingen over het integreren van algoritmes in specifieke beslissingsprocessen. Tijdens deze multi-disciplinaire sessies tussen data scientists, productspecialisten, marketeers, ingenieurs, legal en IT worden alle aspecten van de algoritmen (data-selectie, mogelijke variabelen, aandachtspunten, de rol van het algoritme binnen het beslissingsproces etc.) besproken. Zo vermijden ze onaangename verrassingen en verhogen ze de kans dat de algoritmen binnen het bedrijf worden aanvaard als basis of ondersteuning voor operationele beslissingen.

Algoritmes als sluipend gif

Het wordt gevaarlijk wanneer een machine, voor velen het toonbeeld van objectiviteit en neutraliteit, het slachtoffer wordt van een gebrek aan diversiteit. Tot welke uitwassen dit kan leiden werd vorig jaar duidelijk toen Microsoft een chatbot, genaamd Tay, op Twitter losliet. Deze bot was zelflerend: hij analyseerde de reacties op zijn tweets en trachtte gelijkaardige boodschappen en meningen te formuleren. Zo werd de chatbot seconde na seconde extremer omdat zijn meningen nog meer gelijkaardige meningen uitlokte. Uiteindelijk heeft Microsoft Tay offline moeten halen. Het is een extreem voorbeeld van hoe een neutrale machine door niet-objectieve ‘algoritmen’ kan worden besmet.

De vooroordelen kunnen ook minder opvallend binnensluipen, maar ze zijn daarom niet minder gevaarlijk. Als één van de criteria in een algoritme het lidmaatschap van een bepaalde bevolkingsgroep is, en daarnaast wordt een te beperkte set van variabelen gebruikt, is de kans groter dat er te weinig ruimte wordt gelaten voor de heterogeniteit van deze bevolkingsgroep, zodat die systematisch wordt benadeeld of toch minstens bevooroordeeld.

Om de objectiviteit van algoritmes te garanderen, moet men verder gaan dan enkel de nodige diversiteit in AI-ontwikkelteams te voorzien. Een volgende stap is het invoeren van een audit-procedure die AI-programma’s toetst op de afwezigheid van vooroordelen.

Om de objectiviteit van algoritmes te garanderen, moet men overigens verder gaan dan enkel de nodige diversiteit in AI-ontwikkelteams te voorzien. Een volgende stap is het invoeren van een audit-procedure voor een AI-programma dat op de wereld wordt losgelaten. Deze audit moet dan het programma toetsen op integriteit en afwezigheid van vooroordelen.

Ook hiervoor zal de GDPR een heilzaam gevolg hebben: aangezien de redenering en datasets achter elk algoritme transparant moeten worden toegelicht naar consumenten en toezichtshouders, wordt het eenvoudiger om de ‘logica’ van het programma te keuren op objectiviteit en integriteit. Dat betekent niet dat GDPR het na te streven minimum moet worden: uiteindelijk heeft elk bedrijf baat bij objectieve algoritmes, zowel voor de zakelijke objectieven op korte termijn als voor de duurzame waarden op lange termijn.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content