Ben Caudron

Een brief aan een gelovige

Ben Caudron Socioloog en auteur, gepassioneerd door mensen en technologie

Onlangs publiceerde Data News een vrije tribune waarin Tim Roggeman zijn enthousiasme over artificiële intelligentie en robots deelde. Het stuk wekte verbazing bij Ben Caudron, die besloot hem een brief te schrijven: “Ik zie geen graten in enthousiasme, maar of dat volstaat als excuus voor een wel zeer selectieve interpretatie van de complexe realiteit van technologie, wil ik betwijfelen.”

Beste Tim Roggeman,

Onlangs vertelde u ons hoe het u bevreemdt dat er zoveel “doemdenken” bestaat “over artificiële intelligentie en robots”. U probeerde om ons gerust te stellen en beloofde een mooie toekomst, dankzij de gevreesde technologie. Zo veel menslievendheid vraagt om een reactie, vind ik, al was het uit dankbaarheid. Maar ook en vooral om u van repliek te dienen.

Wie niet overtuigd is van uw enthousiast toekomstbeeld, beticht u meteen van ‘doemdenken’. Dat zegt meer over uzelf dan over de vermeende doemdenkers.

Sta me toe te beginnen met een verontschuldiging. Ik vond niet de tijd om uit te vlooien wie u bent en daardoor beter te begrijpen wat u eigenlijk wil zeggen. Ik heb het dan ook zo druk: studenten vragen om sociologische inzichten, een paar trouwe lezers om vileine beschouwingen over technologiediscours of over media of een combinatie van beiden.

Misschien was ook u te druk in de weer met prangende aangelegenheden om uw betoog grondiger te onderbouwen. Want geruststellend is het niet.

U vangt aan met een bekentenis die eigenlijk zelfevident is: u bent een techno-believer, en misschien wel te enthousiast, zegt u. Ik zie geen graten in enthousiasme, maar of dat volstaat als excuus voor een wel zeer selectieve interpretatie van de complexe realiteit van technologie, wil ik betwijfelen.

Laat me u eerst een paar redenen geven waarom ik uw lezing van het fenomeen selectief noem.

Zo is er de etikettering die u prefereert. Wie niet overtuigd is van uw enthousiast toekomstbeeld, beticht u meteen van “doemdenken”. Hun tegenwerpingen doet u af als angst. U weet wellicht zelf dat u hiermee meer over uzelf dan over de vermeende doemdenkers zegt? Ik kom hier straks op terug.

En dan uw beschuldiging aan het adres van de media. Die zouden het doemdenken stimuleren, al dan niet bij monde van hun opiniemakers! Ik vermoed dat u en ik in een ander universum vertoeven, want ik zie in de gastkolommen van die media vooral veel ruimte voor techno-utopisten. Ik tref vooral veel hoeraverhalen aan die zonder veel plichtpleging lijken overgenomen van de Press Office van de favoriete technologiereuzen. We mogen natuurlijk niet de negatieve opmerkingen van sommige vertegenwoordigers van die technologiesector verwarren met fundamentele kritiek. Die opmerkingen hebben immers alleen maar tot doel om de digitale agenda’s te beïnvloeden, niet om ons bang te maken voor hun technologie.

Omdat ik u toch een beetje tegemoet wil komen, geef ik ootmoedig toe dat de aandachtige lezer heel af en toe een krantenartikel aantreft waarin gewag gemaakt wordt van uitspraken die mensen als Elon Musk of Stephen Hawking zich laten ontvallen. In het gespecialiseerde katern vindt u, als het even meezit, een passage waarin zelfs Nick Bostrom wordt opgevoerd.

U hoort me u niet tegenspreken als u deze mensen ‘denkers’ noemt. Maar ‘doemdenkers’?Dat is een brug te ver.

Neem nu Elon Musk. Is dat niet het prototype van de succesvolle technologiehalfgod? Hij schonk ons niet alleen een bijna-zelfrijdende auto (vol A.I., naar verluidt). Hij wil ook de mensheid redden (van A.I., naar verluidt).

De ontwikkeling in A.I. heeft veel weg van een Gold Rush. Vraagt u even bij een Indiaan in uw buurt wat die betekend heeft voor de onschuldige omstaanders

Vindt u ook niet, beste Tim, dat Elon Musk uitstekend geplaatst is? Dus wat te vinden van het feit dat de man als de dood is voor de manier waarop artificiële intelligentie wordt ontwikkeld. Die ontwikkeling heeft veel weg van een Gold Rush – en vraagt u even bij een Indiaan in uw buurt wat die betekend heeft voor de onschuldige omstaanders. Alleen als we de ontwikkeling open, transparant en controleerbaar laten verlopen, kan rampspoed afgewend worden. Zegt Musk.

U kan dit doemdenken noemen. Ik heb het liever over een goed geïnformeerde risicoanalyse.

Stephen Hawking dan. Deze briljante en volhardende wetenschapper is er niet helemaal uit, wat A.I. betreft. Die kan leiden tot het beste dan wel slechtste wat de mens ooit gemaakt heeft, meent hij en geeft er daarom de voorkeur aan om uit te gaan van het slechtst mogelijke scenario. Opnieuw, dit lijkt me allerminst een blijk van doemdenken, maar van gepaste voorzichtigheid van iemand die betaald wordt om zeer goed na te denken.

Ook filosoof Nick Bostrom denkt graag diep na. Dat doet hij doorgaans in Oxford en buiten het bereik van paparazzi. Niet dat hij per se minder fotogeniek is dan pakweg Hawking. Alleen houdt hij zich bij voorkeur bezig met moeilijker dingen, zoals existentiële risico’s. Waartoe volgens hem ook A.I. behoort. Dat betoogt hij tenminste in zijn rotgerefereerde monografie Superintelligence: Paths, Dangers, Strategies uit 2014.

Ook Bostrom is er niet helemaal gerust in, al weet hij dat als ernstig filosoof met gepaste nuance te zeggen. Ik hoor hem alvast James Barrat niet tegenspreken. Die schreef ook al een boek. De titel? Our Final Invention: Artificial Intelligence and the End of the Human Era.

Beste Tim, hoeft het te verbazen dat u af en toe geambeteerd wordt door berichten in de media die uw techno-geloof in twijfel lijken te trekken? Dat kan u moeilijk die vermaledijde media verwijten. Maar ik geef toe, niemand vindt cognitieve dissonantie aangenaam.

Uw gram lijkt vooral opgewekt door het lichtvoetig vertier dat u door de televisie werd geserveerd. Tja, zoals McLuhan al wist: het medium is de boodschap. Misschien doen we er goed aan zorgvuldiger te kiezen waar we onze informatie vandaan halen.

Dat brengt me meteen bij mijn volgende bedenking: uw akte van geloof, die voor de gelegenheid de vorm van promotiefilmpjes heeft aangenomen.

Waarom de filmpjes van Boston Dynamics – de ontwikkelaar van robots die door Alphabet alweer in de vitrine werd gezet – per se zo veel beter zijn om vertrouwen te krijgen in robots, is me een raadsel. Ik kan moeilijk aannemen dat u zo naïef bent te geloven dat producenten iets anders kwijtwillen dan hoe zaligmakend hun meest recente product wel is. Een robot die mensenlevens redt, is sympathieker dan een exemplaar dat mensen aan flarden schiet, toch?

U zal het dus met me eens zijn dat we voor de negatieve impact van de robotisering van oorlogvoering beter bij anderen aankloppen, of dat we ons niet door Apple moeten laten informeren over de mogelijke negatieve gevolgen van eHealth-apps. Wiens brood men eet…

Dit adagium geldt trouwens niet alleen voor commerciële spelers. Ook de academische wereld kent zo een eigen dynamiek, die niet altijd garant staat voor een vollediger kijk op de zaak.

U verwijst naar Prof. Vanderborght, die ik hoog acht en graag geloof als hij me verzekert dat in het domein van robotica ook nagedacht wordt over ethische aspecten. Over deze aspecten veronderstel ik dat u slechts minimaal bent geïnformeerd. Anders kan ik niet verklaren waarom u het heeft over “het cliché-dilemma (…) dat robots (of artificieel intelligente machines) ethische keuzes zullen moeten maken”, een dilemma dat volgens u “is gegenereerd door The Moral Machine, een onderzoekstool van MIT” dat volgens u “vooral ontwikkeld (is) om te onderzoeken hoe mensen omgaan met, en reageren op artificiële intelligentie.”

Ik zou nu kunnen opmerken dat u niet uitlegt waaruit het “cliché” moet blijken, of waarom ethische keuzes maken een dilemma zou zijn, maar ik heb het liever over uw omschrijving van The Moral machine.

Die wijkt immers nogal af van wat we bij de initiatiefnemers zelf horen. Zij hebben het over de uitgebreide bevraging van mensen over hun opinies over de wijze waarop ze willen dat machines morele problemen oplossen; en over de creatie van een dataset van mogelijke scenario’s.

Misschien kan Maya Ganesh u helpen het initiatief beter te begrijpen. In Accident Tourist: Driverless car crashes, ethics, machine learning beschrijft ze The Moral Machine als een zoveelste toepassing van “wat als”-scenario’s, die moeten leiden tot programmeerbare regels waarmee “expliciete ethische virtuele actoren” dilemma’s oplossen. Dat zij deze benadering allerminst toereikend vindt, leest u in haar slotparagraaf. Die gaat amper over technologie, trouwens.

Ik vermoed dat u lijdt aan het ‘Borg Complex’: de neiging om grootse maar niet onderbouwde claims over technologie te formuleren, waarbij geheel terechte bekommernissen afgedaan worden als doemdenkerij

Beste Tim, het wordt stilaan tijd om afscheid te nemen, maar niet alvorens mijn belofte in te lossen: Ik zou u nog uitleggen waarom de etiketten die u gebruikt veel over u zeggen.

Ik vermoed immers dat u lijdt aan het Borg Complex, zoals de jonge denker (merk op: zonder ‘doem’) Michael Sacasas het verschijnsel noemt. Mensen die onder dit complex gebukt gaan, zijn niet zomaar aanhangers van technologisch determinisme. Was dat maar waar. Nee, Borg-lijders worden in het bijzonder gehinderd door de neiging om grootse maar niet onderbouwde claims over technologie te formuleren, waarbij ze geheel terechte bekommernissen negeren of afdoen met één of ander negatief etiket (U koos voor “doem”… “Luddiet” had ook gekund). Aan de door hen geschetste (gewenste?) toekomst valt niet te ontkomen, zo houden ze vol.

Ach, beste Tim, hadden we maar meer tijd om ons te onderhouden! Ik hoop u desondanks van dienst geweest te zijn en groet u met achting,

Ben

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content