AlgoSoc / Opinion
November 24, 2025

De AI-industrie buit mens en aarde uit, zoals de nootmuskaatwinning dat eerder deed

Veiligheidsonderzoeker Roel Dobbe maakt zich over veel dingen zorgen bij AI, maar niet dat AI slimmer wordt dan de mens. Er zijn veel urgentere problemen, alleen al rondom de desastreuze gevolgen van de AI-industrie voor de aarde.

Toen Roel Dobbe eerder dit jaar De vloek van de nootmuskaat van Amitav Ghosh las, viel er veel op zijn plaats. Nergens heeft Ghosh het over algoritmes, datacenters of kunstmatige intelligentie; zijn boek beschrijft de winning van nootmuskaat in de tijd van de VOC. De uitputting van de aarde begon hier, betoogt de schrijver.

AI-expert en TU Delft-veiligheidsonderzoeker Dobbe ziet op zijn beurt een duidelijke parallel met de AI-industrie. De vloek van de nootmuskaat is bij hem de vloek van AI. Ga maar na: het opbouwen van economische macht begint met de uitbuiting en uitputting van hulpbronnen. Aan de basis hiervan ligt volgens Ghosh het sterk mechanistische wereldbeeld van het koloniale kapitalisme.

De vergelijking gaat nog verder. In de 17de eeuw werd nootmuskaat als wondermiddel gezien en als oplossing voor veel kwalen. Met kunstmatige intelligentie is het anno 2025 net zo: AI gaat ons werk efficiënter maken, ons slimmer maken, ziekten en zelfs het klimaatprobleem oplossen.

Dobbe ziet vooral een gewelddadige toe-eigening van middelen en arbeid: ‘De AI-industrie buit mensen in lagelonenlanden uit die nare content uit data moeten halen. Verder stelen de bedrijven op grote schaal het werk van artiesten, wetenschappers en journalisten om hun modellen mee te trainen en is er een excessief gebruik van grondstoffen, energie en water om de chip- en AI-industrie gaande te houden.’

‘AI Safety’ is een vrij breed begrip. Alle grote AI-bedrijven doen er ook aan. Maar dat is een ander soort veiligheid dan waar u het over heeft?

‘Als ik het over veiligheid heb, bedoel ik dat veel breder. Neem een auto. Veiligheid gaat niet alleen over de verschillende onderdelen, maar ook over interacties daartussen. Ook gaat het over hoe we onze wegen inrichten, over je kennis van verkeersregels en je rijgedrag en hoe we ons verhouden tot andere verkeersdeelnemers. Bij AI is dat net zo: de vraag hoe we AI verantwoord gebruiken is er niet alleen een voor de ontwikkelaars van de systemen, maar evengoed voor burgers, bestuurders en beleidsmakers.’

Veel AI-denkers hebben het over iets anders: ze zijn bang dat AI zo slim wordt dat de mens geen controle meer heeft en misschien zelfs wordt overvleugeld. Onzin?

‘Nou, niet compleet hoor. Een van de lessen die zij trekken is dat steeds complexere systemen van nature tot meer en nieuwe veiligheidsproblemen leiden. Als je die echt serieus wilt nemen, moet je beginnen bij wat we al weten uit decennia aan kennis van complexe software voor aansturingssystemen, bijvoorbeeld in de luchtvaart. Het bezwaar dat ik tegen de denkers uit deze hoek heb, is de aanname dat AI een soort mythische, zelfstandige entiteit is die zichzelf in rap tempo gaat verbeteren en uiteindelijk leidt tot superintelligentie. Dat is in hoge mate speculatief en niet representatief voor hoe ChatGPT en andere moderne systemen in elkaar zitten.’

Maar wat is het gevaar daar nu van? Je zou ook kunnen zeggen: laat ze lekker speculeren.

‘Enerzijds dus dat het veiligheidsdenken niet klopt met de realiteit. Anderzijds moeten we ook scherp zijn op welke aannamen men doet over mensen, over wat voor mensbeeld prominente AI-onderzoekers en -ontwikkelaars erop nahouden. En dat is een reductionistisch beeld van de mens als machine, als biologische computer. En uiteindelijk dus ook als inferieure en overbodige computer in vergelijking met een synthetische superintelligentie die in het vooruitzicht wordt gesteld. Als je dat te veel normaliseert, heeft dat zijn weerslag op plekken waar belangrijke beslissingen worden genomen. In de directiekamers bijvoorbeeld. En dat draagt bij aan beslissingen die schadelijk kunnen zijn.’

Zoals?

‘Denk aan bedrijfsleiders die hierin legitimatie vinden om heel gemakkelijk mensen te ontslaan en te vervangen door AI-functies, die meestal nog niet bewezen zijn. Daarin klinkt niet alleen opportunisme door, maar ook ontmenselijking. Als je dit denken doortrekt, kom je bij nog veel fundamentelere problemen. Kijk naar wat er nu in de Verenigde Staten gebeurt onder Donald Trump. Daar zet de regering AI in op een manier die rechtsstatelijke principes aan de kant zet, zoals bij Musks Doge-beleid. Maar ook om angst te zaaien of om mensen in de gaten te houden. Het is niet moeilijk om te zien hoe dit mensbeeld als computer doorsijpelt in hoe je technologie toepast op manieren om te ontmenselijken. Ik wil dat beeld met passie bestrijden.’

De in Lisse opgegroeide Dobbe doceert en doet onderzoek aan de TU Delft, maar kent zowel de Amerikaanse academische wereld als het bedrijfsleven in Silicon Valley. Tijdens zijn masterstudie bezoekt hij een aantal universiteiten, waaronder Berkeley in Californië, waar hij zijn afstudeeronderzoek verricht.

Na zijn studie werkt hij als strateeg voor een grote consultant. Maar het bloed kruipt waar het niet gaan kan: ‘Op een gegeven moment zat ik in een wijnbar in Kopenhagen met mijn toenmalige vriendin. Vlak bij ons zat een groep wetenschappers met wie ik in gesprek raakte, experts in non-lineaire dynamica, wat zo’n beetje mijn favoriete vak was. Toen ik vertelde dat ik consultant was, zeiden ze: ‘Wat? Ben je jezelf aan het prostitueren?’ Op dat moment moest ik daar keihard om lachen, maar al heel snel kreeg ik het inzicht: ik ga terug. Terug naar Berkeley. Terug naar de wetenschap.’

Daar, in Californië, doet hij tussen 2013 en 2018 onderzoek naar de rol van machinelearning in de aansturing van kritieke systemen, zoals het energienetwerk. Het zijn de jaren dat er veel onderzoek wordt gedaan naar AI en bedrijven er al fors in investeren. Ook staan de eerste kritische denkers en ethici op, die oog hebben voor de effecten op de maatschappij.

Veel mensen uit die tijd zullen in dienst zijn gegaan van grote AI-labs. Was dat niets voor u? Het betaalt goed, je krijgt toegang tot data, hoeft geen les te geven.

‘Het is de aard van het beestje, denk ik. Van huis uit kreeg ik al een gezonde dosis scepsis mee over grote bedrijven. Daarbij volgde ik de opkomst van de grote techbedrijven begin deze eeuw met veel belangstelling. Ik kwam erachter dat ze op veel vlakken helemaal niet op dezelfde lijn zitten als ik. Dus nee, een overstap was voor mij niet logisch. Ondertussen zag ik wel hoe de AI-wetenschap in Berkeley verstrengeld raakte met het bedrijfsleven.’

Hoe zag dat eruit?

‘Steeds meer hoogleraren staan op de loonlijst van Meta, Google of andere grote techbedrijven. Zij schuiven daar aan in de boardrooms en bepalen tegelijk wat voor onderzoek hun promovendi doen. Er is daar geen goede scheidslijn; het geld van big tech dicteert het soort onderzoek. Dat is daar volkomen genormaliseerd, maar het is problematisch.

‘Ik kan me herinneren dat op een gegeven moment Andrew Ng (Brits-Amerikaanse computerwetenschapper die op dat moment in dienst was bij de Chinese techgigant Baidu, red.) langskwam. Zijn boodschap: als je een betekenisvolle carrière wilt opbouwen in machinelearning, dan kan dat niet zonder samenwerking met de grote techbedrijven. Nu, zeven, acht jaar later is dit alleen maar erger geworden: bedrijven als Microsoft pikken veel goede wetenschappers op, steeds vaker ook uit de sociale wetenschappen en ethiek.’

Na zijn Berkeley-periode werkt Dobbe als onderzoeker bij het AI Now Institute, destijds verbonden aan de New York-universiteit, dat zich richt op de sociale implicaties van kunstmatige intelligentie. Daarna is het toch weer de TU Delft die trekt.

U maakte zich al jaren geleden druk om de schadelijke kanten van AI op het milieu. Onlangs zei u tijdens een lezing dat ‘duurzame AI’ tegenwoordig een illusie lijkt. Staat het er echt zo slecht voor?

‘Onder Trump is al het AI-onderzoek dat te maken heeft met publieke waarden keihard wegbezuinigd. Dat geldt voor onderzoek naar eerlijke en veilige AI, maar ook voor duurzaamheid. Het draait daar alleen maar om het uit de grond stampen van zo veel mogelijk datacenters in de hoop dominant te blijven en om de AI-hype gaande te houden. AI-bedrijven geven dit jaar voor honderden miljarden uit aan rekenkracht. Dat is een bizar bedrag, meer dan destijds in tien jaar aan het Apollo-programma is uitgegeven.‘

Veel mensen zijn zich bewust van de enorme hoeveelheden energie en water die deze datacenters nodig hebben. Maar vergeet ook de ecologische voetafdruk van de chipindustrie niet. De AI-chips van Nvidia moeten na drie, vier jaar worden vervangen en kunnen niet worden hergebruikt. Het argument dat datacenters een infrastructuur zijn zoals een spoorlijn, die je aanlegt en waar je nog jarenlang plezier van hebt, gaat dus niet op. En de afvalberg is enorm.’

Hoe nu verder met wat U de AI-vloek noemt? Is er hoop?

‘We hebben dringend een alternatief verhaal nodig voor ‘AI in het publieke belang’, vergelijkbaar met hoe Ghosh in zijn boek over de nootmuskaat een tegenwicht schetst voor het in het Westen dominante mechanistische denken. In de kern betekent dat veel explicieter zorg dragen voor alle menselijke en niet-menselijke vormen van leven. We zijn er nog ver vandaan, maar moeten nu ambitieuze stappen zetten om digitalisering en AI te laten voldoen aan klimaatdoelstellingen en onze internationale rechtsorde.’

Hoe ziet dat er concreet uit?

‘Bijvoorbeeld: goed gereguleerd digitaal gereedschap dat ons welzijn ondersteunt en niet uitbuit. Of denk aan ASML-machines die circulaire chips kunnen maken. Verder moet de maatschappij controle houden over gevoelige data en kritieke AI-modellen. Dat laatste ook nog eens op een manier dat we de inkomsten kunnen garanderen van publieke sectoren en beroepen die voor de democratie essentieel zijn, zoals de zorg, journalistiek, kunst en cultuur, onderwijs en wetenschap.’

Dobbe lacht: ‘Het is nogal wat hè? Maar niet onmogelijk.’

Dit interview verscheen oorspronkelijk op Volkskrant.nl op 22 november 2025.

© Image: Unsplash/Bhautik Patel

More results /

/ algosoc
De AI-industrie buit mens en aarde uit

By Roel Dobbe • November 24, 2025

Europe wrote the AI rulebook. Can it deliver on its ambitions?

By Natali Helberger • José van Dijck • Claes de Vreese • October 27, 2025

/ justice
The EU AI Act: Law of Unintended Consequences?

By Sabrina Kutscher • July 02, 2025

The rise of technology courts

By Natali Helberger • March 06, 2025

/ health
Labour politics and why AI hasn't 'fixed' healthcare

By Martijn Logtenberg • November 20, 2025

AI won’t save us from the hard choices in healthcare

By Maurits Kaptein • June 06, 2025

From dialogue to decision

By Leonie Westerbeek • November 22, 2024

/ media
1 in 10 Dutch citizens are likely to ask AI for election advice. This is why they shouldn't

By Ernesto de León • Fabio Votta • Theo Araujo • Claes de Vreese • October 28, 2025

Platform observability and content governance under the DSA

By Charis Papaevangelou • Fabio Votta • September 22, 2025

Subscribe to our newsletter and receive the latest research results, blogs and news directly in your mailbox.

Subscribe