AlgoSoc / Opinion
October 05, 2023

AlgoSoc PI José van Dijck adviseert de overheid over regulering ChatGPT en andere generatieve AI

Overal ter wereld staan overheden voor de uitdagingen die kunstmatige intelligentie (AI) presenteert. Een van de grote vragen is hoe generatieve AI-systemen als ChatGPT te reguleren. De ontwikkeling van de technologieën verloopt razendsnel en de belangen van de bedrijven erachter zijn veelal commercieel. Aan de overheid de taak om ze in toom te houden, adviseer AlgoSoc PI José van Dijck met de onderzoekers Fabian Ferrari en Antal van den Bosch het ministerie van Economische Zaken en Klimaat in een technische briefing.

Toezicht op AI

Volgens de overheid maken meer dan anderhalf miljoen Nederlanders gebruik van generatieve AI, waarvan ChatGPT ondertussen het bekendste programma is. De programma’s zorgen niet alleen voor gemak, maar brengen ook risico’s met zich mee, waarschuwen Ferrari, Van den Bosch en Van Dijck. AI lijkt op het eerst gezicht misschien objectief, maar dat is ze niet. “Als gebruiker kun je worden blootgesteld aan desinformatie, discriminerende output en privacyschendingen. Zeker bij gebrek aan regels over de productie van de achterliggende modellen en codes.”

Verschillende Nederlandse ministeries bundelen nu hun krachten om een overkoepelende ‘visie op generatieve AI’ te ontwikkelen. De UU-onderzoekers adviseren het ministerie van Economische Zaken en Klimaat op basis van een artikel over de regulering van AI dat ze eerder in Nature Machine Intelligence publiceerden. “In onze briefing benadrukken we dat beleid over generatieve AI-systemen minutieus geformuleerd moet worden, met duidelijke transparantieverplichtingen. We hebben ook aanbevelingen gedaan om deze precisie te bereiken.”

Een Europese uitdaging

AI-beleid is echter niet alleen een opgave voor Nederlandse toezichthouders, beklemtonen Ferrari, Van den Bosch en Van Dijck, maar ook een Europese uitdaging. De EU werkt momenteel aan de EU Artificial Intelligence Act, waarin onder andere transparantie-eisen worden geformuleerd. “Maar de wetgever heeft nog niet gespecificeerd welke technische details de bedrijven achter AI openbaar moeten maken en ook niet aan wie. Onafhankelijke onderzoekers zouden toegang moeten krijgen tot de modellen, zodat ze deze grondig kunnen inspecteren en testen.”

“Beleid over generatieve AI-systemen moet minutieus worden geformuleerd, met duidelijke transparantieverplichtingen.” — José van Dijck, Fabian Ferrari en Antal van den Bosch

“Daarbij is het goed te beseffen dat regelgeving alleen geen wondermiddel is, zeker niet op nationaal niveau. Een handvol commerciële Amerikaanse en Chinese technologiebedrijven domineren nu het veld van de generatieve AI en daarom moet er ook geïnvesteerd worden in open en publieke alternatieven.” Deze alternatieven, zoals BLOOM, een open-source large language model, bestaan al en zijn veelbelovend, zeggen de onderzoekers. “Toch zullen dit soort AI-systemen overheidssteun nodig blijven hebben, vooral om te kunnen concurreren met de voorsprong van de Big Tech-bedrijven.”

“Op zowel nationaal als EU-niveau is het voor regelgevers van cruciaal belang om de snelle ontwikkelingen van AI bij te houden en om de technologieën te reguleren. Samenwerkingsverbanden tussen AI- en governance-onderzoekers kunnen leiden tot beleidsaanbevelingen die anders onuitgewerkt blijven”, besluiten Ferrari, Van den Bosch en Van Dijck. “Voor een sterke visie op generatieve AI moeten we ministeriële en disciplinaire kloven dan ook achter ons laten.”

Dit artikel is oorspronkelijk verschenen op de website van de Universiteit van Utrecht: https://www.uu.nl/nieuws/uu-on...

More results /

/ health
From dialogue to decision

By Leonie Westerbeek • November 22, 2024

Discriminerende algoritmes

By Corien Prins • May 18, 2021

/ media
Content moderation and platform observability in the Digital Services Act

By Charis Papaevangelou • Fabio Votta • May 29, 2024

Journalism in the age of AI, platformisation, and regulation

By Agustin Ferrari Braun • Charis Papaevangelou • May 27, 2024

Subscribe to our newsletter and receive the latest research results, blogs and news directly in your mailbox.

Subscribe