Onafhankelijke journalistiek over de Vrije Universiteit Amsterdam | Sinds 1953
30 oktober 2024

Studentenleven
& Maatschappij

Haroon Sheikh: ‘Betrek de hele maatschappij bij AI’

Ook na het zien van de film Oppenheimer vindt filosoof Haroon Sheikh niet dat we ontwrichtende technologieën zoals AI moeten verbieden. ‘Voer een zuiver gesprek over de gevaren van AI.’

De film Oppenheimer toont de schadelijke kant van wetenschappelijke innovatie. Leidt wetenschap wel tot vooruitgang?
“Voor de wetenschap wel, omdat we meer begrijpen van de wereld. Tegelijkertijd heeft de impact van wetenschap altijd twee gezichten. De auto gaf ons mobiliteit en vrijheid, maar zorgde ook voor vervuiling. Aan de andere kant leidde de ontwikkeling van wapens tot innovaties als GPS, de computer en het internet. Er zijn vrijwel altijd mooie voordelen aan wetenschappelijke ontdekkingen. Oppenheimer laat ook de donkere kant zien. Maar het is onmogelijk om al die plusjes en minnetjes bij elkaar op te tellen, laat staan die vooraf te voorspellen.” 

Opgave AI  
Haroon Sheikh is bijzonder hoogleraar Strategic Governance of Global Technologies aan de VU en senior wetenschapper bij de WRR, Wetenschappelijke Raad voor het Regeringsbeleid. Voor de WRR werkte hij aan het rapport Opgave AI. De nieuwe systeemtechnologie, met adviezen hoe Nederland om moet gaan met AI.  

Wetenschapper Eliezer Yudkowsky pleit voor het stoppen met AI voordat die slimmer dan de mens wordt. Is dat een oplossing?    
“Dat bovenmenselijk intelligente AI zich tegen de mens keert, lijkt me meer het rijk van sciencefiction, maar het kan zeker existentieel risico met zich meebrengen. Denk aan kwaadaardige partijen die er veel schade mee kunnen veroorzaken. Maar stoppen met AI? Ik zeg niet dat de plusjes belangrijker zijn dan de minnetjes, maar het is belangrijk je te realiseren wat het betekent als je stopt met AI. Vanwege een mogelijk risico zeg je nee tegen huidige of toekomstige voordelen, zoals betere diagnostiek in de zorg, veiliger transport en een productievere economie. Ik zie ook een praktisch bezwaar: we zitten middenin een grootmachtenrivaliteit. Amerika en China kijken naar elkaar en denken: als wij het niet doen, doen zij het wel. Een internationaal regime met afspraken zie ik daarom niet zo snel gebeuren.” 

Hoe moeten we dan wél ermee omgaan?
“We moeten nadenken over regels en principes van goed gebruik van AI. En betrek belanghebbenden daarbij: leraren, leerlingen, artsen, patiënten, politieagenten en burgers. Die hebben allemaal kennis van bepaalde domeinen en de belangen en waarden daarvan. En we moeten een zuiverder gesprek voeren over wat de gevaren van AI zijn, op internationaal niveau. Een gedeeld besef over de risico’s is een eerste stap. Tijdens de Koude Oorlog bijvoorbeeld zijn er afspraken gemaakt over het gebruik van kernwapens. Dat is met AI ook mogelijk, maar daarvoor moeten we eerst de risico’s kennen. Daar is een belangrijke rol weggelegd voor wetenschappers.”  

Kan AI ook de oplossing zijn voor AI-problemen?
“We hebben AI nodig voor onze cybersecurity, omdat het nu zo snel gaat dat we niet zonder kunnen. Het is ook een kat- en muisspel: de boeven proberen iets te verbeteren en andere partijen proberen er iets tegen te doen, waardoor de boeven ook weer beter worden. Je kunt AI gebruiken om aan te duiden wanneer iets nep is, maar dat is een motief voor andere partijen om nog betere imitaties te maken. Bovendien werkt het niet goed om te zeggen dat iets nep is. We weten dus nog niet hoe ermee om te gaan, al zijn er talloze ideeën: de aansprakelijkheid verbeteren, keurmerken invoeren, mensen verplichten om duidelijk te maken als iets nep is. Er is niet één oplossing, het zal een heel stelsel moeten worden, zoals we eerder hebben ontwikkeld voor de productie van medicijnen en voedsel. Ik ben optimistisch dat ons dat weer zal lukken.”  

Reageren?

Houd je bij het onderwerp, en toon respect: commerciële uitingen, smaad, schelden en discrimineren zijn niet toegestaan. Reacties met url’s erin worden vaak aangezien voor spam en dan verwijderd. De redactie gaat niet in discussie over verwijderde reacties.

Velden met een * zijn verplicht
** je e-mailadres wordt niet gepubliceerd en delen we niet met derden. We gebruiken het alleen als we contact met je zouden willen opnemen over je reactie. Zie ook ons privacybeleid.