Onafhankelijke journalistiek over de Vrije Universiteit Amsterdam | Sinds 1953
27 december 2024

Campus
& Cultuur

Kunstmatige intelligentie worstelt met zijn imago

Artificial Intelligence lijdt aan een pr-probleem. Althans, zo denkt de wetenschapstak er zelf over. Een open brief van het Future of Life Institute, ondertekend door onder anderen Elon Musk (Tesla) en Stephen Hawking, was voor De Balie aanleiding om gisteravond een blik aan wetenschappers en auteurs open te trekken om te praten over kunstmatige intelligentie. Over de mogelijkheden, maar vooral over de overdreven mogelijke gevaren ervan. De kern van de brief is dat het onderzoek naar kunstmatige intelligentie zich grotendeels beperkt tot de statistische en wiskundige kant van het verhaal. Men zou zich ook eens moeten storten op de maatschappelijke kant: hoe ontwikkelen we kunstmatige intelligentie op zo’n manier dat het de wereld en haar inwoners ten goede komt?

Psychologisch profiel

Het was een lange zit, waar de acht deelnemers eerst de ruimte kregen zichzelf en hun werk te introduceren, voordat afgesloten werd met een debat. VU-hoogleraren Guszti Eiben (kunstmatige intelligentie) en Eric Bartelsman (economie) werden onder anderen vergezeld door Hans Schnitzler, auteur van het recent verschenen Het Digitale Proletariaat. Daarin wordt u als digitale consument opgeroepen u te verenigen met uw digitale medemens. “We verkopen ons psychologisch profiel in ruil voor gratis diensten waarmee we een object worden voor exploitatie en manipulatie”, aldus Schnitzler.

Digitaal doembeeld

De avond stond echter vooral in het teken van het ontkrachten van het digitale doembeeld, het bekende Hollywoord-scenario waarin de robots zo slim worden dat ze op eigen houtje door evolueren en uiteindelijk het menselijk ras overtreffen. “We weten nog nauwelijks hoe wij zelf werken, dus hoe zouden robots zichzelf moeten begrijpen, laat staan van zichzelf kunnen leren?” zei de uit Engeland ingevlogen Alan Winfield, die vervolgens uitgebreid inging op de onwaarschijnlijkheid van een dergelijk scenario.

Kunstmatige domheid

De huidige stand van kunstmatige intelligentie moet niet overschat worden, was de gemene deler van de avond. Gecombineerde onderzoeksprojecten van meerdere universiteiten, miljoenen euro’s en vele jaren onderzoek leiden voorlopig nog tot een robot die na 15 seconden oververhit raakt. Of die alleen een bal kan vastpakken. Narrow A.I., heet dat. Een robot die één taak kan uitvoeren, en dat misschien ook wel beter kan dan een hoop mensen, maar meer ook niet. Een schaakcomputer, een rijdende auto. “We bouwen nu kunstmatige domheid”, aldus Winfield.

Robotjurist

We moeten vooral zorgen dat die nieuwe ontwikkelingen zo veilig mogelijk blijven. “Geven we robots rechten, stellen we mensen die profijt ervan kunnen hebben – de ouderen, de zieken – eraan bloot?” vraagt Eiben. En stel, je zit in een zelfrijdende auto en je speelt wat op je telefoon, maar de auto komt in een situatie terecht die hij niet aan kan en veroorzaakt een ongeluk, wie is er dan verantwoordelijk?” Dat roept juridische vragen op. “Hoe zit het met de verzekering, want jij hebt niets fout gedaan. Mag elke fabrikant zijn eigen systemen maken, en kan iemand verantwoordelijk zijn voor robots?” aldus ‘robotjurist’ Maurice Schellekens.

Meer mogelijkheden dan gevaren

Uiteindelijk was de avond vooral een rondje langs de velden om te laten zien dat de wetenschap zich wel degelijk druk maakt om de ethische kant. Robert Babuska van TU Delft: “Er zijn meer mogelijkheden dan gevaren. Deze discussies jagen vooral angst aan en komen vaak van mensen die niets van kunstmatige intelligentie weten.”

Reageren?

Houd je bij het onderwerp, en toon respect: commerciële uitingen, smaad, schelden en discrimineren zijn niet toegestaan. Reacties met url’s erin worden vaak aangezien voor spam en dan verwijderd. De redactie gaat niet in discussie over verwijderde reacties.

Velden met een * zijn verplicht
** je e-mailadres wordt niet gepubliceerd en delen we niet met derden. We gebruiken het alleen als we contact met je zouden willen opnemen over je reactie. Zie ook ons privacybeleid.