Onafhankelijke journalistiek over de Vrije Universiteit Amsterdam | Sinds 1953
21 november 2024

Wetenschap
& Onderwijs

Robots voelen met je mee

Knuffelen met een nep-zeehond. Of een pop die je veters strikt. Robots worden steeds slimmer en gevoeliger.  En aan hun moreel besef wordt hard gewerkt. Volgens postdoc Matthijs Pontier kunnen robots de bestaande zorg dan ook goed aanvullen.

Voor industriële en huishoudelijke taken, zoals auto’s monteren, stofzuigen of grasmaaien, zetten we in toenemende mate robots in. In Nevada mogen sinds een jaar de eerste robot-auto’s zonder bestuurder de weg op. Door samen een treintje te vormen passen er 273 procent meer auto’s op hetzelfde wegdek. Auto’s die zo ook nog eens veel zuiniger rijden.

Ook in de zorg kunnen robots ingezet worden. Een succesvol voorbeeld is Paro, een zachte witharige knuffelrobot voor ouderen met dementie. Uit onderzoek blijkt dat deze aaibare robots veel positieve effecten hebben op het welzijn van deze ouderen. Ook worden AIBO robothondjes ingezet om eenzaamheid te voorkomen bij ouderen in verzorgingstehuizen. Dit blijkt net zo effectief te zijn als het inzetten van een echte hond. Verder worden robots ingezet om emotie-training geven aan kinderen met autisme. Robots gedragen zich, vergeleken met mensen, behoorlijk voorspelbaar. Een robot is hierdoor een relatief veilige interactiepartner.

Niet iedereen is enthousiast over het inzetten van robots in de zorg. Demente ouderen zouden gefopt worden door ze te laten interacteren met een robot, terwijl ze niet meer in staat zijn om te zien dat het om een robot gaat. Maar is het werkelijk zo erg is dat demente ouderen niet snappen dat Paro geen levend wezen is, als ze wel gelukkiger worden door het knuffelen met de namaak babyzeehond?

Uncanny valley

Bij veel mensen roepen robots al snel een ongemakkelijk en beetje unheimlich gevoel op. Dit komt onder andere door wat we de ‘uncanny valley’ noemen: als een robot menselijk lijkt, maar dit net niet is, vinden we dit eng. We associëren het ‘bijna-menselijke’ met de dood; een bijna-menselijke robot lijkt een beetje op een monster van Frankenstein of een zombie.

Daarom is het belangrijk robots te ontwikkelen waarbij de mate van menselijkheid van het uiterlijk overeenstemt met die van de menselijkheid van het gedrag – en robots gedragen zich nog niet erg menselijk. Menselijk bewegen is al een enorme uitdaging. Wat sociaal-emotionele intelligentie betreft zijn robots nog erg ver van mensen verwijderd. Robots kunnen al wel vrij overtuigend emoties tonen, maar ze kunnen dit nog niet effectief gebruiken om menselijk te communiceren. Hierdoor komen robots vaak een beetje eng over

Sociaal gedrag

Tijdens mijn promotie-onderzoek heb ik op basis van psychologische en sociaal wetenschappelijke theorieën een computermodel ontwikkeld van hoe mensen zich sociaal-emotioneel gedragen. Wat bepaalt hoe mensen elkaar en elkaars gedrag waarnemen? Wat roept bepaalde emoties bij mensen op? Welke rol hebben emotionele gevoelens bij het maken van beslissingen? En hoe en wanneer reguleren we onze emoties? Omdat een computermodel feitelijk een stuk software is, kan een computermannetje of robot dit model gebruiken om zich emotioneel menselijk te gaan gedragen. Je zou het model kunnen zien als de hersenen van de robot.

Om dit model te testen heb ik in een experiment vrouwen laten speeddaten met het model, dat was ingebouwd in een poppetje op de computer. Zowel de persoon als het poppetje kon kiezen tussen een aantal antwoorden bij het beantwoorden van een vraag die de ander stelde. Proefpersonen konden in het experiment niet onderscheiden of het poppetje bestuurd werd door het model, of door een echt persoon. Het model slaagde dus voor een aangepaste vorm van de Turing Test.

Welkome aanvulling op bestaande zorg

Binnen het SELEMCA project werken we nu samen met zorginstellingen en de creatieve industrie om, gestuurd vanuit de zorgpraktijk, robots te ontwikkelen die patiënten en zorgverleners kunnen ondersteunen. Hierbij richten we ons vooral op patiënten die langdurig in een zorginstelling verblijven, zoals ouderen of gehandicapten.

Robots kunnen patiënten onder andere activeren, entertainen en zorgen dat ze zich minder eenzaam voelen. Hierbij richten we ons nadrukkelijk niet op het vervangen van zorgverleners, maar is de robot een aanvulling op de bestaande zorg en neemt deze slechts taken over waar de zorgverleners geen tijd voor hebben. Ook kunnen robots taken overnemen die voor zorgverleners erg saai zijn, zoals steeds hetzelfde verhaaltje vertellen aan een oudere met dementie. Verder kunnen robots patiënten ondersteunen als coach met het doen van oefeningen, of helpen herinneren medicijnen in te nemen.

In gesprekken met patiënten merken we ook dat ze vaak behoefte hebben aan autonomie. Veel mensen willen zoveel mogelijk zelf – of met hulp van een robot – doen, zonder overal iemand bij te moeten roepen. Ook doen patiënten dingen als wassen vaak liever zelf vanuit privacy overwegingen.

Bovendien werken patienten in langdurige zorginstellingen vaak met een zorgbudget waardoor ze maar beperkt gebruik mogen maken van zorg. Rogier, bewoner van Osira groepswonen, een van de zorginstellingen waar we mee samen werken, zegt bijvoorbeeld liever zijn zorgbudget te besteden aan een uitje naar het park, dan aan dingen als hulp bij het strikken van zijn veters, als een robot hem hier ook bij kan helpen.

Moreel besef

Wanneer robots in de zorg met mensen gaan interacteren, is het belangrijk dat ze moreel besef hebben, zodat robots de levenskwaliteit van patienten daadwerkelijk verbeteren en niet hun welzijn en waardigheid bedreigen terwijl ze zich in een kwetsbare situatie bevinden. Om dit te bewerkstelligen hebben we software ontwikkeld die morele principes tegen elkaar kan afwegen. Deze software kan in medisch-ethische dilemma’s dezelfde beslissingen te maken als experts op dit gebied.

Op dit soort systemen wordt vaak de kritiek gegeven dat rationeel ‘perfect’ moreel redeneren zonder fijngevoeligheid in complexe, meerduidige situaties nogal een kil gebeuren oplevert. Zorgen gaat uiteindelijk niet alleen over het bereiken van een doel, maar ook over een relatie aangaan met degene die verzorgd wordt. Bovendien is het niet menselijk om altijd rationeel te zijn. In de praktijk worden onze keuzes grotendeels bepaald door gevoelens die we aan een bepaalde keuze hechten. Daarom kiezen de meeste mensen er niet voor om een persoon voor een trein te duwen om zo vijf spoorwerkers te redden, maar zullen ze in het trolley dilemma wel een wissel omzetten zodat in plaats van de vijf spoorwerkers slechts één persoon wordt overreden. Rationeel zijn deze twee keuzes precies hetzelfde (vijf personen worden gered ten koste van één ander persoon), maar doordat het voor de trein duwen van een persoon sterke emoties oproept maken we in deze situatie de keuze om niet in te grijpen.

Om de robot menselijk beslissingen te kunnen laten maken hebben we de software van emotionele intelligentie en moreel redeneren op elkaar aangesloten. Robots uitgerust met de resulterende software kunnen zowel rationele als emotionele overwegingen mee laten spelen in hun keuzes en zich menselijk gedragen. Ze kunnen een relatie aangaan met de patiënt, leren wat voor elke patiënt belangrijk is, zodat adaptief en op een menselijke wijze het welzijn van de patiënt verbeterd kan worden. Een voorbeeld hoe dit eruit zou kunnen gaan zien kun je bekijken in deze scenario’s.

Matthijs Pontier werkt als postdoc aan de Vrije Universiteit Amsterdam binnen het SELEMCA project aan machine ethics; het ontwikkelen van moreel besef bij machines, met als toepassingsgebied de zorg. Hij heeft een achtergrond in Kunstmatige Intelligentie en Psychologie, en ontwikkelde tijdens zijn promotietraject emotionele intelligentie voor machines.
 

Reageren?

Houd je bij het onderwerp, en toon respect: commerciële uitingen, smaad, schelden en discrimineren zijn niet toegestaan. Reacties met url’s erin worden vaak aangezien voor spam en dan verwijderd. De redactie gaat niet in discussie over verwijderde reacties.

Velden met een * zijn verplicht
** je e-mailadres wordt niet gepubliceerd en delen we niet met derden. We gebruiken het alleen als we contact met je zouden willen opnemen over je reactie. Zie ook ons privacybeleid.