We zijn zelf niet klaar voor wat we robots kunnen leren

Ik kreeg een interessant onderzoek onder ogen. Het gaat over de wijze waarop mensen samenwerken met A.I. als ze de keuze hebben om vriendelijk met deze A.I. mee te werken óf om deze A.I. te exploiteren.

Proefpersonen werden gekoppeld aan een onzichtbare partner, wat een echt persoon kon zijn óf een A.I. (ik zal daar in het vervolg naar verwijzen als ‘robot’). Vervolgens ging de proefpersoon met de betreffende partner een aantal spelletjes spelen. Dus met een mens of met een robot.

Eén van die spellen was Reciprocity en – de naam verraadt het al een beetje – daarin wordt samenwerking beloond. Maar, een beetje lijkend op de situatie in het Prisoner’s Dilemma, je kon ook zelf een betere uitkomst behalen door je partner min of meer te bedriegen.

Mensen bleken in de studie minder geneigd om samen te werken met de robot dan met een ander mens. Zelfs als de robot duidelijk zo geprogrammeerd was dat deze altijd bereidheid toonde om samen te werken. Als een proefpersoon merkte dat de robot van goede wil was, werd ie als een sukkel behandeld en geëxploiteerd. En omdat het een robot was, voelden de respondenten niet de schuld die ze bij een menselijke partner wel zouden voelen.

De onderzoekers geven aan te schrikken van deze uitkomsten. Zij spreken de vrees uit dat we in een wereld waarin steeds meer van onze interacties met robots zullen zijn, ons totale gedragsrepertoire asocialer kan worden.

Samenwerking in maatschappijen – in welke vorm dan ook – komt voort uit een set van waarden waarop zo’n maatschappij gebaseerd is. De functie van schuldgevoelens is erin gelegen dat mensen om die schuld te vermijden de sociale normen willen volgen. Dat helpt bij het sluiten van compromissen, dat helpt bij het stimuleren van samenwerken met anderen.

Als we vaker interactie hebben met de niet-emotionele robots die om ons heen verschijnen, kan het gedrag dat we naar robots vertonen zich uitbreiden naar gedrag tussen mensen onderling, zo vrezen de onderzoekers.

Mensen zijn gewoontedieren; wat garandeert ons dat het gedrag dat we steeds vaker naar robots kunnen gaan vertonen (minder beleefdheid, minder samenwerken, minder gedragen vanuit morele verplichtingen) ons gedrag niet breder gaan beïnvloeden? Dan worden we minder beleefd, minder coöperatief en handelen we minder vaak moreel juist naar andere mensen.

Het feit dat we ons heel anders gedragen naar robots, zegt mij vooral dat we heel kritisch moeten kijken naar de inzet van robots. Waar wel en waar niet? Het automatiseren van communicatie kan op heel veel plaatsen prima, als er geen of weinig emotie bij komt kijken.

Maar een robot-therapeut, een robot-schadebehandelaar of een robot-politieagent waar je aangifte moet doen lijken mij in het licht van de beschreven studie geen goed idee. Ook niet op de lange termijn. Niet omdat de robot er niet voor toegerust kan zijn, maar omdat wij er zelf niet klaar voor zijn om ons naar een robot net zo te gedragen als naar elkaar.

Advertentie

Geef een reactie

Vul je gegevens in of klik op een icoon om in te loggen.

WordPress.com logo

Je reageert onder je WordPress.com account. Log uit /  Bijwerken )

Twitter-afbeelding

Je reageert onder je Twitter account. Log uit /  Bijwerken )

Facebook foto

Je reageert onder je Facebook account. Log uit /  Bijwerken )

Verbinden met %s

%d bloggers liken dit: