Het wordt langzaamaan een ritueel: een werknemer bij Google is het niet eens met Google’s werkwijze op een bepaald (vaak ethisch) vraagstuk en zoekt de publiciteit. Vervolgens wordt deze persoon geschorst of ontslagen en vallen mensen over het grote, boze Google heen. Ook deze week is er weer een voorbeeld van iemand die aan de bel trekt en – in dit geval – geschorst is.

Blake Lemoine heeft maanden intern gestreden vanuit zijn overtuiging dat LaMDA (Google’s Language Model for Dialogue Applications) bewustzijn en een ziel heeft. Dit, terwijl vrijwel alle experts in het A.I. domein juist stellen dat het creëren van machines met bewustzijn nog heel ver weg of zelfs onmogelijk is.
Lemoine blijft ook na maanden discussie met zijn collega’s (die allemaal tot een andere conclusie komen) vasthouden aan zijn bewering dat LaMDA het bewustzijn heeft van een kind van 7 of 8 jaar. En daarom moet Google volgens Lemoine altijd toestemming aan het algoritme gaan vragen voordat het ermee gaat werken. Hij verwijst hierbij naar zijn religieuze overtuiging en claimt daarom dat Google hem met de schorsing discrimineert op basis van zijn religie.
LaMDA is een neuraal netwerk; een systeem dat vaardigheden leert door grote hoeveelheden data te analyseren. Bijvoorbeeld door duizenden foto’s van honden te analyseren en op basis van patronen leert om honden te herkennen.
De vraag (die we met ‘nee’ kunnen beantwoorden) is of zo’n algoritme dan weet wat een hond voor iets is. Een patroon in pixels kunnen herkennen als een patroon dat in hondenfoto’s voorkomt is natuurlijk iets heel anders dan bewustzijn hebben van een hond, van de wereld, van jezelf.
Het voorbeeld van de hond gaat over beeldherkenning. Die modellen zijn ver ontwikkeld en kunnen heel veel zaken al goed herkennen. Dat gaat al een stuk beter dan met de taalmodellen die op dit moment beschikbaar zijn.
Taalmodellen hebben gigantische hoeveelheden tekst voorgeschoteld gekregen en op basis daarvan geleerd om artikelen samen te vatten, vragen te beantwoorden, tweets te schrijven en zelfs blog posts te schrijven (deze post is daar overigens géén voorbeeld van!). Maar deze modellen maken heel veel fouten, juist doordat ze zich helemaal niet bewust zijn van wat ze produceren. Ze imiteren patronen die ze elders hebben ontdekt, zonder te kijken naar de logica van wat ze geproduceerd hebben.
Er komt nog ontzettend veel onzin uit de modellen. Ik heb zelf een meisje van 7 jaar thuis, daar komt een stuk minder onzin uit dan uit tekstgenererende modellen zoals LaMDA.
Wat Blake Lemoine vooral aantoont met zijn claim dat LaMDA bewustzijn heeft, is dat de taalmodellen steeds beter worden. Zo goed, dat ze mensen het idee kunnen geven dat ze echte personen zijn. En dat is natuurlijk het hele idee van conversational A.I. en chatbots.
In dit geval is het wat mij betreft dus zeker niet het ‘grote, boze Google’. Het is Blake Lemoine die aantoont dat hij niet helemaal begrijpt wat er onder de motorkap van de modellen van zijn eigen werkgever gebeurt. Misschien kan hij zich daar tijdens zijn schorsing over buigen.
Een makkelijk voorbeeld waarmee hij meteen kan zien dat het echt om nulletjes en eentjes draait staat hier, misschien voor jou als lezer ook handig!
Geef een reactie