Yann LeCun is Chief Scientist AI bij Meta (het moederbedrijf van Facebook) en beschrijft zijn doel in het leven als ‘machines zich laten gedragen als mensen en dieren’. LeCun gaat er bij het bouwen van zijn modellen vanuit dat de hersenen van dieren (en van mensen dus ook) werken met een continue simulatie van wat er in de wereld gaat gebeuren of gebeurt. Om computers op dierlijk en uiteindelijk (boven)menselijk niveau te laten acteren, zouden deze ook met zulke simulaties moeten werken.

Baby’s leren al basale zaken over de wereld in hun eerste maanden, enkel door de wereld te observeren. Als een baby een paar keer een bal ziet vallen is dit al voldoende om een eerste idee te krijgen van het principe van zwaartekracht.
‘Common sense’ is wat deze intuïtieve manier van redeneren omvat. Een besef van basale natuurkunde. Bijvoorbeeld, dat de wereld driedimensionaal is of dat voorwerpen niet echt verdwijnen als ze uit je gezichtsveld verdwijnen. Het laat ons voorspellen waar een stuiterbal of een auto die aan komt rijden over een paar seconden zal zijn.
Common sense helpt ons ook om incomplete informatie zelf aan te vullen. Als je in de woonkamer zit en je hoort een metalen knal uit de keuken, dan kun je er vanuit gaan dat iemand een pan heeft laten vallen. Omdat je weet wat voor soort voorwerpen zo’n geluid kunnen maken en wanneer ze dat doen.
Kortom, common sense zorgt ervoor dat we kunnen inschatten welke gebeurtenissen mogelijk zijn en welke onmogelijk en welke meer waarschijnlijk zijn dan anderen. Het laat ons voorspellen wat de gevolgen van onze acties zijn en helpt ons plannen te maken. Waarbij we irrelevante details kunnen negeren.
Maar het leren van common sense aan machines is moeilijk. De neurale netwerken van vandaag moeten duizenden voorbeelden zien voordat ze patronen leren herkennen. Omdat deze technieken gebouwd zijn om precies te voorspellen wat er gaat gebeuren, pixel voor pixel. Maar vaak is het pixelperfecte plaatje helemaal niet relevant. Als je een pen in je hand hebt en hem los laat, dan gaat ie vallen. Waar hij precies eindigt, dat weet je niet. En dat is vaak ook helemaal niet relevant.
LeCun wil neurale netwerken op zo’n manier gaan trainen, dat ze alleen op de relevante aspecten van de wereld leren letten. Dus dat de pen gaat vallen, maar niet precies hoe. LeCun ziet het neuraal netwerk als de controlekamer van het hele systeem. Dit netwerk moet beslissen welk type voorspellingen het model zou moeten kunnen maken op een bepaald moment en in hoeveel detail het zou moeten kijken om deze voorspellingen te kunnen doen.
Mooi aan het stuk van LeCun (winnaar van een Turing Award, hoger kom je niet in de computerwetenschappen!) is dat hij zich heel kwetsbaar opstelt. Door aan te geven dat hij nog geen idee heeft hoe hij een neuraal netwerk op zo’n manier kan trainen dat het hoofd- en bijzaken van elkaar kan onderscheiden bij het doen van voorspellingen in verschillende situaties.
LeCun’s voorstel is nog vooral een idee. Kinderschoenen. Maar het zaadje is geplant. LeCun hoopt dat zijn open artikel ervoor zorgt dat veel grote breinen in het A.I. vakgebied hun tijd gaan besteden aan het volgen van het pad dat hij schetst. Want ondanks al zijn lauwerkransen, zelf kan hij het niet bouwen. Wie het wel kan, zou zomaar de volgende winnaar van de Turing Award kunnen worden!
Geef een reactie