Te veel witte raven; waarom experts verwachten dat er nooit een volledig zelfrijdende auto zal zijn

Wired schrijft over een incident op een vroege morgen in april jongst leden in San Francisco. Een brandweerauto probeert een dubbel geparkeerde vuilniswagen te passeren, maar wordt geblokkeerd door een stilstaande zelfrijdende auto van Cruise op de andere rijbaan. In plaats van ruimte geven aan de brandweerauto, blijft de Cruise staan waar hij staat. Uiteindelijk komt de vuilnisman aanrennen om zijn vuilniswagen weg te halen, maar het kost de brandweer een kleine halve minuut voordat die zijn weg kan vervolgen. Als je huis in brand staat, is dat best veel verloren tijd.

Hoe vaak ben je zelf in een situatie terecht gekomen dat je achteruit moest rijden om een hulpdienst ruimte te geven omdat de rijbaan waarop die hulpdienst reed geblokkeerd werd? Ik denk: ‘nooit’. En dat is precies het probleem voor zelfrijdende auto’s en in feite voor alle algoritmes die zelfstandig in de wereld moeten kunnen opereren. Er zijn altijd vreemde voorvallen die je eenvoudigweg niet gaat tegenkomen in trainingssituaties.  

Experts op het gebied van zelfrijdende auto’s geven aan dat ook bij steeds beter wordende software voor zelfrijdende auto’s dit soort ‘witte raven’ nog steeds voor problemen zullen zorgen. Uitzonderlijke situaties dus, waar niet tegenop te trainen is. Daardoor maken bedrijven zoals Cruise gebruik van mensen die op afstand hun zelfrijdende technologie monitoren en op afstand kunnen ingrijpen als iets onverwachts gebeurt. Velen in de industrie verwachten niet dat er ooit een zelfrijdende auto zal komen die in alle omstandigheden op alle wegen zal kunnen functioneren.

Het gebeurt overigens vaker dat zelfrijdende auto’s problemen veroorzaken, vaak in San Francisco omdat daar veel getest wordt. Eerder dit jaar stopte een zelfrijdende auto midden op een zebrapad en bleef daar 5 minuten roerloos staan. En enkele dagen later hield de politie een zelfrijdende auto staande die zonder licht reed. Van dat laatste voorval zijn vrij komische beelden te zien op Twitter.

Een model is altijd een versimpelde weergave van de werkelijkheid. Bij zelfrijdende auto’s wordt dat heel duidelijk op het moment dat in de werkelijkheid uitzonderlijke situaties op het pas van de auto komen; dan weet ie niet meer wat ie moet doen. Maar dit principe geldt voor alle modellen.

Daarom is het altijd van belang om goed stil te staan bij mogelijke gevolgen van uitzonderingen, wat voor model je ook hebt gebouwd. Dat zagen we ook bij de werking van FaceID op smartphones toen iedereen ineens met een mondkapje rond moest lopen. Dat zat niet in de trainingsdata!

Advertentie

Geef een reactie

Vul je gegevens in of klik op een icoon om in te loggen.

WordPress.com logo

Je reageert onder je WordPress.com account. Log uit /  Bijwerken )

Twitter-afbeelding

Je reageert onder je Twitter account. Log uit /  Bijwerken )

Facebook foto

Je reageert onder je Facebook account. Log uit /  Bijwerken )

Verbinden met %s

%d bloggers liken dit: