Tesla FSD v14: Nu ook gebaren van mensen herkend

Houd je hoed vast, want Tesla’s nieuwste Full Self-Driving (Supervised) bèta, versie v14.1.3, heeft blijkbaar een trucje geleerd dat zelfs de meest doorgewinterde menselijke chauffeur soms nog doet struikelen: het begrijpen van handgebaren.

Een video, gedeeld door de doorgewinterde FSD-tester Chuck Cook, toont een Tesla-voertuig dat feilloos de signalen van een wegwerker op een tijdelijk afgesloten weg interpreteert en zijn route daarop aanpast. Deze update wordt momenteel uitgerold naar early access-testers – de gelukkigen die nu al mogen spelen met de toekomst.

De beelden laten zien hoe de auto de gebaren van de wegwerker niet alleen herkent, maar de instructie ook visualiseert op het bestuurdersdisplay, om vervolgens een nieuwe route te berekenen. Jarenlang waren autonome systemen meesters in het lezen van statische, gestandaardiseerde verkeersborden. Maar het interpreteren van de genuanceerde, en vaak ronduit eigenaardige, gebaren van een menselijke verkeersregelaar? Dat is een heel ander niveau van computationele complexiteit – een waar zelfs wij, met al onze biologische neuronen, soms de mist mee ingaan.

De v14-softwaredivisie is door Tesla geprezen als een monumentale sprong voorwaarts, waarin lessen uit het Robotaxi-programma zijn verwerkt om de navigatie in de echte wereld te verbeteren. En hoewel de officiële releasenotes voor v14.1.3 wel melding maken van een verbeterde omgang met geblokkeerde wegen en omleidingen, vertegenwoordigt het vermogen om menselijke gebaren te verwerken een aanzienlijke, en vooralsnog onopgemerkte, vooruitgang in het situationele bewustzijn van het systeem. Het is alsof ze een geheime superkracht hebben toegevoegd.

Waarom is dit zo baanbrekend?

Deze ontwikkeling markeert een cruciale stap voorbij simpele objectherkenning, rechtstreeks het domein van intentie-interpretatie in. Navigeren door de chaotische, onvoorspelbare omgeving van een bouwplaats, geleid door een mens, is zo’n klassieke “edge case” die autonome rijsystemen lange tijd heeft geteisterd. Een stopbord lezen? Dat is kinderspel. Maar een persoon begrijpen die je wenkt om door te rijden, is een fundamentele verschuiving naar het vloeiende, real-world aanpassingsvermogen dat nodig is voor echte Level 4 of 5 autonomie. Het suggereert een transformatie van een systeem dat simpelweg verkeersregels volgt, naar een systeem dat deze regels begint te begrijpen in hun context. Proost op de robots die eindelijk menselijk worden!