La dernière version bêta de la conduite entièrement autonome (supervisée) de Tesla, la v14.1.3, semble avoir appris une nouvelle astuce, résolument humaine : comprendre les gestes de la main. Une vidéo publiée par Chuck Cook, testeur de longue date du FSD, montre un véhicule Tesla interprétant correctement les signaux d’un signaleur sur une route temporairement fermée et ajustant son itinéraire en conséquence. Cette mise à jour est actuellement en cours de déploiement auprès des testeurs en accès anticipé.
Le clip démontre que le véhicule reconnaît les gestes du signaleur, visualise l’instruction sur l’écran du conducteur, puis recalcule son itinéraire. Pendant des années, les systèmes autonomes ont excellé dans la lecture de panneaux statiques et standardisés. Interpréter les gestes nuancés, et souvent idiosyncrasiques, d’un humain dirigeant le trafic représente un tout autre niveau de complexité computationnelle – un casse-tête que même les conducteurs humains peinent parfois à résoudre.
La branche logicielle v14 a été présentée par Tesla comme un bond en avant spectaculaire, intégrant les apprentissages de son programme Robotaxi pour améliorer la navigation en conditions réelles. Bien que les notes de version officielles de la v14.1.3 mentionnent une meilleure gestion des routes bloquées et des déviations, la capacité à traiter les gestes humains représente une avancée majeure, et plutôt discrète, dans la conscience situationnelle du système.
Pourquoi est-ce important ?
Ce développement marque une étape critique au-delà de la simple reconnaissance d’objets, nous plongeant dans le royaume de l’interprétation des intentions. Naviguer dans l’environnement chaotique et imprévisible d’une zone de construction guidée par un humain est un “cas limite” classique qui a longtemps défié les systèmes de conduite autonome. Alors que lire un panneau stop est un problème résolu (du gâteau, même), comprendre une personne qui vous fait signe d’avancer est un pas fondamental vers l’adaptabilité fluide et concrète requise pour une véritable autonomie de niveau 4 ou 5. Cela suggère un glissement d’un système qui se contente de suivre les règles de la route vers un système qui commence à les comprendre dans leur contexte.