Un journaliste téméraire a voulu tenter l'expérience d’un trajet avec le logiciel FSD de Tesla. Spoiler : tout ne s'est pas passé comme prévu…
Les limites de l'autonomie : le cas du logiciel FSD de Tesla
Le système de conduite autonome Tesla FSD, présenté comme une révolution dans le domaine de la mobilité, repose en grande partie sur une technologie de vision par ordinateur. Bien que cette approche ait permis des avancées notables, elle présente des limites intrinsèques qui restreignent les capacités du système, comme en témoigne le récent test du journaliste Miles Klee, qui base son propos sur une citation forte : « Je ne me suis jamais senti en sécurité ».
La dépendance excessive aux caméras constitue la première faiblesse du FSD. En effet, la qualité des images capturées peut être altérée par de nombreux facteurs environnementaux, tels que la luminosité, les conditions météorologiques défavorables (pluie, neige, brouillard) ou encore la présence de reflets. Ces perturbations peuvent rendre difficile la reconnaissance des objets, notamment dans des conditions de faible visibilité ou lorsque les objets sont camouflés par leur environnement.
De plus, les algorithmes de traitement d'images utilisés par le FSD peuvent être trompés par des éléments visuels trompeurs, comme des ombres, des reflets ou des objets inhabituels. Par exemple, une flaque d'eau peut être confondue avec une route, ou un sac plastique agité par le vent peut être pris pour un piéton. Ces erreurs de perception peuvent avoir des conséquences dramatiques, notamment en cas de freinage brusque ou de changement de trajectoire inattendu. En comparaison, les systèmes de conduite autonome développés par d'autres acteurs du secteur, tels que Waymo ou Cruise, utilisent une approche multi-sensorielle qui combine caméras, LiDAR et radar.
La question des défis sociétaux
Les limites techniques du FSD ne sont que la partie émergée de l'iceberg. La conduite autonome soulève également des questions fondamentales sur les responsabilités, l'éthique et les impacts sociétaux. Qui est responsable en cas d'accident impliquant un véhicule autonome ? Le conducteur, qui conserve théoriquement le contrôle du véhicule, ou le constructeur, qui a développé le logiciel ? Par ailleurs, la conduite autonome pose aussi des dilemmes éthiques complexes. Comment un véhicule autonome doit-il se comporter face à un choix impossible, comme celui de percuter un piéton ou de dévier de sa trajectoire et mettre en danger ses passagers ?
Enfin, la généralisation de la conduite autonome pourrait avoir des conséquences importantes sur l'organisation de nos sociétés. La disparition progressive des conducteurs pourrait entraîner une transformation profonde des villes, avec la création de nouvelles infrastructures et de nouveaux services. Les impacts sur l'emploi, notamment dans le secteur du transport, sont également une question cruciale. Par conséquent, et même si la conduite autonome représente une promesse séduisante, il est essentiel d'en mesurer les limites et les risques. Les systèmes actuels, comme le Tesla FSD, ne sont pas encore prêts à faire face à toutes les situations réelles, et les défis techniques, juridiques et éthiques restent nombreux.