La conduite autonome de Tesla fait couler beaucoup d’encre ! Mais entre les accidents et les promesses d’Elon Musk, il est difficile de se faire un réel avis dessus... surtout si le constructeur automobile nous ment.
Le directeur de Tesla Autopilot Software avoue un méfait
Depuis plusieurs années, la conduite autonome constitue le grand espoir de Tesla et, en même temps, son casse-tête permanent. Un projet pour lequel nous avions eu le droit à un bel aperçu en 2016. Aujourd’hui, ce teasing fait encore parler, mais pas pour de bonnes raisons, puisque l'un des ingénieurs principaux de l'entreprise a avoué que cet aperçu n'était pas tout à fait honnête. Dans cette vidéo publiée il y a plus de 6 ans, la société affichait en premier lieu une image expliquant qu'une personne était assise sur le siège du conducteur - uniquement pour des raisons juridiques. À l’époque, Elon Musk s’en était aussi servi pour présenter son Full Self-Driving (FSD), le système d'aide à la conduite le plus avancé.
Problème, Ashok Elluswamy, le directeur de Tesla Autopilot Software, a confirmé à Reuters, que le comportement du véhicule n'était pas exactement celui montré dans la vidéo. Il a tenu ces propos lors de l'enquête sur l'accident dont a été victime Walter Huang, un ingénieur d'Apple, qui conduisait une des voitures de la société. L'enquête visait à déterminer si la victime avait accordé une confiance excessive au système d'aide à la conduite.
Dans sa déclaration, Ashok Elluswamy a confirmé que la vidéo du trajet, présentée en 2016, avait été obtenue grâce à une fonctionnalité de cartographie en 3D - fonction inaccessible pour les clients à cette époque. Il a également admis que lors des essais, les conducteurs avaient dû reprendre les commandes plusieurs fois et qu'une voiture avait même percuté une barrière lors d'une manœuvre de stationnement.
Tesla et la promesse éternelle de la conduite autonome
Toujours selon le même homme, la vidéo avait pour but de montrer jusqu'où pouvait aller le Full Self-Driving de Tesla. Mais comme vous l’aurez compris, l'entreprise n’avait à aucun moment précisé les informations susmentionnées. Autre problème pour le constructeur automobile, en 2016 ses voitures n’étaient pas capables de répondre aux attentes générées par la vidéo. Chose encore plus surprenante, les Model Tesla ne sont toujours pas capables de répondre à ces attentes en 2023. La société a d’ailleurs été critiquée à plusieurs reprises par des organismes américains, qui affirment que la vente de ses capacités peut réduire la capacité d'attention du conducteur sur la route.
Depuis les premiers accidents de Tesla avec les systèmes d’Autopilot et FSD activés, l'entreprise a répété que ces fonctionnalités ne devaient pas être considérées comme des systèmes de conduite entièrement autonomes - cela est également indiqué sur le site web de l'entreprise. Pour que ce soit le cas, il faudrait que les modèles du constructeur soient qualifiés comme des véhicules autonomes de niveau 3, ce qui n'est toujours pas le cas jusqu'à présent. Pour l'instant, la situation est tout autre, puisque Tesla est dans l'œil du cyclone pour son freinage fantôme et l'utilisation de ses propres clients comme bêta-testeurs.
À l’heure actuelle, l’Autopilot et le FSD ne sont que des systèmes d’aide à la conduite. Et c’est justement ça qui pose un problème à Tesla, puisque l’entreprise n’a pas encore fait le pas en avant, leur permettant de complètement désengager l’utilisateur de la conduite. C'est une promesse qu'Elon Musk a faite depuis un certain temps et qu'il a réitérée avec la possibilité de lancer sur le marché un futur robotaxi entièrement autonome.