Une publicité d’une page entière dans le New York Times dimanche ciblait le logiciel « Full Self-Driving » de Tesla, le qualifiant de « pire logiciel jamais vendu par une entreprise du Fortune 500 » et offrant 10 000 dollars, soit le même prix que le logiciel. la première personne qui pourrait nommer « un autre produit commercial d’une entreprise Fortune 500 qui a un dysfonctionnement critique toutes les 8 minutes ».

L’annonce a été retirée par The Dawn Project, une organisation récemment fondée qui vise à interdire les logiciels non sécurisés des systèmes critiques pour la sécurité qui peuvent être ciblés par des pirates de type militaire, dans le cadre d’une campagne visant à supprimer Tesla Full Self-Driving (FSD) de la voie publique jusqu’à ce qu’elle ait « 1 000 fois moins de dysfonctionnements critiques ».

Le fondateur du groupe de défense, Dan O’Dowd, est également le PDG de Green Hill Software, une société qui construit des systèmes d’exploitation et des outils de programmation pour les systèmes de sécurité et de protection intégrés. Au CES, la société a déclaré que le véhicule iX de BMW utilise son système d’exploitation en temps réel et d’autres logiciels de sécurité, et a également annoncé la disponibilité de son nouveau produit logiciel en direct et de ses services de données pour les systèmes électroniques automobiles.

Malgré le biais concurrentiel potentiel du fondateur de The Dawn Project, le logiciel bêta FSD de Tesla, un système avancé d’aide à la conduite auquel les propriétaires de Tesla peuvent accéder pour gérer certaines fonctions de conduite dans les rues de la ville, a fait l’objet d’un examen ces derniers mois après une série de YouTube. des vidéos montrant les failles du système sont devenues virales.

L’annonce du NYT intervient quelques jours seulement après que le département californien des véhicules à moteur a annoncé à Tesla qu’il « réexaminerait » son point de vue selon lequel le programme de test de l’entreprise, qui utilise des consommateurs et non des opérateurs professionnels de la sécurité, ne relève pas de la réglementation sur les véhicules autonomes du département. Le California DMV réglemente les tests d’auto-conduite dans l’État et exige que d’autres sociétés telles que Waymo et Cruise qui développent, testent et prévoient de mettre en œuvre des robotaxis pour signaler les pannes et les défaillances du système appelées « désengagements ». Tesla n’a jamais publié ces rapports.

Depuis lors, le PDG de Tesla, Elon Musk, a vaguement répondu sur Twitter, déclarant que le FSD de Tesla n’avait entraîné aucun accident ni blessure depuis son lancement. La National Highway Traffic Safety Administration (NHTSA) des États-Unis enquête sur un rapport du propriétaire d’une Tesla Model Y, qui signale que son véhicule s’est engagé dans la mauvaise voie en tournant à gauche en mode FSD, ce qui a entraîné la collision du véhicule par un autre conducteur.

Bien qu’il s’agisse du premier accident FSD, le pilote automatique de Tesla, l’ADAS du constructeur automobile fourni de série sur les véhicules, a été impliqué dans une douzaine d’accidents.

En plus de l’annonce du NYT, The Dawn Project a publié une vérification des faits de ses affirmations, faisant référence à sa propre analyse de sécurité FSD qui a étudié les données de 21 vidéos YouTube pour un total de sept heures de conduite.

Les vidéos analysées comprenaient les versions bêta 8 (publiées en décembre 2020) et 10 (publiées en septembre 2021), et l’étude a évité les vidéos avec des titres significativement positifs ou négatifs pour réduire les biais. Chaque vidéo a été classée selon l’évaluation des performances des conducteurs DMV de Californie, qui est ce que les conducteurs humains doivent réussir pour obtenir un permis de conduire. Pour réussir un test de conduite, les conducteurs californiens doivent avoir 15 erreurs de manœuvre ou moins, comme ne pas utiliser les clignotants lors du changement de voie ou garder une distance de sécurité par rapport aux autres véhicules en mouvement, et zéro erreur de conduite critique, comme un accident ou une course à pied. une lumière rouge.

L’étude a révélé que FSD v10 a commis 16 erreurs de manœuvre de notation en moyenne en moins d’une heure et une erreur de conduite critique environ toutes les 8 minutes. L’analyse a révélé une amélioration des erreurs au cours des neuf mois entre la v8 et la v10, mais avec le taux d’amélioration actuel, « il faudra encore 7,8 ans (pour les données AAA) à 8,8 ans (pour les données AAA). Bureau of Transportation) pour atteindre le taux d’accidents d’un conducteur humain ».

L’annonce du projet Dawn fait des affirmations audacieuses qui doivent être prises avec un grain de sel, d’autant plus que la taille de l’échantillon est trop petite pour être prise au sérieux d’un point de vue statistique. Si, cependant, les sept heures de séquences sont vraiment représentatives d’une unité FSD moyenne, les résultats pourraient indiquer un problème plus important avec le logiciel FSD de Tesla et aborder la question plus large de savoir si Tesla devrait être autorisé à tester ce logiciel sur le public. routes sans réglementation.

« Nous n’avons pas signé pour nos familles en tant que mannequins d’essais de collision pour des milliers de voitures Tesla qui roulent sur la voie publique … », indique l’annonce.

Les régulateurs fédéraux ont commencé à prendre des mesures contre Tesla et ses systèmes logiciels bêta Autopilot et FSD.

En octobre, la NHTSA a envoyé deux lettres au constructeur automobile dans le but d’utiliser des accords de non-divulgation pour que les propriétaires obtiennent un accès anticipé à la version bêta de FSD, ainsi que la décision de l’entreprise d’utiliser des mises à jour logicielles en direct pour résoudre un problème dans la norme. système de pilotage automatique qui aurait dû faire l’objet d’un rappel. De plus, Consumer Reports a publié une déclaration au cours de l’été indiquant que la mise à jour du logiciel FSD version 9 ne semblait pas suffisamment sûre pour les voies publiques et qu’elle testerait le logiciel de manière indépendante. La semaine dernière, l’organisation a publié les résultats des tests, qui ont révélé que « le système de surveillance du conducteur par caméra de Tesla ne parvient pas à maintenir l’attention du conducteur sur la route ». CR a constaté que le BlueCruise de Ford, en revanche, émet des avertissements lorsque les yeux du conducteur sont détournés.

Depuis, Tesla a publié de nombreuses versions différentes de son logiciel v10 : la 10.9 devrait être disponible du jour au lendemain et la version 11 avec « pile logicielle ville/autoroute » et « de nombreuses autres mises à jour architecturales » devrait sortir en février selon le PDG Elon Musk.

Les critiques de la dernière version 10.8 sont biaisées, certains commentateurs en ligne affirmant qu’elle est beaucoup plus fluide et de nombreux autres affirmant qu’ils ne se sentent pas du tout en sécurité avec la technologie. Un fil passant en revue la dernière version de FSD sur la page subreddit de Tesla Motors montre que les propriétaires partagent des plaintes concernant le logiciel, l’un d’entre eux écrivant même : « Certainement pas encore prêt pour le grand public… »

Un autre commentateur a déclaré qu’il avait fallu trop de temps à la voiture pour tourner à droite sur « une route droite et complètement vide … Ensuite, il a dû tourner à gauche et n’a cessé d’hésiter sans raison, bloquant la voie venant en sens inverse », puis accélère soudainement une fois qu’il atteint le route suivante, suivie d’une décélération tout aussi soudaine alors qu’il changeait d’avis sur la vitesse et pensait maintenant qu’une route à 45 mph était à 25 mph.

Le conducteur a déclaré qu’il a finalement dû se désengager complètement parce que le système a complètement ignoré un virage à gauche imminent, qui devait se produire à une intersection standard « avec des feux et une visibilité dégagée dans toutes les directions et aucun autre trafic ».

La campagne de Project Dawn met en lumière un avertissement de Tesla selon lequel son FSD « pourrait faire la mauvaise chose au pire moment ».

« Comment pouvez-vous tolérer un produit critique pour la sécurité sur le marché qui pourrait faire la mauvaise chose au pire moment », a déclaré le groupe de défense. « N’est-ce pas la définition de défectueux ? La conduite entièrement autonome doit être retirée immédiatement de nos routes ».

Ni Tesla ni The Dawn Project n’ont été contactés pour commenter.