Tesla tire la mise à jour de l’auto-conduite complète après qu’un freinage soudain a effrayé les conducteurs

[ad_1]

Le logiciel Full Self-Driving de Tesla a été à la hauteur de son étiquette « bêta » ce week-end.

Samedi matin, le PDG Elon Musk annoncé un retard pour la mise à jour 10.3 après que les testeurs internes d’assurance qualité ont découvert que la nouvelle version fonctionnait moins bien aux virages à gauche aux feux de circulation que les versions précédentes. Puis, le dimanche après-midi, Musk mentionné que Tesla « reviendrait temporairement à 10,2 » après des rapports de freinage soudain, de faux avertissements et d’autres problèmes.

Plusieurs propriétaires ont signalé que leurs véhicules ont freiné soudainement lorsque le logiciel a signalé par erreur une collision imminente. Connu sous le nom de freinage d’urgence automatique (ou AEB), ni la fonctionnalité ni ses bugs ne sont limités à Tesla – Mazda a rappelé certaines de ses voitures en 2019 pour des problèmes similaires.

Lorsqu’ils fonctionnent correctement, l’avertissement de collision avant et le freinage d’urgence automatique fonctionnent de concert pour empêcher un véhicule de heurter des objets sur son chemin. Une combinaison de capteurs et de logiciels alerte d’abord les conducteurs d’une collision imminente et, si aucune mesure n’est prise, applique les freins avec force.

Les voitures qui reçoivent des alertes fantômes qui entraînent des freinages d’urgence risquent de se faire prendre à l’arrière si elles s’arrêtent rapidement dans un trafic dense ou si elles roulent à grande vitesse. « L’activation de l’AEB au milieu de l’autoroute était terrifiante », a déclaré un conducteur de Tesla sur reddit.

Alors que les faux freinages d’urgence automatiques et les faux avertissements de collision avant semblent être les problèmes les plus répandus, d’autres conducteurs ont signalé faux avertissements de sortie de voie et un désactiver d’avertissement de collision avant et de freinage d’urgence automatique sans avertissement.

Tesla a proposé la conduite autonome complète comme une option coûteuse sur ses véhicules, les personnes payant jusqu’à 10 000 $ pour la perspective d’accéder au logiciel lors de sa sortie. Mais des années se sont écoulées depuis que l’option a été introduite pour la première fois, et ce n’est que récemment qu’un groupe restreint de propriétaires a pu accéder à une version bêta de la fonctionnalité.

Tesla a distribué Full Self-Driving à une première vague de 2 000 conducteurs et a étendu l’accès à des groupes limités en fonction du «score de sécurité» d’un conducteur, que l’entreprise calcule à partir des données de télémétrie recueillies par ses véhicules. La première extension donnait accès aux conducteurs avec des scores de 100 sur 100, tandis que le groupe suivant avait des scores de 99.

Aujourd’hui, le constructeur automobile a publié une autre mise à jour, 10.3.1, et a commencé à l’appliquer aux véhicules éligibles.

Un utilisateur de reddit a suggéré que le bogue le plus répandu pourrait être lié à un conflit entre le système de freinage d’urgence automatique et le mode Sentry de Tesla, un système de sécurité qui surveille le véhicule lorsqu’il est garé. Si cela est vrai, ce serait un développement préoccupant, suggérant qu’un bogue dans une fonctionnalité non critique a causé un problème avec un système de sécurité. En règle générale, les constructeurs automobiles séparent les systèmes de sécurité des véhicules, car le coût de développement de ces fonctionnalités est considérablement plus élevé.

lettre NTSB

Tesla est également sous pression pour répondre à deux recommandations de sécurité formulées par le National Transportation Safety Board il y a plus de quatre ans. L’agence les a fabriqués après avoir enquêté sur l’accident qui a tué Joshua Brown, dont la Model S a renversé une semi-remorque sur son chemin. L’agence a déterminé que Brown a conduit en pilote automatique pendant de longues périodes sans avoir les mains sur le volant et qu’il utilisait la fonction sur des routes pour lesquelles elle n’avait pas été conçue. Le NTSB a demandé à Tesla de limiter quand et où le pilote automatique peut être utilisé et de mettre en œuvre une surveillance plus stricte de l’attention du conducteur.

« Nos enquêtes sur les accidents impliquant les véhicules de votre entreprise ont clairement montré que le potentiel d’utilisation abusive nécessite une modification de la conception du système pour assurer la sécurité », a écrit la présidente du NTSB, Jennifer Homendy. « Si vous voulez vraiment mettre la sécurité au premier plan dans la conception des véhicules Tesla, je vous invite à mettre en œuvre les recommandations de sécurité que nous vous avons émises il y a quatre ans. »

Le pilote automatique est un système avancé d’aide à la conduite de niveau 2, ce qui signifie que les conducteurs doivent surveiller le véhicule à tout moment. Actuellement, la plupart des constructeurs automobiles, y compris Tesla, testent l’engagement du conducteur en vérifiant périodiquement si le couple est appliqué au volant. D’autres systèmes, comme le SuperCruise de GM et le BlueCruise de Ford, utilisent le suivi oculaire. Aucun système, cependant, n’est infaillible.

La lettre du NTSB ne semble pas avoir affecté le cours de l’action de Tesla, qui a atteint un niveau record et a envoyé sa capitalisation boursière à plus de 1 000 milliards de dollars pour la première fois, peut-être à la nouvelle que la société de location de voitures Hertz a passé une commande de 100 000 Model 3.


[ad_2]

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*