Entreprise

L'Autopilot de Tesla « piégé » pour fonctionner sans conducteur

Tesla Autopilot peut être facilement trompé pour fonctionner sans conducteur, selon un test de Consumer Reports. Cette découverte survient après un accident fatal au Texas, où il est soupçonné qu'aucun conducteur n'était présent. Les résultats soulèvent des inquiétudes sur la sécurité et la fiabilité du système d'assistance à la conduite de Tesla.

L'Autopilot de Tesla « piégé » pour fonctionner sans conducteur

Tesla Autopilot : Facilement trompé, selon Consumer Reports

La fonctionnalité Autopilot de Tesla, conçue pour assister le conducteur, peut être facilement trompée pour fonctionner sans conducteur, selon Consumer Reports.

Les ingénieurs de la revue ont testé la Tesla Model Y sur une piste fermée et ont conclu que le système pouvait être facilement dupé pour rouler sans personne au volant. Cette découverte intervient après un accident fatal au Texas, où les autorités croient qu'il n'y avait personne dans le siège conducteur.

Des mesures de sécurité insuffisantes

L’équipe de Consumer Reports a expliqué qu'ils avaient réussi à tromper à plusieurs reprises la voiture pour qu’elle roule sans conducteur. Jake Fisher, directeur des essais automobiles, a déclaré : « Le système n’a pas seulement échoué à s’assurer que le conducteur était attentif, il ne pouvait même pas détecter la présence du conducteur. » Il a ajouté : « C’était un peu effrayant de réaliser à quel point il était facile de contourner les protections, qui étaient clairement insuffisantes. »

Le système Autopilot de Tesla est présenté comme un système d’assistance avancée à la conduite, destiné à « améliorer la sécurité et la commodité derrière le volant ». Cependant, le site officiel de Tesla précise que le système nécessite un « conducteur entièrement attentif » et ne rend pas la voiture autonome.

Les exigences de sécurité de Tesla

Pour utiliser Autopilot, Tesla exige que le conducteur garde les mains sur le volant, boucle sa ceinture de sécurité et ne laisse pas de portes ouvertes. Pourtant, Consumer Reports a montré à quel point il était facile de contourner ces exigences.

Investigations sur l'accident

Ces révélations interviennent après un accident fatal au Texas, où deux hommes ont été tués lorsque leur Tesla a percuté un arbre et pris feu. La police pense qu'il n'y avait personne au volant. Cependant, Elon Musk, le PDG de Tesla, a nié que le système Autopilot ait été activé lors de l’accident. Il a tweeté que les logs de données montraient que le système n’était pas activé et a ajouté que l'Autopilot standard nécessitait des lignes de voie pour fonctionner, ce qui manquait sur cette route.

Suite à cet incident, deux sénateurs démocrates américains ont adressé une lettre à la National Highway Traffic Safety Administration (NHTSA) pour demander une enquête sur l’accident. La NHTSA a ouvert des enquêtes sur 28 accidents impliquant des véhicules Tesla, bien que Tesla n'ait pas encore répondu aux demandes de commentaires des médias.

Cette découverte soulève des inquiétudes concernant la sécurité et la fiabilité du système Autopilot de Tesla, notamment en ce qui concerne la prévention des accidents liés à son utilisation sans conducteur.

 

Source : BBC

3 min de lecture
avr. 24, 2021
Par L. F.
Partager

Articles associés

janv. 28, 2025 • 4 min de lecture
Pourquoi tout ce buzz autour de Deepseek ?

Découvrez Deepseek, la start-up chinoise qui secoue l'IA avec son modèle R1 open source. Gratuit et...

janv. 27, 2025 • 2 min de lecture
Avec Operator, les ambitions d’OpenAI dans l’IA agentique se précisent

Découvrez Operator d'OpenAI, un agent IA qui réinvente l'automatisation des tâches web. Capable de r...

déc. 16, 2024 • 2 min de lecture
Le Conseil fédéral définit sa stratégie numérique pour 2025

Découvrez la stratégie numérique de la Suisse pour 2025, axée sur l'intelligence artificielle (IA),...

Pour améliorer votre expérience, ce site utilise des cookies. En poursuivant votre navigation, vous acceptez leur utilisation. Politique de Cookies