Voici tout ce qui ne va pas avec les voitures autonomes
Sommaire
Résumé
-
Le mauvais temps est une faiblesse majeure en raison de l'interférence du capteur, en particulier pour le système FSD de Tesla.
-
Le géofencage limite les voitures autonomes à des zones spécifiques, entravant le déploiement et l'évolutivité universels.
-
Les voitures autonomes luttent contre les obstructions de la circulation, les indices d'interaction humaine, les urgences et les scénarios imprévisibles.
Tous les deux ans, comme Clockwork, certains PDG de Tech font des promesses sur la façon dont les voitures autonomes approchent à grands pas (en vous regardant, Elon). Mais même si nous avons obtenu respectivement Teslas et Waymos avec l'autonomie de niveau 2 et de niveau 4, le niveau 5 – le Saint Graal de l'autonomie – est toujours hors de portée. Voici tout ce qui nous retient encore.
Le mauvais temps est toujours une faiblesse
La plupart des AV s'appuient sur une combinaison de caméras, de capteurs à ultrasons, de lidar et de radar pour «voir» le monde, mais la précision de ces systèmes pourrait être compromise dans autre chose que le temps ensoleillé. La pluie pourrait introduire du bruit dans les données des capteurs, le brouillard pourrait réduire la visibilité de la caméra et la neige pourrait couvrir les marqueurs de voie, ce qui rend plus difficile pour les véhicules autonomes de naviguer sur les routes en toute sécurité.
Comme si ces défis n'étaient pas assez difficiles, l'approche de certaines entreprises en matière d'auto-conduite est particulièrement sensible au mauvais temps. Le PDG de Tesla, Elon Musk, a abandonné des capteurs à ultrasons et LiDAR contradictoires en faveur d'un système de caméra uniquement pour la pleine conduite (FSD) de Tesla. Il a appelé Lidar une «béquille» et a soutenu que les voitures autonomes devraient s'appuyer sur les caméras et les réseaux de neurones en silicium, tout comme les humains utilisent leurs yeux et leurs réseaux de neurones biologiques.
En rapport
Votre iPhone Pro a Lidar: 7 choses cool que vous pouvez faire avec
Vous avez un iPhone 13 Pro, 12 Pro ou iPad Pro? Voici quelques-unes des façons d'utiliser le scanner LiDAR de votre appareil.
Le problème est que cette approche élimine la redondance. Alors, que se passe-t-il lorsque la visibilité est mauvaise? Ou quand les caméras font des erreurs? Dans un incident signalé par NBC News, ces questions ont été mises en clarté surprenante lorsqu'une Tesla avec FSD engagée n'a pas reconnu un train qui passe au brouillard lourd, forçant le conducteur à prendre le contrôle à la dernière seconde pour éviter un accident.
Cependant, Tesla n'est pas la seule entreprise autonome aux prises avec le mauvais temps. Même Waymo, l'une des rares entreprises à avoir atteint l'autonomie de niveau 4, n'a pas encore résolu le problème. C'est pourquoi, pour l'instant, sa robotaxie ne fonctionne que dans des villes ensoleillées comme Phoenix, San Francisco et Los Angeles. À leur crédit, Waymo a testé dans des endroits enneigés comme New York et le Michigan – mais si son système peut gérer de vraies conditions d'hiver reste à voir.
Le géofencage limite leur utilité
J'ai mentionné plus tôt que Waymo est l'une des rares entreprises à avoir atteint l'autonomie de niveau 4, et ils ont pu le faire en grande partie à cause du géofence.
Avant que la robotaxie de Waymo ne soit déployée dans un nouvel environnement, les équipes avec des véhicules spécialisés conduisent et scannent la zone, créant une carte hyper-détaillée de l'environnement. Cette zone est leur géofence, et c'est en son sein que leur robotaxie est progressivement déployée – d'abord avec des chauffeurs de sécurité au volant, puis lorsque les voitures apprennent les tenants et aboutissants de la route, de manière autonome.
Cette approche lente et régulière signifie que Waymo a pu éviter de nombreux incidents de sécurité qui ont tourmenté ses concurrents, mais cela signifie également que sa robotaxie ne fonctionne que dans des domaines spécifiques qui ont été cartographiés et que ses voitures ont été formées. La mise à l'échelle de ce type de système est difficile et coûteuse, ce qui n'est pas exactement prometteur pour un déploiement universel de voitures autonomes.
En cas de doute, ils s'arrêtent, même dans les pires situations
Une autre faiblesse que j'ai remarquée avec les voitures autonomes est que lorsqu'elles sont confuses – que ce soit par des dispositions de route inhabituelles, des conducteurs humains imprévisibles ou des obstacles inattendus, leur réponse habituelle est de s'arrêter et de réévaluer. Mais parfois, l'arrêt est la pire chose qu'ils puissent faire.
Vous avez probablement vu ces vidéos YouTube avec des voitures autonomes congelées mortes au milieu de la route. Dans l'un, un Waymo tentait un tour en U lorsqu'il a rencontré un cortège et s'est rapidement figé au milieu de la route. Il a finalement dû être chassé manuellement par un policier.
Ces types d'obstructions de trafic sont ennuyeux, mais ils ne sont même pas le vrai défi. Que se passe-t-il lorsqu'un véhicule autonome est confus et s'arrête dans une situation dangereuse?
Dans un incident partagé sur YouTube, une Tesla avec FSD a rencontré une traversée de chemin de fer immédiatement suivie d'un panneau d'arrêt. La voiture a repéré le panneau d'arrêt trop tard et s'est arrêté juste sur les pistes. Heureusement, il n'y avait pas de train entrant, mais ces types de situations mettent en évidence le risque.
Au-delà des dangers de la circulation, cette habitude de s'arrêter peut rendre les voitures autonomes et leurs passagers faciles. Dans un cas légèrement dérangeant, deux hommes se tenaient devant un robotaxi à un feu rouge et harcelé le passager à l'intérieur. Parce que la voiture a détecté un obstacle, elle a refusé de bouger – même si la situation aurait pu rapidement devenir dangereuse.
Ils ont du mal avec l'interaction humaine
La conduite ne consiste pas seulement à suivre les feux de circulation et les panneaux de signalisation – il y a une couche de communication subtile et tacite entre les conducteurs. Que ce soit une vague rapide pour permettre à quelqu'un de fusionner ou de faire un signe de tête à une intersection, les conducteurs humains comptent sur ces indices pour naviguer en douceur. Les voitures autonomes, cependant, ne les ramassent pas toujours.
Les signaux manuels sont un excellent exemple. Les travailleurs routiers les utilisent parfois pour diriger la circulation, mais même si les voitures autonomes ont été formées sur eux, le système n'est pas parfait. Une vidéo publiée sur Reddit montre un Waymo Robotaxi qui a du mal à comprendre les instructions d'un travailleur de la route, hésitant et ne réagissant pas correctement.
Les voitures autonomes n'ont aucune conscience de situation
Parfois, les voitures autonomes luttent avec des choses de base de base des choses que un conducteur humain comprenait instinctivement.
Prenez des accidents, par exemple. Un conducteur humain comprendrait que vous devriez faire le tour de la scène, mais comme on le voit dans une vidéo publiée sur Reddit, un Waymo a traversé directement la scène de l'accident au lieu de rediriger comme les autres voitures.
Dans un autre cas, plusieurs waymos ont été pris sur la caméra en train de labourer la pleine vitesse à travers un nid-de-poule massif, ignorant complètement un véhicule de travail public essayant de bloquer la zone.
Ensuite, il y a comment ils gèrent les véhicules d'urgence. Un conducteur humain sait qu'il devrait céder aux ambulances et aux camions de pompiers, mais les voitures autonomes manquent souvent de conscience. En 2023, le service d'incendie de San Francisco a rapporté que les véhicules autonomes avaient interféré avec les intervenants d'urgence au moins 66 fois. Certaines des pires infractions comprennent:
-
Conduire à travers du ruban d'urgence jaune et ignorer les panneaux d'avertissement.
-
Bloquer les allées de casernes de pompiers.
-
S'arrêter immobile dans une rue à sens unique, forçant un camion-camion à reculer et à prendre un itinéraire plus long vers un bâtiment en feu.
Ce n'est pas une technologie prête pour les heures de grande écoute, si vous me demandez.
Il y a des cas de bord que nous ne pouvons pas prédire jusqu'à ce qu'ils se produisent
Le plus gros problème avec les voitures autonomes est peut-être qu'ils ne peuvent pas gérer des scénarios inhabituels, en particulier ceux sur lesquels ils n'ont jamais été formés. Ils peuvent apprendre des données, mais que se passe-t-il lorsqu'ils rencontrent une situation à laquelle personne ne pensait se préparer?
L'accident de croisière en 2023 a mis en évidence ce problème. Dans cet incident, un piéton a été frappé par une voiture axée sur l'humanité et a fait entrer le chemin d'un robotaxi de croisière. Le robotaxi n'a pas pu éviter de frapper le piéton, mais il a aggravé la mauvaise situation en essayant de s'arrêter, et dans le processus, traînant le piéton de 20 pieds à près de 8 mph avant de finalement s'arrêter.
Une enquête sur la cause de ce comportement a révélé que lorsque la femme a été introduite sur le chemin de l'AV, elle est tombée, donc seules ses jambes étaient visibles par la voiture. Parce qu'elle était partiellement hors de vue, la voiture n'a pas réussi à la classer comme un être humain et a fini par faire d'autres dégâts lorsqu'il a tenté de s'arrêter.
Ce type de cas de bord est presque impossible à prévoir, et pourtant, et plusieurs autres que nous n'avons même pas envisagés existaient. C'est comme la glace noire sur la route – vous ne savez pas que c'est là avant de déraper, et d'ici là, il pourrait être trop tard.
Les voitures autonomes ont fait de grands progrès, mais elles ont toujours des défauts majeurs qui font de l'autonomie complète un objectif insaisissable. Jusqu'à ce qu'ils puissent gérer le mauvais temps, les humains imprévisibles et l'inattendu, nous devrons garder les mains sur le volant – que nous l'aimons ou non.