El sistema de asistencia a la conducción de Tesla, también mal llamado Sistema de Conducción Autónoma (FSD) está siendo el centro de la controversia durante los últimos días. Hace una semana un famoso YouTuber americano publicó en su canal un vídeo en el que intentaba, con éxito, engañar al sistema FSD mediante el uso de una pared falsa. El vídeo, que ya acumula más de 17 millones de visualizaciones, ha generado mucha polémica. Ahora, otro YouTuber americano, ha repetido las pruebas con diferentes resultados. Lo que está claro es que todo lo que rodea a la compañía de Elon Musk está envuelta en polémicas.
Como ya sabrás, hace unos años Tesla decidió eliminar los radares de sus coches para basar su paquete de asistencia a la conducción en las cámaras. Una decisión contraria a la tendencia natural de la industria de instalar cada vez más sensores ultrasónicos y más modernos radares LiDAR. Durante todo este tiempo, Elon Musk ha prometido repetidas veces la llegada de la conducción autónoma, la de verdad, apoyada en las cámaras. Una promesa que no ha hecho más que retrasarse sin dar pistas evidentes de cuándo podremos disfrutar finalmente de la ansiada conducción autónoma.

En esta ocasión la prueba se realiza con dos coches diferentes
El primer vídeo publicado hace una semana demostró no sin cierta espectacularidad que las cámaras pueden ser fácilmente engañadas. Aunque muchos acusan a Mark Rober de estafa al considerar que el coche de pruebas no contaba con el paquete FSD completo activado. A mucha gente también le pareció extraño el juego de cámaras y el hecho de que el coche de la prueba estuviese donado por Luminar, empresa que se encarga de desarrollar sistemas LiDAR. La prueba ha sido acusada de no ser objetiva, aunque hay que tener en cuenta que fue desarrollada para engañar al controvertido sistema de cámaras.
Aprovechando el éxito del primer ensayo, Kyle Paul emprende ahora su propia prueba en condiciones similares, pero no idénticas. En este caso la prueba se realiza con dos coches, un Model Y y un Cybertruck. Los resultados son muy dispares. Cabe mencionar que a diferencia de Rober que usaba gomaespuma, Paul esconde el remolque de un camión tras la pared falsa. El vídeo demuestra que el paquete FSD del Model Y está activo durante todo momento, empleando la tercera generación del procesador de Tesla con la versión 12.5.4.2 del FSD. El resultado evidente en todo los casos es que el Model Y no logra reconocer la pared y Paul no tiene más remedio que frenar por sí mismo para no comerse el remolque.
Caso bien diferente es el del Cybertruck, esta vez sí equipado con el procesador HW4 con el software FSD V13 más reciente de todos. Las pruebas concluyen que en ese caso sí las cámaras son capaces de reconocer y detectar la pared falsa, deteniendo el vehículo antes de que este impacte. El obstáculo aparece claramente identificado en la pantalla central en las dos ocasiones que se realiza la demostración. Hay que tener en cuenta que ninguna de las pruebas, ni la de Paul ni la de Rober, son llevadas a cabo en condiciones iguales por lo que es imposible comparar el rendimiento de ambos ensayos. Los resultados siguen dejando muchas dudas.