null: nullpx
Vehículos Autónomos

El sistema Autopilot de Tesla falla otra vez

Un accidente más en el que se ve involucrado Autopilot, el sistema de asistencia al conductor que le da capacidades limitadas de autoconducción a los vehículos de la marca, aviva la controversia sobre la conveniencia del despliegue público de la tecnología.
30 May 2018 – 04:49 PM EDT
¡Nuevo!

Presiona aquí para reaccionar

Reacciona
Comparte
Un sedán Tesla Model S en uso del sistema Autopilot chocó violentamente contra una patrulla policíaca estacionada. Crédito: Twitter/@LagunaBeachPD

Un nuevo accidente de un vehículo Tesla en uso del controversial sistema Autopilot, pone nuevamente en el banquillo la idoneidad para el uso público de la tecnología de conducción semiautónoma del fabricante de carros eléctricos.

El accidente ocurrido el pasado martes en el que un Tesla Model S chocó violentamente contra una patrulla Ford Police Interceptor Utility propiedad del departamento de policía de la ciudad de Laguna Beach en el estado de California, se suma a una creciente lista de accidentes, algunos de ellos mortales, que tienen como denominador el uso de Autopilot al momento su ocurrencia.

Autopilot es un sistema de asistencia al conductor desarrollado por Tesla que otorga propiedades limitadas de conducción autónoma a los vehículos equipados con él. Autopilot, que fue inicialmente una opción disponible para los clientes de Tesla a un precio de 5,000 dólares, comenzó a ser equipamiento estándar en todos los modelos de la marca construidos a partir de octubre de 2016.

Loading
Cargando galería


Expertos y activistas en materia de seguridad han cuestionado a Autopilot. Cuestionamientos que incluyen desde la conveniencia de la disponibilidad misma del sistema hasta su nombre, el cual puede ser traducido como ‘piloto automático’, sugiriendo así que su uso podría ir más allá de la simple asistencia, causando confusión entre sus usuarios.

Tesla fue el objeto de una demanda judicial iniciada en abril de 2017 por cerca de 47,000 dueños del sedán de lujo eléctrico Tesla Model S y de la camioneta crossover Tesla Model X vendidos entre los años 2016 y 2017. La demanda alegaba que Autopilot es “ esencialmente inútil y demostrablemente peligroso”. Los demandantes explican que durante el uso de Autopilot sus vehículos “se sacuden, aplican los frenos de golpe y sin motivo, no reducen la velocidad y no frenan cuando se acercan a otros vehículos”.

Tesla, después de calificar la demanda como “un intento sin fundamento con el propósito de recabar honorarios legales”, la semana pasada llegó a un acuerdo con los demandantes en el que según un reporte de nuestra publicación hermana Gizmodo, acordó en crear un fondo de cerca de 5,000,000 de dólares para compensar a los demandantes. Sin aceptar el calificativo de ‘peligroso’ para el sistema Autopilot, Tesla reconoció que “aunque “hemos logrado importantes mejoras en la funcionalidad de Autopilot, es claro que nos ha tomado más tiempo del esperado en implementar las nuevas funciones de Autopilot.” El tribunal aún no ha aprobado el acuerdo.

En lo que Tesla si ha sido consistente, desde que ocurrió el primer accidente mortal en que se vio implicado el sistema Autopilot en Florida en marzo de 2016, es en alertar a los conductores que el sistema aún no tiene la capacidad de reemplazar totalmente al conductor por lo que el operador del vehículo debe prestar atención a la vía en todo momento. Los vehículos de Tesla muestran a sus conductores una advertencia sobre la necesidad de mantener el control del carro en todo momento cada vez que se activa el sistema, sino también después del accidente en Florida Tesla incorporó una actualización en el software de sus vehículos que hace que Autopilot se desactive si el conductor no toma el control del vehículo después de que el vehículo así se lo advierte.

La compañía ha sido beligerantemente defensiva de la tecnología, llegando a culpar en algunos casos a las víctimas de accidentes mortales en los que Autupilot se ha visto involucrado. Elon Musk, el controversial fundador de Tesla, en ocasión del accidente en Florida dijo a un grupo de periodistas que investigaban el caso que “en realidad ustedes tienen que pensar muy cuidadosamente sobre esto, ya que cuando ustedes escriben historias que son negativas, ustedes efectivemente están disuadiendo a personas del uso de vehículos autónomos, ustedes están matando gente".

Lo que va quedando cada vez más claro, a medida en que proliferan accidentes como el ocurrido el pasado martes en Laguna Beach, es que a pesar de todas las advertencias, avisos legales y niñeras electrónicas que Tesla pueda utilizar para disuadir el uso irresponsable de Autopilot, la ilusión de tener un carro con un ‘piloto automático’, que le permita manejarse a sí mismo es muy fuerte como para ser dejado a un lado por una simple advertencia en la pantalla de navegación.

Cargando Video...
Así ocurrió el primer accidente mortal en un Tesla Model S en modo autónomo


Lea también:

Reacciona
Comparte
Publicidad