¿Quién tendrá la culpa cuando un vehículo autónomo arrolle a un peatón?

Nuestra publicación hermana Gizmodo le hizo esta pregunta a un grupo de expertos, estas fueron sus respuestas.

Sam Woolley/Gizmodo

El despliegue masivo de los vehículos con capacidad de conducción autónoma es inminente. Ya sea de manera planificada y concertada con las autoridades, o aún en contra de los que las mismas digan y opinen, como ilustró el fallido experimento de Uber de prestar servicios con vehículos autónomos en la ciudad de San Francisco a principios de este mes, lo vehículos atónomos serán una realidad antes de lo que imaginamos. La pregunta hace ya tiempo que dejó de ser ¿si? para convertirse en ¿cuando? Y la respuesta es, muy pronto.

La gran interrogante ahora recae en a quien se le atribuirá la responsabilidad cuando ocurra el primer accidente con un peatón como víctima, en el que se vea envuelto un vehículo de conducción autónoma.

Nuestra publicación hermana Gizmodo le hizo esta pregunta a un grupo de expertos, entre los que se encontraba hasta un especialistas en ética y un abogado. Estas fueron sus respuestas.

Jean-Françoise Bonnefon
Profesor investigador de la Escuela de Economía de Tolouse.
Autos de “El dilema social de los vehículos autónomos”.

En realidad depende de si se trata de un vehículo totalmente autónomo o de un vehículo donde el control es compartido entre el automóvil y el conductor/pasajero. Aún no llegamos al escenario donde existen vehículos totalmente autónomos. En este punto estamos viendo varias formas de control compartido, lo que significa que cualquier accidente va a tener una historia complicada sobre la secuencia exacta de decisiones e intervenciones de parte del vehículo y del conductor humano.

Sobre lo que no puedo especular es en relación a lo que harán los abogados del futuro. Pero como psicólogo creo que en este momento la gente tendería a pensar que si el vehículo es completamente autónomo lo que ocurra es responsabilidad del fabricante.

Por supuesto “el fabricante” es un concepto genérico ya que existirán múltiples firmas proveyendo múltiples piezas que van en el vehículo autónomo, lo cual creará nuevamente una historia complicada. Si estamos hablando de vehículos totalmente autónomos también estamos hablando de una infraestructura que les permite operar. No se tratará entonces únicamente del auto, también estarán implicados extensos sistemas en las ciudades que permitirá la navegación de estos vehículos. Por ello veremos accidentes donde la culpa recaerá en la infraestructura pública que no le permitió al vehículo tomar la decisión correcta.


Noah Goodall
Científico investigador del Consejo de Investigación sobre Transporte de Virginia.

Como la mayoría de las cosas, generalmente dependerá de la circunstancias. Asumiendo que el vehículo estaba cumpliendo con las leyes por ejemplo, un conductor humano no es responsable cuando una persona se atraviesa en su camino repentina e inesperadamente. Hay algunas excepciones, por ejemplo el conductor es responsable de estar alerta sobre niños jugando en las áreas aledañas y de asumir que los niños pueden atravesarse en su camino de una manera en que un adulto no lo haría.

Hay una distinción interesante entre los vehículos conducidos por humanos y los de conducción autónoma. Digamos que un niño sale disparado a la vía de detrás de un árbol. El auto no tiene tiempo de parar pero si de desviarse bruscamente y eviat arrollarlo. Este escenario cae bajo el dominio de la ‘doctrina de la emergencia repentina’, que generalmente excusa al conductor humano de negligencia en el entendido de que no se puede esperar que un ser humano use el mismo grado de cuidado y juicio que usaría en circunstancias normales durante una emergencia repentina. Existe una discusión sobre si la ‘doctrina de la emergencia repentina’ debería aplicar a los vehículos autónomos, dado que el software no experimenta el pánico de la misma manera que lo hacen los seres humanos. Si finalmente se determina que la doctrina no aplica, el deber de evitar accidentes de los vehículos autónomos sería mayor que el de seres humanos detrás del volante, aún cuando el accidente haya sido en mayor parte causado por el peatón.

Patrick Lin
Director del Grupo de Ética en Ciencias Emergentes del Departamento de Filosofía de la Universidad Politécnica del Estado de California.

Si (y cuando) un vehículo auto manejado mate a un peatón por primera vez, creo que podemos esperar que ocurra algunos de los siguientes escenarios:


  1. La industria tratará de apuntar a una proporción menor de accidentes/lesiones en los vehículos autónomos que en los vehículos conducidos por humanos para distraer del accidente. Este es el equivalente en el mundo de las relaciones públicas a “¡Mira! ¡Una ardilla!” Aún cuando existiese suficientes datos para apuntar a tal proporción menor – la cual aún no existe – no cubriría el punto específico del accidente; ¿Por qué ocurrió? Y ¿Cómo podría haberse evitado? La situación presenta un dilema similar al de una droga contra el cáncer que podría salvar decenas de vidas. Si esta droga causara una muerte lo correcto sería hacer una investigación. Las personas no deben ser tratadas como meras estadísticas, aquí hay vidas verdaderas envueltas que podrían ser las de alguien en su familia o en la mía.
  2. Todos lo implicados podrían ser demandados. La víctima o su familia podrían intentar demandas legales contra el fabricante y los suplidores de la tecnología: [alegando que] si no fuese por el vehículo autónomo el accidente no habría ocurrido o que quizás el auto pudo haber sido diseñado para enfrentar la situación de una manera distinta. El dueño del auto podría ser demandado ya que se trataba de su auto o quizás porque lo estaba operando de una manera poco segura distinta a la prevista por el fabricante (y el fabricante debió haber anticipado e incluido tal escenario también). La compañía de seguro y los entes reguladores podrían ser también sujetos de demandas judiciales por subestimar los riesgos y permitir la circulación de los vehículos autónomos en las vías públicas sin haber llevado a cabo más pruebas.
  3. El caso más fácil es cuando la culpa claramente recaiga sobre el peatón. Quizás estaba tratando de probar los límites de la tecnología o de cometer fraude contra la seguradora – quizás saltó frente al auto desde un escondite donde los sensores del auto no lo podían detectar como detrás de un camión grande. Los automóviles robot, sin importar cuan inteligente sean, no pueden desafiar las leyes de la física y la tecnología a veces falla. Lo que quiere decir que no van a poder evitar todos los accidentes. Aún así el fabricante va a estar en la silla caliente hasta que demuestre haber hecho todo lo que pudo para prevenir el accidente. Aún cuando el auto halla tenido el derecho de paso el fabricante no queda absuelto de responsabilidad si existe la posibilidad de poder haber hecho algo mejor. Sabemos con certeza que ocurrirán abusos – por dinero o por notoriedad- los fabricantes deben prever eso también.
  4. La confianza con el público puede erosionarse y esto podría impactar la adopción de los vehículos autónomos. No hay duda de que la tecnología traerá grandes beneficios, especialmente la potencialidad para salvar vidas. Como el administrador de la Administración Nacional de Seguridad Vial (NHTSA) Mark Rosekind lo expuso, las 35,000 vidas que perdemos en las vías de Estados Unidos cada año, el equivalente a un 747 estrellado cada semana del año – deberían indignarnos y podemos mejorar. Pero en vista de lo que está en juego, la industria no puede permitirse dar ni un solo paso en falso, ya que podría ser fatal. Esto no es como la prueba Beta de un software de oficina, donde un accidente sólo acarrea la perdida de datos. Con los vehículos robot, un crash es demasiado literal y el precio se paga en vidas.

Todo esto depende realmente del contexto; hay muchas variables en juego. Quizás el peatón estaba dentro de un parque de investigaciones y firmó una liberación de responsabilidad, dada la presencia de vehículos autónomos. Importa si el accidente fue la consecuencia del diseño del auto (incluyendo vulnerabilidades de seguridad cibernética), de una falla de la tecnología o de la negligencia del operador. También importa cuanto entrenamiento o educación el fabricante o su concesionario le dieron al dueño del vehículo cuando lo adquirió. ¿Estaba el auto equipado con lo último en sensores o el fabricante eligió tecnología menos capaz para cortar costos? ¿Pensó lo suficiente sobre las decisiones de programación, especialmente cuando no obviamente no existía un camino correcto para seguir? Etc.

Va a ser enredoso, especialmente mientras las ‘leyes robot’ están aún en desarrollo y mientras tanto cortes como expertos juristas no se pongan de acuerdo en como se deberán manejar este tipo se situación en el futuro. Esta es una oportunidad para los órganos reguladores y la sociedad para proactivamente crear las directrices e interpretar las leyes existentes a fin de aclarar este enredo tanto como se pueda antes del despliegue de los vehículos autónomos, y así evitar hacerlo en medio de las emociones de un juicio legal y bajos las presiones para una pronta resolución del mismo.

Bryant Walker Smith
Profesor de derecho de la Universidad de Carolina del Sur.

La causalidad hace que la responsabilidad dependa de los hechos específicos del accidente (así como de las leyes aplicables). Daría la misma respuesta si de tratase de un accidente de un peatón contra un vehículo tripulado por un humano. Trágicamente, hoy cerca de 10 peatones/ciclista son victimas mortales de accidentes cada día en Estados Unidos. La automatización podría cambiar la dinámica de poder entre conductores y los usuarios de las vías más vulnerables.

Lea también: