Accidente Fatal en vehículo-autónomo de Tesla nos recuerda que los Robóts no son perfectos

2090

Tecnopia-Mjc3MjgxOA

  • El 7 de Mayo, un Tesla Modelo S estuvo involucrado en un accidente fatal en Florida.

Al momento del accidente, el vehículo estaba siendo autónomo, guiado por sí mismo, por medio del sistema Autopilot (autopiloto). El sistema no se detuvo cuando un trailer intentó girar a través de una vía de varios carriles,  y el Tesla colisionó con el trailer. En una declaración, Tesla Motors dijo que:

“Es el primer accidente fatal en más de 130 millones de millas (210 millones de kilómetros) en los que el sistema Autopilot ha estado activado”

A inicios de este año, el CEO de Tesla Elon Musk dijo a los reporteros que el sistema Autopilot del Modelo S era “probablemente ya era mejor que una persona”.

La National Highway Transportation Safety Administration (NHTSA) de los Estados Unidos de Norte América, ha abierto una evaluación preliminar acerca del desempeño de Autopilot, para determinar si el sistema trabajaba como se esperaba. Por ahora, tomaremos una mirada cercana a lo que sucedió en Florida, como pud el accidente evitarse y lo que esto puede significar para los vehículos autónomos.

De acuerdo al reporte oficial del accidente, el siniestro tuvo lugar en una vía de varios carriles que cuenta con intersección a una calle. El trailer de carga que se dirigía sobre westbound lane realizó un giro hacia la calle, en un cruce perpendicular frente al tráfico que generalmente circula en eastbound lane. El conductor del camión no vió al Tesla, así como el Tesla (Autopilot) ni su ocupante humano se percataron del trailer. El Tesla colisionó con el vagón de carga posterior del trailer y pasó enmedio del mismo, y ni el Autopilot ni su ocupante ejercieron los frenos. El Tesla luego de pasar debajo del trailer, continuó su trayecto hacia el extremo de la avenida, dirigiéndose estrepitosamente hacia un poste y su posterior trajectoria se puede apreciar completamente en la siguiente imagen:

Tecnopia-Mjc3MjgxNw

La declaración de Tesla y un teweet de Elom Musk nos dieron luz respecto al motivo por el cual el sistema Autopilot falló al no detenerse por el trailer. El autopolito se guía por cámaras y el radar para evitar obstáculos, y las cámaras no pudieron diferenciar adecuadamente entre “el lado blanco del vagón del trailer y un cielo completamente despejado y brillante”. El radar no tuvo que tener problemas en detectar al trailer, pero de acuerdo con Musk, “el radar se ignora cuando en las cámaras se interpreta al camino como despejado para evitar que se apliquen los frenos ante falsas señales del radar”.

No conocemos los detalles de como el radar del Tesla S funciona, pero el hecho de que el radar pudiera identificar al trailer (desde su frente hasta sus llantas mas lejanas), aunado con la posición perpendicular a la avenida (y muy posiblemente detenido) puede llevarnos a entender como la computadora pudo razonablemente asumir que algo estaba bloqueando la avenida, y su visión. Casi todo el tiempo la computadora tuvo que haber interpretado correctamente.

La declaración de Tesla enfatiza que además el llamado sistema “Autopilot” es únicamente asistivo y no debe de asumirse que se le puede dar el control completo del vehículo.

Es importante notar que Tesla deshabilita por default al Autopilot y que requere un explícito conocimiento de que el sistema es nueva tecnología que sigue en fase beta hacia el público antes de que el usuario lo active. Cuando los conductores activan el Autopilot la guía les explica que, aparte de otras cosas el Autopilot “es solo un accesorio de asistencia que requiere las manos en el volante todo el tiempo” y que “necesitas mantener el control y responsabilidad por tu vehículo” mientras está en uso. Adicionalmente, todo el tiempo el Autopilot recuerda al conductor “Siempre mantener las manos en el volante. Estar preparado para tomar el control todo el tiempo”. El sistema también realiza constantemente verificaciones para asegurarse que las manos del conductor están en el volante y genera alertas visuales y sonaras en caso de que las manos no sean detectadas. Entonces gradualmente el vehículo autónomo comienza a disminuír su velocidad hasta que las manos del conductor sean detectadas de nuevo en el volante.

Es posible que no sea la intención de Tesla culpar al conductor acerca de la situación, pero es evidente (y es motivo por el cual se hizo mención de ello en un inicio)  que no está completamente claro para los conductores cuando se sienten que pueden delegar completamente a Autopilot o no. Se intuye entonces que Tesla dice a los conductores que está bien confiar, aún y cuando Tesla no tiene idea de cuando se pueda y cuando no confiar. En otras palabras, Autopilot funciona adecuadamente en condiciones ideales. No debería de ser usado cuando las condiciones no sean ideales y de hecho no se debe usar cuando las condiciones no son ideales, pero el problema con los conductores es que las condiciones pueden ser ocasionales y convertirse de lo ideal a lo no ideal casi instantáneamente y el Autopilot no puede prevenir que es lo que sucederá.

El hecho es que este tipo de accidente ya ha sucedido y significa que existe una probabilidad razonable de que vuelva a pasar, o veamos alguno similar en el futuro.

Hay algunas formas en las cuales el escenario de este accidente pudo evitarse, ambos por Tesla mismo, y por algunas ambigüedades en la legislación.

En el Software de Tesla: Es posible que el Autopilot de Tesla pudiera haber sido cambiado para tener una mayor confiabilidad entre los trailers y el horizonte de una avenida y sus señalamientos, si es que ese fue el problema. Puede existir un error en el software, o pudiera ser que tenga una calibración mas fuerte a favor de minimizar errores en la activación de frenos en falsos eventos.

En el Hardware de Tesla: Hay algunas condiciones de iluminación en las que las cámaras aprecian de una forma muy pobre (vías humedas, superficies deflectivas, o poco ángulo de luz), y la resolución del radar es relativamente pobre.  Casi todos los demás vehículos autónomos que van por una autonomía sofisticada utilizan “LIDAR” para filtrar este tipo de variaciones en los sensores, toda vez que LIDAR provee datos de alta resolución a una distancia de muchos cientos de metros con lo cual también aumenta el contraste para ambientes con efectos de luz. Sin embargo, Elon Musk no cree que LIDAR sea necesario para los vehículos autónomos.

Comunicación vehículo a vehículo. La NHTSA está estudiando actualmente la tecnología de comunicación V2V (Vehicle to vehicle) Vehículo a Vehículom el cual otorgará la facultad a los automotores de “comunicarse y comunicar datos importantes acerca de la seguridad y movilidad para ayudarse y salvar vidas, prevenir daños, simplificar el congestionamientos viales y habilita que otros vehículos alrededor de ellos sepan exactamente en donde están y hacia donde van, con esto los accidentes como este se volverán menos frecuentes.

Costados Seguros en Trailers: En los Estados Unidos de Norte América, existen regulaciones relativamente débiles acerca de la sistemas de seguridad ante accidentes de impacto. A los trailers no se les requieren protecciones en los costados como si sucede en Canadá o Europa. En los análisis de la IIHS acerca de accidentes fatales que involucran automóviles de pasajeros y camiones que han sucedido bajo ellos y a un costado… estos no tenían protecciones,” y en los cuales el automóvil ha pasado debajo del trailer. Estos impactos cuando son de frente y en las protecciones del trailer, y en este punto como Tesla señala “El Modelo S impactó de frente y a un costado del trailer, aún a una alta velocidad, su sistema de seguridad ante accidentes de impacto pudo haber prevenido daños serios como sucede en otros accidentes similares”.


Si Tesla sale con una reparación de software, el cual es el escenario mas seguro, todos los otros Tesla Autopilot se beneficiarán inmediatamente por una mayor seguridad. Esta es una de las mas grandes ventajas de los vehículos autónomos en general: los accidentes son inevitables, pero a diferencia de los humanos, cada tipo de accidentes solo sucederá una ocación. Una vez que el software haya sido desarrollado y actualizado, ningún otro Tesla Autopilot volverá a cometer el mismo error otra vez. Errores similares son posibles, pero como dice Tesla, “Mientras mas millas acomule en el mundo real y la lógica del software se incremente en estos raros eventos, las probabilidades de daños continuarán a la baja”

De las infinitas variaciones por conducir en el vías del mundo real llenas de humanos impredecibles significa que es irreal pensar que las probabilidades de recibir daños mientras se conduce, aún si los automóviles son completamente autónomos, pueda llegar a zero. Pero el punto de los vehículos autónomos, y los vehículos con autonomía asistida, ya son mucho mas seguros que los autos conducidos por humanos. Este es el primer accidente fatal en Autopilot en 130 millones de millas (210 millones de kilómetros). La experiencia de humanos involucrados en accidentes fatales es casi cada 90 millones de millas (145 millones de kilómetros, y en el resto del mundo son 60 millones de millas (100 millones de km). Ya es suficientemente seguro tener a estos sistemas trabajando para nosotros, y lo único que harán es hacer mejor lo que ya hacen.

Publicidad