El trágico accidente de la semana pasada ha sido calificado como un "fallo incuestionable" por parte del gobernador del estado de Arizona, Doug Ducey.
Su oficina ha enviado a Uber una carta informándo a la empresa de que "se suspende la capacidad de Uber para probar y operar coches autónomos en las calles públicas de Arizona". La investigación, mientras tanto, prosigue, y sigue sin aclararse qué paso con el Lidar de estos coches.
No más pruebas de Uber en Arizona
Uber llevaba probando sus coches en Arizona desde finales de 2016 gracias a una regulación bastante laxa. La organización de protección de los derechos de consumidores Consumer Watchdog calificaba a este estado como "el salvaje oeste" en esta materia.
NEW: In light of the fatal Uber crash in Tempe, Governor Ducey sends this letter to Uber ordering the company to suspend its testing of autonomous vehicles in Arizona indefinitely #12News pic.twitter.com/gO5BZB9P2e
— Bianca Buono (@BiancaBuono) 27 de marzo de 2018
La empresa también hizo pruebas con sus coches autónomos en San Francisco, pero su Department of Motor Vehicles obligó a Uber a retirarlos de sus calles hasta que no obtuvieran los permisos adecuados.
Los problemas para los coches autónomos de Uber se acumulan tras el fatal accidente del pasado 18 de marzo. Para el governador de Arizona, Doug Ducey, el vídeo que se publicó era "perturbador y alarmante, y genera muchas preguntas sobre la capacidad de Uber de seguir probando sus coches autónomos en Arizona".
Para Ducey el incidente es "un fallo incuestionable" de Uber a la hora de cumplir con las expectativas de seguridad de sus coches autónomos, lo que ha provocado la decisión de suspender las pruebas de sus coches autónomos de forma indefinida. Todo un varapalo para el avance de Uber en este ámbito.
El Lidar lo ve todo tanto de día como de noche
En el vídeo publicado por la policía de Tempe que investiga el caso no arroja prácticamente datos concluyentes sobre las razones de un accidente que esas cámaras interiores ni siquiera estaban destinadas a evitar.

De eso se encargaría teóricamente el Lidar, el potente sistema de radar capaz de detectar objetos hasta a 200 metros de distancia incluso en la oscuridad.
Por alguna razón no funcionó o no activó los sistemas de frenado del coche autónomo, pero los responsables del diseño de ese Lidar, la empresa Velodyne, afirman que no creen "que el accidente fuera debido al Lidar. Nuestro Lidar puede ver perfectamente en la oscuridad, tanto como a la luz del día, produciendo millones de puntos de información".
La presidente de Velodyne, Martha Hall, explicaba a la BBC cómo el problema podría estar precisamente en el software propietario de Uber que controla el coche autónomo: "es el resto del sistema el que debe interpretar y usar esos datos para tomar decisiones. No sabemos cómo funciona el sistema de toma de decisiones de Uber".
Los coches autónomos de Uber, en problemas
Algunos análisis hacen pensar que el sistema de conducción autónoma de Uber podría haber tenido problemas en esas pruebas y desarrollos. Según The New York Times, en marzo los conductores de seguridad de Uber retomaron el control de esos coches una vez cada 21 kilómetros.

Ese dato contrasta con las veces que por ejemplo eso ocurre en los coches de Waymo, donde los conductores de seguridad toman el control una vez cada 9.000 kilómetros.
En Uber indican que eso no es ningún indicativo de la seguridad de sus sistemas de conducción autónoma, pero lo cierto es que la falta de datos por parte de Uber no hace más que sumar indicios que ponen a la empresa y a sus sistemas de conducción autónoma entre la espada y la pared.
En Xataka | Silencio y cautela: así está reaccionando el mundo tras el accidente mortal del coche autónomo de Uber
Ver 18 comentarios
18 comentarios
flezybot
La responsabilidad de Uber es doble, ya que había dos inteligencias encargadas de que esto no sucediera. Por un lado la IA del coche, que no hizo absolutamente nada a pesar de que el LIDAR le indicaba perfectamente que ahí estaba la mujer. Y por otro lado la conductora de seguridad que sólo se dio cuenta de que estaba ahí la mujer cuando la estaban atropellando, porque no iba pendiente de la situación. La peatón no lo estaría haciendo bien, eso está claro, pero en teoría los coches de UBER llevan un sistema redundante para que estas cosas no pasen. Si la IA del coche se está echando una siesta y la conductora de seguridad hablando por Whatsapp, tienen una responsabilidad muy elevada. Puede ser que no muchos conductores humanos hubieran salvado la situación, pero estoy seguro que casi el 100% hubieran reaccionado. Este coche no reacciona hasta que empieza a tocar a la mujer. Eso es peor que cualquier humano.
pabloj
Si tienen que retomar el control cada 21 Km, en el estado de desarrollo actual, no se diferenciaría apenas del AutoPilot de Tesla, más que un coche autónomo lo que tendría Uber es un asistente de ayuda a la conducción, peligrosísimo si el conductor humano se distrae y deja de supervisarlo.
Ya lo dije en otro día, tengo la sensación de que el software de Uber está muy verde, si llega a ser el coche de Waymo estoy seguro que en ese contexto habría evitado el accidente sin contratiempos.
Usuario desactivado
Es cierto que el coche debería detectar cualquier cosa en plena oscuridad pero me parece lamentable que se carguen tanto las tintas contra Uber en un accidente que ningún conductor humano podría haber evitado.
Vamos a ver, una tía vestida de negro, caminando en plan de tranqui con su bici, cruzando por una carretera oscura y fuera de un cruce de peatones y que aparece de repente. Amos, no me jodas, solo le faltaba llevar un cartel de "por favor atropelladme" y lo siento por ella pero las cosas como son.
Sí, el coche debería haberla detectado, Uber tiene responsabilidad y deben actuar en consecuencia, se supone que los coches autónomos tienen que poder controlar estas situaciones; pero no creo que haya demonizarlos hasta el infinito. Es un accidente lamentable ahora pero que ayudará a reducir las muertes en un futuro.
ZellDich
No me encajan los km de waymo para tomar el control, está bien ese dato?
ZellDich
Estoy contigo, además 100% convencido
Alter
Los bugs son algo común tanto en software como en hardware, pero en un coche autónomo puede significar que alguien sufre las consecuencias, y puede significar que alguien muere. Yo me alegro de que no se use mi ciudad como conejos de indias.
jfdeza
Pues para mí el único culpable aquí es el conductor de seguridad que para eso está, para cuando el sistema falla. Si estás viendo netflix mientras un coche autónomo en pruebas, al que tienes que controlar, conduce no estás haciendo tu trabajo y eres 100% responsable del fallo de ese coche. Punto.
Por otra parte lo que se ve en la cámara como se dice no es lo que ve una persona así que no sirve como prueba de que una persona no lo hubiese evitado. La cámara lo que hace es exponer para que lo hay donde está enfocando (la zona donde alumbran los focos) se vea correctamente por lo que el resto va a dar la impresión de que se aprecia oscurísimo. El ojo humano (más bien el cerebro) es capaz de unir una buena exposición de la zona con luz y una decente exposición de la zona oscura. Cualquiera que haya conducido de noche por una nacional a oscuras sabe que la parte que no alumbras no se ve bien pero no se ve un negro absoluto como en las imágenes. Además si veis las fotos de después del accidente se ve que la zona está suficientemente iluminada como para ver a los lados desde dentro. A no ser que como digo estés viendo la tablet del coche (como parece en el vídeo del accidente) y tus ojos no estén preparados para la oscuridad en un vistazo rápido.