Cargando el contenido...

2018-03-29    16:50:01

Ven conveniencia de validar seguridad para vehículos autónomos

México, 29 Mar (Notimex).- El vicepresidente ejecutivo de Intel Corporation y director general y de Tecnología de MobilEye de Intel, Amnon Shashua, destacó la necesidad de establecer diálogos sobre un marco de validación de la seguridad para vehículos totalmente autónomos.

Tras el accidente en Arizona, Estados Unidos, en donde un vehículo Uber autónomo atropelló a una mujer en días pasados, el especialista invitó a los fabricantes de automóviles, a las compañías tecnológicas del campo, a las autoridades reguladoras y a otras partes interesadas "a organizarse para poder resolver juntos estos importantes temas".

Ello, en virtud de que hoy en día la sociedad espera que los vehículos autónomos tengan un estándar más elevado que los conductores humanos.

A raíz de la muerte trágica de Elaine Herzberg, luego de haber sido atropellada por un vehículo autónomo, “parece que es el momento adecuado para hacer algunas observaciones sobre el significado de la seguridad con respecto a la detección y la toma de decisiones”, consideró.

En comunicado, el directivo de Intel se refirió a los acontecimientos y dijo que el video que emitió la policía parece demostrar que incluso el componente más básico de un vehículo autónomo, la capacidad de detectar y clasificar objetos, es una tarea hoy desafiante.

No obstante, esta capacidad es uno de los aspectos fundamentales de los actuales sistemas avanzados de asistencia al conductor (ADAS, por sus siglas en inglés), que comprenden funciones como frenado de emergencia automático (AEB, por sus siglas en inglés) y apoyo para cambio de carril.

Explicó que los sistemas de detección de alta precisión dentro de ADAS son los que están salvando vidas hoy, probados en miles de millones de kilómetros recorridos y es la misma tecnología que se necesita, incluso antes de abordar retos más difíciles como elemento fundamental de los vehículos totalmente autónomos del futuro.

Para demostrar el poder y la sofisticación de la tecnología ADAS actual en MobilEye de Intel, ejecutaron su software en un video proyectado desde un monitor de televisión que transmitía el video policiaco del incidente.

A pesar de las condiciones poco óptimas, donde gran parte de los datos de alto rango dinámico que estarían presentes en la escena real probablemente se habrían perdido, se logró una clara detección aproximadamente un segundo antes del impacto.

Demostraron en las imágenes obtenidas que las detecciones de cuadros delimitadores en la bicicleta y en la señora Herzberg provienen de dos fuentes diferentes: reconocimiento de patrones, que genera los cuadros delimitadores y un módulo de detección de “espacio libre” en donde hay una sección que indica que el “usuario de la vía pública” está presente arriba de la línea.

Un tercer módulo muestra la poca confianza del objeto, que se debió a la información faltante que normalmente está disponible en un vehículo de producción, y la configuración de imágenes de baja calidad por tomar el video de  una cámara del tablero del automóvil que se sometió a un submuestreo desconocido.

Shashua refirió que el software que se usa para ese experimento es el mismo que se incluye en los vehículos actuales equipados con ADAS, que han sido probados en miles de millones de kilómetros en manos de los consumidores.

Los avances recientes en inteligencia artificial, como las redes neuronales profundas, han llevado a muchos a creer que ahora es fácil desarrollar un sistema de detección de objetos muy preciso y que debe dejarse a un lado la experiencia de más de una década de expertos actuales en visión artificial.

Esta dinámica ha dado como resultado muchos nuevos participantes en el campo. Aun cuando estas técnicas son útiles, el legado de identificar y cerrar cientos de casos límite, anotar conjuntos de datos de decenas de millones de kilómetros y pasar por pruebas de validación de preproducción desafiantes en docenas de programas ADAS de producción, no pueden pasarse por alto, aseveró.

Observó que la verdadera redundancia del sistema de percepción debe basarse en fuentes de información independiente como cámara, radar y LIDAR, en donde fusionarlas es bueno para una conducción confortable, pero es malo para la seguridad.

“En MobilEye, para mostrar realmente que obtenemos verdadera redundancia, construimos un sistema de cámara de extremo a extremo por separado, y un sistema LIDAR y de radar por separado”, manifestó.

Aseveró que más incidentes como el que sucedió la semana pasada podrían dañar más la confianza ya frágil de los consumidores y promover una regulación reactiva que podría reprimir este importante trabajo, por lo que “este es el momento para tener una conversación significativa sobre un marco de validación de la seguridad para vehículos totalmente autónomos”.




NTX/DDG/AGO/AUTOS17
CONTENIDO RELACIONADO