De la generación procedimental al determinismo: enfoques para modelar datos sintéticos para automóviles autónomos

imagen



Las simulaciones son fundamentales para acelerar el desarrollo de métodos de diseño en muchas industrias. En el campo de los sistemas de conducción autónoma de automóviles, las simulaciones se utilizan tradicionalmente para probar la planificación y los algoritmos de control de movimiento. Se están utilizando simulaciones repetidas para desarrollar sistemas de reconocimiento en los que los datos de los sensores de tráfico se registran y reproducen utilizando una variedad de pilas de software de verificación del rendimiento. Sin embargo, estas simulaciones se limitaron principalmente a escenarios encontrados en automóviles reales.



Existe otro tipo de simulación que se está volviendo cada vez más importante: la generación de datos artificiales de alta calidad que transmiten con precisión información sobre situaciones reales de tráfico. El problema de utilizar exclusivamente datos de carreteras es que deben recopilarse y mapearse grandes cantidades de datos para acercarse a los límites de los módulos de reconocimiento en diversas áreas operativas. Además, los algoritmos de reconocimiento dejan de corresponder a los datos disponibles y fallan cuando se trabaja fuera del entorno laboral y en otras condiciones. A su vez, los datos sintéticos se pueden crear de forma rápida y económica, y sus descripciones se generan automáticamente utilizando conocimientos básicos del entorno simulado.



Problemas de generar datos sintéticos para módulos perceptivos



Aunque la tarea del modelado de datos sintéticos para sensores parece simple y obvia, en realidad es muy difícil. Además de crear entornos sintéticos realistas para diferentes regiones (por ejemplo, San Francisco o Tokio), modelar cada tipo de sensor requiere un conocimiento detallado de las propiedades físicas subyacentes y las características de los diversos sensores utilizados en la industria. Además, aunque las simulaciones pueden ser significativamente más lentas para otras aplicaciones que en tiempo real, la mayoría de los algoritmos de conducción sin conductor requieren un rendimiento casi en tiempo real. Por lo tanto, se requieren diferentes niveles de rendimiento y precisión de la simulación en diferentes casos de uso.



Aunque se realizan esfuerzos importantes para modelar cada uno de los sensores, los expertos esperan que en un futuro cercano haya una brecha notable entre los datos reales y sintéticos. Los algoritmos de percepción se pueden entrenar con datos reales de sensores y probar con datos sintéticos (transición de datos reales a sintéticos) y viceversa (transición de datos sintéticos a reales), y los algoritmos de diferentes tipos funcionarán de diferentes maneras. Este problema no se limita a los datos de simulación. Es probable que los algoritmos de percepción con un conjunto específico de sensores entrenados en las carreteras de California funcionen peor con un conjunto diferente de sensores. Además, es posible que este algoritmo no funcione bien cuando se prueba en carreteras de otras regiones.



imagen



Figura: Paso 1: prueba de sistemas de percepción en datos sintéticos



Creación de entornos sintéticos 3D



Se han desarrollado muchos enfoques para crear entornos como resultado de décadas de trabajo en la industria del entretenimiento. Sin embargo, existen diferencias significativas entre las industrias de conducción autónoma y entretenimiento. Si bien existen altas demandas de fotorrealismo en ambas áreas, existen requisitos adicionales para los entornos de vehículos autónomos: deben crearse de forma económica y rápida (mientras que en la industria del entretenimiento puede llevar meses), deben ser extremadamente realistas (como para el ojo humano y para sensores) y variable, y también debería admitir muchos casos de prueba.



Por lo general, los entornos 3D se crean a mano: el artista 3D crea activos y los coloca en el mundo creado. Este enfoque produce resultados fotorrealistas y es ideal para demostraciones. Sin embargo, debido a su naturaleza manual, no se escala para crear regiones virtuales de todo el mundo y no permite tantos entornos virtuales como se requieren para probar vehículos no tripulados. Así, nos enfrentamos a las limitaciones de los entornos virtuales.



Un enfoque alternativo es utilizar técnicas de escaneo del mundo real para garantizar que el entorno construido coincida con su patrón. La desventaja de este método es que los datos en el mundo real a menudo tienen muchos errores e inexactitudes. Dado que la iluminación se hornea y el material no se puede determinar a partir de la superficie, las cámaras y lidars solo proporcionan datos aproximados. Además, el entorno puede contener espacios, descripciones incorrectas y objetos en movimiento que deben eliminarse. Además, este método presenta importantes requisitos de recursos para el almacenamiento y el cálculo de datos, y solo puede simular aquellas áreas que se encuentran en la vida real.



Un enfoque relativamente nuevo es la creación de mundos virtuales basados ​​en la generación de procedimientos. De esta manera, se pueden crear rápidamente grandes áreas y ciudades basadas en una variedad de datos de entrada, lo que da como resultado la creación del mundo utilizando métodos matemáticos (Fig. 2). También le permite especificar muchos entornos diferentes para evitar el sobreajuste. Los parámetros como la hora del día o el clima se pueden cambiar siempre que las anotaciones sean precisas. En general, se pueden crear nuevos mapas en una fracción del tiempo que se tarda en crear entornos virtuales manualmente. La complejidad de este enfoque radica en garantizar la creación de alta calidad de objetos del mundo real sin ediciones manuales.



imagen



Figura: 2: edificios generados por procedimientos de alta definición



Simulación de sensor precisa



Al generar datos sintéticos, los entornos de los que hablamos anteriormente se utilizan como datos de entrada para los sensores. Estos sensores deben poder simular estimaciones de profundidad lidar, características de formación de haz de radar digital y fuentes de ruido en las cámaras. Al mismo tiempo, estos sensores deben ser lo suficientemente potentes para realizar pruebas de software y hardware o trabajar con aplicaciones de aprendizaje automático que requieren grandes cantidades de datos.



Aunque se asume que un sensor puede manejar cientos o miles de condiciones y topologías diferentes, en última instancia, todas deben obedecer los mismos principios fundamentales de la transferencia de energía y la teoría de la información. Una estructura de simulación de sensor bien pensada puede proporcionar flexibilidad a la estructura utilizada en diferentes entornos. Esta filosofía fundamental se basa en el deseo de transferir las herramientas para el desarrollo de sistemas electro-ópticos y sistemas de procesamiento de señales del mundo del diseño de sensores al mundo de la tecnología de simulación y detección.



Incluso si un sistema está bien pensado desde un punto de vista teórico, es tan valioso como puede capturar las propiedades de su contraparte del mundo real. El grado de correlación entre la realidad y el modelo depende en gran medida de los casos de uso. En escenarios simples, una simple tabla dinámica de datos puede ser suficiente, mientras que en otros casos puede ser necesaria una evaluación estadística cuantitativa de varias propiedades y características; esto generalmente implica una combinación de experimentos de laboratorio y de campo para determinar propiedades específicas del sensor. Por lo tanto, la simulación del rendimiento del sensor (y la precisión de esa simulación) puede verse como una ciencia en la que se toma un punto de referencia y luego se degrada progresivamente.



imagen



Figura: 3: simulación de un lidar giratorio con 128 láseres



Eficiencia y repetibilidad de datos sintéticos



Hay dos aspectos que limitan la usabilidad de los datos sintéticos: la eficiencia y la repetibilidad. Por diversas razones, el mayor desafío en la simulación de sensores para sistemas autónomos es la precisión que se puede lograr dentro de los requisitos de procesamiento en tiempo real. La precisión y el rendimiento también están estrechamente relacionados con la escalabilidad de las generaciones de sensores sintéticos. Para crear una solución escalable, se vuelve cada vez más importante utilizar recursos en paralelo.



Esta coordinación de recursos naturalmente nos lleva al tema de la repetibilidad. Para que la paralelización sea beneficiosa, se debe lograr un equilibrio entre el modelado paralelo y no paralelo. El determinismo es un componente clave que permite a los ingenieros probar cambios en sus algoritmos de forma aislada mientras aprovechan una variedad de capacidades de modelado.



Simulación de sensores: adaptación a casos especiales



Una vez que se hayan creado los métodos para desarrollar entornos y sensores, surgirá la siguiente pregunta: ¿los datos sintéticos obtenidos son suficientes para todos los casos de uso? Los casos de uso pueden variar según el grado de disponibilidad del software, desde validar la ubicación del sensor utilizando datos sintéticos hasta probar los sistemas de producción finales antes de implementarlos.



Cada caso de uso tiene diferentes requisitos para los niveles de precisión del modelo. Estos niveles de precisión gobiernan los procesos de verificación y validación. La verificación describe el proceso de determinar la conformidad del modelo resultante y la especificación original (¿logramos crear lo que planeamos originalmente?). La verificación también está relacionada con la definición de determinismo (¿los resultados del modelo se reproducen cada vez en las mismas condiciones?) En la validación ocurre lo contrario: para determinar si el modelo satisface las necesidades de la aplicación de destino, se tienen en cuenta los requisitos del usuario final. En algunos casos, es aceptable incluso utilizar una aproximación aproximada al modelo físico subyacente al sensor. Sin embargo, los casos de uso de pruebas de producción requieren modelos de sensores sintéticos que se hayan probado en condiciones de laboratorio,y en la vida real, esto es necesario para garantizar el cumplimiento preciso de los niveles aceptables de incertidumbre.



El problema de evaluar modelos de sensores también es más difícil que simplemente verificar el nivel de la señal de salida. Si bien esto es cierto para muchas tecnologías sensoriales en sistemas de conducción autónoma, el usuario final también está interesado en hacer que los modelos de percepción funcionen de manera eficiente con datos tanto sintéticos como reales. Estos modelos pueden basarse en la visión por computadora o crearse utilizando una variedad de técnicas de aprendizaje automático y aprendizaje profundo. En estos casos de uso, se desconocen las fuentes de la incertidumbre (en caso de que el modelo del sensor no sea completamente confiable).



Enfoque de intuición aplicada



Applied Intuition ha desarrollado una herramienta de simulación del sistema de percepción desde cero para resolver los problemas descritos anteriormente. Esta herramienta incluye herramientas para crear entornos a gran escala, desarrollar sensores con múltiples niveles de precisión y permitir pruebas basadas en casos de uso. La generación de entornos de procedimiento se realiza a través de una canalización única que es flexible en términos de áreas geográficas, aplicaciones de conducción autónoma y fuentes de datos.










imagen



Vacantes
, , , - .



, , , .



, , . , , , , , .



, , .







Sobre ITELMA
- automotive . 2500 , 650 .



, , . ( 30, ), -, -, - (DSP-) .



, . , , , . , automotive. , , .





All Articles