Wayve presenta LINGO-1 Un nuevo modelo de IA que puede comentar escenas de conducción y responder preguntas.
Wayve presenta LINGO-1, un modelo de IA que comenta escenas de conducción y responde preguntas.
La detección y el diagnóstico son imperativos para mejorar la eficiencia, seguridad y estabilidad de la operación de los vehículos. En los últimos años, numerosos estudios han investigado enfoques basados en datos para mejorar el proceso de diagnóstico de los vehículos utilizando los datos disponibles del vehículo, y se emplean diversos métodos basados en datos para mejorar las interacciones con los agentes de servicio al cliente.
El lenguaje natural desempeña un papel crucial en los sistemas de conducción autónoma en la interacción humano-vehículo y en la comunicación del vehículo con los peatones y otros usuarios de la vía. Es esencial para garantizar la seguridad, la experiencia del usuario y la interacción efectiva entre los seres humanos y los sistemas autónomos. El diseño debe ser claro, consciente del contexto y fácil de usar para mejorar la experiencia de conducción autónoma.
La empresa de tecnología de conducción autónoma Wayve utiliza el aprendizaje automático para resolver los desafíos de la conducción autónoma, eliminando la necesidad de pilas robóticas costosas y complejas que requieren mapas altamente detallados y reglas programadas. Han lanzado un comentarista de conducción en bucle abierto llamado LINGO – 1. Esta tecnología aprende de la experiencia para conducir en cualquier entorno y nuevos lugares sin programación explícita.
LINGO-1 permite a los usuarios participar en conversaciones significativas al permitirles cuestionar opciones y obtener información sobre la comprensión de la escena y la toma de decisiones. Puede responder preguntas sobre diversas escenas de conducción y aclarar qué factores afectaron su decisión de conducción. Este diálogo único entre los pasajeros y los vehículos autónomos podría aumentar la transparencia, facilitando que las personas comprendan y confíen en estos sistemas.
- Investigadores de CMU proponen la adaptación en tiempo de prueba co...
- Entrenando a un Agente para Dominar el Tic-Tac-Toe a través de Auto...
- ChatGPT Análisis avanzado de datos para gráficos personalizados de ...
LINGO-1 puede convertir las entradas de datos de cámaras y radares en salidas de conducción como girar el volante o frenar. Las decisiones de la red neuronal se prueban exhaustivamente en cuanto a rendimiento y se integran de manera robusta para garantizar la seguridad de los usuarios. LINGO-1 se entrena con un conjunto de datos escalable y diverso que incorpora datos de imagen, lenguaje y acciones recopilados de los conductores expertos mientras comentan mientras conducen por el Reino Unido.
LINGO-1 puede realizar diversas actividades como frenar en los semáforos, cambiar de carril, detenerse en una intersección al notar la presencia de otros automóviles, analizar las acciones que eligen otros usuarios de la vía y mucho más. En comparación con el rendimiento a nivel humano, LINGO-1 tiene una precisión del 60%. Los resultados se basaron en las pruebas que midieron su capacidad de razonamiento, respuesta a preguntas sobre diversas percepciones y habilidades de conducción.
LINGO-1 también cuenta con un mecanismo de retroalimentación que mejora la capacidad del modelo para adaptarse y aprender a partir de la retroalimentación humana. Al igual que un instructor de manejo que guía a un conductor estudiante, las instrucciones correctivas y la retroalimentación del usuario podrían refinar la comprensión del modelo y los procesos de toma de decisiones con el tiempo. En resumen, se puede concluir que es un primer paso esencial para mejorar el aprendizaje y la explicabilidad de los modelos de conducción fundamentales utilizando el lenguaje natural.