Para mejorar la seguridad de los sistemas autónomos, los ingenieros del MIT han desarrollado un sistema que puede detectar pequeños cambios en las sombras en el suelo para determinar si hay un objeto en movimiento a la vuelta de la esquina.
Los automóviles autónomos algún día podrían usar el sistema para evitar rápidamente una posible colisión con otro automóvil o peatón que emerge de la esquina de un edificio o entre los automóviles estacionados. En el futuro, los robots que puedan navegar por los pasillos de los hospitales para hacer entregas de medicamentos o suministros podrían usar el sistema para evitar golpear a las personas.
En un documento que se presentará en la Conferencia Internacional sobre Robots y Sistemas Inteligentes (IROS) de la próxima semana, los investigadores describen experimentos exitosos con un automóvil autónomo que circula por un estacionamiento y una silla de ruedas autónoma que navega por los pasillos. Al detectar y detenerse ante un vehículo que se aproxima, el sistema basado en automóvil supera al LiDAR tradicional, que solo puede detectar objetos visibles, en más de medio segundo.
Puede que no parezca mucho, pero las fracciones de segundo importan cuando se trata de vehículos autónomos de movimiento rápido, dicen los investigadores.
“Para aplicaciones en las que los robots se mueven en entornos con otros objetos o personas en movimiento, nuestro método puede dar al robot una advertencia temprana de que alguien se acerca a la esquina, de modo que el vehículo pueda reducir la velocidad, adaptar su camino y prepararse con anticipación para evitar una colisión”, agrega la coautora Daniela Rus, directora del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) y profesora Andrew y Erna Viterbi de Ingeniería Eléctrica y Ciencias de la Computación. "El gran sueño es proporcionar una especie de 'visión de rayos X' a los vehículos que se mueven rápido en las calles".
Actualmente, el sistema solo se ha probado en entornos interiores. Las velocidades robóticas son mucho más bajas en interiores y las condiciones de iluminación son más consistentes, lo que facilita que el sistema detecte y analice las sombras.
Junto a Rus en el artículo están: el primer autor Felix Naser SM '19, ex investigador de CSAIL; Alexander Amini, estudiante de posgrado de CSAIL; Igor Gilitschenski, un postdoctorado de CSAIL; la recién graduada Christina Liao '19; Guy Rosman del Instituto de Investigación de Toyota; y Sertac Karaman, profesor asociado de aeronáutica y astronáutica en el MIT.
Extendiendo ShadowCam
Para su trabajo, los investigadores se basaron en su sistema, llamado "ShadowCam", que utiliza técnicas de visión por computadora para detectar y clasificar cambios en las sombras en el suelo. Los profesores del MIT William Freeman y Antonio Torralba, que no son coautores del artículo de IROS, colaboraron en las versiones anteriores del sistema, que se presentaron en conferencias en 2017 y 2018.
Para la entrada, ShadowCam usa secuencias de cuadros de video de una cámara que apunta a un área específica, como el piso frente a una esquina. Detecta cambios en la intensidad de la luz a lo largo del tiempo, de una imagen a otra, que pueden indicar que algo se aleja o se acerca. Algunos de esos cambios pueden ser difíciles de detectar o invisibles a simple vista y pueden estar determinados por diversas propiedades del objeto y el entorno. ShadowCam calcula esa información y clasifica cada imagen como que contiene un objeto estacionario o uno dinámico en movimiento. Si llega a una imagen dinámica, reacciona en consecuencia.
Adaptar ShadowCam para vehículos autónomos requirió algunos avances. La primera versión, por ejemplo, se basaba en cubrir un área con etiquetas de realidad aumentada llamadas "Etiquetas de abril", que se asemejan a códigos QR simplificados. Los robots escanean AprilTags para detectar y calcular su posición y orientación 3D precisas en relación con la etiqueta. ShadowCam usó las etiquetas como características del entorno para concentrarse en parches específicos de píxeles que pueden contener sombras. Pero modificar entornos del mundo real con AprilTags no es práctico.
Los investigadores desarrollaron un proceso novedoso que combina el registro de imágenes y una nueva técnica de odometría visual. A menudo utilizado en la visión por computadora, el registro de imágenes esencialmente superpone varias imágenes para revelar variaciones en las imágenes. El registro de imágenes médicas, por ejemplo, se superpone a los escaneos médicos para comparar y analizar las diferencias anatómicas.
La odometría visual, utilizada para Mars Rovers, estima el movimiento de una cámara en tiempo real mediante el análisis de la pose y la geometría en secuencias de imágenes. Los investigadores emplean específicamente "Odometría dispersa directa" (DSO), que puede calcular puntos característicos en entornos similares a los capturados por AprilTags. Esencialmente, DSO traza las características de un entorno en una nube de puntos 3D, y luego una canalización de visión por computadora selecciona solo las características ubicadas en una región de interés, como el piso cerca de una esquina. (Las regiones de interés se anotaron manualmente de antemano).
Como ShadowCam toma secuencias de imágenes de entrada de una región de interés, utiliza el método de registro de imágenes DSO para superponer todas las imágenes desde el mismo punto de vista del robot. Incluso cuando un robot se está moviendo, puede concentrarse exactamente en el mismo parche de píxeles donde se encuentra una sombra para ayudarlo a detectar cualquier desviación sutil entre las imágenes.
El siguiente es la amplificación de la señal, una técnica presentada en el primer artículo. Los píxeles que pueden contener sombras obtienen un aumento de color que reduce la relación señal-ruido. Esto hace que las señales extremadamente débiles de los cambios de sombra sean mucho más detectables. Si la señal aumentada alcanza cierto umbral, basado en parte en cuánto se desvía de otras sombras cercanas, ShadowCam clasifica la imagen como "dinámica". Dependiendo de la fuerza de esa señal, el sistema puede indicarle al robot que disminuya la velocidad o se detenga.
“Al detectar esa señal, puedes tener cuidado. Puede ser la sombra de una persona corriendo detrás de la esquina o un automóvil estacionado, por lo que el automóvil autónomo puede reducir la velocidad o detenerse por completo”, dice Naser.
Pruebas sin etiquetas
En una prueba, los investigadores evaluaron el rendimiento del sistema en la clasificación de objetos estacionarios o en movimiento utilizando AprilTags y el nuevo método basado en DSO. Una silla de ruedas autónoma se dirigió hacia varias esquinas de los pasillos mientras los humanos doblaban la esquina hacia el camino de la silla de ruedas. Ambos métodos lograron la misma precisión de clasificación del 70 por ciento, lo que indica que ya no se necesitan AprilTags.
En una prueba separada, los investigadores implementaron ShadowCam en un automóvil autónomo en un estacionamiento, donde los faros estaban apagados, imitando las condiciones de conducción nocturna. Compararon los tiempos de detección de automóviles con los de LiDAR. En un escenario de ejemplo, ShadowCam detectó que el automóvil giraba alrededor de los pilares aproximadamente 0,72 segundos más rápido que LiDAR. Además, debido a que los investigadores ajustaron ShadowCam específicamente a las condiciones de iluminación del garaje, el sistema logró una precisión de clasificación de alrededor del 86 por ciento.
A continuación, los investigadores están desarrollando aún más el sistema para que funcione en diferentes condiciones de iluminación interior y exterior. En el futuro, también podría haber formas de acelerar la detección de sombras del sistema y automatizar el proceso de anotar áreas específicas para la detección de sombras.
Este trabajo fue financiado por el Instituto de Investigación de Toyota.
Este artículo ha sido elaborado tomando el MIT como fuente.