Mochis NoticiasCienciaEste robot volador puede buscar edificios después de un desastre
Mochis NoticiasCienciaEste robot volador puede buscar edificios después de un desastre
Ciencia

Este robot volador puede buscar edificios después de un desastre

Este robot volador puede buscar edificios después de un desastre

Los investigadores del Instituto de Robótica han desarrollado un nuevo método para la exploración de robots aéreos autónomos y la coordinación de múltiples robots dentro de un edificio abandonado. Crédito: Carnegie Mellon.


Los investigadores han desarrollado un nuevo método para la exploración de robots aéreos autónomos y la coordinación de múltiples robots dentro de un edificio abandonado.

Puede ayudar a los socorristas a recopilar información y tomar decisiones mejor informadas después de un desastre.

Se estima que alrededor de 100 terremotos en todo el mundo causan daños cada año. Este daño incluye edificios derrumbados, líneas eléctricas caídas y más. Para los socorristas, evaluar la escena y centrar los esfuerzos de rescate puede ser crítico y arriesgado.

«Una idea clave de esta investigación fue evitar la redundancia en la exploración», dice Seungchan Kim, estudiante de doctorado en el Instituto de Robótica de la Universidad Carnegie Mellon. “Dado que se trata de una exploración multirobot, la coordinación y comunicación entre los robots es vital. Diseñamos este sistema para que cada robot explore diferentes salas y maximice las salas que un número determinado de drones puede explorar».

Los drones se centran en detectar rápidamente puertas porque es más probable que objetivos importantes, como personas, se encuentren en habitaciones que en pasillos. Para encontrar estas entradas específicas, los robots procesan las propiedades geométricas de su entorno utilizando un sensor lidar integrado.

Flotando lentamente a unos seis pies del suelo, los robots aéreos transforman los datos de la nube de puntos LIDAR 3D en un mapa de transformación 2D. Este mapa proporciona el diseño del espacio como una imagen compuesta de celdas o píxeles, que luego los robots analizan en busca de indicaciones estructurales que signifiquen puertas y habitaciones.

Las paredes aparecen como píxeles ocupados cerca del dron, mientras que una puerta o pasillo abierto aparece como píxeles vacíos. Los investigadores modelaron las puertas como puntos de silla, lo que permitió al robot identificar pasajes y moverse a través de ellos rápidamente. Cuando un robot entra en una habitación, aparece como un círculo.

Kim explica que los investigadores eligieron un sensor lidar en lugar de una cámara por dos razones principales. En primer lugar, el sensor utiliza menos potencia informática que una cámara. En segundo lugar, las condiciones dentro de un edificio derrumbado o en el lugar de un desastre natural pueden ser polvorientas o llenas de humo, lo que dificulta la visión con una cámara tradicional.

Ninguna base centralizada controla los robots. Más bien, cada robot toma decisiones y determina las mejores trayectorias basándose en su comprensión del entorno y la comunicación con los demás robots. Los robots aéreos comparten entre sí la lista de puertas y habitaciones que han explorado y utilizan esta información para evitar áreas que ya han visitado.

El equipo presentó su investigación el mes pasado en la Conferencia Internacional IEEE 2024 sobre Robótica y Automatización.

Kim planea continuar investigando la exploración de múltiples robots y la comprensión de escenas semánticas para la exploración de múltiples robots y la coordinación de tareas.

Investigadores adicionales de Carnegie Mellon y la Universidad Tecnológica de Sydney contribuyeron al trabajo.

Fuente: Universidad Carnegie Mellon.


Source link

Hi, I’m Conchita Garcia

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *