Como la luz se ve diferente en la Luna y lo que la NASA está haciendo al respecto

Créditos: NASA / Uland Wong

Las cosas parecen diferentes en la Luna.

Debido a que la Luna no es lo suficientemente grande para mantener una atmósfera significativa, no hay aire y no hay partículas en el aire para reflejar y dispersar la luz del sol. En la Tierra, las sombras en ambientes por lo demás brillantes están débilmente iluminadas con la luz indirecta de estas pequeñas reflexiones. Que la iluminación proporciona suficiente detalle que nos dan una idea de las formas, agujeros y otras características que podrían ser obstáculos para alguien - o algún robot - tratando de maniobrar en la sombra.

"Lo que se obtiene en la Luna son sombras oscuras y regiones muy brillantes que son iluminadas directamente por el Sol - los pintores italianos en el período barroco lo llamaron claroscuro - alternando luz y oscuridad", dijo Uland Wong, un informático de la NASA Ames Research Centro en Silicon Valley. "Es muy difícil ser capaz de percibir algo para un robot o incluso un ser humano que necesita analizar estas imágenes, porque las cámaras no tienen la sensibilidad para poder ver los detalles que necesita para detectar una roca o un cráter. "

Además, el polvo que cubre la Luna es de otro mundo. La forma en que la luz se refleja en la forma dentada de los granos individuales, junto con la uniformidad del color, significa que se ve diferente si está iluminado desde diferentes direcciones. Pierde textura con diferentes ángulos de iluminación.

Algunos de estos desafíos visuales son evidentes en las imágenes de la superficie de misión de Apolo, pero las primeras misiones lunares en su mayoría esperaron hasta la "tarde" lunar para que los astronautas pudieran explorar con seguridad la superficie en condiciones bien iluminadas.

Los futuros exploradores lunares pueden dirigirse a las regiones polares inexploradas de la Luna para perforar el hielo de agua y otros volátiles que son esenciales, pero pesados, para asumir misiones de exploración humana. En los polos de la luna, el Sol está siempre cerca del horizonte y las sombras largas ocultan muchos peligros potenciales en terreno como rocas y cráteres. La oscuridad pura es un reto para los robots que necesitan usar sensores visuales para explorar la superficie con seguridad.

Wong y su equipo en el Grupo de Robótica Inteligente de Ames están abordando esto recopilando datos reales de la simulación del suelo lunar y la iluminación.

"Estamos construyendo estos ambientes analógicos aquí y encendiéndolos como si miraran a la Luna con simuladores solares, para crear este tipo de condiciones de apariencia", dijo Wong. "Utilizamos muchas técnicas de imagen tridimensionales y usamos sensores para crear algoritmos que ayudan al robot a salvaguardarse en estos entornos y nos capacitan a la gente para que lo interprete correctamente y le ordene a un robot a dónde ir".

El equipo utiliza un laboratorio de pruebas "Lunar Lab" en Ames - una caja de arena de 12 pies cuadrados que contiene ocho toneladas de JSC-1A, un simulador de suelo lunar artificial. Cráteres, ondulaciones superficiales y obstáculos se forman con herramientas de mano, y se añaden rocas al terreno para simular campos de roca o obstáculos específicos. Luego se empolvan el terreno y las rocas con una capa adicional de simulante para producir la capa superior "mullida" del suelo lunar, borrando la pala y las marcas del pincel y extendiendo una fina capa sobre las caras de las rocas. Cada diseño del terreno en el banco de pruebas es generado por estadísticas basadas en características comunes observadas desde naves espaciales alrededor de la Luna.

Las luces del simulador solar se configuran alrededor del terreno para crear una iluminación de alto contraste y bajo contraste de ángulo lunar. Dos cámaras, llamadas par de imágenes estéreo, imitan cómo los ojos humanos se separan para ayudarnos a percibir la profundidad. El equipo capturó fotografías de múltiples configuraciones de pruebas y ángulos de iluminación para crear un conjunto de datos para informar a la futura navegación del rover.

"Pero sólo se puede palear tanta suciedad, también estamos utilizando el renderizado basado en la física, y estamos tratando de recrear la iluminación de forma fotorrealista en estos entornos", dijo Wong. "Esto nos permite usar un superordenador para hacer un montón de imágenes usando modelos en los que tenemos confianza decente, y esto nos da mucha más información de la que tomaríamos fotografías en un laboratorio con tres personas, por ejemplo".

El resultado, una Reconstrucción Analógica Lunar Óptica Polar o un conjunto de datos POLAR, proporciona información estándar para que los diseñadores y programadores rover desarrollen algoritmos y configuren sensores para navegar con seguridad. El conjunto de datos POLAR es aplicable no sólo a nuestra Luna, sino a muchos tipos de superficies planetarias en cuerpos sin aire, incluyendo Mercurio, asteroides y lunas cubiertas de regolito como Phobos de Marte.

Hasta ahora, los primeros resultados muestran que la imagen estéreo es prometedora para su uso en rovers que explorarán los polos lunares.

"Uno de los conceptos de misión que está en desarrollo en este momento, Resource Prospector , que tengo el privilegio de trabajar, podría ser la primera misión para aterrizar un robot y navegar en las regiones polares de la Luna", dijo Wong. "Y para hacer eso, tenemos que averiguar cómo navegar donde nadie ha estado nunca."

Esta investigación es financiada por los sistemas avanzados de la exploración de la agencia y los programas cambiantes del desarrollo del juego. El Instituto Virtual de Investigación de Exploración de la Sistema Solar de la NASA provee las instalaciones del laboratorio y soporte operacional.


NASA

Publicar un comentario

0 Comentarios