DIRECCIÓN DE INFRAESTRUCTURA DE DATOS ESPACIALES

¿Qué es un Drone?

Los drones son una herramienta extremadamente útil para el control de incendios forestales, la geología, la agricultura, la construcción, y el control y análisis de tráfico en las grandes ciudades, entre muchas otras tareas, ya que los drones son muy económicos en su operación, prácticamente no requieren de insumos o combustibles y no ponen en peligro las vidas de quienes lo pilotean.

Pero además el propio drone tiene un valor por lo menos 60 veces inferior a un helicóptero. En este sentido, la flexibilidad y la posibilidad de poder controlar a este ingenio a distancia manteniéndose su operador fuera de peligro, es la respuesta adecuada a este tipo de situaciones.

Los drones como se los conoce comúnmente, también son llamados VANT (Vehículos Aéreos No Tripulados).

Volar un drone: Aspectos legales

El vuelo de drones está regulado en Argentina por la  Administración Nacional de Aviación Civil (ANAC) ente que dictaminó la forma en que los drones deben ser utilizados. Es por ello que el volar un dispositivo de este tipo en ciertos casos exige controles psicofísicos y de alcoholemia obligatorios realizados en hospital público, y que incluyen controles de agudeza visual, auditiva y de motricidad. Asimismo, quien opere un drone, deberá tener al menos 16 años de edad.

Además, establece una calificación de acuerdo al tamaño de los vehículos, que va desde los drones pequeños con hasta 10 kilogramos de peso sin carga, la categoría drones medianos, hasta los 150 Kg. y finalmente la categoría drones grandes, con más de 150 kilogramos de peso sin carga.

También el ente gubernamental divide la actividad de los drones en recreativos y no recreativos, siendo la primera categoría para diversión, esparcimiento, placer o pasatiempo o con fines terapéuticos y sin otra motivación, según reza la norma.

Con respecto al uso no recreativo, la norma se vuelve un poco más estricta, ya que por ejemplo en este tipo de actividades, los drones y sus pilotos deberán tener medidas adecuadas para evitar las interferencias que pudieran descontrolar el vuelo del vehículo, además de una identificación de carácter inalterable fijada al fuselaje. Asimismo, también se deberá contratar un seguro de responsabilidad por los posibles daños a terceros que pudiera ocasionar la operación o el vuelo del drone.

También los pilotos de drones deberán seguir un manual de procedimientos para evitar riesgos y que regule y estandarice como deben ser operados los aparatos. Este manual incluye procedimientos para el despegue y aterrizaje, procedimientos ante la pérdida del enlace de radio control, procedimientos para aborta el vuelo en caso de fallas y otros.

Finalmente, y como no podía ser de otra forma, las regulaciones contemplan el uso de los drones para la fotografía o la filmación de personas o entorno sin el permiso expreso y demás regulaciones relacionadas con la privacidad o las actividades ilícitas.

Desde la Secretaria de Ordenamiento Territorial y Vivienda, así como de la IDEJ nos encontramos en los procesos administrativos de registro del VANT perteneciente a la institución. Como así también a la capacitación y habilitación de los pilotos, que operaran el mismo.

¿Por qué usamos un drone?

En nuestro día a día es indispensable contar con una imagen de la situación actual que posee el territorio provincial, para poder visibilizar diferentes cuestiones de los loteos existentes como así también de las potenciales tierras que podrían convertirse en un nuevo proyecto urbanistico, para ello utilizamos el drone para obtener imágenes actualizadas con el fin de generar Ortomosaicos, que pueden tener una resolución de 2.5cm por pixel, la descripción del procesamiento estará descripto a continuación.

De esta manera se brinda un soporte de imagen para las labores diarias de la Secretaria de Ordenamiento Territorial y Vivienda con la posibilidad de poder ampliar servicios a las dependencias del estado que lo necesiten.

Ortomosaicos y modelos digitales de elevación generados a partir de imágenes tomadas con sistemas VANT

Actualmente, la comunidad fotogramétrica y de percepción remota establece y promueve el uso de los vehículos aéreos no tripulados (VANT) o sistemas UAV (por sus siglas en inglés) como una nueva y confiable alternativa de bajo costo para la adquisición de imágenes aéreas (ISPRS, 2004). Estos sistemas que han sido desarrollados y empleados desde finales de los años cincuenta en el campo militar para tareas de reconocimiento, vigilancia y misiones en territorios hostiles, hoy en día forman parte también de actividades civiles de monitoreo, mediciones atmosféricas, evaluación de daños, agricultura, mapeo y cartografía entre otras (Bendea et al., 2008; Chiabrando, Nex, Piatti y Rinaudo, 2011). Por lo general los sistemas UAV se componen de dos elementos principales: una plataforma aérea, equipada con una cámara y un sistema de navegación, y un centro de control en tierra desde donde se programa y monitorea la actividad aérea. Desde el punto de vista de la fotogrametría y de sensores remotos, las grandes ventajas que estos sistemas ofrecen, en comparación con las plataformas tradicionales como satélites y aviones tripulados, tienen que ver con: la obtención de imágenes de alta resolución espacial y temporal, los bajos costos de adquisición y de operación, el uso en ambientes peligrosos para el ser humano, la ausencia de una tripulación, la respuesta rápida y las pocas restricciones de vuelo en la mayoría de países (Shi, Wang y Xu, 2011; Xiang y Tian, 2011).

Por lo general, las aplicaciones más importantes de sistemas VANT en áreas como la fotogrametría y de percepción remota han sido la generación de productos cartográficos y de modelos tridimensionales. Esto ha sido posible con el aporte de estrategias de procesamiento desarrolladas en áreas como la de visión por computador y de fotogrametría de rango cercano (Hartley y Mundy, 1993).

De acuerdo con esto, se presenta una revisión general de las estrategias que están siendo empleadas para la generación de nubes de puntos, de modelos digitales de elevación y de ortomosaicos a partir del procesamiento de imágenes VANT

RECOLECCIÓN DE DATOS

La recolección de datos para levantamientos de fotogrametría con sistemas VANT consiste en la captura de imágenes aéreas a lo largo de una ruta de vuelo que es ajustada a unos parámetros previamente definidos. En esta sección se lleva a cabo una revisión de las plataformas y sensores, así como de las actividades necesarias para la recolección de datos.

A continuación se presentan las características principales de las plataformas VANT, las ventajas de su uso, los tipos de plataformas existentes, la mención de algunos sensores que están siendo acoplados a las plataformas y las organizaciones asociadas a los sistemas VANT. Más adelante se indican los pasos requeridos en la planeación de un vuelo para la adquisición de imágenes con sistemas VANT.

Vehículos aéreos no tripulados (UAV)

Los vehículos aéreos no tripulados, o sistemas VANT, también llamados UVS (sistema de vehículo no tripulado) o UAS (sistema de aeronave no tripulada), son aeronaves que vuelan autónomamente a través de un sistema de piloto automático que es monitoreado desde un centro de control en tierra (Everaerts, 2008). En el Committee of Standards “Lexicon of UAV/ROA Terminology AIAA (2004) (como se citó en Chiabrando et al., 2011) se define los VANT como

[…] aeronaves que están diseñadas o modificadas para no llevar un piloto humano y que son operadas a través de comandos electrónicos iniciados por el controlador de vuelo o por un sistema de control de gestión de vuelo autónomo a bordo que no requiere la intervención del controlador de vuelo (p. 697).

 

Clasificación de plataformas VANT

Actualmente debido a la gran cantidad de plataformas aéreas consideradas VANT, se presentan diferentes maneras para clasificarlas. Estas pueden ser: por tamaño, por capacidad de carga, por altura de vuelo, por autonomía de vuelo o por tipo de misión, entre otras. En el contexto de la adquisición de datos fotogramétricos una clasificación representativa es la de por tipo de plataforma, ya que esta define la forma de vuelo, y por tanto, las áreas más apropiadas de aplicación. De acuerdo con el tipo de plataforma VANT se presentan dos tipos (figura siguiente): de ala fija o tipo avión (Marenchino, 2009; Vallet, Panissod, Strecha y Tracol, 2012), y multirrotor, de ala rotatoria o tipo helicóptero (Niethammer et al., 2010; Yahyanejad, Quaritsch y Rinner, 2011). Watts, Ambrosia y Hinkley (2012) presentan una revisión amplia de los diferentes modelos de plataformas VANT y el nivel de complejidad de estas, de acuerdo con las áreas de aplicación.

Drone de Ala Fija

Trimble-UX5-Studio_web-700x432

Drone Multirrotordji_cp_hy_000065_matrice_210

Las ventajas que ofrece cada una de las plataformas dependen del caso de uso. Nizam Tahar y Ahmad (2013) compararon el uso de una plataforma VANT de ala fija y una multirrotor en la generación de un modelo digital de pendientes. En esa investigación se determinó que las mayores diferencias son el menor costo de la plataforma multirrotor, y la leve mejora en la precisión de los resultados de esta plataforma, que en la investigación puede estar asociado a la diferencia de altura en la toma de datos (80 m y 320 m para el VANT multirrotor y el de ala fija, respectivamente). En tanto que la plataforma de ala fija presentó un menor consumo de tiempo en las etapas de captura y procesamiento de las imágenes, por lo que para el uso mencionado se puede establecer que las dos plataformas son igualmente apropiadas.

Sin embargo, el modo de vuelo de estas dos plataformas determina que para espacios reducidos, registro fotográfico a baja altura o modelamiento 3D de objetos, las plataformas multirrotor son las apropiadas, mientras que el registro de grandes extensiones y vuelos a mediana y gran altura, las plataformas de ala fija presentan mayores ventajas.

Con respecto a cómo se compone un sistema VANT estándar empleado en actividades fotogramétricas, se pueden definir dos elementos principales: una plataforma aérea y un centro de control en tierra, enlazados a través de una señal de radiocomunicación. La plataforma aérea está equipada generalmente con un sistema de navegación o piloto automático que permite la navegación autónoma, siguiendo una ruta de vuelo predefinida por el usuario desde la estación de control en tierra.

Esta navegación autónoma es posible por medio de la integración de un sistema inercial y un sistema GPS en la plataforma aérea, que permiten conocer la postura y posición de esta durante el vuelo. Esta información es enviada en tiempo real a la estación de control desde donde se realiza el seguimiento de la plataforma. En el caso de la ausencia de un sistema de navegación, el uso de un control remoto es la única manera de dirigir la plataforma aérea, aunque el control remoto también puede servir como complemento del sistema de navegación en momentos como el despegue y descenso del VANT.

Existen plataformas VANT más sofisticadas, actualmente se encuentran sistemas que permiten la vinculación con receptores GNSS  en los que la plataforma se conecta a una estación base en tierra y desde esta se trasmiten datos de corrección de posición a la plataforma, permitiendo que las imágenes capturadas tengan asociada una posición de alta precisión; la inclusión de cámaras multiespectrales, en donde bandas espectrales como el infrarrojo y el infrarrojo cercano son empleadas para agricultura; la transmisión de video en tiempo real o la implementación de cámaras giroestabilizadas y de tipo Gimbal, son distintas tecnologías que van emergiendo y perfeccionándose día a día, permitiendo tener más precisión y calidad en la información recopilada.

Planeación de vuelo y adquisición de imágenes

Esta etapa consiste en definir la región de interés y los parámetros de vuelo para la adquisición de las imágenes. Las plataformas VANT con un sistema de navegación cuentan, en su estación de control en tierra, con un software específico para realizar esta etapa. Independientemente del software y del tipo de plataforma VANT (tipo avión o tipo helicóptero) los pasos que se siguen para la planeación son básicamente los mismos.

En un vuelo en modo autónomo, la planeación inicia con la definición de una región de interés, generalmente dibujada sobre un mapa base georreferenciado (por ejemplo, Google Earth®). Para el caso de un vuelo en modo manual (maniobrado con control remoto), la definición de la región dependerá de la dirección dada a la plataforma aérea con el control remoto por parte del operador de vuelo.

Una vez se define la región de interés, es necesario ingresar los parámetros de vuelo y, a partir de esta información, el software calcula automáticamente las líneas de vuelo. Los parámetros de vuelo requeridos son: la altura de vuelo o alternativamente el GSD (ground sample distance) y los porcentajes de traslape entre imágenes (longitudinal y transversalmente). Para el caso de sistemas VANT los porcentajes de traslape considerados apropiados varían entre 60-80 % o más, según el nivel de detalle requerido. En el caso de la altura de vuelo que está relacionada con el GSD (medido en cm/pixel), alturas grandes generan GSD grandes (menor resolución), mientras que alturas de vuelo bajas generan GSD pequeños (mayor resolución). En la generación de modelos 3D detallados por lo general se requiere de alturas de vuelo bajas y de altos porcentajes de traslape (Nex y Remondino, 2013).

En el caso de vuelos en modo manual, sin sistema de navegación, los valores de altura y porcentajes de traslape quedan a consideración del operador de vuelo a través del control remoto, o a través de la configuración de la cámara para tomar fotos en intervalos de tiempo fijos (Neitzel y Klonowski, 2011).

Adquisición de imágenes

Luego de la etapa de planeación, el siguiente paso es la ejecución del vuelo para la adquisición de las imágenes, esto inicia con el lanzamiento de la plataforma aérea. Las plataformas tipo avión requieren de un lanzamiento manual o por medio de catapultas, mientras que en las plataformas tipo helicóptero o multirrotor el despegue se realiza automáticamente.

Por medio del sistema de navegación la plataforma aérea busca autónomamente el inicio de la ruta de vuelo programada y da inicio a la captura de las imágenes de manera secuencial de acuerdo con los parámetros establecidos. Mientras tanto, en la estación de control en tierra se monitorea el estado del vuelo y de la plataforma a través de información como tiempo de vuelo, nivel de batería, temperatura e intensidad de la señal de comunicación. Igualmente es posible ajustar los parámetros de vuelo en tiempo real.

Otra de las características que se presenta en la adquisición de imágenes con sistemas VANT es la vinculación de cada foto con los valores de posición y orientación, registrados con los sistemas GPS e inercial en el momento de la captura. Esta es información que puede ser utilizada en las etapas posteriores de procesamiento.

Por otra parte, con respecto a las características de las imágenes capturadas, Turner, Lucieer y Watson (2012) hacen mención de las diferencias fundamentales que presentan las imágenes capturadas con sistemas VANT con respecto a las plataformas aéreas tripuladas: la altura de vuelo de los VANT es baja en relación con la variación de altura dentro de la escena registrada, lo que causa grandes distorsiones perspectivas, y por tanto influye negativamente en el ejercicio estereoscópico; la inestabilidad de la plataforma VANT que causa líneas de vuelo irregulares, y como efecto genera áreas de traslape variable entre imágenes, así como grandes variaciones angulares y rotacionales (ángulos en plataformas VANT de hasta 15° con la horizontal, mientras en fotogrametría tradicional el máximo permitido es 3°); y diferencias de escala y de iluminación entre imágenes adyacentes, que dificulta identificar elementos comunes entre ellas.

Debido a estas diferencias, el procesamiento de imágenes VANT debe ser diferente. Por tanto, es necesario implementar estrategias de procesamiento alternativas a las empleadas en fotogrametría tradicional, que tengan en cuenta las características de las imágenes VANT. Algunas de estas estrategias serán presentadas a continuación.

PROCESAMIENTO DE IMÁGENES VANT

El uso de sistemas VANT para fotogrametría, o fotogrametría VANT, como lo define Eisenbeiss (2009), describe las plataformas de medición fotogramétrica que son operadas remotamente, de manera autónoma o semiautónoma sin un piloto, así como el procesamiento de las imágenes tomadas con estas plataformas. En la fotogrametría VANT se identifican dos productos cartográficos tradicionales: los modelos digitales de superficie y los ortomosaicos georreferenciados (Nex y Remondino, 2013; Colomina y Molina, 2014).

El modelo digital de superficie (DSM) representa la información de altura de la superficie de la Tierra asociada a un sistema de referencia global, de todos los elementos registrados en la escena, es decir considerando las alturas de edificaciones, vegetación y demás objetos presentes en la superficie (Rumpler, Wendel y Bischof, 2013). Estos DSM son empleados para la generación de modelos digitales del terreno (DTM), que son aquellos en los que se han eliminado las elevaciones que no corresponden al terreno como también para la producción de ortoimágenes reales, el reconocimiento automático y extracción de edificios, el análisis de redes de comunicación, el modelamiento urbano, la simulación de desastres naturales, la planeación de vuelos, los estudios ambientales y las visualizaciones fotorrealistas en 3D, entre otras actividades (Lei, Fan, Ji y Zhai, 2008; Elaksher, 2008; Rumpler et al., 2013).

Por otra parte, un mosaico corresponde al conjunto de imágenes tomadas desde una o varias cámaras, que presentan áreas de traslape entre sí, y que son unidas y combinadas en una sola imagen para ampliar el rango de visión de la escena (Cheng, Xue y Li, 2007). Cuando el mosaico es corregido de las distorsiones causadas por el relieve del terreno y los objetos en él, se denomina ortomosaico.

En el procesamiento de imágenes VANT para la generación de estos productos cartográficos, se combinan estrategias empleadas en fotogrametría tradicional y en visión por computador. Por tanto, se cuenta con una diversa cantidad de métodos. A pesar de que algunas investigaciones establecen que emplear software comercial no es apropiado (Arthur et al., 2012), debido a que estos están basados en fotogrametría tradicional, y a que en la fotogrametría VANT no se presentan las condiciones estereoscópicas normales que esta requiere, Gini et al. (2013) concluyen que las imágenes tomadas con sistemas VANT son aptas para ser procesadas por diferentes software fotogramétricos, incluyendo aquellos que son considerados tradicionales.

En resumen, el procesamiento llevado a cabo luego de la captura de datos se caracteriza por tres etapas principales: primera, la configuración del bloque fotogramétrico (véase “Configuración del bloque fotogramétrico”), en donde el objetivo es determinar la información que recrea la escena en el momento de la captura de las imágenes (datos de orientación exterior e interior de la cámara y los puntos que relacionan las imágenes entre sí); segunda, la reconstrucción 3D de la escena (véase “Reconstrucción de escenas 3D”) a partir de la extracción de una nube de puntos, y tercera, la generación del modelo digital de superficie y la ortorrectificación de las imágenes a partir de este (véase “Modelo digital de elevaciones y ortorrectificación”).

En la primera etapa (véase “Extracción y correlación de características (feature extraction and matching)”) se lleva a cabo una de las estrategias principales de procesamiento en fotogrametría que es la extracción y correlación de puntos comunes entre las imágenes. Esto permite conocer la orientación relativa entre imágenes y las áreas comunes registradas del terreno. Otras dos estrategias en esta etapa corresponden a determinar los datos de orientación interna y externa, a través de la calibración y orientación de imágenes, respectivamente (véase “Calibración de cámaras y orientación de imágenes”). Estas dos últimas estrategias se identifican como opcionales en algunas investigaciones mencionadas más adelante.

En la segunda etapa, el objetivo es determinar las coordenadas del terreno de cada uno de los puntos comunes extraídos de las imágenes (véase “Generación de puntos 3D”) y posteriormente determinar las coordenadas del terreno para cada uno de los pixeles en las imágenes a través de lo que se denomina densificación de nube de puntos (véase “Densificación de nube de puntos”).

Finalmente, en “Modelo digital de elevaciones y ortorrectificación” se presentan las estrategias para la generación del modelo digital del terreno a partir de la rasterización de la nube de puntos, y la ortorrectificación a partir del DSM generado, el cual permite la eliminación de la distorsión en las imágenes generada por el relieve.

Configuración del bloque fotogramétrico

En un levantamiento de fotogrametría aérea con sistemas VANT, el conjunto de datos que conforman un bloque fotogramétrico corresponde a las imágenes capturadas en un vuelo y los parámetros que relacionan a estas entre sí (el traslape) y con la escena registrada (la posición y orientación). Es decir, el bloque fotogramétrico relaciona el espacio imagen y el espacio terreno. A continuación se presentan las estrategias empleadas para determinar la información que define un bloque fotogramétrico:

 

Extracción y correlación de características (feature extraction and matching)

 

Lingua, Marenchino y Nex (2009a, p. 3746) definen este proceso como “la extracción de características de interés en dos o más imágenes del mismo objeto y de la correlación (matching) de estas características en imágenes adyacentes”. Es decir, consiste en identificar y relacionar características similares (homólogas) entre imágenes en áreas comunes o de traslape. La relevancia del proceso de extracción y correlación se debe a que a partir de estas características extraídas es posible establecer la orientación relativa entre imágenes, la geometría interna de la cámara y la estructura tridimensional de la escena registrada.

Para la extracción de características se puede identificar dos tipos de algoritmos, los llamados operadores de puntos de interés o detectores de puntos/bordes, empleados principalmente en fotogrametría, y los detectores de región, usados en visión por computador (Lingua, Marenchino y Nex, 2009b).

Los operadores de puntos de interés están asociados a la identificación de elementos que sobresalen en la imagen por sus características radiométricas, es decir, elementos con un alto gradiente en su alrededor, como puntos, bordes, esquinas, etc. Estas características pueden ser fácilmente identificables en imágenes adyacentes cuando las condiciones de captura son normales y no se presentan mayores cambios en las condiciones estereoscópicas (inclinación, rotación, escala o cambios en la iluminación entre dos imágenes adyacentes). Por esto, en fotogrametría tradicional se presenta un mayor uso de estos operadores, siendo el operador de Forstner (Forstner y Gulch, 1987) y el operador de Harris (Harris y Stephens, 1988) los de mayor uso en software comercial.

Por otra parte, los detectores de región son un conjunto de pixeles asociados con la identificación de elementos que no presentan variación frente a los movimientos de la cámara que generan rotación, cambios de puntos de vista, de escala, la presencia de ruido en la imagen o cambios de iluminación en la escena (Lingua et al., 2009b). Estos efectos son muy comunes en fotogrametría de rango cercano y en visión por computador, por lo que estos algoritmos son desarrollados y empleados mayormente en estas áreas.

Para el caso de la fotogrametría UAV, en la que en la captura de imágenes no se presentan condiciones consideradas estándar como las requeridas en fotogrametría tradicional, los detectores de región han sido la alternativa para la extracción de características. Uno de los algoritmos de mayor implementación es el algoritmo SIFT (scale invariant feature transform) (Lowe, 1999; 2004). Según Lowe, el algoritmo se puede dividir en cuatro etapas principales: (1) detectar máximos y mínimos en el espacio-escala, (2) identificar puntos de interés (3) asignar orientación y (4) generar el descriptor, el cual lleva asociado las propiedades del punto de interés (posición, escala, orientación) en un vector descriptivo de 128 dimensiones.

Otros algoritmos basados en el SIFT han sido desarrollados con el objetivo de reducir la dimensión del vector descriptivo, y optimizar cada una de las etapas del algoritmo original. El algoritmo SURF (speeded up robust features) (Bay, Tuytelaars y Van Gool, 2006) se presenta como otra alternativa junto al SIFT, pero con un costo computacional menor (vector descriptivo de 64 dimensiones). Aunque el SURF es más rápido que el SIFT, este último extrae mayor número de puntos invariantes (Romero y Cazorla, 2009). Lingua et al. (2009c) presentan un análisis del rendimiento del operador SIFT, y desarrollan una versión autoadaptativa de este (A2SIFT) que permite a ciertos parámetros del algoritmo ser definidos en relación a la textura de la imagen, y así extraer un mayor número de puntos característicos. Juan y Gwun (2009) presentan una comparación del algoritmo SIFT, el SURF y una versión modificada llamada PCA-SIFT donde se concluyen las ventajas y desventajas de cada uno. Chen y Zhao (2011) proponen un enfoque para la reducción de la dimensión del descriptor SIFT para disminuir el tiempo de cómputo y mantener la robustez del algoritmo. Por último, Mikolajczyk y Schmid (2005) presentan una completa evaluación del rendimiento de varios detectores de región.

Una vez han sido extraídas las características de interés, el siguiente paso consiste en la correlación de características o correspondencia de puntos característicos, que compara los vectores descriptores extraídos. Para ello se presentan dos métodos ampliamente utilizados: la búsqueda cuadrática (más lento pero riguroso, ya que realiza todas las combinaciones posibles en la comparación de los puntos) y la estructura de datos kd-tree (más rápido pero aproximado, debido a que la descomposición del espacio de datos disminuye la cardinalidad de los puntos a medida que se avanza en el árbol) (Arya et al., 1998; Barazzetti, Remondino y Scaioni, 2010b).

Drones 12

Por último, las correspondencias erróneas (outliers) que se presentan en la correlación son eliminadas a partir de la estimación de la orientación relativa de las imágenes a través del cálculo de la matriz fundamental o a través de la matriz esencial si los parámetros internos de la cámara son conocidos (Barazzetti et al., 2010b). Para la eliminación de correspondencias erróneas una de las estrategias más comunes es el algoritmo RANSAC (random sample consensus) (Fischler y Bolles, 1981; Li, Liu, Wang y Yan, 2005; Zuliani, 2012). Este algoritmo a través de un método iterativo determina la matriz de transformación (matriz fundamental) que mejor ajusta las correspondencias, y elimina las características que no cumplen un valor de referencia. Otras estrategias como LMS (least-median-square) y MAPSAC (Barazzetti et al., 2010b) son también encontradas en la bibliografía.

Calibración de cámaras y orientación de imágenes

La calibración de la cámara y la orientación de imágenes son dos requisitos fundamentales para la reconstrucción métrica desde imágenes en las áreas de fotogrametría y visión por computador (Nex y Remondino, 2013). En la calibración geométrica de una cámara el objetivo es determinar los parámetros intrínsecos de esta, como la longitud focal, el punto principal de la imagen y las distorsiones de las lentes de la cámara. Mientras que en la orientación de imágenes el propósito es determinar los parámetros extrínsecos, que son la posición (coordenadas en un sistema de referencia) y la orientación (ángulos de inclinación) de la cámara en el momento de la captura de cada imagen.

Calibración de la cámara

En la calibración de cámaras se pueden identificar dos métodos para determinar los parámetros intrínsecos de la cámara: la calibración en campo de prueba y la autocalibración.

  • Calibración en campo de prueba (test-field calibration): Este método consiste en emplear un objeto 3D, 2D o 1D (Zhang, 2004) para determinar los parámetros intrínsecos de la cámara. En esta estrategia el objeto es ubicado en un sistema local de referencia del que se determinan las coordenadas de los elementos característicos del objeto (vértices o patrones dibujados en él). Luego, con la cámara, cuya posición también es conocida, se registra el objeto desde diferentes puntos de vista. A partir de las coordenadas conocidas y de la correlación de las imágenes capturadas se estima la matriz de proyección de la cámara de la cual son recuperados los parámetros intrínsecos. Una amplia variedad de estrategias para realizar este tipo de calibración puede ser encontrada en la bibliografía (Douterloigne, Gautama y Philips, 2009; Heikkila y Silvén, 1997; Wiggenhagen, 2002; Zhang, 2000).
  • Autocalibración (self-calibration): En este método no se requiere de ningún objeto físico para determinar los parámetros intrínsecos de la cámara. Es decir, la geometría interna de esta se puede determinar a partir de la relación de dos o más imágenes traslapadas sin requerimientos de control adicional (El-Habrouk, Li y Faig, 1996). El método se basa en la correlación de elementos comunes entre las imágenes de una escena y empleando un procesos de optimización global que generalmente es un ajuste fotogramétrico en bloque o bundle block adjustment (Triggs, McLauchlan, Hartley y Fitzgibbon, 1999). En este ajuste en bloque, a las ecuaciones de colinealidad se agregan parámetros adicionales que modelan los errores sistemáticos del sistema de captura, esto con el fin de obtener mayor exactitud.

Nex y Remondino (2013) establecen que mediante la autocalibración con ajuste en bloque la calibración de la cámara y la orientación de las imágenes, realizadas en etapas diferentes, pueden llevarse a cabo al mismo tiempo en aplicaciones donde no se requiere gran exactitud. Hemayed (2003) presenta una revisión de los estrategias en el uso del método de autocalibración, mientras que Udin y Ahmad (2011) presentan una estrategia de autocalibración de cámaras digitales de alta resolución. Finalmente, Remondino y Fraser (2006) diferencian las características entre los enfoques de calibración de cámaras en las áreas de fotogrametría y de visión por computador.

En el caso de la fotogrametría VANT, por lo general se emplea el método de autocalibración con ajuste por haces, debido al uso de cámaras no métricas y a las condiciones variables de la plataforma en el aire, que dificulta que los datos de calibración obtenidos en un campo de prueba se mantengan en el momento de procesar las imágenes. No obstante, el uso de calibración basada en objetos, antes o después de la captura de datos, también es una alternativa ya que permite obtener datos que servirán como entradas iniciales en los diferentes modelos de calibración presentados en la bibliografía.

Eisenbeiss y Zhang (2006), a través de un software propio llamado BUN, que emplea la autocalibración con el modelo de Brown sin parámetros de distorsión, compararon la exactitud de los puntos de amarre o tie points extraídos con el software comercial LPS. En la investigación se obtuvo menor exactitud con el software comercial, lo que fue atribuido al hecho de que este está diseñado para levantamientos aéreos estándar, algo que no se presenta con plataformas VANT. No obstante, Bendea et al. (2008) también emplearon el software LPS en las operaciones de aerotriangulación, a través de una autocalibración, y consideraron que para actividades de mapeo rápido la exactitud obtenida con esta estrategia es adecuada. Junqing, Zongjian, Xiaojing y Yongrong (2012) desarrollaron una herramienta de calibración llamada MCC (multi cameras calibration), en la que se incluye la eliminación de las distorsiones ópticas de las imágenes.

Por su parte, Berni et al. (2009) realizaron la calibración geométrica de cámaras hiperespectral y térmica empleadas en plataformas VANT para la estimación de índices de vegetación. Esto se hizo a través de herramientas de calibración desarrolladas por J. Bouguet (citado por Berni et al., 2009) en el softwareMatlab, y se apoya en el uso de un objeto 2D (una tabla de ajedrez). En la investigación de Berni et al. (2009), los parámetros calculados en la calibración fueron empleados como aproximaciones iniciales en la etapa de aerotriangulación, junto con datos del sistema GPS/INS.

Orientación de imágenes

Consiste en determinar los parámetros de orientación exterior (coordenadas de posición y ángulos de inclinación) de cada imagen durante el tiempo de captura de esta. Para obtener estos parámetros se pueden identificar dos procedimientos: (1) la georreferenciación indirecta (obtenida de la aerotriangulación en fotogrametría tradicional) y (2) la georreferenciación directa:

  • Georreferenciación indirecta: Para determinar los parámetros de orientación en fotogrametría tradicional se emplea el ajuste en bloque en el que son requeridos los puntos de amarre (puntos homólogos) entre imágenes, los parámetros de la cámara y los puntos de control tomados en el terreno (GCP, por sus siglas en inglés). Tang, Braun y Debitsch (1997) definen los pasos básicos de este proceso: (a) la preparación del bloque, en la que se ordenan las imágenes de acuerdo con el vuelo, junto con los datos de la cámara y los puntos de control en el terreno; (b) la determinación de tie points, que consiste en la selección de características homologas entre imágenes y su correlación correspondiente; (c) la identificación de los GCP en las imágenes, y (d) el ajuste en bloque, en el que a partir de la información anterior se realiza un proceso de optimización por ajuste de mínimos cuadrados en el que son calculados finalmente los parámetros de orientación exterior. Se suele definir como aerotriangulación automática al proceso en el que los tie points y los GCP en las imágenes son identificados automáticamente. Algunos software comerciales como LPS (Leica Photogrammetry Suite) y su módulo ORIMA (Orientation Management Software), ISDM (Z/I Imaging, Image Station Digital Mensuration), ATiPE (Automatic Tie Points Extraction) (Barazzetti, Remondino y Scaioni, 2010a) y Photomodeler, este último empleado en fotogrametría terrestre para realizar la etapa de orientación (Eisenbeiss, 2009).
  • Georreferenciación directa: La georreferenciación directa es entendida como la implementación de sistemas GPS/INS a bordo de las plataformas aéreas, para la medición directa de los parámetros de orientación exterior (coordenadas con el GPS y los ángulos de inclinación con el sistema inercial).

Desde el punto de vista de la fotogrametría tradicional este método reduce la cantidad de trabajo en campo al requerir menos puntos de control para determinar la orientación. Cramer (1999) define tres ventajas principales en el uso de la georreferenciación directa: (a) permite una adquisición más rápida de los parámetros de orientación interior, (b) podría en principio permitir la etapa de orientación sin puntos de control, con una buena configuración del bloque fotogramétrico, y (c) son evitados los problemas adicionales en la correlación de imágenes realizada en la aerotriangulación, debidos a escenas capturadas consideradas problema (relieves difíciles, imágenes con baja textura, vegetación densa, cuerpos de agua extensos, etc.). Por otra parte, como consecuencias de este método se hace referencia a la dependencia de los datos con estos sistemas, siendo la exactitud de los dispositivos el aspecto más crítico.

Actualmente la mayoría de los sistemas VANT empleados para fotogrametría aérea cuentan con sistemas GPS/INS que son integrados en principio para propósitos de navegación pero que igualmente pueden ser aprovechados para la georreferenciación directa, por lo que este tipo de orientación de imágenes es la más implementada en sistemas VANT. Sin embargo, por cuestiones de capacidad de carga de las plataformas VANT pequeñas, la mayoría de veces estos GPS/INS corresponden a sistemas simplificados o de bajo costo que conllevan a una menor exactitud en la medición de los datos de posición y de orientación, pero que a través de estrategias de ajuste en las etapas de procesamiento pueden ser mejorados. En varias investigaciones esta integración de sistemas VANT con sistemas GPS/INS ha sido tratada, teniéndose como referencia inicial la investigación de Eisenbeiss (2009).

En investigaciones posteriores de Haala, Cramer, Weimer y Trittler (2012), se compararon los resultados de los dos métodos de orientación (directa y aerotriangulación) en la generación de DSM y ortomosaicos, obteniendo diferencias de hasta 3 m en la horizontal. Por su parte Bláha, Eisenbeiss, Grimm y Limpach (2011) evaluaron la exactitud de los datos de un sistema GPS a través del procesamiento diferencial de los datos, y determinaron que si la exactitud con sistemas GPS/INS logra el nivel de centímetros, la georreferenciación directa puede ser realizada.

Otras investigaciones de georreferenciación directa en sistemas VANT pueden ser consultadas en la bibliografía (Anai et al., 2012; Pfeifer, Glira y Briese, 2012; Turner, Lucieer y Wallace, 2014).

Reconstrucción de escenas 3D

Luego de la etapa de orientación de las imágenes el siguiente paso corresponde a la reconstrucción 3D de la escena registrada. Esta reconstrucción se hace a partir de la relación geométrica y radiométrica de las imágenes y tiene como producto final un modelo de nube de puntos del cual se genera un modelo digital de elevaciones (DSM). En fotogrametría tradicional la reconstrucción se da apoyada en las imágenes, en los datos de orientación y de calibración de la cámara, y en los puntos de control en el terreno. Como escenario opuesto, en el área de visión por computador se han desarrollado estrategias que permiten la reconstrucción 3D a partir de conjuntos de imágenes que no cuentan con ningún dato adicional asociado (Snavely, Seitz y Szeliski, 2007; Arévalo, Bayona y Rincón, 2015).

Considerando que la fotogrametría VANT presenta características asociadas a estas dos áreas, se pretende hacer una revisión de las estrategias empleadas para la reconstrucción de escenas 3D a partir de imágenes VANT. El flujo de trabajo consiste de tres etapas claramente identificadas en la bibliografía y que corresponden a: 1) la generación de puntos 3D o nube de puntos dispersa, 2) la densificación de la nube de puntos y 3) DSM y ortorrectificación.

Generación de puntos 3D

La estrategia para la generación de puntos 3D consiste en determinar las coordenadas 3D de los puntos característicos extraídos en la primera etapa de procesamiento. En el área de visión por computador se presenta una estrategia llamada structure from motion (SfM). Esta se basa en el ajuste en bloque y se diferencia de la fotogrametría estereoscópica en que la geometría de la escena y los parámetros de la cámara son calculados sin necesidad de tener datos iniciales, es decir, no requiere de una calibración previa de la cámara ni de GCP. En lugar de ello, la estrategia se basa en la redundancia obtenida de múltiples imágenes con altos porcentajes de traslape (Westoby et al., 2012).

La estrategia de SfM, apoyada en las características extraídas y correlacionadas, y en las restricciones asociadas a la geometría epipolar, permite extraer la geometría de la cámara (posición y orientación) junto con la geometría 3D de las características, a través del refinamiento de los datos en el ajuste en bloque. Los datos resultantes son una nube de puntos dispersos en un sistema de coordenadas arbitrario, que luego son asociados a un sistema global a través de los parámetros de transformación de Helmert (Turner, Lucieer y Wallace, 2012; Nex y Remondino, 2013). La nube de puntos dispersa generada en esta estrategia es empleada como una aproximación inicial del modelo digital de superficie (DSM).

Dadas las características de la fotogrametría VANT (redundancia de imágenes y altos porcentajes de traslape) junto con la falta, en algunos casos, de datos de la geometría de la cámara, de sistemas GPS/INS en la plataforma y de la dificultad de obtener puntos de control en el terreno, se ha vinculado esta estrategia con el procesamiento de imágenes VANT.

Roncella, Re y Forlani (2011) presentan una comparación de dos estrategias de SfM empleadas en cinco casos de estudio con fotogrametría de rango cercano. Por su parte, Remondino, Del Pizzo, Kersten y Troisi (2012) presentan algunos software de libre acceso (VisualSfM, Blunder, Apero, Insight3D), servicios web libres (Microsoft´s Photosynth) y software comercial (Agisoft Photoscan) para la generación de nubes de puntos dispersos a partir de la estrategia de SfM.

Densificación de nube de puntos

Esta etapa consiste en extraer una mayor cantidad de puntos 3D de la escena que complemente la nube de puntos dispersa generada en la etapa anterior . Las estrategias empleadas en esta etapa forman parte de lo que se considera como técnicas de correlación de múltiples imágenes o multi-image matching.

Drones 13

Algunas estrategias como la de Barazzetti, Scaioni y Remondino (2010), basadas en la técnica llamada GC3 (geometrically constrained cross-correlation) o MIGC3 (multi-image geometrically constraint cross-correlation) (Lingua, Marenchino y Nex, 2009c) emplean la nube de puntos dispersa para generar un modelo digital del terreno aproximado. La estrategia consiste en seleccionar una imagen base central y dos de búsqueda adyacentes. De la imagen base se identifica un punto característico que se proyecta sobre el modelo del terreno aproximado y se establece una altura máxima y una mínima. Estos tres puntos (punto máximo, mínimo y del terreno) son reproyectadas a las imágenes de búsqueda, definiendo la geometría epipolar aproximada en estas imágenes. Por último, sobre esta geometría epipolar, se identifican los puntos homólogos, y a su vez se determina el valor de la nueva altura en el terreno. Marenchino (2009) presenta un algoritmo de filtrado llamado self-tuning standard deviation median filter (S2MF) para la edición de la nube de puntos. Esta estrategia es generalmente empleada para filtrar DSM generados con técnicas LiDAR.

Otra estrategia corresponde a una técnica llamada estereopsis de múltiples vistas (multi-view stereopsis), presentada por Furukawa y Ponce (2007). La técnica emplea las correspondencias extraídas y expande estos puntos a manera de regiones dentro de las que determina las correspondencias de pixeles vecinos (Lucieer, Robinson y Turner, 2011). Esta técnica ha sido implementada en el software PMVS2 (Patch-based Multiview Stereo) el cual toma un conjunto de imágenes y los parámetros de la cámara para reconstruir la estructura 3D de la escena registrada, descartando estructuras no rígidas o en movimiento (Furukawa y Ponce, 2007).

Hirschmuller (2005, 2008, 2011) presenta un método llamado Semi-Global Matching (SGM) para la generación de nubes de puntos densas. La estrategia se basa en la comparación de pixeles a través de un concepto denominado mutual information, que depende de las diferencias de entropía entre imágenes. La entropía, que es una medida de la cantidad de información requerida para describir una señal en imágenes, está asociada proporcionalmente al contraste presente radiométricamente (Gehrke, Morin y Downey, 2010), por tanto en pixeles homólogos las diferencias de entropía serán mínimas. En ese sentido la estrategia se encarga de establecer la correspondencia de cada uno de los pixeles de las imágenes, para la generación de una nube de puntos densa. Haala (2011) presenta un algoritmo basado en el semi-global matching de Hirschmuller con algunas consideraciones adicionales.

Hirschmüller y Bucher (2010) presentan una evaluación de los modelos digitales de elevación de zonas urbanas generados a partir de la nube de puntos del semi-global matching. En esta investigación se concluye que la calidad de los modelos digitales generados a partir de imágenes aéreas, son comparables a los generados por un escáner laser aéreo. Por otra parte, Gehrke et al. (2010) establece que la estrategia de semi-global matching es comparable con la tecnología LiDAR, en la medida en que se pueden obtener modelos digitales de elevación de alta precisión generados a partir de nubes de puntos de alta densidad.

Modelo digital de elevaciones y ortorrectificación

La etapa final en el procesamiento de imágenes tomadas con sistemas UAV o fotogrametría VANT consiste en generar un modelo digital de elevaciones o de superficie (DSM) y un ortomosaico de la escena registrada. Para la generación de estos modelos la nube de puntos debe pasar por una triangulación y rasterización. Una estrategia muy comúnmente empleada es la triangulación de Delaunay, en la que se genera una red irregular de triángulos (TIN) de la que son interpoladas los valores de altura para la generación de un archivo raster. Esta estrategia es igualmente empleada en la reconstrucción de superficies a partir de nubes de puntos obtenidas con escáner laser terrestre (Gallo, Cáceres y Porras, 2014). Por su parte, en la generación del ortomosaico, las imágenes individuales son rectificadas a partir del modelo de elevaciones, eliminando la distorsión asociada al relieve. Este proceso consiste en proyectar cada pixel de la imagen sobre el modelo de elevación para determinar el valor de altura, este valor es empleado para reproyectar sobre la imagen la nueva posición del pixel. La proyección y reproyección de los pixeles de la imagen se realiza con las ecuaciones de colinealidad. Por último, todas las imágenes rectificadas son unidas formando un mosaico.

Una de las investigaciones más detalladas en la generación de estos productos a partir de imágenes VANT y combinando estrategias de procesamiento en áreas como la fotogrametría y visión por computador es presentada por Barazzetti et al. (2014). La investigación se basa en la implementación de un algoritmo llamado MGCM (multi-image least squares marching) que apoyado en una nube de puntos dispersa genera un modelo más denso de puntos a través de triangulación. Finalmente, a partir de este modelo denso (mesh) se realiza la ortorrectificación considerando los objetos tridimensionales y las áreas de oclusión en la escena.

Algunos software de acceso libre como VMS (vision measurement system) empleados en fotogrametría de corto alcance, permiten generar modelos digitales de superficie como en la investigación de Niethammer et al. (2011), en donde el objetivo era evaluar los deslizamientos de tierra en una zona, comparando modelos del terreno a partir de imágenes y con tecnología LiDAR. Igualmente, para la generación de modelos digitales y ortomosaicos, algunas investigaciones han empleado software comercial como ERDAS (Udin, Hassan, Ahmad y Tahar, 2012), SOCET SET (Rosnell y Honkavaara, 2012), PHOTOMOD (Samad et al., 2013) o a través de procesamiento de datos online (Vallet et al., 2012). Finalmente, Höhle (2011) presenta una revisión de los aspectos que influyen en la generación de los modelos de elevación desde el punto de vista de las cámaras.

Ejemplo:

La siguiente imagen es el resultado del vuelo y el procesamiento de imágenes realizado de una zona de nuestra ciudad.

En el cual podremos observar un ortomosaico generado, y la visualización de la calidad de imagen, a través de zoom aplicado. también se adiciona, un DEM (Modelo Digital de Elevación), con el cual podemos obtener datos en relación a las alturas de la zona relevada.