Resumen: En este artículo se desarrolla matemáticamente la Modulación de altas frecuencias, la Transformación HPF, y Valor medio simple, para posteriormente implementarlas en Matlab. Con cada una de las implementaciones se realiza la fusión de imágenes de satélite con una metodología propuesta. Una imagen Ikonos (Pancromática - PAN y multiespectral - MULTI) de un sector noroccidental aeropuerto El Dorado de la ciudad de Bogotá (Colombia) es utilizada para generar tres imágenes fusionadas, a saber: MULTImhf MULTIhpf y MULTIVMS. Con el fin de determinar la eficiencia de los métodos propuestos, las imágenes fusionadas fueron evaluadas tanto en la calidad espacial como espectral a través de cuatro índices, específicamente: índice de correlación, ERGAS, RASE y el índice Q. Los mejores resultados de la evaluación fueron obtenidos por la imagen MULTIVMS alcanzado correlaciones espectrales superiores a 0.84, un valor del índice Q de 0.84 y los mejores valores de ERGAS y RASE espectral, 4.36 y 17.39% respectivamente.
Palabras-clave: Fusión; Imágenes-satelitales; Modulación de altas frecuencias; Filtro paso Alto; Valor medio simple.
Abstract: In this article, the High Frequency Modulation, the HPF Transformation, and the Simple Average Value are mathematically developed, to later implement them in Matlab. With each of the implementations, the fusion of satellite images is carried out with a proposed methodology. An Ikonos image (Panchromatic - PAN and multispectral - MULTI) of a northwestern sector of El Dorado airport in the city of Bogotá (Colombia) is used to generate three merged images, namely: MULTImhf, MULTIhpf and MULTIvMs. In order to determine the efficiency of the proposed methods, the merged images were evaluated both in spatial and spectral quality through four indices, specifically: correlation index, ERGAS, RASE and the Q index. The best results of the evaluation were obtained by the MULTIvMs image, reaching spectral correlations higher than 0.84, a value of the Q index of 0.84 and the best values of ERGAS and spectral RASE, 4.36 and 17.39% respectively.
Key-words: Fusion; Satellite images; High Pass Filter; High Frequency Modulation; Simple mean value.
(ProQuest: ... denotes formulae omitted.)
1.Introducción
La fusión es una respuesta a la frecuente necesidad de procesar imágenes de satélite que necesitan tener en una sola imagen datos de alta resolución espectral (imágenes multiespectrales) y alta resolución espacial (imágenes pancromáticas) provenientes del mismo sensor o de diferentes sensores remotos, para que sean un soporte más efectivo en la toma de decisiones (Alparone et al., 2007). Con la fusión se obtiene información detallada sobre el medio ambiente urbano y rural, útil para muchas aplicaciones específicas como el ordenamiento territorial, la agricultura, los planes de manejo ambiental, entre otros.
Los procedimientos convencionales de fusión de imágenes están basados en diferentes métodos, tales como la transformación RGB a IHS, RGB a HSV, RGB a HSL, Brovey, Multiplicación, Análisis de Componentes principales, Gram Schmidt, entre otros. Estos métodos no son completamente satisfactorios debido a que degradan la información espectral mientras ganan información espacial. Lo anterior ha promovido, en los últimos años, la experimentación de diferentes procedimientos que usan la transformada de Wavelet en dos dimensiones, dado que degradan en menor valor la riqueza espectral de las imágenes originales multiespectrales (Burrus, 2015; Nievergelt, 2013) mejorando la resolución espacial. Basados en las investigaciones donde se demuestra que la transformada de Wavelet mejora los resultados de la fusión de imágenes satelitales (Nuñez et al., 1999; Medina, Joyanes & Pinilla, 2013).
La fusión de imágenes, genera imágenes sintéticas, producto de la combinación de uno o más sensores, por ejemplo, imágenes de radar con imágenes ópticas (Medina Daza, Murcia Sandoval & Lesmes Piñeros, 2015; Marini, 2021), imágenes térmicas con imágenes ópticas (Ospina, Cardona & Bacca-Cortes, 2017; Rathna Kishore et al., 2021), o más recientemente, imágenes adquiridas con drones con imágenes de satélite (Medina, Carrillo & Upegui, 2019), entre otros.
Este trabajo se ha centrado en tres métodos: la Modulación de altas frecuencias (MHF), la Transformación High Pass Filter (HPF) y el Valor medio simple (VMS). En el documento se aborda un primer aspecto que corresponde al desarrollo matemático que permite implementar los métodos seleccionados. Posteriormente se ocupa de la comprobación de su rendimiento y la evaluación de las imágenes fusionadas MULTIMhf MULTIhpf MULTIvMs. Finalmente se aborda la evaluación cualitativa de las imágenes ' fusionadas obtenidas, para lo que se usaron cuatro índices, específicamente, el coeficiente de correlación, el índice RASE, el índice ERGAS, y el índice de calidad universal Q.
2.Fusión de imágenes satelitales
Corresponde a técnicas que permiten mezclar, a nivel de pixel, las virtudes de diversas imágenes, mejorando la capacidad de discriminación digital de los fenómenos espaciales y permitiendo al usuario, cambiar la escala del análisis espacial con la misma imagen. En pocas palabras, lo que se pretende es mejorar la calidad de los datos, lo que además sirve para mejorar la fiabilidad de las estimaciones de una determinada variable (Chuvieco, 2006).
Una de las aplicaciones más recurrentes es la de mejorar la resolución espacial de una imagen multi-espectral, usando una imagen de mayor resolución espacial. Lo más frecuente es utilizar la banda pancromática, propia del mismo satélite y fusionarla con sus bandas espectrales. La ventaja de esto, es que ambas imágenes son de la misma fecha y poseen el mismo ángulo de inclinación de la toma, por lo tanto, poseerán la misma cantidad de sombras e igualdad de condiciones atmosféricas (temperatura, humedad del aire, presencia de nubes, cantidad de nieve, etc.). Para Fusionar imágenes existen varios métodos, los cuales tienen una complejidad variable, que van desde combinaciones algebraicas entre bandas, pasando por los filtros, hasta las transformadas de wavelets. Este trabajo se ocupará de tres métodos convencionales, a saber, modulación de altas frecuencias, transformación HPF y valor medio simple.
2.1.Modulación de altas frecuencias
Se trata de una variación de los denominados métodos de fusión en el dominio espacial (Schowengerdt, 2013), cuya idea es la de transferir las altas frecuencias de la imagen de alta resolución a la imagen de baja resolución. Como ya es sabido, las altas frecuencias contienen la información relativa a los detalles de una imagen y pueden extraerse mediante operaciones de filtrado o convolución. Básicamente, estos métodos consisten en la suma de las altas frecuencias de la imagen pancromática a cada banda de la imagen multiespectral (ecuación 1).
... (1)
donde R representa una banda genérica de la fusión y PA(Pan) es el resultado de aplicar un filtro paso-alto sobre la imagen pancromática. Esta ecuación es similar a la de aplicación de un filtro de realce de las altas frecuencias (high-boost), con la particularidad de que la imagen que aporta el componente paso-alto es distinta, en este caso la pancromática de alta resolución. Según Schowengerdt (2013) la eficiencia de este filtro se basa en la existencia de una correlación radiométrica elevada entre los componentes de altas frecuencias de ambas imágenes.
Debido a la aparición de singularidades en zonas de baja correlación radiométrica, a la ecuación 1 se le añadió una corrección heurística mediante un coeficiente R modificando la representación de banda genérica de la fusión (ecuación 2):
... (2)
Un caso particular de los métodos espaciales es el llamado modulación de las altas frecuencias (HFM, High Frequency Modulation). Consiste en la multiplicación de cada banda de baja resolución (MS)i por la imagen de alta resolución (Pan), normalizándose por el componente paso-bajo de ésta última (PB(Pan) - ecuación 3):
... (3)
Este algoritmo supone que las nuevas bandas espectrales son proporcionales, para cada píxel, a la imagen de alta resolución, y que dicha proporcionalidad viene dada por un factor de ganancia К (ecuación 4)
... (4)
sustituyendo en la ecuación 3 daría origen a la ecuación 5.
... (5)
Por otra parte, la imagen pancromática (Pan) puede expresarse en función de sus componentes de bajas frecuencias (PB) y altas frecuencias (PA - ecuación 6)
... (6)
que sustituidos en la expresión (3) y operando da origen a la ecuación 7.
... (7)
La ecuación obtenida 7 es equivalente a la ecuación 2, por lo que el método de modulación de las altas frecuencias es un caso particular de los métodos espaciales descritos, con la característica de tener un coeficiente K¡, el cual depende de la banda multiespectral y del componente de bajas frecuencias de la imagen pancromática. En la aplicación práctica del método, el problema radica en la selección adecuada de los filtros. Según Schowengerdt (2013), se obtienen mejores resultados si el filtro paso-bajo se diseña de forma que se ajuste a la función de dispersión puntual (PSF, Point Spread Function) relativa entre ambas imágenes. La PSF es una función de ponderación sobre la señal electrónica que se produce a la salida de los detectores y que depende de factores ópticos, del movimiento de la imagen en su adquisición, del propio detector y de los componentes electrónicos que entran en juego durante el proceso.
2.2.Transformación High Pass Filter - HPF
Este método consiste en añadir la información espacial de la banda pancromática a la información multiespectral de menor resolución espacial aplicando un filtro de paso alto en combinación con una operación de álgebra de mapas (Pohl & Van Genderen, 2015). El funcionamiento del algoritmo, descrito en Leica-Geosystems (2006), consta de cinco pasos:
1. Calcular el parámetro R a partir del tamaño del pixel de la capa pancromática (t ) y de la multiespectral (t - ecuación 8):
... (8)
2. Aplicar un filtro de paso alto a la imagen pancromática; el tamaño de la ventana de filtrado es proporcional a R (Tabla 1). Todos los elementos de la ventana de filtrado toman el valor -1, con la excepción del valor central. Existen tres posibilidades para este valor; el menor de los tres es el que se utiliza por defecto y es el que se ha empleado en este trabajo.
3. Remuestrear la imagen multiespectral al tamaño del pixel de la resolución espacial de la imagen filtrada.
4. Sumar la imagen filtrada a las capas multiespectrales. Pero antes, la imagen filtrada se pondera en función de la desviación típica de la imagen multiespectral y el valor de R, a este factor de ponderación se le denomina W (ecuación 9):
... (9)
donde amis es la desviación típica de cada una de las bandas; apan es la desviación típica de la imagen filtrada y M es un factor que determina la intensidad en la aplicación del filtro (tabla 1). El cálculo para cada banda se realiza de acuerdo a la ecuación 10.
... (10)
donde Pout es el pixel de salida de cada una de las bandas multiespectrales ya fusionadas; Pin es el pixel de entrada de cada una de las bandas multiespectrales originales y PHPF es el pixel de la imagen filtrada.
5.Expandir linealmente los niveles digitales (ND) de la imagen multiespectral fusionada; esta operación reescala la imagen resultante, de forma que la media y la desviación típica coincida con las de la imagen original.
2.3.Valor medio simple
El método de transformación de valor medio (Muñoz Aguayo, 2013), aplica una ecuación de promedio de valor medio simple, a cada una de las combinaciones de banda de salida (ecuación 11).
Banda Roja de Alta Resolución = 0.5 · (Banda Roja original + Banda Pancromática)
Banda Azul de Alta Resolución = 0.5 · (Banda Azul original + Banda Pancromática) (11)
Banda Verde de Alta Resolución= 0.5 · (Banda Verde original + Banda Pancromática)
3.Metodología e Implementáción de los métodos propuestos para la fusion de imágenes de satelite Ikonos
Para abordar la metodología de los tres métodos propuestos en este artículo se comenzará con la descripción de las imágenes satelitales correspondientes a la zona de estudio.
3.1. Zona de Estudio
El área de estudio se localiza en Bogotá (Colombia), específicamente en el sector occidental y corresponde aeropuerto El Dorado, es una zona cubierta por una sub imagen Ikonos tanto pancromática (PAN) como multiespectral (MULTI) como se ve en la figura 1.La sub imagen PAN tiene una resolución espacial de uno (1) metro, y fue tomada el 13 de diciembre de 2007; su sistema de referencia corresponde a UTM/WGS 84. La sub imagen MULTI cuenta con cuatro canales, pero solo tres canales son usados en esta investigación (R-rojo, G-verde y B-azul) y tiene una resolución espacial de cuatro (4) metros; fue adquirida la misma fecha que la PAN y tiene el mismo sistema de referencia. Las dos imágenes fueron recortadas con un ancho de 2048 y un alto de 2048 pixeles, para satisfacer la propiedad Diádica (Nievergelt, 2013; Nuñez et al., 1999).
Técnicamente, para que la fusión tenga éxito se deben cumplir tres requisitos, a saber, (Muñoz Aguayo, 2013).
1. La Georreferenciación o corregistración de las imágenes involucradas, debe ser la misma. Es decir, la ubicación de los objetos en el espacio debe coincidir.
2. La extensión de las imágenes debe ser la misma, en otras palabras, la cantidad de líneas y columnas debe ser igual.
3. El tamaño del pixel, también debe ser igual en todas las bandas involucradas.
Los tres métodos fueron implementados en Matlab R20201, usando el toolbox de procesamiento. Los pasos seguidos para implementación se describen a continuación:
3.2. Modulación de altas frecuencias
Paso 1. Registrar una composición a color RGB (verdadero color) de la imagen MULTI con la imagen PAN, usando el mismo tamaño de píxel de esta última (1 metro).
Paso 2. Aplicar el filtro paso alto y el filtro paso bajo a la imagen pancromática, de acuerdo a la ecuación 7.
Paso 3. Concatenar las imágenes fusionadas obteniendo la nueva RGB, que corresponde a MULTImhf.
3.3. Transformación HPF
Paso 1. Registrar una composición a color RGB (verdadero color) de la imagen MULTI con la imagen PAN, usando el mismo tamaño de píxel de esta última (1 metro).
Paso 2. Obtener la constante R (ver tabla 1) de acuerdo a la ecuación 8 para generar el filtro de paso alto que se aplica a la imagen pancromática. Y posteriormente obtener el coeficiente W según la ecuación 9.
Paso 3. Obtener las imágenes fusionadas, donde cada imagen resulta de sumar la banda más imagen filtrada multiplicada por W.
Paso 4. Concatenar las imágenes fusionadas obteniendo la nueva RGB que corresponde a MULTIhpf.
3.4.Valor medio simple
Paso 1. Registrar una composición a color RGB (verdadero color) de la imagen MULTI con la imagen PAN, usando el mismo tamaño de píxel de esta última (1 metro).
Paso 2. Obtener las bandas en alta resolución de acuerdo a la ecuación 11.
Paso 3. Concatenar las imágenes fusionadas obteniendo la nueva RGB que corresponde a mULTIvms.
3.5.Evaluación de la efectividad de la implementáción de la transformaciones para la fusión de imágenes
Wald (2002) propuso algunos requisitos que deberían cumplir los test o Índices de Calidad:
1. Deben ser independientes de las unidades, y por consiguiente de los instrumentos de calibración y de sus valores de ganancia.
2. Ser independientes de número de bandas espectrales consideradas.
3. Ser independientes de la relación entre las resoluciones espaciales de las imágenes fuente.
Para la evaluación y análisis de los resultados de las imágenes fusionadas se usan los siguientes índices: coeficiente de correlación (corr), índice RASE (Relative Average Spectral Error), índice ERGAS (Erreur Relative Globale Adimensionallede Synthese) e índice de calidad universal Q, los cuales se describen a continuación.
1. Coeficiente de correlación (corr)
La correlación entre las diferentes bandas corr(A / B) de las imágenes fusionadas y las bandas de la imagen original se pueden calcular con la siguiente ecuación (ecuación 12):
... (12)
Donde Ay B son los valores de la media de las imágenes correspondientes, corr( A / B) varía entre -1 y +1 y es una cantidad adimensional (ver tabla 2), es decir no depende de las unidades empleadas. El valor ideal de la correlación, tanto espectral como espacial, es 1 (Murray & Larry, 2009).
2.Índice ERGAS
La evaluación de la calidad de las imágenes fusionadas se ha llevado a cabo mediante los índices ERGAS espectral y espacial (ver tabla 3). La definición de ERGAS espectral (Wald, 2002) viene dada por la ecuación 13:
... (13)
Donde h y l representan la resolución espacial de las imágenes PAN y MULTI ; NBandas es el número de bandas de la imagen fusionada; multi1 es el valor de la radiancia de la banda i - ésima de imagen MULTI (Wald, 2000) y RMSE será definida como sigue (14):
... (14)
Siendo NP el número de pixeles de la imagen FUS¡. Adicionalmente, Lillo y su equipo (2005) proponen otro índice, denominado ERGASEspacial que está inspirado en el índice ERGAS espectral (Lillo-Saavedra et al, 2005). El objetivo del índice ERGAS1 evaluar la calidad espacial de las imágenes fusionadas, por lo que se define como (15):
... (15)
Donde RMSEEspacial es definido como sigue en la ecuación 16:
... (16)
Los mejores resultados de éstos índices (ERGAS espacial y espectral) se obtienen cuando es más cercano a cero (ver tabla 3).
3.Índice RASE
El índice RASE se expresa como un porcentaje (ecuación 17), ver resultados en la tabla 3:
... (17)
Donde h es la resolución de la imagen de alta resolución especial (PAN) y l es la resolución de la imagen de baja resolución espacial (MULTI) (Wald, 2000). Los mejores resultados se obtienen cuando el porcentaje está más cerca a cero.
4.Índice de calidad universal Q
Este modelo de índice de calidad identifica cualquier distorsión como una combinación de tres factores: pérdida de correlación, distorsión de luminancia y contraste de distorsión (Wang & Bovink, 2002). El índice se obtiene con la ecuación 18 (ver resultados en tabla 3).
... (18)
Los mejores valores de este índice se obtienen cuando el valor es más cercano a uno.
4.Resultados y análisis de resultados
Desde el punto de vista cualitativo, visualmente la figura 2 muestra una zona tanto de las imágenes MULTI (fig. 2a) y PAN (fig. 2b) como de las imágenes fusionadas usando los tres métodos (fig. 2c a 2e).
De otra parte, los resultados de la evaluación cuantitativa se presentan en las tablas 2 y 3. La tabla 2 muestra los resultados de la correlación espacial y espectral de las imágenes fusionadas MULTImhf, MULTIhpf y MULTIVMS.
Según Gonzalo-Martín y Lillo-Saavedra (2007) no existe el mejor método de fusión de imágenes, sino la mejor imagen fusionada. Entonces, analizando los resultados de corr Espacial se evidencia que los máximos valores se obtienen para la imagen MULTIVMS, en cada uno de las tres bandas (RGB). Respecto al corr Espectral, el valor obtenido más alto se obtiene con la imagen fusionada MULTImhf. En la tabla 3 se muestran los resultados obtenidos usando los índices RASE; ERGAS; e índice de calidad universal Q, tanto espacial como espectral.
Los resultados presentados por el índice ERGAS espacial favorecen a la imagen fusionada MULTIvms con un valor de 4.42 al igual que el ERGAS espectral da mejor resultado en la imagen MULTIvms con un valor de 4.36. En lo que respecta el índice RASE espacial y espectral los mejores valores obtenidos se comportan similar al índice ERGAS, es decir mejor RASE es para MULTIVMS (17.71 %, espacial y 17.39% espectral). Finalmente, el índice de Calidad Universal Q presenta los mejores valores conjuntamente para MULTIVMS, con un valor de 0.84, tanto espacial como espectral. Con base en estos resultados, es mucho mejor la imagen fusionada MULTIVMS, que las imágenes fusionadas obtenidas con los otros dos algoritmos MULTImhf y MULTIhpf.
5.Conclusiones
La fusión de imágenes, genera imágenes sintéticas, producto de la combinación de uno o más sensores, por ejemplo, imágenes de radar con ópticas, de satélite con aéreas, térmicas con ópticas, etc. Una de las aplicaciones más recurrentes es la de mejorar la resolución espacial de una imagen multi-espectral, usando una imagen de resolución espectral pobre, pero de mayor resolución espacial.
La implementación en Matlab del desarrollo matemático de los algoritmos de Modulación de altas frecuencias, Transformación HPF y Valor medio simple, permitió generar imágenes fusionadas con las imágenes satelitales pancromática y multiespectral del sensor Ikonos, no obstante, el método es replicable a cualquier tipo de imágenes proveniente de diferentes sensores.
Los resultados obtenidos del análisis cualitativo (fig. 2) y cuantitativo (tabla 2 y 3) demuestran que el mejor resultado de la fusión de imágenes, que degrada en menor valor la riqueza espectral con una ganancia espacial significativa se obtuvo con el algoritmo del valor medio simple (MULTIVMS) permitiendo obtener imágenes fusionadas de mejor calidad espacial y espectral.
Las metodologías propuestas permiten obtener imágenes fusionadas que ofrecen a los usuarios información detallada sobre los entornos urbanos y rurales, lo cual es útil para aplicaciones como la planificación y la gestión urbana, cuando no se cuenta con imágenes de mejor resolución espacial como por ejemplo adquiridas con drones. Su utilidad se extiende al desarrollo de proyectos en diversos campos como agricultura, hidrología, medioambiente y gestión de emergencias producidas por catástrofes naturales (inundaciones, incendios forestales), entre otros.
Referencias
Alparone, L. Wald, L. Chanussoat, J. Thomas, C. Gamba, P. Bruce, L. (2007). Comparison of Pansharpening Algorithms: Outcome of the 2006 GRS-S Data Fusion Contest, IEEE Transactions on Geoscience and Remote Sensing.Vol. 45 No. 10. pp 3012-3021.
Burrus, C. (2015, Septiembre 24). Wavelets and Wavelet Transforms. Retrieved from the Web site: http://cnx.org/content/col11454/1.6/.
Chuvieco, S. E, (2010). Teledetección ambiental: La Observación de la Tierra desde el Espacio, Barcelona: Editorial Courier New S. A. ISBN: 8412031547, 595 páginas.
Gonzalo-Martín, C., Lillo-Saavedra, M. (2007). "Fusión de Imágenes QuickBird Mediante una Representación Conjunta Multirresolución -Multidirectional", IEEE Latin America Transactions, Vol. 5, No. 1, pp 32-37.
Leica-Geosystems (2006): ERDAS Imagine 9.1 Documentación online.
Lillo-Saavedra, M. Gonzalo, C. Arquero, A. and Martinez, E. (2005). Fusion of multispectral and panchromatic satellite sensor imagery based on tailored filtering in the Fourier domain. International Journal of Remote Sensing. Vol. 26, pp. 1263-1268.
Marini, M. (2021). Discriminación de trigo y cebada empleando imágenes satelitales ópticas y radar. Investigaciones Geográficas, (104). https://doi.org/10.14350/rig.60173
Medina J., Carrillo I. & Upegui E. (2019), Mejora de la resolución espacial y espectral de imágenes adquiridas mediante aeronaves remotamente pilotadas, usando la fusión de imágenes con Wavelet algoritmo de Mallat y A trous, in Teledetección: hacia una visión global del cambio climático / Luis Ángel Ruiz Fernández (ed. lit.), Javier Estornell Cremades (ed. lit.), A. Calle (ed. lit.), Juan Carlos Antuña Sánchez (ed. lit.), ISBN 978-84-1320-038-5, págs. 307-310
Medina Daza, J. Murcia Sandoval, J. Murcia Sandoval, L. (2015), Assessment of the Merger with Images Ikonos Radarsat-2 Using Wavelet Transform Daubechies, 13th LACCEI Annual International Conference: "Engineering Education Facing the Grand Challenges, What Are We Doing?", DOI: http://dx.doi.org/10.18687/ LACCEI2015.1.1.175
Medina, J. Pinilla, C. Joyanes, L. (2013). Two-Dimensional Fast Haar Wavelet Transform for Satellite-Image Fusion, Journal of Applied Remote Sensing. DOI: 10.1117/1. JRS.7.073698
Muñoz Aguayo, Pedro. (2013), Informe técnico Apuntes de Teledetección: Fusión de Imágenes. Centro de información de Recursos Naturales, Ministerio de Agricultura Chile. D0I:10.13140/RG.2.2.27250.76485.
Murray, S. R. & Larry J. F. (2009). Estadística, Cuarta edición, (Mc Graw Hill)
Nievergelt, Y. (2013). Wavelets made easy. Ed Birkhäuser, New York, https://doi.org/10.1007/978-1-4614-6006-0.
Nuñez, J. Otazu, X. Fors, O. Prades, A. Pala, V. Arbiol, R. ( 1999). MultiresolutionBased Image fusion whit Additive Wavelet Descomposition. IEEE Transactions on Geoscience and Remote Sensing. Vol 37, N°. 3, pp 1204 -1211.
Ospina, E. Cardona, S. Bacca-Cortes, B. (2017), Herramienta software para inspección termográfica usando fusión multimodal de imágenes térmicas y de espectro visible, Ingeniería y competitividad: revista científica y tecnológica, ISSN 0123-3033, Vol. 19, N°. 1, pp. 53-68
Pohl C. &Van Genderen J. L. (2015). Review Article, Structuring contemporary remote sensing image fusion, International Journal of Image and Data Fusion, DOI: 10.1080/19479832.2014.998727, 6 (1), 3-21
Rathna Kishore, D. Nahida Syeda, D. Suneetha, Ch. Santha Kumari, G. S. Pradeep Ghantasala. (2021). Multi Scale Image Fusion through Laplacian Pyramid and Deep Learning on Thermal Images. Annals of the Romanian Society for Cell Biology, 3728-3734.
Schowengerdt, R. A., (2013). Remote Sensing. Models and Methods for image Processing. 3rd edition. Elseiver. ISBN: 978-0123694072
Wald, L. (2000). Quality of high resolution synthesized images: is there a simple criterion?, Proceedings of the third conference "Fusion of Earth data: merging point measurements, raster maps and remotely sensed image", pp. 26-28, 2000, T Ranchin and L. Wald Editors, Nice: SEE/URISCA. pp. 99-105.
Wald, L. (2002). "Data Fusion, Defibçnition and Architectures: Fusion of Image of Different Spatial Resolution", Le Presses de l'Ecole des Mines, Paris.
Wang, Z. & Bovink, A. C. (2002). A Universal Image Quality Index. IEEE Signal Processing Letters, vol. XX, no Y.
You have requested "on-the-fly" machine translation of selected content from our databases. This functionality is provided solely for your convenience and is in no way intended to replace human translation. Show full disclaimer
Neither ProQuest nor its licensors make any representations or warranties with respect to the translations. The translations are automatically generated "AS IS" and "AS AVAILABLE" and are not retained in our systems. PROQUEST AND ITS LICENSORS SPECIFICALLY DISCLAIM ANY AND ALL EXPRESS OR IMPLIED WARRANTIES, INCLUDING WITHOUT LIMITATION, ANY WARRANTIES FOR AVAILABILITY, ACCURACY, TIMELINESS, COMPLETENESS, NON-INFRINGMENT, MERCHANTABILITY OR FITNESS FOR A PARTICULAR PURPOSE. Your use of the translations is subject to all use restrictions contained in your Electronic Products License Agreement and by using the translation functionality you agree to forgo any and all claims against ProQuest or its licensors for your use of the translation functionality and any output derived there from. Hide full disclaimer
© 2021. This work is published under https://creativecommons.org/licenses/by-nc-nd/4.0/ (the “License”). Notwithstanding the ProQuest Terms and Conditions, you may use this content in accordance with the terms of the License.
Abstract
In order to determine the efficiency of the proposed methods, the merged images were evaluated both in spatial and spectral quality through four indices, specifically: correlation index, ERGAS, RASE and the Q index. The best results of the evaluation were obtained by the MULTIvMs image, reaching spectral correlations higher than 0.84, a value of the Q index of 0.84 and the best values of ERGAS and spectral RASE, 4.36 and 17.39% respectively. (ProQuest: ... denotes formulae omitted.) 1.Introducción La fusión es una respuesta a la frecuente necesidad de procesar imágenes de satélite que necesitan tener en una sola imagen datos de alta resolución espectral (imágenes multiespectrales) y alta resolución espacial (imágenes pancromáticas) provenientes del mismo sensor o de diferentes sensores remotos, para que sean un soporte más efectivo en la toma de decisiones (Alparone et al., 2007). La PSF es una función de ponderación sobre la señal electrónica que se produce a la salida de los detectores y que depende de factores ópticos, del movimiento de la imagen en su adquisición, del propio detector y de los componentes electrónicos que entran en juego durante el proceso. 2.2.Transformación High Pass Filter - HPF Este método consiste en añadir la información espacial de la banda pancromática a la información multiespectral de menor resolución espacial aplicando un filtro de paso alto en combinación con una operación de álgebra de mapas (Pohl & Van Genderen, 2015).
You have requested "on-the-fly" machine translation of selected content from our databases. This functionality is provided solely for your convenience and is in no way intended to replace human translation. Show full disclaimer
Neither ProQuest nor its licensors make any representations or warranties with respect to the translations. The translations are automatically generated "AS IS" and "AS AVAILABLE" and are not retained in our systems. PROQUEST AND ITS LICENSORS SPECIFICALLY DISCLAIM ANY AND ALL EXPRESS OR IMPLIED WARRANTIES, INCLUDING WITHOUT LIMITATION, ANY WARRANTIES FOR AVAILABILITY, ACCURACY, TIMELINESS, COMPLETENESS, NON-INFRINGMENT, MERCHANTABILITY OR FITNESS FOR A PARTICULAR PURPOSE. Your use of the translations is subject to all use restrictions contained in your Electronic Products License Agreement and by using the translation functionality you agree to forgo any and all claims against ProQuest or its licensors for your use of the translation functionality and any output derived there from. Hide full disclaimer
Details
1 Proyecto Curricular Ingeniería Catastral y Geodesia, Facultad de ingeniería, Universidad Distrital Francisco José de Caldas (UDFJC). Sede principal: Carrera 7 No. 40B - 53. Bogotá D. C., Colombia
2 Proyecto Curricular Maestría en Ciencias de la Información y las Comunicaciones, Doctorado en Ingeniería, Universidad Distrital Francisco José de Caldas (UDFJC). Sede principal: Carrera 7 No. 40B - 53. Bogotá D. C., Colombia