Resumen: En este artículo se desarrolla matemáticamente los modelos de color IHS, HSL, y HSV, a los cuales se les aplica la Transformada de Wavelet 2D no decimada (Algoritmo de A trous) usando Matlab con el fin de establecer el mejor modelo de color para fines de fusión de imágenes. Esta implementación se realiza para la fusión de imágenes de satélite con una metodología propuesta en cinco pasos. Una imagen Ikonos (Pancromática - PAN y multiespectral - MULTI) de un sector de la ciudad de Bogotá (Colombia) es utilizada para generar tres imágenes fusionadas, a saber: MULTIint, MULTIlum y MULTIVAL. Con el fin de determinar la eficiencia de la Transformada de Wavelet A trous, las imágenes fusionadas fueron evaluadas tanto en la calidad espacial como espectral a través de cuatro índices, específicamente: índice de correlación, ERGAS, RASE y el índice Q. Los mejores resultados de la evaluación fueron obtenidos por la imagen MULTIVAL que utilizó la componente Value del modelo de color HSV alcanzado correlaciones espectrales superiores a 0.94, un valor del índice Q de 0.94 y los mejores valores de ERGAS y RASE espectral. La imagen MULTVAL preserva la riqueza espectral mejorando su calidad espacial.
Palabras-clave: A trous; Fusión; Imágenes-satelitales; Intensidad, Luminancia; Value; IHS; HSL; HSV.
Abstract: This article develops mathematically the IHS, HSL, and HSV color models, to which the undecided Wavelet 2D Transform (Trous Algorithm) is applied using Matlab in order to establish the best color model for image fusion purposes. This implementation is performed for fusing of satellite images with a proposed five-step methodology. An Ikonos image (Panchromatic - PAN and multispectral - MULTI) of a sector of the city of Bogota (Colombia) is used to generate three fused images, specifically: MULTIint, MULTIlum and MULTIval. In order to determine the efficiency of the Wavelet Transform, the fused images were evaluated in both spatial and spectral quality across four indexes, namely correlation index, ERGAS, RASE and Q index. The best evaluation results were obtained by the MULTIval image that used the Value component of the HSV color model achieved spectral correlations greater than 0.94, a Q index value of 0.94 and the best values of ERGAS and RASE spectral. MULTVAL image preserves spectral richness by improving its spatial quality.
Keywords: Atrous; Satellite-Image; Fusion; Intensity, Luminance; Value; HIS; HSL; HSV.
(ProQuest: ... denotes formulae omitted.)
1.Introducción
La fusión es una respuesta a la frecuente necesidad de procesar imágenes de satélite que necesitan tener en una sola imagen datos de alta resolución espectral (imágenes multiespectrales) y alta resolución espacial (imágenes pancromáticas) provenientes del mismo sensor o de diferentes sensores remotos, para que sean un soporte más efectivo en la toma de decisiones (Alparone, 2007). Con la fusión se obtiene información detallada sobre el medio ambiente urbano y rural, útil para muchas aplicaciones específicas como el ordenamiento territorial, la agricultura, los planes de manejo ambiental, entre otros.
Los procedimientos convencionales de fusión de imágenes están basados en diferentes métodos, tales como la transformación RGB a IHS, Brovey, Multiplicación, Componentes principales, entre otros. Estos métodos no son completamente satisfactorios debido a que degradan la información espectral mientras ganan información espacial. Lo anterior ha promovido, en los últimos años, la experimentación de diferentes procedimientos que usan la transformada de Wavelet en dos dimensiones, dado que degradan en menor valor la riqueza espectral de las imágenes originales multiespectrales (Burrus, 2015; Nievergelt, 1999) mejorando la resolución espacial. Basados en las investigaciones donde se demuestra que la transformada de Wavelet mejora los resultados de la fusión de imágenes satelitales (Nuñez et al., 1999; Medina, Joyanes & Pinilla, 2013) el aporte significativo de la implementación de la Transformada de Wavelet Á trous para la fusión de imágenes satelitales es que permite generar mejores imágenes fusionadas gracias a la forma en que se obtienen los coeficientes resultantes de la transformación (Gonzalo & Lillo-Saavedra, 2008), obteniendo así los planos wavelet que tienen mayor información espacial y espectral de las imágenes originales, la componente intensidad mantiene la riqueza espacial, las componentes tono y saturación, cuando se transforma la composición RGB a IHS (González & Woods, 2008).
Este trabajo se ha centrado en cuatro aspectos. El primer aspecto corresponde al desarrollo matemático de los modelos de color RGB a IHS, RGB a HSL y RGB a HSV. El segundo aspecto se encarga de la implementación de la metodología para la fusión de imágenes satelitales usando la Transformada Wavelet algoritmo de Á trous, la cual se ha implementado con la componente Intensidad. El tercer aspecto es implementar la transformada A trous con las componentes luminancia y value. Los tres algoritmos se implementan en Matlab. El cuarto corresponde a la comprobación de su rendimiento. La evaluación se realiza comparando el rendimiento de la Transformada Wavelet Á trous (Medina, Pinilla, Joyanes, 2013). La evaluación cualitativa de las imágenes fusionadas obtenidas a través de la Wavelet Á trous, con la Intensidad, Luminancia y Value se realizó con cuatro índices, específicamente, el coeficiente de correlación, el índice RASE, el índice ERGAS, y el índice de calidad universal Q.
2.Modelos de color
Un modelo o espacio de color indica la manera en que un color está definido. Generalmente, un espacio de color está determinado por una base de n vectores, cuyas combinaciones lineales generan todos los elementos del espacio. Entre mayor sea el número de vectores, el espacio comprenderá una mayor cantidad de colores reales. Por mencionar algunos ejemplos (González & Woods, 2008; Foley & Van Dam, 1982): un espacio de una dimensión corresponde a la escala de grises; un espacio de dos dimensiones representa los planos RG, GB y BR que son variedades del amarillo, cian y magenta respectivamente; un espacio tridimensional es el espacio RGB (Red, Green, Blue), HSV (Hue, Saturation, Value), HSI (Hue, Saturation, Intensity) o YIQ (luminance, in-phase, quadrature); un espacio de cuatro dimensiones corresponde al CMYK (Cyan, Magenta, Yellow & Key/Black) ampliamente utilizado en la impresión a color.
Para el procesamiento digital de imágenes, y en especial para la fusión de imágenes de satélite se utiliza la conversión de espacios de color con el fin de inyectar la riqueza espacial de la imagen pancromática, según el modelo, a las componentes de color Intensidad, Luminancia o Value.
2.1.Conversión de RGB a HSI
Usando las bandas Bi, B2 y B3 de una imagen multiespectral se transforma a las componentes Intensidad, Tono y Saturación. Los colores del modelo IHS se definen con respecto a los valores normalizados de rojo (r), verde (g) y azul (b), dados en términos de colores RGB primarios (González & Woods, 2008):
... (1)
... (2)
... (3)
Donde R, G y B han sido normalizados para que estén en el intervalo [0,1] y las ecuaciones (1 al 3) también pertenece al intervalo [0,1] y que:
... (4)
Los cambios normalizados tienen que satisfacer la ecuación (4) (González & Woods, 2008). Para tres componentes de color arbitrarios R, G y B, todos ellos en el intervalo [0,1], la componente de intensidad (I) en el modelo IHS se define en ecuación 5:
... (5)
La ecuación para H en términos de R, G y B es (ecuación 6)
... (6)
La ecuación 6 da valores de H que están en el intervalo 0o < H < 180o, si b0 > g0 simplemente H=360°-H. La ecuación para el tono se expresa en términos de la tangente, empleando la identidad trigonométrica cos-1(x)=900- tan-1 (x/ vi - x2 )
La Saturación según el conjunto de valores primarios R, G y B se define en la ecuación 7:
... (7)
De la ecuación 7, H=360°-H, si (B¡I )>(G/I). Para poder normalizar el tono en el intervalo [0, 1], se hace H = H/3600 .
2.2.Conversión de HSI a RGB
Los valores de HSI se encuentran en el intervalo [0,1] y los componentes valores RGB también en el mismo intervalo. Teniendo en cuenta la condición (González & Woods, 2008) que por definición el sector RG es la región acotada por WPRPG, el sector GB es la región acotada WPGPB y el sector BR es la región acotada por WPBPR los sectores definidos deben contener los valores dado de H. Para H=360°(H), lo que devuelve el tono al intervalo [00, 3600], entonces:
Para el sector RG (0°<H < 1200) se tiene que los componente normalizados r, g, b son:
... (8)
... (9)
... (10)
Para en el sector GB (1200 < H < 2400), H=H-120° los componente normalizados r, g, b son:
... (11)
... (12)
... (13)
Los valores de R, G y B se obtienen de r, g y b, para en el sector BR (2400 < H < 3600): H=H-24°° , así:
... (14)
... (15)
... (16)
2.3.Conversion de RGB a HSL o HSV
Según (Foley, Van Dam, 1982), sea (r, g, b) las coordenadas rojas, verdes y azules de un color, y sus valores son números reales entre 0 y 1. Sea max el equivalente al valor más grande de r, g, y b. Sea min igual al menor de estos valores. Para encontrar el valor de (h, s, l) en el espacio HSL, donde h e [0, 360] grados es el ángulo de tono del ángulo, y s, l e [0,1] son la saturación y el brillo respectivamente.
Luminancia
... (17)
Saturación
... (18)
Tono
... (19)
El valor de h generalmente se normaliza para estar entre 0 y 360 °. Y h = 0 se usa cuando max = min (definido como gris) en lugar de dejar h indefinido.
Los espacios HSL y HSV tienen la misma definición de tono (h) , pero los otros componentes son diferentes. Los valores de s y v de color HSV se definen como sigue:
... (20)
... (21)
2.4.Conversión de HSL a RGB
Dado un color definido (Foley & Van Dam, 1982) por el valor normalizado de (h, s, l) en el espacio HSL, con h en el rango de valores [0, 360] que indica el ángulo de tonalidad, s y l representan, respectivamente, la saturación y el brillo en el rango de valores [0, 1], correspondientes a los tres colores primarios (r, g, b) en el espacio RGB, estando rojo (r), verde (g), y azul (b) comprendidos en el rango [0, 1], puede calcularse como:
Primero, si s = 0, el color del resultado es acromático o gris. En este caso especial, r, g, y b son todos iguales a l. Tenga en cuenta que el valor de h no está definido en este caso. Cuando s Ф 0, se puede utilizar el siguiente proceso, (Foley & Van Dam, 1982).:
... (22)
p = 2 × l - q, hk = ... (la unidad de h se convierte en [0,1])
... (23)
para cadaC ∈ {R,G,B}
2.5.Conversión de HSV a RGB
Del mismo modo que el proceso anterior, dado un color definido (Foley & Van Dam, 1982) por el valor de (h, s, v) en HSV, h con una variación entre 0 y 360°, y s y v saturación y luminosidad respectivamente varian entre 0 y 1, correspondientes a los tres colores primarios (r, g , b) en el espacio RGB se puede calcular como (R, G, y B) los cuales varían entre 0 y 1:
h = ...
Para cada vector de color (r, g, b),
... (24)
3.Algoritmo de A trous para la fusión de imágenes satelitales Ikonos
Dutilleux (1989) propuso el algoritmo basado en la transformada de ondículas calculada mediante el algoritmo de cavidades (A trous), este algoritmo es independiente de la direccionalidad del proceso de filtrado (filtrado isotrópico) y por otro es redundante, en el sentido que, entre dos niveles de degradación consecutivos, no existe una compresión espacial diádica de la imagen original.
En este caso, el esquema de descomposición de imágenes se representa con un paralelepípedo. La base de éste es también la imagen original de resolución de columnas y filas. Cada nivel del paralelepípedo es una imagen aproximación de la imagen original.
Conforme se asciende de nivel, las sucesivas aproximaciones presentan menor resolución, siendo ésta de 2n en el nivel N del paralelepípedo ya que también en este caso el factor de degradación es diádico. Cada una de las imágenes aproximación se obtiene aplicando una función de escala. El detalle espacial que se pierde al pasar de la imagen A2j a A2j-1 se recoge en una única imagen de coeficientes wavelet, frecuentemente denominada plano wavelet y que se obtiene restando las imágenes original y aproximación. Cuando se aplica la transformación inversa, la imagen aproximación puede reconstruirse sumando a la imagen aproximación el plano wavelet. El algoritmo 'A trous' es invariante a la traslación por lo que todas las imágenes aproximación y todos los planos wavelet resultantes de la descomposición tienen el mismo tamaño que la imagen original. La implementación práctica del algoritmo 'A trous' se realiza empleando un filtro bidimensional de paso bajo asociado a la función de escala, en este caso, una spline bi-cúbica.
4.Metodología e Implementación de la Transformada Wavelet algoritmo de Á trous para la fusion de imágenes de satelite WorldView-2
4.1. Zona de Estudio
El área de estudio se localiza en Bogotá (Colombia), específicamente en el sector central y corresponde al Parque Metropolitano Simón Bolívar, es una zona cubierta por una sub imagen Ikonos tanto pancromática (PAN) como multiespectral (MULTI) como se ve en la figura 1. La sub imagen PAN tiene una resolución espacial de uno (1) metro, y fue tomada el 13 de diciembre de 2007; su sistema de referencia corresponde a UTM/ WGS 84. La sub imagen MULTI cuenta con cuatro canales, pero solo tres canales son usados en esta investigación (R-rojo, G-verde y B-azul) y tiene una resolución espacial de cuatro (4) metros; fue adquirida la misma fecha que la PAN y tiene el mismo sistema de referencia. Las dos imágenes fueron recortadas con un ancho de 2048 y un alto de 2048 pixeles, para satisfacer la propiedad Diádica (Nievergelt, 1999; Nuñez et al., 1999).
4.2.Implementación de la Transformada Wavelet algoritmomo de Á trous para la fusión de imágenes Ikonos
A continuación, se describen cinco pasos para la implementación del algoritmo A trous con las tres componentes: Intensidad, Luminancia y Value. Para una imagen RGB (Verdadero color)
Paso 1. Registrar una composición a color RGB (verdadero color) de la imagen MULTI con la imagen PAN, usando el mismo tamaño de pixel de esta última (1 metro), luego transformar la imagen RGB en componentes de acuerdo a los modelos de color analizados, a saber: IHS (Intensidad, tono y saturación); HSL (Luminancia, tono y saturación); y HSV (Value, tono y saturación). Se ajusta los histogramas de la imagen PAN y las componentes I, L y V, obteniendo las nuevas componentes I , L y V .
Paso 2. Aplicar el concepto de Transformada Wavelet algoritmo de Á trous a I , Lap y Vap, en cada modelo de color, obteniendo de esta manera los planos wavelet donde se almacena la información espacial tanto de I como de L y V. Se obtienen de esta manera los planos wavelet, que corresponden a la resta de las componentes (I , Lap y Vap) y el resultado de aplicarles el filtro spline bi-cúbica este proceso se realiza dos veces de esta manera se obtienen los planos Wi, W2 de cada componente y cada modelo de color
Paso 3. Generar las nuevas componentes a partir de la suma de las planos wavelet (paso 2) y la componente usada de acuerdo al modelo de color, asi: (N-INT=I+Wi+W2) para obtener la nueva componente intensidad; (N-LUM=LWi+W2) para obtener la nueva componente luminancia; y (N-VAL=V+Wi+W2) para obtener la nueva componente value.
Paso 4. Generar una nueva composición usando las nuevas matrices de los componentes (paso4) de acuerdo al modelo de color, así: IHS (N-IHS), uniendo la N-INT junto con las componentes originales H y S (obtenidas en el paso 1); HSL (N-HSL), uniendo la N-LUM junto con las componentes originales H y S (obtenidas en el paso 1); y HSV (N-HSV), uniendo la N-VAL junto con las componentes originales H y S (obtenidas en el paso 1).
Paso 5. Realizar la transformación inversa desde el modelo de color analizado hacia el RGB, de esta manera se obtiene la nueva imagen multiespectral (N-MULTIi) para cada modelo, que mantiene la resolución espectral ganando la resolución espacial, de la manera siguiente: IHS a RGB, usando la nueva composición N-IHS; HSL a RGB, usando la nueva composición N-HSL; HSV a RGB, usando la nueva composición N-HSV.
4.3.Evaluación de la efectividad de la implementación de la Transformada Wavelet Á trous para la fusión de imágenes
Para la evaluación y análisis de los resultados de las imágenes fusionadas usando la Wavelet Á trous implementadas, se utilizaron los siguientes índices: coeficiente de correlación (corr), índice RASE (Relative Average Spectral Error), índice ERGAS (Erreur Relative Globale Adimensionallede Synthese) e índice de calidad universal Q, los cuales se describen a continuación.
1.Coeficiente de correlación (corr)
La correlación entre las diferentes bandas corr(A / B) de las imágenes fusionadas y las bandas de la imagen original se pueden calcular con la siguiente ecuación:
... (26)
Donde A y B son los valores de la media de las imágenes correspondientes, corr( A / B) varía entre -1 y +1 y es una cantidad adimensional (ver tabla i), es decir no depende de las unidades empleadas. El valor ideal de la correlación, tanto espectral como espacial, es i (Murray & Larry, 2009).
2.Índice ERGAS
La evaluación de la calidad de las imágenes fusionadas se ha llevado a cabo mediante los índices ERGAS espectral y espacial (ver tabla 2). La definición de ERGAS espectral (Wald, 2002) viene dada por la ecuación 27:
... (27)
Donde h y l representan la resolución espacial de las imágenes PAN.y MULTI; NBandas es el número de bandas de la imagen fusionada; MULTI1 es el valor de la radiancia de la banda i - ésima de imagen MULTI (Wald, 2000) y RMSE será definida como sigue (28):
... (28)
Siendo NP el número de pixeles de la imagen FUSi (x, y). Adicionalmente, Lillo y su equipo (2005) proponen otro índice, denominado ERGASEspacial que está inspirado en el índice ERGAS espectral (Lillo-Saavedra, Gonzalo, Arquero, & Martinez, 2005). El objetivo del índice ERGASEspacial es evaluar la calidad espacial de las imágenes fusionadas, por lo que se define como (29):
... (29)
Donde RMSEEspacial es definido como sigue en la ecuación 30:
... (30)
Los mejores resultados de éstos índices (ERGAS espacial y espectral) se obtienen cuando es más cercano a cero (ver tabla 2).
3.Índice RASE
El índice RASE se expresa como un porcentaje (ecuación 31), ver resultados en la tabla 2:
... (31)
Donde h es la resolución de la imagen de alta resolución especial (PAN) y l es la resolución de la imagen de baja resolución espacial (MULTI) (Wald, 2000). Los mejores resultados se obtienen cuanto el porcentaje está más cerca a cero.
4. Índice de calidad universal Q
Este modelo de índice de calidad identifica cualquier distorsión como una combinación de tres factores: pérdida de correlación, distorsión de luminancia y contraste de distorsión (Wang & Bovink, 2002). El índice se obtiene con la ecuación 32 (ver resultados en tabla 2).
... (32)
Los mejores valores de este índice se obtienen cuando el valor es más cercano a uno.
5.Resultados y análisis de resultados
Desde el punto de vista cualitativo, visualmente la figura 2 muestra una zona tanto de las imágenes MULTI (fig. 2a) y PAN MULTI (fig. 2b) como de las imágenes fusionadas usando los tres modelos de color (fig. 2c a 2e).
De otra parte, los resultados de la evaluación cuantitativa se presentan en las tablas 1 y 2. La tabla 1 muestra los resultados de la correlación espacial y espectral de las imágenes fusionadas con las Wavelet Á trous con las componentes I, L y V.
Analizando los resultados de corr Espacial se evidencia que los máximos valores se obtienen para la imagen MULTIINT, en cada uno de las tres bandas (RGB). Respecto al corr Espectral, el valor obtenido más alto se obtiene con la imagen fusionada MULTIval. En la tabla 2 se muestran los resultados obtenidos usando los índices RASE; ERGAS y índice de calidad universal Q, tanto espacial como espectral.
Los resultados presentados por el índice ERGAS espacial favorecen a la imagen fusionada MULTIlum con un valor de 12.27 mientras que el ERGAS espectral da mejor resultado en la imagen MULTIval con un valor de 5.59. En lo que respecta el índice RASE espacial y espectral los mejores valores obtenidos se comportan similar al índice ERGAS, es decir mejor RASE espacial para MULTILUm (12.27 %) y mejor RASE espectral para MULTIvaL (22.66%). Finalmente el índice de Calidad Universal Qu especial presenta los mejores valores conjuntamente para MULTIinT y MULTILUm, mientras que espectralmente el mejor resultado es alcanzado por MULTIvaL.
6.Conclusiones
Las investigaciones realizadas anteriormente han demostrado que los métodos de fusión de imágenes basados en la transformada de Wavelet algoritmo de Á trous son más adecuados para la fusión de imágenes que los métodos convencionales. La implementación propuesta del desarrollo matemático de los modelos de color IHS, HSL y HSV a los que se les aplica la Transformada Wavelet Á trous permitió generar imágenes fusionadas con imágenes satelitales Ikonos. Los resultados obtenidos del análisis cualitativo (fig. 2) y cuantitativo (tab. 1 y 2) demuestran que los mejores resultados de la fusión de imágenes, que degrada en menor valor la riqueza espectral usando la Transformada Á trous, se obtiene con la componente Value (MULTIvaL), ya que ofrece mejores resultados con los índices corr, ERGAS, RASE Q espectrales.
La metodología propuesta permite obtener imágenes fusionadas que ofrecen a los usuarios información detallada sobre los entornos urbanos y rurales, lo cual es útil para aplicaciones como la planificación y la gestión urbana, cuando no se cuenta con imágenes de mejor resolución espacial como por ejemplo adquiridas con drones. Su utilidad se extiende al desarrollo de proyectos en diversos campos como agricultura, hidrología, medioambiente y gestión de emergencias producidas por catástrofes naturales (inundaciones, incendios forestales), entre otros.
Referencias
Alparone, L. Wald, L. Chanussoat, J. Thomas, C. Gamba, P. Bruce, L. (2007). Comparison of Pansharpening Algorithms: Outcome of the 2006 GRS-S Data Fusion Contest, IEEE Transactions on Geoscience and Remote Sensing.Vol. 45 No. 10. pp 3012-3021.
Burrus, C. (2015, Septiembre 24). Wavelets and Wavelet Transforms. Retrieved from the Web site: http://cnx.Org/content/col11454/1.6/.
Dutilleux P. (1989) An Implementation of the "algorithme a trous" to Compute the Wavelet Transform. In: Combes JM., Grossmann A., Tchamitchian P. (eds) Wavelets. Inverse Problems and Theoretical Imaging. Springer, Berlin, Heidelberg. https://doi.org/10.1007/978-3-642-97177-8_29
Gonzalo Consuelo & Lillo-Saavedra Mario (2008) A directed search algorithm for setting the spectral-spatial quality trade-off of fused images by the wavelet a trous method, Canadian Journal of Remote Sensing, 34:4, 367-375, DOI: 10.5589-08-041
González, R. C. y Woods, R. E. (2008) Digital Image Processing, 3rd. Edition, Prentice Hall. ISBN: 9780131687288.
Foley, J. D., Van Dam A. Fundamentos de gráficos por computadora interactivos. Boston, MA, EUA: Addison-Wesley. (1982). ISBN 0-201-14468-9 .
Lillo-Saavedra, M. Gonzalo, C. Arquero, A. and Martinez, E. (2005). Fusion of multispectral and panchromatic satellite sensor imagery based on tailored filtering in the Fourier domain. International Journal of Remote Sensing. Vol. 26, pp. 1263-1268.
Nievergelt, Y. (1999). Wavelets made easy. Ed Birkhäuser, Boston, 297 p.
Nuñez, J. Otazu, X. Fors, O. Prades, A. Pala, V. Arbiol, R. ( 1999). Multiresolution-Based Image fusion whit Additive Wavelet Descomposition. IEEE Transactions on Geoscience and Remote Sensing. Vol 37, N°. 3, pp 1204 -1211.
Medina, J. Pinilla, C. Joyanes, L. (2013). Two-Dimensional Fast Haar Wavelet Transform for Satellite-Image Fusion, Journal of Applied Remote Sensing.
Murray, S. R. y Larry J. F. (2009). Estadística, Cuarta edición, (Mc Graw Hill).
Wald, L. (2000). Quality of high resolution synthesized images: is there a simple criterion?, Proceedings of the third conference "Fusion of Earth data: merging point measurements, raster maps and remotely sensed image", pp. 26-28, 2000, T Ranchin and L. Wald Editors, Nice: SEE/URISCA. pp. 99-105.
Wang, Z. & Bovink, A. C. (2002). A Universal Image Quality Index. IEEE Signal Processing Letters, vol. XX, no Y.
You have requested "on-the-fly" machine translation of selected content from our databases. This functionality is provided solely for your convenience and is in no way intended to replace human translation. Show full disclaimer
Neither ProQuest nor its licensors make any representations or warranties with respect to the translations. The translations are automatically generated "AS IS" and "AS AVAILABLE" and are not retained in our systems. PROQUEST AND ITS LICENSORS SPECIFICALLY DISCLAIM ANY AND ALL EXPRESS OR IMPLIED WARRANTIES, INCLUDING WITHOUT LIMITATION, ANY WARRANTIES FOR AVAILABILITY, ACCURACY, TIMELINESS, COMPLETENESS, NON-INFRINGMENT, MERCHANTABILITY OR FITNESS FOR A PARTICULAR PURPOSE. Your use of the translations is subject to all use restrictions contained in your Electronic Products License Agreement and by using the translation functionality you agree to forgo any and all claims against ProQuest or its licensors for your use of the translation functionality and any output derived there from. Hide full disclaimer
© 2021. This work is published under https://creativecommons.org/licenses/by-nc-nd/4.0 (the “License”). Notwithstanding the ProQuest Terms and Conditions, you may use this content in accordance with the terms of the License.
Abstract
Abstract: This article develops mathematically the IHS, HSL, and HSV color models, to which the undecided Wavelet 2D Transform (Trous Algorithm) is applied using Matlab in order to establish the best color model for image fusion purposes. In order to determine the efficiency of the Wavelet Transform, the fused images were evaluated in both spatial and spectral quality across four indexes, namely correlation index, ERGAS, RASE and Q index. The best evaluation results were obtained by the MULTIval image that used the Value component of the HSV color model achieved spectral correlations greater than 0.94, a Q index value of 0.94 and the best values of ERGAS and RASE spectral. Por mencionar algunos ejemplos (González & Woods, 2008; Foley & Van Dam, 1982): un espacio de una dimensión corresponde a la escala de grises; un espacio de dos dimensiones representa los planos RG, GB y BR que son variedades del amarillo, cian y magenta respectivamente; un espacio tridimensional es el espacio RGB (Red, Green, Blue), HSV (Hue, Saturation, Value), HSI (Hue, Saturation, Intensity) o YIQ (luminance, in-phase, quadrature); un espacio de cuatro dimensiones corresponde al CMYK (Cyan, Magenta, Yellow & Key/Black) ampliamente utilizado en la impresión a color.
You have requested "on-the-fly" machine translation of selected content from our databases. This functionality is provided solely for your convenience and is in no way intended to replace human translation. Show full disclaimer
Neither ProQuest nor its licensors make any representations or warranties with respect to the translations. The translations are automatically generated "AS IS" and "AS AVAILABLE" and are not retained in our systems. PROQUEST AND ITS LICENSORS SPECIFICALLY DISCLAIM ANY AND ALL EXPRESS OR IMPLIED WARRANTIES, INCLUDING WITHOUT LIMITATION, ANY WARRANTIES FOR AVAILABILITY, ACCURACY, TIMELINESS, COMPLETENESS, NON-INFRINGMENT, MERCHANTABILITY OR FITNESS FOR A PARTICULAR PURPOSE. Your use of the translations is subject to all use restrictions contained in your Electronic Products License Agreement and by using the translation functionality you agree to forgo any and all claims against ProQuest or its licensors for your use of the translation functionality and any output derived there from. Hide full disclaimer
Details
1 Proyecto Curricular Ingeniería Catastral y Geodesia, Facultad de ingeniería, Grupo GEFEM, GRSS IEEE UD, Universidad Distrital Francisco José de Caldas (UDFJC). Sede principal: Carrera 7 No. 40B - 53. Bogotá D. C., Colombia
2 Proyecto Curricular Maestría en Ciencias de la Información y las Comunicaciones, Universidad Distrital Francisco José de Caldas (UDFJC). Sede principal: Carrera 7 No. 40B - 53. Bogotá D. C., Colombia