ES2310136B1 - METHOD FOR AUTOMATIC IMPROVEMENT OF IMAGES AND SEQUENCES WITH SPACIALLY VARIANT DEGRADATION. - Google Patents

METHOD FOR AUTOMATIC IMPROVEMENT OF IMAGES AND SEQUENCES WITH SPACIALLY VARIANT DEGRADATION. Download PDF

Info

Publication number
ES2310136B1
ES2310136B1 ES200701574A ES200701574A ES2310136B1 ES 2310136 B1 ES2310136 B1 ES 2310136B1 ES 200701574 A ES200701574 A ES 200701574A ES 200701574 A ES200701574 A ES 200701574A ES 2310136 B1 ES2310136 B1 ES 2310136B1
Authority
ES
Spain
Prior art keywords
images
image
automatic method
interest
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
ES200701574A
Other languages
Spanish (es)
Other versions
ES2310136A1 (en
Inventor
Gabriel Cristobal Perez
Salvador Gabarda Tebar
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Consejo Superior de Investigaciones Cientificas CSIC
Original Assignee
Consejo Superior de Investigaciones Cientificas CSIC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Consejo Superior de Investigaciones Cientificas CSIC filed Critical Consejo Superior de Investigaciones Cientificas CSIC
Priority to ES200701574A priority Critical patent/ES2310136B1/en
Priority to PCT/ES2008/070106 priority patent/WO2008148924A1/en
Publication of ES2310136A1 publication Critical patent/ES2310136A1/en
Application granted granted Critical
Publication of ES2310136B1 publication Critical patent/ES2310136B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • G06K9/6293
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Método para la mejora automática de imágenes y secuencias con degradación espacialmente variante.Method for automatic image enhancement and sequences with spatially variant degradation.

La presente invención se refiere a un método automático para la mejora de imágenes que se basa en la eliminación de degradaciones espacialmente variantes debidas a condiciones ambientales o meteorológicas adversas.The present invention relates to a method Automatic image enhancement based on deletion of spatially varying degradations due to conditions Environmental or adverse weather.

Description

Método para la mejora automática de imágenes y secuencias con degradación espacialmente variante.Method for automatic image enhancement and sequences with spatially variant degradation.

Sector de la técnicaTechnical sector

La presente invención se refiere a un método de mejora de la calidad de imágenes, mediante la aplicación de un método matemático del cálculo de la entropía asociada, obtenidas con aparatos ópticos y en las cuales existan degradaciones debidas a nieblas, aerosoles en suspensión o cubiertas de nubes que hacen no apto el resultado de una toma o grabación. Esta patente de invención es aplicable en trabajos de percepción remota, tareas de video-vigilancia (tanto aérea como submarina) o en imágenes tomadas en presencia de neblina, aerosoles en dispersión o escenas en donde una cubierta de nubes puede hacer imposible el logro de imágenes de calidad demandada. Dicha medida facilita la eliminación de las degradaciones espacialmente variantes presentes en las imágenes, tales como neblina, cubierta de nubes, etc. Por otro lado, el método aquí descrito puede tener aplicaciones en otros ámbitos de interés, como pueden ser las imágenes biomédicas, y más concretamente, en los sistemas de exploración del fondo de ojo en presencia de cataratas en el cristalino. Como en los pacientes que presentan esta alteración, la observación directa de la retina ocular es difícil, el método aquí propuesto permitiría obtener una mejora de las secuencias de imágenes tomadas, al reducir el efecto producido por la turbidez del cristalino.The present invention relates to a method of improvement of image quality, by applying a mathematical method of calculating the associated entropy, obtained with optical devices and in which there are degradations due to mists, suspended sprays or cloud covers that do not Fit the result of a shot or recording. This patent of invention is applicable in remote sensing jobs, tasks of video surveillance (both aerial and underwater) or in images taken in the presence of mist, dispersed aerosols or scenes where a cloud cover can make the Achievement of demanded quality images. This measure facilitates the elimination of spatially present degradations in the images, such as fog, cloud cover, etc. By On the other hand, the method described here may have applications in other areas of interest, such as biomedical images, and more specifically, in the fundus scanning systems in the presence of cataracts in the lens. As in patients presenting this alteration, direct observation of the retina eyepiece is difficult, the method proposed here would allow to obtain a improvement of the sequences of images taken, by reducing the effect produced by the turbidity of the lens.

Estado de la técnica anterior a la invenciónState of the art prior to the invention

Es conocido entre los especialistas de la información gráfica y de la utilización de imágenes que hay un buen número de circunstancias que en la práctica pueden dificultar tanto la identificación como el reconocimiento de objetos en imágenes, debido a la presencia de degradaciones espacialmente variantes. Ejemplos de tales situaciones se presentan tanto en percepción remota como en tareas de video-vigilancia, en donde la presencia de neblina, aerosoles, cubierta de nubes, etc. puede dificultar enormemente las tareas de análisis de dichas imágenes.It is known among the specialists of the graphic information and the use of images that there is a good  number of circumstances that in practice can make it so difficult identification as the recognition of objects in images, due to the presence of spatially variant degradations. Examples of such situations are presented both in perception remote as in video surveillance tasks, where the presence of fog, aerosols, cloud cover, etc. may greatly hinder the analysis tasks of said images.

Cuando las tareas de restauración de imágenes se llevan a cabo de modo ciego, es decir sin un conocimiento previo del proceso de degradación, dichos métodos se denominan métodos de deconvolución ciega [1]. En el caso de que el desenfoque no esté uniformemente distribuido sobre la imagen, dicha degradación afecta a las diferentes regiones de una misma imagen de modo diferente. Dicho escenario se denomina en la literatura desenfoque espacialmente variante [2]. Un caso particular de degradación espacialmente variante se presenta cuando se dispone de imágenes multi-focales, multi-temporales o multi-sensoriales, incluyendo el caso de secuencias de video. En todos estos casos son aplicables diversas técnicas de fusión de imágenes [3-4]. Conocemos como "fusión de imágenes" a aquel proceso mediante el cual las regiones visualmente más importantes dentro de un conjunto de imágenes fuente, se representan por medio de una imagen única, facilitando por tanto su análisis.When image restoration tasks are carried out blindly, that is without prior knowledge of the degradation process, these methods are called methods of blind deconvolution [1]. In case the blur is not evenly distributed over the image, such degradation affects to different regions of the same image differently. This scenario is called in the literature blur spatially variant [2]. A particular case of degradation spatially variant is presented when images are available multi-focal, multi-temporary or multi-sensory, including the case of sequences Of video. In all these cases, various techniques of image fusion [3-4]. We know as "fusion of images "to that process by which regions visually more important within a set of images source, are represented by means of a single image, facilitating Therefore its analysis.

El método aquí propuesto en esta solicitud permite obtener una muy buena discriminación de los objetos de interés, al eliminar en las imágenes los tipos de degradaciones descritos anteriormente y que son de difícil tratamiento mediante los métodos convencionales de procesado de imágenes. Este método se basa en la extracción de una medida local de la anisotropía en las imágenes.The method proposed here in this application allows to obtain a very good discrimination of the objects of interest, by eliminating in the images the types of degradations described above and that are difficult to treat by Conventional methods of image processing. This method is based on the extraction of a local measure of anisotropy in the images.

En el área de la eliminación de degradaciones del tipo de neblina anteriormente descrito, se han propuesto diversos métodos, incluyendo métodos adaptativos y los basados en ondículas [5-8]. La mayoría de estos procedimientos, actualmente en el mercado, se basan en la hipótesis de que las degradaciones presentes son del tipo espacialmente invariante, una condición que en la práctica habitual no se verifica.In the area of elimination of degradations of the type of mist described above, various methods have been proposed, including adaptive and wave-based methods [5-8]. Most of these procedures, currently on the market, are based on the hypothesis that the present degradations are of the spatially invariant type, a condition that in the usual practice is not verified.

La invención que aquí se propone consiste en un nuevo método de fusión entre los distintos fotogramas de la secuencia de entrada, que permite resolver el problema de la eliminación de las degradaciones originadas por la presencia de neblinas, aerosoles, etc. Las ventajas del procedimiento que aquí se propone son:The invention proposed here consists of a new method of fusion between the different frames of the input sequence, which allows to solve the problem of elimination of degradations caused by the presence of mists, sprays, etc. The advantages of the procedure here It is proposed are:

--
Su bajo coste computacional, comparado con otros métodos que trabajan con distribuciones espacio-frecuencia para la representación de la información contenida en las imágenes.its low computational cost, compared to other methods that work with space-frequency distributions for the representation of the information contained in the images.

--
Se basa en un proceso de fusión lo que permite efectuar una mejor discriminación de la señal frente al ruido, lo que facilita obtener resultados con una mejora significativa del contraste de las imágenes.Be based on a merger process which allows a better effect signal discrimination against noise, which makes it easier to obtain results with a significant improvement in the contrast of images.

--
Proporciona, implícitamente, la definición de una medida cuantitativa de la mejora que se obtiene.Provides, implicitly, the definition of a quantitative measure of the improvement that gets.

Por último, cabe mencionar también varias patentes de invención que se encuentran relacionadas con la presente propuesta [18-21]. Debemos señalar que dichos trabajos anteriores utilizan técnicas diferentes a las de fusión que aquí se describen además de no proporcionar una medida cuantitativa del grado de mejora que se obtiene con ellas. Por lo que se refiere a las patentes de invención relacionadas con la exploración de las cataratas en el ojo, hay que mencionar la recientemente presentada en la referencia [22].Finally, there are also several invention patents that are related to the present proposal [18-21]. We should point out that these previous works use different techniques from those of merger described here in addition to not providing a measure quantitative of the degree of improvement that is obtained with them. For the which refers to the invention patents related to the exploration of cataracts in the eye, we must mention the recently presented in the reference [22].

       \newpage\ newpage
    
Referencias bibliográficasBibliographic references

[1] D. Kundur and D. Hatzinakos, "Blind Image Deconvolution." IEEE Signal Processing Magazine, 13(3), 1996, pp. 43-64.[1] D. Kundur and D. Hatzinakos , "Blind Image Deconvolution." IEEE Signal Processing Magazine , 13 (3), 1996 , pp. 43-64.

[2] A. N. Rajagopalan and S. Chaudhuri, "Space-Variant Approaches to Recovery of Depth from Defocused Images." Computer Vision and Image Understanding, Vol. 68, No. 3, 1997, pp. 309-329.[2] AN Rajagopalan and S. Chaudhur i, "Space-Variant Approaches to Recovery of Depth from Defocused Images." Computer Vision and Image Understanding , Vol. 68, No. 3, 1997 , pp. 309-329.

[3] D. Kundur, D. Hatzinakos, and H. Leung, "A Novel Approach to Multispectral Blind Image Fusion." In B. V. Dasarathy, editor, Sensor Fusion: Architectures, Algorithms, and Applications, Proceedings of SPIE, Vol. 3067, 1997, pp. 83-93.[3] D. Kundur , D. Hatzinakos , and H. Leung , "A Novel Approach to Multispectral Blind Image Fusion." In BV Dasarathy, editor, Sensor Fusion: Architectures, Algorithms, and Applications, Proceedings of SPIE , Vol. 3067, 1997 , pp. 83-93.

[4] Z. Zhang and R.S. Blum, "A categorization of multiscale-decomposition-based image fusion schemes with a performance study for a digital camera application", Proc. IEEE, 87, 1999, pp. 1315-1328.[4] Z. Zhang and RS Blum , "A categorization of multiscale-decomposition-based image fusion schemes with a performance study for a digital camera application", Proc. IEEE , 87, 1999 , pp. 1315-1328.

[5] Y. Du, B. Guindon and J. Cihlar, "Haze detection and removal in high resolution satellite images with wavelet analysis," IEEE Trans. Geosci. Remote Sensing, 40, 2002, pp. 210-217.[5] Y. Du , B. Guindon and J. Cihlar , "Haze detection and removal in high resolution satellite images with wavelet analysis," IEEE Trans. Geosci Remote Sensing , 40, 2002 , pp. 210-217.

[6] Y. Zhang, B. Guindon and J. Cihlar "Development of a robust haze detection algorithm: assessment using temporally invariant targets", in Proc. IGARSS Toronto, ON, Canada, June 24-28, 2002.[6] Y. Zhang , B. Guindon and J. Cihlar "Development of a robust haze detection algorithm: assessment using temporally invariant targets", in Proc. IGARSS Toronto , ON, Canada, June 24-28, 2002 .

[7] Y. Zhang and B. Guindon, "Quantitative assessment of a haze suppression methodology for satellite imagery: effect on land cover classification performance", IEEE Trans. On Geoscience and Remote Sensing, 41, 2003, pp. 1082-1089.[7] Y. Zhang and B. Guindon , "Quantitative assessment of a haze suppression methodology for satellite imagery: effect on land cover classification performance", IEEE Trans. On Geoscience and Remote Sensing , 41, 2003 , pp. 1082-1089.

[8] R. Richter, "Atmospheric correction of satellite data with haze removal including a haze/clear transition region", Comput. Geosci, 22, 1996, pp. 675-681.[8] R. Richter , "Atmospheric correction of satellite data with haze removal including a haze / clear transition region", Comput. Geosci , 22, 1996 , pp. 675-681.

[9] E. Wigner, "On the Quantum Correction for Thermodynamic Equilibrium." Physical Review, Vol. 40, 749-759 (1932).[9] E. Wigner , "On the Quantum Correction for Thermodynamic Equilibrium." Physical Review , Vol. 40, 749-759 ( 1932 ).

[10] T. A. C. M. Claasen and W. F. G. Mecklenbráuker, "The Wigner Distribution - A Tool for Time-Frequency Analysis," Parts I-III. Philips J. Research, Vol. 35, 217-250, 276-300, 372-389 (1980).[10] TACM Claasen and WFG Mecklenbráuker , "The Wigner Distribution - A Tool for Time-Frequency Analysis," Parts I-III. Philips J. Research , Vol. 35, 217-250, 276-300, 372-389 ( 1980 ).

[11] K. H. Brenner, "A Discrete Version of the Wigner Distribution Function," Proc. EURASIP, Signal Processing II: Theories and Applications, 307-309 (1983).[11] KH Brenner , "A Discrete Version of the Wigner Distribution Function," Proc. EURASIP, Signal Processing II: Theories and Applications , 307-309 ( 1983 ).

[12] L. Galleani, L. Cohen, G. Cristóbal and B. Suter, "Generation and denoising of images with clouds," SPIE, 8-10 July 2002, Seattle, Washington, USA.[12] L. Galleani , L. Cohen , G. Cristóbal and B. Suter , "Generation and denoising of images with clouds," SPIE , 8-10 July 2002 , Seattle, Washington, USA.

[13] C. E. Shannon and W. Weaver. The Mathematical Theory of Communication. The University of Illinois Press, Urbana, Chicago, London, 1949.[13] CE Shannon and W. Weaver . The Mathematical Theory of Communication. The University of Illinois Press , Urbana, Chicago, London, 1949 .

[14] N. Wiener. Cybernetics. Wiley, New York, 1948.[14] N. Wiener . Cybernetics Wiley, New York, 1948 .

[15] Alfréd Rényi. "Some fundamental questions of information theory". In Pál Turán, editor, Selected Papers of Alfréd Rényi, volume 3, pp. 526-552. Akadémiai Kiadó, Budapest, 1976. (Originally: MTA III. Oszt. Közl., 10, 1960, pp. 251-282).[15] Alfréd Rényi. "Some fundamental questions of information theory." In Pál Turán, editor, Selected Papers of Alfréd Rényi , volume 3, pp. 526-552. Akadémiai Kiadó, Budapest, 1976 . (Originally: MTA III. Oszt. Közl., 10, 1960, pp. 251-282).

[16] P. Flandrin, R.G. Baraniuk, O. Michel, "Time-frequency complexity and information", Proceedings of the ICASSP, vol. 3, 1994, pp. 329-332.[16] P. Flandrin , RG Baraniuk , O. Michel , "Time-frequency complexity and information", Proceedings of the ICASSP , vol. 3, 1994 , pp. 329-332.

[17] Y. Qu, Z. Pu, H. Zhao and Y. Zhao, "Comparison of different quality assessment functions in autoregulative illumination intensity algorithms", Optical Engineering, 45, 2006, pp. 117201.[17] Y. Qu , Z. Pu , H. Zhao and Y. Zhao , "Comparison of different quality assessment functions in autoregulative illumination intensity algorithms", Optical Engineering , 45, 2006 , pp. 117201.

[18] N. Srinivasa, "Method and apparatus for illumination compensation of digital images", US Patent 7164808, 2003.[18] N. Srinivasa , "Method and apparatus for illumination compensation of digital images", US Patent 7164808, 2003 .

[19] L.S. Bernstein, S.M. Adler-Golden, S.M. Perkins y T.C. Berk, "Method for performing automated in-scene based atmospheric compensation for multispectral imaging sensors in the solar reflective spectral region", US Patent 10/356.060, 2003.[19] LS Bernstein , SM Adler-Golden , SM Perkins and TC Berk , "Method for performing automated in-scene based atmospheric compensation sensors for multispectral imaging sensors in the solar reflective spectral region", US Patent 10 / 356,060, 2003 .

[20] L.S. Bernstein, S.M. Adler-Golden, S.M. Perkins, T.C. Berk y R.T. Levine, "Method for determining a measure of atmospheric aerosol optical properties using a multi- or hyperspectral multipixel image", US Patent 11/100670, 2005.[20] LS Bernstein , SM Adler-Golden , SM Perkins , TC Berk and RT Levine , "Method for determining a measure of atmospheric aerosol optical properties using a multi- or hyperspectral multipixel image", US Patent 11/100670, 2005 .

[21] R.A. Morton, "Methods for automatically and semi-automatically transforming digital image date to provide a desired image look", US Patent 09/692282, 2000.[21] RA Morton , "Methods for automatically and semi-automatically transforming digital image date to provide a desired image look", US Patent 09/692282, 2000 .

[22] P. Peterson y T.N. Cornsweet, "Cataract imaging apparatus", US Patent 7156518, January 2007.[22] P. Peterson and TN Cornsweet , "Cataract imaging apparatus", US Patent 7156518, January 2007 .

Descripción detallada de la invenciónDetailed description of the invention

El método propuesto en esta patente de invención consiste en un método para lograr una mejora de la calidad de las imágenes proporcionadas por un dispositivo de captura, tal como una cámara CCD convencional. El procedimiento está caracterizado, en su fase de análisis, por el empleo de una distribución espacio-frecuencia para las imágenes. Posteriormente, se aplica un algoritmo inédito de fusión de imágenes, basado en una medida de anisotropía que permite la obtención de una imagen mejorada. La utilidad del método propuesto se extiende sobre aplicaciones de video-vigilancia, seguridad, navegación, percepción remota y biomedicina.The method proposed in this invention patent  It consists of a method to improve the quality of the images provided by a capture device, such as a conventional CCD camera. The procedure is characterized, in its  analysis phase, by the use of a distribution space-frequency for images. Subsequently, an unpublished fusion algorithm of images, based on a measure of anisotropy that allows the Obtain an improved image. The usefulness of the proposed method extends over video surveillance applications, security, navigation, remote perception and biomedicine.

El método propuesto en esta patente de invención consta de cuatro etapas:The method proposed in this invention patent It consists of four stages:

--
Obtención de la secuencia de video.Obtaining the sequence of video.

--
Pre-procesado de la secuencia de video.Pre-processed of the video stream

--
Cálculo de la anisotropía de las imágenes.Calculation of the anisotropy of images.

--
Fusión de las imágenes.Fusion of the images.
Obtención de la secuencia de videoGetting the video stream

Se consideran secuencias de video obtenidas y almacenadas por procedimientos habituales en la tecnología de imagen digital. Las secuencias deben presentarse subdivididas en fotogramas para su procesado y análisis fotograma a fotograma.Video sequences obtained are considered and stored by usual procedures in the technology of digital image. The sequences must be subdivided into frames for processing and analysis frame by frame.

Pre-procesado de la secuencia de videoPre-processed video stream

La información frecuencial de una señal se obtiene cuando se asocia a una determinada posición n de la señal un vector con los valores discretos proporcionados por la pseudo-distribución de Wigner (PWD). La aproximación discreta de la distribución de Wigner [9] utilizada ha sido la propuesta en [10], similar a la expresión de Brenner [11]:The frequency information of a signal is gets when it is associated with a certain position n of the signal a vector with the discrete values provided by the Wigner pseudo-distribution (PWD). The discrete approximation of the Wigner distribution [9] used has been the proposal in [10], similar to Brenner's expression [eleven]:

1one

donde z^{\text{*}} es el complejo conjugado de la señal z, m y k representan las variables discretas del tiempo y la frecuencia, respectivamente, y W[n, k] es una matriz en donde cada fila es un vector que representa el valor de la PWD en el píxel n, para los distintos valores de frecuencia espacial k. Esta expresión se puede interpretar como la transformada discreta de Fourier (DFT) del producto r[n, m] = z[n + m] z^{\text{*}}[n m], y está limitada al intervalo de vecindad [N/2, N/2 1] del píxel n. La PWD presenta coeficientes con diferente magnitud para cada posición n, debido a cambios en los valores de la señal según la variable espacial.where z ^ {\ text {*}} is the conjugate complex of the signal z, m and k represent the discrete variables of time and frequency, respectively, and W [ n , k ] is a matrix where each row is a vector representing the value of the PWD in pixel n , for the different spatial frequency values k . This expression can be interpreted as the discrete Fourier transform (DFT) of the product r [ n, m ] = z [ n + m ] z ^ {\ text {*}} [ nm ], and is limited to the neighborhood range [ N / 2, N / 2 1 ] of pixel n . The PWD presents coefficients with different magnitude for each position n , due to changes in the values of the signal according to the spatial variable.

En la presente patente de invención se describe un método de mejora de imágenes invariante a los cambios de luminosidad, basado en la caracterización del contenido en frecuencias de la degradación espacialmente variante (en adelante DEV) mediante un patrón PWD, discernible a partir del conocimiento únicamente de la propia imagen. Para ello, la secuencia de entrada que presenta la degradación espacialmente variante se procesa píxel a píxel, dando lugar a una imagen mejorada en la cual se ha suprimido la neblina, cubierta de nubes, etc. De este modo los píxeles que presentan la DEV son eliminados y sustituidos por otros estimados a partir de las imágenes de entrada.The present invention patent describes an image improvement method invariant to changes in luminosity, based on the characterization of the content in frequencies of spatially variant degradation (hereinafter DEV) through a PWD pattern, discernible from knowledge Only from the image itself. To do this, the input sequence presenting the spatially variant degradation pixel is processed to pixel, resulting in an improved image in which it has suppressed fog, cloud cover, etc. In this way the pixels that have the DEV are eliminated and replaced by others Estimated from the input images.

El procedimiento propuesto se basa en la utilización de una implementación 1D lineal de la función de distribución de Wigner indicada en la Eq. (1).The proposed procedure is based on the use of a linear 1D implementation of the function of Wigner distribution indicated in Eq. (one).

22

Ello da lugar a que para cada píxel de la imagen se pueda asociar un vector 1D con el mismo número de componentes que los valores que se emplearon en su cálculo. Dicho vector se puede expresar a través de:This results in that for each pixel of the image a 1D vector can be associated with the same number of components than the values that were used in its calculation. Said vector is can express through:

       \vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
    

33

       \vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
    

Para el cálculo de este vector se utiliza una ventana de datos unidimensionales sobre la imagen, a la que se le puede dar la orientación que se desee, siendo ésta la base teórica fundamental para medir la anisotropía de la imagen que se analiza, por elementos de imagen (píxeles).For the calculation of this vector a One-dimensional data window on the image, which is can give the desired orientation, this being the theoretical basis fundamental to measure the anisotropy of the image being analyzed, by image elements (pixels).

En la práctica, tanto en el caso de imágenes multi-temporales, como de percepción remota, se encuentran a menudo degradaciones debidas a cubiertas de nubes o neblina, lo que dificulta su interpretación. Existen estudios relacionados con la estadística de las nubes consideradas como ruido [12], pero sin embargo no tratan en su formulación la supresión de dicha degradación.In practice, both in the case of images multi-temporal, as remote sensing, is often find degradation due to cloud cover or mist, which makes interpretation difficult. There are studies related to cloud statistics considered as noise [12], but nevertheless they do not treat in its formulation the suppression of such degradation.

En el método propuesto, se realiza, en primer lugar, el cálculo de la PWD anteriormente descrita para cada píxel de la imagen. Para ello se aplica la versión 1D de la PWD en ventanas deslizantes de tamaño N=8 píxeles. De este modo, se obtiene simultáneamente la información espacio-frecuencial de las imágenes. En el caso de que la secuencia de entrada corresponda a una secuencia multi-temporal, con presencia de neblina, es posible utilizar las PWD de puntos homólogos, con distintas orientaciones de las ventanas sobre la imagen para realizar una medida de anisotropía, a través de la cual es posible obtener una imagen libre de degradación. Básicamente, en el método presentado, los elementos de imagen (píxeles) correspondientes a la neblina son sustituidos por píxeles libres de neblina, a partir de la utilización de los fotogramas de la secuencia de entrada y tras aplicar un procedimiento de fusión entre las mismas. Fusión de imágenes es aquel proceso mediante el cual las regiones visualmente más importantes dentro de un conjunto de imágenes fuente, se representan por medio de una única imagen. En líneas posteriores se describirá con detalle el procedimiento de fusión empleado aquí.In the proposed method, it is performed, first instead, the calculation of the PWD described above for each pixel from image. For this, version 1D of the PWD is applied in sliding windows of size N = 8 pixels. In this way, it simultaneously obtain the information space-frequency images. In the case of that the input sequence corresponds to a sequence multi-temporal, with presence of mist, is possible to use the PWD of homologous points, with different orientations of the windows on the image to make a measure of anisotropy, through which it is possible to obtain a degradation free image. Basically, in the method presented, the image elements (pixels) corresponding to the fog are  replaced by mist-free pixels, from the use of the frames of the input sequence and after apply a fusion procedure between them. Fusion of images is that process by which regions visually most important within a set of source images, it they represent by means of a single image. In later lines it  describe in detail the fusion procedure used here.

Cálculo de la anisotropía de las imágenesCalculation of anisotropy of images

Usualmente el concepto de anisotropía está asociado con las diferentes características que se observan en un objeto tridimensional cuando se observa a lo largo de diferentes direcciones, como sucede en el caso de la cristalografía. Del mismo modo dicho concepto puede ser extendido al caso bidimensional de modo que la anisotropía puede ser considerada ciertamente una propiedad inherente de las imágenes naturales que se encuentra relacionada con su dependencia direccional. En la presente patente de invención la anisotropía de las imágenes se va a medir a través del cálculo de la capacidad de información (entropía) de fragmentos de dichas imágenes. Para ello, en primer lugar y como ya se ha indicado, se calculará la PWD en las ventanas deslizantes mencionadas. Dicha distribución, presenta coeficientes con diferente magnitud para cada posición n, debido a cambios en los valores de la señal según su posición. Una forma de cuantificar estas diferencias entre las PWD es mediante una medida realizada en cada posición n, para lo que puede utilizarse la entropía de Rényi de dicha PWD local.Usually the concept of anisotropy is associated with the different characteristics that are observed in a three-dimensional object when viewed along different directions, as in the case of crystallography. In the same way, this concept can be extended to the two-dimensional case so that anisotropy can certainly be considered an inherent property of natural images that is related to its directional dependence. In the present invention patent the anisotropy of the images is to be measured through the calculation of the information capacity (entropy) of fragments of said images. To do this, first and as already indicated, the PWD will be calculated in the mentioned sliding windows. This distribution presents coefficients with different magnitude for each position n , due to changes in the values of the signal according to their position. One way to quantify these differences between the PWD is by means of a measurement made in each position n , for which the Rényi entropy of said local PWD can be used.

La medida de la entropía, o estimación del grado de información contenida en una imagen gráfica, fue inicialmente propuesta de forma independiente por Shannon [13] y Wiener [14] como una medida del contenido de información por símbolo, a partir de una fuente de información estocástica. Posteriormente, Rényi [15] extendió esta noción introduciendo el concepto de entropía generalizada. La medida de la entropía de Rényi aplicada a una distribución espacio-frecuencia (E-F) tiene la forma:The measure of entropy, or estimate of the degree of information contained in a graphic image, was initially proposed independently by Shannon [13] and Wiener [14] as a measure of the information content per symbol, from from a stochastic information source. Subsequently, Rényi [15] extended this notion by introducing the concept of entropy generalized The measure of Rényi's entropy applied to a space-frequency distribution (E-F) has the form:

       \vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
    

44

       \vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
    

donde n es la variable espacial discreta, k es la variable frecuencial discreta y \alpha es un parámetro cuyo valor recomendado ha de ser igual o superior a 2 [16]. En la Eq. (3) P representa la PWD definida en la Eq. (1). En los ejemplos que ilustran la presente memoria de patente de invención se ha tomado un valor de \alpha=3. Aunque las medidas de Rényi de las distribuciones tiempo-frecuencia se parecen a la entropía original, no presentan las mismas propiedades que se derivan de la teoría clásica de la información.where n is the discrete spatial variable, k is the discrete frequency variable and α is a parameter whose recommended value must be equal to or greater than 2 [16]. In the Eq. (3) P represents the PWD defined in Eq. (one). In the examples illustrating the present invention patent specification a value of α = 3 has been taken. Although Rényi's measures of time-frequency distributions resemble the original entropy, they do not have the same properties that derive from the classical theory of information.

Con el fin de adaptar los valores de una distribución, como la PWD, al caso de señales de energía unitaria (Ec. 10), es necesario realizar algún tipo de normalización. La denominada normalización cuántica es la que ha demostrado ser, de forma experimental, la más adecuada. El procedimiento consiste en asociar la PWD de una determinada posición n, con una función de distribución de probabilidad por medio de la expresión:In order to adapt the values of a distribution, such as PWD, in the case of unit energy signals (Ec. 10), it is necessary to perform some kind of normalization. The called quantum normalization is what has proven to be, of experimental form, the most appropriate. The procedure consists of associate the PWD of a certain position n, with a function of probability distribution through expression:

       \vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
    

55

       \vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
    

junto con un paso de normalización para conseguir que la condiciónalong with a normalization step to get that condition

       \vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
    

66

se satisfaga.be please

       \vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
    

Sustituyendo (4) en la ecuación (3) para \alpha=3, resultaSubstituting (4) into equation (3) for α = 3, it turns out

       \vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
    

77

       \vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
    

Esta medida puede ser interpretada a nivel de píxel por medio de:This measure can be interpreted at the level of pixel by means of:

       \vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
    

88

       \vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
    

El término \breve{P} tiene que normalizarse, píxel a píxel, de la siguiente forma:The term \ brief {P} has to be normalized, pixel by pixel, as follows:

99

       \vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
    

1010

con objeto de que se verifique la condición de normalización,in order to verify the condition of standardization,

11eleven

en donde M representa el número de muestras a procesar y k representa la variable frecuencial: -N/2 \leq k \leq N/2 where M represents the number of samples to be processed and k represents the frequency variable: -N / 2 \ leq k \ leq N / 2

       \vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
    

La ecuación (7) proporciona un valor de entropía para cada píxel de la imagen. En base a ello, es posible definir figuras de mérito para cada píxel de la imagen dadas por R[n; \theta_{S}]. Aquí \theta_{S} \epsilon[\theta_{1}, \theta_{2}, ... , \theta_{S}] se ha introducido para representar S orientaciones diferentes para medir la entropía, basada en otras tantas orientaciones de la PWD. De esta manera, se obtiene el valor esperado de la entropía como promedio de un determinado número de direcciones de análisis. En concreto, se eligieron las siguientes orientaciones: (0, 30, 60, 90, 120 y 150º). Finalmente se eligió la variabilidad (desviación estándar) de los valores de entropía a nivel de píxel como una medida de la anisotropía de las imágenes.Equation (7) provides an entropy value for each pixel in the image. Based on this, it is possible to define figures of merit for each pixel of the image given by R [ n ; \ theta_ {S}]. Here \ theta_ {S} \ epsilon [\ theta_ {1}, \ theta_ {2}, ..., \ theta_ {S}] has been introduced to represent S different orientations to measure entropy, based on so many other orientations of the PWD. In this way, the expected value of entropy is obtained as the average of a certain number of analysis directions. Specifically, the following orientations were chosen: (0, 30, 60, 90, 120 and 150º). Finally, the variability (standard deviation) of the entropy values at the pixel level was chosen as a measure of the anisotropy of the images.

Así en el caso que R[n; \theta_{S}] represente el valor de entropía para el píxel n de la imagen, medida según la dirección \theta_{S} \epsilon[\theta_{1}, \theta_{2}, ... , \theta_{S}], la desviación estándar relativa a la posición n de la imagen, puede expresarse mediante:So in the case that R [ n ; \ theta_ {S}] represents the entropy value for the pixel n of the image, measured according to the \ \ theta_ {S} \ epsilon [\ theta_ {1}, \ theta_ {2}, ..., \ theta_ { S}], the standard deviation relative to the position n of the image, can be expressed by:

1212

Donde \mu representa la media de los valores R[n; \theta_{S}] definida mediante la expresión,Where µ represents the average of the R [ n ; \ theta_ {S}] defined by the expression,

1313

El valor \sigma[n] dado por la Ec. (11) se define como un índice de anisotropía del píxel n y mide la calidad de la información local de ese píxel. Promediado sobre la imagen permite definir una medida de la calidad global de la imagen que se considere.The value \ sigma [ n ] given by Eq. (11) is defined as an anisotropy index of pixel n and measures the quality of the local information of that pixel. Averaged over the image allows defining a measure of the overall quality of the image considered.

Los valores R[n; \theta_{S}] de entropía en el píxel n constituyen un vector de dimensión S, a los que se puede añadir un elemento componente más, R[n; \theta_{S+1}] = \lambdaz[n], que proporciona información sobre el nivel de gris z[n] del píxel considerado, ponderado mediante un coeficiente \lambda a determinar de forma experimental. Esto permite al algoritmo ser más selectivo respecto al "color" del ruido. R values [ n ; [theta_ {S}] of entropy in pixel n constitute a vector of dimension S , to which one more component element, R [ n ; \ theta_ {S + 1}] = \ lambda z [ n ], which provides information on the gray level z [ n ] of the pixel considered, weighted by a coefficient λ to be determined experimentally. This allows the algorithm to be more selective about the "color" of the noise.

Fusión de las imágenesFusion of the images

En definitiva, el método propuesto se basa en el hecho de que cada píxel de la imagen presenta diferentes valores de anisotropía, dados por la Ecuación (11). De ese modo, es posible definir un algoritmo de fusión de una secuencia de T imágenes mediante la expresión:In short, the proposed method is based on the fact that each pixel in the image has different anisotropy values, given by Equation (11). In this way, it is possible to define a fusion algorithm of a sequence of T images by the expression:

1414

Aquí, DM representa un mapa de decisión que indica la imagen t de la secuencia de entrada de la que se toma el valor del píxel n para constituir la imagen resultante. Este mapa permite construir una imagen mejorada a partir de la fusión de la secuencia de entrada mediante la selección de los píxeles de mayor calidad, según un criterio de máxima anisotropía.Here, DM represents a decision map indicating the image t of the input sequence from which the value of the pixel n is taken to constitute the resulting image. This map allows an improved image to be constructed from the merging of the input sequence by selecting the highest quality pixels, according to a criterion of maximum anisotropy.

Ejemplos de realización de la invenciónExamples of embodiment of the invention

Se presentan aquí, a modo de ejemplo, tres casos de utilización práctica de la técnica desarrollada en el caso especialmente concreto de secuencias de video-vigilancia costera. En efecto, el primer escenario consiste en la mejora y supresión de ruido en (Figuras 2-4). En el segundo escenario la presencia de la neblina es aún más severa que en el caso precedente (Fig. 5). Sin embargo como resultado de aplicar el método descrito en esta Memoria, es posible efectuar una buena discriminación de los caracteres de la matrícula de la embarcación (Fig. 6). Debemos hacer énfasis especial en la mejora obtenida de la calidad de imágenes en comparación con otros métodos ya existentes que no consideran un modelado del ruido y que se basan en la ecualización del histograma (Figuras. 2-3). El tercer escenario consiste en una secuencia de imágenes multi-temporales representadas en la Figura 7. La Figura 8 presenta el resultado de la aplicación del método en donde se observa una muy significativa eliminación de la cubierta de nubes. La Tabla 1 resume los resultados obtenidos en el tratamiento de las imágenes propuestas en los ejemplos.Three cases are presented here as an example of practical use of the technique developed in the case especially concrete sequences of coastal video surveillance. Indeed, the first scenario consists of the improvement and suppression of noise in (Figures 2-4). In the second scenario the presence of the Haze is even more severe than in the previous case (Fig. 5). Without however as a result of applying the method described in this Memory, it is possible to make a good discrimination of characters of the registration of the boat (Fig. 6). We must do special emphasis on the improvement obtained in image quality in comparison with other existing methods that do not consider a noise modeling and based on histogram equalization (Figures 2-3). The third scenario consists of a sequence of multi-temporal images represented in Figure 7. Figure 8 presents the result of the application of the method where there is a very significant cloud cover removal. Table 1 summarizes the results obtained in the treatment of the proposed images In the examples.

TABLA 1TABLE 1

15fifteen

Descripción de las figurasDescription of the figures

Figura 1. Esquema general del método propuesto. Tras una etapa de registro previo, se procede a la extracción de la medida de anisotropía de cada una de ellas, para a continuación obtener la imagen mejorada tras un proceso de fusión.Figure 1. General scheme of the proposed method. After a previous registration stage, the extraction of the measure of anisotropy of each one of them, for next get the improved image after a merge process.

Figura 2. Ejemplo de un fotograma con neblina extraído de una secuencia de video-vigilancia, junto con su histograma de niveles de grisesFigure 2. Example of a foggy frame extracted from a video surveillance sequence, along with his gray level histogram

Figura 3. Resultado de efectuar una ecualización del histograma. Obsérvese que dicha operación no produce una mejora significativa, sino que por el contrario un empeoramiento del contraste sin una reducción del ruido.Figure 3. Result of performing an equalization Histogram Note that this operation does not produce a significant improvement, but instead a worsening of contrast without noise reduction.

Figura 4. Resultado de aplicar el método propuesto. Obsérvese como se produce una mejora del contraste así como una reducción del ruido. La mejora de la calidad de la imagen queda reflejada en el incremento de la desviación estándar de la Tabla 1.Figure 4. Result of applying the method proposed. Observe how there is an improvement in contrast as well As a noise reduction. The improvement of image quality is reflected in the increase in the standard deviation of the Table 1.

Figura 5. Ejemplo de un fotograma con una cubierta de neblina más acusada que en el ejemplo anterior extraído de una secuencia de video-vigilancia, junto con su histograma de niveles de grises.Figure 5. Example of a frame with a foggy cover more pronounced than in the previous example extracted of a video surveillance sequence, along with its histogram of gray levels.

Figura 6. Resultado de aplicar el método propuesto. Obsérvese como tanto la mejora del contraste como una reducción del ruido permiten discriminar la matrícula de la embarcación. La mejora de la calidad de la imagen queda reflejada en el incremento de la desviación estándar de la Tabla 1[17].Figure 6. Result of applying the method proposed. Note how both contrast enhancement and noise reduction allow to discriminate the registration of the boat The improvement of image quality is reflected in the increase of the standard deviation of the Table 1 [17].

Figura 7. Secuencia del imágenes multi-temporales correspondientes al área del delta del Mississippi, procedentes del satélite MODIS y proporcionadas por el Marine Remote Sensing of the University of South Florida.Figure 7. Image sequence multi-temporal corresponding to the delta area of the Mississippi, coming from the MODIS satellite and provided by the Marine Remote Sensing of the University of South Florida.

Figura 8. Resultado final de la eliminación de la cubierta de nubes.Figure 8. Final result of the elimination of The cloud cover.

Claims (11)

1. Método automático de mejora de imágenes, por eliminación de las degradaciones espacialmente variantes que aparezcan ellas, o en secuencias de ellas, debidas a condiciones ambientales o meteorológicas adversas tales como neblina, niebla, imágenes aéreas con cubierta de nubes, aerosoles, etc, que comprende los siguientes pasos:1. Automatic method of image enhancement, by elimination of spatially variant degradations that they appear, or in sequences of them, due to conditions Environmental or adverse weather conditions such as fog, fog, aerial images with cloud cover, aerosols, etc, comprising the following steps: a) Obtención de las secuencias de video, subdivididas en fotogramas para su procesado y análisis, que se han obtenido y almacenado por procedimientos habituales,a) Obtaining the video sequences, subdivided into frames for processing and analysis, which have been obtained and stored by usual procedures, b) Pre-procesado de la secuencia de video obtenida mediante la pseudo-distribución de Wigner,b) Pre-processed sequence of video obtained through pseudo-distribution from Wigner, c) Cálculo de la anisotropía asociada a las imágenes mediante una distribución espacio-frecuencia de Rényi,c) Calculation of anisotropy associated with images through a distribution Rényi space-frequency, d) Fusión de las imágenes mediante un algoritmo adaptativo de búsqueda de las regiones que presentan la menor degradación.d) Fusion of images using an algorithm adaptive search of the regions that present the least degradation. 2. Método automático de mejora de imágenes de interés, según la reivindicación anterior, 1, en los casos de:2. Automatic method of image enhancement interest, according to claim 1, in the cases of: a) aplicación a cada uno de los fotogramas de una secuencia de video, que no hayan sido comprimidas,a) application to each of the frames of a video sequence, which has not been compressed, b) aplicación a la mejora de imágenes de fondo de ojo cuando la presencia de cataratas en un ojo impide exploración precisa de este fondo,b) application to enhance background images of the eye when the presence of cataracts in one eye prevents precise exploration of this background, c) aplicación a cualquier imagen o imágenes, tanto en color, como en blanco y negro,c) application to any image or images, both in color, as in black and white, d) aplicación a imágenes de baja calidad, obtenidas en medios marítimos y submarinos.d) application to low quality images, obtained in marine and underwater environments. 3. Método automático de mejora de, según las reivindicaciones 1 y 2, mediante el cálculo, para todos y cada uno de los elementos de imagen (píxels), de la pseudo-distribución de Wigner, descrita por la expresión,3. Automatic method of improvement according to claims 1 and 2, by calculation, for each and every one of the image elements (pixels), of the Wigner's pseudo-distribution, described by the expression, 1616 4. Método automático de mejora de imágenes de interés, según las reivindicaciones 1 y 2, basado en la caracterización del contenido en frecuencias de la degradación espacialmente variante mediante un patrón de la pseudo-distribución de Wigner.4. Automatic method of image enhancement interest, according to claims 1 and 2, based on the characterization of the frequency content of the degradation spatially variant using a pattern of the Wigner pseudo-distribution. 5. Método automático de mejora de imágenes de interés, según las reivindicaciones 1, 2 y 3, basado en la implementación unidimensional de la pseudo-distribución de Wigner, mediante la ecuación,5. Automatic method of image enhancement interest, according to claims 1, 2 and 3, based on the one-dimensional implementation of the pseudo-distribution of Wigner, through the equation, 1717 6. Método automático de mejora de imágenes de interés, según las reivindicaciones 1, 2, 3 y 4, caracterizado porque permite determinar de modo unívoco la calidad objetiva de imágenes a través del cálculo de la anisotropía de las mismas.6. Automatic method of improving images of interest, according to claims 1, 2, 3 and 4, characterized in that it allows to determine in a unique way the objective quality of images through the calculation of their anisotropy. 7. Método automático de autoenfoque de imágenes de interés, según las reivindicaciones 1, 2, 3, 4 y 5, caracterizado porque permite determinar de modo unívoco, la mejor imagen enfocada a partir de un conjunto de imágenes multifocales a través del cálculo de la anisotropía de las mismas.7. Automatic method of autofocus of images of interest, according to claims 1, 2, 3, 4 and 5, characterized in that it allows to determine in a unique way, the best image focused from a set of multifocal images through the calculation of the anisotropy of them. 8. Método automático de mejora de imágenes de interés, según las reivindicaciones 1, 2, 3, 4, 5 y 6, caracterizado porque el cálculo de la anistropía se realiza a través de la estimación de la entropía generalizada, según Rényi, mediante la expresión,8. Automatic method of improving images of interest, according to claims 1, 2, 3, 4, 5 and 6, characterized in that the calculation of anistropy is carried out through the estimation of generalized entropy, according to Rényi, by means of expression, 1818 9. Método automático de mejora de imágenes de interés, según las reivindicaciones 1, 2, 3, 4, 5, 6 y 7, caracterizado por un paso de normalización cuántica que consiste en asociar el resultado de la pseudo-distribución de Wigner de una determinada posición de la imagen, con una distribución de probabilidad, por medio de,9. Automatic method of improving images of interest according to claims 1, 2, 3, 4, 5, 6 and 7, characterized by a quantum normalization step consisting in associating the result of the Wigner pseudo-distribution of a certain position of the image, with a probability distribution, by means of, 1919 10. Método automático de mejora de imágenes de interés, según las reivindicaciones 1, 2, 3, 4, 5, 6, 7 y 8, caracterizado por un promediado sobre la imagen que permite determinar una calidad global de la imagen que se considere.10. Automatic method of improving images of interest, according to claims 1, 2, 3, 4, 5, 6, 7 and 8, characterized by an average on the image that allows to determine an overall quality of the image considered. 11. Método automático de mejora de imágenes de interés, según las reivindicaciones 1, 2, 3, 4, 5, 6, 7, 8 y 9, que finalmente, logra una resolución de las imágenes mediante aplicación del algoritmo de fusión de una secuencia de T imágenes, con la expresión,11. Automatic method of image enhancement interest, according to claims 1, 2, 3, 4, 5, 6, 7, 8 and 9, which finally achieves a resolution of the images by application of the fusion algorithm of a sequence of T images, with the expression, 20twenty donde DM representa un mapa de decisión que indica la imagen t-esima de la secuencia de entrada.where DM represents a map of decision indicating the t-esima image of the sequence of entry.
ES200701574A 2007-06-07 2007-06-07 METHOD FOR AUTOMATIC IMPROVEMENT OF IMAGES AND SEQUENCES WITH SPACIALLY VARIANT DEGRADATION. Expired - Fee Related ES2310136B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
ES200701574A ES2310136B1 (en) 2007-06-07 2007-06-07 METHOD FOR AUTOMATIC IMPROVEMENT OF IMAGES AND SEQUENCES WITH SPACIALLY VARIANT DEGRADATION.
PCT/ES2008/070106 WO2008148924A1 (en) 2007-06-07 2008-05-29 Method for automatically improving images and sequences with spatially varying degradation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ES200701574A ES2310136B1 (en) 2007-06-07 2007-06-07 METHOD FOR AUTOMATIC IMPROVEMENT OF IMAGES AND SEQUENCES WITH SPACIALLY VARIANT DEGRADATION.

Publications (2)

Publication Number Publication Date
ES2310136A1 ES2310136A1 (en) 2008-12-16
ES2310136B1 true ES2310136B1 (en) 2009-11-05

Family

ID=40084596

Family Applications (1)

Application Number Title Priority Date Filing Date
ES200701574A Expired - Fee Related ES2310136B1 (en) 2007-06-07 2007-06-07 METHOD FOR AUTOMATIC IMPROVEMENT OF IMAGES AND SEQUENCES WITH SPACIALLY VARIANT DEGRADATION.

Country Status (2)

Country Link
ES (1) ES2310136B1 (en)
WO (1) WO2008148924A1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6088470A (en) * 1998-01-27 2000-07-11 Sensar, Inc. Method and apparatus for removal of bright or dark spots by the fusion of multiple images
EP1408815A2 (en) * 2001-07-23 2004-04-21 Visual Pathways, Inc. Instruments and methods for examining and quantifying cataracts
US6909815B2 (en) * 2003-01-31 2005-06-21 Spectral Sciences, Inc. Method for performing automated in-scene based atmospheric compensation for multi-and hyperspectral imaging sensors in the solar reflective spectral region
WO2007042074A1 (en) * 2005-10-12 2007-04-19 Active Optics Pty Limited Method of forming an image based on a plurality of image frames, image processing system and digital camera

Also Published As

Publication number Publication date
WO2008148924A1 (en) 2008-12-11
ES2310136A1 (en) 2008-12-16

Similar Documents

Publication Publication Date Title
CN108090888B (en) Fusion detection method of infrared image and visible light image based on visual attention model
Chang et al. Simultaneous destriping and denoising for remote sensing images with unidirectional total variation and sparse representation
Chai et al. Multifocus image fusion scheme using focused region detection and multiresolution
US9870600B2 (en) Raw sensor image and video de-hazing and atmospheric light analysis methods and systems
Li et al. Non-uniform de-scattering and de-blurring of underwater images
US11461592B2 (en) Methods and systems for object recognition in low illumination conditions
Chen et al. Multispectral image out-of-focus deblurring using interchannel correlation
KR101874738B1 (en) Apparatus and method for generating hdr image from ldr image through image processing
Karalı et al. Adaptive image enhancement based on clustering of wavelet coefficients for infrared sea surveillance systems
Kalaivani et al. Analysis of image fusion techniques based on quality assessment metrics
Zhang et al. A combined stripe noise removal and deblurring recovering method for thermal infrared remote sensing images
Wang et al. A new cloud removal algorithm for multi-spectral images
ES2310136B1 (en) METHOD FOR AUTOMATIC IMPROVEMENT OF IMAGES AND SEQUENCES WITH SPACIALLY VARIANT DEGRADATION.
Patel et al. ThermISRnet: an efficient thermal image super-resolution network
Marques et al. Enhancement of low-lighting underwater images using dark channel prior and fast guided filters
Ranipa et al. A practical approach for depth estimation and image restoration using defocus cue
Sadeghipoor et al. Multiscale guided deblurring: Chromatic aberration correction in color and near-infrared imaging
WO2022120532A1 (en) Presentation attack detection
Dederscheck et al. Illumination invariance for driving scene optical flow using comparagram preselection
Harifi et al. Efficient iris segmentation based on converting iris images to high dynamic range images
Reda et al. Haze removal methods: a comprehensive review
Vera et al. A novel iterative image restoration algorithm using nonstationary image priors
Maheshwary et al. Blind image sharpness metric based on edge and texture features
Agarwal et al. Comparison of the theoretical and statistical effects of the PCA and CNN image fusion approaches
Kanthan et al. Blur removal using blind deconvolution and gradient energy

Legal Events

Date Code Title Description
EC2A Search report published

Date of ref document: 20081216

Kind code of ref document: A1

FD2A Announcement of lapse in spain

Effective date: 20180912