ES2310136B1 - METHOD FOR AUTOMATIC IMPROVEMENT OF IMAGES AND SEQUENCES WITH SPACIALLY VARIANT DEGRADATION. - Google Patents
METHOD FOR AUTOMATIC IMPROVEMENT OF IMAGES AND SEQUENCES WITH SPACIALLY VARIANT DEGRADATION. Download PDFInfo
- Publication number
- ES2310136B1 ES2310136B1 ES200701574A ES200701574A ES2310136B1 ES 2310136 B1 ES2310136 B1 ES 2310136B1 ES 200701574 A ES200701574 A ES 200701574A ES 200701574 A ES200701574 A ES 200701574A ES 2310136 B1 ES2310136 B1 ES 2310136B1
- Authority
- ES
- Spain
- Prior art keywords
- images
- image
- automatic method
- interest
- distribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000006731 degradation reaction Methods 0.000 title claims abstract description 22
- 230000015556 catabolic process Effects 0.000 title claims abstract description 21
- 230000006872 improvement Effects 0.000 title claims description 14
- 230000002411 adverse Effects 0.000 claims abstract 2
- 230000007613 environmental effect Effects 0.000 claims abstract 2
- 238000009826 distribution Methods 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 11
- 230000004927 fusion Effects 0.000 claims description 11
- 238000004458 analytical method Methods 0.000 claims description 5
- 230000008030 elimination Effects 0.000 claims description 5
- 238000003379 elimination reaction Methods 0.000 claims description 5
- 238000004422 calculation algorithm Methods 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 208000002177 Cataract Diseases 0.000 claims description 3
- 239000000443 aerosol Substances 0.000 claims description 3
- 230000003044 adaptive effect Effects 0.000 claims description 2
- 238000012512 characterization method Methods 0.000 claims description 2
- 238000012217 deletion Methods 0.000 abstract 1
- 230000037430 deletion Effects 0.000 abstract 1
- 239000003595 mist Substances 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000009467 reduction Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 239000007921 spray Substances 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 241001156002 Anthonomus pomorum Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000002050 diffraction method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
- G06F18/256—Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
-
- G06K9/6293—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
- G06T2207/20012—Locally adaptive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Método para la mejora automática de imágenes y secuencias con degradación espacialmente variante.Method for automatic image enhancement and sequences with spatially variant degradation.
La presente invención se refiere a un método automático para la mejora de imágenes que se basa en la eliminación de degradaciones espacialmente variantes debidas a condiciones ambientales o meteorológicas adversas.The present invention relates to a method Automatic image enhancement based on deletion of spatially varying degradations due to conditions Environmental or adverse weather.
Description
Método para la mejora automática de imágenes y secuencias con degradación espacialmente variante.Method for automatic image enhancement and sequences with spatially variant degradation.
La presente invención se refiere a un método de mejora de la calidad de imágenes, mediante la aplicación de un método matemático del cálculo de la entropía asociada, obtenidas con aparatos ópticos y en las cuales existan degradaciones debidas a nieblas, aerosoles en suspensión o cubiertas de nubes que hacen no apto el resultado de una toma o grabación. Esta patente de invención es aplicable en trabajos de percepción remota, tareas de video-vigilancia (tanto aérea como submarina) o en imágenes tomadas en presencia de neblina, aerosoles en dispersión o escenas en donde una cubierta de nubes puede hacer imposible el logro de imágenes de calidad demandada. Dicha medida facilita la eliminación de las degradaciones espacialmente variantes presentes en las imágenes, tales como neblina, cubierta de nubes, etc. Por otro lado, el método aquí descrito puede tener aplicaciones en otros ámbitos de interés, como pueden ser las imágenes biomédicas, y más concretamente, en los sistemas de exploración del fondo de ojo en presencia de cataratas en el cristalino. Como en los pacientes que presentan esta alteración, la observación directa de la retina ocular es difícil, el método aquí propuesto permitiría obtener una mejora de las secuencias de imágenes tomadas, al reducir el efecto producido por la turbidez del cristalino.The present invention relates to a method of improvement of image quality, by applying a mathematical method of calculating the associated entropy, obtained with optical devices and in which there are degradations due to mists, suspended sprays or cloud covers that do not Fit the result of a shot or recording. This patent of invention is applicable in remote sensing jobs, tasks of video surveillance (both aerial and underwater) or in images taken in the presence of mist, dispersed aerosols or scenes where a cloud cover can make the Achievement of demanded quality images. This measure facilitates the elimination of spatially present degradations in the images, such as fog, cloud cover, etc. By On the other hand, the method described here may have applications in other areas of interest, such as biomedical images, and more specifically, in the fundus scanning systems in the presence of cataracts in the lens. As in patients presenting this alteration, direct observation of the retina eyepiece is difficult, the method proposed here would allow to obtain a improvement of the sequences of images taken, by reducing the effect produced by the turbidity of the lens.
Es conocido entre los especialistas de la información gráfica y de la utilización de imágenes que hay un buen número de circunstancias que en la práctica pueden dificultar tanto la identificación como el reconocimiento de objetos en imágenes, debido a la presencia de degradaciones espacialmente variantes. Ejemplos de tales situaciones se presentan tanto en percepción remota como en tareas de video-vigilancia, en donde la presencia de neblina, aerosoles, cubierta de nubes, etc. puede dificultar enormemente las tareas de análisis de dichas imágenes.It is known among the specialists of the graphic information and the use of images that there is a good number of circumstances that in practice can make it so difficult identification as the recognition of objects in images, due to the presence of spatially variant degradations. Examples of such situations are presented both in perception remote as in video surveillance tasks, where the presence of fog, aerosols, cloud cover, etc. may greatly hinder the analysis tasks of said images.
Cuando las tareas de restauración de imágenes se llevan a cabo de modo ciego, es decir sin un conocimiento previo del proceso de degradación, dichos métodos se denominan métodos de deconvolución ciega [1]. En el caso de que el desenfoque no esté uniformemente distribuido sobre la imagen, dicha degradación afecta a las diferentes regiones de una misma imagen de modo diferente. Dicho escenario se denomina en la literatura desenfoque espacialmente variante [2]. Un caso particular de degradación espacialmente variante se presenta cuando se dispone de imágenes multi-focales, multi-temporales o multi-sensoriales, incluyendo el caso de secuencias de video. En todos estos casos son aplicables diversas técnicas de fusión de imágenes [3-4]. Conocemos como "fusión de imágenes" a aquel proceso mediante el cual las regiones visualmente más importantes dentro de un conjunto de imágenes fuente, se representan por medio de una imagen única, facilitando por tanto su análisis.When image restoration tasks are carried out blindly, that is without prior knowledge of the degradation process, these methods are called methods of blind deconvolution [1]. In case the blur is not evenly distributed over the image, such degradation affects to different regions of the same image differently. This scenario is called in the literature blur spatially variant [2]. A particular case of degradation spatially variant is presented when images are available multi-focal, multi-temporary or multi-sensory, including the case of sequences Of video. In all these cases, various techniques of image fusion [3-4]. We know as "fusion of images "to that process by which regions visually more important within a set of images source, are represented by means of a single image, facilitating Therefore its analysis.
El método aquí propuesto en esta solicitud permite obtener una muy buena discriminación de los objetos de interés, al eliminar en las imágenes los tipos de degradaciones descritos anteriormente y que son de difícil tratamiento mediante los métodos convencionales de procesado de imágenes. Este método se basa en la extracción de una medida local de la anisotropía en las imágenes.The method proposed here in this application allows to obtain a very good discrimination of the objects of interest, by eliminating in the images the types of degradations described above and that are difficult to treat by Conventional methods of image processing. This method is based on the extraction of a local measure of anisotropy in the images.
En el área de la eliminación de degradaciones del tipo de neblina anteriormente descrito, se han propuesto diversos métodos, incluyendo métodos adaptativos y los basados en ondículas [5-8]. La mayoría de estos procedimientos, actualmente en el mercado, se basan en la hipótesis de que las degradaciones presentes son del tipo espacialmente invariante, una condición que en la práctica habitual no se verifica.In the area of elimination of degradations of the type of mist described above, various methods have been proposed, including adaptive and wave-based methods [5-8]. Most of these procedures, currently on the market, are based on the hypothesis that the present degradations are of the spatially invariant type, a condition that in the usual practice is not verified.
La invención que aquí se propone consiste en un nuevo método de fusión entre los distintos fotogramas de la secuencia de entrada, que permite resolver el problema de la eliminación de las degradaciones originadas por la presencia de neblinas, aerosoles, etc. Las ventajas del procedimiento que aquí se propone son:The invention proposed here consists of a new method of fusion between the different frames of the input sequence, which allows to solve the problem of elimination of degradations caused by the presence of mists, sprays, etc. The advantages of the procedure here It is proposed are:
- --
- Su bajo coste computacional, comparado con otros métodos que trabajan con distribuciones espacio-frecuencia para la representación de la información contenida en las imágenes.its low computational cost, compared to other methods that work with space-frequency distributions for the representation of the information contained in the images.
- --
- Se basa en un proceso de fusión lo que permite efectuar una mejor discriminación de la señal frente al ruido, lo que facilita obtener resultados con una mejora significativa del contraste de las imágenes.Be based on a merger process which allows a better effect signal discrimination against noise, which makes it easier to obtain results with a significant improvement in the contrast of images.
- --
- Proporciona, implícitamente, la definición de una medida cuantitativa de la mejora que se obtiene.Provides, implicitly, the definition of a quantitative measure of the improvement that gets.
Por último, cabe mencionar también varias patentes de invención que se encuentran relacionadas con la presente propuesta [18-21]. Debemos señalar que dichos trabajos anteriores utilizan técnicas diferentes a las de fusión que aquí se describen además de no proporcionar una medida cuantitativa del grado de mejora que se obtiene con ellas. Por lo que se refiere a las patentes de invención relacionadas con la exploración de las cataratas en el ojo, hay que mencionar la recientemente presentada en la referencia [22].Finally, there are also several invention patents that are related to the present proposal [18-21]. We should point out that these previous works use different techniques from those of merger described here in addition to not providing a measure quantitative of the degree of improvement that is obtained with them. For the which refers to the invention patents related to the exploration of cataracts in the eye, we must mention the recently presented in the reference [22].
\newpage\ newpage
[1] D. Kundur and D. Hatzinakos, "Blind Image Deconvolution." IEEE Signal Processing Magazine, 13(3), 1996, pp. 43-64.[1] D. Kundur and D. Hatzinakos , "Blind Image Deconvolution." IEEE Signal Processing Magazine , 13 (3), 1996 , pp. 43-64.
[2] A. N. Rajagopalan and S. Chaudhuri, "Space-Variant Approaches to Recovery of Depth from Defocused Images." Computer Vision and Image Understanding, Vol. 68, No. 3, 1997, pp. 309-329.[2] AN Rajagopalan and S. Chaudhur i, "Space-Variant Approaches to Recovery of Depth from Defocused Images." Computer Vision and Image Understanding , Vol. 68, No. 3, 1997 , pp. 309-329.
[3] D. Kundur, D. Hatzinakos, and H. Leung, "A Novel Approach to Multispectral Blind Image Fusion." In B. V. Dasarathy, editor, Sensor Fusion: Architectures, Algorithms, and Applications, Proceedings of SPIE, Vol. 3067, 1997, pp. 83-93.[3] D. Kundur , D. Hatzinakos , and H. Leung , "A Novel Approach to Multispectral Blind Image Fusion." In BV Dasarathy, editor, Sensor Fusion: Architectures, Algorithms, and Applications, Proceedings of SPIE , Vol. 3067, 1997 , pp. 83-93.
[4] Z. Zhang and R.S. Blum, "A categorization of multiscale-decomposition-based image fusion schemes with a performance study for a digital camera application", Proc. IEEE, 87, 1999, pp. 1315-1328.[4] Z. Zhang and RS Blum , "A categorization of multiscale-decomposition-based image fusion schemes with a performance study for a digital camera application", Proc. IEEE , 87, 1999 , pp. 1315-1328.
[5] Y. Du, B. Guindon and J. Cihlar, "Haze detection and removal in high resolution satellite images with wavelet analysis," IEEE Trans. Geosci. Remote Sensing, 40, 2002, pp. 210-217.[5] Y. Du , B. Guindon and J. Cihlar , "Haze detection and removal in high resolution satellite images with wavelet analysis," IEEE Trans. Geosci Remote Sensing , 40, 2002 , pp. 210-217.
[6] Y. Zhang, B. Guindon and J. Cihlar "Development of a robust haze detection algorithm: assessment using temporally invariant targets", in Proc. IGARSS Toronto, ON, Canada, June 24-28, 2002.[6] Y. Zhang , B. Guindon and J. Cihlar "Development of a robust haze detection algorithm: assessment using temporally invariant targets", in Proc. IGARSS Toronto , ON, Canada, June 24-28, 2002 .
[7] Y. Zhang and B. Guindon, "Quantitative assessment of a haze suppression methodology for satellite imagery: effect on land cover classification performance", IEEE Trans. On Geoscience and Remote Sensing, 41, 2003, pp. 1082-1089.[7] Y. Zhang and B. Guindon , "Quantitative assessment of a haze suppression methodology for satellite imagery: effect on land cover classification performance", IEEE Trans. On Geoscience and Remote Sensing , 41, 2003 , pp. 1082-1089.
[8] R. Richter, "Atmospheric correction of satellite data with haze removal including a haze/clear transition region", Comput. Geosci, 22, 1996, pp. 675-681.[8] R. Richter , "Atmospheric correction of satellite data with haze removal including a haze / clear transition region", Comput. Geosci , 22, 1996 , pp. 675-681.
[9] E. Wigner, "On the Quantum Correction for Thermodynamic Equilibrium." Physical Review, Vol. 40, 749-759 (1932).[9] E. Wigner , "On the Quantum Correction for Thermodynamic Equilibrium." Physical Review , Vol. 40, 749-759 ( 1932 ).
[10] T. A. C. M. Claasen and W. F. G. Mecklenbráuker, "The Wigner Distribution - A Tool for Time-Frequency Analysis," Parts I-III. Philips J. Research, Vol. 35, 217-250, 276-300, 372-389 (1980).[10] TACM Claasen and WFG Mecklenbráuker , "The Wigner Distribution - A Tool for Time-Frequency Analysis," Parts I-III. Philips J. Research , Vol. 35, 217-250, 276-300, 372-389 ( 1980 ).
[11] K. H. Brenner, "A Discrete Version of the Wigner Distribution Function," Proc. EURASIP, Signal Processing II: Theories and Applications, 307-309 (1983).[11] KH Brenner , "A Discrete Version of the Wigner Distribution Function," Proc. EURASIP, Signal Processing II: Theories and Applications , 307-309 ( 1983 ).
[12] L. Galleani, L. Cohen, G. Cristóbal and B. Suter, "Generation and denoising of images with clouds," SPIE, 8-10 July 2002, Seattle, Washington, USA.[12] L. Galleani , L. Cohen , G. Cristóbal and B. Suter , "Generation and denoising of images with clouds," SPIE , 8-10 July 2002 , Seattle, Washington, USA.
[13] C. E. Shannon and W. Weaver. The Mathematical Theory of Communication. The University of Illinois Press, Urbana, Chicago, London, 1949.[13] CE Shannon and W. Weaver . The Mathematical Theory of Communication. The University of Illinois Press , Urbana, Chicago, London, 1949 .
[14] N. Wiener. Cybernetics. Wiley, New York, 1948.[14] N. Wiener . Cybernetics Wiley, New York, 1948 .
[15] Alfréd Rényi. "Some fundamental questions of information theory". In Pál Turán, editor, Selected Papers of Alfréd Rényi, volume 3, pp. 526-552. Akadémiai Kiadó, Budapest, 1976. (Originally: MTA III. Oszt. Közl., 10, 1960, pp. 251-282).[15] Alfréd Rényi. "Some fundamental questions of information theory." In Pál Turán, editor, Selected Papers of Alfréd Rényi , volume 3, pp. 526-552. Akadémiai Kiadó, Budapest, 1976 . (Originally: MTA III. Oszt. Közl., 10, 1960, pp. 251-282).
[16] P. Flandrin, R.G. Baraniuk, O. Michel, "Time-frequency complexity and information", Proceedings of the ICASSP, vol. 3, 1994, pp. 329-332.[16] P. Flandrin , RG Baraniuk , O. Michel , "Time-frequency complexity and information", Proceedings of the ICASSP , vol. 3, 1994 , pp. 329-332.
[17] Y. Qu, Z. Pu, H. Zhao and Y. Zhao, "Comparison of different quality assessment functions in autoregulative illumination intensity algorithms", Optical Engineering, 45, 2006, pp. 117201.[17] Y. Qu , Z. Pu , H. Zhao and Y. Zhao , "Comparison of different quality assessment functions in autoregulative illumination intensity algorithms", Optical Engineering , 45, 2006 , pp. 117201.
[18] N. Srinivasa, "Method and apparatus for illumination compensation of digital images", US Patent 7164808, 2003.[18] N. Srinivasa , "Method and apparatus for illumination compensation of digital images", US Patent 7164808, 2003 .
[19] L.S. Bernstein, S.M. Adler-Golden, S.M. Perkins y T.C. Berk, "Method for performing automated in-scene based atmospheric compensation for multispectral imaging sensors in the solar reflective spectral region", US Patent 10/356.060, 2003.[19] LS Bernstein , SM Adler-Golden , SM Perkins and TC Berk , "Method for performing automated in-scene based atmospheric compensation sensors for multispectral imaging sensors in the solar reflective spectral region", US Patent 10 / 356,060, 2003 .
[20] L.S. Bernstein, S.M. Adler-Golden, S.M. Perkins, T.C. Berk y R.T. Levine, "Method for determining a measure of atmospheric aerosol optical properties using a multi- or hyperspectral multipixel image", US Patent 11/100670, 2005.[20] LS Bernstein , SM Adler-Golden , SM Perkins , TC Berk and RT Levine , "Method for determining a measure of atmospheric aerosol optical properties using a multi- or hyperspectral multipixel image", US Patent 11/100670, 2005 .
[21] R.A. Morton, "Methods for automatically and semi-automatically transforming digital image date to provide a desired image look", US Patent 09/692282, 2000.[21] RA Morton , "Methods for automatically and semi-automatically transforming digital image date to provide a desired image look", US Patent 09/692282, 2000 .
[22] P. Peterson y T.N. Cornsweet, "Cataract imaging apparatus", US Patent 7156518, January 2007.[22] P. Peterson and TN Cornsweet , "Cataract imaging apparatus", US Patent 7156518, January 2007 .
El método propuesto en esta patente de invención consiste en un método para lograr una mejora de la calidad de las imágenes proporcionadas por un dispositivo de captura, tal como una cámara CCD convencional. El procedimiento está caracterizado, en su fase de análisis, por el empleo de una distribución espacio-frecuencia para las imágenes. Posteriormente, se aplica un algoritmo inédito de fusión de imágenes, basado en una medida de anisotropía que permite la obtención de una imagen mejorada. La utilidad del método propuesto se extiende sobre aplicaciones de video-vigilancia, seguridad, navegación, percepción remota y biomedicina.The method proposed in this invention patent It consists of a method to improve the quality of the images provided by a capture device, such as a conventional CCD camera. The procedure is characterized, in its analysis phase, by the use of a distribution space-frequency for images. Subsequently, an unpublished fusion algorithm of images, based on a measure of anisotropy that allows the Obtain an improved image. The usefulness of the proposed method extends over video surveillance applications, security, navigation, remote perception and biomedicine.
El método propuesto en esta patente de invención consta de cuatro etapas:The method proposed in this invention patent It consists of four stages:
- --
- Obtención de la secuencia de video.Obtaining the sequence of video.
- --
- Pre-procesado de la secuencia de video.Pre-processed of the video stream
- --
- Cálculo de la anisotropía de las imágenes.Calculation of the anisotropy of images.
- --
- Fusión de las imágenes.Fusion of the images.
Se consideran secuencias de video obtenidas y almacenadas por procedimientos habituales en la tecnología de imagen digital. Las secuencias deben presentarse subdivididas en fotogramas para su procesado y análisis fotograma a fotograma.Video sequences obtained are considered and stored by usual procedures in the technology of digital image. The sequences must be subdivided into frames for processing and analysis frame by frame.
La información frecuencial de una señal se obtiene cuando se asocia a una determinada posición n de la señal un vector con los valores discretos proporcionados por la pseudo-distribución de Wigner (PWD). La aproximación discreta de la distribución de Wigner [9] utilizada ha sido la propuesta en [10], similar a la expresión de Brenner [11]:The frequency information of a signal is gets when it is associated with a certain position n of the signal a vector with the discrete values provided by the Wigner pseudo-distribution (PWD). The discrete approximation of the Wigner distribution [9] used has been the proposal in [10], similar to Brenner's expression [eleven]:
donde z^{\text{*}} es el complejo conjugado de la señal z, m y k representan las variables discretas del tiempo y la frecuencia, respectivamente, y W[n, k] es una matriz en donde cada fila es un vector que representa el valor de la PWD en el píxel n, para los distintos valores de frecuencia espacial k. Esta expresión se puede interpretar como la transformada discreta de Fourier (DFT) del producto r[n, m] = z[n + m] z^{\text{*}}[n m], y está limitada al intervalo de vecindad [N/2, N/2 1] del píxel n. La PWD presenta coeficientes con diferente magnitud para cada posición n, debido a cambios en los valores de la señal según la variable espacial.where z ^ {\ text {*}} is the conjugate complex of the signal z, m and k represent the discrete variables of time and frequency, respectively, and W [ n , k ] is a matrix where each row is a vector representing the value of the PWD in pixel n , for the different spatial frequency values k . This expression can be interpreted as the discrete Fourier transform (DFT) of the product r [ n, m ] = z [ n + m ] z ^ {\ text {*}} [ nm ], and is limited to the neighborhood range [ N / 2, N / 2 1 ] of pixel n . The PWD presents coefficients with different magnitude for each position n , due to changes in the values of the signal according to the spatial variable.
En la presente patente de invención se describe un método de mejora de imágenes invariante a los cambios de luminosidad, basado en la caracterización del contenido en frecuencias de la degradación espacialmente variante (en adelante DEV) mediante un patrón PWD, discernible a partir del conocimiento únicamente de la propia imagen. Para ello, la secuencia de entrada que presenta la degradación espacialmente variante se procesa píxel a píxel, dando lugar a una imagen mejorada en la cual se ha suprimido la neblina, cubierta de nubes, etc. De este modo los píxeles que presentan la DEV son eliminados y sustituidos por otros estimados a partir de las imágenes de entrada.The present invention patent describes an image improvement method invariant to changes in luminosity, based on the characterization of the content in frequencies of spatially variant degradation (hereinafter DEV) through a PWD pattern, discernible from knowledge Only from the image itself. To do this, the input sequence presenting the spatially variant degradation pixel is processed to pixel, resulting in an improved image in which it has suppressed fog, cloud cover, etc. In this way the pixels that have the DEV are eliminated and replaced by others Estimated from the input images.
El procedimiento propuesto se basa en la utilización de una implementación 1D lineal de la función de distribución de Wigner indicada en la Eq. (1).The proposed procedure is based on the use of a linear 1D implementation of the function of Wigner distribution indicated in Eq. (one).
Ello da lugar a que para cada píxel de la imagen se pueda asociar un vector 1D con el mismo número de componentes que los valores que se emplearon en su cálculo. Dicho vector se puede expresar a través de:This results in that for each pixel of the image a 1D vector can be associated with the same number of components than the values that were used in its calculation. Said vector is can express through:
\vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
\vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
Para el cálculo de este vector se utiliza una ventana de datos unidimensionales sobre la imagen, a la que se le puede dar la orientación que se desee, siendo ésta la base teórica fundamental para medir la anisotropía de la imagen que se analiza, por elementos de imagen (píxeles).For the calculation of this vector a One-dimensional data window on the image, which is can give the desired orientation, this being the theoretical basis fundamental to measure the anisotropy of the image being analyzed, by image elements (pixels).
En la práctica, tanto en el caso de imágenes multi-temporales, como de percepción remota, se encuentran a menudo degradaciones debidas a cubiertas de nubes o neblina, lo que dificulta su interpretación. Existen estudios relacionados con la estadística de las nubes consideradas como ruido [12], pero sin embargo no tratan en su formulación la supresión de dicha degradación.In practice, both in the case of images multi-temporal, as remote sensing, is often find degradation due to cloud cover or mist, which makes interpretation difficult. There are studies related to cloud statistics considered as noise [12], but nevertheless they do not treat in its formulation the suppression of such degradation.
En el método propuesto, se realiza, en primer lugar, el cálculo de la PWD anteriormente descrita para cada píxel de la imagen. Para ello se aplica la versión 1D de la PWD en ventanas deslizantes de tamaño N=8 píxeles. De este modo, se obtiene simultáneamente la información espacio-frecuencial de las imágenes. En el caso de que la secuencia de entrada corresponda a una secuencia multi-temporal, con presencia de neblina, es posible utilizar las PWD de puntos homólogos, con distintas orientaciones de las ventanas sobre la imagen para realizar una medida de anisotropía, a través de la cual es posible obtener una imagen libre de degradación. Básicamente, en el método presentado, los elementos de imagen (píxeles) correspondientes a la neblina son sustituidos por píxeles libres de neblina, a partir de la utilización de los fotogramas de la secuencia de entrada y tras aplicar un procedimiento de fusión entre las mismas. Fusión de imágenes es aquel proceso mediante el cual las regiones visualmente más importantes dentro de un conjunto de imágenes fuente, se representan por medio de una única imagen. En líneas posteriores se describirá con detalle el procedimiento de fusión empleado aquí.In the proposed method, it is performed, first instead, the calculation of the PWD described above for each pixel from image. For this, version 1D of the PWD is applied in sliding windows of size N = 8 pixels. In this way, it simultaneously obtain the information space-frequency images. In the case of that the input sequence corresponds to a sequence multi-temporal, with presence of mist, is possible to use the PWD of homologous points, with different orientations of the windows on the image to make a measure of anisotropy, through which it is possible to obtain a degradation free image. Basically, in the method presented, the image elements (pixels) corresponding to the fog are replaced by mist-free pixels, from the use of the frames of the input sequence and after apply a fusion procedure between them. Fusion of images is that process by which regions visually most important within a set of source images, it they represent by means of a single image. In later lines it describe in detail the fusion procedure used here.
Usualmente el concepto de anisotropía está asociado con las diferentes características que se observan en un objeto tridimensional cuando se observa a lo largo de diferentes direcciones, como sucede en el caso de la cristalografía. Del mismo modo dicho concepto puede ser extendido al caso bidimensional de modo que la anisotropía puede ser considerada ciertamente una propiedad inherente de las imágenes naturales que se encuentra relacionada con su dependencia direccional. En la presente patente de invención la anisotropía de las imágenes se va a medir a través del cálculo de la capacidad de información (entropía) de fragmentos de dichas imágenes. Para ello, en primer lugar y como ya se ha indicado, se calculará la PWD en las ventanas deslizantes mencionadas. Dicha distribución, presenta coeficientes con diferente magnitud para cada posición n, debido a cambios en los valores de la señal según su posición. Una forma de cuantificar estas diferencias entre las PWD es mediante una medida realizada en cada posición n, para lo que puede utilizarse la entropía de Rényi de dicha PWD local.Usually the concept of anisotropy is associated with the different characteristics that are observed in a three-dimensional object when viewed along different directions, as in the case of crystallography. In the same way, this concept can be extended to the two-dimensional case so that anisotropy can certainly be considered an inherent property of natural images that is related to its directional dependence. In the present invention patent the anisotropy of the images is to be measured through the calculation of the information capacity (entropy) of fragments of said images. To do this, first and as already indicated, the PWD will be calculated in the mentioned sliding windows. This distribution presents coefficients with different magnitude for each position n , due to changes in the values of the signal according to their position. One way to quantify these differences between the PWD is by means of a measurement made in each position n , for which the Rényi entropy of said local PWD can be used.
La medida de la entropía, o estimación del grado de información contenida en una imagen gráfica, fue inicialmente propuesta de forma independiente por Shannon [13] y Wiener [14] como una medida del contenido de información por símbolo, a partir de una fuente de información estocástica. Posteriormente, Rényi [15] extendió esta noción introduciendo el concepto de entropía generalizada. La medida de la entropía de Rényi aplicada a una distribución espacio-frecuencia (E-F) tiene la forma:The measure of entropy, or estimate of the degree of information contained in a graphic image, was initially proposed independently by Shannon [13] and Wiener [14] as a measure of the information content per symbol, from from a stochastic information source. Subsequently, Rényi [15] extended this notion by introducing the concept of entropy generalized The measure of Rényi's entropy applied to a space-frequency distribution (E-F) has the form:
\vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
\vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
donde n es la variable espacial discreta, k es la variable frecuencial discreta y \alpha es un parámetro cuyo valor recomendado ha de ser igual o superior a 2 [16]. En la Eq. (3) P representa la PWD definida en la Eq. (1). En los ejemplos que ilustran la presente memoria de patente de invención se ha tomado un valor de \alpha=3. Aunque las medidas de Rényi de las distribuciones tiempo-frecuencia se parecen a la entropía original, no presentan las mismas propiedades que se derivan de la teoría clásica de la información.where n is the discrete spatial variable, k is the discrete frequency variable and α is a parameter whose recommended value must be equal to or greater than 2 [16]. In the Eq. (3) P represents the PWD defined in Eq. (one). In the examples illustrating the present invention patent specification a value of α = 3 has been taken. Although Rényi's measures of time-frequency distributions resemble the original entropy, they do not have the same properties that derive from the classical theory of information.
Con el fin de adaptar los valores de una distribución, como la PWD, al caso de señales de energía unitaria (Ec. 10), es necesario realizar algún tipo de normalización. La denominada normalización cuántica es la que ha demostrado ser, de forma experimental, la más adecuada. El procedimiento consiste en asociar la PWD de una determinada posición n, con una función de distribución de probabilidad por medio de la expresión:In order to adapt the values of a distribution, such as PWD, in the case of unit energy signals (Ec. 10), it is necessary to perform some kind of normalization. The called quantum normalization is what has proven to be, of experimental form, the most appropriate. The procedure consists of associate the PWD of a certain position n, with a function of probability distribution through expression:
\vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
\vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
junto con un paso de normalización para conseguir que la condiciónalong with a normalization step to get that condition
\vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
se satisfaga.be please
\vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
Sustituyendo (4) en la ecuación (3) para \alpha=3, resultaSubstituting (4) into equation (3) for α = 3, it turns out
\vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
\vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
Esta medida puede ser interpretada a nivel de píxel por medio de:This measure can be interpreted at the level of pixel by means of:
\vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
\vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
El término \breve{P} tiene que normalizarse, píxel a píxel, de la siguiente forma:The term \ brief {P} has to be normalized, pixel by pixel, as follows:
\vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
con objeto de que se verifique la condición de normalización,in order to verify the condition of standardization,
en donde M representa el número de muestras a procesar y k representa la variable frecuencial: -N/2 \leq k \leq N/2 where M represents the number of samples to be processed and k represents the frequency variable: -N / 2 \ leq k \ leq N / 2
\vskip1.000000\baselineskip\ vskip1.000000 \ baselineskip
La ecuación (7) proporciona un valor de entropía para cada píxel de la imagen. En base a ello, es posible definir figuras de mérito para cada píxel de la imagen dadas por R[n; \theta_{S}]. Aquí \theta_{S} \epsilon[\theta_{1}, \theta_{2}, ... , \theta_{S}] se ha introducido para representar S orientaciones diferentes para medir la entropía, basada en otras tantas orientaciones de la PWD. De esta manera, se obtiene el valor esperado de la entropía como promedio de un determinado número de direcciones de análisis. En concreto, se eligieron las siguientes orientaciones: (0, 30, 60, 90, 120 y 150º). Finalmente se eligió la variabilidad (desviación estándar) de los valores de entropía a nivel de píxel como una medida de la anisotropía de las imágenes.Equation (7) provides an entropy value for each pixel in the image. Based on this, it is possible to define figures of merit for each pixel of the image given by R [ n ; \ theta_ {S}]. Here \ theta_ {S} \ epsilon [\ theta_ {1}, \ theta_ {2}, ..., \ theta_ {S}] has been introduced to represent S different orientations to measure entropy, based on so many other orientations of the PWD. In this way, the expected value of entropy is obtained as the average of a certain number of analysis directions. Specifically, the following orientations were chosen: (0, 30, 60, 90, 120 and 150º). Finally, the variability (standard deviation) of the entropy values at the pixel level was chosen as a measure of the anisotropy of the images.
Así en el caso que R[n; \theta_{S}] represente el valor de entropía para el píxel n de la imagen, medida según la dirección \theta_{S} \epsilon[\theta_{1}, \theta_{2}, ... , \theta_{S}], la desviación estándar relativa a la posición n de la imagen, puede expresarse mediante:So in the case that R [ n ; \ theta_ {S}] represents the entropy value for the pixel n of the image, measured according to the \ \ theta_ {S} \ epsilon [\ theta_ {1}, \ theta_ {2}, ..., \ theta_ { S}], the standard deviation relative to the position n of the image, can be expressed by:
Donde \mu representa la media de los valores R[n; \theta_{S}] definida mediante la expresión,Where µ represents the average of the R [ n ; \ theta_ {S}] defined by the expression,
El valor \sigma[n] dado por la Ec. (11) se define como un índice de anisotropía del píxel n y mide la calidad de la información local de ese píxel. Promediado sobre la imagen permite definir una medida de la calidad global de la imagen que se considere.The value \ sigma [ n ] given by Eq. (11) is defined as an anisotropy index of pixel n and measures the quality of the local information of that pixel. Averaged over the image allows defining a measure of the overall quality of the image considered.
Los valores R[n; \theta_{S}] de entropía en el píxel n constituyen un vector de dimensión S, a los que se puede añadir un elemento componente más, R[n; \theta_{S+1}] = \lambdaz[n], que proporciona información sobre el nivel de gris z[n] del píxel considerado, ponderado mediante un coeficiente \lambda a determinar de forma experimental. Esto permite al algoritmo ser más selectivo respecto al "color" del ruido. R values [ n ; [theta_ {S}] of entropy in pixel n constitute a vector of dimension S , to which one more component element, R [ n ; \ theta_ {S + 1}] = \ lambda z [ n ], which provides information on the gray level z [ n ] of the pixel considered, weighted by a coefficient λ to be determined experimentally. This allows the algorithm to be more selective about the "color" of the noise.
En definitiva, el método propuesto se basa en el hecho de que cada píxel de la imagen presenta diferentes valores de anisotropía, dados por la Ecuación (11). De ese modo, es posible definir un algoritmo de fusión de una secuencia de T imágenes mediante la expresión:In short, the proposed method is based on the fact that each pixel in the image has different anisotropy values, given by Equation (11). In this way, it is possible to define a fusion algorithm of a sequence of T images by the expression:
Aquí, DM representa un mapa de decisión que indica la imagen t de la secuencia de entrada de la que se toma el valor del píxel n para constituir la imagen resultante. Este mapa permite construir una imagen mejorada a partir de la fusión de la secuencia de entrada mediante la selección de los píxeles de mayor calidad, según un criterio de máxima anisotropía.Here, DM represents a decision map indicating the image t of the input sequence from which the value of the pixel n is taken to constitute the resulting image. This map allows an improved image to be constructed from the merging of the input sequence by selecting the highest quality pixels, according to a criterion of maximum anisotropy.
Se presentan aquí, a modo de ejemplo, tres casos de utilización práctica de la técnica desarrollada en el caso especialmente concreto de secuencias de video-vigilancia costera. En efecto, el primer escenario consiste en la mejora y supresión de ruido en (Figuras 2-4). En el segundo escenario la presencia de la neblina es aún más severa que en el caso precedente (Fig. 5). Sin embargo como resultado de aplicar el método descrito en esta Memoria, es posible efectuar una buena discriminación de los caracteres de la matrícula de la embarcación (Fig. 6). Debemos hacer énfasis especial en la mejora obtenida de la calidad de imágenes en comparación con otros métodos ya existentes que no consideran un modelado del ruido y que se basan en la ecualización del histograma (Figuras. 2-3). El tercer escenario consiste en una secuencia de imágenes multi-temporales representadas en la Figura 7. La Figura 8 presenta el resultado de la aplicación del método en donde se observa una muy significativa eliminación de la cubierta de nubes. La Tabla 1 resume los resultados obtenidos en el tratamiento de las imágenes propuestas en los ejemplos.Three cases are presented here as an example of practical use of the technique developed in the case especially concrete sequences of coastal video surveillance. Indeed, the first scenario consists of the improvement and suppression of noise in (Figures 2-4). In the second scenario the presence of the Haze is even more severe than in the previous case (Fig. 5). Without however as a result of applying the method described in this Memory, it is possible to make a good discrimination of characters of the registration of the boat (Fig. 6). We must do special emphasis on the improvement obtained in image quality in comparison with other existing methods that do not consider a noise modeling and based on histogram equalization (Figures 2-3). The third scenario consists of a sequence of multi-temporal images represented in Figure 7. Figure 8 presents the result of the application of the method where there is a very significant cloud cover removal. Table 1 summarizes the results obtained in the treatment of the proposed images In the examples.
Figura 1. Esquema general del método propuesto. Tras una etapa de registro previo, se procede a la extracción de la medida de anisotropía de cada una de ellas, para a continuación obtener la imagen mejorada tras un proceso de fusión.Figure 1. General scheme of the proposed method. After a previous registration stage, the extraction of the measure of anisotropy of each one of them, for next get the improved image after a merge process.
Figura 2. Ejemplo de un fotograma con neblina extraído de una secuencia de video-vigilancia, junto con su histograma de niveles de grisesFigure 2. Example of a foggy frame extracted from a video surveillance sequence, along with his gray level histogram
Figura 3. Resultado de efectuar una ecualización del histograma. Obsérvese que dicha operación no produce una mejora significativa, sino que por el contrario un empeoramiento del contraste sin una reducción del ruido.Figure 3. Result of performing an equalization Histogram Note that this operation does not produce a significant improvement, but instead a worsening of contrast without noise reduction.
Figura 4. Resultado de aplicar el método propuesto. Obsérvese como se produce una mejora del contraste así como una reducción del ruido. La mejora de la calidad de la imagen queda reflejada en el incremento de la desviación estándar de la Tabla 1.Figure 4. Result of applying the method proposed. Observe how there is an improvement in contrast as well As a noise reduction. The improvement of image quality is reflected in the increase in the standard deviation of the Table 1.
Figura 5. Ejemplo de un fotograma con una cubierta de neblina más acusada que en el ejemplo anterior extraído de una secuencia de video-vigilancia, junto con su histograma de niveles de grises.Figure 5. Example of a frame with a foggy cover more pronounced than in the previous example extracted of a video surveillance sequence, along with its histogram of gray levels.
Figura 6. Resultado de aplicar el método propuesto. Obsérvese como tanto la mejora del contraste como una reducción del ruido permiten discriminar la matrícula de la embarcación. La mejora de la calidad de la imagen queda reflejada en el incremento de la desviación estándar de la Tabla 1[17].Figure 6. Result of applying the method proposed. Note how both contrast enhancement and noise reduction allow to discriminate the registration of the boat The improvement of image quality is reflected in the increase of the standard deviation of the Table 1 [17].
Figura 7. Secuencia del imágenes multi-temporales correspondientes al área del delta del Mississippi, procedentes del satélite MODIS y proporcionadas por el Marine Remote Sensing of the University of South Florida.Figure 7. Image sequence multi-temporal corresponding to the delta area of the Mississippi, coming from the MODIS satellite and provided by the Marine Remote Sensing of the University of South Florida.
Figura 8. Resultado final de la eliminación de la cubierta de nubes.Figure 8. Final result of the elimination of The cloud cover.
Claims (11)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES200701574A ES2310136B1 (en) | 2007-06-07 | 2007-06-07 | METHOD FOR AUTOMATIC IMPROVEMENT OF IMAGES AND SEQUENCES WITH SPACIALLY VARIANT DEGRADATION. |
PCT/ES2008/070106 WO2008148924A1 (en) | 2007-06-07 | 2008-05-29 | Method for automatically improving images and sequences with spatially varying degradation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES200701574A ES2310136B1 (en) | 2007-06-07 | 2007-06-07 | METHOD FOR AUTOMATIC IMPROVEMENT OF IMAGES AND SEQUENCES WITH SPACIALLY VARIANT DEGRADATION. |
Publications (2)
Publication Number | Publication Date |
---|---|
ES2310136A1 ES2310136A1 (en) | 2008-12-16 |
ES2310136B1 true ES2310136B1 (en) | 2009-11-05 |
Family
ID=40084596
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES200701574A Expired - Fee Related ES2310136B1 (en) | 2007-06-07 | 2007-06-07 | METHOD FOR AUTOMATIC IMPROVEMENT OF IMAGES AND SEQUENCES WITH SPACIALLY VARIANT DEGRADATION. |
Country Status (2)
Country | Link |
---|---|
ES (1) | ES2310136B1 (en) |
WO (1) | WO2008148924A1 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6088470A (en) * | 1998-01-27 | 2000-07-11 | Sensar, Inc. | Method and apparatus for removal of bright or dark spots by the fusion of multiple images |
EP1408815A2 (en) * | 2001-07-23 | 2004-04-21 | Visual Pathways, Inc. | Instruments and methods for examining and quantifying cataracts |
US6909815B2 (en) * | 2003-01-31 | 2005-06-21 | Spectral Sciences, Inc. | Method for performing automated in-scene based atmospheric compensation for multi-and hyperspectral imaging sensors in the solar reflective spectral region |
WO2007042074A1 (en) * | 2005-10-12 | 2007-04-19 | Active Optics Pty Limited | Method of forming an image based on a plurality of image frames, image processing system and digital camera |
-
2007
- 2007-06-07 ES ES200701574A patent/ES2310136B1/en not_active Expired - Fee Related
-
2008
- 2008-05-29 WO PCT/ES2008/070106 patent/WO2008148924A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2008148924A1 (en) | 2008-12-11 |
ES2310136A1 (en) | 2008-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108090888B (en) | Fusion detection method of infrared image and visible light image based on visual attention model | |
Chang et al. | Simultaneous destriping and denoising for remote sensing images with unidirectional total variation and sparse representation | |
Chai et al. | Multifocus image fusion scheme using focused region detection and multiresolution | |
US9870600B2 (en) | Raw sensor image and video de-hazing and atmospheric light analysis methods and systems | |
Li et al. | Non-uniform de-scattering and de-blurring of underwater images | |
US11461592B2 (en) | Methods and systems for object recognition in low illumination conditions | |
Chen et al. | Multispectral image out-of-focus deblurring using interchannel correlation | |
KR101874738B1 (en) | Apparatus and method for generating hdr image from ldr image through image processing | |
Karalı et al. | Adaptive image enhancement based on clustering of wavelet coefficients for infrared sea surveillance systems | |
Kalaivani et al. | Analysis of image fusion techniques based on quality assessment metrics | |
Zhang et al. | A combined stripe noise removal and deblurring recovering method for thermal infrared remote sensing images | |
Wang et al. | A new cloud removal algorithm for multi-spectral images | |
ES2310136B1 (en) | METHOD FOR AUTOMATIC IMPROVEMENT OF IMAGES AND SEQUENCES WITH SPACIALLY VARIANT DEGRADATION. | |
Patel et al. | ThermISRnet: an efficient thermal image super-resolution network | |
Marques et al. | Enhancement of low-lighting underwater images using dark channel prior and fast guided filters | |
Ranipa et al. | A practical approach for depth estimation and image restoration using defocus cue | |
Sadeghipoor et al. | Multiscale guided deblurring: Chromatic aberration correction in color and near-infrared imaging | |
WO2022120532A1 (en) | Presentation attack detection | |
Dederscheck et al. | Illumination invariance for driving scene optical flow using comparagram preselection | |
Harifi et al. | Efficient iris segmentation based on converting iris images to high dynamic range images | |
Reda et al. | Haze removal methods: a comprehensive review | |
Vera et al. | A novel iterative image restoration algorithm using nonstationary image priors | |
Maheshwary et al. | Blind image sharpness metric based on edge and texture features | |
Agarwal et al. | Comparison of the theoretical and statistical effects of the PCA and CNN image fusion approaches | |
Kanthan et al. | Blur removal using blind deconvolution and gradient energy |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
EC2A | Search report published |
Date of ref document: 20081216 Kind code of ref document: A1 |
|
FD2A | Announcement of lapse in spain |
Effective date: 20180912 |