ES2910326T3 - Procesamiento de un ruido de impulso en una secuencia de vídeo - Google Patents
Procesamiento de un ruido de impulso en una secuencia de vídeo Download PDFInfo
- Publication number
- ES2910326T3 ES2910326T3 ES19727416T ES19727416T ES2910326T3 ES 2910326 T3 ES2910326 T3 ES 2910326T3 ES 19727416 T ES19727416 T ES 19727416T ES 19727416 T ES19727416 T ES 19727416T ES 2910326 T3 ES2910326 T3 ES 2910326T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- sign
- sequence
- filtering
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims abstract description 52
- 238000001914 filtration Methods 0.000 claims abstract description 32
- 238000000034 method Methods 0.000 claims abstract description 31
- 230000005855 radiation Effects 0.000 claims description 12
- 230000002123 temporal effect Effects 0.000 claims description 12
- 239000006002 Pepper Substances 0.000 claims description 11
- 230000009466 transformation Effects 0.000 claims description 11
- 235000002566 Capsicum Nutrition 0.000 claims description 10
- 235000016761 Piper aduncum Nutrition 0.000 claims description 10
- 235000017804 Piper guineense Nutrition 0.000 claims description 10
- 235000008184 Piper nigrum Nutrition 0.000 claims description 10
- 150000003839 salts Chemical class 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 4
- 230000002285 radioactive effect Effects 0.000 claims description 3
- 244000203593 Piper nigrum Species 0.000 claims 1
- 241000722363 Piper Species 0.000 description 9
- 230000008859 change Effects 0.000 description 7
- 238000009826 distribution Methods 0.000 description 7
- 238000013459 approach Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 239000000654 additive Substances 0.000 description 2
- 230000000996 additive effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000011109 contamination Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002902 bimodal effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003116 impacting effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/21—Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
- H04N5/213—Circuitry for suppressing or minimising impulsive noise
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/81—Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20182—Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
- Picture Signal Circuits (AREA)
- Image Analysis (AREA)
Abstract
Procedimiento de procesamiento de datos de una secuencia de vídeo que consta de ruido, estando la secuencia de vídeo formada por una sucesión de imágenes, caracterizado por que consta, para el filtrado del ruido, de la aplicación de un filtrado recursivo llamado "del signo" y dado por: **(Ver fórmula)** donde: - y(n) designa un elemento de la imagen de orden n en la sucesión, no procesada por la aplicación del filtrado del signo, - z(n-1) designa un elemento de posición correspondiente a y(n), de la imagen de orden (n-1) en la sucesión y procesada por la aplicación del filtrado del signo, - z(n) designa un elemento de posición correspondiente a y(n), de la imagen de orden n en la sucesión y procesada por la aplicación del dicho filtrado del signo, y - Δ es un coeficiente estrictamente positivo.
Description
DESCRIPCIÓN
Procesamiento de un ruido de impulso en una secuencia de vídeo
Sector de la técnica
La presente invención se refiere a un procesamiento de eliminación de ruido de una secuencia de vídeo de imágenes digitales organizadas en píxeles, en particular, para corregir un ruido de imagen de tipo "sal y pimienta" (o "ruido de impulso" en lo sucesivo).
Estado de la técnica
Sin embargo, se puede considerar que este ruido no impacta en un "fondo de la imagen" y, de este modo, se puede estar interesado en el procesamiento de imagen para la estimación en tiempo real del fondo, con como posibles aplicaciones:
- la restauración de secuencias de vídeo en presencia de ruido de impulso (también llamado ruido "sal y pimienta" que se encuentra típicamente en presencia de radiación radiactiva que impacta en los fotositos de un sensor, lo que se traduce en una saturación de los píxeles correspondientes);
- una detección de movimiento en una secuencia de vídeo, con seguimiento de objeto (por ejemplo, en videovigilancia), en donde una cámara, eventualmente en movimiento, graba una escena fija sobre la que se añaden elementos que se mueven, con objetos que se desplazan. Para detectar estos eventos, una solución consiste en estimar el fondo y luego restarlo de la imagen.
En lo sucesivo, se centra en el caso de una imagen en nivel de gris (un solo valor por píxel), la extensión al caso de una imagen en color (tres canales "rojo", "verde", "azul") siendo inmediata aplicando el mismo cálculo sobre los tres canales.
Se considera entonces el caso de un píxel de la imagen cuya evolución temporal se sigue, denotada y(n) para la imagen de orden n de la secuencia, sin necesidad de precisar en lo sucesivo las coordenadas espaciales del píxel.
El caso de un ruido de impulso debido a la radiación, teniendo en cuenta las otras aplicaciones mencionadas anteriormente, se puede procesar a partir de un modelo de degradación sobre un píxel y(n) en un instante n dado. Este modelo se desvía del modelo convencional de ruido aditivo centrado y se puede escribir, por ejemplo:
y ( n ) = x u(n ) c o n u n a p r o b a b il id a d 1 — p
y ( n ) = s c o n u n a p r o b a b il id a d p
siendo x el valor exacto del píxel en ausencia de radiación y de ruido de medición
siendo u(n) un ruido convencional de medición (típicamente ruido blanco gaussiano), de desviación-tipo Ou siendo s el valor de un píxel "contaminado", típicamente una saturación
siendo p la "tasa" de radiación
La densidad de probabilidad fY(y) de los valores tomados por y(n) se escribe en este ejemplo:
siendo 5(x) la función "Dirac" de x.
Este modelo, sencillo, no es el único posible. En particular, los valores contaminados no son necesariamente constantes, y la radiación no es la única aplicación. Por lo tanto, hay un interés más generalmente en valores de píxeles que tienen una densidad de probabilidad de la forma:
siendo fs(y) la distribución de los píxeles "contaminados" (o correspondiente a un objeto en movimiento) y siendo fu (y - x) la distribución de píxeles "no contaminados" (o correspondiente a un fondo fijo).
Por analogía con el caso de un ruido de radiación, esta designación de "contaminado" y de "no contaminado" se mantiene a continuación (aunque el caso de imágenes con radiación no es la única aplicación posible). En el caso más general de un ruido de impulso de sal y pimienta, los valores de ruido pueden ser a la vez muy elevados (píxeles blancos, saturación) o muy bajos (píxeles negros), es decir, una forma bimodal para fs(y), por ejemplo, para píxeles
con ruido que oscila entre 0 y el máximo de los valores tomados por los píxeles /máx:
Existen técnicas para filtrar este tipo de ruido. Las dos principales se detallan a continuación.
El método más sencillo consiste en utilizar un filtrado temporal, lineal, de los valores de cada píxel. Típicamente, el promedio deslizante o los filtros temporales lineales como el olvido exponencial se usan frecuentemente. El olvido exponencial se define por:
donde a establece el factor de olvido del filtro (típicamente entre 0,8 y 0,99).
Converge hacia el promedio yprom de los valores tomados por y(n) a lo largo del tiempo. Si s es el valor promedio de los píxeles contaminados, se tiene:
yprom = X p ( s - x )
Este valor puede desviarse sustancialmente del valor exacto x si la tasa de radiación p es elevada y/o si el promedio de los valores no contaminados x se aleja del valor "contaminado" s. Por ejemplo, para p = 20 %, un píxel normalmente negro x = 0 y un valor contaminado en saturación s=255 niveles de gris se tiene yprom = 51 niveles de gris, es decir, una desviación de unos cincuenta niveles de gris con respecto al valor exacto.
En el caso de una cámara en movimiento o que puede cambiar de factor de zum, la última salida del filtro se reajusta, con el fin de seguir los diferentes movimientos o cambios de zum de la cámara. La expresión correspondiente se escribe:
Con:
y(q,n) el valor de la enésima imagen sin procesar, para el píxel en la posición q
z(q,n) el valor de la enésima imagen filtrada para el píxel en la posición q
Zrestaurada (q,n) el valor de la enésima imagen restaurada para el píxel en la posición q
Tn(.) la transformación estimada entre las imágenes sin procesar n-1 y n.
a el factor de olvido del filtro (típicamente 0,98, 0,95)
N(q,n) la salida del filtrado temporal cuando se pone en entrada una imagen constante igual a 1 para todos los píxeles.
Menos formalmente, esta ecuación de filtrado se escribe:
im a g e n filtrada = (1 “ «)■ ím a g e n sin procesar im a g e n filtrada,anterior,reajustada
.
im agenrestaurada _ im a g e n filtrada
- n o r m ai i z a c ió n
Este procesamiento permite eliminar el efecto de la radiación (efecto "nieve" sobre la imagen). Sin embargo, se puede demostrar que la imagen restaurada de este modo no converge exactamente hacia la imagen que se habría obtenido en ausencia de radiación.
Otra técnica conocida es el filtro mediano.
Se sabe que es interesante elegir procesamientos que no converjan hacia el promedio, sino hacia la mediana de los valores tomados por y(n). De hecho, si la tasa de ruido de impulso es inferior al 50 %o, la mediana de los valores tomados por y(t) se sitúa en el soporte de la distribución de x u(t).
Esta mediana es independiente de la desviación entre el valor contaminado s y el valor exacto x.
En el caso de un ruido "sal y pimienta", esta mediana es igual a x. En el caso de un píxel "contaminado" siempre
superior a la mediana, se muestra que esta mediana viene dada por:
es decir, una pequeña desviación ymed - x < 0,32ou para tasas de contaminación observadas en la práctica (por ejemplo, p <20 %).
La diferencia entre el promedio y la mediana se muestra en la figura 1, que representa un ejemplo de evolución temporal de los valores tomados por un píxel con una tasa de contaminación del 20 %.
Para calcular esta mediana a lo largo del tiempo, los procesamientos habituales consisten en, por cada píxel, calcular la mediana obtenida sobre ventanas temporales deslizantes. Sobre cada ventana, la mediana se puede calcular, por ejemplo, mediante algoritmos de clasificación (se clasifican los M valores tomados por el píxel en la ventana temporal y luego se toma el valor del medio) o a partir del histograma de los valores tomados por el píxel en la ventana.
Sin embargo, este enfoque tiene tres inconvenientes:
- la memoria requerida es grande (tamaño de las ventanas, 50 imágenes para ventanas temporales de dos segundos y una tasa de vídeo de 25 imágenes/segundo);
- el procesamiento, que debe llamarse para cada píxel y para cada nueva imagen (en cada nueva imagen corresponde a la actualización de las ventanas temporales), es particularmente complejo;
- la extensión al caso de una cámara en movimiento y/o la haciendo variar el factor de zum es imposible: para eso, sería necesario reajustar el conjunto de las imágenes de la ventana deslizante sobre la última imagen, luego calcular la mediana temporal de cada píxel. La memoria requerida y el tiempo de procesamiento se vuelven incompatibles con una aplicación en tiempo real.
El artículo "Adaptive Noise Filetring of Image Sequences in Real Time" de A. Reza publicado en WSEAS Transactions on Systems, Vol. 12(4), en abril de 2013 divulga un procedimiento de procesamiento de datos de una secuencia de vídeo que consta de un ruido de impulso caracterizado por que consta, para el filtrado del ruido, de la aplicación de un filtro de Kalman recursivo; dicho procedimiento es eficaz contra el ruido de impulso, pero su implementación necesita grandes medios informáticos.
Objeto de la invención
La presente invención viene a mejorar esta situación.
Para ello, propone un procedimiento de procesamiento de datos de una secuencia de vídeo que consta de ruido, por ejemplo, un ruido de impulso, estando la secuencia de vídeo formada por una sucesión de imágenes, constando el procedimiento, para el filtrado del ruido, de la aplicación de un filtrado recursivo denominado en adelante "filtrado del signo" y dado por:
z ( n ) = z ( n — 1 ) A s i y ( n ) > z ( n — 1 )
z ( n ) = z ( n — 1 ) — A s i y ( n ) < z ( n — 1 )
Y z ( n ) = z ( n - 1 ) s i y ( n ) = z ( n — 1 )
donde:
- y(n) designa un elemento de la imagen de orden n en la sucesión, no procesada por la aplicación del filtrado del signo,
- z(n-1) designa un elemento de posición correspondiente a y(n), de la imagen de orden (n-1) en la sucesión y procesada por la aplicación del filtrado del signo,
- z(n) designa un elemento de posición correspondiente a y(n), de la imagen de orden n en la sucesión y procesada por la aplicación del dicho filtrado del signo, y
- A es un coeficiente estrictamente positivo.
Como se verá en los ejemplos de resultados presentados a continuación, tal filtro ofrece la ventaja de un filtro mediano con respecto a un filtro temporal convencional, que es no degradar las imágenes procesadas en un promedio.
En una realización, los elementos y(n), z(n-1) y z(n) son píxeles de imagen, de misma posición, y las imágenes de la sucesión anteriormente mencionada son procesadas píxel a píxel. Alternativamente, un procesamiento por bloques
de píxeles adyacentes se puede aplicar para hacer converger aún más rápido el procesamiento según el caso de uso. El ruido anteriormente mencionado puede ser de impulso, por ejemplo, de tipo "sal y pimienta" o "nieve".
El ruido de impulso puede resultar, por ejemplo, de la radiación radiactiva recibida por un sensor de una cámara que graba la secuencia de vídeo anteriormente mencionada.
Típicamente en este caso, el ruido de impulso es a menudo de tipo "nieve".
Con o sin ruido de tipo "sal y pimienta" o "nieve", el procesamiento de la invención se puede utilizar en imágenes de secuencia de vídeo que presentan objetos en movimiento delante de un fondo de interés. En este caso, estos objetos en movimiento en las imágenes (polvo u otros) pueden ser procesados como ruido, por el procedimiento en el sentido de la invención.
En el caso de una cámara en movimiento, o con variaciones eventuales del factor de zum, se puede prever, con, por ejemplo, un módulo de estimación de movimiento en imágenes sucesivas, integrar el desplazamiento aparente como entrada del filtrado del signo.
De este modo, en términos más genéricos, en un procedimiento donde la sucesión de imágenes consta de un movimiento aparente de un fondo de imagen en la sucesión de imágenes,
el procedimiento puede constar, además, de:
- de integrar el movimiento aparente como entrada del filtrado del signo.
Tal "movimiento aparente" puede ser causado por al menos una de entre las siguientes situaciones:
- la cámara es móvil y graba una secuencia fija, y
- el zum de la cámara es variable en el tiempo.
Con las notaciones dadas a los píxeles anteriores, la aplicación del filtrado del signo en caso de tal movimiento aparente puede ser dada entonces por:
z ( q ,n ) = z (T n ( q ) ,n - 1) A s i y ( q , n ) > z (T n ( q ) ,n - 1)
z ( q ,n ) = z (T n ( q ) ,n - 1) - A si y ( q ,n) < z (T n ( q ) ,n - 1)
z ( q ,n ) = z (T n ( q ) ,n - 1) s i y ( q , n ) = z (T n ( q ) ,n - 1 )
con z(q,n) los valores tomados por la imagen de orden n en el píxel de coordenadas vectoriales q y Tn la estimación de la transformación entre la imagen anterior de rango n-1 y la imagen actual del rango n en la sucesión.
Preferentemente, puede ser ventajoso, para primeras imágenes de la sucesión hasta una imagen de orden n0, aplicar un filtro temporal de factor de olvido, sin aplicar filtrado del signo, siendo este filtro temporal de factor de olvido dado por:
z temp (q , ri)
z ( q , ri)
N(q, ri)
con ztemp(q,n) = (1 - a).y(q,n) a.ztemp(Tn(q), n - 1)
y N(q,n) = (1- a) + a.N(Tn(q),n - 1),
siendo ztemp (q,n) una variable temporal, y siendo a un factor de olvido comprendido entre 0 y 1,
siendo entonces z(q,n) los valores tomados por la imagen de orden n en el píxel de coordenadas vectoriales q, y Tn la estimación de una transformación por movimiento eventual entre la imagen anterior de rango n-1 y la imagen actual de rango n en la sucesión, con n inferior a n0.
En ausencia de movimiento entre imágenes sucesivas hasta la imagen n0, este filtro temporal de factor de olvido puede ser simplemente dado por:
ztemp(^)
z (r i ) =
l-an ,
con
^temp(ri) C1 t t ) y (n ) + ffZtemp(ri 1 )
siendo ztemp(n) una variable temporal, y siendo a un factor de olvido comprendido entre 0 y 1.
Después, al menos para imágenes de la sucesión que siguen una imagen de orden n0, se puede aplicar la combinación del filtrado del signo a un filtro temporal de factor de olvido, siendo el resultado de esta combinación dado por:
f N Wtemp (n)
s (ri) — i _£>n-n0 l
siendo wtemp(n) una variable temporal dada por:
W tem pO ) = (1 - P ) z ( n ) + ^W tem pO - 1) ,
, donde z(n) es el resultado de la aplicación del filtrado del signo, y siendo 5 un factor de olvido comprendido entre 0 y 1.
Un parámetro importante a elegir es el valor del coeficiente A. Preferentemente, esta elección es función de un valor máximo Imáx de nivel de color tomado por los elementos de imagen. Las pruebas muestran que el coeficiente A puede ser inferior a 20 Imáx/255. Preferentemente, el coeficiente A está comprendido entre 0 y 5 Imáx/255 (es decir, entre 0 y 5 si Imáx=255 como la mayoría de las veces).
Por "nivel de color" se entiende aquí tanto un nivel de gris como de rojo, verde o azul (RGB) cuantificados sobre 256 valores habitualmente.
La presente invención también tiene como propósito un programa informático que consta de las instrucciones para la implementación del procedimiento, cuando estas instrucciones son ejecutadas por un procesador. También se dirige a un soporte de información (una memoria, por ejemplo, de tipo USB u otro) que almacena las instrucciones de tal programa.
La invención también se refiere a un dispositivo que consta de una unidad de procesamiento para la implementación del procedimiento anterior (descrito más adelante con referencia a la figura 5).
Descripción de las figuras
Otras ventajas y características de la invención aparecerán tras la lectura de la descripción detalla de modos de realización de la invención, presentados a modo de ejemplos ilustrativos, y al examinar los dibujos adjuntos en los que:
- La figura 1 ilustra la mediana y el promedio temporal de los valores que toma un píxel susceptible de estar contaminado por un ruido de impulso (p=20 %, Ou=10 niveles de gris);
- La figura 2 muestra la evolución temporal de un píxel susceptible de estar contaminado (p=20 %, Ou=10 niveles de gris) y salidas del procesamiento por filtro del signo (con A=3);
- La figura 3 ilustra las distribuciones observada y teórica de los valores tomados por la salida del procesamiento por filtro del signo usado para los resultados de la figura 2 (A=3);
- La figura 4 compara el procesamiento por filtro del signo (A= 3) con el procesamiento híbrido usando dos filtros temporales de factor de olvido y el filtro del signo (A= 3, na = 25 imágenes, a = ¡5= 0,95) sobre un píxel a veces contaminado (cu = 10, p = 20 %);
- La figura 5 ilustra un dispositivo para la implementación de la invención, en un ejemplo de realización;
- La figura 6 ilustra un procesamiento en el sentido de la invención, aplicado en un ejemplo de realización a una secuencia de imágenes con movimiento;
- La figura 7 ilustra un procesamiento en el sentido de la invención, aplicado en un ejemplo de realización con dos filtros de factor de olvido, previamente (Filt temp1) al filtro del signo (FILT SGN) y concomitantemente (Filt temp2) al filtro del signo.
Descripción detallada de la invención
La invención propone un enfoque recursivo de la siguiente manera: al considerar los valores tomados por un único píxel, denotados y(n) para la imagen n, este enfoque consiste en calcular la sucesión z(n) definida por:
z ( n ) = z ( n — 1 ) A x s i g n o ( y ( n ) — z ( n — 1 ) )
con signo(0)=0.
A continuación, este enfoque se denomina "procesamiento por filtro del signo" o "mediano temporal rápido".
A es un parámetro del algoritmo cuyo ajuste traduce un compromiso entre la velocidad de convergencia y la desviacióntipo residual después de la convergencia. Su ajuste se analiza a continuación.
Las ventajas de este filtro del signo son múltiples.
La memoria requerida sigue siendo muy baja: solo se usan dos imágenes para calcular la salida en el instante n: la imagen de salida anterior z(n - 1) y la imagen sin procesar actual y(n). Por lo tanto, la implementación en tiempo real es inmediata.
La complejidad es casi nula: por cada imagen nueva y por cada píxel, se cuenta una suma, una multiplicación y una comparación (sobre el cálculo de signo).
Este enfoque se adapta ventajosamente y sin dificultad al caso particular de una cámara en movimiento, para lo cual la ecuación de recurrencia se convierte en:
z(q , n) = z ( T ( q ) , n — 1 ) A x s i g n o ( y ( q , n) — z ( T ( q ) , n — 1 ) ) con z(q,n) los valores tomados por la imagen en el instante n en el píxel de coordenadas vectoriales q y T la estimación de la transformación entre la imagen anterior y la imagen actual. Los métodos de estimación de esta transformación se describen en la literatura para una traslación y para la combinación de una traslación, de una rotación y un de cambio del factor de zum.
De este modo, un paso previo al procesamiento del signo puede consistir en definir si la cámara está en movimiento o no:
- si la cámara está fija, solo se aplica el procesamiento por el filtro del signo; y
- si se supone que la cámara debe desplazarse y/o si el factor de zum puede variar (o la iluminación), se aplica, con referencia a la figura 6, una etapa previa S1 de estimación del movimiento de la cámara: se calcula, de manera conocida, el desplazamiento de la cámara a partir de las sucesivas imágenes y este desplazamiento, obtenido de este modo en la etapa S1, se integra entonces como entrada del procesamiento por el filtro del signo a aplicar en la etapa S2.
Por ejemplo, es posible prever un botón binario a disposición de un usuario para determinar si la secuencia fue grabada con una cámara fija o una cámara en movimiento (etapa S0), lo que, en este último caso, provoca el lanzamiento del algoritmo de estimación de movimiento (etapa S1), siendo su resultado tomado como entrada en cada iteración de la etapa S2, de forma iterativa sobre n hasta Nimáx (bucles de las etapas S3 y S4, hasta S5 para n=Nimáx).
En la ecuación general anterior z(n) = z(n - 1) A * signo (y (n) - z(n - 1)), el coeficiente A caracteriza la importancia dada al signo de la diferencia entre la imagen actual y(n) y la imagen anterior n-1 que ha sido procesada recursivamente por el procedimiento en el sentido de la invención: z(n - 1).
El ajuste del valor de este coeficiente A se puede efectuar como se detalla a continuación. Este ajuste resulta de un compromiso entre el tiempo de convergencia del filtro recursivo de signo y la relevancia final de la salida del filtro que puede, por ejemplo, estimarse por la varianza después de la convergencia.
Por "tiempo de convergencia" se entiende a la vez:
- el tiempo de convergencia al inicio de los procesamientos,
- el tiempo de adaptación a los movimientos de cámara o a las variaciones de zum (correspondiendo el píxel a un nuevo elemento de escena),
- el tiempo de adaptarse a un cambio de escena, típicamente un cambio de iluminación.
Si se desea favorecer un tiempo de convergencia/de adaptación rápido, se elige un valor elevado del coeficiente A. Si se desea favorecer una varianza residual baja, se elige un valor bajo para el coeficiente A.
Las figuras 2 y 3 muestran respectivamente la evolución temporal y la distribución de los valores tomados por la salida del procesamiento por el filtro del signo. Esta distribución es muy cercana a la distribución teórica.
Típicamente, en la salida del filtro de signo, la varianza residual después de la convergencia viene dada por:
El tiempo de convergencia para un cambio de mediana de amplitud A viene dado por:
Aquí, el tiempo de convergencia se da para un ruido de impulso "sal y pimienta" asimilado en blanco o negro. En el caso de píxel contaminado solo en blanco, se tendrá:
A/A(1-2p) en el caso de una caída del valor de mediana, y
A/A en el caso de un aumento del valor de mediana.
Los valores tomados por los píxeles de la imagen están típicamente entre 0 y 255 (caso de valores codificados sobre 8 bits). En este caso, parece empíricamente que una buena elección de valor para el coeficiente A puede estar comprendido entre 0 y 20, y preferentemente entre 0 y 5. Más generalmente, si los valores tomados por los píxeles están entre 0 e Imáx, el coeficiente A se puede elegir entre 0 y 20*Imáx/255, preferentemente entre 0 y 5*Imáx/255.
Se puede fijar el coeficiente A como entrada del procesamiento por filtro del signo en la etapa S2, a lo largo de una etapa de inicialización S6 ilustrada en la figura 6, y es posible modificarlo si es necesario en caso de insatisfacción con la imagen obtenida o de su tiempo de obtención. Típicamente, el procesamiento puede ser tal que se elija un valor elevado en la inicialización (A=5, por ejemplo) y luego un valor bajo (A=1, por ejemplo) después del inicio de convergencia. El inicio de convergencia se puede definir en función de un valor de ventana deslizante m (un número de imágenes sucesivas m ) para cambiar de A=5 a A=1.
Los rendimientos del filtro en el sentido de la invención pueden compararse con el filtro de mediana sobre una ventana deslizante.
De hecho, la desviación-tipo de la salida del procesamiento por aplicación del filtro del signo puede compararse con la desviación-tipo del cálculo convencional de la mediana sobre una ventana deslizante de tamaño N. Esto se puede aproximar mediante el siguiente resultado asintótico:
Lo que da, en este contexto:
Para valores dados de ruido Ou (desviación-tipo del ruido aditivo "convencional", sin de impulso) y de tasa de contaminación p se puede deducir el tamaño mínimo de las ventanas deslizantes que sería necesario usar para obtener el mismo rendimiento que el algoritmo del signo aquí propuesto:
Con, por ejemplo, Ou = 10 niveles de gris y p = 20 %, se encuentra que el tamaño de la ventana deslizante necesaria para obtener la misma desviación-tipo residual es de:
- N = 10 imágenes, para A=3,
- N = 30 imágenes, para A=1, y
- N = 60 imágenes, para A=0,5.
Este procesamiento de la invención puede entonces ser reprochado por el compromiso a hacer entre, por una parte, el tiempo de convergencia y la varianza residual después de la convergencia.
No obstante, es posible recurrir a procesamientos híbridos para obtener una varianza residual baja sin por ello afectar al tiempo de convergencia.
Una primera solución consiste en iniciar los procesamientos con un filtro lineal, típicamente un olvido exponencial normalizado luego, después de un tiempo de inicialización na de algunas imágenes, para luego pasar al procesamiento por aplicación del filtro del signo. Este tipo de mejora puede ser útil en el caso de una cámara fija, donde se desea una
varianza residual baja sin penalizar el tiempo de convergencia inicial. Sin embargo, este enfoque es menos eficaz cuando conviene adaptarse rápidamente a una variación en la escena (y/o una variación de iluminación o de zum, en particular).
Con el fin de reducir la varianza residual, una segunda solución consiste en usar otro filtrado lineal temporal, aplicado sobre z(t), típicamente con un olvido exponencial. Si /3 es el coeficiente de este segundo filtro (comprendido entre 0 y
1), esto permite multiplicar la varianza residual por 1+p (si se supone que las salidas del filtro del signo están decorrelacionadas en el tiempo).
Esta mejora puede ser particularmente útil en el caso de una escena susceptible de moverse, con el fin de:
◦ garantizar el seguimiento de la escena (iluminación) y/o de la cámara (con un A elevado), y
◦ garantizar una varianza residual baja (con el segundo filtro exponencial)
Ambas mejoras se pueden usar a lo largo de un mismo procesamiento.
El procesamiento híbrido con las dos mejoras se resume a continuación, con referencia a la figura 7, en el caso de una cámara fija, para un píxel dado de valor y(n) en la imagen de orden n:
Para n=0, aplicación de una etapa S20 de inicialización:
y ( ° ) - 0 , z tem p(0 ) _ 0 , W tem p(^-o)- 0
Para n = 1 a na (bucle de las etapas S22 y S23), aplicación en la etapa S21 de un primer filtro temporal de factor de olvido, sin filtro del signo:
Ztem pfa) = (1 - a ) y ( n ) aZtem p(ri - 1 )
Y a la s a l id a s ( n ) = temp ^ ^
w 1 - a n
Para n > n0 (y hasta la convergencia en la etapa S26), aplicación a las etapas S24 y S25 del filtro del signo y respectivamente de un segundo filtro temporal de factor de olvido al resultado del filtro del signo:
z(ri) = z ( n — 1 ) A x s i g n o ( y ( n ) — z ( n — 1 ) )
W tem pO ) = C1 - P ) z ( n ) + M e m p O “ 1 )
Y a la salida
W tem pfo)
s(ri) = 1 —p n - n 0+ 1
Los rendimientos del procesamiento por aplicación del filtro del signo y del procesamiento híbrido con mejoras (rendimientos mucho mejores en este segundo caso) se ilustran en la figura 4.
El uso del procesamiento híbrido y el ajuste de sus parámetros (tiempo de inicialización y factores de olvido exponencial) dependen del tipo de aplicación. Para una cámara fija o que se mueve lentamente, un valor pequeño del coeficiente A es suficiente (0,5 o 1 nivel de gris), con la condición de inicializar el procesamiento con un olvido exponencial normalizado (a = 0,9 por ejemplo). El segundo filtro (wtemp) no es necesariamente útil.
Para una cámara en movimiento, o una escena variable (cambio de iluminación, por ejemplo), el procesamiento debe adaptarse constantemente. Se puede elegir un coeficiente elevado hasta A= 5 nivel de gris, seguido de un olvido exponencial @ = 0,9. El filtro de inicialización (ztemp) no es necesariamente útil.
Para un ajuste óptimo de los parámetros, se puede ayudar de los cálculos que comparan la varianza residual y el tiempo de convergencia durante un cambio de mediana de amplitud A (típicamente debido a una variación de la iluminación de la escena grabada).
En efecto, en este caso, el tiempo de convergencia (para ruido de sal y pimienta de tipo "píxel negro o blanco" (no solo blanco, tipo "nieve")) para un cambio en la mediana de amplitud A (tiempo para alcanzar uA) es dado por:
La varianza residual después de la convergencia se puede aproximar por:
n
A(T,
Vr & 3 * —x u . X. ¡1 P
„
8 1 — p 1 p
Con referencia ahora a la figura 5, un dispositivo en el sentido de la invención comprende una unidad de procesamiento UT que comprende al menos:
- una interfaz de entrada IN para recibir desde una cámara CAM, o desde un servidor remoto (o una entidad remota a través de una red de comunicación), una señal que representa píxeles de imágenes sucesivas que forman una secuencia de vídeo (en plano fijo y zum e iluminación fijas o variables);
- un búfer BUFF para almacenar temporalmente los datos de imagen (y típicamente la última imagen recibida (sin procesar) y la última imagen procesada, así como, en caso de movimiento, la penúltima imagen recibida);
- una memoria MEM para almacenar eventualmente de otras variables temporales y, sobre todo, para el almacenamiento de códigos de instrucciones de un programa informático en el sentido de la invención, así como eventualmente filtrar los valores de los parámetros (factores de olvido, coeficiente A, número de imágenes iniciales n0, Nimáx, etc.);
- una interfaz hombre-máquina IHM para introducir los valores de parámetros de filtros, estando esta interfaz conectada a medios de entrada SAI (teclado, ratón, pantalla táctil, comando de voz, etc.) y visualización VIS (pantalla, pantalla táctil, etc.);
- un procesador PROC para leer de la memoria MEM los códigos de instrucciones del programa informático y aplicar el procesamiento en el sentido de la invención a los datos de imágenes del búfer BUFF, si es necesario, apoyándose sobre un módulo de estimación de movimiento MOUV (estimación de los movimientos de la cámara por traslación, rotación, factor de zum) si se supone que la posición de la cámara o sus ajustes son variables; - una interfaz de salida OUT para administrar las imágenes eliminadas de ruido que pueden visualizarse sobre los medios VIS, por ejemplo.
El procesamiento se realiza píxel a píxel para proporcionar una imagen restaurada sobre el valor de los píxeles en la imagen n.
La salida del procesamiento puede presentar varias opciones:
- estimar en tiempo real simplemente el fondo de la secuencia de vídeo;
- detectar y eventualmente extraer uno o más objetos en movimiento en las imágenes, por sustracción del fondo obtenido de este modo de la imagen sin procesar;
- y/o incluso estimar un ruido de impulso del tipo sal y pimienta o nieve en la secuencia de vídeo;
- si es necesario, restaurar la secuencia en caso de presencia de este ruido de impulso; y
- eventualmente administrar las imágenes de este fondo o las imágenes eliminadas de ruido, a través del medio de visualización VIS o a través de una interfaz de comunicación (no representada) de los datos de imágenes de este modo eliminadas de ruido hacia un sitio remoto.
La restauración entonces tiene como objetivo efectuar la siguiente operación:
im a g e n restaurada
im a g e n restaurada,anterior,reajustada A X s lg n O | lm a g e n sin procesar im a g e n restaurada, anterior, reajustada} Dos filtros convencionales (olvido exponencial) pueden usarse como complemento de este procesamiento:
- se puede usar un primer filtro para acelerar el tiempo de convergencia inicial de este procesamiento;
- se puede usar un segundo filtro para reducir la varianza residual.
Por lo tanto, se cuenta con cuatro posibles combinaciones de filtros:
- filtro del signo sencillo
- filtro del signo con filtro de inicialización
- filtro del signo con filtro de reducción de varianza residual
- filtro del signo con filtro de inicialización y filtro de reducción de varianza residual.
La segunda y cuarta combinaciones se detallan a continuación.
Aquí, se usa la estimación de la transformación geométrica entre la imagen sin procesar n-1 y la imagen sin procesar n denotada Tn(q ). Siempre observando las imágenes de entrada y(q ,n) y las imágenes de salida Zrestaurada(q ,n), se pueden aplicar las siguientes etapas:
Inicialización: z(q ,0) = 0; Zrestaurada(q,0) = 0; T1(q) = q (transformación de identidad);
N(q,0) = 0 (imagen de normalización)
Para n=1 a m:
Para n>n0:
^restaurada (q ,
= ^restaurada (Xn ( q ) ,n 1 ) A X S Í g n o { y (q ,n ) -Z r e s ta u r a d a (^ n (q ) ,n - 1 ) }
Se puede elegir como valores de entrada:
- n0 = 25 imágenes (1 segundo), se puede subir hasta 50 imágenes (2 segundos)
- A = 3 (entre 0 y 10)
Este valor de A corresponde a los valores de píxeles que varían entre 0 y 255. Para el caso de píxel que varía entre 0 y 1 es necesario multiplicar por 1/255. Para píxeles que varían entre 0 y MÁX, es necesario multiplicar por MÁX/255. Este algoritmo involucra los valores:
z(Tn (q ) , n - 1 ) , N(Tn( q ) , n - 1 ) y ¿restauradaC^nCq)^ - 1 ) > que a veces no están disponibles cuando la transformación estimada T n (q) hace salir un píxel de la imagen (debido al movimiento de imagen).
En este caso, se podrá elegir los siguientes valores:
z(Tn(q),n - 1) = 0
N
(Tn(q),n — 1) = 0
Ahora se describirá la cuarta combinación, correspondiente por lo tanto a la representación de la figura 7 comentada anteriormente. Se trata de la aplicación del filtro del signo con filtro de inicialización previa y filtro de reducción de varianza residual concomitante.
El procesamiento se presenta como sigue:
- Inicializaciones: z(q,0) = 0; T1(q ) = q; ztemp (q,0) = 0; Zrestaurada(q,0) = 0; N(q ,0) = 0
y ^restaurada,bis (q , o ) = o
- Para n=1 hasta n0, se mantiene el mismo procesamiento que anteriormente con:
y
z (g , ra)
Restaurada (Q, ri) N(q, ri)
Restaurada^isC^XQ), rio ) Restaurada (Q, rio )
- a continuación, para n>n0, el procesamiento se convierte en una combinación, para cada píxel de imagen n, de un filtro del signo:
Restaurada (Q ,n )
_ Restaurada 0^ n (Q ),n 1 ) A X s ignO ( y ( q ,n ) Restaurada C^n(Q),n 1 )}
Y de un filtro con olvido:
De modo que:
Remp (Q, ra)
Restaurada,bis ra) 1 _ f i n - n 0
Se puede tomar por defecto a= 0,95 y p= 0,9
También aquí, este procesamiento implica los valores:
z (Tn(.g), r a _ 1 ) , N(Tn (q), n — 1 ) y Restaurada ( 7 t í (Q ) ,n _ 1 ),
que pueden no estar disponibles cuando la transformación estimada Tn(q) hace salir un píxel de la imagen (debido al movimiento de imagen).
En este caso, se podrán tomar los siguientes valores:
z(Tn(q),n - 1) = 0
N(Tn(q),n-l)=0
R estaurada(^tí(Q ),n 1 ) y (Q , ra) O 0
Se demuestra de este modo que la estimación recursiva en tiempo real del fondo de una secuencia de vídeo permite restaurar películas fuertemente degradadas por ruidos de impulso ("sal y pimienta" o "nieve" o polvos reales (papeles voladores, partículas, etc.) ocultando un fondo útil y asimilados de este modo al ruido de impulso), sin distorsionar la imagen original como tal es el caso de un filtrado lineal que aplica una forma de promedio no deseable sobre la sucesión de píxeles.
Las ventajas del procesamiento aquí propuesto son múltiples: la complejidad y la memoria requerida son muy bajas ya que la actualización de un píxel para la imagen n se realiza solo con ayuda del valor procesado anterior (salida n-1) y del píxel actual (imagen n). Por lo tanto, la implementación en tiempo real es inmediata a diferencia de una realización basada en filtros medianos convencionales. Además, el procesamiento es directamente aplicable al caso de una cámara en movimiento.
Claims (14)
1. Procedimiento de procesamiento de datos de una secuencia de vídeo que consta de ruido, estando la secuencia de vídeo formada por una sucesión de imágenes,
caracterizado por que consta, para el filtrado del ruido, de la aplicación de un filtrado recursivo llamado "del signo" y dado por:
donde:
- y(n) designa un elemento de la imagen de orden n en la sucesión, no procesada por la aplicación del filtrado del signo,
- z(n-1) designa un elemento de posición correspondiente a y(n), de la imagen de orden (n-1) en la sucesión y procesada por la aplicación del filtrado del signo,
- z(n) designa un elemento de posición correspondiente a y(n), de la imagen de orden n en la sucesión y procesada por la aplicación del dicho filtrado del signo, y
- A es un coeficiente estrictamente positivo.
2. Procedimiento según la reivindicación 1, en donde los elementos y(n), z(n-1) y z(n) son píxeles de imagen, de la misma posición, caracterizado por que las imágenes de la sucesión se procesan píxel a píxel.
3. Procedimiento según una de las reivindicaciones anteriores, caracterizado por que el ruido es de impulso, de tipo "sal y pimienta" o "nieve".
4. Procedimiento según una de las reivindicaciones anteriores, caracterizado por que el ruido es de impulso y resulta de una radiación radiactiva recibida por un sensor de una cámara que graba dicha secuencia de vídeo.
5. Procedimiento según una de las reivindicaciones 1 y 2, caracterizado por que las imágenes de dicha secuencia de vídeo presentan objetos en movimiento delante de un fondo de interés y por que dichos objetos en movimiento en las imágenes se procesan como ruido.
6. Procedimiento según una de las reivindicaciones anteriores, en donde la sucesión de imágenes consta de un movimiento aparente de un fondo de imagen en la sucesión de imágenes, caracterizado por que consta, además:
- de integrar el movimiento aparente como entrada del filtrado del signo.
7. Procedimiento según la reivindicación 6, tomada en combinación con la reivindicación 2, caracterizado por que la aplicación del filtrado del signo en caso de movimiento aparente viene dada por:
z ( q ; n ) = z (T n ( q ) ,n - 1) A s i y ( q , n ) > z (T n ( q ) ,n - 1)
z ( q ,n ) = z (T n ( q ) , n - 1) - A si y ( q ,n) < z (T n ( q ) ,n - 1)
z ( q ,n ) = z (T n ( q ) ,n - 1) s i y ( q , n ) = z (T n ( q ) ,n - 1 )
con z(q ,n) los valores tomados por la imagen de orden n en el píxel de coordenadas vectoriales q y Tn la estimación de la transformación entre la imagen anterior de rango n-1 y la imagen actual de rango n en la sucesión.
8. Procedimiento según una de las reivindicaciones anteriores, caracterizado por que, para primeras imágenes de la sucesión hasta una imagen de orden n0, se aplica un filtro temporal de factor de olvido, sin aplicar filtrado del signo, siendo este filtro temporal de factor de olvido dado por:
z temp (
z ( q , n )
con ztemp(q ,n) = (1 - or).y(q ,n) or.ztemp(Tn(q),n - 1)
y N(q ,n) = (1 - a) a.N(Tn(q), n - 1),
siendo ztemp(q ,n) una variable temporal, y siendo a un factor de olvido comprendido entre 0 y 1,
siendo entonces z(q ,n) los valores tomados por la imagen de orden n en el píxel de coordenadas vectoriales q , y Tn la estimación de una transformación por movimiento eventual entre la imagen anterior de rango n-1 y la imagen actual de rango n en la sucesión, con n inferior a n0.
9. Procedimiento según la reivindicación 8, caracterizado por que, en ausencia de movimiento entre las imágenes sucesivas hasta la imagen n0 , el filtro temporal de factor de olvido viene dado por:
z temp (V")
z ( n ) = 1 - a n • c o n z tem p («) = (1 - a ) y ( n ) OCZtempin - 1 ) siendo ztemp(n) una variable temporal, y siendo a un factor de olvido comprendido entre 0 y 1.
10. Procedimiento según una de las reivindicaciones anteriores, caracterizado por que, al menos para imágenes de la sucesión que siguen una imagen de orden n0, se aplica la combinación del filtrado del signo a un filtro temporal de factor de olvido, siendo el resultado de dicha combinación dado por:
f N Wtemp (n)
s (ri) — i _ p
n - n o
+1
siendo wtemp(n) una variable temporal dada por:
wtemp(n) = (1 - p)z(n) + j6wtemp(n - 1), donde z(n) es el resultado de la aplicación del filtrado del signo, y siendo @ un factor de olvido comprendido entre 0 y 1.
11. Procedimiento según una de las reivindicaciones anteriores, caracterizado por que se elige un valor del coeficiente A en función de un valor máximo Imáx de nivel de color tomado por los elementos de imagen, y por que el coeficiente A es inferior a 20 Imáx/255.
12. Procedimiento según la reivindicación 11, caracterizado por que el coeficiente A está comprendido entre 0 y 5 Imáx/255.
13. Programa informático que consta de instrucciones para la implementación del procedimiento según una de las reivindicaciones 1 a 12, cuando dichas instrucciones son ejecutadas por un procesador.
14. Dispositivo que consta de una unidad de procesamiento para la implementación del procedimiento según una de las reivindicaciones 1 a 12.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1855955A FR3083415B1 (fr) | 2018-06-29 | 2018-06-29 | Traitement d'un bruit impulsionnel dans une sequence video |
PCT/EP2019/064297 WO2020001922A1 (fr) | 2018-06-29 | 2019-06-03 | Traitement d'un bruit impulsionnel dans une séquence vidéo |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2910326T3 true ES2910326T3 (es) | 2022-05-12 |
Family
ID=64049336
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES19727416T Active ES2910326T3 (es) | 2018-06-29 | 2019-06-03 | Procesamiento de un ruido de impulso en una secuencia de vídeo |
Country Status (8)
Country | Link |
---|---|
US (1) | US11201989B2 (es) |
EP (1) | EP3797509B1 (es) |
CN (1) | CN112567722B (es) |
CA (1) | CA3105372C (es) |
ES (1) | ES2910326T3 (es) |
FR (1) | FR3083415B1 (es) |
WO (1) | WO2020001922A1 (es) |
ZA (1) | ZA202008069B (es) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7263149B2 (ja) * | 2019-06-26 | 2023-04-24 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB1515551A (en) | 1975-04-25 | 1978-06-28 | British Broadcasting Corp | Noise reduction in electrical signals |
DE4319342C2 (de) * | 1993-06-11 | 1999-05-20 | Philips Patentverwaltung | Verfahren zur Reduktion von Störungen |
US7139035B2 (en) * | 2002-12-30 | 2006-11-21 | Texas Instruments Incorporated | Video noise floor estimator with impulse noise detection |
FR2860941A1 (fr) * | 2003-10-14 | 2005-04-15 | Nextream France | Dispositif et procede d'estimation de bruit d'un signal video |
US7317841B2 (en) * | 2003-12-22 | 2008-01-08 | Ge Medical Systems Global Technology Company, Llc | System and method for image noise reduction using a minimal error spatiotemporal recursive filter |
US7702178B2 (en) * | 2004-03-15 | 2010-04-20 | Sarnoff Corporation | Method and apparatus for providing noise reduction |
EP1779653A4 (en) * | 2004-07-30 | 2011-09-14 | Algolith Inc | DEVICE AND METHOD FOR ADAPTIVE 3D NOISE REDUCTION |
US7769089B1 (en) * | 2004-12-02 | 2010-08-03 | Kolorific, Inc. | Method and system for reducing noise level in a video signal |
US7885341B2 (en) * | 2005-10-21 | 2011-02-08 | Cisco Technology, Inc. | Spatial filtering for improving compression efficiency of motion compensated interframe coding |
US8009732B2 (en) * | 2006-09-01 | 2011-08-30 | Seiko Epson Corporation | In-loop noise reduction within an encoder framework |
US8339516B2 (en) * | 2007-03-31 | 2012-12-25 | Sony Deutschland Gmbh | Noise reduction method and unit for an image frame |
US20120019727A1 (en) * | 2010-07-21 | 2012-01-26 | Fan Zhai | Efficient Motion-Adaptive Noise Reduction Scheme for Video Signals |
US8773593B2 (en) * | 2011-01-03 | 2014-07-08 | Arm Limited | Noise reduction filter circuitry and method |
EA017302B1 (ru) * | 2011-10-07 | 2012-11-30 | Закрытое Акционерное Общество "Импульс" | Способ подавления шума серий цифровых рентгенограмм |
SE1250048A1 (sv) * | 2012-01-24 | 2013-07-25 | Wesdyne Sweden Ab | En bildförbättringsanordning för reduktion av brus i digitala bilder |
WO2014074601A2 (en) * | 2012-11-07 | 2014-05-15 | Vid Scale, Inc | Temporal filter for denoising a high dynamic range video |
US10262397B2 (en) * | 2014-12-19 | 2019-04-16 | Intel Corporation | Image de-noising using an equalized gradient space |
US9898805B2 (en) * | 2015-02-11 | 2018-02-20 | Texas Instruments Incorporated | Method for efficient median filtering |
US10755395B2 (en) * | 2015-11-27 | 2020-08-25 | Canon Medical Systems Corporation | Dynamic image denoising using a sparse representation |
US10262401B2 (en) * | 2017-04-27 | 2019-04-16 | Apple Inc. | Noise reduction using sequential use of multiple noise models |
-
2018
- 2018-06-29 FR FR1855955A patent/FR3083415B1/fr active Active
-
2019
- 2019-06-03 WO PCT/EP2019/064297 patent/WO2020001922A1/fr unknown
- 2019-06-03 ES ES19727416T patent/ES2910326T3/es active Active
- 2019-06-03 CA CA3105372A patent/CA3105372C/fr active Active
- 2019-06-03 CN CN201980051897.1A patent/CN112567722B/zh active Active
- 2019-06-03 EP EP19727416.0A patent/EP3797509B1/fr active Active
- 2019-06-03 US US17/254,450 patent/US11201989B2/en active Active
-
2020
- 2020-12-23 ZA ZA2020/08069A patent/ZA202008069B/en unknown
Also Published As
Publication number | Publication date |
---|---|
ZA202008069B (en) | 2022-03-30 |
CA3105372A1 (fr) | 2020-01-02 |
US20210152713A1 (en) | 2021-05-20 |
EP3797509A1 (fr) | 2021-03-31 |
CN112567722B (zh) | 2022-11-29 |
WO2020001922A1 (fr) | 2020-01-02 |
US11201989B2 (en) | 2021-12-14 |
FR3083415B1 (fr) | 2020-09-04 |
EP3797509B1 (fr) | 2022-01-05 |
CA3105372C (fr) | 2022-02-22 |
CN112567722A (zh) | 2021-03-26 |
FR3083415A1 (fr) | 2020-01-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9449374B2 (en) | System and method for multi-frame temporal de-noising using image alignment | |
US10277820B2 (en) | Scene motion correction in fused image systems | |
US9344636B2 (en) | Scene motion correction in fused image systems | |
Jinno et al. | Multiple exposure fusion for high dynamic range image acquisition | |
KR100860967B1 (ko) | 영상의 모션 블러를 제거하기 위한 장치 및 방법 | |
US8428390B2 (en) | Generating sharp images, panoramas, and videos from motion-blurred videos | |
KR102277048B1 (ko) | 미리보기 사진 블러링 방법 및 장치 및 저장 매체 | |
WO2021114868A1 (zh) | 降噪方法、终端及存储介质 | |
JP7151488B2 (ja) | 移動物体検出装置、移動物体検出方法及びプログラム | |
CN104620282A (zh) | 用于抑制图像中的噪声的方法和系统 | |
CN113497901A (zh) | 使用多曝光帧进行运动扭曲的系统及方法 | |
US10096088B2 (en) | Robust regression method for image-space denoising | |
KR20140116960A (ko) | 적응적인 다중-차원 데이터 분해 | |
KR20190047442A (ko) | 반사 영역을 제거하는 방법, 사용자의 눈을 추적하는 방법 및 그 장치 | |
US8411980B1 (en) | Removing motion blur from unaligned multiple blurred images | |
US9558534B2 (en) | Image processing apparatus, image processing method, and medium | |
Georgiev et al. | Fixed-pattern noise modeling and removal in time-of-flight sensing | |
Kotera et al. | Blind deconvolution with model discrepancies | |
ES2910326T3 (es) | Procesamiento de un ruido de impulso en una secuencia de vídeo | |
Wang et al. | A linear comb filter for event flicker removal | |
KR102003460B1 (ko) | 왜곡제거장치 및 방법 | |
KR20230049231A (ko) | 영상 개선 방법 및 장치 | |
JP6221333B2 (ja) | 画像処理装置、画像処理回路及び画像処理方法 | |
Halder et al. | A fast restoration method for atmospheric turbulence degraded images using non-rigid image registration | |
Sciacchitano | Image reconstruction under non-Gaussian noise |