ES2910326T3 - Procesamiento de un ruido de impulso en una secuencia de vídeo - Google Patents

Procesamiento de un ruido de impulso en una secuencia de vídeo Download PDF

Info

Publication number
ES2910326T3
ES2910326T3 ES19727416T ES19727416T ES2910326T3 ES 2910326 T3 ES2910326 T3 ES 2910326T3 ES 19727416 T ES19727416 T ES 19727416T ES 19727416 T ES19727416 T ES 19727416T ES 2910326 T3 ES2910326 T3 ES 2910326T3
Authority
ES
Spain
Prior art keywords
image
sign
sequence
filtering
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES19727416T
Other languages
English (en)
Inventor
Nicolas Paul
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electricite de France SA
Original Assignee
Electricite de France SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electricite de France SA filed Critical Electricite de France SA
Application granted granted Critical
Publication of ES2910326T3 publication Critical patent/ES2910326T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • H04N5/213Circuitry for suppressing or minimising impulsive noise
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Image Analysis (AREA)

Abstract

Procedimiento de procesamiento de datos de una secuencia de vídeo que consta de ruido, estando la secuencia de vídeo formada por una sucesión de imágenes, caracterizado por que consta, para el filtrado del ruido, de la aplicación de un filtrado recursivo llamado "del signo" y dado por: **(Ver fórmula)** donde: - y(n) designa un elemento de la imagen de orden n en la sucesión, no procesada por la aplicación del filtrado del signo, - z(n-1) designa un elemento de posición correspondiente a y(n), de la imagen de orden (n-1) en la sucesión y procesada por la aplicación del filtrado del signo, - z(n) designa un elemento de posición correspondiente a y(n), de la imagen de orden n en la sucesión y procesada por la aplicación del dicho filtrado del signo, y - Δ es un coeficiente estrictamente positivo.

Description

DESCRIPCIÓN
Procesamiento de un ruido de impulso en una secuencia de vídeo
Sector de la técnica
La presente invención se refiere a un procesamiento de eliminación de ruido de una secuencia de vídeo de imágenes digitales organizadas en píxeles, en particular, para corregir un ruido de imagen de tipo "sal y pimienta" (o "ruido de impulso" en lo sucesivo).
Estado de la técnica
Sin embargo, se puede considerar que este ruido no impacta en un "fondo de la imagen" y, de este modo, se puede estar interesado en el procesamiento de imagen para la estimación en tiempo real del fondo, con como posibles aplicaciones:
- la restauración de secuencias de vídeo en presencia de ruido de impulso (también llamado ruido "sal y pimienta" que se encuentra típicamente en presencia de radiación radiactiva que impacta en los fotositos de un sensor, lo que se traduce en una saturación de los píxeles correspondientes);
- una detección de movimiento en una secuencia de vídeo, con seguimiento de objeto (por ejemplo, en videovigilancia), en donde una cámara, eventualmente en movimiento, graba una escena fija sobre la que se añaden elementos que se mueven, con objetos que se desplazan. Para detectar estos eventos, una solución consiste en estimar el fondo y luego restarlo de la imagen.
En lo sucesivo, se centra en el caso de una imagen en nivel de gris (un solo valor por píxel), la extensión al caso de una imagen en color (tres canales "rojo", "verde", "azul") siendo inmediata aplicando el mismo cálculo sobre los tres canales.
Se considera entonces el caso de un píxel de la imagen cuya evolución temporal se sigue, denotada y(n) para la imagen de orden n de la secuencia, sin necesidad de precisar en lo sucesivo las coordenadas espaciales del píxel.
El caso de un ruido de impulso debido a la radiación, teniendo en cuenta las otras aplicaciones mencionadas anteriormente, se puede procesar a partir de un modelo de degradación sobre un píxel y(n) en un instante n dado. Este modelo se desvía del modelo convencional de ruido aditivo centrado y se puede escribir, por ejemplo:
y ( n ) = x u(n ) c o n u n a p r o b a b il id a d 1 — p
y ( n ) = s c o n u n a p r o b a b il id a d p
siendo x el valor exacto del píxel en ausencia de radiación y de ruido de medición
siendo u(n) un ruido convencional de medición (típicamente ruido blanco gaussiano), de desviación-tipo Ou siendo s el valor de un píxel "contaminado", típicamente una saturación
siendo p la "tasa" de radiación
La densidad de probabilidad fY(y) de los valores tomados por y(n) se escribe en este ejemplo:
Figure imgf000002_0001
siendo 5(x) la función "Dirac" de x.
Este modelo, sencillo, no es el único posible. En particular, los valores contaminados no son necesariamente constantes, y la radiación no es la única aplicación. Por lo tanto, hay un interés más generalmente en valores de píxeles que tienen una densidad de probabilidad de la forma:
Figure imgf000002_0002
siendo fs(y) la distribución de los píxeles "contaminados" (o correspondiente a un objeto en movimiento) y siendo fu (y - x) la distribución de píxeles "no contaminados" (o correspondiente a un fondo fijo).
Por analogía con el caso de un ruido de radiación, esta designación de "contaminado" y de "no contaminado" se mantiene a continuación (aunque el caso de imágenes con radiación no es la única aplicación posible). En el caso más general de un ruido de impulso de sal y pimienta, los valores de ruido pueden ser a la vez muy elevados (píxeles blancos, saturación) o muy bajos (píxeles negros), es decir, una forma bimodal para fs(y), por ejemplo, para píxeles con ruido que oscila entre 0 y el máximo de los valores tomados por los píxeles /máx:
Figure imgf000003_0001
/ máx)
Existen técnicas para filtrar este tipo de ruido. Las dos principales se detallan a continuación.
El método más sencillo consiste en utilizar un filtrado temporal, lineal, de los valores de cada píxel. Típicamente, el promedio deslizante o los filtros temporales lineales como el olvido exponencial se usan frecuentemente. El olvido exponencial se define por:
Figure imgf000003_0002
donde a establece el factor de olvido del filtro (típicamente entre 0,8 y 0,99).
Converge hacia el promedio yprom de los valores tomados por y(n) a lo largo del tiempo. Si s es el valor promedio de los píxeles contaminados, se tiene:
yprom = X p ( s - x )
Este valor puede desviarse sustancialmente del valor exacto x si la tasa de radiación p es elevada y/o si el promedio de los valores no contaminados x se aleja del valor "contaminado" s. Por ejemplo, para p = 20 %, un píxel normalmente negro x = 0 y un valor contaminado en saturación s=255 niveles de gris se tiene yprom = 51 niveles de gris, es decir, una desviación de unos cincuenta niveles de gris con respecto al valor exacto.
En el caso de una cámara en movimiento o que puede cambiar de factor de zum, la última salida del filtro se reajusta, con el fin de seguir los diferentes movimientos o cambios de zum de la cámara. La expresión correspondiente se escribe:
Figure imgf000003_0003
Con:
y(q,n) el valor de la enésima imagen sin procesar, para el píxel en la posición q
z(q,n) el valor de la enésima imagen filtrada para el píxel en la posición q
Zrestaurada (q,n) el valor de la enésima imagen restaurada para el píxel en la posición q
Tn(.) la transformación estimada entre las imágenes sin procesar n-1 y n.
a el factor de olvido del filtro (típicamente 0,98, 0,95)
N(q,n) la salida del filtrado temporal cuando se pone en entrada una imagen constante igual a 1 para todos los píxeles.
Menos formalmente, esta ecuación de filtrado se escribe:
im a g e n filtrada = (1 “ «)■ ím a g e n sin procesar im a g e n filtrada,anterior,reajustada
.
im agenrestaurada _ im a g e n filtrada
- n o r m ai i z a c ió n
Este procesamiento permite eliminar el efecto de la radiación (efecto "nieve" sobre la imagen). Sin embargo, se puede demostrar que la imagen restaurada de este modo no converge exactamente hacia la imagen que se habría obtenido en ausencia de radiación.
Otra técnica conocida es el filtro mediano.
Se sabe que es interesante elegir procesamientos que no converjan hacia el promedio, sino hacia la mediana de los valores tomados por y(n). De hecho, si la tasa de ruido de impulso es inferior al 50 %o, la mediana de los valores tomados por y(t) se sitúa en el soporte de la distribución de x u(t).
Esta mediana es independiente de la desviación entre el valor contaminado s y el valor exacto x.
En el caso de un ruido "sal y pimienta", esta mediana es igual a x. En el caso de un píxel "contaminado" siempre superior a la mediana, se muestra que esta mediana viene dada por:
ymed
Figure imgf000004_0001
es decir, una pequeña desviación ymed - x < 0,32ou para tasas de contaminación observadas en la práctica (por ejemplo, p <20 %).
La diferencia entre el promedio y la mediana se muestra en la figura 1, que representa un ejemplo de evolución temporal de los valores tomados por un píxel con una tasa de contaminación del 20 %.
Para calcular esta mediana a lo largo del tiempo, los procesamientos habituales consisten en, por cada píxel, calcular la mediana obtenida sobre ventanas temporales deslizantes. Sobre cada ventana, la mediana se puede calcular, por ejemplo, mediante algoritmos de clasificación (se clasifican los M valores tomados por el píxel en la ventana temporal y luego se toma el valor del medio) o a partir del histograma de los valores tomados por el píxel en la ventana.
Sin embargo, este enfoque tiene tres inconvenientes:
- la memoria requerida es grande (tamaño de las ventanas, 50 imágenes para ventanas temporales de dos segundos y una tasa de vídeo de 25 imágenes/segundo);
- el procesamiento, que debe llamarse para cada píxel y para cada nueva imagen (en cada nueva imagen corresponde a la actualización de las ventanas temporales), es particularmente complejo;
- la extensión al caso de una cámara en movimiento y/o la haciendo variar el factor de zum es imposible: para eso, sería necesario reajustar el conjunto de las imágenes de la ventana deslizante sobre la última imagen, luego calcular la mediana temporal de cada píxel. La memoria requerida y el tiempo de procesamiento se vuelven incompatibles con una aplicación en tiempo real.
El artículo "Adaptive Noise Filetring of Image Sequences in Real Time" de A. Reza publicado en WSEAS Transactions on Systems, Vol. 12(4), en abril de 2013 divulga un procedimiento de procesamiento de datos de una secuencia de vídeo que consta de un ruido de impulso caracterizado por que consta, para el filtrado del ruido, de la aplicación de un filtro de Kalman recursivo; dicho procedimiento es eficaz contra el ruido de impulso, pero su implementación necesita grandes medios informáticos.
Objeto de la invención
La presente invención viene a mejorar esta situación.
Para ello, propone un procedimiento de procesamiento de datos de una secuencia de vídeo que consta de ruido, por ejemplo, un ruido de impulso, estando la secuencia de vídeo formada por una sucesión de imágenes, constando el procedimiento, para el filtrado del ruido, de la aplicación de un filtrado recursivo denominado en adelante "filtrado del signo" y dado por:
z ( n ) = z ( n — 1 ) A s i y ( n ) > z ( n — 1 )
z ( n ) = z ( n — 1 ) — A s i y ( n ) < z ( n — 1 )
Y z ( n ) = z ( n - 1 ) s i y ( n ) = z ( n — 1 )
donde:
- y(n) designa un elemento de la imagen de orden n en la sucesión, no procesada por la aplicación del filtrado del signo,
- z(n-1) designa un elemento de posición correspondiente a y(n), de la imagen de orden (n-1) en la sucesión y procesada por la aplicación del filtrado del signo,
- z(n) designa un elemento de posición correspondiente a y(n), de la imagen de orden n en la sucesión y procesada por la aplicación del dicho filtrado del signo, y
- A es un coeficiente estrictamente positivo.
Como se verá en los ejemplos de resultados presentados a continuación, tal filtro ofrece la ventaja de un filtro mediano con respecto a un filtro temporal convencional, que es no degradar las imágenes procesadas en un promedio.
En una realización, los elementos y(n), z(n-1) y z(n) son píxeles de imagen, de misma posición, y las imágenes de la sucesión anteriormente mencionada son procesadas píxel a píxel. Alternativamente, un procesamiento por bloques de píxeles adyacentes se puede aplicar para hacer converger aún más rápido el procesamiento según el caso de uso. El ruido anteriormente mencionado puede ser de impulso, por ejemplo, de tipo "sal y pimienta" o "nieve".
El ruido de impulso puede resultar, por ejemplo, de la radiación radiactiva recibida por un sensor de una cámara que graba la secuencia de vídeo anteriormente mencionada.
Típicamente en este caso, el ruido de impulso es a menudo de tipo "nieve".
Con o sin ruido de tipo "sal y pimienta" o "nieve", el procesamiento de la invención se puede utilizar en imágenes de secuencia de vídeo que presentan objetos en movimiento delante de un fondo de interés. En este caso, estos objetos en movimiento en las imágenes (polvo u otros) pueden ser procesados como ruido, por el procedimiento en el sentido de la invención.
En el caso de una cámara en movimiento, o con variaciones eventuales del factor de zum, se puede prever, con, por ejemplo, un módulo de estimación de movimiento en imágenes sucesivas, integrar el desplazamiento aparente como entrada del filtrado del signo.
De este modo, en términos más genéricos, en un procedimiento donde la sucesión de imágenes consta de un movimiento aparente de un fondo de imagen en la sucesión de imágenes,
el procedimiento puede constar, además, de:
- de integrar el movimiento aparente como entrada del filtrado del signo.
Tal "movimiento aparente" puede ser causado por al menos una de entre las siguientes situaciones:
- la cámara es móvil y graba una secuencia fija, y
- el zum de la cámara es variable en el tiempo.
Con las notaciones dadas a los píxeles anteriores, la aplicación del filtrado del signo en caso de tal movimiento aparente puede ser dada entonces por:
z ( q ,n ) = z (T n ( q ) ,n - 1) A s i y ( q , n ) > z (T n ( q ) ,n - 1)
z ( q ,n ) = z (T n ( q ) ,n - 1) - A si y ( q ,n) < z (T n ( q ) ,n - 1)
z ( q ,n ) = z (T n ( q ) ,n - 1) s i y ( q , n ) = z (T n ( q ) ,n - 1 )
con z(q,n) los valores tomados por la imagen de orden n en el píxel de coordenadas vectoriales q y Tn la estimación de la transformación entre la imagen anterior de rango n-1 y la imagen actual del rango n en la sucesión.
Preferentemente, puede ser ventajoso, para primeras imágenes de la sucesión hasta una imagen de orden n0, aplicar un filtro temporal de factor de olvido, sin aplicar filtrado del signo, siendo este filtro temporal de factor de olvido dado por:
z temp (q , ri)
z ( q , ri)
N(q, ri)
con ztemp(q,n) = (1 - a).y(q,n) a.ztemp(Tn(q), n - 1)
y N(q,n) = (1- a) + a.N(Tn(q),n - 1),
siendo ztemp (q,n) una variable temporal, y siendo a un factor de olvido comprendido entre 0 y 1,
siendo entonces z(q,n) los valores tomados por la imagen de orden n en el píxel de coordenadas vectoriales q, y Tn la estimación de una transformación por movimiento eventual entre la imagen anterior de rango n-1 y la imagen actual de rango n en la sucesión, con n inferior a n0.
En ausencia de movimiento entre imágenes sucesivas hasta la imagen n0, este filtro temporal de factor de olvido puede ser simplemente dado por:
ztemp(^)
z (r i ) =
l-an ,
con
^temp(ri) C1 t t ) y (n ) + ffZtemp(ri 1 )
siendo ztemp(n) una variable temporal, y siendo a un factor de olvido comprendido entre 0 y 1.
Después, al menos para imágenes de la sucesión que siguen una imagen de orden n0, se puede aplicar la combinación del filtrado del signo a un filtro temporal de factor de olvido, siendo el resultado de esta combinación dado por:
f N Wtemp (n)
s (ri) — i _£>n-n0 l
siendo wtemp(n) una variable temporal dada por:
W tem pO ) = (1 - P ) z ( n ) + ^W tem pO - 1) ,
, donde z(n) es el resultado de la aplicación del filtrado del signo, y siendo 5 un factor de olvido comprendido entre 0 y 1.
Un parámetro importante a elegir es el valor del coeficiente A. Preferentemente, esta elección es función de un valor máximo Imáx de nivel de color tomado por los elementos de imagen. Las pruebas muestran que el coeficiente A puede ser inferior a 20 Imáx/255. Preferentemente, el coeficiente A está comprendido entre 0 y 5 Imáx/255 (es decir, entre 0 y 5 si Imáx=255 como la mayoría de las veces).
Por "nivel de color" se entiende aquí tanto un nivel de gris como de rojo, verde o azul (RGB) cuantificados sobre 256 valores habitualmente.
La presente invención también tiene como propósito un programa informático que consta de las instrucciones para la implementación del procedimiento, cuando estas instrucciones son ejecutadas por un procesador. También se dirige a un soporte de información (una memoria, por ejemplo, de tipo USB u otro) que almacena las instrucciones de tal programa.
La invención también se refiere a un dispositivo que consta de una unidad de procesamiento para la implementación del procedimiento anterior (descrito más adelante con referencia a la figura 5).
Descripción de las figuras
Otras ventajas y características de la invención aparecerán tras la lectura de la descripción detalla de modos de realización de la invención, presentados a modo de ejemplos ilustrativos, y al examinar los dibujos adjuntos en los que:
- La figura 1 ilustra la mediana y el promedio temporal de los valores que toma un píxel susceptible de estar contaminado por un ruido de impulso (p=20 %, Ou=10 niveles de gris);
- La figura 2 muestra la evolución temporal de un píxel susceptible de estar contaminado (p=20 %, Ou=10 niveles de gris) y salidas del procesamiento por filtro del signo (con A=3);
- La figura 3 ilustra las distribuciones observada y teórica de los valores tomados por la salida del procesamiento por filtro del signo usado para los resultados de la figura 2 (A=3);
- La figura 4 compara el procesamiento por filtro del signo (A= 3) con el procesamiento híbrido usando dos filtros temporales de factor de olvido y el filtro del signo (A= 3, na = 25 imágenes, a = ¡5= 0,95) sobre un píxel a veces contaminado (cu = 10, p = 20 %);
- La figura 5 ilustra un dispositivo para la implementación de la invención, en un ejemplo de realización;
- La figura 6 ilustra un procesamiento en el sentido de la invención, aplicado en un ejemplo de realización a una secuencia de imágenes con movimiento;
- La figura 7 ilustra un procesamiento en el sentido de la invención, aplicado en un ejemplo de realización con dos filtros de factor de olvido, previamente (Filt temp1) al filtro del signo (FILT SGN) y concomitantemente (Filt temp2) al filtro del signo.
Descripción detallada de la invención
La invención propone un enfoque recursivo de la siguiente manera: al considerar los valores tomados por un único píxel, denotados y(n) para la imagen n, este enfoque consiste en calcular la sucesión z(n) definida por:
z ( n ) = z ( n — 1 ) A x s i g n o ( y ( n ) — z ( n — 1 ) )
con signo(0)=0.
A continuación, este enfoque se denomina "procesamiento por filtro del signo" o "mediano temporal rápido".
A es un parámetro del algoritmo cuyo ajuste traduce un compromiso entre la velocidad de convergencia y la desviacióntipo residual después de la convergencia. Su ajuste se analiza a continuación.
Las ventajas de este filtro del signo son múltiples.
La memoria requerida sigue siendo muy baja: solo se usan dos imágenes para calcular la salida en el instante n: la imagen de salida anterior z(n - 1) y la imagen sin procesar actual y(n). Por lo tanto, la implementación en tiempo real es inmediata.
La complejidad es casi nula: por cada imagen nueva y por cada píxel, se cuenta una suma, una multiplicación y una comparación (sobre el cálculo de signo).
Este enfoque se adapta ventajosamente y sin dificultad al caso particular de una cámara en movimiento, para lo cual la ecuación de recurrencia se convierte en:
z(q , n) = z ( T ( q ) , n — 1 ) A x s i g n o ( y ( q , n) — z ( T ( q ) , n — 1 ) ) con z(q,n) los valores tomados por la imagen en el instante n en el píxel de coordenadas vectoriales q y T la estimación de la transformación entre la imagen anterior y la imagen actual. Los métodos de estimación de esta transformación se describen en la literatura para una traslación y para la combinación de una traslación, de una rotación y un de cambio del factor de zum.
De este modo, un paso previo al procesamiento del signo puede consistir en definir si la cámara está en movimiento o no:
- si la cámara está fija, solo se aplica el procesamiento por el filtro del signo; y
- si se supone que la cámara debe desplazarse y/o si el factor de zum puede variar (o la iluminación), se aplica, con referencia a la figura 6, una etapa previa S1 de estimación del movimiento de la cámara: se calcula, de manera conocida, el desplazamiento de la cámara a partir de las sucesivas imágenes y este desplazamiento, obtenido de este modo en la etapa S1, se integra entonces como entrada del procesamiento por el filtro del signo a aplicar en la etapa S2.
Por ejemplo, es posible prever un botón binario a disposición de un usuario para determinar si la secuencia fue grabada con una cámara fija o una cámara en movimiento (etapa S0), lo que, en este último caso, provoca el lanzamiento del algoritmo de estimación de movimiento (etapa S1), siendo su resultado tomado como entrada en cada iteración de la etapa S2, de forma iterativa sobre n hasta Nimáx (bucles de las etapas S3 y S4, hasta S5 para n=Nimáx).
En la ecuación general anterior z(n) = z(n - 1) A * signo (y (n) - z(n - 1)), el coeficiente A caracteriza la importancia dada al signo de la diferencia entre la imagen actual y(n) y la imagen anterior n-1 que ha sido procesada recursivamente por el procedimiento en el sentido de la invención: z(n - 1).
El ajuste del valor de este coeficiente A se puede efectuar como se detalla a continuación. Este ajuste resulta de un compromiso entre el tiempo de convergencia del filtro recursivo de signo y la relevancia final de la salida del filtro que puede, por ejemplo, estimarse por la varianza después de la convergencia.
Por "tiempo de convergencia" se entiende a la vez:
- el tiempo de convergencia al inicio de los procesamientos,
- el tiempo de adaptación a los movimientos de cámara o a las variaciones de zum (correspondiendo el píxel a un nuevo elemento de escena),
- el tiempo de adaptarse a un cambio de escena, típicamente un cambio de iluminación.
Si se desea favorecer un tiempo de convergencia/de adaptación rápido, se elige un valor elevado del coeficiente A. Si se desea favorecer una varianza residual baja, se elige un valor bajo para el coeficiente A.
Las figuras 2 y 3 muestran respectivamente la evolución temporal y la distribución de los valores tomados por la salida del procesamiento por el filtro del signo. Esta distribución es muy cercana a la distribución teórica.
Típicamente, en la salida del filtro de signo, la varianza residual después de la convergencia viene dada por:
Figure imgf000007_0001
El tiempo de convergencia para un cambio de mediana de amplitud A viene dado por:
Figure imgf000008_0001
Aquí, el tiempo de convergencia se da para un ruido de impulso "sal y pimienta" asimilado en blanco o negro. En el caso de píxel contaminado solo en blanco, se tendrá:
A/A(1-2p) en el caso de una caída del valor de mediana, y
A/A en el caso de un aumento del valor de mediana.
Los valores tomados por los píxeles de la imagen están típicamente entre 0 y 255 (caso de valores codificados sobre 8 bits). En este caso, parece empíricamente que una buena elección de valor para el coeficiente A puede estar comprendido entre 0 y 20, y preferentemente entre 0 y 5. Más generalmente, si los valores tomados por los píxeles están entre 0 e Imáx, el coeficiente A se puede elegir entre 0 y 20*Imáx/255, preferentemente entre 0 y 5*Imáx/255.
Se puede fijar el coeficiente A como entrada del procesamiento por filtro del signo en la etapa S2, a lo largo de una etapa de inicialización S6 ilustrada en la figura 6, y es posible modificarlo si es necesario en caso de insatisfacción con la imagen obtenida o de su tiempo de obtención. Típicamente, el procesamiento puede ser tal que se elija un valor elevado en la inicialización (A=5, por ejemplo) y luego un valor bajo (A=1, por ejemplo) después del inicio de convergencia. El inicio de convergencia se puede definir en función de un valor de ventana deslizante m (un número de imágenes sucesivas m ) para cambiar de A=5 a A=1.
Los rendimientos del filtro en el sentido de la invención pueden compararse con el filtro de mediana sobre una ventana deslizante.
De hecho, la desviación-tipo de la salida del procesamiento por aplicación del filtro del signo puede compararse con la desviación-tipo del cálculo convencional de la mediana sobre una ventana deslizante de tamaño N. Esto se puede aproximar mediante el siguiente resultado asintótico:
Figure imgf000008_0002
Lo que da, en este contexto:
Figure imgf000008_0003
Para valores dados de ruido Ou (desviación-tipo del ruido aditivo "convencional", sin de impulso) y de tasa de contaminación p se puede deducir el tamaño mínimo de las ventanas deslizantes que sería necesario usar para obtener el mismo rendimiento que el algoritmo del signo aquí propuesto:
Figure imgf000008_0004
Con, por ejemplo, Ou = 10 niveles de gris y p = 20 %, se encuentra que el tamaño de la ventana deslizante necesaria para obtener la misma desviación-tipo residual es de:
- N = 10 imágenes, para A=3,
- N = 30 imágenes, para A=1, y
- N = 60 imágenes, para A=0,5.
Este procesamiento de la invención puede entonces ser reprochado por el compromiso a hacer entre, por una parte, el tiempo de convergencia y la varianza residual después de la convergencia.
No obstante, es posible recurrir a procesamientos híbridos para obtener una varianza residual baja sin por ello afectar al tiempo de convergencia.
Una primera solución consiste en iniciar los procesamientos con un filtro lineal, típicamente un olvido exponencial normalizado luego, después de un tiempo de inicialización na de algunas imágenes, para luego pasar al procesamiento por aplicación del filtro del signo. Este tipo de mejora puede ser útil en el caso de una cámara fija, donde se desea una varianza residual baja sin penalizar el tiempo de convergencia inicial. Sin embargo, este enfoque es menos eficaz cuando conviene adaptarse rápidamente a una variación en la escena (y/o una variación de iluminación o de zum, en particular).
Con el fin de reducir la varianza residual, una segunda solución consiste en usar otro filtrado lineal temporal, aplicado sobre z(t), típicamente con un olvido exponencial. Si /3 es el coeficiente de este segundo filtro (comprendido entre 0 y
1), esto permite multiplicar la varianza residual por 1+p (si se supone que las salidas del filtro del signo están decorrelacionadas en el tiempo).
Esta mejora puede ser particularmente útil en el caso de una escena susceptible de moverse, con el fin de:
◦ garantizar el seguimiento de la escena (iluminación) y/o de la cámara (con un A elevado), y
◦ garantizar una varianza residual baja (con el segundo filtro exponencial)
Ambas mejoras se pueden usar a lo largo de un mismo procesamiento.
El procesamiento híbrido con las dos mejoras se resume a continuación, con referencia a la figura 7, en el caso de una cámara fija, para un píxel dado de valor y(n) en la imagen de orden n:
Para n=0, aplicación de una etapa S20 de inicialización:
y ( ° ) - 0 , z tem p(0 ) _ 0 , W tem p(^-o)- 0
Para n = 1 a na (bucle de las etapas S22 y S23), aplicación en la etapa S21 de un primer filtro temporal de factor de olvido, sin filtro del signo:
Ztem pfa) = (1 - a ) y ( n ) aZtem p(ri - 1 )
Figure imgf000009_0001
Y a la s a l id a s ( n ) = temp ^ ^
w 1 - a n
Para n > n0 (y hasta la convergencia en la etapa S26), aplicación a las etapas S24 y S25 del filtro del signo y respectivamente de un segundo filtro temporal de factor de olvido al resultado del filtro del signo:
z(ri) = z ( n — 1 ) A x s i g n o ( y ( n ) — z ( n — 1 ) )
W tem pO ) = C1 - P ) z ( n ) + M e m p O “ 1 )
Y a la salida
W tem pfo)
s(ri) = 1 —p n - n 0+ 1
Los rendimientos del procesamiento por aplicación del filtro del signo y del procesamiento híbrido con mejoras (rendimientos mucho mejores en este segundo caso) se ilustran en la figura 4.
El uso del procesamiento híbrido y el ajuste de sus parámetros (tiempo de inicialización y factores de olvido exponencial) dependen del tipo de aplicación. Para una cámara fija o que se mueve lentamente, un valor pequeño del coeficiente A es suficiente (0,5 o 1 nivel de gris), con la condición de inicializar el procesamiento con un olvido exponencial normalizado (a = 0,9 por ejemplo). El segundo filtro (wtemp) no es necesariamente útil.
Para una cámara en movimiento, o una escena variable (cambio de iluminación, por ejemplo), el procesamiento debe adaptarse constantemente. Se puede elegir un coeficiente elevado hasta A= 5 nivel de gris, seguido de un olvido exponencial @ = 0,9. El filtro de inicialización (ztemp) no es necesariamente útil.
Para un ajuste óptimo de los parámetros, se puede ayudar de los cálculos que comparan la varianza residual y el tiempo de convergencia durante un cambio de mediana de amplitud A (típicamente debido a una variación de la iluminación de la escena grabada).
En efecto, en este caso, el tiempo de convergencia (para ruido de sal y pimienta de tipo "píxel negro o blanco" (no solo blanco, tipo "nieve")) para un cambio en la mediana de amplitud A (tiempo para alcanzar uA) es dado por:
Figure imgf000010_0001
La varianza residual después de la convergencia se puede aproximar por:
n A(T,
Vr & 3 * —x u . X. ¡1 P
8 1 p 1 p
Con referencia ahora a la figura 5, un dispositivo en el sentido de la invención comprende una unidad de procesamiento UT que comprende al menos:
- una interfaz de entrada IN para recibir desde una cámara CAM, o desde un servidor remoto (o una entidad remota a través de una red de comunicación), una señal que representa píxeles de imágenes sucesivas que forman una secuencia de vídeo (en plano fijo y zum e iluminación fijas o variables);
- un búfer BUFF para almacenar temporalmente los datos de imagen (y típicamente la última imagen recibida (sin procesar) y la última imagen procesada, así como, en caso de movimiento, la penúltima imagen recibida);
- una memoria MEM para almacenar eventualmente de otras variables temporales y, sobre todo, para el almacenamiento de códigos de instrucciones de un programa informático en el sentido de la invención, así como eventualmente filtrar los valores de los parámetros (factores de olvido, coeficiente A, número de imágenes iniciales n0, Nimáx, etc.);
- una interfaz hombre-máquina IHM para introducir los valores de parámetros de filtros, estando esta interfaz conectada a medios de entrada SAI (teclado, ratón, pantalla táctil, comando de voz, etc.) y visualización VIS (pantalla, pantalla táctil, etc.);
- un procesador PROC para leer de la memoria MEM los códigos de instrucciones del programa informático y aplicar el procesamiento en el sentido de la invención a los datos de imágenes del búfer BUFF, si es necesario, apoyándose sobre un módulo de estimación de movimiento MOUV (estimación de los movimientos de la cámara por traslación, rotación, factor de zum) si se supone que la posición de la cámara o sus ajustes son variables; - una interfaz de salida OUT para administrar las imágenes eliminadas de ruido que pueden visualizarse sobre los medios VIS, por ejemplo.
El procesamiento se realiza píxel a píxel para proporcionar una imagen restaurada sobre el valor de los píxeles en la imagen n.
La salida del procesamiento puede presentar varias opciones:
- estimar en tiempo real simplemente el fondo de la secuencia de vídeo;
- detectar y eventualmente extraer uno o más objetos en movimiento en las imágenes, por sustracción del fondo obtenido de este modo de la imagen sin procesar;
- y/o incluso estimar un ruido de impulso del tipo sal y pimienta o nieve en la secuencia de vídeo;
- si es necesario, restaurar la secuencia en caso de presencia de este ruido de impulso; y
- eventualmente administrar las imágenes de este fondo o las imágenes eliminadas de ruido, a través del medio de visualización VIS o a través de una interfaz de comunicación (no representada) de los datos de imágenes de este modo eliminadas de ruido hacia un sitio remoto.
La restauración entonces tiene como objetivo efectuar la siguiente operación:
im a g e n restaurada
im a g e n restaurada,anterior,reajustada A X s lg n O | lm a g e n sin procesar im a g e n restaurada, anterior, reajustada} Dos filtros convencionales (olvido exponencial) pueden usarse como complemento de este procesamiento:
- se puede usar un primer filtro para acelerar el tiempo de convergencia inicial de este procesamiento;
- se puede usar un segundo filtro para reducir la varianza residual.
Por lo tanto, se cuenta con cuatro posibles combinaciones de filtros:
- filtro del signo sencillo
- filtro del signo con filtro de inicialización
- filtro del signo con filtro de reducción de varianza residual
- filtro del signo con filtro de inicialización y filtro de reducción de varianza residual.
La segunda y cuarta combinaciones se detallan a continuación.
Aquí, se usa la estimación de la transformación geométrica entre la imagen sin procesar n-1 y la imagen sin procesar n denotada Tn(q ). Siempre observando las imágenes de entrada y(q ,n) y las imágenes de salida Zrestaurada(q ,n), se pueden aplicar las siguientes etapas:
Inicialización: z(q ,0) = 0; Zrestaurada(q,0) = 0; T1(q) = q (transformación de identidad);
N(q,0) = 0 (imagen de normalización)
Para n=1 a m:
Figure imgf000011_0002
Para n>n0:
^restaurada (q ,
= ^restaurada (Xn ( q ) ,n 1 ) A X S Í g n o { y (q ,n ) -Z r e s ta u r a d a (^ n (q ) ,n - 1 ) }
Se puede elegir como valores de entrada:
- n0 = 25 imágenes (1 segundo), se puede subir hasta 50 imágenes (2 segundos)
- A = 3 (entre 0 y 10)
Este valor de A corresponde a los valores de píxeles que varían entre 0 y 255. Para el caso de píxel que varía entre 0 y 1 es necesario multiplicar por 1/255. Para píxeles que varían entre 0 y MÁX, es necesario multiplicar por MÁX/255. Este algoritmo involucra los valores:
z(Tn (q ) , n - 1 ) , N(Tn( q ) , n - 1 ) y ¿restauradaC^nCq)^ - 1 ) > que a veces no están disponibles cuando la transformación estimada T n (q) hace salir un píxel de la imagen (debido al movimiento de imagen).
En este caso, se podrá elegir los siguientes valores:
z(Tn(q),n - 1) = 0
N (Tn(q),n — 1) = 0
Figure imgf000011_0001
Ahora se describirá la cuarta combinación, correspondiente por lo tanto a la representación de la figura 7 comentada anteriormente. Se trata de la aplicación del filtro del signo con filtro de inicialización previa y filtro de reducción de varianza residual concomitante.
El procesamiento se presenta como sigue:
- Inicializaciones: z(q,0) = 0; T1(q ) = q; ztemp (q,0) = 0; Zrestaurada(q,0) = 0; N(q ,0) = 0
y ^restaurada,bis (q , o ) = o
- Para n=1 hasta n0, se mantiene el mismo procesamiento que anteriormente con:
Figure imgf000012_0001
y
z (g , ra)
Restaurada (Q, ri) N(q, ri)
Restaurada^isC^XQ), rio ) Restaurada (Q, rio )
- a continuación, para n>n0, el procesamiento se convierte en una combinación, para cada píxel de imagen n, de un filtro del signo:
Restaurada (Q ,n )
_ Restaurada 0^ n (Q ),n 1 ) A X s ignO ( y ( q ,n ) Restaurada C^n(Q),n 1 )}
Y de un filtro con olvido:
z temp(f l ,n ) _ ( 1 _ f i )R estaurada(
Figure imgf000012_0002
z tem p (^ ,n _ 1 )
De modo que:
Remp (Q, ra)
Restaurada,bis ra) 1 _ f i n - n 0
Se puede tomar por defecto a= 0,95 y p= 0,9
También aquí, este procesamiento implica los valores:
z (Tn(.g), r a _ 1 ) , N(Tn (q), n — 1 ) y Restaurada ( 7 t í (Q ) ,n _ 1 ),
que pueden no estar disponibles cuando la transformación estimada Tn(q) hace salir un píxel de la imagen (debido al movimiento de imagen).
En este caso, se podrán tomar los siguientes valores:
z(Tn(q),n - 1) = 0
N(Tn(q),n-l)=0
R estaurada(^tí(Q ),n 1 ) y (Q , ra) O 0
Se demuestra de este modo que la estimación recursiva en tiempo real del fondo de una secuencia de vídeo permite restaurar películas fuertemente degradadas por ruidos de impulso ("sal y pimienta" o "nieve" o polvos reales (papeles voladores, partículas, etc.) ocultando un fondo útil y asimilados de este modo al ruido de impulso), sin distorsionar la imagen original como tal es el caso de un filtrado lineal que aplica una forma de promedio no deseable sobre la sucesión de píxeles.
Las ventajas del procesamiento aquí propuesto son múltiples: la complejidad y la memoria requerida son muy bajas ya que la actualización de un píxel para la imagen n se realiza solo con ayuda del valor procesado anterior (salida n-1) y del píxel actual (imagen n). Por lo tanto, la implementación en tiempo real es inmediata a diferencia de una realización basada en filtros medianos convencionales. Además, el procesamiento es directamente aplicable al caso de una cámara en movimiento.

Claims (14)

REIVINDICACIONES
1. Procedimiento de procesamiento de datos de una secuencia de vídeo que consta de ruido, estando la secuencia de vídeo formada por una sucesión de imágenes,
caracterizado por que consta, para el filtrado del ruido, de la aplicación de un filtrado recursivo llamado "del signo" y dado por:
Figure imgf000013_0001
donde:
- y(n) designa un elemento de la imagen de orden n en la sucesión, no procesada por la aplicación del filtrado del signo,
- z(n-1) designa un elemento de posición correspondiente a y(n), de la imagen de orden (n-1) en la sucesión y procesada por la aplicación del filtrado del signo,
- z(n) designa un elemento de posición correspondiente a y(n), de la imagen de orden n en la sucesión y procesada por la aplicación del dicho filtrado del signo, y
- A es un coeficiente estrictamente positivo.
2. Procedimiento según la reivindicación 1, en donde los elementos y(n), z(n-1) y z(n) son píxeles de imagen, de la misma posición, caracterizado por que las imágenes de la sucesión se procesan píxel a píxel.
3. Procedimiento según una de las reivindicaciones anteriores, caracterizado por que el ruido es de impulso, de tipo "sal y pimienta" o "nieve".
4. Procedimiento según una de las reivindicaciones anteriores, caracterizado por que el ruido es de impulso y resulta de una radiación radiactiva recibida por un sensor de una cámara que graba dicha secuencia de vídeo.
5. Procedimiento según una de las reivindicaciones 1 y 2, caracterizado por que las imágenes de dicha secuencia de vídeo presentan objetos en movimiento delante de un fondo de interés y por que dichos objetos en movimiento en las imágenes se procesan como ruido.
6. Procedimiento según una de las reivindicaciones anteriores, en donde la sucesión de imágenes consta de un movimiento aparente de un fondo de imagen en la sucesión de imágenes, caracterizado por que consta, además:
- de integrar el movimiento aparente como entrada del filtrado del signo.
7. Procedimiento según la reivindicación 6, tomada en combinación con la reivindicación 2, caracterizado por que la aplicación del filtrado del signo en caso de movimiento aparente viene dada por:
z ( q ; n ) = z (T n ( q ) ,n - 1) A s i y ( q , n ) > z (T n ( q ) ,n - 1)
z ( q ,n ) = z (T n ( q ) , n - 1) - A si y ( q ,n) < z (T n ( q ) ,n - 1)
z ( q ,n ) = z (T n ( q ) ,n - 1) s i y ( q , n ) = z (T n ( q ) ,n - 1 )
con z(q ,n) los valores tomados por la imagen de orden n en el píxel de coordenadas vectoriales q y Tn la estimación de la transformación entre la imagen anterior de rango n-1 y la imagen actual de rango n en la sucesión.
8. Procedimiento según una de las reivindicaciones anteriores, caracterizado por que, para primeras imágenes de la sucesión hasta una imagen de orden n0, se aplica un filtro temporal de factor de olvido, sin aplicar filtrado del signo, siendo este filtro temporal de factor de olvido dado por:
z temp (
z ( q , n )
N(q,
Figure imgf000013_0002
con ztemp(q ,n) = (1 - or).y(q ,n) or.ztemp(Tn(q),n - 1)
y N(q ,n) = (1 - a) a.N(Tn(q), n - 1),
siendo ztemp(q ,n) una variable temporal, y siendo a un factor de olvido comprendido entre 0 y 1,
siendo entonces z(q ,n) los valores tomados por la imagen de orden n en el píxel de coordenadas vectoriales q , y Tn la estimación de una transformación por movimiento eventual entre la imagen anterior de rango n-1 y la imagen actual de rango n en la sucesión, con n inferior a n0.
9. Procedimiento según la reivindicación 8, caracterizado por que, en ausencia de movimiento entre las imágenes sucesivas hasta la imagen n0 , el filtro temporal de factor de olvido viene dado por:
z temp (V")
z ( n ) = 1 - a n • c o n z tem p («) = (1 - a ) y ( n ) OCZtempin - 1 ) siendo ztemp(n) una variable temporal, y siendo a un factor de olvido comprendido entre 0 y 1.
10. Procedimiento según una de las reivindicaciones anteriores, caracterizado por que, al menos para imágenes de la sucesión que siguen una imagen de orden n0, se aplica la combinación del filtrado del signo a un filtro temporal de factor de olvido, siendo el resultado de dicha combinación dado por:
f N Wtemp (n)
s (ri) — i _ p n - n o +1
siendo wtemp(n) una variable temporal dada por:
wtemp(n) = (1 - p)z(n) + j6wtemp(n - 1), donde z(n) es el resultado de la aplicación del filtrado del signo, y siendo @ un factor de olvido comprendido entre 0 y 1.
11. Procedimiento según una de las reivindicaciones anteriores, caracterizado por que se elige un valor del coeficiente A en función de un valor máximo Imáx de nivel de color tomado por los elementos de imagen, y por que el coeficiente A es inferior a 20 Imáx/255.
12. Procedimiento según la reivindicación 11, caracterizado por que el coeficiente A está comprendido entre 0 y 5 Imáx/255.
13. Programa informático que consta de instrucciones para la implementación del procedimiento según una de las reivindicaciones 1 a 12, cuando dichas instrucciones son ejecutadas por un procesador.
14. Dispositivo que consta de una unidad de procesamiento para la implementación del procedimiento según una de las reivindicaciones 1 a 12.
ES19727416T 2018-06-29 2019-06-03 Procesamiento de un ruido de impulso en una secuencia de vídeo Active ES2910326T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1855955A FR3083415B1 (fr) 2018-06-29 2018-06-29 Traitement d'un bruit impulsionnel dans une sequence video
PCT/EP2019/064297 WO2020001922A1 (fr) 2018-06-29 2019-06-03 Traitement d'un bruit impulsionnel dans une séquence vidéo

Publications (1)

Publication Number Publication Date
ES2910326T3 true ES2910326T3 (es) 2022-05-12

Family

ID=64049336

Family Applications (1)

Application Number Title Priority Date Filing Date
ES19727416T Active ES2910326T3 (es) 2018-06-29 2019-06-03 Procesamiento de un ruido de impulso en una secuencia de vídeo

Country Status (8)

Country Link
US (1) US11201989B2 (es)
EP (1) EP3797509B1 (es)
CN (1) CN112567722B (es)
CA (1) CA3105372C (es)
ES (1) ES2910326T3 (es)
FR (1) FR3083415B1 (es)
WO (1) WO2020001922A1 (es)
ZA (1) ZA202008069B (es)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7263149B2 (ja) * 2019-06-26 2023-04-24 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1515551A (en) 1975-04-25 1978-06-28 British Broadcasting Corp Noise reduction in electrical signals
DE4319342C2 (de) * 1993-06-11 1999-05-20 Philips Patentverwaltung Verfahren zur Reduktion von Störungen
US7139035B2 (en) * 2002-12-30 2006-11-21 Texas Instruments Incorporated Video noise floor estimator with impulse noise detection
FR2860941A1 (fr) * 2003-10-14 2005-04-15 Nextream France Dispositif et procede d'estimation de bruit d'un signal video
US7317841B2 (en) * 2003-12-22 2008-01-08 Ge Medical Systems Global Technology Company, Llc System and method for image noise reduction using a minimal error spatiotemporal recursive filter
US7702178B2 (en) * 2004-03-15 2010-04-20 Sarnoff Corporation Method and apparatus for providing noise reduction
EP1779653A4 (en) * 2004-07-30 2011-09-14 Algolith Inc DEVICE AND METHOD FOR ADAPTIVE 3D NOISE REDUCTION
US7769089B1 (en) * 2004-12-02 2010-08-03 Kolorific, Inc. Method and system for reducing noise level in a video signal
US7885341B2 (en) * 2005-10-21 2011-02-08 Cisco Technology, Inc. Spatial filtering for improving compression efficiency of motion compensated interframe coding
US8009732B2 (en) * 2006-09-01 2011-08-30 Seiko Epson Corporation In-loop noise reduction within an encoder framework
US8339516B2 (en) * 2007-03-31 2012-12-25 Sony Deutschland Gmbh Noise reduction method and unit for an image frame
US20120019727A1 (en) * 2010-07-21 2012-01-26 Fan Zhai Efficient Motion-Adaptive Noise Reduction Scheme for Video Signals
US8773593B2 (en) * 2011-01-03 2014-07-08 Arm Limited Noise reduction filter circuitry and method
EA017302B1 (ru) * 2011-10-07 2012-11-30 Закрытое Акционерное Общество "Импульс" Способ подавления шума серий цифровых рентгенограмм
SE1250048A1 (sv) * 2012-01-24 2013-07-25 Wesdyne Sweden Ab En bildförbättringsanordning för reduktion av brus i digitala bilder
WO2014074601A2 (en) * 2012-11-07 2014-05-15 Vid Scale, Inc Temporal filter for denoising a high dynamic range video
US10262397B2 (en) * 2014-12-19 2019-04-16 Intel Corporation Image de-noising using an equalized gradient space
US9898805B2 (en) * 2015-02-11 2018-02-20 Texas Instruments Incorporated Method for efficient median filtering
US10755395B2 (en) * 2015-11-27 2020-08-25 Canon Medical Systems Corporation Dynamic image denoising using a sparse representation
US10262401B2 (en) * 2017-04-27 2019-04-16 Apple Inc. Noise reduction using sequential use of multiple noise models

Also Published As

Publication number Publication date
ZA202008069B (en) 2022-03-30
CA3105372A1 (fr) 2020-01-02
US20210152713A1 (en) 2021-05-20
EP3797509A1 (fr) 2021-03-31
CN112567722B (zh) 2022-11-29
WO2020001922A1 (fr) 2020-01-02
US11201989B2 (en) 2021-12-14
FR3083415B1 (fr) 2020-09-04
EP3797509B1 (fr) 2022-01-05
CA3105372C (fr) 2022-02-22
CN112567722A (zh) 2021-03-26
FR3083415A1 (fr) 2020-01-03

Similar Documents

Publication Publication Date Title
US9449374B2 (en) System and method for multi-frame temporal de-noising using image alignment
US10277820B2 (en) Scene motion correction in fused image systems
US9344636B2 (en) Scene motion correction in fused image systems
Jinno et al. Multiple exposure fusion for high dynamic range image acquisition
KR100860967B1 (ko) 영상의 모션 블러를 제거하기 위한 장치 및 방법
US8428390B2 (en) Generating sharp images, panoramas, and videos from motion-blurred videos
KR102277048B1 (ko) 미리보기 사진 블러링 방법 및 장치 및 저장 매체
WO2021114868A1 (zh) 降噪方法、终端及存储介质
JP7151488B2 (ja) 移動物体検出装置、移動物体検出方法及びプログラム
CN104620282A (zh) 用于抑制图像中的噪声的方法和系统
CN113497901A (zh) 使用多曝光帧进行运动扭曲的系统及方法
US10096088B2 (en) Robust regression method for image-space denoising
KR20140116960A (ko) 적응적인 다중-차원 데이터 분해
KR20190047442A (ko) 반사 영역을 제거하는 방법, 사용자의 눈을 추적하는 방법 및 그 장치
US8411980B1 (en) Removing motion blur from unaligned multiple blurred images
US9558534B2 (en) Image processing apparatus, image processing method, and medium
Georgiev et al. Fixed-pattern noise modeling and removal in time-of-flight sensing
Kotera et al. Blind deconvolution with model discrepancies
ES2910326T3 (es) Procesamiento de un ruido de impulso en una secuencia de vídeo
Wang et al. A linear comb filter for event flicker removal
KR102003460B1 (ko) 왜곡제거장치 및 방법
KR20230049231A (ko) 영상 개선 방법 및 장치
JP6221333B2 (ja) 画像処理装置、画像処理回路及び画像処理方法
Halder et al. A fast restoration method for atmospheric turbulence degraded images using non-rigid image registration
Sciacchitano Image reconstruction under non-Gaussian noise