ES2712452T3 - Sistema de procesamiento de imagen y soporte de registro legible por ordenador - Google Patents

Sistema de procesamiento de imagen y soporte de registro legible por ordenador Download PDF

Info

Publication number
ES2712452T3
ES2712452T3 ES15805972T ES15805972T ES2712452T3 ES 2712452 T3 ES2712452 T3 ES 2712452T3 ES 15805972 T ES15805972 T ES 15805972T ES 15805972 T ES15805972 T ES 15805972T ES 2712452 T3 ES2712452 T3 ES 2712452T3
Authority
ES
Spain
Prior art keywords
value
unit
pixel
image
effect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15805972T
Other languages
English (en)
Inventor
Masafumi Higashi
Takashi Nakamae
Reo Aoki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eizo Corp
Original Assignee
Eizo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eizo Corp filed Critical Eizo Corp
Application granted granted Critical
Publication of ES2712452T3 publication Critical patent/ES2712452T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/529Depth or shape recovery from texture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/407Control or modification of tonal gradation or of extreme levels, e.g. background level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Un sistema de procesamiento de imagen (100) que comprende: una primera unidad de extracción de píxel (202) que extrae un píxel no plano y no periférico de una imagen; y una unidad de estimación de profundidad del efecto velo (200), que deriva un valor estimado de profundidad del efecto velo de la imagen, sobre la base de al menos dos de entre un valor de evaluación de la luminancia, un valor de evaluación de saturación de colorido y un valor de evaluación de contraste de los píxeles no planos y no periféricos, extraídos por la primera unidad de extracción de píxel (202), la primera unidad de extracción de píxel (202) extrae un píxel plano o periférico de la imagen, y excluye el píxel extraído de la imagen con el fin de extraer un píxel no plano y no periférico, caracterizado por cuanto que el píxel plano o periférico se considera como: la adquisición de un valor máximo y de un valor mínimo de valores de píxel de un número predeterminado de píxeles, que incluye un píxel de interés (230) y otros píxeles que están dispuestos verticalmente y superponen el píxel de interés (230) como su centro; y un valor máximo y un valor mínimo del número predeterminado de píxeles, que incluye el píxel de interés (230) y otros píxeles que están dispuestos horizontalmente y superponen el píxel de interés (230) como su centro; y la determinación del píxel de interés (230) como un píxel plano o periférico, cuando el valor obtenido restando el valor mínimo del valor máximo, es igual o inferior a un primer valor umbral, y cuando el valor es igual o superior a un segundo valor umbral, que es mayor que el primer umbral, en al menos una de entre la dirección vertical y la dirección horizontal.

Description

DESCRIPCION
Sistema de procesamiento de imagen y soporte de registro legible por ordenador
Antecedentes de la invencion
Campo tecnico
La presente invencion se refiere a un sistema de procesamiento de imagen y un soporte de registro legible por ordenador.
Tecnica relacionada
Es conocida una tecnica para eliminar neblina en una imagen sobre en funcion de un modelo atmosferico (vease, a modo de ejemplo, el Documento de Patente 1).
Documentos de la tecnica anterior
Documento de patente
Documento de Patente 1, Publicacion de Solicitud de Patente Japonesa n° 2012-168936.
A partir del documento US 2013/141594 A1 es conocido un procesamiento de imagen que incluye la estimacion de las profundidades opticas de puntos en datos de imagen con el fin de mejorar los datos de imagen. En particular, pero sin limitacion, se puede reducir el ruido de profundidad optica presente en la imagen, que se debe al aerosol en la escena, tal como neblina o efecto velo. El proceso se refiere a la determinacion de un primer costo para cada punto, de forma independiente, en funcion de una metrica determinada y, a continuacion, un segundo costo basado en una correlacion prevista en puntos proximos. A continuacion, se optimizan los dos costos con el fin de determinar una profundidad optica estimada para cada punto que, a continuacion, se utiliza para reducir el efecto del aerosol en la imagen. Ademas, a partir del documento US 2012/301033 A1 se conoce un aparato de procesamiento de imagen que incluye los siguientes elementos: un dispositivo de recepcion, que recibe una imagen. Un dispositivo de extraccion, que extrae zonas de la imagen recibida por el dispositivo de recepcion. Un dispositivo de seleccion, que selecciona una zona de entre las zonas extraidas por el dispositivo de extraccion, de conformidad con una regla predeterminada. Un dispositivo de medicion, que mide valores de luminancia de pixeles incluidos en la zona seleccionada por el dispositivo de seleccion. Un dispositivo de estimacion, que estima una funcion que representa un grado de neblina en la imagen recibida por el dispositivo de recepcion, a partir de los valores de luminancia de los pixeles medidos por el dispositivo de medicion. Un dispositivo de eliminacion, que suprime la neblina de la imagen recibida por el dispositivo de recepcion, sobre la base de la funcion estimada por el dispositivo de estimacion.
Se ha requerido una tecnica para la eliminacion de neblina de una imagen de forma mas apropiada.
Sumario de la invencion
La invencion se describe en la reivindicacion 1. Formas de realizacion preferidas de la invencion se describen en las reivindicaciones subordinadas. De conformidad con un primer aspecto de la presente invencion, se da a conocer un sistema de procesamiento de imagen. El sistema de procesamiento de imagen puede incluir una unidad de derivacion de valor de evaluacion de la luminancia que deriva un valor de evaluacion de la luminancia de una zona, al menos parcial, de una imagen. El sistema de procesamiento de imagen puede incluir una unidad de derivacion de valor de evaluacion de saturacion, que deriva un valor de evaluacion de saturacion de la zona, al menos parcial, de la imagen. El sistema de procesamiento de imagen puede incluir una unidad de derivacion de valor de evaluacion de contraste que deriva un valor de evaluacion de contraste de la zona, al menos parcial, de la imagen. El sistema de procesamiento de imagen puede incluir una unidad de estimacion de profundidad del efecto velo que deriva un valor de estimacion de profundidad del efecto velo de la imagen sobre la base del valor de evaluacion de la luminancia, el valor de evaluacion de saturacion y el valor de evaluacion de contraste.
El sistema de procesamiento de imagen puede incluir una primera unidad de extraccion de pixel que extrae un pixel no plano, no periferico, de la imagen, en donde la unidad de estimacion de profundidad del efecto velo puede derivar el valor de estimacion de profundidad del efecto velo en funcion de un valor de evaluacion de la luminancia, un valor de evaluacion de saturacion y un valor de evaluacion de contraste de los pixeles no planos y no perifericos extraidos por la primera unidad de extraccion de pixel.
De conformidad con un segundo aspecto de la presente invencion, se da a conocer un sistema de procesamiento de imagen. El sistema de procesamiento de imagen puede incluir una primera unidad de extraccion de pixel que extrae un pixel no plano y no periferico de una imagen. Ademas, el sistema de procesamiento de imagen puede incluir una unidad de estimacion de profundidad del efecto velo que deriva un valor de estimacion de profundidad del efecto velo de la imagen, en funcion de al menos dos de entre un valor de evaluacion de la luminancia, un valor de evaluacion de saturacion y un valor de evaluacion de contraste de pixeles no pianos y no perifericos, que se extraen por la primera unidad de extraccion de pixel.
El valor de evaluacion de la luminancia puede ser un valor de luminancia medio de la zona. El valor de evaluacion de saturacion puede ser un valor de saturacion medio de la zona. El valor de evaluacion de contraste puede ser un valor de contraste de la zona. La unidad de estimacion de profundidad del efecto velo puede derivar un valor mas elevado para el valor de estimacion de profundidad del efecto velo a medida que aumenta el valor de luminancia medio. La unidad de estimacion de profundidad del efecto velo puede derivar un valor mas elevado para el valor de estimacion de profundidad del efecto velo a medida que disminuye el valor de saturacion medio. La unidad de estimacion de profundidad del efecto velo puede derivar un valor mas elevado para el valor de estimacion de profundidad del efecto velo a medida que disminuye el valor de contraste. La imagen puede ser una imagen en movimiento que incluye una pluralidad de tramas, y el sistema de procesamiento de imagen puede incluir: una unidad de extraccion de pixel de alta saturacion que extrae, en una trama de entre la pluralidad de tramas, un pixel de alta saturacion que tiene una saturacion mas alta que un valor umbral predeterminado; una unidad de derivacion de tasa de pixel de alta saturacion que deriva una tasa de pixel de alta saturacion que indica un porcentaje de los pixeles de alta saturacion en una trama; y una unidad de determinacion de cambio de escena que determina si un cambio de escena esta incluido, o no, en la imagen sobre la base de diferentes criterios, dependiendo de si la tasa de pixel de alta saturacion es superior, o no, que un valor umbral predeterminado. El sistema de procesamiento de imagen puede incluir una unidad de derivacion de la fiabilidad que deriva una fiabilidad del valor estimado de profundidad del efecto velo de una trama, sobre la base de la tasa de pixel de alta saturacion en una trama y el valor de luminancia medio de una trama. El sistema de procesamiento de imagen puede incluir una unidad de ajuste de parametro, que ajusta un parametro que ha de utilizarse en un proceso de eliminacion del efecto velo en la trama, en funcion de la fiabilidad del valor estimado de profundidad del efecto velo de la trama, que se deriva por la unidad de derivacion de la fiabilidad, y un indicador de cambio de escena que indica si la trama es una trama en la que se produce un cambio de escena.
El sistema de procesamiento de imagen puede incluir: una unidad de derivacion de capacidad de transmision, que deriva una capacidad de transmision correspondiente a una profundidad del efecto velo de cada pluralidad de pixeles de la imagen; y una unidad de eliminacion del efecto velo que realiza un proceso de eliminacion del efecto velo en la imagen, sobre la base del valor estimado de profundidad del efecto velo y la capacidad de transmision. El sistema de procesamiento de imagen puede incluir, ademas, una segunda unidad de extraccion de pixel, que extrae un pixel no plano y no periferico de la imagen, en donde la unidad de eliminacion del efecto velo puede determinar si realizar, o no, el proceso de eliminacion del efecto velo sobre la base de un porcentaje, en el Imagen, de los pixeles no planos, no perifericos, extraidos por la segunda unidad de extraccion de pixel.
De conformidad con un segundo aspecto de la presente invencion, se da a conocer un sistema de procesamiento de imagen. El sistema de procesamiento de imagen puede incluir una unidad de extraccion de pixel de alta saturacion que extrae, en una trama de entre una pluralidad de tramas incluidas en una imagen en movimiento, un pixel de alta saturacion que tiene una saturacion mayor que un valor umbral predeterminado. El sistema de procesamiento de imagen puede incluir una unidad de derivacion de tasa de pixel de alta saturacion que deriva una tasa de pixel de alta saturacion, indicativa de un porcentaje de los pixeles de alta saturacion, en la trama en cuestion. El sistema de procesamiento de imagen puede incluir una unidad de determinacion de cambio de escena que determina si un cambio de escena esta incluido, o no, en la imagen en funcion de diferentes criterios, dependiendo de si la tasa de pixel de alta saturacion en la trama en cuestion es mayor que un valor umbral predeterminado.
La unidad de determinacion de cambio de escena puede determinar si esta incluido, o no, un cambio de escena en la imagen, en funcion de una tonalidad de la trama en cuestion, y una tonalidad de una trama anterior a la trama en cuestion, cuando la tasa de pixel de alta saturacion de la trama en cuestion es mayor que el valor umbral. La unidad de determinacion de cambio de escena puede determinar si un cambio de escena se incluye, o no, en la imagen en funcion de la tasa de pixel de alta saturacion de la trama en cuestion, y una tasa de pixel de alta saturacion de una trama anterior a la trama en cuestion, cuando la tasa de pixel de alta saturacion de la trama en cuestion es igual a, o inferior, al valor umbral. El sistema de procesamiento de imagen puede incluir: una unidad de adquisicion de valor estimado de profundidad del efecto velo, que adquiere un valor estimado de profundidad del efecto velo de la trama en cuestion; y una unidad de derivacion de la fiabilidad que deriva una fiabilidad del valor estimado de profundidad del efecto velo sobre la base de la tasa de pixel de alta saturacion en la trama en cuestion, y un valor de luminancia medio de la trama en cuestion. La unidad de derivacion de la fiabilidad puede derivar una fiabilidad mas alta a medida que aumenta el valor de luminancia medio, y derivar una mayor fiabilidad a medida que disminuye la tasa de pixel de alta saturacion cuando el valor estimado es mas elevado que un valor umbral predeterminado. La unidad de derivacion de la fiabilidad puede derivar una fiabilidad mas alta a medida que disminuye el valor de luminancia medio, y derivar una mayor fiabilidad a medida que la tasa de pixel de alta saturacion aumenta cuando el valor estimado es igual, o inferior, que un valor umbral predeterminado.
El sistema de procesamiento de imagen puede incluir: una unidad de adquisicion de valor objetivo que adquiere un valor objetivo de profundidad del efecto velo; y una unidad de determinacion del valor objetivo que determina cual de entre un valor objetivo de profundidad del efecto velo de una trama anterior a la trama en cuestion, que se adquiere por la unidad de adquisicion de valor objetivo, o el valor estimado de profundidad del efecto velo adquirido por la unidad de adquisicion de valor estimado de profundidad del efecto velo, que ha de utilizarse para ajustar un parametro para ser utilizado en un proceso de eliminacion del efecto velo basado en la fiabilidad derivada por la unidad de derivacion de la fiabilidad. El sistema de procesamiento de imagen puede incluir: una unidad de derivacion de valor absoluto de diferencia, que deriva un valor absoluto de diferencia entre un valor objetivo de profundidad del efecto velo, adquirido por la unidad de adquisicion de valor objetivo y el valor estimado de profundidad del efecto velo, adquirido por la unidad de adquisicion de valor estimado de profundidad del efecto velo, en donde la unidad de determinacion del valor objetivo puede determinar cual de entre el valor objetivo de profundidad del efecto velo, adquirido por la unidad de adquisicion del valor del objetivo, y el valor estimado de profundidad del efecto velo, adquirido por la unidad de adquisicion del valor estimado de profundidad del efecto velo, se utilizara para ajustar un parametro que ha de utilizarse en un proceso de eliminacion del efecto velo, sobre la base de una fiabilidad del valor estimado, y el valor absoluto de diferencia, o un indicador de cambio de escena indicativo de si la trama en cuestion es una trama en la que se produce un cambio de escena.
El sistema de procesamiento de imagen puede incluir una unidad de ajuste de parametro que ajusta un parametro para su uso en un proceso de eliminacion del efecto velo de la trama en cuestion, de tal modo que se acerque, paso a paso, a un valor que corresponde al valor objetivo de profundidad del efecto velo, o el valor estimado de profundidad del efecto velo, determinado por la unidad de determinacion del valor objetivo. La unidad de ajuste de parametro puede ajustar un parametro que se utilizara en el proceso de eliminacion del efecto velo con una cantidad de ajuste correspondiente a: un valor absoluto de diferencia entre el valor objetivo de profundidad del efecto velo, o el valor estimado de profundidad del efecto velo, determinado por la unidad de determinacion de valor objetivo, y un parametro utilizado en un proceso de eliminacion del efecto velo de una trama anterior a la trama en cuestion; una fiabilidad del valor estimado de profundidad del efecto velo; y un indicador de cambio de escena que indica si la trama en cuestion es una trama en la que se produce un cambio de escena, de forma que se acerca, paso a paso, a un valor correspondiente al valor objetivo de la profundidad del efecto velo, o al valor estimado de profundidad del efecto velo determinado por la unidad de determinacion de valor objetivo.
De conformidad con un tercer aspecto de la presente invencion, se da a conocer un sistema de procesamiento de imagen. El sistema de procesamiento de imagen puede incluir una unidad de adquisicion de profundidad del efecto velo que adquiere una profundidad del efecto velo de una imagen. El sistema de procesamiento de imagen puede incluir una unidad de procesamiento de eliminacion que realiza, sobre la base de la profundidad del efecto velo, procesos de eliminacion del efecto velo en diferentes grados de eliminacion del efecto velo en un componente de reflectancia de la imagen, y un componente de luz de iluminacion de la imagen. El sistema de procesamiento de imagen puede incluir una unidad de sintetizacion que sintetiza el componente de reflectancia, y el componente de luz de iluminacion, en donde se han realizado los procesos de eliminacion del efecto velo. Suponiendo que no existen componentes de reflectancia incluidos en la luminiscencia atmosferica, la unidad de procesamiento de eliminacion puede utilizar un modelo atmosferico de una imagen de efecto velo y la teoria de Retinex para realizar procesos de eliminacion del efecto velo en diferentes grados de eliminacion del efecto velo en el componente de reflectancia de la imagen, y el componente de luz de iluminacion de la imagen. Se supone, de forma adicional, que el modelo atmosferico de la imagen velada se puede aplicar solamente al componente de luz de iluminacion, la unidad de procesamiento de eliminacion puede utilizar el modelo atmosferico de la imagen velada y la teoria de Retinex para realizar procesos de eliminacion del efecto velo en diferentes grados de eliminacion del efecto velo en el componente de reflectancia de la imagen, y el componente de luz de iluminacion de la imagen.
De conformidad con un cuarto aspecto de la presente invencion, se da a conocer un soporte de registro legible por ordenador que tiene grabado en el mismo un programa para permitir que un ordenador funcione como el sistema de procesamiento de imagen.
El apartado del sumario no describe, necesariamente, todas las caracteristicas necesarias de las formas de realizacion de la presente invencion. La presente invencion puede ser, ademas, una sub-combinacion de las caracteristicas descritas anteriormente.
Breve descripcion de los dibujos
La Figura 1 ilustra, de forma esquematica, un ejemplo de una configuracion funcional de un sistema de procesamiento de imagen 100.
La Figura 2 ilustra, de forma esquematica, un ejemplo de una configuracion funcional de una unidad de estimacion de profundidad del efecto velo 200.
La Figura 3 es una Figura para explicar un proceso de extraccion de pixel plano y periferico.
La Figura 4A muestra, esquematicamente, un ejemplo de un grafico de ponderacion 240.
La Figura 4B muestra, esquematicamente, un ejemplo de un grafico de ponderacion 242.
La Figura 5 es una Figura para explicar valores de histograma.
La Figura 6 ilustra, de forma esquematica, un ejemplo de una configuracion funcional de una unidad de control de escena 300.
La Figura 7 muestra, esquematicamente, un ejemplo de una configuracion funcional de una unidad de determinacion de cambio de escena 310.
La Figura 8 ilustra, de forma esquematica, un ejemplo de una configuracion funcional de una unidad de estimacion de fiabilidad de efecto velo 330.
La Figura 9 ilustra, esquematicamente, un ejemplo de un grafico de ponderacion 352.
La Figura 10 muestra, de forma esquematica, un ejemplo de un grafico de ponderacion 354.
La Figura 11 ilustra, esquematicamente, un ejemplo de una configuracion funcional de una unidad de ajuste de parametro de eliminacion del efecto velo 360.
La Figura 12 muestra, de forma esquematica, un ejemplo de una configuracion funcional de una unidad de eliminacion del efecto velo 400.
Mejor forma de puesta en practica de la invencion
A continuacion, se describiran (algunas) formas de realizacion de la presente invencion. Las formas de realizacion no limitan la invencion de conformidad con las reivindicaciones, y todas las combinaciones de las caracteristicas descritas en las formas de realizacion no son necesariamente esenciales para los medios proporcionados por aspectos de la invencion.
La Figura 1 ilustra, de forma esquematica, un ejemplo de una configuracion funcional de un sistema de procesamiento de imagen 100. El sistema de procesamiento de imagen 100, de conformidad con la presente forma de realizacion, puede ser un dispositivo de visualizacion que elimina un efecto velo incluido en una imagen de entrada y muestra visualmente la imagen. El efecto velo incluye fenomenos atmosfericos que hacen, en condiciones normales, que un campo de vision sea deficiente debido a las micro-particulas. A modo de ejemplo, el efecto velo incluye niebla, neblina, humo, polvo en suspension, polvo, lluvia, nieve, etc. El dispositivo de visualizacion puede ser una pantalla de cristal liquido, una pantalla de plasma, una pantalla EL organica, etc.
El sistema de procesamiento de imagen 100 incluye una unidad de entrada de imagen 110, una unidad de visualizacion 120, una unidad de estimacion de profundidad del efecto velo 200, una unidad de control de escena 300 y una unidad de eliminacion del efecto velo 400. La unidad de entrada de imagen 110 recibe una entrada de una imagen. La imagen puede ser una imagen en movimiento o una imagen fija y puede ser, ademas, una trama incluida en una imagen en movimiento. La unidad de entrada de imagen 110 puede recibir una entrada de datos RGB, datos YUV, o datos HSV. El sistema de procesamiento de imagen 100 puede convertir datos YUV de entrada en datos RGB.
La unidad de estimacion de profundidad del efecto velo 200 deriva un valor estimado de profundidad del efecto velo de cada imagen de entrada. La profundidad del efecto velo de una imagen es una profundidad de un efecto velo incluido en la imagen. A modo de ejemplo, si se capturan imagenes de un espacio unico, la profundidad del efecto velo de una imagen aumenta cuando la profundidad de una neblina en el espacio es mayor que cuando la profundidad de una neblina en el espacio es baja.
La unidad de control de escena 300 determina si se incluye, o no, un cambio de escena en una imagen de entrada en movimiento. En funcion de si se incluye, o no, un cambio de escena en una imagen de entrada en movimiento, la unidad de control de escena 300 puede generar un parametro para su uso en un proceso de eliminacion del efecto velo. La unidad de eliminacion del efecto velo 400 elimina un efecto velo de una imagen de entrada. La unidad de eliminacion del efecto velo 400 puede utilizar un parametro generado por la unidad de control de escena 300 para eliminar un efecto velo de una imagen de entrada. La unidad de visualizacion 120 muestra una imagen de la que se elimina un efecto velo por la unidad de eliminacion del efecto velo 400.
A modo de ejemplo, la unidad de control de escena 300 genera un parametro para ser utilizado en un proceso de eliminacion del efecto velo, con el fin de cambiar la intensidad de la eliminacion gradual del efecto velo en una pluralidad de tramas cuando no se detecta un cambio de escena en una imagen en movimiento. A continuacion, la unidad de eliminacion del efecto velo 400 cambia la intensidad de la eliminacion gradual del efecto velo sobre una pluralidad de tramas, utilizando un parametro generado por la unidad de control de escena 300, cuando no se detecta un cambio de escena en una imagen en movimiento. Por lo tanto, es posible evitar que una imagen cambie rapidamente debido a la eliminacion del efecto velo, y suprimir las ocurrencias de un fenomeno tal como el llamado parpadeo.
Ademas, a modo de ejemplo, la unidad de control de escena 300 genera un parametro para ser utilizado en un proceso de eliminacion del efecto velo con el fin de cambiar la intensidad de la eliminacion gradual de efecto velo, en una cantidad menor de tramas cuando se detecta un cambio de escena en una imagen en movimiento que cuando no se detecta un cambio de escena en una imagen en movimiento. A continuacion, la unidad de eliminacion del efecto velo 400 cambia la intensidad de la eliminacion gradual de efecto velo en una cantidad menor de tramas, utilizando un parametro generado por la unidad de control de escena 300, cuando se detecta un cambio de escena en una imagen en movimiento que cuando no se detecta un cambio de escena en una imagen en movimiento. El sistema de procesamiento de imagen 100 puede no incluir la unidad de control de escena 300. En este caso, la unidad de eliminacion del efecto velo 400 elimina un efecto velo de una imagen de entrada en funcion de un valor estimado de profundidad del efecto velo de una imagen, que se deriva de la unidad de estimacion de profundidad del efecto velo 200. En consecuencia, es posible realizar un proceso de eliminacion del efecto velo muy preciso basado en una profundidad del efecto velo estimada por la unidad de estimacion de profundidad del efecto velo 200.
La Figura 2 ilustra, de forma esquematica, un ejemplo de una configuracion funcional de la unidad de estimacion de profundidad del efecto velo 200. La unidad de estimacion de profundidad del efecto velo 200 incluye una unidad de extraccion de pixel plano y periferico 202, una unidad de calculo de luminancia media 204, una unidad de calculo de saturacion media 206, una unidad de calculo de contraste 208, una unidad de adquisicion de saturacion maxima 210, una unidad de adquisicion de ponderacion 212, una unidad de calculo de profundidad del efecto velo 214, una unidad de determinacion de pantalla-herramientas 216 y un selector 218.
La unidad de extraccion de pixel plano y periferico 202 extrae un pixel no plano, y no periferico, de una entrada de imagen por intermedio de la unidad de entrada de imagen 110. La unidad de extraccion de pixel plano y periferico 202, a modo de ejemplo, extrae un pixel plano o periferico de una imagen, con el fin de excluir el pixel extraido de la imagen extrayendo, de este modo, un pixel no plano y no periferico. La unidad de extraccion de pixel plano y periferico 202 puede ser un ejemplo de una primera unidad de extraccion de pixel.
La unidad de calculo de luminancia media 204 calcula un valor de luminancia medio (denominado como AVEy en algunos casos) de pixeles no planos y no perifericos. El valor de luminancia medio puede ser un ejemplo de un valor de evaluacion de la luminancia. La unidad de calculo de luminancia media 204 puede ser un ejemplo de una unidad de derivacion de valor de evaluacion de la luminancia.
La unidad de calculo de saturacion media 206 calcula un valor de saturacion medio (denominado como AVEs en algunos casos) de pixeles no planos y no perifericos. El valor de saturacion medio puede ser un ejemplo de un valor de evaluacion de saturacion. La unidad de calculo de saturacion media 206 puede ser un ejemplo de una unidad de derivacion de valor de evaluacion de saturacion.
La unidad de calculo de contraste 208 calcula un valor de contraste de pixeles no planos y no perifericos. El valor de contraste puede ser un ejemplo de un valor de evaluacion de contraste. La unidad de calculo de contraste 208 puede ser un ejemplo de una unidad de derivacion de valor de evaluacion de contraste.
La unidad de calculo de contraste 208 puede generar un histograma de pixeles no planos, no perifericos. La unidad de calculo de contraste 208 puede generar un histograma con cualquier recuento de ubicacion. A continuacion, la unidad de calculo de contraste 208 puede restar el valor minimo del histograma generado de su valor maximo con el fin de calcular una anchura de histograma (denominada como HISTwidth en algunos casos). En este caso, de entre una pluralidad de ubicaciones, la unidad de calculo de contraste 208 puede restar el valor minimo de las ubicaciones, cuyos valores son mas elevados que un valor umbral, de su valor maximo correspondiente.
HISTwIdTH puede ser un ejemplo de un valor de contraste. La unidad de calculo de contraste 208 puede generar el recuento de ubicacion de un histograma como una anchura maxima (que se denomina, en algunos casos MAXwIdTH) del histograma.
La unidad de adquisicion de saturacion maxima 210 adquiere una saturacion maxima (denominada como MAXs en algunos casos) en el sistema de procesamiento de imagen 100. La unidad de adquisicion de ponderacion 212 adquiere un valor de ponderacion (que se denomina coef en algunos casos) que se utilizara en el calculo de una profundidad del efecto velo de una imagen. La unidad de adquisicion de ponderacion 212, a modo de ejemplo, adquiere un coef especificado por un fabricante, o un usuario, del sistema de procesamiento de imagen 100.
La unidad de calculo de profundidad del efecto velo 214 calcula un valor de estimado de profundidad del efecto velo (referido como Strength en algunos casos) de una imagen. La unidad de calculo de profundidad del efecto velo 214 puede calcular el Strength en funcion de un valor de evaluacion de la luminancia, un valor de evaluacion de saturacion y un valor de evaluacion de contraste de pixeles no planos y no perifericos.
La unidad de calculo de profundidad del efecto velo 214 puede calcular el Strength en funcion de: un valor de luminancia medio, calculado por la unidad de calculo de luminancia media 204; un valor de saturacion medio, calculado por la unidad de calculo de saturacion medio 206; y un valor de contraste, calculado por la unidad de calculo de contraste 208. La unidad de calculo de profundidad del efecto velo 214 puede calcular el Strength multiplicando un valor de luminancia medio, un valor de saturacion medio y un valor de contraste. La unidad de calculo de profundidad del efecto velo 214 puede multiplicar un valor de saturacion medio, un valor obtenido restando el valor de saturacion medio de una saturacion maxima, y un valor obtenido al restar un valor de contraste de la anchura maxima de un histograma.
En este caso, la unidad de calculo de profundidad del efecto velo 214 puede ponderar un valor de luminancia medio. A modo de ejemplo, la unidad de calculo de profundidad del efecto velo 214 puede ponderar un valor de luminancia medio de tal forma que su valor aumenta a medida que aumenta el valor y su valor disminuye a medida que el valor disminuye. Ademas, la unidad de calculo de profundidad del efecto velo 214 puede ponderar un valor de saturacion medio. A modo de ejemplo, la unidad de calculo de profundidad del efecto velo 214 puede ponderar un valor de saturacion medio, de tal forma que su valor aumenta a medida que aumenta el valor y su valor disminuya a medida que el valor disminuye.
La unidad de calculo de profundidad del efecto velo 214, a modo de ejemplo, calcula el Strength utilizando la Ecuacion 1.
[Ecuacion 1]
Strength = coef X ( M A X h - HlST^pTyj 4" 1) X (AVE]/ 4~ 1} X (MAX ^ - AVE ^4" 1)
De este modo, la unidad de calculo de profundidad del efecto velo 214 puede obtener un valor mas elevado para un valor estimado de profundidad del efecto velo a medida que aumenta el valor de luminancia medio, puede derivar un valor mas elevado para un valor estimado de profundidad del efecto velo, a medida que disminuye un valor de saturacion medio, y puede derivar un valor mas elevado para un valor estimado de profundidad del efecto velo, a medida que disminuye el valor de contraste. Dado que se presupone que cuando la profundidad del efecto velo de una imagen es alta, el contraste de la imagen es bajo, la luminancia medio es alta y la saturacion medio es baja, la unidad de calculo de profundidad del efecto velo 214 puede calcular un valor estimado de profundidad del efecto velo mas preciso que refleje las caracteristicas de un efecto velo.
La unidad de determinacion de pantalla-herramientas 216 determina si una imagen de entrada es, o no, una pantalla de herramientas. La pantalla de herramientas es, a modo de ejemplo, una pantalla para establecer un parametro de visualizacion de la unidad de visualizacion 120, una pantalla para establecer un parametro de visualizacion de una imagen, etc.
A modo de ejemplo, si mientras la unidad de visualizacion 120 esta mostrando una imagen en movimiento de la camara de supervision, se genera un efecto velo en la imagen en movimiento de la camara de supervision, es deseable realizar un proceso de eliminacion del efecto velo por la unidad de eliminacion del efecto velo 400. Por otro lado, si mientras la unidad de visualizacion 120 esta mostrando una imagen en movimiento de la camara de supervision, un observador de la imagen en movimiento de la camara de supervision hace que la unidad de visualizacion 120 muestre una pantalla de herramientas con el fin de cambiar el establecimiento de un parametro de visualizacion, la ejecucion de un proceso de eliminacion del efecto velo en la pantalla de la herramienta puede tener como resultado una pantalla innecesariamente oscura, o el parpadeo de la pantalla en algunos casos.
Para hacer frente a lo que antecede, la unidad de estimacion de profundidad del efecto velo 200, de conformidad con la presente forma de realizacion, realiza un control de modo que 0 se proporciona, a la salida, como un valor estimado de la profundidad del efecto velo cuando una imagen de entrada se determina como siendo una pantalla de herramientas, y el Strength, que se calcula por la unidad de calculo de profundidad del efecto velo 214 se transmite cuando una imagen de entrada no se determina como siendo una pantalla de herramientas.
Mas concretamente, el selector 218: recibe el Strength, que se calcula por la unidad de calculo de profundidad del efecto velo 214, y un resultado de determinacion de pantalla de herramientas, realizado por la unidad de determinacion de pantalla de herramientas 216; cuando una imagen de entrada no es una pantalla de herramientas, proporciona, a la salida, el Strength a la unidad de control de escena 300, o la unidad de eliminacion del efecto velo 400; y cuando una imagen de entrada es una pantalla de herramientas, proporciona, a la salida, 0 a la unidad de control de escena 300, o la unidad de eliminacion del efecto velo 400. En consecuencia, la unidad de eliminacion del efecto velo 400 puede distinguir que una imagen de entrada es una pantalla de herramientas. Cuando una imagen de entrada es una pantalla de herramientas, la unidad de eliminacion del efecto velo 400 puede decidir no ejecutar un proceso de eliminacion del efecto velo. La unidad de estimacion de profundidad del efecto velo 200 puede generar un valor estimado bajo, en lugar de generar 0. A modo de ejemplo, la unidad de estimacion de profundidad del efecto velo 200 genera un valor estimado que es inferior al valor minimo del Strength que se calcula por la unidad de calculo de profundidad del efecto velo 214.
La unidad de determinacion de pantalla de herramientas 216 puede determinar si una imagen de entrada es, o no, una pantalla de herramientas basada en un pixel no plano y no periferico extraido por la unidad de extraccion de pixel plano y periferico 202. En este caso, de conformidad con un segundo criterio distinto de un primer criterio para extraer una salida de pixel no plano y no periferico a la unidad de calculo de luminancia medio 204, la unidad de calculo de saturacion medio 206, y la unidad de calculo de contraste 208, la unidad de extraccion de pixel plano y periferico 202 puede extraer un pixel no plano, no periferico, que se enviara a la unidad de determinacion de pantalla de herramientas 216. El segundo criterio puede ser un criterio que hace mas dificil la determinacion de un pixel como un pixel no plano y no periferico en comparacion con el primero criterio. La unidad de extraccion de pixel plano y periferico 202 puede ser un ejemplo de una segunda unidad de extraccion de pixel.
La unidad de determinacion de pantalla de herramientas 216 puede determinar una imagen de entrada como no siendo una pantalla de herramientas cuando un porcentaje de pixeles no planos, y ni perifericos, recibidos de la unidad de extraccion de pixel plano y periferico 202, en relacion con todos los pixeles de la imagen, es igual o inferior a un valor umbral predeterminado, y puede determinar la imagen como siendo una pantalla de herramientas cuando el porcentaje es mas elevado que el valor umbral predeterminado.
Ademas, la unidad de determinacion de la pantalla de herramientas 216 puede determinar una imagen como siendo una pantalla de herramientas cuando un porcentaje de pixeles planos o perifericos, extraidos de conformidad con el segundo criterio en relacion con pixeles planos o perifericos, extraidos de conformidad con el primer criterio, es igual o menor que un umbral predeterminado, y puede determinar la imagen como no siendo una pantalla de herramientas cuando el porcentaje es mas elevado que el umbral predeterminado.
La unidad de determinacion de pantalla de herramientas 216 permite la determinacion no solamente en una pantalla de herramientas, sino tambien en otro tipo de pantallas siempre que dicha pantalla tenga un porcentaje bajo de pixeles no planos y no perifericos en una imagen de entrada. A modo de ejemplo, la unidad de determinacion de pantalla de herramientas 216 permite la determinacion de si una imagen de entrada es, o no, una imagen con un alto porcentaje de zonas distintas a las zonas de visualizacion de imagen, en relacion con la zona de visualizacion completa de la unidad de visualizacion 120. La unidad de determinacion de pantalla de herramientas 216 puede ser un ejemplo de una unidad de determinacion de un proceso de eliminacion del efecto velo objetivo, que determina si una imagen de entrada es, o no, un objetivo en el que se debe ejecutar un proceso de eliminacion del efecto velo.
Aunque se ha dado a conocer un ejemplo en el que la unidad de calculo de luminancia medio 204, la unidad de calculo de saturacion medio 206 y la unidad de calculo de contraste 208 calculan un valor de luminancia medio, un valor de saturacion medio, y un valor de contraste de pixeles no planos y no perifericos, este no es el unico ejemplo. La unidad de calculo de luminancia medio 204, la unidad de calculo de saturacion medio 206 y la unidad de calculo de contraste 208 pueden calcular un valor de luminancia medio, valor de saturacion medio y valor de contraste de una imagen de entrada completa. Ademas, la unidad de calculo de luminancia medio 204, la unidad de calculo de saturacion medio 206 y la unidad de calculo de contraste 208 pueden calcular un valor de luminancia medio, valor de saturacion medio y valor de contraste de parte de una imagen de entrada.
La Figura 3 es una Figura para explicar un ejemplo de un proceso de extraccion de pixel plano y periferico. Con el fin de determinar si un pixel de interes 230 es, o no, plano o periferico, la unidad de extraccion de pixel plano y periferico 202 adquiere, en primer lugar: el valor maximo y el valor minimo de los valores de pixel de siete pixeles, incluido el pixel de interes 230 y otros seis pixeles que estan situados verticalmente y superpuestos al pixel de interes 230 como su centro; y el valor maximo y el valor minimo de siete pixeles, incluido el pixel de interes 230 y otros seis pixeles que estan situados horizontalmente y superponiendo el pixel de interes 230 como su centro.
A continuacion, la unidad de extraccion de pixel plano y periferico 202 calcula un valor obtenido restando el valor minimo del valor maximo para cada conjunto de los siete pixeles dispuestos en la direccion vertical, y los siete pixeles dispuestos en la direccion horizontal. Despues, en al menos una de entre la direccion vertical y la direccion horizontal, cuando el valor obtenido al restar el valor minimo del valor maximo, es igual o inferior a un primer umbral, y cuando el valor es igual o superior a un segundo umbral, mas elevado que el primer umbral, la unidad de extraccion de pixel plano y periferico 202 determina el pixel de interes 230 como un pixel plano o periferico.
El recuento de pixel en la direccion vertical, y el recuento de pixel en la direccion horizontal, puede ser un recuento de pixel distinto de siete pixeles. Ademas, cuando se extrae un pixel plano o periferico de conformidad con el primer criterio, la unidad de extraccion de pixel plano y periferico 202 puede utilizar el primer umbral y el segundo umbral, y cuando se extrae un pixel plano o periferico de conformidad con el segundo criterio, la unidad de extraccion de pixel plano y periferico 202 puede utilizar un tercer umbral, mas elevado que el primer umbral, y mas bajo que el segundo umbral, y un cuarto umbral mas elevado que el tercer umbral y mas bajo que el segundo umbral.
La Figura 4A muestra, esquematicamente, un ejemplo de un grafico de ponderacion 240. Ademas, la Figura 4B ilustra, de forma esquematica, un ejemplo de un grafico de ponderacion 242. El grafico de ponderacion 240 muestra un ejemplo de valores de ponderacion que han de utilizarse por la unidad de calculo de profundidad del efecto velo 214 en la ponderacion de un valor de luminancia medio. La Figura 4A y la Figura 4B ilustran ejemplos en donde una senal de entrada es de 10 bits. Mediante la ponderacion un valor de luminancia medio de conformidad con el grafico de ponderacion 240, la unidad de calculo de profundidad del efecto velo 214 puede realizar una ponderacion tal que el valor de luminancia medio aumente mas a medida que aumenta su valor, y el valor de luminancia medio disminuye a medida que su valor disminuye.
La unidad de calculo de profundidad del efecto velo 214 puede utilizar el grafico de ponderacion 240, ademas, para realizar la ponderacion de un valor de saturacion medio. La unidad de calculo de profundidad del efecto velo 214 puede usar el grafico de ponderacion 240, que tiene los mismos valores, o puede utilizar el grafico de ponderacion 240, que tiene diferentes valores, en la ponderacion de un valor de luminancia medio y en la ponderacion de un valor de saturacion medio. A modo de ejemplo, cuando se realiza la ponderacion de un valor de luminancia medio mayor que un valor de saturacion medio, la unidad de calculo de profundidad del efecto velo 214 puede usar el grafico de ponderacion 242 que indica mas ponderacion, tal como se ilustra en el grafico de ponderacion 242, con el fin de ponderar el valor de luminancia medio.
La Figura 5 es una figura para la explicacion de valores de histograma. La Figura 5 ilustra un caso en donde el conteo de ubicacion de un histograma es 16. Tal como se ilustra en la Figura 5, de entre una pluralidad de ubicaciones, la unidad de calculo de contraste 208 puede calcular HISTwidth restando el valor minimo de las ubicaciones, cuyos valores son superiores a un umbral, de su valor maximo correspondiente.
La Figura 6 ilustra, de forma esquematica, un ejemplo de una configuracion funcional de la unidad de control de escena 300. La unidad de control de escena 300 incluye una unidad de determinacion de cambio de escena 310, una unidad de estimacion de fiabilidad de efecto velo 330 y una unidad de ajuste de parametro de eliminacion del efecto velo 360.
La unidad de determinacion de cambio de escena 310 determina si esta incluido, o no, un cambio de escena en una entrada de imagen en movimiento a traves de la unidad de entrada de imagen 110. La unidad de determinacion de cambio de escena 310 puede asociarse con cada trama, entre una pluralidad de tramas incluidas en la imagen en movimiento, un indicador de cambio de escena que indica si se produce, o no, un cambio de escena.
La unidad de estimacion de fiabilidad de efecto velo 330 estima la fiabilidad de la salida del Strength de la unidad de estimacion de profundidad del efecto velo 200, para una trama incluida en una entrada de imagen en movimiento a traves de la unidad de entrada de imagen 110.
Sobre la base de la fiabilidad estimada por la unidad de estimacion de fiabilidad de efecto velo 330, y el indicador de cambio de escena generado por la unidad de determinacion de cambio de escena 310, la unidad de ajuste de parametro de eliminacion del efecto velo 360 ajusta un parametro para su uso en un proceso de eliminacion del efecto velo en una pluralidad de tramas incluidas en la imagen en movimiento, para enviar el parametro a la unidad de eliminacion del efecto velo 400.
La Figura 7 muestra, esquematicamente, un ejemplo de una configuracion funcional de la unidad de determinacion de cambio de escena 310. La unidad de determinacion de cambio de escena 310 incluye una unidad de extraccion de pixel de alta saturacion 312, una unidad de generacion de histogramas de tonalidad 314, una unidad de medicion de tasa de pixel de alta saturacion 316, una unidad de extraccion de pixel plano y periferico 318, una unidad de calculo de luminancia medio 320, una unidad de calculo de saturacion medio 322 y una unidad de procesamiento de determinacion 324.
La unidad de extraccion de pixel de alta saturacion 312 extrae un pixel de alta saturacion de una trama de entre una pluralidad de tramas incluidas en una entrada de imagen en movimiento a traves de la unidad de entrada de imagen 110. El pixel de alta saturacion puede ser un pixel que tenga una saturacion mayor que un umbral predeterminado. Cuando se reciben datos RGB, la unidad de extraccion de pixel de alta saturacion 312 puede extraer, a partir de los respectivos pixeles incluidos en una trama, un pixel en el que una diferencia entre el valor maximo y el valor minimo de un componente R, un componente G y un componente B, es igual, o superior, que un umbral predeterminado, como un pixel de alta saturacion. Ademas, cuando se reciben datos HSV, la unidad de extraccion de pixel de alta saturacion 312 puede extraer, a partir de pixeles respectivos incluidos en una trama, un pixel que tenga un componente S igual o superior a un umbral predeterminado, como un pixel de alta saturacion.
La unidad de generacion de histograma de tonalidad 314 genera un histograma de tonalidad (denominado, en algunos casos, como HueHIST), para pixeles de alta saturacion extraidos por la unidad de extraccion de pixel de alta saturacion 312. Aunque se ha explicado aqui un ejemplo en el que la unidad de generacion de histograma de tonalidad 314 genera HueHIST para pixeles de alta saturacion, extraidos por la unidad de extraccion de pixel de alta saturacion 312, este no es el unico ejemplo. La unidad de generacion de histograma de tonalidad 314 puede generar HueHIST para una trama incluida en una entrada de imagen en movimiento por intermedio de la unidad de entrada de imagen 110.
La unidad de medicion de tasa de pixel de alta saturacion 316 mide una tasa de pixel de alta saturacion (referida como HighSatRate en algunos casos), que es indicativa de un porcentaje de pixeles de alta saturacion en una trama. La unidad de medicion de tasa de pixel de alta saturacion 316 puede tratar, como HighSatRate, un porcentaje de pixeles de alta saturacion en relacion con todos los pixeles de una trama. La unidad de medicion de tasa de pixel de alta saturacion 316 puede ser un ejemplo de una unidad de derivacion de tasa de pixel de alta saturacion, que deriva una tasa de pixel de alta saturacion en una trama.
La unidad de extraccion de pixel plano y periferico 318 extrae un pixel no plano y no periferico de una trama, de entre una pluralidad de tramas incluidas en una entrada de imagen en movimiento, a traves de la unidad de entrada de imagen 110. La unidad de extraccion de pixel plano y periferico 318 puede extraer un pixel no plano y no periferico de forma similar a la de la unidad de extraccion de pixel plano y periferico 202. En este caso, la unidad de extraccion de pixel plano y periferico 318 puede extraer un pixel no plano y no periferico de conformidad con el primer criterio, puede extraer un pixel no plano y no periferico de conformidad con el segundo criterio, o puede extraer un pixel no plano y no periferico de conformidad con otro criterio.
La unidad de calculo de luminancia media 320 calcula AVEy de pixeles no planos, no perifericos, extraidos por la unidad de extraccion de pixel plano y periferico 318. Aunque aqui se da a conocer un ejemplo en el que la unidad de calculo de luminancia medio 320 calcula AVEy de pixeles no planos y no perifericos, extraidos por la unidad de extraccion de pixel plano y periferico 318, este no es el unico ejemplo. La unidad de calculo de luminancia medio 320 puede calcular AVEy para una trama incluida en una entrada de imagen en movimiento, a traves de la unidad de entrada de imagen 110.
La unidad de calculo de saturacion media 322 calcula AVEs de pixeles no planos, no perifericos, extraidos por la unidad de extraccion de pixel plano y periferico 318. Aunque aqui se explica un ejemplo en el que la unidad de calculo de saturacion medio 322 calcula AVEs de pixeles no planos y no perifericos, extraidos por la unidad de extraccion de pixel plano y periferico 318, este no es el unico ejemplo. La unidad de calculo de saturacion medio 322 puede calcular AVEs para una trama incluida en una entrada de imagen en movimiento, a traves de la unidad de entrada de imagen 110.
La unidad de procesamiento de determinacion 324 ejecuta un proceso de determinacion con el fin de determinar si un cambio de escena se incluye, o no, en una entrada de imagen en movimiento, a traves de la unidad de entrada de imagen 110. La unidad de procesamiento de determinacion 324 genera un indicador de cambio de escena, que es indicativo de si una trama es una trama en la que se produce un cambio de escena, para enviar el indicador de cambio de escena a la unidad de ajuste de parametro de eliminacion del efecto velo 360.
La unidad de procesamiento de determinacion 324 puede determinar si esta incluido, o no, un cambio de escena en una imagen en movimiento de conformidad con diferentes criterios, dependiendo de si una tasa de pixel de alta saturacion, medida por la unidad de medicion de tasa de pixel de alta saturacion 316, es mayor, o no, que un umbral predeterminado.
La unidad de procesamiento de determinacion 324 puede determinar si un cambio de escena se incluye, o no, en una imagen en movimiento en funcion de la tonalidad de una trama, y la tonalidad de una trama anterior a la trama en cuestion cuando la tasa de pixel de alta saturacion de la trama en cuestion, medida por la unidad de medicion de tasa de pixel de alta saturacion 316 es mas alta que un umbral predeterminado. La trama anterior a la trama en cuestion es, a modo de ejemplo, una trama anterior a la trama en cuestion.
Mas concretamente, la unidad de procesamiento de determinacion 324 puede determinar si esta incluido, o no, un cambio de escena en una imagen en movimiento sobre la base de SAD (Suma de Diferencia Absoluta) (referida como HueHISTSAD en algunos casos) de HueHIST de la trama en cuestion generada por la unidad de generacion de histograma de tonalidad 314, y un histograma de tonalidad de una trama anterior a la trama en cuestion (que se refiere, en algunos casos, como HueHIST_dl).
A modo de ejemplo, la unidad de procesamiento de determinacion 324 determina si la trama es, o no, una trama en la que se produce un cambio de escena cuando: HueHISTSAD es inferior a un quinto umbral; un valor absoluto de diferencia entre AVEy de la trama en cuestion, y el valor de luminancia medio de una trama anterior a la trama en cuestion (que se refiere como AVEy _dl en algunos casos), es inferior a un sexto umbral; y un valor absoluto de diferencia entre AVEs de la trama en cuestion y un valor de saturacion medio de una trama anterior a la trama en cuestion (referido, en algunos casos, como AVEs_dl) es inferior a un septimo umbral. En otros casos, la unidad de procesamiento de determinacion 324 determina que la trama en cuestion es una trama en la que se produce un cambio de escena. Cuando se ha determinado que la trama en cuestion no es una trama en la que se produce un cambio de escena, la unidad de procesamiento de determinacion 324 puede establecer un indicador de cambio de escena de la trama en cuestion a Falso. Cuando se ha determinado que la trama en cuestion es una trama en la que se produce un cambio de escena, la unidad de procesamiento de determinacion 324 puede establecer un indicador de cambio de escena de la trama en cuestion a Verdadero.
La unidad de procesamiento de determinacion 324 puede determinar si esta incluido, o no, un cambio de escena en una imagen en movimiento sobre la base de HighSatRate de una trama, y una tasa de pixel de alta saturacion de una trama anterior a la trama en cuestion (que se refiere, en algunos casos, como HighSatRate_dl) cuando una tasa de pixel de alta saturacion, de la trama en cuestion medida por la unidad de medicion de tasa de pixel de alta saturacion 316, es igual o inferior a un umbral predeterminado.
A modo de ejemplo, la unidad de procesamiento de determinacion 324 determina si la trama en cuestion es, o no, una trama en la que se produce un cambio de escena cuando: un valor absoluto de diferencia entre HighSatRate y HighSatRate_dl es inferior a un octavo umbral; un valor absoluto de diferencia entre AVEy y AVEY_dl es inferior al sexto umbral; y un valor absoluto de diferencia entre AVEs y AVEs_dl es inferior al septimo umbral. En otros casos, la unidad de procesamiento de determinacion 324 determina que la trama en cuestion es una trama en la que se produce un cambio de escena.
La Figura 8 ilustra, de forma esquematica, un ejemplo de una configuracion funcional de la unidad de estimacion de fiabilidad de efecto velo 330. La unidad de estimacion de fiabilidad de efecto velo 330 incluye una unidad de extraccion de pixel plano y periferico 332, una unidad de calculo de luminancia medio 334, una unidad de extraccion de pixel de alta saturacion 336, una unidad de medicion de tasa de pixel de alta saturacion 338, una unidad de adquisicion del valor estimado de profundidad del efecto velo 340 y una unidad de calculo de fiabilidad 342.
La unidad de extraccion de pixel plano y periferico 332 extrae un pixel no plano y no periferico de una trama de entre una pluralidad de tramas incluidas en una entrada de imagen en movimiento a traves de la unidad de entrada de imagen 110. La unidad de extraccion de pixel plano y periferico 332 puede extraer un pixel no plano y no periferico de forma similar a la de la unidad de extraccion de pixel plano y periferico 202. En este caso, la unidad de extraccion de pixel plano y periferico 332 puede extraer un pixel no plano y no periferico de conformidad con el primer criterio, puede extraer un pixel no plano y no periferico de conformidad con el segundo criterio, o puede extraer un pixel no plano y no periferico de conformidad con otro criterio.
La unidad de calculo de luminancia medio 334 calcula AVEy de pixeles no planos, no perifericos, extraidos por la unidad de extraccion de pixel plano y periferico 332. Aunque aqui se explica un ejemplo en el que la unidad de calculo de luminancia medio 334 calcula AVEy de pixeles no planos, no perifericos, extraidos por la unidad de extraccion de pixel plano y periferico 332, este no es el unico ejemplo. La unidad de calculo de luminancia medio 334 puede calcular AVEY para una trama incluida en una entrada de imagen en movimiento a traves de la unidad de entrada de imagen 110.
La unidad de extraccion de pixel de alta saturacion 336 extrae un pixel de alta saturacion de una trama de entre una pluralidad de tramas incluidas en una entrada de imagen en movimiento, a traves de la unidad de entrada de imagen 110. La unidad de extraccion de pixel de alta saturacion 336 puede extraer, a partir de pixeles respectivos incluidos en una trama, un pixel en el que una diferencia entre el valor maximo y el valor minimo de un componente R, un componente G y un componente B, es igual o superior que un umbral predeterminado, como un pixel de alta saturacion.
La unidad de medicion de tasa de pixel de alta saturacion 338 mide HighSatRate en una trama. La unidad de adquisicion del valor estimado de la profundidad del efecto velo 340 adquiere la salida del Strength por la unidad de estimacion de profundidad del efecto velo 200.
Sobre la base de AVEy que se calcula por la unidad de calculo de luminancia medio 334, y HighSatRate, que se mide por la unidad de medicion de tasa de pixel de alta saturacion 338, la unidad de calculo de fiabilidad 342 calcula la fiabilidad del Strength, adquirida por la unidad de adquisicion del valor estimado de la profundidad del efecto velo 340 para proporcionar, a la salida, la fiabilidad a la unidad de ajuste de parametro de eliminacion del efecto velo 360. La unidad de calculo de fiabilidad 342 puede ser un ejemplo de una unidad de derivacion de la fiabilidad, que deriva la fiabilidad del Strength sobre la base de AVEy y HighSatRate. La unidad de calculo de fiabilidad 342 puede calcular la fiabilidad del Strength en funcion de diferentes criterios dependiendo de si el Strength, que se adquiere por la unidad de adquisicion del valor estimado de profundidad del efecto velo 340, es mayor, o no, que un umbral predeterminado.
La unidad de calculo de fiabilidad 342 puede calcular una fiabilidad mas alta a medida que AVEy aumenta y calcular una fiabilidad mas alta a medida que HighSatRate disminuye cuando el Strength, adquirido por la unidad de adquisicion del valor estimado de la profundidad del efecto velo 340, es mas elevado que un umbral predeterminado. Ademas, la unidad de calculo de fiabilidad 342 puede calcular una fiabilidad mas alta a medida que AVEy disminuye, y calcular una fiabilidad mas alta a medida que HighSatRate aumenta cuando el Strength, que se adquiere por la unidad de adquisicion del valor estimado de profundidad del efecto velo 340 es igual o inferior a un umbral predeterminado.
En un ejemplo especifico de un proceso de calculo de una fiabilidad, en primer lugar, la unidad de calculo de fiabilidad 342, realiza la ponderacion, respectivamente, del Strength, que se adquiere por la unidad de adquisicion del valor estimado de profundidad del efecto velo 340, AVEy, calculada por la unidad de calculo de luminancia medio 334, y HighSatRate, medida por la unidad de medicion de tasa de pixel de alta saturacion 338.
La unidad de calculo de fiabilidad 342, a modo de ejemplo, realiza la ponderacion del Strength y HighSatRate, de tal forma que sus valores aumentan a medida que los valores aumentan, y sus valores disminuyen a medida que los valores disminuyen. Ademas, la unidad de calculo de fiabilidad 342, a modo de ejemplo, realiza la ponderacion de AVEy de tal forma que su valor disminuya a medida que aumenta el valor, y su valor aumenta a medida que el valor disminuye. El Strength ponderado se puede denominar como StrengthWeight en algunos casos. AVEy ponderado puede denominarse, en algunos casos, como AVEYWeight. En algunos casos, HighSatRate ponderado se puede referir como HighSatRateWeight.
A continuacion, la unidad de calculo de fiabilidad 342 trata una mayor de entre AVEYWeight y HighSatRateWeight como EvalMax. A continuacion, la unidad de calculo de fiabilidad 342 calcula un valor absoluto de diferencia entre EvalMax y StrengthWeight como la fiabilidad de un valor estimado de profundidad del efecto velo.
La Figura 9 ilustra, de forma esquematica, un ejemplo de un grafico de ponderacion 352. El grafico de ponderacion 352 muestra un ejemplo de valores de ponderacion que han de utilizarse por la unidad de calculo de fiabilidad 342 en la ponderacion del Strength. Mediante la ponderacion del Strength, de conformidad con el grafico de ponderacion 352, la unidad de calculo de fiabilidad 342 puede realizar una ponderacion de forma que Strength aumente a medida que aumenta su valor, y el Strength disminuya a medida que su valor disminuya. El grafico de ponderacion 352 puede ser utilizado por la unidad de calculo de fiabilidad 342 en la ponderacion de HighSatRate.
La Figura 10 muestra, esquematicamente, un ejemplo de un grafico de ponderacion 354. El grafico de ponderacion 354 ilustra un ejemplo de valores de ponderacion que han de utilizarse por la unidad de calculo de fiabilidad 342 en la ponderacion de AVEy . Mediante la realizacion de la ponderacion de AVEy, de conformidad con el grafico de ponderacion 354, la unidad de calculo de fiabilidad 342 puede realizar una ponderacion de tal forma que AVEy disminuya a medida que aumenta su valor, y AVEy aumente a medida que su valor disminuya.
La Figura 11 ilustra, de forma esquematica, un ejemplo de una configuracion funcional de la unidad de ajuste de parametro de eliminacion del efecto velo 360. La unidad de ajuste de parametro de eliminacion del efecto velo 360 incluye una unidad de calculo de valor objetivo de profundidad del efecto velo 362, y una unidad de ajuste de parametro 364.
La unidad de calculo de valor objetivo de profundidad del efecto velo 362 calcula un valor objetivo de profundidad del efecto velo (denominado, en algunos casos, como TargetDepth) para una trama. TargetDepth es indicativo de un parametro de eliminacion del efecto velo en el que una profundidad del efecto velo debe converger cuando los contenidos de una trama, y una pluralidad de tramas que siguen a una trama, no cambian.
La unidad de calculo de valor objetivo de profundidad del efecto velo 362 puede determinar un TargetDepth de la trama sobre la base de: TargetDepth de una trama anterior a la trama en cuestion (referido, en algunos casos, como TargetDepth_dl); Strength para la trama en cuestion recibido desde la unidad de estimacion de profundidad del efecto velo 200; la fiabilidad del Strength recibido desde la unidad de calculo de fiabilidad 342; y un indicador de cambio de escena para la trama en cuestion recibida desde la unidad de procesamiento de determinacion 324. A modo de ejemplo, en primer lugar, la unidad de calculo del valor objetivo de profundidad del efecto velo 362 calcula un valor absoluto de diferencia (denominado, en algunos casos, como DiffDepth) entre Strength y TargetDepth_dl. A continuacion, la unidad de calculo del valor objetivo de profundidad del efecto velo 362 utiliza Strength como TargetDepth cuando DiffDepth es mayor que un noveno umbral, y la fiabilidad del Strength es mayor que un decimo umbral, y cuando el indicador de cambio de escena es Verdadero. En otros casos, la unidad de calculo del valor objetivo de profundidad del efecto velo 362 utiliza TargetDepth_dl como TargetDepth.
La unidad de ajuste de parametro 364 ajusta un parametro para su uso en un proceso de eliminacion del efecto velo de una trama (referido como HazeRemovalStrength en algunos casos) de modo que se haga proximo de forma escalonada a un valor correspondiente a Strength o TargetDepth_dl, determinado como TargetDepth de la trama en cuestion, por la unidad de calculo del valor objetivo de profundidad del efecto velo 362.
La unidad de ajuste de parametro 364 puede ajustar HazeRemovalStrength con una cantidad de ajuste que corresponde a: un valor absoluto de diferencia (conocido como un DiffStrength, en algunos casos) entre TargetDepth determinado por la unidad de calculo del valor objetivo de profundidad del efecto velo 362, y un parametro utilizado en un proceso de eliminacion del efecto velo de una trama anterior a la trama en cuestion (en algunos casos, denominado como HazeRemovalStrength_dl); la fiabilidad del Strength; y un indicador de cambio de escena de modo que se haga proximo de forma escalonada a un valor correspondiente a Strength o TargetDepth_dl, que se determina como TargetDepth de la trama en cuestion por la unidad de calculo del valor objetivo de profundidad del efecto velo 362.
A modo de ejemplo, cuando el indicador de cambio de escena es Verdadero, la unidad de ajuste de parametro 364 ajusta HazeRemovalStrength con una primera cantidad de ajuste de modo que se haga proximo de forma escalonada a un valor correspondiente a Strength o TargetDepth_dl, que se determina como TargetDepth de la trama en cuestion por la unidad de calculo del valor objetivo de profundidad del efecto velo 362. Ademas, cuando el indicador de cambio de escena es Falso, DiffStrength es mayor que un undecimo umbral, y la fiabilidad del Strength es mayor que un duodecimo umbral, la unidad de ajuste de parametro 364 ajusta HazeRemovalStrength con una segunda cantidad de ajuste cantidad de modo que se haga proximo de forma escalonada a un valor correspondiente a Strength o TargetDepth_dl, determinado como TargetDepth de la trama en cuestion. Ademas, en otros casos, la unidad de ajuste de parametro 364 ajusta HazeRemovalStrength con una tercera cantidad de ajuste de modo que se haga proximo de forma escalonada a un valor correspondiente a Strength o TargetDepth_dl, determinado como TargetDepth de la trama en cuestion. En este caso, la primera cantidad de ajuste es mayor que la segunda cantidad de ajuste y la tercera cantidad de ajuste, y la segunda cantidad de ajuste es mayor que la tercera cantidad de ajuste. Tal como se describio con anterioridad, sobre la base de la fiabilidad del Strength y un valor absoluto de diferencia entre Strength y TargetDepth_dl, o el indicador de cambio de escena, la unidad de calculo del valor objetivo de profundidad del efecto velo 362 puede determinar cual, TargetDepth_dl o Strength, ha de utilizarse para ajustar un parametro para ser utilizado en un proceso de eliminacion del efecto velo.
La unidad de calculo del valor objetivo de profundidad del efecto velo 362 que adquiere TargetDepth_dl, puede ser un ejemplo de una unidad de adquisicion de valor objetivo. Ademas, la unidad de calculo del valor objetivo de profundidad del efecto velo 362 puede ser un ejemplo de una unidad de derivacion del valor absoluto de diferencia, que calcula un valor absoluto de diferencia entre Strength y TargetDepth_dl. Ademas, la unidad de calculo del valor objetivo de profundidad del efecto velo 362 puede ser un ejemplo de una unidad de determinacion del valor objetivo que determina TargetDepth para la trama en cuestion.
La Figura 12 ilustra, de forma esquematica, un ejemplo de una configuracion funcional de la unidad de eliminacion del efecto velo 400. La unidad de eliminacion del efecto velo 400 incluye una unidad de separacion de luz de iluminacion 402, una unidad de adquisicion de parametro 410, una unidad de procesamiento de eliminacion 420 y una unidad de sintetizacion 426.
La unidad de separacion de luz de iluminacion 402 separa un componente de luz de iluminacion IL de una entrada de imagen I, por intermedio de la unidad de entrada de imagen 110. La unidad de separacion de luz de iluminacion 402 puede realizar cualquier proceso siempre que pueda separar el componente de luz de iluminacion Il de la imagen I. A modo de ejemplo, la unidad de separacion de luz de iluminacion 402 utiliza un filtro de paso bajo que conserva los bordes para separar el componente de luz de iluminacion Il de la imagen I. Un filtro de paso bajo que conserva los bordes es un filtro que realiza la funcion de suavizado al mismo tiempo que conserva los bordes. La unidad de separacion de luz de iluminacion 402 utiliza, a modo de ejemplo, un filtro bilateral como el filtro de paso bajo que conserva los bordes. La unidad de separacion de luz de iluminacion 402 puede emitir el componente de luz de iluminacion IL y la imagen I, para la unidad de adquisicion de parametro 410.
La unidad de adquisicion de parametro 410 adquiere un parametro para ser utilizado en la eliminacion del efecto velo. La unidad de adquisicion de parametro 410 tiene una unidad de calculo de luminiscencia atmosferica 412, una unidad de calculo de capacidad de transmision 414 y una unidad de adquisicion de valor estimado de profundidad del efecto velo 416.
La unidad de calculo de luminiscencia atmosferica 412 calcula la luminiscencia atmosferica A de la imagen I. La unidad de calculo de luminiscencia atmosferica 412 puede realizar cualquier proceso siempre que pueda calcular la luminiscencia atmosferica A de la imagen I. Por ejemplo, la unidad de calculo de luminiscencia atmosferica 412 calcula, en primer lugar, el valor minimo de RGB de cada pixel de la imagen I, y pixeles circundantes de la misma. A continuacion, la unidad de calculo de luminiscencia atmosferica 412 extrae, a partir de la imagen I, pixeles cuyos valores minimos calculados se incluyen en el 0.1 % superior de los mismos. A continuacion, la unidad de calculo de luminiscencia atmosferica 412 trata, como luminiscencia atmosferica A, el valor de un pixel que tiene la luminancia mas alta entre los pixeles extraidos.
La unidad de calculo de capacidad de transmision 414 calcula una capacidad de transmision t, que corresponde a la profundidad del efecto velo de cada pluralidad de pixeles de una entrada de imagen, a traves de la unidad de entrada de imagen 110. La unidad de calculo de capacidad de transmision 414 puede ser un ejemplo de una unidad de derivacion de capacidad de transmision. La unidad de calculo de capacidad de transmision 414 puede realizar cualquier proceso siempre que pueda calcular la capacidad de transmision t. A modo de ejemplo, la unidad de calculo de capacidad de transmision 414 calcula la capacidad de transmision t en funcion de un canal oscuro anterior (denominado un DCP, en algunos casos) expresada por la Ecuacion 2.
[Ecuacion 2]
Figure imgf000013_0001
IC es un canal de color de I, y G(x) es una zona local que tiene su centro en x.
La unidad de calculo de capacidad de transmision 414 puede calcular la capacidad de transmision t a partir del valor de DCP, suponiendo que DCP en la Ecuacion 2 expresa la capacidad de transmision t. A modo de ejemplo, la unidad de calculo de capacidad de transmision 414 puede calcular la capacidad de transmision t con la ecuacion 3.
[Ecuacion 3]
Figure imgf000014_0004
La unidad de adquisicion de valor estimado de profundidad del efecto velo 416 adquiere la salida del Strength por la unidad de estimation de profundidad del efecto velo 200.
La unidad de adquisicion de parametro 410 proporciona, a la salida, a la unidad de procesamiento de elimination, la imagen I, el componente de luz de iluminacion Il, la luminiscencia atmosferica A calculado por la unidad de calculo de la luminiscencia atmosferica 412, la capacidad de transmision t calculada por la unidad de calculo de capacidad de transmision 414, y el Strength adquirido por la unidad de adquisicion de valor estimado de profundidad del efecto velo 416.
La unidad de procesamiento de eliminacion 420 ejecuta un proceso de eliminacion del efecto velo en la imagen I sobre la base de la teoria Retinex expresada por la Ecuacion 4, y un modelo atmosferico de una imagen velada expresada por la Ecuacion 5.
[Ecuacion 4] Imagen de entrada I = Luz de iluminacion L x Reflectancia R
[Ecuacion 5]
Imagen de entrada I(x) = Imagen original j(x) x Capacidad transmisividad t(x) luminiscencia atmosferica A (1- capacidad de transmisividad t(x))
La modification de la ecuacion 5 proporciona la ecuacion 6.
[Ecuacion 6]
Figure imgf000014_0001
Aplicando la teoria de Retinex a la Ecuacion 6, y expresando los elementos respectivos con los productos del componente de reflectancia y el componente de luz de iluminacion, se obtiene la Ecuacion (7).
[Ecuacion 7]
Figure imgf000014_0003
En este caso, suponiendo que se incluyan aproximadamente pocos, o ningun, componente de reflectancia en la luminiscencia atmosferica, la unidad de procesamiento de eliminacion 420 puede utilizar el modelo atmosferico de una imagen velada, y la teoria de Retinex para ejecutar un proceso de eliminacion del efecto velo. A modo de ejemplo, cuando se supone que los componentes de reflectancia incluidos en la luminiscencia atmosferica son muy pocos, se puede considerar que la Ecuacion 8 es cierta.
[Ecuacion 8]
Figure imgf000014_0002
Ademas, en un supuesto adicional de que el modelo atmosferico se puede aplicar solamente a componentes de luz de iluminacion respectivos de la luminiscencia atmosferica, la imagen original y la imagen de entrada, la unidad de procesamiento de eliminacion 420 puede utilizar el modelo atmosferico de una imagen velada y la teoria de Retinex para realizar un proceso de eliminacion del efecto velo. De conformidad con dicho supuesto, la ecuacion 9 es cierta.
[Ecuacion 9]
Figure imgf000015_0001
Aplicando la ecuacion 8, y la ecuacion 9, a la ecuacion 7, se obtiene la ecuacion 10.
[Ecuacion 10]
Figure imgf000015_0002
De conformidad con la Ecuacion 10, se puede deducir que cuando Ir es mayor que 1, el valor de J r se hace mayor que Ir, y cuando Ir es menor que 1, el valor de J r se hace menor que Ir.
Utilizando la Ecuacion 9 y la Ecuacion 10, la unidad de procesamiento de eliminacion 420 puede realizar un proceso de eliminacion del efecto velo en diferentes grados de eliminacion del efecto velo en un componente de reflectancia y un componente de luz de iluminacion. A modo de ejemplo, la unidad de procesamiento de eliminacion 420 puede hacer que los grados de eliminacion del efecto velo sean diferentes al hacer que la capacidad de transmision t sea diferente en la Ecuacion 9 y la Ecuacion 10. Ademas, la unidad de procesamiento de eliminacion 420 puede hacer que los grados de eliminacion del efecto velo sean diferentes mediante la ponderacion, de forma diferente, de los resultados de la Ecuacion 9 y la ecuacion 10.
La unidad de procesamiento de eliminacion 420 tiene una unidad de procesamiento de componente de luz de iluminacion 422 y una unidad de procesamiento de componente de reflectancia 424. La unidad de procesamiento de componente de luz de iluminacion 422 realiza un proceso de eliminacion del efecto velo en un componente de luz de iluminacion de una imagen. La unidad de procesamiento de componente de reflectancia 424 realiza un proceso de eliminacion del efecto velo en un componente de reflectancia de una imagen.
La unidad de procesamiento de componente de luz de iluminacion 422 puede utilizar HazeRemovalStrength que se recibe de la unidad de ajuste de parametro 364, para ejecutar un proceso de eliminacion del efecto velo. A modo de ejemplo, la unidad de procesamiento de componente de luz de iluminacion 422 puede utilizar el componente de luz de iluminacion Il, la luminiscencia atmosferica A, la capacidad de transmision t, el HazeRemovalStrength y la Ecuacion 9 para calcular el componente de luz de iluminacion Jl en el que se ha realizado un proceso de eliminacion del efecto velo. La unidad de procesamiento de componente de luz de iluminacion 422 puede utilizar HazeRemovalStrength para ajustar la capacidad de transmision t. Ademas, la unidad de procesamiento de componente de luz de iluminacion 422 puede utilizar HazeRemovalStrength en lugar de la capacidad de transmision t. Ademas, la unidad de procesamiento de componente de luz de iluminacion 422 puede usar un valor basado en HazeRemovalStrength en lugar de la capacidad de transmision t. Cuando la unidad de procesamiento de componente de luz de iluminacion 422 utiliza HazeRemovalStrength, recibido a partir de la unidad de ajuste de parametro 364, para ejecutar un proceso de eliminacion del efecto velo, la unidad de adquisicion de parametro 410 no tiene que tener la unidad de adquisicion del valor estimado de profundidad del efecto velo 416. Ademas, la unidad de adquisicion de valor estimado de profundidad del efecto velo 416 puede recibir HazeRemovalStrength desde la unidad de ajuste de parametro 364, y transmitir HazeRemovalStrength recibido a la unidad de procesamiento de eliminacion 420.
Cuando se introduce una imagen fija a traves de la unidad de entrada de imagen 110, cuando el sistema de procesamiento de imagen 100 no incluye la unidad de control de escena 300, o en otros casos, la unidad de procesamiento de componente de luz de iluminacion 422 puede utilizar el componente de luz de iluminacion Il, la luminiscencia atmosferica A, la capacidad de transmision t y el Strength recibido de la unidad de adquisicion de parametro 410 y la Ecuacion 9 para calcular el componente de luz de iluminacion Jl en donde se ha realizado un proceso de eliminacion del efecto velo. La unidad de procesamiento de componente de luz de iluminacion 422 puede aplicar Strength a la capacidad de transmision t con el fin de calcular el componente de luz de iluminacion Jl. A modo de ejemplo, la unidad de procesamiento de componente de luz de iluminacion 422 multiplica la capacidad de transmision t con Strength. Ademas, a modo de ejemplo, la unidad de procesamiento de componente de luz de iluminacion 422 puede ponderar la capacidad de transmision t de conformidad con el valor del Strength. Por lo tanto, se puede realizar un proceso de eliminacion del efecto velo con mas alta precision utilizando Strength estimada por la unidad de estimacion de profundidad del efecto velo 200.
La unidad de procesamiento de componente de reflectancia 424 puede calcular el componente de reflectancia Ir a partir de la imagen I y el componente de luz de iluminacion Il recibido a partir de la unidad de adquisicion de parametro 410. La unidad de procesamiento de componente de reflectancia 424 puede utilizar HazeRemovalStrength, que se recibe desde la unidad de ajuste de parametro 364 con el fin de realizar un proceso de eliminacion del efecto velo. A modo de ejemplo, la unidad de procesamiento de componente de reflectancia 424 puede utilizar el componente de luz de iluminacion Il, el componente de reflectancia Ir, la capacidad de transmision t, HazeRemovalStrength y la ecuacion 10 para calcular el componente de reflectancia Jr en el que se ha realizado un proceso de eliminacion del efecto velo. La unidad de procesamiento de componente de reflectancia 424 puede utilizar HazeRemovalStrength para ajustar la capacidad de transmision t. Ademas, la unidad de procesamiento de componente de reflectancia 424 puede usar HazeRemovalStrength en lugar de la capacidad de transmision t. Ademas, la unidad de procesamiento de componente de reflectancia 424 puede utilizar un valor basado en HazeRemovalStrength en lugar de la capacidad de transmision t. Cuando la unidad de procesamiento de componente de reflectancia 424 utiliza HazeRemovalStrength, que se recibe a partir de la unidad de ajuste de parametro 364 para ejecutar un proceso de eliminacion del efecto velo, la unidad de adquisicion de parametro 410 no tiene que tener la unidad de adquisicion de valor estimado de profundidad del efecto velo 416. Ademas, la unidad de adquisicion de valor estimado de profundidad del efecto velo 416 puede recibir HazeRemovalStrength desde la unidad de ajuste de parametro 364, y transmitir el HazeRemovalStrength recibido, a la unidad de procesamiento de eliminacion 420.
Cuando se introduce una imagen fija a traves de la unidad de entrada de imagen 110, cuando el sistema de procesamiento de imagen 100 no incluye la unidad de control de escena 300, o en otros casos, la unidad de procesamiento de componente de reflectancia 424 puede utilizar el componente de luz de iluminacion II, el componente de reflectancia Ir, la capacidad de transmision t, Strength y la Ecuacion 10 para calcular Jr en el que se ha realizado un proceso de eliminacion del efecto velo. La unidad de procesamiento de componente de reflectancia 424 puede aplicar Strength a la capacidad de transmision t con el fin de calcular Jr. A modo de ejemplo, la unidad de procesamiento de componente de reflectancia 424 multiplica la capacidad de transmision t con Strength. Ademas, por ejemplo, la unidad de procesamiento de componente de reflectancia 424 puede ponderar la capacidad de transmision t de conformidad con el valor del Strength. Por lo tanto, se puede realizar un proceso de eliminacion del efecto velo mas altamente preciso utilizando Strength estimada por la unidad de estimacion de profundidad del efecto velo 200.
La unidad de sintetizacion 426 sintetiza el componente de luz de iluminacion Jl en el que se ha realizado un proceso de eliminacion del efecto velo por la unidad de procesamiento de componente de luz de iluminacion 422, y el componente de reflectancia Jr en la que se ha realizado un proceso de eliminacion del efecto velo por la unidad de procesamiento de componente de reflectancia 424. La unidad de sintetizacion 426 genera una imagen de salida J sintetizando Jl y Jr. La imagen de salida J generada por la unidad de sintetizacion 426 se puede mostrar por la unidad de visualizacion 120.
Aunque en la presente forma de realizacion, se ha explicado un ejemplo en el que el sistema de procesamiento de imagen 100 es un dispositivo de visualizacion que incluye la unidad de estimacion de profundidad del efecto velo 200, la unidad de control de escena 300 y la unidad de eliminacion del efecto velo 400, este no es el unico ejemplo. El sistema de procesamiento de imagen 100 puede ser un dispositivo de visualizacion que incluya al menos una de entre la unidad de estimacion de profundidad del efecto velo 200, la unidad de control de escena 300 y la unidad de eliminacion del efecto velo 400.
Ademas, el sistema de procesamiento de imagen 100 puede ser un dispositivo de visualizacion que solamente incluye la unidad de determinacion de cambio de escena 310 entre la unidad de determinacion de cambio de escena 310, la unidad de estimacion de fiabilidad de efecto velo 330, y la unidad de ajuste de parametro de eliminacion del efecto velo 360 que se incluyen en la unidad de control de escena 300. Ademas, el sistema de procesamiento de imagen 100 puede ser un dispositivo de visualizacion que incluye solamente la unidad de estimacion de fiabilidad de efecto velo 330. En este caso, la unidad de adquisicion del valor estimado de profundidad del efecto velo 340 puede no adquirir el Strength por la unidad de estimacion de profundidad del efecto velo 200, sino un valor estimado de profundidad del efecto velo que se estima por otro aparato, o similar.
Ademas, el sistema de procesamiento de imagen 100 puede ser un dispositivo de visualizacion que incluye solamente la unidad de eliminacion del efecto velo 400 entre la unidad de estimacion de profundidad del efecto velo 200, la unidad de control de escena 300 y la unidad de eliminacion del efecto velo 400. En este caso, la unidad de adquisicion de valor estimado de profundidad del efecto velo 416 puede adquirir no la salida del Strength por la unidad de estimacion de profundidad del efecto velo 200, sino un valor estimado de profundidad del efecto velo que se estima por otro aparato, o similar.
De forma adicional, aunque en la presente forma de realizacion, se ha explicado un ejemplo en el que el sistema de procesamiento de imagen 100 es un dispositivo de visualizacion, este no es el unico ejemplo. Puede ser otro tipo de aparato siempre que sea un aparato que procese una imagen. A modo de ejemplo, el sistema de procesamiento de imagen 100 puede ser un telefono celular tal como un telefono inteligente, un terminal de tableta electronica, un ordenador personal, un dispositivo de informacion, o similar. Ademas, el sistema de procesamiento de imagen 100 puede ser un aparato que no tiene la unidad de visualizacion 120, pero permite que una unidad de visualizacion externa muestre una imagen.
En la explicacion anterior, cada unidad del sistema de procesamiento de imagen 100 se puede realizar mediante hardware, o puede realizarse mediante software. Ademas, pueden realizarse mediante combinaciones de hardware y software. Ademas, la ejecucion de un programa puede permitir que un ordenador funcione como el sistema de procesamiento de imagen 100. El programa puede instalarse, desde un soporte legible por ordenador, o un almacenamiento conectado a una red, en el ordenador que constituye, al menos parte, del sistema de procesamiento de imagen 100.
Los programas que se instalan en el ordenador y hacen que el ordenador funcione como el sistema de procesamiento de imagen 100, de conformidad con la presente forma de realizacion, pueden funcionar en una unidad CPU, o similar, con el fin de hacer, respectivamente, que el ordenador funcione como unidades respectivas del sistema de procesamiento de imagen 100. El ordenador realiza la lectura del procesamiento de informacion descrito en estos programas de modo que funcione como un medio especifico realizado mediante cooperacion entre recursos de software y hardware del sistema de procesamiento de imagen 100.
Explicacion de los simbolos de referencias numericas
100: sistema de procesamiento de imagen; 110: unidad de entrada de imagen; 120: unidad de visualizacion; 200: unidad de estimacion de profundidad del efecto velo; 202: unidad de extraccion de pixel plano y periferico; 204: unidad de calculo de luminancia media; 206: unidad de calculo de saturacion media; 208: unidad de calculo de contraste; 210: unidad de adquisicion de saturacion maxima; 212: unidad de adquisicion de ponderacion; 214: unidad de calculo de profundidad del efecto velo; 216: unidad de determinacion de pantalla-herramientas; 218: selector; 230: pixel de interes; 240: grafico de ponderacion; 242: grafico de ponderacion; 300: unidad de control de escena; 310: unidad de determinacion de cambio de escena; 312: unidad de extraccion de pixel de alta saturacion; 314: unidad de generacion de histograma de tono; 316: unidad de medicion de tasa de pixel de alta saturacion; 318: unidad de extraccion de pixel plano y periferico; 320: unidad de calculo de luminancia media; 322: unidad de calculo de saturacion media; 324: unidad de procesamiento de determinacion; 330: unidad de estimacion de fiabilidad de efecto velo; 332: unidad de extraccion de pixel plano y periferico; 334: unidad de calculo de luminancia media; 336: unidad de extraccion de pixel de alta saturacion; 338: unidad de medicion de tasa de pixel de alta saturacion; 340: unidad de adquisicion de valor estimado de profundidad del efecto velo; 342: unidad de calculo de fiabilidad; 352: grafico de ponderacion; 354: grafico de ponderacion; 360: unidad de ajuste del parametro de eliminacion del efecto velo; 362: unidad de calculo del valor objetivo de profundidad del efecto velo; 364: unidad de ajuste de parametro; 400: unidad de eliminacion del efecto velo; 402: unidad de separacion de luz de iluminacion; 410: unidad de adquisicion de parametro; 412: unidad de calculo de luminiscencia atmosferica; 414: unidad de calculo de capacidad de transmision; 416: unidad de adquisicion del valor estimado de profundidad del efecto velo; 420: unidad de procesamiento de eliminacion; 422: unidad de procesamiento de componente de luz de iluminacion; 424: unidad de procesamiento de componente de reflectancia; 426: unidad de sintetizacion.

Claims (11)

REIVINDICACIONES
1. Un sistema de procesamiento de imagen (100) que comprende:
una primera unidad de extraccion de pixel (202) que extrae un pixel no plano y no periferico de una imagen; y una unidad de estimacion de profundidad del efecto velo (200), que deriva un valor estimado de profundidad del efecto velo de la imagen, sobre la base de al menos dos de entre un valor de evaluacion de la luminancia, un valor de evaluacion de saturacion de colorido y un valor de evaluacion de contraste de los pixeles no planos y no perifericos, extraidos por la primera unidad de extraccion de pixel (202),
la primera unidad de extraccion de pixel (202) extrae un pixel plano o periferico de la imagen, y excluye el pixel extraido de la imagen con el fin de extraer un pixel no plano y no periferico, caracterizado por cuanto que el pixel plano o periferico se considera como:
la adquisicion de un valor maximo y de un valor minimo de valores de pixel de un numero predeterminado de pixeles, que incluye un pixel de interes (230) y otros pixeles que estan dispuestos verticalmente y superponen el pixel de interes (230) como su centro; y un valor maximo y un valor minimo del numero predeterminado de pixeles, que incluye el pixel de interes (230) y otros pixeles que estan dispuestos horizontalmente y superponen el pixel de interes (230) como su centro; y
la determinacion del pixel de interes (230) como un pixel plano o periferico, cuando el valor obtenido restando el valor minimo del valor maximo, es igual o inferior a un primer valor umbral, y cuando el valor es igual o superior a un segundo valor umbral, que es mayor que el primer umbral, en al menos una de entre la direccion vertical y la direccion horizontal.
2. El sistema de procesamiento de imagen (100) segun la reivindicacion 1, que comprende:
una unidad de derivacion de valor de evaluacion de la luminancia (204), que deriva el valor de evaluacion de la luminancia de una zona, al menos parcial, de la imagen;
una unidad de derivacion del valor de evaluacion de saturacion del colorido, que deriva el valor de evaluacion de saturacion del colorido de la zona;
una unidad de derivacion de valor de evaluacion de contraste (208), que deriva el valor de evaluacion de contraste de la zona; en donde
la unidad de estimacion de profundidad del efecto velo (200) deriva el valor de estimacion de profundidad del efecto velo de la imagen sobre la base del valor de evaluacion de la luminancia, el valor de evaluacion de saturacion de colorido y el valor de evaluacion de contraste.
3. El sistema de procesamiento de imagen (100) segun la reivindicacion 2, en donde
la unidad de estimacion de profundidad del efecto velo (200) deriva el valor estimado de profundidad del efecto velo sobre la base del valor de evaluacion de la luminancia, el valor de evaluacion de saturacion de colorido y el valor de evaluacion de contraste de los pixeles no planos y no perifericos que se extraen por la primera unidad de extraccion de pixel (202).
4. El sistema de procesamiento de imagen (100) segun la reivindicacion 1, en donde
el valor de evaluacion de la luminancia es un valor de luminancia medio de la zona,
el valor de evaluacion de saturacion de colorido es un valor de saturacion de colorido medio de la zona, el valor de evaluacion de contraste es un valor de contraste de la zona, y
la unidad de estimacion de profundidad del efecto velo (200) deriva un valor mas elevado para el valor estimado de profundidad del efecto velo a medida que aumenta el valor de luminancia medio, deriva un valor mas elevado para el valor estimado de profundidad del efecto velo a medida que disminuye el valor de saturacion de colorido medio, y deriva un valor mas elevado para el valor de estimacion de profundidad del efecto velo a medida que disminuye el valor de contraste.
5. El sistema de procesamiento de imagen (100) segun una cualquiera de las reivindicaciones 1 a 4, en donde la imagen es una imagen en movimiento que incluye una pluralidad de tramas,
el sistema de procesamiento de imagen (100) comprende, ademas:
una unidad de extraccion de pixel de alta saturacion de colorido (312) que extrae, en una trama de entre la pluralidad de tramas, un pixel de alta saturacion de colorido que tiene una saturacion de colorido mayor que un valor umbral predeterminado;
una unidad de derivacion de una tasa de pixel de alta saturacion de colorido (316) que deriva una tasa de pixel de alta saturacion de colorido, que es indicativa de un porcentaje de los pixeles de alta saturacion de colorido en la trama en cuestion; y
una unidad de determinacion de cambio de escena (310), que determina si esta incluido, o no, un cambio de escena en la imagen, en funcion de diferentes criterios dependiendo de si la tasa de pixel de alta saturacion de colorido es, o no, mayor que un umbral predeterminado, en donde
la unidad de determinacion de cambio de escena (310), que determina si un cambio de escena se incluye, o no, en la imagen, en funcion de una tonalidad de la trama en cuestion y de la tonalidad de una trama anterior a la trama en cuestion cuando la tasa de pixel de alta saturacion de colorido es mayor que el valor umbral, y
la unidad de determinacion de cambio de escena (310), que determina si se incluye, o no, un cambio de escena en la imagen, sobre la base de la tasa de pixel de alta saturacion de colorido de la trama en cuestion, y una tasa de pixel de alta saturacion de colorido de una trama anterior a la trama en cuestion cuando la tasa de pixel de alta saturacion de colorido es igual, o inferior, al valor umbral.
6. El sistema de procesamiento de imagen (100) segun la reivindicacion 5, que comprende, ademas, una unidad de derivacion de la fiabilidad (342), que deriva una fiabilidad del valor estimado de profundidad del efecto velo de la trama en cuestion sobre la base de la tasa de pixel de alta saturacion de colorido en la trama en cuestion, y un valor de luminancia medio de dicha trama en cuestion.
7. El sistema de procesamiento de imagen (100) segun la reivindicacion 6, que comprende, ademas, una unidad de ajuste de parametro (360) que ajusta un parametro que ha de utilizarse en un proceso de eliminacion del efecto velo en la trama en cuestion sobre la base de la fiabilidad del valor estimado de profundidad del efecto velo de la trama en cuestion, que se deriva por la unidad de derivacion de la fiabilidad, y un indicador de cambio de escena que indica si la trama en cuestion es una trama en la que se produce un cambio de escena o no lo es.
8. El sistema de procesamiento de imagen (100) segun una cualquiera de las reivindicaciones 1 a 4, que comprende, ademas:
una unidad de derivacion de capacidad de transmision (414) que deriva una capacidad de transmision correspondiente a una profundidad del efecto velo de cada uno de la pluralidad de pixeles de la imagen; y una unidad de eliminacion del efecto velo (400) que realiza un proceso de eliminacion del efecto velo en la imagen sobre la base del valor estimado de profundidad del efecto velo y la capacidad de transmision.
9. El sistema de procesamiento de imagen (100) segun la reivindicacion 8, que comprende, ademas, una segunda unidad de extraccion de pixel (202), que extrae un pixel no plano y no periferico de la imagen, en donde la unidad de eliminacion del efecto velo (400) determina si se debe, o no, realizar el proceso de eliminacion del efecto velo sobre la base de un porcentaje, en la imagen, de los pixeles no planos y no perifericos extraidos por la segunda unidad de extraccion de pixel (202).
10. Un programa previsto para hacer que un ordenador funcione como el sistema de procesamiento de imagen (100), segun una cualquiera de las reivindicaciones 1 a 9, cuando el programa se ejecuta por el ordenador.
11. Un soporte de registro legible por ordenador que memoriza el programa segun la reivindicacion 10.
ES15805972T 2014-06-12 2015-03-02 Sistema de procesamiento de imagen y soporte de registro legible por ordenador Active ES2712452T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
PCT/JP2014/003131 WO2015189874A1 (ja) 2014-06-12 2014-06-12 霧除去装置および画像生成方法
PCT/JP2015/056086 WO2015190136A1 (ja) 2014-06-12 2015-03-02 画像処理システム及びコンピュータ読み取り可能な記録媒体

Publications (1)

Publication Number Publication Date
ES2712452T3 true ES2712452T3 (es) 2019-05-13

Family

ID=54833008

Family Applications (3)

Application Number Title Priority Date Filing Date
ES14894614T Active ES2727929T3 (es) 2014-06-12 2014-06-12 Dispositivo de eliminación de neblina y método de generación de imágenes
ES15805972T Active ES2712452T3 (es) 2014-06-12 2015-03-02 Sistema de procesamiento de imagen y soporte de registro legible por ordenador
ES15807220.7T Active ES2681294T3 (es) 2014-06-12 2015-04-27 Sistema de procesamiento de imágenes y medio de grabación legible por ordenador

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES14894614T Active ES2727929T3 (es) 2014-06-12 2014-06-12 Dispositivo de eliminación de neblina y método de generación de imágenes

Family Applications After (1)

Application Number Title Priority Date Filing Date
ES15807220.7T Active ES2681294T3 (es) 2014-06-12 2015-04-27 Sistema de procesamiento de imágenes y medio de grabación legible por ordenador

Country Status (8)

Country Link
US (4) US10102614B2 (es)
EP (4) EP3156968B1 (es)
JP (4) JP6228670B2 (es)
CN (4) CN106462947B (es)
AU (4) AU2014397095B2 (es)
ES (3) ES2727929T3 (es)
RU (4) RU2658874C1 (es)
WO (4) WO2015189874A1 (es)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2016287673A1 (en) * 2015-06-30 2017-03-02 Heraeus Deutschland Gmbh And Co. Kg Process for the production of a PGM-enriched alloy
CN107872608B (zh) * 2016-09-26 2021-01-12 华为技术有限公司 图像采集设备及图像处理方法
KR101942198B1 (ko) * 2017-12-27 2019-04-11 중앙대학교 산학협력단 레티넥스 모델을 기반으로 하여 영상을 개선하는 단말 장치 및 방법과 이를 수행하는 기록 매체
CN110189259B (zh) * 2018-02-23 2022-07-08 荷兰移动驱动器公司 图像去雾霾方法、电子设备及计算机可读存储介质
CN108416316B (zh) * 2018-03-19 2022-04-05 中南大学 一种黑烟车的检测方法及系统
US10643311B2 (en) * 2018-03-22 2020-05-05 Hiwin Technologies Corp. Method for correcting dehazed medical image
JP7109317B2 (ja) 2018-09-06 2022-07-29 株式会社クボタ 水田作業機
CN109028233B (zh) * 2018-09-29 2020-11-10 佛山市云米电器科技有限公司 厨房油烟浓度划分方法及油烟图像识别系统及油烟机
CN109028234B (zh) * 2018-09-29 2020-11-10 佛山市云米电器科技有限公司 一种能够对烟雾等级进行标识的油烟机
CN109242805B (zh) * 2018-10-24 2021-09-28 西南交通大学 一种基于独立分量分析的单幅图像雾霾快速去除方法
JP7421273B2 (ja) * 2019-04-25 2024-01-24 キヤノン株式会社 画像処理装置及びその制御方法及びプログラム
CN110223258A (zh) * 2019-06-12 2019-09-10 西南科技大学 一种多模式快速视频图像去雾方法及装置
CN112419162B (zh) * 2019-08-20 2024-04-05 浙江宇视科技有限公司 图像去雾方法、装置、电子设备及可读存储介质
CN111192210B (zh) * 2019-12-23 2023-05-26 杭州当虹科技股份有限公司 一种自适应增强的视频去雾方法
CN113674158A (zh) * 2020-05-13 2021-11-19 浙江宇视科技有限公司 图像处理方法、装置、设备及存储介质
CN112011696B (zh) 2020-08-19 2021-05-18 北京科技大学 一种火法富集铝基废催化剂中铂族金属的方法
US11790545B2 (en) * 2020-09-14 2023-10-17 Himax Technologies Limited Method and apparatus to control light source in structured light imaging
US11641456B2 (en) 2020-09-14 2023-05-02 Himax Technologies Limited Image rendering method and apparatus
CN114519683A (zh) * 2020-11-20 2022-05-20 北京晶视智能科技有限公司 图像处理方法及应用其的图像处理装置
US11528435B2 (en) * 2020-12-25 2022-12-13 Industrial Technology Research Institute Image dehazing method and image dehazing apparatus using the same
TWI792454B (zh) * 2021-07-28 2023-02-11 瑞昱半導體股份有限公司 自適應的圖像陰影校正方法及圖像陰影校正系統

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6085152A (en) 1997-09-19 2000-07-04 Cambridge Management Advanced Systems Corporation Apparatus and method for monitoring and reporting weather conditions
WO2001039512A1 (en) 1999-11-26 2001-05-31 Sanyo Electric Co., Ltd. Device and method for converting two-dimensional video to three-dimensional video
JP2001160146A (ja) * 1999-12-01 2001-06-12 Matsushita Electric Ind Co Ltd 画像認識方法および画像認識装置
US9149175B2 (en) 2001-07-26 2015-10-06 Given Imaging Ltd. Apparatus and method for light control in an in-vivo imaging device
JP2003187248A (ja) * 2001-12-21 2003-07-04 Mitsubishi Electric Corp 画像処理システムおよび画像処理装置
KR100512976B1 (ko) * 2003-08-09 2005-09-07 삼성전자주식회사 화면의 콘트라스트를 향상시키는 블랙/화이트 스트레칭시스템 및 그의 스트레칭 방법
JP2006155491A (ja) * 2004-12-01 2006-06-15 Samsung Yokohama Research Institute Co Ltd シーンチェンジ検出方法
JP2007266838A (ja) * 2006-03-28 2007-10-11 Sharp Corp 記録再生装置、記録再生方法、及び、記録再生プログラムを記録した記録媒体
JP4784452B2 (ja) 2006-09-12 2011-10-05 株式会社デンソー 車載霧判定装置
JP4475268B2 (ja) * 2006-10-27 2010-06-09 セイコーエプソン株式会社 画像表示装置、画像表示方法、画像表示プログラム、及び画像表示プログラムを記録した記録媒体、並びに電子機器
JP4241834B2 (ja) 2007-01-11 2009-03-18 株式会社デンソー 車載霧判定装置
RU2365993C1 (ru) * 2008-01-30 2009-08-27 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Способ адаптивного улучшения факсимильных изображений документов
US8290294B2 (en) * 2008-09-16 2012-10-16 Microsoft Corporation Dehazing an image using a three-dimensional reference model
US8619071B2 (en) * 2008-09-16 2013-12-31 Microsoft Corporation Image view synthesis using a three-dimensional reference model
CN102265594B (zh) * 2008-12-22 2014-07-02 罗姆股份有限公司 图像修正处理电路、半导体装置、图像修正处理装置
JP5325562B2 (ja) * 2008-12-22 2013-10-23 ローム株式会社 画像補正処理回路及びこれを集積化して成る半導体装置
US8350933B2 (en) * 2009-04-08 2013-01-08 Yissum Research Development Company Of The Hebrew University Of Jerusalem, Ltd. Method, apparatus and computer program product for single image de-hazing
US8837857B2 (en) * 2009-04-09 2014-09-16 National Ict Australia Limited Enhancing image data
JP2010276691A (ja) * 2009-05-26 2010-12-09 Toshiba Corp 画像処理装置および画像処理方法
JP4807439B2 (ja) * 2009-06-15 2011-11-02 株式会社デンソー 霧画像復元装置及び運転支援システム
JP5402504B2 (ja) * 2009-10-15 2014-01-29 株式会社Jvcケンウッド 擬似立体画像作成装置及び擬似立体画像表示システム
TWI423166B (zh) * 2009-12-04 2014-01-11 Huper Lab Co Ltd 判斷輸入影像是否為霧化影像之方法、判斷輸入影像的霧級數之方法及霧化影像濾清方法
US8284998B2 (en) * 2010-07-01 2012-10-09 Arcsoft Hangzhou Co., Ltd. Method of estimating depths from a single image displayed on display
JP2012028987A (ja) * 2010-07-22 2012-02-09 Toshiba Corp 画像処理装置
CN102637293B (zh) * 2011-02-12 2015-02-25 株式会社日立制作所 运动图像处理装置及运动图像处理方法
US20120213436A1 (en) * 2011-02-18 2012-08-23 Hexagon Technology Center Gmbh Fast Image Enhancement and Three-Dimensional Depth Calculation
JP5488530B2 (ja) * 2011-05-23 2014-05-14 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
JP5810628B2 (ja) * 2011-05-25 2015-11-11 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
US8582915B2 (en) * 2011-06-27 2013-11-12 Wuxi Jinnang Technology Development Ltd. Image enhancement for challenging lighting conditions
KR101568971B1 (ko) * 2011-08-03 2015-11-13 인디안 인스티튜트 오브 테크놀로지, 카라그푸르 화상 및 동영상에서 안개를 제거하는 방법 및 시스템
US8970691B2 (en) * 2011-08-26 2015-03-03 Microsoft Technology Licensing, Llc Removal of rayleigh scattering from images
CN103034977B (zh) * 2011-09-30 2015-09-30 株式会社日立制作所 图像除雾方法和相应的图像除雾装置
CN103164845B (zh) * 2011-12-16 2016-08-03 中国科学院沈阳自动化研究所 一种实时图像去雾装置及方法
CN103186887B (zh) * 2011-12-30 2016-08-03 株式会社日立制作所 图像除雾装置和图像除雾方法
CN103188433B (zh) * 2011-12-30 2016-01-20 株式会社日立制作所 图像除雾装置和图像除雾方法
JP2013152334A (ja) * 2012-01-25 2013-08-08 Olympus Corp 顕微鏡システムおよび顕微鏡観察方法
CN103226809B (zh) * 2012-01-31 2015-11-25 株式会社日立制作所 图像除雾装置和图像除雾方法
US20130237317A1 (en) * 2012-03-12 2013-09-12 Samsung Electronics Co., Ltd. Method and apparatus for determining content type of video content
JP5247910B1 (ja) * 2012-03-30 2013-07-24 Eizo株式会社 画像表示装置またはその方法
JP5470415B2 (ja) 2012-03-30 2014-04-16 Eizo株式会社 イプシロンフィルタの閾値決定方法およびローパスフィルタの係数決定方法
US8885962B1 (en) * 2012-07-23 2014-11-11 Lockheed Martin Corporation Realtime long range imaging scatter reduction
CN103632339A (zh) * 2012-08-21 2014-03-12 张晓光 一种基于变分Retinex的单幅图像去雾方法及装置
CN202872972U (zh) * 2012-08-24 2013-04-10 中国人民解放军理工大学气象学院 一种图像监测处理装置
US9659237B2 (en) * 2012-10-05 2017-05-23 Micro Usa, Inc. Imaging through aerosol obscurants
KR101958910B1 (ko) * 2012-10-26 2019-03-15 에스케이 텔레콤주식회사 영상보정의 가속화를 위한 영상보정 장치 및 그 방법
CN102982537B (zh) * 2012-11-05 2015-09-02 安维思电子科技(广州)有限公司 一种检测场景变换的方法和系统
KR101736468B1 (ko) 2012-12-24 2017-05-29 한화테크윈 주식회사 영상 처리 장치 및 방법
KR101445577B1 (ko) * 2013-03-11 2014-11-04 주식회사 브이아이티시스템 안개제거 추정 모델을 이용한 안개 낀 휘도영상 개선 시스템
JP2014212513A (ja) * 2013-04-01 2014-11-13 パナソニック株式会社 投写型映像表示装置、映像投影制御装置、映像投影制御方法、及び映像投影制御プログラム
CN103218622B (zh) * 2013-04-22 2016-04-13 武汉大学 一种基于计算机视觉的雾霾监测方法
KR101470831B1 (ko) * 2013-05-28 2014-12-10 전남대학교산학협력단 사용자 제어가 가능한 거듭제곱근 연산자를 이용한 안개영상 개선 장치
CN103337054A (zh) * 2013-06-17 2013-10-02 西安理工大学 基于单图像的二阶段图像去雾方法
JP2017502429A (ja) * 2014-01-10 2017-01-19 富士通株式会社 画像処理装置、電子機器及び方法
US20170178297A1 (en) 2014-02-19 2017-06-22 Yissum Research Development Company Of The Hebrew University Of Jerusalem Ltd. Method and system for dehazing natural images using color-lines
KR102207939B1 (ko) * 2014-03-27 2021-01-26 한화테크윈 주식회사 안개 제거 시스템 및 안개 제거 방법
JP6284408B2 (ja) * 2014-04-03 2018-02-28 オリンパス株式会社 画像処理装置、撮像装置、判定方法、駆動方法、撮像方法およびプログラム
US9305339B2 (en) * 2014-07-01 2016-04-05 Adobe Systems Incorporated Multi-feature image haze removal
US9177363B1 (en) 2014-09-02 2015-11-03 National Taipei University Of Technology Method and image processing apparatus for image visibility restoration
JP6469448B2 (ja) 2015-01-06 2019-02-13 オリンパス株式会社 画像処理装置、撮像装置、画像処理方法、および記録媒体
US9870511B2 (en) 2015-10-14 2018-01-16 Here Global B.V. Method and apparatus for providing image classification based on opacity
US9508129B1 (en) 2015-11-06 2016-11-29 Adobe Systems Incorporated Dehazing photos and videos using visual artifact suppression

Also Published As

Publication number Publication date
EP3156968A4 (en) 2017-04-19
AU2015272799B2 (en) 2018-01-04
EP3156969B1 (en) 2018-11-21
EP3156971A4 (en) 2017-07-12
AU2014397095A1 (en) 2017-02-02
AU2015272846B2 (en) 2018-01-25
ES2681294T3 (es) 2018-09-12
US20170084042A1 (en) 2017-03-23
EP3156968B1 (en) 2019-02-27
EP3156971A1 (en) 2017-04-19
EP3156970B1 (en) 2019-08-21
JP6228670B2 (ja) 2017-11-08
EP3156970A1 (en) 2017-04-19
CN106663326A (zh) 2017-05-10
CN106462954B (zh) 2019-09-20
AU2015272798A1 (en) 2017-02-02
ES2727929T3 (es) 2019-10-21
RU2648955C1 (ru) 2018-03-28
CN106462947A (zh) 2017-02-22
US20170091912A1 (en) 2017-03-30
EP3156969A1 (en) 2017-04-19
WO2015190183A1 (ja) 2015-12-17
RU2017100022A3 (es) 2018-07-12
JPWO2015189874A1 (ja) 2017-04-20
CN106663326B (zh) 2019-11-08
JPWO2015190183A1 (ja) 2017-04-20
US10157451B2 (en) 2018-12-18
CN106462947B (zh) 2019-10-18
AU2014397095B2 (en) 2018-07-05
CN106462954A (zh) 2017-02-22
RU2664415C2 (ru) 2018-08-17
EP3156969A4 (en) 2017-10-11
JPWO2015190184A1 (ja) 2017-04-20
US9972074B2 (en) 2018-05-15
WO2015190136A1 (ja) 2015-12-17
EP3156971B1 (en) 2018-05-23
US10096092B2 (en) 2018-10-09
US10102614B2 (en) 2018-10-16
WO2015190184A1 (ja) 2015-12-17
US20170084009A1 (en) 2017-03-23
JP6225256B2 (ja) 2017-11-01
JPWO2015190136A1 (ja) 2017-04-20
WO2015189874A1 (ja) 2015-12-17
AU2015272798B2 (en) 2017-12-14
JP6225255B2 (ja) 2017-11-01
US20170091911A1 (en) 2017-03-30
RU2017100022A (ru) 2018-07-12
JP6228671B2 (ja) 2017-11-08
AU2015272799A1 (en) 2017-02-02
CN106462953B (zh) 2019-10-25
EP3156968A1 (en) 2017-04-19
AU2015272846A1 (en) 2017-02-02
EP3156970A4 (en) 2017-07-12
RU2654159C1 (ru) 2018-05-16
CN106462953A (zh) 2017-02-22
RU2658874C1 (ru) 2018-06-25

Similar Documents

Publication Publication Date Title
ES2712452T3 (es) Sistema de procesamiento de imagen y soporte de registro legible por ordenador
KR101770110B1 (ko) 반투명 마크, 반투명 마크 합성 및 검출 방법, 투명 마크 그리고 투명 마크 합성 및 검출 방법
CN104952045B (zh) 除雾系统和除雾方法
CN107925727B (zh) 3d相机图像中的点到点距离测量
CN109982012B (zh) 图像处理方法及装置、存储介质、终端
US20200389573A1 (en) Image processing system, image processing method and storage medium
Barros et al. Single-shot underwater image restoration: A visual quality-aware method based on light propagation model
CN115861077A (zh) 一种全景图像的确定方法、装置、设备及存储介质
JP2014078799A (ja) 画像処理装置及び画像処理方法
KR101507642B1 (ko) 평가 전달량에 기초한 안개 영상 보상 방법
JP2015118611A (ja) 画像処理装置、画像処理方法およびプログラム
Chen et al. Heavy haze removal in a learning framework
Sivaanpu et al. Underwater Image Enhancement using Scene-Specific Red Channel Prior and Fusion
KR20110064081A (ko) 정규 상관도와 누적영상을 이용한 고속 그림자 제거 방법
US20130076733A1 (en) Image processing apparatus, image processing method, and image processing program
JP2013257702A (ja) 前後関係推定方法、前後関係推定装置及び前後関係推定プログラム