ES2681294T3 - Sistema de procesamiento de imágenes y medio de grabación legible por ordenador - Google Patents

Sistema de procesamiento de imágenes y medio de grabación legible por ordenador Download PDF

Info

Publication number
ES2681294T3
ES2681294T3 ES15807220.7T ES15807220T ES2681294T3 ES 2681294 T3 ES2681294 T3 ES 2681294T3 ES 15807220 T ES15807220 T ES 15807220T ES 2681294 T3 ES2681294 T3 ES 2681294T3
Authority
ES
Spain
Prior art keywords
unit
value
fog
frame
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15807220.7T
Other languages
English (en)
Inventor
Masafumi HIGASHI
Takashi NAKAMAE
Reo AOKI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eizo Corp
Original Assignee
Eizo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eizo Corp filed Critical Eizo Corp
Application granted granted Critical
Publication of ES2681294T3 publication Critical patent/ES2681294T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/529Depth or shape recovery from texture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/407Control or modification of tonal gradation or of extreme levels, e.g. background level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Un sistema de procesamiento de imágenes que elimina una niebla incluida en una imagen que comprende: una unidad de extracción de pixel de saturación de color elevada (312) que extrae, de una trama de entre una pluralidad de tramas incluidas en un imagen en movimiento, un pixel de saturación de color elevada que tiene una saturación de color más elevada que un umbral predeterminado; una unidad de derivación de tasa de pixel de saturación de color elevada (318) que deriva una tasa de pixel de saturación de color elevada indicativa de un porcentaje de los pixeles de saturación de color elevada en la una trama; y una unidad de valoración de cambio de escena (324) que valora si un cambio de escena se incluye o no en la imagen en movimiento en base a un criterio diferente dependiendo de si la tasa de pixel de saturación de color elevada en la una trama es más elevada que un umbral predeterminado o no, caracterizado por que cuando la tasa de pixel de saturación de color elevada es mayor que el umbral, la unidad de valoración de cambio de escena (324) valora si se incluye o no un cambio de escena en la imagen en movimiento en base a un matiz de la una trama y a una matiz de una trama pasada de la una trama, y cuando la tasa de pixel de saturación de color elevada es igual o menor que el umbral, la unidad de valoración de cambio de escena (324) valora si se incluye o no un cambio de escena en la imagen en movimiento en base a una tasa de pixel de saturación de color elevada de la una trama y a una tasa de pixel de saturación de color elevada de una trama pasada de la una trama.

Description

5
10
15
20
25
30
35
40
45
50
55
DESCRIPCIÓN
Sistema de procesamiento de imágenes y medio de grabación legible por ordenador.
Campo técnico
La presente invención se refiere a un sistema de procesamiento de imágenes y a un medio de grabación legible por ordenador.
Técnica relacionada
Se conoce una técnica de eliminación de neblina en una imagen basada en un modelo atmosférico de la Publicación de Solicitud de Patente Japonesa N° 2012-168936. El documento US 2012/328205 A1 describe una técnica de mejora de imagen y vídeo que permite que se aplique un algoritmo principal de mejora a imágenes capturadas en diversas condiciones de luz complejas, en donde la técnica implica una detección de cambio de escena y una etapa de eliminación de niebla. El documento US 2013/237317 A1 describe un método para determinar un tipo de contenido de un contenido de vídeo. El método incluye: recibir una trama del contenido de vídeo, detectar una característica de componente de color pixel por pixel de la trama recibida; y determinar un tipo de contenido de la trama recibida según una característica de componente de color pixel por pixel que indica si la trama recibida incluye un contenido que reproduce una escena de un género predeterminado. En Koprinska et al., "Temporal video segmentation: A survey", 2001,
https://doi.org/10.1016/S0923-5965j00j00011-4 se describe que la segmentación de vídeo temporal es la primera etapa hacia la anotación automática de vídeo digital para navegación y recuperación. Este artículo ofrece una visión general de las técnicas existentes para segmentación de vídeo que funcionan tanto en trenes de vídeo comprimidos o descomprimidos.
Era necesaria una técnica más apropiada para eliminar la neblina de una imagen.
Compendio
Este objeto ha sido resuelto por la materia de la reivindicación 1. Las realizaciones preferidas están descritas en las reivindicaciones dependientes. Según un primer aspecto de la presente invención, se provee un sistema de procesamiento de imágenes. El sistema de procesamiento de imágenes incluye una unidad de extracción de pixel de saturación elevada que extrae, de una trama de entre una pluralidad de tramas incluidas en una imagen en movimiento, un pixel de saturación elevada que tiene una saturación más elevada que un umbral predeterminado. El sistema de procesamiento de imágenes incluye una unidad de derivación de tasa de pixel de saturación elevada que deriva una tasa de pixel de saturación elevada indicativa de un porcentaje de los pixeles de saturación elevada en la una trama. El sistema de procesamiento de imágenes incluye una unidad de valoración de cambio de escena que valora si se incluye o no un cambio de escena en la imagen en movimiento en base a criterios diferentes dependiendo de si la tasa de pixel de saturación elevada en la una trama es más elevada que un umbral predeterminado o no.
Cuando la tasa de pixel de saturación elevada es mayor que el umbral, la unidad de valoración de cambio de escena valora si se incluye o no un cambio de escena en la imagen en movimiento en base a un matiz de la una trama y a un matiz de una trama pasada de la una trama. Cuando la tasa de pixel de saturación elevada es igual o menor que el umbral, la unidad de valoración de cambio de escena valora si se incluye o no un cambio de escena en la imagen en movimiento en base a una tasa de pixel de saturación elevada de la una trama y a una tasa de pixel de saturación elevada de una trama pasada de la una trama. El sistema de procesamiento de imágenes puede incluir: una unidad de adquisición de valor estimado de profundidad de niebla que adquiere un valor estimado de profundidad de niebla de la una trama; y una unidad de derivación de fiabilidad que deriva una fiabilidad del valor estimado de profundidad de niebla en base a la tasa de pixel de saturación elevada en la una trama y a un valor de luminancia promedio de la una trama. Cuando el valor estimado es mayor que un umbral predeterminado, la unidad de derivación de fiabilidad puede derivar una fiabilidad mayor a medida que el valor de luminancia promedio aumenta, y puede derivar una fiabilidad mayor a medida que la tasa de pixel de saturación elevada disminuye. Cuando el valor estimado es igual o menor que un umbral predeterminado, la unidad de derivación de fiabilidad puede derivar una fiabilidad mayor a medida que el valor de luminancia promedio disminuye, y puede derivar una fiabilidad mayor a medida que la tasa de pixel de saturación elevada aumenta.
El sistema de procesamiento de imágenes puede además incluir: una unidad de adquisición de valor meta que adquiere un valor meta de profundidad de niebla de una trama pasada de la una trama; y una unidad de determinación de valor meta que determina cuál, el valor meta de profundidad de niebla adquirido por la unidad de adquisición de valor meta o el valor estimado de profundidad de niebla adquirido por la unidad de adquisición de valor estimado de profundidad de niebla, se utilizará para ajustar un parámetro a utilizar en un proceso de eliminación de niebla en base a la fiabilidad derivada por la unidad de derivación de fiabilidad. El sistema de procesamiento de imágenes puede incluir una unidad de derivación de valor de diferencia absoluta que deriva una diferencia absoluta entre un valor meta de profundidad de niebla adquirido por la unidad de adquisición de valor meta y el valor estimado de profundidad de niebla adquirido por la unidad de adquisición de valor estimado de profundidad de niebla, en donde la unidad de determinación de valor meta puede determinar cuál, el valor meta de
5
10
15
20
25
30
35
40
45
50
55
60
profundidad de niebla adquirido por la unidad de adquisición de valor meta o el valor estimado de profundidad de niebla adquirido por la unidad de adquisición de valor estimado de profundidad de niebla, se utilizará para ajustar un parámetro a utilizar en un proceso de eliminación de niebla en base a una fiabilidad del valor estimado y el valor de diferencia absoluta, o un indicador de cambio de escena indicativo de si la una trama es una trama en la que ocurre un cambio de escena.
El sistema de procesamiento de imágenes puede incluir una unidad de ajuste de parámetro que ajusta un parámetro a utilizar en un proceso de eliminación de niebla de la una trama, de manera que sea más próximo, paso a paso, a un valor correspondiente al valor meta de profundidad de niebla o al valor estimado de profundidad de niebla determinado por la unidad de determinación de valor meta. La unidad de ajuste de parámetro puede ajustar un parámetro a utilizar en un proceso de eliminación de niebla con una cantidad de ajuste correspondiente a: un valor de diferencia absoluta entre el valor meta de profundidad de niebla o el valor estimado de profundidad de niebla determinado por la unidad de determinación de valor meta y un parámetro utilizado en el proceso de eliminación de niebla de una trama pasada de la una trama; una fiabilidad del valor estimado de profundidad de niebla; y un indicador de cambio de escena indicativo de si la una trama es una trama en la que ocurre un cambio de escena, de manera que esté más próximo, paso a paso, a un valor correspondiente al valor meta de profundidad de niebla o el valor estimado de profundidad de niebla determinado por la unidad de determinación de valor meta.
Según un segundo aspecto de la presente invención, se ofrece un sistema de procesamiento de imágenes. El sistema de procesamiento de imágenes puede incluir una unidad de derivación de valor de evaluación de luminancia que deriva un valor de evaluación de luminancia de una región al menos parcial de una imagen. El sistema de procesamiento de imágenes puede incluir una unidad de derivación de valor de evaluación de saturación que deriva un valor de evaluación de saturación de la región al menos parcial de la imagen. El sistema de procesamiento de imágenes puede incluir una unidad de derivación de valor de evaluación de contraste que deriva un valor de evaluación de contraste de la región al menos parcial de la imagen. El sistema de procesamiento de imágenes puede incluir una unidad de estimación de profundidad de niebla que deriva un valor estimado de profundidad de niebla de la imagen en base al valor de evaluación de luminancia, el valor de evaluación de saturación y el valor de evaluación de contraste.
El sistema de procesamiento de imágenes puede incluir una primera unidad de extracción de pixel que extrae un píxel que no es plano ni de borde de la imagen, en donde la unidad de estimación de profundidad de niebla puede derivar el valor estimado de profundidad de niebla en base a un valor de evaluación de luminancia, un valor de evaluación de saturación y un valor de evaluación de contraste de los pixeles que no son planos ni de borde extraídos por la primera unidad de extracción de pixel.
Según un tercer aspecto de la presente invención, se provee un sistema de procesamiento de imágenes. El sistema de procesamiento de imágenes puede incluir una primera unidad de extracción de pixel que extrae un píxel que no es plano ni de borde de una imagen. Asimismo, el sistema de procesamiento de imágenes puede incluir una unidad de estimación de profundidad de niebla que deriva un valor estimado de profundidad de niebla de la imagen en base a al menos dos de entre un valor de evaluación de luminancia, un valor de evaluación de saturación y un valor de evaluación de contraste de los pixeles que no son planos ni de borde extraídos por la primera unidad de extracción de pixel.
El valor de evaluación de luminancia puede ser un valor de luminancia promedio de la región. El valor de evaluación de saturación puede ser un valor de saturación promedio de la región. El valor de evaluación de contraste puede ser un valor de contraste de la región. La unidad de estimación de profundidad de niebla puede derivar un valor mayor para el valor estimado de profundidad de niebla a medida que el valor de luminancia promedio aumenta. La unidad de estimación de profundidad de niebla puede derivar un valor mayor para el valor estimado de profundidad de niebla a medida que el valor de saturación promedio disminuye. La unidad de estimación de profundidad de niebla puede derivar un valor mayor para el valor estimado de profundidad de niebla a medida que el valor de contraste aumenta. La imagen puede ser una imagen en movimiento que incluye una pluralidad de tramas, y el sistema de procesamiento de imágenes puede incluir: una unidad de extracción de pixel de saturación elevada que extrae, en una trama de entre la pluralidad de tramas, un pixel de saturación elevada que presenta una saturación más elevada que un umbral predeterminado; una unidad de derivación de tasa de pixel de saturación elevada que deriva una tasa de pixel de saturación elevada indicativa de un porcentaje de los pixeles de saturación elevada en la una trama; y una unidad de valoración de cambio de escena que valora si se incluye o no un cambio de escena en la imagen en movimiento en base a diferentes criterios dependiendo de si la tasa de pixel saturación elevada es mayor que un umbral predeterminado o no. El sistema de procesamiento de imágenes puede incluir una unidad de derivación de fiabilidad que deriva una fiabilidad del valor estimado de profundidad de niebla de la una trama en base a la tasa de pixel de saturación elevada en la una trama y al valor de luminancia promedio de la una trama. El sistema de procesamiento de imágenes puede incluir una unidad de ajuste de parámetro que ajusta un parámetro a utilizar en un proceso de eliminación de niebla en la una trama en base a la fiabilidad del valor estimado de profundidad de niebla de la una trama derivada por la unidad de derivación de fiabilidad, y un indicador de cambio de escena indicativo de si la una trama es una trama en la que ha ocurrido un cambio de escena.
El sistema de procesamiento de imágenes puede incluir: una unidad de derivación de transmisividad que deriva una transmisividad correspondiente a una profundidad de niebla de cada pluralidad de pixeles de la imagen; y una
5
10
15
20
25
30
35
40
45
50
unidad de eliminación de niebla que ejecuta un proceso de eliminación de niebla en la imagen en base al valor estimado de profundidad de niebla y a la transmisividad. El sistema de procesamiento de imágenes puede incluir una segunda unidad de extracción de pixel que extrae un píxel que no es plano ni de borde de la imagen, en donde la unidad de eliminación de niebla puede determinar si se ejecuta o no el proceso de eliminación de niebla en base a un porcentaje, en la imagen, de los pixeles que no son planos ni de borde extraídos por la segunda unidad de extracción de pixel.
Según un cuarto aspecto de la presente invención, se provee un sistema de procesamiento de imágenes. El sistema de procesamiento de imágenes puede incluir una unidad de adquisición de profundidad de niebla que adquiere una profundidad de niebla de una imagen. El sistema de procesamiento de imágenes puede incluir una unidad de procesamiento de eliminación que realiza, en base a la profundidad de niebla, procesos de eliminación de niebla a grados mutuamente diferentes de eliminación de niebla en un componente de reflectancia de la imagen y un componente de luz de iluminación de la imagen. El sistema de procesamiento de imágenes puede incluir una unidad de sintetización que sintetiza el componente de reflectancia y el componente de luz de iluminación sobre los que se han realizado los procesos de eliminación de niebla. Ante una suposición de que no hay aproximadamente componentes de reflectancia incluidos en luminosidad, la unidad de procesamiento de eliminación puede utilizar un modelo atmosférico de una imagen con niebla y la teoría Retinex para realizar procesos de eliminación de niebla en grados mutuamente diferentes de eliminación de niebla en el componente de reflectancia de la imagen y el componente de luz de iluminación de la imagen. Ante una suposición adicional de que el modelo atmosférico de la imagen con niebla solo se puede aplicar al componente de luz de iluminación, la unidad de procesamiento de eliminación puede utilizar el modelo atmosférico de la imagen con niebla y la teoría Retinex para realizar procesos de eliminación de niebla en grados mutuamente diferentes de eliminación de niebla en el componente de reflectancia de la imagen y el componente de luz de iluminación de la imagen.
Según un quinto aspecto de la presente invención, se provee un medio de grabación legible por ordenador que tiene grabado en sí mismo un programa para permitir que un ordenador funcione como el sistema de procesamiento de imágenes.
El compendio no necesariamente describe todas las características necesarias de las realizaciones de la presente invención. La presente invención también puede ser una subcombinación de las características descritas anteriormente.
Breve descripción de los dibujos
La Figura 1 muestra de forma esquemática un ejemplo de una configuración funcional de un sistema de procesamiento de imágenes 100.
La Figura 2 muestra de forma esquemática un ejemplo de una configuración funcional de una unidad de estimación de profundidad de niebla 200.
La Figura 3 es una figura para explicar un proceso de extracción de pixel plano y de borde.
La Figura 4A muestra de forma esquemática un ejemplo de un gráfico de ponderación 240.
La Figura 4B muestra de forma esquemática un ejemplo de un gráfico de ponderación 242.
La Figura 5 es una figura para explicar valores de histograma.
La Figura 6 muestra de forma esquemática un ejemplo de una configuración funcional de una unidad de control de escena 300.
La Figura 7 muestra de forma esquemática un ejemplo de una configuración funcional de una unidad de valoración de cambio de escena 310.
La Figura 8 muestra de forma esquemática un ejemplo de una configuración funcional de una unidad de estimación de fiabilidad de niebla 330.
La Figura 9 muestra de forma esquemática un ejemplo de un gráfico de ponderación 352.
La Figura 10 muestra de forma esquemática un ejemplo de un gráfico de ponderación 354.
La Figura 11 muestra de forma esquemática un ejemplo de una configuración funcional de una unidad de ajuste de parámetro de eliminación de niebla 360.
La Figura 12 muestra de forma esquemática un ejemplo de una configuración funcional de una unidad de eliminación de niebla 400.
Mejor modo de llevar a cabo la invención
5
10
15
20
25
30
35
40
45
50
55
A continuación, se describe(n) (algunas) realización(ones) de la presente invención. La(s) realización(ones) no limita(n) la invención según las reivindicaciones, y todas las combinaciones de las características descritas en la(s) realización(ones) no son necesariamente esenciales para los medios provistos por los aspectos de la invención.
La Figura 1 muestra de forma esquemática un ejemplo de una configuración funcional de un sistema de procesamiento de imágenes 100. El sistema de procesamiento de imágenes 100 según la presente realización puede ser un dispositivo de visualización que elimina una niebla incluida en una imagen introducida y visualiza la imagen. La niebla incluye fenómenos atmosféricos en general que hacen que el campo de visión sea deficiente debido a micropartículas. Por ejemplo, niebla incluye neblina, bruma, humo, polvos, lluvia, nieve, etc. El dispositivo de visualización puede ser una pantalla de cristal líquido, una pantalla de plasma, una pantalla orgánica EL, etc.
El sistema de procesamiento de imágenes 100 incluye una unidad de entrada de imagen 110, una unidad de visualización 120, una unidad de estimación de profundidad de niebla 200, una unidad de control de escena 300 y una unidad de eliminación de niebla 400. La unidad de entrada de imagen 110 recibe una entrada de una imagen. La imagen puede ser una imagen en movimiento o fija, y también puede ser una trama incluida en una imagen en movimiento. La unidad de entrada de imagen 110 puede recibir una entrada de datos RGB, datos YUV o datos HSV. El sistema de procesamiento de imágenes 100 puede convertir datos YUV introducidos en datos RGB.
La unidad de estimación de profundidad de niebla 200 deriva un valor estimado de profundidad de niebla de cada imagen introducida. La profundidad de niebla de una imagen es una profundidad de una niebla incluida en la imagen. Por ejemplo, si se capturan imágenes de un espacio único, la profundidad de niebla de una imagen se vuelve más elevada cuando la profundidad de una neblina en el espacio es elevada que cuando la profundidad de una neblina en el espacio es baja.
La unidad de control de escena 300 valora si se incluye o no un cambio de escena en una imagen en movimiento introducida. Según si un cambio de escena se incluye o no en una imagen en movimiento introducida, la unidad de control de escena 300 puede generar un parámetro a utilizar en un proceso de eliminación de niebla. La unidad de eliminación de niebla 400 elimina una niebla de una imagen introducida. La unidad de eliminación de niebla 400 puede utilizar un parámetro generado por la unidad de control de escena 300 para eliminar una niebla de una imagen introducida. La unidad de visualización 120 visualiza una imagen de la cual se elimina una niebla mediante la unidad de eliminación de niebla 400.
Por ejemplo, la unidad de control de escena 300 genera un parámetro a utilizar en un proceso de eliminación de niebla con el fin de cambiar la intensidad eliminación de niebla paso a paso sobre una pluralidad de tramas cuando no se detecta un cambio de escena en una imagen en movimiento. A continuación, la unidad de eliminación de niebla 400 cambia la intensidad de eliminación de niebla paso a paso sobre una pluralidad de tramas utilizando un parámetro generado por la unidad de control de escena 300 cuando no se detecta un cambio de escena en una imagen en movimiento. Por lo tanto, es posible evitar que una imagen cambie rápidamente debido a la eliminación de niebla, y para evitar la aparición de un fenómeno, como el llamado "parpadeo".
Asimismo, por ejemplo, la unidad de control de escena 300 genera un parámetro a utilizar en un proceso de eliminación de niebla con el fin de cambiar la intensidad de eliminación de niebla paso a paso sobre una cantidad menor de tramas cuando se detecta un cambio de escena en una imagen en movimiento que cuando no se detecta un cambio de escena en una imagen en movimiento. A continuación, la unidad de eliminación de niebla 400 cambia la intensidad de eliminación de niebla paso a paso sobre una cantidad menor de tramas utilizando un parámetro generado por la unidad de control de escena 300 cuando se detecta un cambio de escena en una imagen en movimiento que cuando no se detecta un cambio de escena en una imagen en movimiento.
El sistema de procesamiento de imágenes 100 puede no incluir la unidad de control de escena 300. En este caso, la unidad de eliminación de niebla 400 elimina una niebla de una imagen introducida en base a un valor estimado de profundidad de niebla de una imagen derivado por la unidad de estimación de profundidad de niebla 200. Por lo tanto, es posible lograr un proceso de eliminación de niebla altamente preciso en base a una profundidad de niebla estimada por la unidad de estimación de profundidad de niebla 200.
La Figura 2 muestra de forma esquemática un ejemplo de una configuración funcional de la unidad de estimación de profundidad de niebla 200. La unidad de estimación de profundidad de niebla 200 incluye una unidad de extracción de pixel plano y de borde 202, una unidad de cálculo de luminancia promedio 204, una unidad de cálculo de saturación promedio 206, una unidad de cálculo de contraste 208, una unidad de adquisición de saturación máxima 210, una unidad de adquisición de ponderación 212, una unidad de cálculo de profundidad de niebla 214, una unidad de valoración de pantalla herramienta 216 y un selector 218.
La unidad de extracción de pixel plano y de borde 202 extrae un pixel que no es plano ni de borde de una imagen introducida a través de la unidad de entrada de imagen 110. La unidad de extracción de pixel plano y de borde 202, por ejemplo, extrae un pixel plano o de borde de una imagen para excluir el pixel extraído de la imagen, extrayendo de esta manera un pixel que no es plano ni de borde. La unidad de extracción de pixel plano y de borde 202 puede ser un ejemplo de una primera unidad de extracción de pixel.
5
10
15
20
25
30
35
40
45
50
La unidad de cálculo de luminancia promedio 204 calcula un valor de luminancia promedio (denominado AVEy en algunos casos) de pixeles que no son planos ni de borde. El valor de luminancia promedio puede ser un ejemplo de un valor de evaluación de luminancia. La unidad de cálculo de luminancia promedio 204 puede ser un ejemplo de una unidad de derivación de valor de evaluación de luminancia.
La unidad de cálculo de saturación promedio 206 calcula un valor de saturación promedio (denominado AVEs en algunos casos) de pixeles que no son planos ni de borde. El valor de saturación promedio puede ser un ejemplo de un valor de evaluación de saturación. La unidad de cálculo de saturación promedio 206 puede ser un ejemplo de una unidad de derivación de valor de evaluación de saturación.
La unidad de cálculo de contraste 208 calcula un valor de contraste de pixeles que no son planos ni de borde. El valor de contraste puede ser un ejemplo de un valor de evaluación de contraste. La unidad de cálculo de contraste 208 puede ser un ejemplo de una unidad de derivación de valor de evaluación de contraste.
La unidad de cálculo de contraste 208 puede generar un histograma de pixeles que no son planos ni de borde. La unidad de cálculo de contraste 208 puede generar un histograma con cualquier cómputo de bin. A continuación, la unidad de cálculo de contraste 208 puede restar el valor mínimo del histograma generado de su valor máximo para calcular una anchura de histograma (denominada HISTanchura en algunos casos). En este caso, de entre una pluralidad de bins, la unidad de cálculo de contraste 208 puede restar el valor mínimo de bins, valores que son más elevados que un umbral, de su valor máximo correspondiente.
El HISTAnchurA puede ser un ejemplo de un valor de contraste. La unidad de cálculo de contraste 208 puede extraer el cómputo de bin de un histograma como una anchura máxima (denominada MÁXAnchurA en algunos casos) del histograma.
La unidad de adquisición de saturación máxima 210 adquiere una saturación máxima (denominada MÁXs en algunos casos) en el sistema de procesamiento de imágenes 100. La unidad de adquisición de ponderación 212 adquiere un valor de ponderación (denominado coef en algunos casos) a utilizar en el cálculo de una profundidad de niebla de una imagen. La unidad de adquisición de ponderación 212, por ejemplo, adquiere el coef especificado por un fabricante o un usuario del sistema de procesamiento de imágenes 100.
La unidad de cálculo de profundidad de niebla 214 calcula un valor estimado de profundidad de niebla (denominado Intensidad en algunos casos) de una imagen. La unidad de cálculo de profundidad de niebla 214 puede calcular la Intensidad en base a un valor de evaluación de luminancia, un valor de evaluación de saturación y un valor de evaluación de contraste de pixeles que no son planos ni de borde.
La unidad de cálculo de profundidad de niebla 214 puede calcular la Intensidad en base a: un valor de luminancia promedio calculado por la unidad de cálculo de luminancia promedio 204; un valor de saturación promedio calculado por la unidad de cálculo de saturación promedio 206; y un valor de contraste calculado por la unidad de cálculo de contraste 208. La unidad de cálculo de profundidad de niebla 214 puede calcular la Intensidad multiplicando un valor de luminancia promedio, un valor de saturación promedio y un valor de contraste. La unidad de cálculo de profundidad de niebla 214 puede multiplicar un valor de saturación promedio, un valor obtenido de restar el valor de saturación promedio de una saturación máxima, y un valor obtenido de restar un valor de contraste de la anchura máxima de un histograma.
En este caso, la unidad de cálculo de profundidad de niebla 214 puede ponderar un valor de luminancia promedio. Por ejemplo, la unidad de cálculo de profundidad de niebla 214 puede ponderar un valor de luminancia promedio de manera que su valor aumenta aún más a medida que el valor aumenta y su valor disminuye aún más a medida que el valor disminuye. Asimismo, la unidad de cálculo de profundidad de niebla 214 puede ponderar un valor de saturación promedio. Por ejemplo, la unidad de cálculo de profundidad de niebla 214 puede ponderar un valor de saturación promedio de manera que su valor aumenta aún más a medida que el valor aumenta y su valor disminuye aún más a medida que el valor disminuye.
La unidad de cálculo de profundidad de niebla 214, por ejemplo, calcula la Intensidad utilizando la Ecuación 1.
[Ecuación 1]
Intensidad - coef X (MAX lvc//6, - HIST4VC//0 + 1) X (AVEy + 1) X (MÁXS - AVE^ + 1)
Por lo tanto, la unidad de cálculo de profundidad de niebla 214 puede derivar un valor más elevado para un valor estimado de profundidad de niebla a medida que un valor de luminancia promedio aumenta, puede derivar un valor más elevado para un valor estimado de profundidad de niebla a medida que un valor de saturación promedio disminuye, y puede derivar un valor más elevado para un valor estimado de profundidad de niebla a medida que un valor de contraste disminuye. Debido a que se puede suponer que cuando la profundidad de niebla de una imagen es alta, el contraste de la imagen es bajo, la luminancia promedio es alta y la saturación promedio es baja, la unidad de cálculo de profundidad de niebla 214 puede calcular un valor estimado de profundidad de niebla de mayor precisión que refleje las características de una niebla.
5
10
15
20
25
30
35
40
45
50
55
La unidad de valoración de pantalla herramienta 216 valora si una imagen introducida es una pantalla herramienta o no. La pantalla herramienta es, por ejemplo, una pantalla para configurar un parámetro de visualización de la unidad de visualización 120, una pantalla para configurar un parámetro de visualización de una imagen, o similar.
Por ejemplo, si mientras la unidad de visualización 120 está visualizando una imagen en movimiento de la cámara de monitorización, se genera una niebla en la imagen en movimiento de la cámara de monitorización, es deseable que se ejecute un proceso de eliminación de niebla mediante la unidad de eliminación de niebla 400. Por otro lado, si mientras la unidad de visualización 120 está visualizando una imagen en movimiento de la cámara de monitorización, un espectador de la imagen en movimiento de la cámara de visualización hace que la unidad de visualización 120 visualice una pantalla herramienta con el fin de cambiar la configuración de un parámetro de visualización, la ejecución de un proceso de eliminación de niebla en la pantalla herramienta puede resultar, en algunos casos, en una pantalla negra innecesaria o en el parpadeo de la pantalla.
Para resolver esto, la unidad de estimación de profundidad de niebla 200 según la presente realización lleva a cabo controles de manera que se extrae 0 como un valor estimado de profundidad de niebla cuando se valora una imagen introducida como una pantalla herramienta, y se extrae la Intensidad calculada mediante la unidad de cálculo de profundidad de niebla 214 cuando una imagen introducida no se valora como una pantalla herramienta.
Específicamente, el selector 218: recibe la Intensidad calculada por la unidad de cálculo de profundidad de niebla 214 y un resultado de valoración de pantalla herramienta realizado por la unidad de valoración de pantalla herramienta 216; cuando una imagen introducida no es una pantalla herramienta, se extrae la Intensidad a la unidad de control de escena 300 o a la unidad de eliminación de niebla 400; y cuando una imagen introducida es una pantalla herramienta, se extrae 0 a la unidad de control de escena 300 o a la unidad de eliminación de niebla 400. Por lo tanto, la unidad de eliminación de niebla 400 puede distinguir que una imagen introducida es una pantalla herramienta. Cuando una imagen introducida es una pantalla herramienta, la unidad de eliminación de niebla 400 puede determinar que no se ejecute un proceso de eliminación de niebla. La unidad de estimación de profundidad de niebla 200 puede extraer un valor estimado bajo, en vez de extraer 0. Por ejemplo, la unidad de estimación de profundidad de niebla 200 extrae un valor estimado que es menor que el valor mínimo de Intensidad calculado por la unidad de cálculo de profundidad de niebla 214.
La unidad de valoración de pantalla herramienta 216 puede valorar si una imagen introducida es una pantalla herramienta o no en base a un pixel que no es plano ni de borde extraído por la unidad de extracción de pixel plano y de borde 202. En el presente documento, según un segundo criterio diferente de un primer criterio para extraer un pixel que no es plano ni de borde extraído a la unidad de cálculo de luminancia promedio 204, la unidad de cálculo de saturación de promedio 206 y la unidad de cálculo de contraste 208, la unidad de extracción de pixel plano y de borde 202 puede extraer un pixel que no es plano ni de borde para que sea extraído a la unidad de valoración de pantalla herramienta 216. El segundo criterio puede ser un criterio que dificulte que un pixel sea valorado como un pixel que no es plano ni de borde en comparación con el primer criterio. La unidad de extracción de pixel plano y de borde 202 puede ser un ejemplo de una segunda unidad de extracción de pixel.
La unidad de valoración de pantalla herramienta 216 puede valorar que una imagen introducida no es una pantalla herramienta cuando un porcentaje de pixeles que no son planos ni de borde recibidos de la unidad de extracción de pixel plano y de borde 202 relativos a todos los pixeles de la imagen es igual o menor que un umbral predeterminado, y puede valorar que la imagen es una pantalla herramienta cuando el porcentaje es mayor que el umbral predeterminado.
Asimismo, la unidad de valoración de pantalla herramienta 216 puede valorar que una imagen es una pantalla herramienta cuando un porcentaje de pixeles planos o de borde extraídos según el segundo criterio relativo a pixeles planos o de borde extraídos según el primer criterio es igual o menor que un umbral predeterminado, y puede valorar que la imagen no es un pantalla herramienta cuando el porcentaje es mayor que el umbral predeterminado.
La unidad de valoración de pantalla herramienta 216 permite una valoración no solo sobre una pantalla herramienta, sino también sobre otro tipo de pantallas en la medida que dicha pantalla tenga un porcentaje bajo de pixeles que no son planos ni de borde en una imagen introducida. Por ejemplo, la unidad de valoración de pantalla herramienta 216 permite una valoración sobre si una imagen introducida es o no una imagen que presenta un porcentaje alto de regiones diferentes a imágenes que visualizan regiones relativas a la región de visualización completa de la unidad de visualización 120. La unidad de valoración de pantalla herramienta 216 puede ser un ejemplo de unidad de valoración meta de proceso de eliminación de niebla que valora si una imagen introducida es o no una meta en la que se ha de ejecutar un proceso de eliminación de niebla.
Aunque en la presente memoria se explica un ejemplo en el que la unidad de cálculo de luminancia promedio 204, la unidad de cálculo de saturación promedio 206 y la unidad de cálculo de contraste 208 calculan un valor de luminancia promedio, un valor de saturación promedio y un valor de contraste de pixeles que no son planos ni de borde, este no es el único ejemplo. La unidad de cálculo de luminancia promedio 204, la unidad de cálculo de saturación promedio 206, y la unidad de cálculo de contraste 208 pueden calcular un valor de luminancia promedio, un valor de saturación promedio y un valor de contraste de una imagen introducida completa. Asimismo, la unidad de cálculo de luminancia promedio 204, la unidad de cálculo de saturación promedio 206, y la unidad de cálculo de
5
10
15
20
25
30
35
40
45
50
55
contraste 208 pueden calcular un valor de luminancia promedio, un valor de saturación promedio y un valor de contraste de parte de una imagen introducida.
La Figura 3 es una figura para explicar un ejemplo de un proceso de extracción de pixel plano y de borde. Cuando se valora si un pixel de interés 230 es o no plano o de borde, la unidad de extracción de pixel plano y de borde 202 primero adquiere: el valor máximo y el valor mínimo de valores de pixel de siete pixeles que incluyen el pixel de interés 230 y otros seis pixeles que están dispuestos verticalmente y que dejan al pixel de interés 230 como centro de un estructura tipo sándwich; y el valor máximo y el valor mínimo de siete pixeles que incluyen el pixel de interés 230 y otros seis pixeles que están dispuestos horizontalmente y que dejen al pixel de interés 230 como centro de un estructura tipo sándwich.
A continuación, la unidad de extracción de pixel plano y de borde 202 calcula un valor obtenido de restar el valor mínimo del valor máximo para cada conjunto de los siete pixeles dispuestos en la dirección vertical y los siete pixeles dispuestos en la dirección horizontal. A continuación, en al menos uno de la dirección vertical y uno de la dirección horizontal, cuando el valor obtenido de restar el valor mínimo del valor máximo es igual o menor que un primer umbral, y cuando el valor es igual o mayor que un segundo umbral más elevado que el primer umbral, la unidad de extracción de pixel plano y de borde 202, valora que el pixel de interés 230 es un pixel plano o de borde.
El cómputo de pixel en la dirección vertical y el cómputo de pixel en la dirección horizontal puede ser un cómputo de pixel distinto de los siete pixeles. Asimismo, cuando un pixel plano o de borde se extrae según el primer criterio, la unidad de extracción de pixel plano y de borde 202 puede utilizar el primer umbral y el segundo umbral, y cuando un pixel plano o de borde se extrae según el segundo criterio, la unidad de extracción de pixel plano y de borde 202 puede utilizar un tercer umbral más alto que el primer umbral y más bajo que el segundo umbral, y un cuarto umbral más alto que el tercer umbral y más bajo que el segundo umbral.
La Figura 4A muestra de forma esquemática un ejemplo de un gráfico de ponderación 240. Asimismo, la Figura 4B muestra de forma esquemática un ejemplo de un gráfico de ponderación 242. El gráfico de ponderación 240 muestra un ejemplo de valores de ponderación a utilizar por la unidad de cálculo de profundidad de niebla 214 al ponderar un valor de luminancia promedio. La Figura 4A y la Figura 4B ilustran ejemplos donde una señal de entrada es de 10 bits. Al ponderar un valor de luminancia promedio según el gráfico de ponderación 240, la unidad de cálculo de profundidad de niebla 214 puede realizar una ponderación de manera que el valor de luminancia promedio aumente aún más a medida que su valor aumenta, y que el valor de luminancia promedio disminuya aún más a medida que su valor disminuye.
La unidad de cálculo de profundidad de niebla 214 también puede utilizar el gráfico de ponderación 240 al ponderar un valor de saturación promedio. La unidad de cálculo de profundidad de niebla 214 puede utilizar el gráfico de ponderación 240 que presenta los mismos valores o puede utilizar el gráfico de ponderación 240 que presenta diferentes valores para ponderar un valor de luminancia promedio y para ponderar un valor de saturación promedio. Por ejemplo, cuando se pondera un valor de luminancia promedio más que un valor de saturación promedio, la unidad de cálculo de profundidad de niebla 214 puede utilizar el gráfico de ponderación 242 que indica más ponderación que la que muestra en el gráfico de ponderación 242 para ponderar el valor de luminancia promedio.
La Figura 5 es una figura para explicar valores del histograma. La Figura 5 ilustra un caso en donde el cómputo de bin de un histograma es 16. Como se muestra en la Figura 5, de entre una pluralidad de bins, la unidad de cálculo de contraste 208 puede calcular la HISTanchura al restar el valor mínimo de bins, valores que son más elevados que un umbral, a partir de su valor máximo correspondiente.
La Figura 6 muestra de forma esquemática un ejemplo de una configuración funcional de la unidad de control de escena 300. La unidad de control de escena 300 incluye una unidad de valoración de cambio de escena 310, una unidad de estimación de fiabilidad de niebla 330 y una unidad de ajuste de parámetro de eliminación de niebla 360.
La unidad de valoración de control de escena 310 valora si se incluye o no un cambio de escena en una imagen en movimiento introducida a través de la unidad de entrada de imagen 110. La unidad de valoración de cambio de escena 310 puede asociar, con cada trama de entre una pluralidad de tramas incluidas en la imagen en movimiento, un indicador de cambio de escena indicativo de si ocurre o no un cambio de escena.
La unidad de estimación de fiabilidad de niebla 330 estima la fiabilidad de la Intensidad extraída de la unidad de estimación de profundidad de niebla 200 para una trama incluida en una imagen en movimiento introducida a través de la unidad de entrada de imagen 110.
La unidad de ajuste de parámetro de eliminación de niebla 360 ajusta un parámetro a utilizar en un proceso de eliminación de niebla en una pluralidad de tramas incluidas en una imagen en movimiento para extraer el parámetro a la unidad de eliminación de niebla 400. La unidad de ajuste de parámetro de eliminación de niebla 360 puede ajustar un parámetro a utilizar en un proceso de eliminación de niebla en una trama en base a una relación entre la una trama y una trama pasada de la una trama. Según la fiabilidad estimada por la unidad de estimación de fiabilidad de niebla 330 y el indicador de cambio de escena generado por la unidad de valoración de cambio de escena 310, la unidad de ajuste de parámetro de eliminación de niebla 360 puede ajustar un parámetro a utilizar en
5
10
15
20
25
30
35
40
45
50
55
un proceso de eliminación de niebla en una pluralidad de tramas incluidas en la imagen en movimiento para extraer el parámetro a la unidad de eliminación de niebla 400.
La Figura 7 muestra de forma esquemática un ejemplo de una configuración funcional de la unidad de valoración de cambio de escena 310. La unidad de valoración de cambio de escena 310 incluye una unidad de extracción de pixel de saturación elevada 312, una unidad generadora de histograma de matiz 314, una unidad de medición de tasa de pixel de saturación elevada 316, una unidad de extracción de pixel plano y de borde 318, una unidad de cálculo de luminancia promedio 320, una unidad de cálculo de saturación promedio 322 y una unidad de procesamiento de valoración 324.
La unidad de extracción de pixel de saturación elevada 312 extrae un pixel de saturación elevada de una trama de entre una pluralidad de tramas incluidas en una imagen en movimiento introducida a través de la unidad de entrada de imagen 110. El pixel de saturación elevada puede ser un pixel que presenta una saturación más elevada que un umbral predeterminado. Cuando se han recibido datos RGB, la unidad de extracción de pixel de saturación elevada 312 puede extraer, de pixeles respectivos incluidos en una trama, un pixel en el que una diferencia entre el valor máximo y el valor mínimo de un componente R, un componente G y un componente B es igual o mayor que un umbral predeterminado como un pixel de saturación elevada. Asimismo, cuando se han recibido datos HSV, la unidad de extracción de pixel de saturación elevada 312 puede extraer, de pixeles respectivos incluidos en una trama, un pixel que presenta un componente S que es igual o mayor que un umbral predeterminado, como un pixel de saturación elevada.
La unidad generadora de histograma de matiz 314 genera un histograma de matiz (denominado HISTMat en algunos casos), para pixeles de saturación elevada extraídos por la unidad de extracción de pixel de saturación elevada 312. Aunque en la presente memoria se explica un ejemplo en el que la unidad generadora de histograma de matiz 314 genera un HISTMat para pixeles de saturación elevada extraídos por la unidad de extracción de pixel de saturación elevada 312, este no es el único ejemplo. La unidad generadora de histograma de matiz 314 puede generar un HISTMat para una trama incluida en una imagen en movimiento introducida a través de la unidad de entrada de imagen 110.
La unidad de medición de tasa de pixel de saturación elevada 316 mide una tasa de pixel de saturación elevada (denominada TasaSatElev en algunos casos) indicativa de un porcentaje de pixeles de saturación elevada en una trama. La unidad de medición de tasa de pixel de saturación elevada 316 puede tratar, como TasaSatElev, un porcentaje de pixeles de saturación elevada relativo a todos los pixeles de una trama. La unidad de medición de tasa de pixel de saturación elevada 316 puede ser un ejemplo de una unidad de derivación de tasa de pixel de saturación elevada que deriva una tasa de pixel de saturación elevada en una trama.
La unidad de extracción de pixel plano y de borde 318 extrae un pixel que no es plano ni de borde de una trama de entre una pluralidad de tramas incluidas en una imagen en movimiento introducida a través de la unidad de entrada de imagen 110. La unidad de extracción de pixel plano y de borde 318 puede extraer un pixel que no es plano ni de borde de una manera similar a la unidad de extracción de pixel plano y de borde 202. En este caso, la unidad de extracción de pixel plano y de borde 318 puede extraer un pixel que no es plano ni de borde según el primer criterio, puede extraer un pixel que no es plano ni de borde según el segundo criterio, o puede extraer un pixel que no es plano ni de borde según otro criterio.
La unidad de cálculo de luminancia promedio 320 calcula AVEy de pixeles que no son planos ni de borde extraídos por la unidad de extracción de pixel plano y de borde 318. Aunque en la presente memoria se explica un ejemplo en el que la unidad de cálculo de luminancia promedio 320 calcula AVEY de pixeles que no son planos ni de borde extraídos por la unidad de extracción de pixel plano y de borde 318, este no es el único ejemplo. La unidad de cálculo de luminancia promedio 320 puede calcular AVEy para una trama incluida en una imagen en movimiento introducida a través de la unidad de entrada de imagen 110.
La unidad de cálculo de saturación promedio 322 calcula AVEs de pixeles que no son planos ni de borde extraídos por la unidad de extracción de pixel plano y de borde 318. Aunque en la presente memoria se explica un ejemplo en el que la unidad de cálculo de saturación promedio 322 calcula AVEs de pixeles que no son planos ni de borde extraídos por la unidad de extracción de pixel plano y de borde 318, este no es el único ejemplo. La unidad de cálculo de saturación promedio 322 puede calcular AVEs para una trama incluida en una imagen en movimiento introducida a través de la unidad de entrada de imagen 110.
La unidad de procesamiento de valoración 324 ejecuta un proceso de valoración para valorar si se incluye o no un cambio de escena en una imagen en movimiento introducida a través de la unidad de entrada de imagen 110. La unidad de procesamiento de valoración 324 genera un indicador de cambio de escena indicativo de si una trama es una trama en la que ocurre un cambio de escena para extraer el indicador de cambio de escena a la unidad de ajuste de parámetro de eliminación de niebla 360.
La unidad de procesamiento de valoración 324 puede valorar si se incluye o no un cambio de escena en una imagen en movimiento en base a diferentes criterios dependiendo de si una tasa de pixel de saturación elevada medida por la unidad de medición de tasa de pixel de saturación elevada 316 es mayor que un umbral predeterminado o no.
5
10
15
20
25
30
35
40
45
50
55
La unidad de procesamiento de valoración 324 puede valorar si se incluye o no un cambio de escena en una imagen en movimiento en base al matiz de una trama y al matiz de una trama pasada de la una trama cuando la tasa de pixel de saturación elevada de la una trama medida por la unidad de medición de tasa de pixel de saturación elevada 316 es mayor que un umbral predeterminado. La trama pasada de la una trama es, por ejemplo, una trama previa a la una trama.
Específicamente, la unidad de procesamiento de valoración 324 puede valorar si se incluye o no un cambio de escena en una imagen en movimiento en base a una SDA (Suma de Diferencia Absoluta) (denominada HISTMatSDA en algunos casos) de HISTMat de la una trama generada por la unidad generadora de histograma de matiz 314 y un histograma de matiz de una trama pasada de la una trama (denominado HISTMat_dl en algunos casos).
Por ejemplo, la unidad de procesamiento de valoración 324 valora si la una trama no es una trama en la que ocurre un cambio de escena cuando: HISTMatSDA es menor que un quinto umbral; un valor de diferencia absoluta entre AVEy de la una trama y un valor de luminancia promedio de una trama pasada de la una trama (denominado AVEY_dl en algunos casos) es menor que un sexto umbral; y un valor de diferencia absoluta entre AVEs de la una trama y un valor de saturación promedio de una trama pasada de la una trama (denominado AVEs_dl en algunos casos) es menor que un séptimo umbral. En otros casos, la unidad de procesamiento de valoración 324 valora que la una trama es una trama en la que ocurre un cambio de escena. Cuando se ha valorado que la una trama no es una trama en la que ocurre un cambio de escena, la unidad de procesamiento de valoración 324 puede establecer un indicador de cambio de escena de la una trama a Falso. Cuando se ha valorado que la una trama es una trama en la que ocurre un cambio de escena, la unidad de procesamiento de valoración 324 puede establecer un indicador de cambio de escena de la una trama a Verdadero.
La unidad de procesamiento de valoración 324 puede valorar si se incluye o no un cambio de escena en una imagen en movimiento en base a la TasaSatElev de una trama y a una tasa de pixel de saturación elevada de una trama pasada de la una trama (denominada TasaSatElev_dl en algunos casos) cuando la tasa de pixel de saturación elevada de la una trama medida por la unidad de medición de tasa de pixel de saturación elevada 316 es igual o menor que un umbral predeterminado.
Por ejemplo, la unidad de procesamiento de valoración 324 valora que la una trama no es una trama en la que ocurre un cambio de escena cuando: un valor de diferencia absoluta entre TasaSatElev y TasaSatElev_dl es menor que un octavo umbral; un valor de diferencia absoluta entre AVEy y AVEY_dl es menor que el sexto umbral; y un valor de diferencia absoluta entre AVEs y AVEs_dl es menor que el séptimo umbral. En otros casos, la unidad de procesamiento de valoración 324 valora que la una trama es una trama en la que ocurre un cambio de escena.
La Figura 8 muestra de forma esquemática un ejemplo de una configuración funcional de la unidad de estimación de fiabilidad de niebla 330. La unidad de estimación de fiabilidad de niebla 330 incluye una unidad de extracción de pixel plano y de borde 332, una unidad de cálculo de luminancia promedio 334, una unidad de extracción de pixel de saturación elevada 336, una unidad de medición de tasa de pixel de saturación elevada 338, una unidad de adquisición de valor estimado de profundidad de niebla 340 y una unidad de cálculo de fiabilidad 342.
La unidad de extracción de pixel plano y de borde 332 extrae un pixel que no es plano ni de borde de una trama de entre una pluralidad de tramas incluidas en una imagen en movimiento introducida a través de la unidad de entrada de imagen 110. La unidad de extracción de pixel plano y de borde 332 puede extraer un pixel que no es plano ni de borde de una manera similar a la unidad de extracción de pixel plano y de borde 202. En este caso, la unidad de extracción de pixel plano y de borde 332 puede extraer un pixel que no es plano ni de borde según el primer criterio, puede extraer un pixel que no es plano ni de borde según el segundo criterio, o puede extraer un pixel que no es plano ni de borde según otro criterio.
La unidad de cálculo de luminancia promedio 334 calcula AVEy de pixeles que no son planos ni de borde extraídos por la unidad de extracción de pixel plano y de borde 332. Aunque en la presente memoria se explica un ejemplo en el que la unidad de cálculo de luminancia promedio 334 calcula AVEy de pixeles que no son planos ni de borde extraídos por la unidad de extracción de pixel plano y de borde 332, este no es el único ejemplo. La unidad de cálculo de luminancia promedio 334 puede calcular AVEy para una trama incluida en una imagen en movimiento introducida a través de la unidad de entrada de imagen 110.
La unidad de extracción de pixel de saturación elevada 336 extrae un pixel de saturación elevada de una trama de entre una pluralidad de tramas incluidas en una imagen en movimiento introducida a través de la unidad de entrada de imagen 110. La unidad de extracción de pixel de saturación elevada 336 puede extraer, de pixeles respectivos incluidos en una trama, un pixel en el que una diferencia entre el valor máximo y el valor mínimo de un componente R, un componente G y un componente B es igual o mayor que un umbral predeterminado como un pixel de saturación elevada.
La unidad de medición de tasa de pixel de saturación elevada 338 mide la TasaSatElev en una trama. La unidad de adquisición de valor estimado de profundidad de niebla 340 adquiere la Intensidad extraída por la unidad de estimación de profundidad de niebla 200.
5
10
15
20
25
30
35
40
45
50
55
Según el AVEy calculado por la unidad de cálculo de luminancia promedio 334 y la TasaSatElev medida por la unidad de medición de tasa de pixel de saturación elevada 338, la unidad de cálculo de fiabilidad 342 calcula la fiabilidad de la Intensidad adquirida por la unidad de adquisición de valor estimado de profundidad de niebla 340 para extraer la fiabilidad a la unidad de ajuste de parámetro de eliminación de niebla 360. La unidad de cálculo de fiabilidad 342 puede ser un ejemplo de unidad de derivación de fiabilidad que deriva la fiabilidad de la Intensidad en base a AVEy y a la TasaSatElev. La unidad de cálculo de fiabilidad 342 puede calcular la fiabilidad de la Intensidad en base a diferentes criterios dependiendo de si la Intensidad adquirida por la unidad de adquisición de valor estimado de profundidad de niebla 340 es mayor que un umbral predeterminado o no.
La unidad de cálculo de fiabilidad 342 puede calcular una fiabilidad mayor a medida que AVEy aumenta y calcular una fiabilidad mayor a medida que la TasaSatElev disminuye cuando la Intensidad adquirida por la unidad de adquisición de valor estimado de profundidad de niebla 340 es mayor que un umbral predeterminado. Asimismo, la unidad de cálculo de fiabilidad 342 puede calcular una fiabilidad mayor a medida que AVEy disminuye y calcular una fiabilidad mayor a medida que la TasaSatElev aumenta cuando la Intensidad adquirida por la unidad de adquisición de valor estimado de profundidad de niebla 340 es igual o menor que un umbral predeterminado.
En un ejemplo específico de un proceso de cálculo de fiabilidad, primero, la unidad de cálculo de fiabilidad 342 pondera respectivamente la Intensidad adquirida por la unidad de adquisición de valor estimado de profundidad de niebla 340, el AVEy calculada por la unidad de cálculo de luminancia promedio 334 y la TasaSatElev medida por la unidad de medida de tasa de pixel de saturación elevada 338.
La unidad de cálculo de fiabilidad 342, por ejemplo, pondera la Intensidad y la TasaSatElev de manera que sus valores aumenten aún más a medida que los valores aumentan y que sus valores disminuyan aún más a medida que los valores disminuyan. Asimismo, la unidad de cálculo de fiabilidad 342, por ejemplo, pondera AVEy de manera que su valor disminuye aún más a medida que el valor aumenta y que su valor aumente aún más a medida que el valor disminuye. Se puede hacer referencia a la Intensidad ponderada como IntensidadPonderada en algunos casos. Se puede hacer referencia al AVEy ponderado como AVEYPonderado en algunos casos. Se puede hacer referencia a la TasaSatElev ponderada como TasaSatElevPonderada en algunos casos.
A continuación, la unidad de cálculo de fiabilidad 342 trata un AVEYPonderado y una TasaSatElevPonderada más amplios como EvalMáx. A continuación, la unidad de cálculo de fiabilidad 342 calcula un valor de diferencia absoluta entre EvalMáx e IntensidadPonderada como la fiabilidad de un valor estimado de profundidad de niebla.
La Figura 9 muestra de forma esquemática un ejemplo de un gráfico de ponderación 352. El gráfico de ponderación 352 muestra un ejemplo de valores de ponderación a utilizar por la unidad de cálculo de fiabilidad 342 al ponderar la Intensidad. Al ponderar la Intensidad según el gráfico de ponderación 352, la unidad de cálculo de fiabilidad 342 puede realizar una ponderación de manera que la Intensidad aumente aún más a medida que su valor aumenta, y que la Intensidad disminuya aún más a medida que su valor disminuye. El gráfico de ponderación 352 puede ser utilizado por la unidad de cálculo de fiabilidad 342 al ponderar la TasaSatElev.
La Figura 10 muestra de forma esquemática un ejemplo de un gráfico de ponderación 354. El gráfico de ponderación 354 muestra un ejemplo de valores de ponderación a utilizar por la unidad de cálculo de fiabilidad 342 al ponderar AVEy. Al ponderar AVEy según el gráfico de ponderación 354, la unidad de cálculo de fiabilidad 342 puede realizar una ponderación de manera que AVEy disminuya aún más a medida que su valor aumenta, y que AVEy aumente aún más a medida que su valor disminuya.
La Figura 11 muestra de forma esquemática un ejemplo de una configuración funcional de la unidad de ajuste de parámetro de eliminación de niebla 360. La unidad de ajuste de parámetro de eliminación de niebla 360 incluye una unidad de cálculo de valor meta de profundidad de niebla 362 y una unidad de ajuste de parámetro 364.
La unidad de cálculo de valor meta de profundidad de niebla 362 calcula un valor meta de profundidad de niebla (denominado ProfundidadMeta en algunos casos) para una trama. La ProfundidadMeta es indicativa de un parámetro de eliminación de niebla en el que una profundidad de niebla debe converger cuando no cambian los contenidos de una trama y de una pluralidad de tramas que siguen a la una trama.
La unidad de cálculo de valor meta de profundidad de niebla 362 puede utilizar la ProfundidadMeta establecida al momento de una trama pasada de una trama (denominada ProfundidadMeta_dl en algunos casos) como ProfundidadMeta de la una trama cuando la unidad de estimación de fiabilidad de niebla 330 valora que en la una trama un valor estimado de profundidad de niebla de la una trama no es fiable. La unidad de estimación de fiabilidad de niebla 330, por ejemplo, valora que un valor estimado de profundidad de niebla de una trama no es fiable cuando la fiabilidad del valor estimado es menor que un umbral predeterminado.
La unidad de cálculo de valor meta de profundidad de niebla 362 puede determinar la ProfundidadMeta de la una trama en base a: la ProfundidadMeta de una trama pasada de la una trama (ProfundidadMeta_dl); la Intensidad para la una trama recibida de la unidad de estimación de profundidad de niebla 200; la fiabilidad de la Intensidad recibida de la unidad de cálculo de fiabilidad 342; y un indicador de cambio de escena para la una trama recibida de la unidad de procesamiento de valoración 324.
5
10
15
20
25
30
35
40
45
50
55
60
Por ejemplo, primero, la unidad de cálculo de valor meta de profundidad de niebla 362 calcula un valor de diferencia absoluta (denominado ProfundidadDif en algunos casos) entre la Intensidad y ProfundidadMeta_dl. A continuación, la unidad de cálculo de valor meta de profundidad de niebla 362 utiliza la Intensidad como ProfundidadMeta cuando la ProfundidadDif es mayor que un noveno umbral y la fiabilidad de la Intensidad es mayor que un décimo umbral, y cuando el indicador de cambio de escena es Verdadero. En otros casos, la unidad de cálculo de valor meta de profundidad de niebla 362 utiliza la ProfundidadMeta_dl como Profundidad_Meta. Otros casos pueden ser un caso en que se establece un indicador de cambio de escena como Falso, y la ProfundidadDif es menor que el noveno umbral, o que la fiabilidad de la Intensidad es menor que el décimo umbral.
La unidad de ajuste de parámetro 364 ajusta un parámetro a utilizar en un proceso de eliminación de niebla de una trama (denominado IntensidadEliminaciónNiebla en algunos casos) de manera que esté más próximo, paso a paso, a un valor correspondiente a la Intensidad o ProfundidadMeta_dl determinada como ProfundidadMeta de la una trama por la unidad de cálculo de valor meta de profundidad de niebla 362. Por lo tanto, la Intensidad de la eliminación de niebla se puede cambiar paso a paso sobre una pluralidad de tramas.
La unidad de ajuste de parámetro 364 puede ajustar la IntensidadEliminaciónNiebla en base a la ProfundidadMeta determinada por la unidad de cálculo de valor meta de profundidad de niebla 362 y a una relación entre la una trama y una trama pasada de la una trama. La unidad de ajuste de parámetro 364 puede ajustar la IntensidadEliminaciónNiebla de manera que el parámetro ajustado en una trama pasada de la una trama esté próximo, paso a paso, a la ProfundidadMeta determinada por la unidad de cálculo de valor meta de profundidad de niebla 362. La unidad de ajuste de parámetro 364 puede cambiar el espaciado de los pasos en los que la IntensidadEliminaciónNiebla se vuelve más próxima, paso por paso, a la ProfundidadMeta en base a si la una trama es una trama en la que ocurre un cambio de escena o no. Por ejemplo, la unidad de ajuste de parámetro 364 aumenta el espaciado de pasos en los que la IntensidadEliminaciónNiebla se vuelve más próxima, paso por paso, a la ProfundidadMeta cuando un indicador de cambio de escena se establece como Verdadero, es decir, cuando la unidad de valoración de cambio de escena 310 valora que la una trama es una trama en la que ocurre un cambio de escena. Por lo tanto, la intensidad de eliminación de niebla se puede aumentar en el caso en que la una trama es una trama en la que ocurre un cambio de escena en comparación con el caso en que la una trama no es una trama en la que ocurre un cambio de escena.
La unidad de ajuste de parámetro 364 puede ajustar la IntensidadEliminaciónNiebla con una cantidad de ajuste correspondiente a: un valor de diferencia absoluta (denominado IntensidadDif en algunos casos) entre la ProfundidadMeta determinada por la unidad de cálculo de valor meta de profundidad de niebla 362 y un parámetro utilizado en un proceso de eliminación de niebla de una trama pasada de la una trama (denominado IntensidadEliminaciónNiebla_dl en algunos casos); la fiabilidad de Intensidad; y un indicador de cambio de escena de manera que se vuelva más próximo, paso a paso, a un valor correspondiente a la Intensidad o a la ProfundidadMeta_dl determinada como ProfundidadMeta de la una trama por la unidad de cálculo de valor meta de profundidad de niebla 362.
Por ejemplo, cuando el indicador de cambio de escena es Verdadero, la unidad de ajuste de parámetro 364 ajusta la IntensidadEliminaciónNiebla con una primera cantidad de ajuste de manera que se vuelve más próxima, paso por paso, a un valor correspondiente a la Intensidad o a la ProfundidadMeta_dl determinada como ProfundidadMeta de la una trama por la unidad de cálculo de valor meta de profundidad de niebla 362. Asimismo, cuando el indicador de cambio de escena es Falso, la IntensidadDif es mayor que un undécimo umbral, y la fiabilidad de la Intensidad es mayor que un duodécimo umbral, la unidad de ajuste de parámetro 364 ajusta la IntensidadEliminaciónNiebla con una segunda cantidad de ajuste de manera que se vuelve más próxima, paso por paso, a un valor correspondiente a la Intensidad o ProfundidadMeta_dl determinada como ProfundidadMeta de la una trama. Asimismo, en otros casos, la unidad de ajuste de parámetro 364 ajusta la IntensidadEliminaciónNiebla con una tercera cantidad de ajuste de manera que se vuelve más próxima, paso por paso, a un valor correspondiente a la Intensidad o la ProfundidadMeta_dl determinada como ProfundidadMeta de la una trama. Otros casos pueden ser un caso en que se establece un indicador de cambio de escena como Falso, y la IntensidadDif es menor que el undécimo umbral, o que la fiabilidad de la Intensidad es menor que el duodécimo umbral. En la presente memoria, la primera cantidad de ajuste es más amplia que la segunda cantidad de ajuste y la tercera cantidad de ajuste, y la segunda cantidad de ajuste es más amplia que la tercera cantidad de ajuste.
Tal y como se describe anteriormente, en base a la fiabilidad de la Intensidad y a un valor de diferencia absoluta entre la Intensidad y la ProfundidadMeta_dl, o el indicador de cambio de escena, la unidad de cálculo de valor meta de profundidad de niebla 362 puede determinar cuál, ProfundidadMeta_dl o Intensidad, se ha de utilizar para ajustar un parámetro a utilizar en un proceso de eliminación de niebla.
La unidad de cálculo de valor meta de profundidad de niebla 362 que adquiere ProfundidadMeta_dl puede ser un ejemplo de una unidad de adquisición de valor meta. Asimismo, la unidad de cálculo de valor meta de profundidad de niebla 362 puede ser un ejemplo de unidad de derivación de valor de diferencia absoluta que calcula un valor de diferencia absoluta entre Intensidad y ProfundidadMeta_dl. Asimismo, la unidad de cálculo de valor meta de profundidad de niebla 362 puede ser un ejemplo de una unidad de determinación de valor meta que determina la ProfundidadMeta para la una trama.
5
10
15
20
25
30
35
40
45
La Figura 12 muestra de forma esquemática un ejemplo de una configuración funcional de la unidad de eliminación de niebla 400. La unidad de eliminación de niebla 400 incluye una unidad de separación de luz de iluminación 402, una unidad de adquisición de parámetro 410, una unidad de procesamiento de eliminación 420 y una unidad de sintetización 426.
La unidad de separación de luz de iluminación 402 separa un componente de luz de iluminación Il de una imagen I introducida a través de la unidad de entrada de imagen 110. La unidad de separación de luz de iluminación 402 puede realizar cualquier proceso siempre que pueda separar el componente de luz de iluminación Il de la imagen I.
Por ejemplo, la unidad de separación de luz de iluminación 402 utiliza un filtro de paso bajo de preservación del borde para separar el componente de luz de iluminación IL de la imagen I. Un filtro de paso bajo de preservación del borde es un filtro que suaviza a la vez que preserva los bordes. La unidad de separación de luz de iluminación 402 utiliza, por ejemplo, un filtro bilateral como el filtro de paso bajo de preservación del borde. La unidad de separación de luz de iluminación 402 puede extraer el componente de luz de iluminación Il y la imagen I a la unidad de adquisición de parámetro 410.
La unidad de adquisición de parámetro 410 adquiere un parámetro a utilizar en la eliminación de niebla. La unidad de adquisición de parámetro 410 tiene una unidad de cálculo de luminosidad 412, una unidad de cálculo de transmisividad 414 y una unidad de adquisición de valor estimado de profundidad de niebla 416.
La unidad de cálculo de luminosidad 412 calcula una luminosidad A de la imagen I. La unidad de cálculo de luminosidad 412 puede realizar cualquier proceso siempre que pueda calcular la luminosidad A de la imagen I. Por ejemplo, la unidad de cálculo de luminosidad 412 primero calcula el valor mínimo de RGB de cada pixel de la imagen I y de los pixeles circundantes de la misma. A continuación, la unidad de cálculo de luminosidad 412 extrae, de la imagen I, pixeles cuyos valores mínimos calculados están incluidos en el primer 0,1 % de ellos. A continuación, la unidad de cálculo de luminosidad 412 trata, como la luminosidad A, el valor de un pixel que presenta la luminosidad más alta de entre los pixeles extraídos.
La unidad de cálculo de transmisividad 414 calcula una transmisividad t correspondiente a la profundidad de niebla de cada pluralidad de pixeles de una imagen introducida a través de la unidad de entrada de imagen 110. La unidad de cálculo de transmisividad 414 puede ser un ejemplo de una unidad de derivación de transmisividad. La unidad de cálculo de transmisividad 414 puede realizar cualquier proceso siempre que pueda calcular la transmisividad t. Por ejemplo, la unidad de cálculo de transmisividad 414 calcula la transmisividad t en base a un canal oscuro previo (denominado DCP, por su sigla en inglés, en algunos casos) expresado por la Ecuación 2.
[Ecuación 2]
DCP(x) = mín ( mín (íc(y))')
cerjB,b Veíiur
IC es un canal de color de I, y Q(x) es una región local que tiene su centro en x.
La unidad de cálculo de transmisividad 414 puede calcular la transmisividad t a partir del valor de DCP según la suposición de que DCP en la Ecuación 2 expresa la transmisividad t. Por ejemplo, la unidad de cálculo de transmisividad 414 puede calcular la transmisividad t con la Ecuación 3.
[Ecuación 3]
t(x) = 1 — armín
imagen1
La unidad de adquisición de valor estimado de profundidad de niebla 416 adquiere la Intensidad extraída por la unidad de estimación de profundidad de niebla 200.
La unidad de adquisición de parámetro 410 extrae, a la unidad de procesamiento de eliminación, la imagen I, el componente de luz de iluminación IL, la luminosidad A calculada por la unidad de cálculo de luminosidad 412, la transmisividad t calculada por la unidad de cálculo de transmisividad 414, y la Intensidad adquirida por la unidad de adquisición de valor estimado de profundidad de niebla 416.
La unidad de procesamiento de eliminación 420 ejecuta un proceso de eliminación en la imagen I en base a la teoría Retinex expresada por la Ecuación 4 y un modelo atmosférico de una imagen con niebla expresado por la Ecuación 5.
[Ecuación 4]
Imagen introducida I = Luz de iluminación L X Reflectancia R [Ecuación 5]
Imagen introducida I(x) = Imagen original J(x) X Transmisividad t (x) + Luminosidad A (1 Transmisividad t(x))
La modificación de la Ecuación 5 da lugar a la Ecuación 6.
[Ecuación 6]
imagen2
5 Al aplicar la teoría Retinex a la Ecuación 6 y al expresar elementos respectivos con los productos del componente de reflectancia y el componente de luz de iluminación, se obtiene la Ecuación (7).
imagen3
En el presente documento, según la suposición de que aproximadamente pocos o ningún componente de reflectancia se incluye en la luminosidad, la unidad de procesamiento de eliminación 420 puede utilizar el modelo 10 atmosférico de una imagen con niebla y la teoría Retinex para ejecutar un proceso de eliminación de niebla. Por ejemplo, cuando se supone que se incluyen muy pocos componentes reflectantes en la luminosidad, se puede considerar que la Ecuación 8 es válida.
imagen4
Asimismo, en una suposición adicional de que el modelo atmosférico se puede aplicar solo a respectivos 15 componentes de luz de iluminación de la luminosidad, la imagen original y la imagen introducida, la unidad de procesamiento de eliminación 420 puede utilizar el modelo atmosférico de una imagen con niebla y la teoría Retinex para ejecutar un proceso de eliminación de niebla. Según una suposición tal, la Ecuación 9 es válida.
imagen5
Al aplicar la Ecuación 8 y la Ecuación 9 a la Ecuación 7, se obtiene la Ecuación 10.
imagen6
imagen7
(1 - t) Ax 1 - t ) A
Según la Ecuación 10, se puede derivar que cuando Ir es mayor que 1, el valor de Jr se vuelve mayor que Ir, y cuando Ir es menor que 1, el valor de Jr se vuelve menor que Ir.
Al utilizar la Ecuación 9 y la Ecuación 10, la unidad de procesamiento de eliminación 420 puede realizar un proceso
14
5
10
15
20
25
30
35
40
45
50
55
60
de eliminación de niebla en grados mutuamente diferentes de eliminación de niebla en un componente de reflectancia y en un componente de luz de iluminación. Por ejemplo, la unidad de procesamiento de eliminación 420 puede hacer que los grados de eliminación de niebla sean diferentes al hacer que las transmisividades t en la Ecuación 9 y la Ecuación 10 sean diferentes. Asimismo, la unidad de procesamiento de eliminación 420 puede hacer que los grados de eliminación de niebla sean diferentes al ponderar los resultados de la Ecuación 9 y la Ecuación 10 de forma diferente.
La unidad de procesamiento de eliminación 420 tiene una unidad de procesamiento de componente de luz de iluminación 422 y una unidad de procesamiento de componente de reflectancia 424. La unidad de procesamiento de componente de luz de iluminación 422 realiza un proceso de eliminación de niebla en un componente de luz de iluminación de una imagen. La unidad de procesamiento de componente de reflectancia 424 realiza un proceso de eliminación de niebla en un componente de reflectancia de una imagen.
La unidad de procesamiento de componente de luz de iluminación 422 puede utilizar la IntensidadEliminaciónNiebla recibida de la unidad de ajuste de parámetro 364 para ejecutar un proceso de eliminación de niebla. Por ejemplo, la unidad de procesamiento de componente de luz de iluminación 422 puede utilizar el componente de luz de iluminación Il, la luminosidad A, la transmisividad t, la IntensidadEliminaciónNiebla y la Ecuación 9 para calcular el componente de luz de iluminación JL sobre el cual se ha realizado el proceso de eliminación de niebla. La unidad de procesamiento de componente de luz de iluminación 422 puede utilizar la IntensidadEliminaciónNiebla para ajustar la transmisividad t. Asimismo, la unidad de procesamiento de componente de luz de iluminación 422 puede utilizar la IntensidadEliminaciónNiebla en vez de la transmisividad t. Asimismo, la unidad de procesamiento de componente de luz de iluminación 422 puede utilizar un valor en base a la IntensidadEliminaciónNiebla en vez de la transmisividad t. Cuando la unidad de procesamiento de componente de luz de iluminación 422 utiliza la IntensidadEliminaciónNiebla recibida de la unidad de ajuste de parámetro 364 para ejecutar un proceso de eliminación de niebla, no es necesario que la unidad de adquisición de parámetro 410 tenga la unidad de adquisición de valor estimado de profundidad de niebla 416. Asimismo, la unidad de adquisición de valor estimado de profundidad de niebla 416 puede recibir la IntensidadEliminaciónNiebla de la unidad de ajuste de parámetro 364, y transmitir la IntensidadEliminaciónNiebla recibida a la unidad de procesamiento de eliminación 420.
Cuando se introduce una imagen fija a través de la unidad de entrada de imagen 110, cuando el sistema de procesamiento de imágenes 100 no incluye la unidad de control de escena 300, o en otros casos, la unidad de procesamiento de componente de luz de iluminación 422 puede utilizar el componente de luz de iluminación Il, la luminosidad A, la transmisividad t y la Intensidad recibida de la unidad de adquisición de parámetro 410 y la Ecuación 9 para calcular el componente de luz de iluminación JL sobre el cual se ha realizado un proceso de eliminación de niebla. La unidad de procesamiento de componente de luz de iluminación 422 puede aplicar la Intensidad a la transmisividad t para calcular el componente de luz de iluminación Jl. Por ejemplo, la unidad de procesamiento de componente de luz de iluminación 422 multiplica la transmisividad t con la Intensidad. Asimismo, por ejemplo, la unidad de procesamiento de componente de luz de iluminación 422 puede ponderar la transmisividad t según el valor de la Intensidad. Por lo tanto, se puede realizar un proceso de eliminación de niebla mucho más preciso utilizando la Intensidad estimada por la unidad de estimación de profundidad de niebla 200.
La unidad de procesamiento de componente de reflectancia 424 puede calcular el componente de reflectancia Ir de la imagen I y el componente de iluminación de luz Il recibido de la unidad de adquisición de parámetro 410. La unidad de procesamiento de componente de reflectancia 424 puede utilizar la IntensidadEliminaciónNiebla recibida de la unidad de ajuste de parámetro 364 para ejecutar un proceso de eliminación de niebla. Por ejemplo, la unidad de procesamiento de componente de reflectancia 424 puede utilizar el componente de luz de iluminación Il, el componente de reflectancia Ir, la transmisividad t, la IntensidadEliminaciónNiebla y la Ecuación 10 para calcular el componente de reflectancia JR sobre el cual se ha realizado un proceso de eliminación de niebla. La unidad de procesamiento componente de reflectancia 424 puede utilizar la IntensidadEliminaciónNiebla para ajustar la transmisividad t. Asimismo, la unidad de procesamiento de componente de reflectancia 424 puede utilizar la IntensidadEliminaciónNiebla en vez de la transmisividad t. Asimismo, la unidad de procesamiento de componente de reflectancia 424 puede utilizar un valor en base a la IntensidadEliminaciónNiebla en vez de la transmisividad t. Cuando la unidad de procesamiento de componente de reflectancia 424 utiliza la IntensidadEliminaciónNiebla recibida de la unidad de ajuste de parámetro 364 para ejecutar un proceso de eliminación de niebla, no es necesario que la unidad de adquisición de parámetro 410 tenga la unidad de adquisición de valor estimado de profundidad de niebla 416. Asimismo, la unidad de adquisición de valor estimado de profundidad de niebla 416 puede recibir la IntensidadEliminaciónNiebla de la unidad de ajuste de parámetro 364, y transmitir la IntensidadEliminaciónNiebla recibida a la unidad de procesamiento de eliminación 420.
Cuando se introduce una imagen fija a través de la unidad de entrada de imagen 110, cuando el sistema de procesamiento de imágenes 100 no incluye la unidad de control de escena 300, o en otros casos, la unidad de procesamiento de componente de reflectancia 424 puede utilizar el componente de luz de iluminación Il, el componente de reflectancia Ir, la transmisividad t, la Intensidad y la Ecuación 10 para calcular JR sobre el cual se ha realizado un proceso de eliminación de niebla. La unidad de procesamiento de componente de reflectancia 424 puede aplicar la Intensidad a la transmisividad t para calcular Jr. Por ejemplo, la unidad de procesamiento de componente de reflectancia 424 multiplica la transmisividad t con la Intensidad. Asimismo, por ejemplo, la unidad de
5
10
15
20
25
30
35
40
45
50
55
procesamiento de componente de reflectancia 424 puede ponderar la transmisividad t según el valor de la Intensidad. Por lo tanto, se puede realizar un proceso de eliminación de niebla mucho más preciso utilizando la Intensidad estimada por la unidad de estimación de profundidad de niebla 200.
La unidad de sintetización 426 sintetiza el componente de luz de iluminación Jl sobre el cual se ha realizado un proceso de eliminación de niebla por la unidad de procesamiento de componente de luz de iluminación 422, y el componente de reflectancia Jr sobre el cual se ha realizado un proceso de eliminación de niebla por la unidad de procesamiento de componente de reflectancia 424. La unidad de sintetización 426 genera una imagen de salida J mediante la sintetización de Jl y Jr. La imagen de salida J generada por la unidad de sintetización 426 puede ser visualizada por la unidad de visualización 120.
Aunque en la presente realización, se explica un ejemplo en el que el sistema de procesamiento de imágenes 100 es un dispositivo de visualización que incluye la unidad de estimación de profundidad de niebla 200, la unidad de control de escena 300 y la unidad de eliminación de niebla 400, este no es el único ejemplo. El sistema de procesamiento de imágenes 100 puede ser un dispositivo de visualización que incluye al menos uno de entre la unidad de estimación de profundidad de niebla 200, la unidad de control de escena 300 y la unidad de eliminación de niebla 400.
Asimismo, el sistema de procesamiento de imágenes 100 puede ser un dispositivo de visualización que incluye solo la unidad de valoración de cambio de escena 310 de entre la unidad de valoración de cambio de escena 310, la unidad de estimación de fiabilidad de niebla 330, y la unidad de ajuste de parámetro de eliminación de niebla 360 que están incluidas en la unidad de control de escena 300. Asimismo, el sistema de procesamiento de imágenes 100 puede ser un dispositivo de visualización que incluye solo la unidad de estimación de fiabilidad de niebla 330. En este caso, la unidad de adquisición de valor estimado de profundidad de niebla 340 puede adquirir no la Intensidad extraída por la unidad de estimación de profundidad de niebla 200, sino un valor estimado de profundidad de niebla estimado por otro aparato o similar.
Asimismo, el sistema de procesamiento de imágenes 100 puede ser un dispositivo de visualización que incluye solo la unidad de eliminación de niebla 400 de entre la unidad de estimación de profundidad de niebla 200, la unidad de control de escena 300 y la unidad de eliminación de niebla 400. En este caso, la unidad de adquisición de valor estimado de profundidad de niebla 416 puede adquirir no la Intensidad extraída por la unidad de estimación de profundidad de niebla 200, sino un valor estimado de profundidad de niebla estimado por otro aparato o similar.
Asimismo, aunque en la presente realización, se ha explicado un ejemplo en el que el sistema de procesamiento de imágenes 100 es un dispositivo de visualización, este no es el único ejemplo. Puede ser otro tipo de aparato siempre que sea un aparato que procese una imagen. Por ejemplo, el sistema de procesamiento de imágenes 100 puede ser un teléfono móvil, como un teléfono inteligente, un terminal tableta, un ordenador personal, un dispositivo de información, o similar. Asimismo, el sistema de procesamiento de imágenes 100 puede ser un aparato que no tenga una unidad de visualización 120, pero que permita una unidad de visualización externa para visualizar una imagen.
En la explicación anterior, cada unidad del sistema de procesamiento de imágenes 100 puede llevarse a cabo mediante hardware, o puede llevarse a cabo mediante software. Asimismo, se pueden llevar a cabo mediante combinaciones de hardware y software. Asimismo, la ejecución de un programa puede permitir que un ordenador funcione como el sistema de procesamiento de imágenes 100. El programa se puede instalar, a partir de un medio legible por ordenador o un almacenamiento conectado a una red, en el ordenador que constituye al menos parte del sistema de procesamiento de imágenes 100.
Los programas que están instalados en el ordenador y que hacen que el ordenador funcione como el sistema de procesamiento de imágenes 100 según la presente realización pueden funcionar en un CPU o similar para hacer, respectivamente, que el ordenador funcione como respectivas unidades del sistema de procesamiento de imágenes 100. El procesamiento de información descrito en estos programas se lee mediante el ordenador para funcionar como un medio específico realizado mediante cooperación entre recursos de software y hardware del sistema de procesamiento de imágenes 100.
Explicación de los símbolos de referencia
100: sistema de procesamiento de imágenes; 110: unidad de entrada de imagen; 120: unidad de visualización; 200: unidad de estimación de profundidad de niebla; 202: unidad de extracción de pixel plano y de borde; 204: unidad de cálculo de luminancia promedio; 206: unidad de cálculo de saturación promedio; 208: unidad de cálculo de contraste; 210: unidad de adquisición de saturación máxima; 212: unidad de adquisición de ponderación; 214: unidad de cálculo de profundidad de niebla; 216: unidad de valoración de pantalla herramienta; 218: selector; 230: pixel de interés; 240: gráfico de ponderación; 242: gráfico de ponderación; 300: unidad de control de escena; 310: unidad de valoración de cambio de escena; 312: unidad de extracción de pixel de saturación elevada; 314: unidad de generación de histograma de matiz; 316: unidad de medición de tasa de pixel de saturación elevada (unidad de derivación de tasa de pixel de saturación elevada); 318: unidad de extracción de pixel plano y de borde; 320: unidad de cálculo de luminancia promedio; 322: unidad de cálculo de saturación promedio; 324: unidad de procesamiento de valoración (unidad de valoración de cambio de escena); 330: unidad de estimación de fiabilidad de niebla; 332:
unidad de extracción de pixel plano y de borde; 334: unidad de cálculo de luminancia promedio; 336: unidad de extracción de pixel de saturación elevada; 338: unidad de medición de tasa de pixel de saturación elevada; 340: unidad de adquisición de valor estimado de profundidad de niebla; 342: unidad de cálculo de fiabilidad (unidad de derivación de fiabilidad); 352: gráfico de ponderación; 354: gráfico de ponderación; 360: unidad de ajuste de 5 parámetro de eliminación de niebla; 362: unidad de cálculo de valor meta de profundidad de niebla (unidad de adquisición de valor meta, unidad de determinación de valor meta, unidad de derivación de valor de diferencia absoluta); 364: unidad de ajuste de parámetro; 400: unidad de eliminación de niebla; 402: unidad de separación de luz de iluminación; 410: unidad de adquisición de parámetro; 412: unidad de cálculo de luminosidad; 414: unidad de cálculo de transmisividad; 416: unidad de adquisición de valor estimado de profundidad de niebla; 420: unidad de 10 procesamiento de eliminación; 422: unidad de procesamiento de componente de luz de iluminación; 424: unidad de procesamiento de componente de reflectancia; 426: unidad de sintetización.

Claims (9)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    REIVINDICACIONES MODIFICADAS
    1. Un sistema de procesamiento de imágenes que elimina una niebla incluida en una imagen que comprende:
    una unidad de extracción de pixel de saturación de color elevada (312) que extrae, de una trama de entre una pluralidad de tramas incluidas en un imagen en movimiento, un pixel de saturación de color elevada que tiene una saturación de color más elevada que un umbral predeterminado;
    una unidad de derivación de tasa de pixel de saturación de color elevada (318) que deriva una tasa de pixel de saturación de color elevada indicativa de un porcentaje de los pixeles de saturación de color elevada en la una trama; y
    una unidad de valoración de cambio de escena (324) que valora si un cambio de escena se incluye o no en la imagen en movimiento en base a un criterio diferente dependiendo de si la tasa de pixel de saturación de color elevada en la una trama es más elevada que un umbral predeterminado o no, caracterizado por que
    cuando la tasa de pixel de saturación de color elevada es mayor que el umbral, la unidad de valoración de cambio de escena (324) valora si se incluye o no un cambio de escena en la imagen en movimiento en base a un matiz de la una trama y a una matiz de una trama pasada de la una trama, y
    cuando la tasa de pixel de saturación de color elevada es igual o menor que el umbral, la unidad de valoración de cambio de escena (324) valora si se incluye o no un cambio de escena en la imagen en movimiento en base a una tasa de pixel de saturación de color elevada de la una trama y a una tasa de pixel de saturación de color elevada de una trama pasada de la una trama.
  2. 2. El sistema de procesamiento de imágenes según la reivindicación 1, que además comprende:
    una unidad de adquisición de valor estimado de profundidad de niebla (340) que adquiere un valor estimado de profundidad de niebla de la una trama; y
    una unidad de derivación de fiabilidad (342) que deriva una fiabilidad del valor estimado de profundidad de niebla en base a la tasa de pixel de saturación de color elevada en la una trama y a un valor de luminancia promedio de la una trama.
  3. 3. El sistema de procesamiento de imágenes según la reivindicación 2, en donde:
    cuando el valor estimado es más elevado que un umbral predeterminado, la unidad de derivación de fiabilidad (342) deriva una fiabilidad mayor a medida que el valor de luminancia promedio aumenta, y deriva una fiabilidad mayor a medida que la tasa de pixel de saturación de color elevada disminuye, y
    cuando el valor estimado es igual o menor que un umbral predeterminado, la unidad de derivación de fiabilidad (342) deriva una fiabilidad mayor a medida que el valor de luminancia promedio disminuye, y deriva una fiabilidad mayor a medida que la tasa de pixel de saturación de color elevada aumenta.
  4. 4. El sistema de procesamiento de imágenes según la reivindicación 2 o 3, que además comprende:
    una unidad de adquisición de valor meta (362) que adquiere un valor meta de profundidad de niebla de una trama pasada de la una trama; y
    una unidad de determinación de valor meta (362) que determina cuál, el valor meta de profundidad de niebla adquirido por la unidad de adquisición de valor meta (362) o el valor estimado de profundidad de niebla adquirido por la unidad de adquisición de valor estimado de profundidad de niebla (416), se utilizará para ajustar un parámetro a utilizar en un proceso de eliminación de niebla en base a la fiabilidad derivada por la unidad de derivación de fiabilidad (342).
  5. 5. El sistema de procesamiento de imágenes según la reivindicación 4, que comprende además una unidad de derivación de valor de diferencia absoluta (362) que deriva un valor de diferencia absoluta entre un valor meta de profundidad de niebla adquirido por la unidad de adquisición de valor meta (362) y el valor estimado de profundidad de niebla adquirido por la unidad de adquisición de valor estimado de profundidad de niebla (340), en donde
    la unidad de determinación de valor meta (362) determina cual, el valor meta de profundidad de niebla adquirido por la unidad de adquisición de valor meta (362) o el valor estimado de profundidad de niebla adquirido por la unidad de adquisición de valor estimado de profundidad de niebla (340), se ha de utilizar para ajustar un parámetro a utilizar en un proceso de eliminación de niebla en base a una fiabilidad del valor estimado y el valor de diferencia absoluta, o un indicador de cambio de escena indicativo de si la una trama es una trama en la que ocurre un cambio de escena.
  6. 6. El sistema de procesamiento de imágenes según la reivindicación 4 o 5, que además comprende una unidad de ajuste de parámetro (364) que ajusta un parámetro a utilizar en un proceso de eliminación de niebla de la una trama, de manera que sea más próximo, paso a paso, a un valor correspondiente al valor meta de profundidad de niebla o
    el valor estimado de profundidad de niebla determinado por la unidad de determinación de valor meta (362).
  7. 7. El sistema de procesamiento de imágenes según la reivindicación 6, en donde la unidad de ajuste de parámetro (364) ajusta un parámetro a utilizar en un proceso de eliminación de niebla con una cantidad de ajuste correspondiente a: un valor de diferencia absoluta entre el valor meta de profundidad de niebla o el valor estimado
    5 de profundidad de niebla determinado por la unidad de determinación de valor meta (362) y un parámetro utilizado en el proceso de eliminación de niebla de una trama pasada de la una trama; una fiabilidad del valor estimado de profundidad de niebla; y un indicador de cambio de escena indicativo de si la una trama es una trama en la que ocurre un cambio de escena de manera que esté más próximo, paso a paso, a un valor correspondiente al valor meta de profundidad de niebla o al valor estimado de profundidad de niebla determinado por la unidad de 10 determinación de valor meta.
  8. 8. Un programa para hacer que un ordenador funcione como el sistema de procesamiento de imágenes según cualquiera de las reivindicaciones 1 a 7.
  9. 9. Un medio de grabación legible por ordenador que almacena el programa según la reivindicación 8.
ES15807220.7T 2014-06-12 2015-04-27 Sistema de procesamiento de imágenes y medio de grabación legible por ordenador Active ES2681294T3 (es)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
PCT/JP2014/003131 WO2015189874A1 (ja) 2014-06-12 2014-06-12 霧除去装置および画像生成方法
WOPCT/JP2014/003131 2014-06-12
PCT/JP2015/056086 WO2015190136A1 (ja) 2014-06-12 2015-03-02 画像処理システム及びコンピュータ読み取り可能な記録媒体
WOPCT/JP2015/056086 2015-03-02
PCT/JP2015/062728 WO2015190183A1 (ja) 2014-06-12 2015-04-27 画像処理システム及びコンピュータ読み取り可能な記録媒体

Publications (1)

Publication Number Publication Date
ES2681294T3 true ES2681294T3 (es) 2018-09-12

Family

ID=54833008

Family Applications (3)

Application Number Title Priority Date Filing Date
ES14894614T Active ES2727929T3 (es) 2014-06-12 2014-06-12 Dispositivo de eliminación de neblina y método de generación de imágenes
ES15805972T Active ES2712452T3 (es) 2014-06-12 2015-03-02 Sistema de procesamiento de imagen y soporte de registro legible por ordenador
ES15807220.7T Active ES2681294T3 (es) 2014-06-12 2015-04-27 Sistema de procesamiento de imágenes y medio de grabación legible por ordenador

Family Applications Before (2)

Application Number Title Priority Date Filing Date
ES14894614T Active ES2727929T3 (es) 2014-06-12 2014-06-12 Dispositivo de eliminación de neblina y método de generación de imágenes
ES15805972T Active ES2712452T3 (es) 2014-06-12 2015-03-02 Sistema de procesamiento de imagen y soporte de registro legible por ordenador

Country Status (8)

Country Link
US (4) US10157451B2 (es)
EP (4) EP3156968B1 (es)
JP (4) JP6228670B2 (es)
CN (4) CN106462947B (es)
AU (4) AU2014397095B2 (es)
ES (3) ES2727929T3 (es)
RU (4) RU2658874C1 (es)
WO (4) WO2015189874A1 (es)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3180454B1 (en) * 2015-06-30 2018-06-06 Heraeus Deutschland GmbH & Co. KG Process for the production of a pgm-enriched alloy
CN107872608B (zh) * 2016-09-26 2021-01-12 华为技术有限公司 图像采集设备及图像处理方法
KR101942198B1 (ko) * 2017-12-27 2019-04-11 중앙대학교 산학협력단 레티넥스 모델을 기반으로 하여 영상을 개선하는 단말 장치 및 방법과 이를 수행하는 기록 매체
US10896488B2 (en) * 2018-02-23 2021-01-19 Mobile Drive Technology Co., Ltd. Electronic device and method for removing haze from image
CN108416316B (zh) * 2018-03-19 2022-04-05 中南大学 一种黑烟车的检测方法及系统
US10643311B2 (en) * 2018-03-22 2020-05-05 Hiwin Technologies Corp. Method for correcting dehazed medical image
JP7109317B2 (ja) 2018-09-06 2022-07-29 株式会社クボタ 水田作業機
CN109028234B (zh) * 2018-09-29 2020-11-10 佛山市云米电器科技有限公司 一种能够对烟雾等级进行标识的油烟机
CN109028233B (zh) * 2018-09-29 2020-11-10 佛山市云米电器科技有限公司 厨房油烟浓度划分方法及油烟图像识别系统及油烟机
CN109242805B (zh) * 2018-10-24 2021-09-28 西南交通大学 一种基于独立分量分析的单幅图像雾霾快速去除方法
JP7421273B2 (ja) 2019-04-25 2024-01-24 キヤノン株式会社 画像処理装置及びその制御方法及びプログラム
CN110223258A (zh) * 2019-06-12 2019-09-10 西南科技大学 一种多模式快速视频图像去雾方法及装置
CN112419162B (zh) * 2019-08-20 2024-04-05 浙江宇视科技有限公司 图像去雾方法、装置、电子设备及可读存储介质
CN111192210B (zh) * 2019-12-23 2023-05-26 杭州当虹科技股份有限公司 一种自适应增强的视频去雾方法
CN113674158A (zh) * 2020-05-13 2021-11-19 浙江宇视科技有限公司 图像处理方法、装置、设备及存储介质
CN112011696B (zh) 2020-08-19 2021-05-18 北京科技大学 一种火法富集铝基废催化剂中铂族金属的方法
US11641456B2 (en) 2020-09-14 2023-05-02 Himax Technologies Limited Image rendering method and apparatus
US11790545B2 (en) * 2020-09-14 2023-10-17 Himax Technologies Limited Method and apparatus to control light source in structured light imaging
CN114519683A (zh) * 2020-11-20 2022-05-20 北京晶视智能科技有限公司 图像处理方法及应用其的图像处理装置
US11528435B2 (en) 2020-12-25 2022-12-13 Industrial Technology Research Institute Image dehazing method and image dehazing apparatus using the same

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6085152A (en) * 1997-09-19 2000-07-04 Cambridge Management Advanced Systems Corporation Apparatus and method for monitoring and reporting weather conditions
WO2001039512A1 (en) 1999-11-26 2001-05-31 Sanyo Electric Co., Ltd. Device and method for converting two-dimensional video to three-dimensional video
JP2001160146A (ja) * 1999-12-01 2001-06-12 Matsushita Electric Ind Co Ltd 画像認識方法および画像認識装置
US9149175B2 (en) 2001-07-26 2015-10-06 Given Imaging Ltd. Apparatus and method for light control in an in-vivo imaging device
JP2003187248A (ja) * 2001-12-21 2003-07-04 Mitsubishi Electric Corp 画像処理システムおよび画像処理装置
KR100512976B1 (ko) * 2003-08-09 2005-09-07 삼성전자주식회사 화면의 콘트라스트를 향상시키는 블랙/화이트 스트레칭시스템 및 그의 스트레칭 방법
JP2006155491A (ja) * 2004-12-01 2006-06-15 Samsung Yokohama Research Institute Co Ltd シーンチェンジ検出方法
JP2007266838A (ja) * 2006-03-28 2007-10-11 Sharp Corp 記録再生装置、記録再生方法、及び、記録再生プログラムを記録した記録媒体
JP4784452B2 (ja) * 2006-09-12 2011-10-05 株式会社デンソー 車載霧判定装置
JP4475268B2 (ja) * 2006-10-27 2010-06-09 セイコーエプソン株式会社 画像表示装置、画像表示方法、画像表示プログラム、及び画像表示プログラムを記録した記録媒体、並びに電子機器
JP4241834B2 (ja) 2007-01-11 2009-03-18 株式会社デンソー 車載霧判定装置
RU2365993C1 (ru) * 2008-01-30 2009-08-27 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Способ адаптивного улучшения факсимильных изображений документов
US8619071B2 (en) * 2008-09-16 2013-12-31 Microsoft Corporation Image view synthesis using a three-dimensional reference model
US8290294B2 (en) * 2008-09-16 2012-10-16 Microsoft Corporation Dehazing an image using a three-dimensional reference model
JP5325562B2 (ja) * 2008-12-22 2013-10-23 ローム株式会社 画像補正処理回路及びこれを集積化して成る半導体装置
US8675962B2 (en) * 2008-12-22 2014-03-18 Rohm Co., Ltd. Image correction processing circuit, semiconductor device, and image correction processing device
US8350933B2 (en) * 2009-04-08 2013-01-08 Yissum Research Development Company Of The Hebrew University Of Jerusalem, Ltd. Method, apparatus and computer program product for single image de-hazing
AU2009344148B2 (en) * 2009-04-09 2015-10-22 Commonwealth Scientific And Industrial Research Organisation Enhancing image data
JP2010276691A (ja) * 2009-05-26 2010-12-09 Toshiba Corp 画像処理装置および画像処理方法
JP4807439B2 (ja) * 2009-06-15 2011-11-02 株式会社デンソー 霧画像復元装置及び運転支援システム
JP5402504B2 (ja) * 2009-10-15 2014-01-29 株式会社Jvcケンウッド 擬似立体画像作成装置及び擬似立体画像表示システム
TWI423166B (zh) * 2009-12-04 2014-01-11 Huper Lab Co Ltd 判斷輸入影像是否為霧化影像之方法、判斷輸入影像的霧級數之方法及霧化影像濾清方法
US8284998B2 (en) * 2010-07-01 2012-10-09 Arcsoft Hangzhou Co., Ltd. Method of estimating depths from a single image displayed on display
JP2012028987A (ja) * 2010-07-22 2012-02-09 Toshiba Corp 画像処理装置
CN102637293B (zh) * 2011-02-12 2015-02-25 株式会社日立制作所 运动图像处理装置及运动图像处理方法
US20120213436A1 (en) * 2011-02-18 2012-08-23 Hexagon Technology Center Gmbh Fast Image Enhancement and Three-Dimensional Depth Calculation
JP5488530B2 (ja) * 2011-05-23 2014-05-14 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
JP5810628B2 (ja) * 2011-05-25 2015-11-11 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
US8582915B2 (en) * 2011-06-27 2013-11-12 Wuxi Jinnang Technology Development Ltd. Image enhancement for challenging lighting conditions
KR101568971B1 (ko) * 2011-08-03 2015-11-13 인디안 인스티튜트 오브 테크놀로지, 카라그푸르 화상 및 동영상에서 안개를 제거하는 방법 및 시스템
US8970691B2 (en) * 2011-08-26 2015-03-03 Microsoft Technology Licensing, Llc Removal of rayleigh scattering from images
CN103034977B (zh) * 2011-09-30 2015-09-30 株式会社日立制作所 图像除雾方法和相应的图像除雾装置
CN103164845B (zh) * 2011-12-16 2016-08-03 中国科学院沈阳自动化研究所 一种实时图像去雾装置及方法
CN103186887B (zh) * 2011-12-30 2016-08-03 株式会社日立制作所 图像除雾装置和图像除雾方法
CN103188433B (zh) * 2011-12-30 2016-01-20 株式会社日立制作所 图像除雾装置和图像除雾方法
JP2013152334A (ja) * 2012-01-25 2013-08-08 Olympus Corp 顕微鏡システムおよび顕微鏡観察方法
CN103226809B (zh) * 2012-01-31 2015-11-25 株式会社日立制作所 图像除雾装置和图像除雾方法
WO2013137613A1 (en) * 2012-03-12 2013-09-19 Samsung Electronics Co., Ltd. Method and apparatus for determining content type of video content
JP5470415B2 (ja) 2012-03-30 2014-04-16 Eizo株式会社 イプシロンフィルタの閾値決定方法およびローパスフィルタの係数決定方法
JP5247910B1 (ja) 2012-03-30 2013-07-24 Eizo株式会社 画像表示装置またはその方法
US8885962B1 (en) * 2012-07-23 2014-11-11 Lockheed Martin Corporation Realtime long range imaging scatter reduction
CN103632339A (zh) * 2012-08-21 2014-03-12 张晓光 一种基于变分Retinex的单幅图像去雾方法及装置
CN202872972U (zh) * 2012-08-24 2013-04-10 中国人民解放军理工大学气象学院 一种图像监测处理装置
US9659237B2 (en) * 2012-10-05 2017-05-23 Micro Usa, Inc. Imaging through aerosol obscurants
KR101958910B1 (ko) * 2012-10-26 2019-03-15 에스케이 텔레콤주식회사 영상보정의 가속화를 위한 영상보정 장치 및 그 방법
CN102982537B (zh) * 2012-11-05 2015-09-02 安维思电子科技(广州)有限公司 一种检测场景变换的方法和系统
KR101736468B1 (ko) 2012-12-24 2017-05-29 한화테크윈 주식회사 영상 처리 장치 및 방법
KR101445577B1 (ko) 2013-03-11 2014-11-04 주식회사 브이아이티시스템 안개제거 추정 모델을 이용한 안개 낀 휘도영상 개선 시스템
JP2014212513A (ja) 2013-04-01 2014-11-13 パナソニック株式会社 投写型映像表示装置、映像投影制御装置、映像投影制御方法、及び映像投影制御プログラム
CN103218622B (zh) * 2013-04-22 2016-04-13 武汉大学 一种基于计算机视觉的雾霾监测方法
KR101470831B1 (ko) * 2013-05-28 2014-12-10 전남대학교산학협력단 사용자 제어가 가능한 거듭제곱근 연산자를 이용한 안개영상 개선 장치
CN103337054A (zh) * 2013-06-17 2013-10-02 西安理工大学 基于单图像的二阶段图像去雾方法
WO2015103770A1 (zh) * 2014-01-10 2015-07-16 富士通株式会社 图像处理装置、电子设备及方法
US20170178297A1 (en) * 2014-02-19 2017-06-22 Yissum Research Development Company Of The Hebrew University Of Jerusalem Ltd. Method and system for dehazing natural images using color-lines
KR102207939B1 (ko) 2014-03-27 2021-01-26 한화테크윈 주식회사 안개 제거 시스템 및 안개 제거 방법
JP6284408B2 (ja) 2014-04-03 2018-02-28 オリンパス株式会社 画像処理装置、撮像装置、判定方法、駆動方法、撮像方法およびプログラム
US9305339B2 (en) * 2014-07-01 2016-04-05 Adobe Systems Incorporated Multi-feature image haze removal
US9177363B1 (en) 2014-09-02 2015-11-03 National Taipei University Of Technology Method and image processing apparatus for image visibility restoration
JP6469448B2 (ja) 2015-01-06 2019-02-13 オリンパス株式会社 画像処理装置、撮像装置、画像処理方法、および記録媒体
US9870511B2 (en) * 2015-10-14 2018-01-16 Here Global B.V. Method and apparatus for providing image classification based on opacity
US9508129B1 (en) 2015-11-06 2016-11-29 Adobe Systems Incorporated Dehazing photos and videos using visual artifact suppression

Also Published As

Publication number Publication date
EP3156971A1 (en) 2017-04-19
US10096092B2 (en) 2018-10-09
US10102614B2 (en) 2018-10-16
CN106462947A (zh) 2017-02-22
ES2712452T3 (es) 2019-05-13
AU2014397095A1 (en) 2017-02-02
EP3156968B1 (en) 2019-02-27
US20170091911A1 (en) 2017-03-30
EP3156971B1 (en) 2018-05-23
WO2015190184A1 (ja) 2015-12-17
EP3156969A4 (en) 2017-10-11
CN106462954A (zh) 2017-02-22
CN106663326A (zh) 2017-05-10
US9972074B2 (en) 2018-05-15
JP6228671B2 (ja) 2017-11-08
EP3156971A4 (en) 2017-07-12
EP3156969A1 (en) 2017-04-19
CN106462947B (zh) 2019-10-18
EP3156968A4 (en) 2017-04-19
EP3156970A1 (en) 2017-04-19
AU2014397095B2 (en) 2018-07-05
EP3156968A1 (en) 2017-04-19
US10157451B2 (en) 2018-12-18
WO2015190183A1 (ja) 2015-12-17
JPWO2015190183A1 (ja) 2017-04-20
CN106462954B (zh) 2019-09-20
RU2658874C1 (ru) 2018-06-25
US20170091912A1 (en) 2017-03-30
US20170084042A1 (en) 2017-03-23
ES2727929T3 (es) 2019-10-21
CN106663326B (zh) 2019-11-08
AU2015272798B2 (en) 2017-12-14
RU2017100022A3 (es) 2018-07-12
JP6225255B2 (ja) 2017-11-01
JPWO2015189874A1 (ja) 2017-04-20
AU2015272846A1 (en) 2017-02-02
EP3156970B1 (en) 2019-08-21
RU2648955C1 (ru) 2018-03-28
AU2015272846B2 (en) 2018-01-25
AU2015272798A1 (en) 2017-02-02
AU2015272799B2 (en) 2018-01-04
JPWO2015190136A1 (ja) 2017-04-20
AU2015272799A1 (en) 2017-02-02
CN106462953B (zh) 2019-10-25
CN106462953A (zh) 2017-02-22
WO2015190136A1 (ja) 2015-12-17
RU2664415C2 (ru) 2018-08-17
RU2017100022A (ru) 2018-07-12
EP3156969B1 (en) 2018-11-21
RU2654159C1 (ru) 2018-05-16
EP3156970A4 (en) 2017-07-12
US20170084009A1 (en) 2017-03-23
JP6228670B2 (ja) 2017-11-08
WO2015189874A1 (ja) 2015-12-17
JPWO2015190184A1 (ja) 2017-04-20
JP6225256B2 (ja) 2017-11-01

Similar Documents

Publication Publication Date Title
ES2681294T3 (es) Sistema de procesamiento de imágenes y medio de grabación legible por ordenador
CN104952045B (zh) 除雾系统和除雾方法
CN109788205B (zh) 图像调整方法、装置及电子设备
EP3139343B1 (en) Image processing apparatus, image processing method, and a program
US9064178B2 (en) Edge detection apparatus, program and method for edge detection
US20150187051A1 (en) Method and apparatus for estimating image noise
KR20150072090A (ko) 관심 영역 검출 장치 및 그 방법
CN109982012B (zh) 图像处理方法及装置、存储介质、终端
KR102136716B1 (ko) 관심영역 기반의 화질개선 장치와 그를 위한 컴퓨터로 읽을 수 있는 기록 매체
JP6953184B2 (ja) 画像処理装置および画像処理方法
CN116977228B (zh) 图像降噪方法、电子设备及存储介质
KR20160082912A (ko) 시각 피로도를 줄일 수 있는 입체 영상 후처리 장치 및 방법