ES2868129T3 - Método para el procesamiento de imágenes y dispositivo electrónico - Google Patents

Método para el procesamiento de imágenes y dispositivo electrónico Download PDF

Info

Publication number
ES2868129T3
ES2868129T3 ES19192429T ES19192429T ES2868129T3 ES 2868129 T3 ES2868129 T3 ES 2868129T3 ES 19192429 T ES19192429 T ES 19192429T ES 19192429 T ES19192429 T ES 19192429T ES 2868129 T3 ES2868129 T3 ES 2868129T3
Authority
ES
Spain
Prior art keywords
image
frequency
edge
low
coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES19192429T
Other languages
English (en)
Inventor
Huichao Wang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Application granted granted Critical
Publication of ES2868129T3 publication Critical patent/ES2868129T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

Un método implementado por computadora para el procesamiento de imágenes que comprende: realizar (101, 201, 301, 401) la identificación de bordes en una imagen; determinar (102, 202, 302, 402) un núcleo de filtrado para un procesamiento de filtrado en la imagen de acuerdo con un resultado de la identificación de bordes; realizar (103, 203, 303, 403) el procesamiento de filtrado en la imagen en base al núcleo de filtrado para obtener una imagen de baja frecuencia y una imagen de alta frecuencia correspondientes a la imagen; y realizar (104) un procesamiento de mejora para la imagen de alta frecuencia utilizando un primer coeficiente de ganancia de la imagen de alta frecuencia para obtener una imagen de alta frecuencia mejorada y realizar la fusión de imágenes para la imagen de baja frecuencia y la imagen de alta frecuencia mejorada para obtener una imagen procesada; en donde se realiza un procesamiento de filtrado de paso bajo en la imagen en base al núcleo de filtrado para obtener la imagen de baja frecuencia, y la imagen de baja frecuencia se resta de la imagen original para obtener la imagen de alta frecuencia; caracterizado por: la determinación (102, 202, 302, 402) del núcleo de filtrado para un procesamiento de filtrado en la imagen de acuerdo con el resultado de la identificación de bordes comprende: determinar un coeficiente de borde en la imagen de acuerdo con el resultado de la identificación de bordes, en donde el coeficiente de borde indica información de borde en la imagen, en donde cuanto mayor es el coeficiente de borde, más información de borde comprende la imagen, mientras que cuanto menor es el coeficiente de borde, menos información de borde comprende la imagen; y determinar un tamaño del núcleo de filtrado de acuerdo con el coeficiente de borde, en donde el tamaño del núcleo de filtrado está correlacionado positivamente con el coeficiente de borde; o la determinación (102, 202, 302, 402) del núcleo de filtrado para un procesamiento de filtrado en la imagen de acuerdo con el resultado de la identificación de bordes comprende: dividir la imagen en una región sin fondo donde se encuentra la información de borde y una región de fondo; y determinar de forma adaptativa un tamaño del núcleo de filtrado de acuerdo con una ubicación donde se encuentra la información de borde, en donde el tamaño del núcleo de filtrado para la región sin fondo es mayor que el de la región de fondo.

Description

DESCRIPCIÓN
Método para el procesamiento de imágenes y dispositivo electrónico
Campo técnico
La presente divulgación se refiere en general al campo técnico de dispositivo electrónico y, en particular, a un método para el procesamiento de imágenes y un dispositivo electrónico.
Antecedentes
Con el rápido desarrollo de aparatos electrónicos, los aparatos electrónicos, tales como teléfonos móviles y computadoras tableta, todos tienen funciones de captura de imágenes, y los usuarios tienen requisitos cada vez más altos para la calidad de las imágenes capturadas por los aparatos electrónicos.
Con el fin de mejorar la definición de los detalles de la imagen, ajustar el contraste de las imágenes es un método común en el procesamiento de imágenes. Sin embargo, el ajuste del contraste de la imagen se aplica actualmente para el procesamiento de imágenes médicas tales como las imágenes de rayos X. El límite del campo de aplicación lleva a que se utilicen parámetros fijos en el procesamiento de contraste de imágenes y no son aplicables a imágenes que contienen información compleja recopilada por dispositivos electrónicos. La imagen procesada por el método de ajuste de contraste actual tiene problemas de empañamiento y cenizas.
En Zheng Xianhui et al. " Single-Image-Based Rain and Snow Removal Using Multi-guided Filter ", 3 de noviembre de 2013 (2013-11-03), INTELLIGENT VIRTUAL AGENT. IVA 2015. LNCS; [LECTURE NOTES IN COMPUTER SCIENCE; LECT. NOTES COMPUTER], SPRING, BERLIN, HEIDELBERG, se proporciona un método para eliminar la lluvia y la nieve mediante un filtro multi-guiado. Sin embargo, en Zheng Xianhui et al., el filtro guiado general, que es independiente del tamaño del núcleo de filtrado, se utiliza como filtro de imagen.
En Bamber David C et al. " Novel adaptive kernels for image sharpening in the presence of noise", VISUAL INFORMATION PROCESSING XX, SPIE, 1000 20TH ST. BELLINGHAM WA 98225-6705 EE.UU., vol. 8056, No. 1, 13 de mayo de 2011 (2011 -05-13), páginas 1 -7, se proporciona un método de nitidez de imágenes en base al núcleo de filtro de imagen adaptativo. Sin embargo, en Bamber David C et al., el núcleo de filtro de imagen adaptativo no está relacionado con la información de borde.
En He K et al: "Guided Image Filtering", IEEE TRANSACTION ON PATTERN NANLYSIS AND MACHINE INTELLIGENT, vol. 35, 1 de enero de 2013 (2013-01-01), página 1397-1409, se proporciona un método de filtrado de imágenes guiado en base a un núcleo de filtrado relacionado con la información de borde. Sin embargo, en He K et al, el núcleo de filtrado no se determina de acuerdo con el resultado de la identificación de bordes. Por lo tanto, se adopta el núcleo de filtrado fijo para las diferencias de la imagen capturada por el dispositivo electrónico, lo que provoca la pérdida de información de imagen ya que el núcleo de filtrado fijo es aplicable deficientemente y no es adecuado para imágenes capturadas por el dispositivo electrónico con diferentes escenas y diferentes complejidades.
Resumen de la divulgación
De acuerdo con un aspecto de la presente divulgación, se proporciona un método para el procesamiento de imágenes. El método se aplica para un dispositivo electrónico que incluye una cámara. El método incluye obtener una imagen capturada por la cámara y realizar la identificación de bordes en la imagen; determinar un núcleo de filtrado para un procesamiento de filtrado en la imagen de acuerdo con un resultado de la identificación de bordes; realizar el procesamiento de filtrado de la imagen en base al núcleo de filtrado para obtener una imagen de baja frecuencia y una imagen de alta frecuencia correspondientes a la imagen; y realizar un procesamiento de mejora para la imagen de alta frecuencia utilizando un primer coeficiente de ganancia de la imagen de alta frecuencia para obtener una imagen de alta frecuencia mejorada y realizar la fusión de imágenes para la imagen de baja frecuencia y la imagen de alta frecuencia mejorada para obtener una imagen procesada. Se realiza un procesamiento de filtrado de paso bajo en la imagen en base al núcleo de filtrado para obtener la imagen de baja frecuencia y la imagen de baja frecuencia se resta de la imagen original para obtener la imagen de alta frecuencia. Determinar el núcleo de filtrado para un procesamiento de filtrado en la imagen de acuerdo con un resultado de la identificación de bordes comprende: determinar un coeficiente de borde en la imagen de acuerdo con el resultado de la identificación de bordes, en donde el coeficiente de borde indica información de borde en la imagen, en donde cuanto mayor es el coeficiente de borde, más información de borde incluye la imagen, mientras que cuanto menor es el coeficiente de borde, menos información de borde incluye la imagen; y determinar un tamaño del núcleo de filtrado de acuerdo con el coeficiente de borde, en donde el tamaño del núcleo de filtrado está correlacionado positivamente con el coeficiente de borde o determinar el núcleo de filtrado para un procesamiento de filtrado en la imagen de acuerdo con el resultado de la identificación de bordes comprende: dividir la imagen en una región sin fondo donde se encuentra la información de borde y una región de fondo; y determinar de forma adaptativa un tamaño del núcleo de filtrado de acuerdo con una ubicación donde se encuentra la información de borde, en donde el tamaño del núcleo de filtrado para la región sin fondo es mayor que el de la región de fondo. En el método de procesamiento de imágenes, se adoptan diferentes tipos de núcleos de filtrado para las diferencias de la imagen capturada por el dispositivo electrónico, lo que evita el problema de que se produce la pérdida de información de imagen, ya que el núcleo de filtrado fijo es aplicable deficientemente y es adecuado para imágenes capturadas por el dispositivo electrónico con diferentes escenas y diferentes complejidades.
De acuerdo con otro aspecto de la presente divulgación, se proporciona un dispositivo electrónico. El dispositivo electrónico incluye una cámara configurada para capturar una imagen, una memoria no transitoria que almacena un programa informático y un procesador, en donde el procesador está configurado para ejecutar el programa informático para realizar un método de acuerdo con el aspecto anterior.
Breve descripción de los dibujos
La FIG. 1 es un diagrama de flujo de un método para el procesamiento de imágenes de acuerdo con una realización de la presente divulgación.
La FIG. 2 es un diagrama de flujo de otro método para el procesamiento de imágenes de acuerdo con una realización de la presente divulgación.
La FIG. 3 es un diagrama de flujo de otro método más para el procesamiento de imágenes de acuerdo con una realización de la presente divulgación.
La FIG. 4 es un diagrama de flujo de otro método más para el procesamiento de imágenes de acuerdo con una realización de la presente divulgación.
La FIG. 5 es un diagrama estructural de un aparato para el procesamiento de imágenes de acuerdo con una realización de la presente divulgación.
La FIG. 6 es un diagrama estructural de un dispositivo electrónico de acuerdo con una realización de la presente divulgación.
La FIG. 7 es un diagrama estructural de otro dispositivo electrónico de acuerdo con una realización de la presente divulgación.
Descripción detallada
Las soluciones técnicas de la presente divulgación se describirán adicionalmente de acuerdo con implementaciones detalladas y figuras adjuntas. La invención está definida por las reivindicaciones adjuntas.
Se proporciona un método para el procesamiento de imágenes. El método se aplica para un dispositivo electrónico que incluye una cámara. El método incluye obtener una imagen capturada por la cámara y realizar la identificación de bordes en la imagen; determinar un núcleo de filtrado para un procesamiento de filtrado en la imagen de acuerdo con el resultado de la identificación de bordes; realizar el procesamiento de filtrado de la imagen en base al núcleo de filtrado para obtener una imagen de baja frecuencia y una imagen de alta frecuencia correspondientes a la imagen; y realizar un procesamiento de mejora para la imagen de alta frecuencia y realizar una fusión de imágenes para la imagen de baja frecuencia y la imagen de alta frecuencia mejorada para obtener una imagen procesada.
En una realización, la imagen está en un modo de color separado de crominancia-luminancia, y el modo de color separado de crominancia-luminancia incluye el modo YUV de color y modo LAB de color. La realización del procesamiento de filtrado incluye la realización del procesamiento de filtrado para los componentes de luminancia de la imagen en base al núcleo de filtrado.
En una realización, la cámara incluye un sensor de imágenes; y generar la imagen en el modo de color separado de crominancia-luminancia incluye convertir señales en bruto capturadas por el sensor de imágenes en una imagen en modo RGB de color; y generar la imagen en modo YUV de color en base a la imagen en modo RGB de color.
En una realización, Determinar un núcleo de filtrado para un procesamiento de filtrado en la imagen de acuerdo con un resultado de la identificación de bordes incluye determinar un coeficiente de borde en la imagen de acuerdo con el resultado de la identificación de bordes, en donde el coeficiente de borde indica información de borde en la imagen; y determinar un tamaño del núcleo de filtrado de acuerdo con el coeficiente de borde, en donde el tamaño del núcleo de filtrado está correlacionado positivamente con el coeficiente de borde.
En una realización, la imagen se divide en una región sin fondo donde se encuentra la información de borde y una región de fondo. Un tamaño del núcleo de filtrado se determina de forma adaptativa de acuerdo con una ubicación donde se encuentra la información de borde, en donde el tamaño del núcleo de filtrado para la región sin fondo es mayor que el de la región de fondo.
En una realización, la realización del procesamiento de mejora para la imagen de alta frecuencia incluye: determinar un primer coeficiente de ganancia de la imagen de alta frecuencia, en donde el primer coeficiente de ganancia incluye valores de ganancia de todos los píxeles en la imagen de alta frecuencia, en donde un valor de ganancia de un píxel se determina de acuerdo con una desviación estándar local de una ventana con un tamaño preestablecido y con un píxel como un centro, la desviación estándar local de la ventana se obtiene calculando una varianza local de la ventana; y realizar el procesamiento de mejora para la imagen de alta frecuencia de acuerdo con el primer coeficiente de ganancia.
En una realización, el valor de una ganancia del píxel es inversamente proporcional a la desviación estándar local de la ventana con el píxel como un centro.
En una realización, antes de realizar el procesamiento de mejora para la imagen de alta frecuencia de acuerdo con el primer coeficiente de ganancia, el método incluye además la corrección del primer coeficiente de ganancia de acuerdo con un resultado de la identificación de escena para la imagen. El resultado de la identificación de escena incluye una relación de información de alta frecuencia a información de baja frecuencia en la imagen.
En una realización, el primer coeficiente de ganancia se reduce cuando la relación de información de alta frecuencia a información de baja frecuencia en la imagen es mayor que un valor preestablecido.
En una realización, los valores de ganancia en el primer coeficiente de ganancia tienen diferentes valores de ajuste. Uno de los valores de ganancia se resta por un valor de ajuste correspondiente de manera que se reduce el primer coeficiente de ganancia.
En una realización, los valores de ajuste se determinan de acuerdo a los componentes de luminancia de todos los píxeles, en donde un valor de ajuste para un píxel está correlacionado negativamente con un componente de luminancia del píxel.
En una realización, el método incluye además Determinar un segundo coeficiente de ganancia de la imagen de baja frecuencia; realizar un procesamiento de mejora para la imagen de baja frecuencia de acuerdo con el segundo coeficiente de ganancia; y realizar la fusión de imágenes para la imagen de alta frecuencia mejorada y la imagen de baja frecuencia mejorada para obtener la imagen procesada.
En una realización, la realización del procesamiento de mejora para la imagen de baja frecuencia de acuerdo con el segundo coeficiente de ganancia incluye la identificación de una región plana y una región no plana en la imagen de baja frecuencia de acuerdo con la información de luminancia en la imagen de baja frecuencia; y la realización de la mejora de imagen para la región no plana de acuerdo con el segundo coeficiente de ganancia. La imagen procesada se obtiene realizando la fusión de imágenes para la región plana, la región no plana mejorada y la imagen de alta frecuencia mejorada.
En una realización, la imagen de baja frecuencia se divide en una pluralidad de regiones de imagen, y cada una de las regiones de imagen tiene un valor de diferencia de píxeles que indica una condición de diferencia de la información de luminancia de todos los píxeles en cada una de las regiones de imagen. La región plana incluye las regiones de imagen cuyos valores de diferencia de píxeles son menores o iguales a un valor preestablecido. La región no plana incluye las regiones de imagen cuyos valores de diferencia de píxeles son mayores que el valor preestablecido. En una realización, el valor de diferencia de píxeles de cada una de las regiones de imagen se calcula en la siguiente fórmula:
Figure imgf000004_0001
en donde A es el valor de diferencia de píxeles, p es un número total de píxeles en cada una de las regiones de imagen, gb(b = 1,2 ,...p) es un componente de luminancia de un píxel en cada una de las regiones de imagen, S es un valor medio de luminancia local de cada una de las regiones de imagen, y tanto p como b son números enteros positivos mayores que 0. El valor preestablecido se determina de acuerdo con un valor medio de diferencia local calculado de acuerdo con un número de las regiones de imagen y el valor de diferencia de píxeles de cada una de las regiones de imagen.
Se proporciona un dispositivo electrónico. El dispositivo electrónico incluye una cámara configurada para capturar una imagen, una memoria no transitoria que almacena un programa informático y un procesador, en donde el procesador está configurado para ejecutar el programa informático para realizar un método como se describe anteriormente.
La FIG. 1 es un diagrama de flujo de un método para el procesamiento de imágenes de acuerdo con una realización de la presente divulgación. El método se puede realizar mediante un aparato para el procesamiento de imágenes, en donde el aparato se puede realizar mediante software y/o hardware, y normalmente se puede integrar en un dispositivo electrónico. Haciendo referencia a la FIG. 1, el método puede incluir las acciones/operaciones en los siguientes bloques.
En el bloque 101, el método obtiene una imagen capturada por una cámara y realiza la identificación de bordes en la imagen.
Para ser ejemplar, el dispositivo electrónico en las realizaciones de la presente divulgación puede ser un dispositivo inteligente configurado con un aparato de captura de imágenes, tal como un teléfono móvil y una computadora tableta.
En esta realización, la imagen puede ser una imagen tomada por la cámara de acuerdo con una instrucción de disparo. La imagen también puede ser una imagen capturada por la cámara y visualizada en una pantalla del dispositivo electrónico para que los usuarios la previsualicen, antes de que se ejecute la instrucción de disparo para la cámara.
La identificación de bordes se realiza en la imagen para extraer una línea de límite entre un objeto y el fondo en la imagen. Los puntos de contorno en la imagen se pueden detectar en primer lugar, y luego los puntos de contorno detectados se conectan de acuerdo con una regla de enlace. Mientras tanto, los puntos de límite omitidos también se detectan y conectan, y se eliminan los límites falsos. El propósito de la identificación de bordes es descubrir información sobre la forma y el reflejo o la transmitancia en la imagen. A modo de ejemplo, los valores de píxeles adyacentes o los valores de luminancia de los píxeles en la imagen pueden detectarse fila por fila y columna por columna para determinar los píxeles con valores de píxeles o valores de luminancia cambiados extremadamente como píxeles de borde. Los píxeles de borde se pueden conectar para formar un borde. Alternativamente, la identificación de bordes también se puede realizar en la imagen para calcular la imagen en base a un operador de bordes de Roberts, un operador de detección de bordes de Sobel o un operador de bordes de Laplacan, lo cual no está limitado.
En el bloque 102, el método determina un núcleo de filtrado para realizar un procesamiento de filtrado en la imagen de acuerdo con un resultado de la identificación de bordes.
El resultado de la identificación de bordes puede ser emitir la información de borde en la imagen o generar valores de características que indican la información de borde en base a la información de borde identificada. El núcleo de filtrado es un núcleo de operador de un filtro para realizar el procesamiento de filtrado en la imagen. Los núcleos de filtrado con diferentes tamaños tienen diferentes efectos de filtrado. Por ejemplo, para un filtro con un núcleo de filtrado más pequeño, al realizar el procesamiento de filtrado, se pueden conservar pequeños detalles en la imagen, mientras que para un filtro con un núcleo de filtrado más grande, al realizar el procesamiento de filtrado, se puede conservar un contorno grande en la imagen. A modo de ejemplo, el núcleo de filtrado puede ser, entre otros, 3x3, 5x5, 7x7 o 9x9, etc.
En esta realización, hay gran diferencia entre los contenidos de imagen, que se capturaron cuando el dispositivo electrónico dispara a diferentes objetos. La identificación de bordes se realiza en la imagen y se determina un núcleo de filtrado aplicable a la imagen, de modo que los contenidos de imagen se conservan en el proceso de filtrado, evitando así la pérdida de información detallada o información de contorno en la imagen. Alternativamente, Determinar un núcleo de filtrado para realizar el procesamiento de filtrado en la imagen de acuerdo con el resultado de la identificación de bordes incluye: determinar un coeficiente de borde en la imagen de acuerdo con el resultado de la identificación de bordes; y determinar un tamaño del núcleo de filtrado para realizar el procesamiento de filtrado en la imagen de acuerdo con el coeficiente de borde, en donde el tamaño del núcleo de filtrado está correlacionado positivamente con el coeficiente de borde. El coeficiente de borde de la imagen es un valor de característica que se utiliza para indicar la información de borde. Es decir, el coeficiente de borde de la imagen se utiliza para indicar la información de borde en la imagen. A modo de ejemplo, cuanto mayor es el coeficiente de borde, más información de borde incluye la imagen, mientras que cuanto menor es el coeficiente de borde, menos información de borde incluye la imagen. Para conservar la información en la imagen, el tamaño del núcleo de filtrado está correlacionado positivamente con el coeficiente de borde. Es decir, cuanto mayor sea el coeficiente de borde de la imagen, mayor será el núcleo de filtrado aplicado a la imagen. Por ejemplo, cuando una imagen incluye un escritorio blanco y botones negros y manchas descubiertas en el escritorio, se puede aprender que, la imagen es relativamente plana y contiene menos información de borde, un coeficiente de borde derivado de la identificación de bordes de la imagen es más pequeño y, en consecuencia, el núcleo de filtrado aplicado a la imagen es más pequeño, por ejemplo, puede ser un núcleo de filtrado de 3x3. Cuando una imagen incluye una pluralidad de mesas, sillas, gabinetes y una pluralidad de objetos sobre la mesa, se puede aprender que, la imagen es más complicada y contiene más información de borde, un coeficiente de borde derivado de la identificación de bordes de la imagen es más grande y, en consecuencia, el núcleo de filtrado aplicado a la imagen es más grande, por ejemplo, puede ser un núcleo de filtrado de 9x9.
Alternativamente, una posición de la información borde en la imagen se determina de acuerdo con el resultado de la identificación de bordes para la imagen. La imagen se divide en una pluralidad de regiones. La región con la información de borde se filtra mediante un núcleo de filtrado más grande. La región de fondo de la imagen se filtra mediante un núcleo de filtrado más pequeño. En otras palabras, la imagen se divide en una región sin fondo y una región de fondo, y la información de borde se encuentra en la región sin fondo. Un tamaño del núcleo de filtrado se determina de forma adaptativa de acuerdo con una ubicación donde se encuentra la información de borde, en donde el tamaño del núcleo de filtrado para la región sin fondo es mayor que el de la región de fondo. Por lo tanto, la imagen se filtra en base a un núcleo de filtrado adaptativo, conservando así la información de contorno y la información detallada de la imagen, para evitar la pérdida de la información de imagen.
En el bloque 103, el método realiza el procesamiento de filtrado en la imagen en base al núcleo de filtrado para obtener una imagen de baja frecuencia y una imagen de alta frecuencia correspondientes a la imagen.
En esta realización, un filtro para filtrar la imagen es un filtro de paso bajo, y, correspondientemente, se realiza un procesamiento de filtrado de paso bajo en la imagen. Específicamente, se realiza un procesamiento de filtrado de paso bajo en la imagen para obtener una imagen de baja frecuencia correspondiente a la imagen original, y la imagen de baja frecuencia se resta de la imagen original para obtener una imagen de alta frecuencia correspondiente a la imagen original. Específicamente, los valores de diferencia de píxeles de los píxeles correspondientes entre la imagen original y la imagen de baja frecuencia para obtener una imagen de alta frecuencia correspondiente a la imagen original.
hay que señalar que, puesto que la imagen puede ser una imagen en un modo de múltiples colores, tal como una imagen en modo RGB de color, o una imagen en modo YUV de color, los datos de objetos sometidos al procesamiento de filtrado son diferentes para imágenes en diferentes modos de color. Por ejemplo, para una imagen en modo RGB de color, el objeto de datos para el procesamiento de filtrado es un valor RGB, y para una imagen en modo YUV de color, el objeto de datos para el procesamiento de filtrado es un componente Y independiente (es decir, componente de luminancia).
En el bloque 104, el método realiza un procesamiento de mejora para la imagen de alta frecuencia y realiza la fusión de imágenes para la imagen de baja frecuencia y la imagen de alta frecuencia mejorada para obtener una imagen procesada.
La imagen de alta frecuencia incluye información de contenido en la imagen original, y el procesamiento de mejora se realiza para la imagen de alta frecuencia, de modo que se podría mejorar el contraste entre la imagen de alta frecuencia mejorada y la imagen de baja frecuencia. Se ajusta un rango dinámico para la imagen para resaltar objetos en la imagen y mejorar la definición de la imagen. A modo de ejemplo, la realización del procesamiento de mejora para la imagen de alta frecuencia puede incluir establecer valores de ganancia para los píxeles en la imagen de alta frecuencia; multiplicar los valores de ganancia por los valores de píxeles o los valores de luminancia de los píxeles, respectivamente; y realizar la fusión de imágenes para la imagen de alta frecuencia mejorada y la imagen de baja frecuencia para obtener una imagen procesada. Los valores de ganancia para realizar el procesamiento de mejora para la imagen de alta frecuencia pueden ser un valor fijo. Es decir, los valores de ganancia para todos los píxeles son idénticos. Alternativamente, los valores de ganancia para realizar el procesamiento de mejora para la imagen de alta frecuencia también pueden calcularse de acuerdo con el píxel respectivo y diferir de acuerdo con el píxel respectivo. De manera correspondiente, cuando se realiza el procesamiento de mejora para la imagen de alta frecuencia, el valor de píxel o el valor de luminancia de cada uno de los píxeles se multiplica por un valor de ganancia correspondiente para obtener una imagen mejorada con alta calidad.
En el método para el procesamiento de imágenes de acuerdo con realizaciones de la presente divulgación, la identificación de bordes se realiza en una imagen capturada, un núcleo de filtro adaptativo se determina de acuerdo con el resultado de identificación de la imagen, la imagen se filtra en la imagen de acuerdo con el núcleo de filtro aplicado a la imagen para obtener una imagen de alta frecuencia y una imagen de baja frecuencia, y el procesamiento de mejora se realiza para que la imagen de alta frecuencia genere una imagen procesada. A través de la solución técnica anterior, se adoptan diferentes tipos de núcleos de filtrado para las diferencias de la imagen capturada por el dispositivo electrónico, lo que evita el problema de que se produzca la pérdida de información de imagen ya que el núcleo de filtrado fijo es aplicable deficientemente, y es apto para imágenes capturadas por el dispositivo electrónico con diferentes escenas y diferentes complejidades.
La FIG. 2 es un diagrama de flujo de otro método para el procesamiento de imágenes de acuerdo con una realización de la presente divulgación. Haciendo referencia a la FIG. 2, el método puede incluir las acciones/operaciones en los siguientes bloques.
En el bloque 201, el método obtiene una imagen en un modo de color separado de crominancia-luminancia que se captura por una cámara y realiza la identificación de bordes en la imagen.
A modo de ejemplo, la imagen en el modo de color separado de crominancia-luminancia puede ser una imagen en el modo YUV de color o en el modo LAB de color. En una imagen en el modo de color separado de crominancialuminancia, el componente de luminancia y el componente de crominancia se pueden extraer por separado, de manera que la imagen se puede procesar en términos de luminancia y crominancia. A modo de ejemplo, durante el procesamiento de los componentes de luminancia, no se ejercerá impacto alguno sobre los componentes de crominancia de la imagen.
Hay que señalar que el modo RGB de color, el modo YUV de color y el modo LAB de color se pueden convertir entre sí. Con un teléfono móvil como ejemplo, cuando una imagen se captura por un aparato de captura de imágenes dentro del teléfono móvil, una manera de generar una imagen en el modo YUV de color puede incluir: convertir los datos en bruto obtenidos por un sensor de imágenes en una imagen en el modo RGB de color; y generar una imagen en el modo YUV de color en base a la imagen en el modo RGB de color. El aparato de captura de imágenes puede ser una cámara, en donde la cámara puede incluir un sensor de imágenes de dispositivo de carga acoplada (CCD) o un sensor de imágenes de semiconductor complementario de óxido metálico (CMOS). Las señales de una fuente de luz capturadas por el sensor de imágenes CCD o el sensor de imágenes CMOS se pueden convertir en señales digitales como datos en bruto, los datos en bruto se pueden convertir en datos de una imagen en el modo RGB de color y los datos de la imagen en el modo RGB de color se convierte adicionalmente en datos de la imagen en el modo YUV de color. Con el aparato de captura de imágenes del teléfono móvil, se puede formar una imagen en el formato de joint photographic expert group (JPG) mediante la imagen en el modo YUV de color.
Los colores de la imagen en el modo RGB de color, que se convierte a partir de los datos en bruto, pueden no ser colores reales de la imagen y, por tanto, los datos de la imagen en el modo RGB de color formados aquí no pueden procesarse de modo alguno. Los colores formados a partir de los datos de la imagen en el modo YUV de color son colores reales de la imagen y, por tanto, se pueden procesar los datos de la imagen en el modo YUV de color. Durante el procesamiento común de una imagen, los datos RGB generalmente pueden procesarse, en donde la conversión del modo de color, que es datos en bruto -> una imagen en modo RGB de color -> una imagen en modo YUV de color, se puede realizar para los datos en bruto capturados por el sensor de imágenes. La imagen en modo RGB de color puede procesarse para obtener una imagen procesada en modo RGB de color y luego la imagen procesada en modo RGB de color puede convertirse en una imagen en modo YUV de color para obtener una imagen en formato JPG. En consecuencia, cuando se procesan imágenes en otros modos de color, las imágenes deben convertirse en imágenes en el modo YUV de color y, luego, se pueden obtener imágenes en formato JPG después de que las imágenes se conviertan en imágenes en el modo YUV de color.
En esta realización, la imagen obtenida en el modo de color separado de crominancia-luminancia puede ser una imagen en modo YUV de color o modo LAB de color. Cuando el método para el procesamiento de imágenes de la presente divulgación se aplica en un teléfono móvil, alternativamente, la imagen en el modo de color separado de crominancia-luminancia puede ser una imagen en el modo YUV de color, y la imagen en el modo YUV de color puede procesarse sin un procedimientos de conversión de imágenes redundante después de ser capturada por el aparato de captura de imágenes, reduciendo el proceso de conversión de imágenes y mejorando la eficiencia del procesamiento de imágenes.
En el bloque 202, el método determina un núcleo de filtrado para realizar un procesamiento de filtrado en la imagen de acuerdo con un resultado de la identificación de bordes.
En el bloque 203, el método realiza el procesamiento de filtrado en la imagen en base al núcleo de filtrado para obtener una imagen de alta frecuencia y una imagen de baja frecuencia correspondientes a la imagen.
Alternativamente, tomando una imagen en modo YUV de color como un ejemplo, los datos de la imagen en el modo YUV de color se almacenan en formato planar. En otras palabras, los componentes Y, U y V se almacenan respectivamente en diferentes matrices. Cuando los componentes de luminancia de todos los píxeles en la imagen son transversales, se lee la matriz para almacenar el componente Y, y luego se puede obtener el componente de luminancia respectivo del píxel respectivo en la imagen.
En esta realización, los componentes de luminancia de la imagen se filtran, lo que significa que se procesa la imagen en el modo básico de color. Por lo tanto, no se daña el componente de crominancia de la imagen y se evita la distorsión del color y la pérdida de la información detallada durante el procesamiento de imágenes. Por ejemplo, solo se filtra el componente Y en el modo YUV de color para obtener una imagen de alta frecuencia y una imagen de baja frecuencia asociadas con el componente Y, y el componente Y se ajusta y se convierte en el procesamiento de mejora posterior, lo que no afecta en absoluto a una relación entre el componente U y el componente V. Como tal, se garantiza que el color de la imagen no se distorsiona durante el procesamiento y se mejora el contraste de la imagen sin dañar el color de la imagen.
En el bloque 204, el método calcula una varianza local de una ventana con un tamaño preestablecido y con un píxel de referencia como un centro en la imagen de alta frecuencia.
En el bloque 205, el método determina un valor de ganancia del píxel de referencia de acuerdo con una desviación estándar local correspondiente a la varianza local de la ventana.
En el bloque 206, el método determina un primer coeficiente de ganancia de la imagen de alta frecuencia de acuerdo con valores de ganancia de todos los píxeles de referencia en la imagen de alta frecuencia.
Por ejemplo, un píxel de referencia es cualquier píxel (i, j), cuyo componente de luminancia es x (i, j), en donde i es la coordenada horizontal del píxel de referencia en la imagen, y j es la coordenada vertical del píxel de referencia en la imagen. El tamaño de la ventana puede ser (2n 1) ■ (2n 1), en donde n es un número entero mayor o igual a 0. El tamaño anterior de la ventana es solo a modo de ejemplo. En otras realizaciones, la ventana anterior puede tener la forma de un rectángulo. Es decir, la ventana anterior tiene la forma de (2n 1) ■ (2 m 1).
La varianza local de la ventana se puede calcular mediante la siguiente fórmula:
Figure imgf000008_0001
En donde,
Figure imgf000008_0002
En la fórmula anterior, mx(i, j) es un valor promedio local de la ventana, y x(k, l) es un componente de luminancia de un píxel en la ventana, en donde k y l son números enteros mayores o iguales a 0.
Ox(i, j) es la desviación estándar local de la ventana con el píxel de referencia como el centro. Alternativamente, el valor de ganancia del píxel de referencia es inversamente proporcional a la desviación estándar local. Por ejemplo, el valor de ganancia del píxel de referencia puede ser D/Ox(i, j). Alternativamente, el valor de ganancia del píxel de referencia es mayor que 1 para lograr la mejora de los componentes de luminancia de los píxeles en la imagen de alta frecuencia, en donde D es una constante.
En esta realización, a través de la manera anterior, se determina el valor de ganancia de cada uno de los píxeles en la imagen de alta frecuencia, y se determina además el primer coeficiente de ganancia de la imagen de alta frecuencia. El primer coeficiente de ganancia incluye los valores de ganancia de todos los píxeles en la imagen de alta frecuencia.
En el bloque 207, el método corrige el primer coeficiente de ganancia de acuerdo con un resultado de la identificación de escena para la imagen.
A modo de ejemplo, el resultado de la identificación de escena para la imagen puede ser determinar una relación de información de alta frecuencia a información de baja frecuencia en la imagen. Es decir, el resultado de la identificación de escena puede incluir una radio de información de alta frecuencia a información de baja frecuencia en la imagen. Cuando la relación de la información de alta frecuencia a la información de baja frecuencia es relativamente grande, indica que la imagen de alta frecuencia contiene un gran número de píxeles a ser mejorados. Cuando la imagen de alta frecuencia se mejora de acuerdo con el primer coeficiente de ganancia, el ruido en la imagen se amplifica fácilmente para generar un exceso de imagen, lo que afecta la calidad de imagen. En esta realización, cuando la relación de información de alta frecuencia a información de baja frecuencia es relativamente grande, el primer coeficiente de ganancia se reduce adaptativamente, de manera que se corrige el primer coeficiente de ganancia. Por tanto, se comprende que el primer coeficiente de ganancia se ajusta de forma adaptativa de acuerdo con el resultado de la identificación de escena para que la imagen no mejore el ruido. Cada uno de los píxeles de la imagen de alta frecuencia tiene un valor de ajuste diferente para el valor de ganancia del píxel. Alternativamente, el valor de ajuste para el valor de ganancia se determina de acuerdo con el componente de luminancia del píxel respectivo. Por ejemplo, el valor de ajuste para el valor de ganancia está correlacionado negativamente con el componente de luminancia del píxel respectivo. Por ejemplo, un área luminosa que tiene un componente de luminancia grande se establece con un valor de ajuste pequeño para el coeficiente de ganancia, y un área oscura que tiene un componente de luminancia pequeño se establece con un valor de ajuste grande para el coeficiente de ganancia. Específicamente, la corrección del primer coeficiente de ganancia es que a un valor de ganancia original se resta un valor de ajuste correspondiente para cada uno de los píxeles en la imagen de alta frecuencia, luego se obtiene el valor de ganancia corregido y luego se corrige adicionalmente el primer coeficiente de ganancia de la imagen de alta frecuencia. El coeficiente de ganancia se corrige de acuerdo con los componentes de luminancia de todos los píxeles, lo que evita la amplificación de ruido causada cuando la región oscura se mejora con una gran ganancia.
En el bloque 208, el método realiza un procesamiento de mejora para la imagen de alta frecuencia de acuerdo con el primer coeficiente de ganancia corregido.
En el bloque 209, el método realiza la fusión de imágenes para la imagen de baja frecuencia y la imagen de alta frecuencia mejorada para obtener una imagen procesada.
En el método para el procesamiento de imágenes de acuerdo con realizaciones de la presente divulgación, los componentes de luminancia de la imagen en el modo de color separado de crominancia-luminancia se filtran para obtener una imagen de alta frecuencia y una imagen de baja frecuencia asociadas con los componentes de luminancia, se determina un valor de ganancia adaptativo de cada uno de los píxeles de acuerdo con el componente de luminancia del píxel en la imagen de alta frecuencia para generar el primer coeficiente de ganancia de la imagen de alta frecuencia, y la imagen de alta frecuencia se mejora para obtener la imagen procesada. Dado que los componentes de luminancia independientes se analizan y procesan, el color de la imagen no se puede ver afectado. Mejora el contraste de la imagen en un caso en el que se garantiza que no hay distorsión de color y un rango de la imagen se amplía dinámicamente para hacer definitivos los detalles en la imagen, lo que mejora la calidad de imagen.
La FIG. 3 es un diagrama de flujo de otro método más para el procesamiento de imágenes de acuerdo con una realización de la presente divulgación. Haciendo referencia a la FIG. 3, el método puede incluir las acciones/operaciones en los siguientes bloques.
En el bloque 301, el método obtiene una imagen en un modo de color separado de crominancia-luminancia que se captura por una cámara y realiza la identificación de bordes en la imagen.
En el bloque 302, el método determina un núcleo de filtrado para realizar un procesamiento de filtrado en la imagen de acuerdo con un resultado de la identificación de bordes.
En el bloque 303, el método realiza el procesamiento de filtrado en la imagen en base al núcleo de filtrado para obtener una imagen de alta frecuencia y una imagen de baja frecuencia correspondientes a la imagen.
En el bloque 304, el método determina un primer coeficiente de ganancia de la imagen de alta frecuencia y un segundo coeficiente de ganancia de la imagen de baja frecuencia, realiza el procesamiento de mejora para la imagen de alta frecuencia de acuerdo con el primer coeficiente de ganancia y realiza el procesamiento de mejora para la imagen de baja frecuencia de acuerdo con el segundo coeficiente de ganancia.
Hay que señalar que la imagen de baja frecuencia incluye información de fondo e información detallada de la imagen. Por ejemplo, una imagen original incluye un botón negro y una mancha de punto en el escritorio blanco, y la imagen de alta frecuencia obtenida mediante el procesamiento de filtrado puede incluir el botón negro, y una imagen de baja frecuencia incluye el escritorio blanco y la mancha de punto en el escritorio, en donde la mancha de punto son detalles en la imagen de baja frecuencia. En esta realización, dado que el procesamiento de mejora se realiza sincrónicamente para la imagen de alta frecuencia y la imagen de paso bajo, toda la información de contenido en la imagen se mejora al mismo tiempo, lo que evita la pérdida de la información detallada en la imagen de baja frecuencia.
La manera de determinar el segundo coeficiente de ganancia de la imagen de baja frecuencia es igual que para la imagen de alta frecuencia, la cual no se describe en el presente documento.
Alternativamente, antes de realizarse el procesamiento de mejora para la imagen de alta frecuencia de acuerdo con el primer coeficiente de ganancia y se realiza el procesamiento de mejora para la imagen de baja frecuencia de acuerdo con el segundo coeficiente de ganancia, el primer coeficiente de ganancia y el segundo coeficiente de ganancia se corrigen de acuerdo con un resultado de la identificación de escena de la imagen y, luego, la imagen de alta frecuencia se mejora en base al primer coeficiente de ganancia corregido y la imagen de baja frecuencia se mejora en base al segundo coeficiente de ganancia corregido.
En el bloque 305, el método realiza la fusión de imágenes para la imagen de baja frecuencia mejorada y la imagen de alta frecuencia mejorada para obtener una imagen procesada.
En el método para el procesamiento de imágenes de acuerdo con realizaciones de la presente divulgación, para una imagen en modo de color separado de crominancia-luminancia, se filtran los componentes de luminancia de la imagen para obtener la imagen de baja frecuencia y la imagen de alta frecuencia, el primer coeficiente de ganancia y el segundo coeficiente de ganancia se calculan respectivamente, la imagen de alta frecuencia se mejora de acuerdo con el primer coeficiente de ganancia, la imagen de baja frecuencia se mejora de acuerdo con el segundo coeficiente de ganancia y la fusión de imágenes se realiza para la imagen de alta frecuencia mejorada y la imagen de baja frecuencia mejorada para obtener la imagen procesada. Por tanto, el contraste en la imagen de alta frecuencia y la imagen de baja frecuencia se mejora simultáneamente, se evita la pérdida de detalles durante el procesamiento de imágenes y se mejora la definición de imagen en un caso en donde no se produce distorsión de imagen.
La FIG. 4 es un diagrama de flujo de otro método más para el procesamiento de imágenes de acuerdo con una realización de la presente divulgación. Haciendo referencia a la FIG. 4, el método puede incluir las acciones/operaciones en los siguientes bloques.
En el bloque 401, el método obtiene una imagen en un modo de color separado de crominancia-luminancia que se captura por una cámara y realiza la identificación de bordes para la imagen.
En el bloque 402, el método determina un núcleo de filtrado para realizar un procesamiento de filtrado en la imagen de acuerdo con un resultado de la identificación de bordes.
En el bloque 403, el método realiza el procesamiento de filtrado para los componentes de luminancia de la imagen en base al núcleo de filtrado para obtener una imagen de baja frecuencia y una imagen de alta frecuencia correspondientes a la imagen.
En el bloque 404, el método determina un primer coeficiente de ganancia de la imagen de alta frecuencia, y realiza el procesamiento de mejora para la imagen de alta frecuencia de acuerdo con el primer coeficiente de ganancia.
En el bloque 405, el método identifica una región plana y una región no plana en la imagen de baja frecuencia de acuerdo con la información de luminancia de todos los píxeles en la imagen de baja frecuencia.
En el bloque 406, el método divide la imagen de baja frecuencia en la región plana y la región no plana.
En el bloque 407, el método determina un segundo coeficiente de ganancia de la imagen de baja frecuencia, y realiza la mejora de imagen para la región no plana dividida de acuerdo con el segundo coeficiente de ganancia.
En el bloque 408, el método realiza la fusión de imágenes para la región plana, la región no plana mejorada y la imagen de alta frecuencia mejorada para obtener una imagen procesada.
En algunas realizaciones, la identificación de la región plana y una región no plana en la imagen de baja frecuencia de acuerdo con la información de luminancia de todos los píxeles en la imagen de baja frecuencia puede incluir realizar el procesamiento de particionamiento para la imagen de baja frecuencia para obtener una pluralidad de regiones de imagen y determinar los valores de diferencia de píxeles de las regiones de imagen; determinar las regiones de imagen cuyos valores de diferencia de píxeles son menores o iguales a un valor preestablecido para que pertenezcan a la región plana; y determinar las regiones de imagen cuyos valores de diferencia de píxeles son mayores que el valor preestablecido para que pertenezcan a la región no plana. Es decir, la región plana incluye las regiones de imagen cuyos valores de diferencia de píxeles son menores o iguales a un valor preestablecido y la región no plana incluye las regiones de imagen cuyos valores de diferencia de píxeles son mayores que el valor preestablecido.
Para cualquiera de las regiones de imagen, el valor de diferencia de píxeles de la región de imagen puede calcularse por la fórmula siguiente:
v
1 'ST'
A = - > (gb - g)
p ¿—i
b=l _
En donde A es un valor de diferencia de píxeles de la región de imagen; p es un número total de píxeles en la región de imagen; gb(b= 1,2,---p) es un componente de luminancia de un píxel en la región de imagen; 8 es un valor medio de luminancia local de la región de imagen; y tanto p como b son números enteros positivos mayores que 0.
El valor de diferencia de píxeles indica una condición de diferencia de la información de luminancia de todos los píxeles en la región de imagen. Por ejemplo, un valor de diferencia de píxeles más grande indica que la información de luminancia de todos los píxeles en la región de imagen difiere en gran medida, y un valor de diferencia de píxeles más pequeño indica que la información de luminancia de todos los píxeles en la región de imagen tiene una mayor similitud. Las regiones de imagen cuyos valores de diferencia de píxeles son menores o iguales al valor preestablecido se unen para formar la región plana, y las regiones de imagen cuyos valores de diferencia de píxeles son mayores que el valor preestablecido se une para formar la región no plana. Alternativamente, el valor preestablecido para determinar la región plana y la región no plana está relacionado con un valor Á medio de diferencia local de la imagen de baja frecuencia. Es decir, el valor preestablecido para determinar la región plana y la región no plana se determina de acuerdo con el valor 4 medio de diferencia local. Específicamente, el valor 4 medio de diferencia local de la imagen de baja frecuencia se determina de acuerdo con el número de regiones de imagen y el valor A de diferencia de píxeles de la región de imagen respectiva. El valor preestablecido puede ser A4 introduciendo un coeficiente A. En otras palabras, cuando un valor A de diferencia de píxeles < A4, la región de imagen con el valor A de diferencia de píxeles pertenece a la región plana; y cuando el valor A de diferencia de píxeles > A4, la región de imagen con el valor A de diferencia de píxeles pertenece a la región no plana.
A modo de ejemplo, para una imagen que incluye un botón negro y manchas de puntos en el escritorio blanco, la imagen de alta frecuencia obtenida mediante el procesamiento de filtrado puede incluir el botón negro, y la imagen de baja frecuencia incluye el escritorio blanco y manchas de puntos en el escritorio. En la imagen de baja frecuencia, una porción con manchas de puntos es una región no plana, y el escritorio blanco como región de fondo es una región plana. En la realización anterior, se puede aprender que el valor de ganancia del píxel es inversamente proporcional a la desviación estándar local. Dado que la desviación estándar local de la región plana es bastante pequeña, el valor de ganancia del píxel es relativamente grande y, por tanto, se introducirá amplificación de ruido. En esta realización, una región plana y una región no plana se identifican y dividen de la imagen, y solo se mejora la región no plana. Es decir, no se realiza el ajuste para los componentes de luminancia en la región plana, lo que evita la amplificación de ruido en la región plana cuando se mejora la imagen.
En el método para el procesamiento de imágenes de acuerdo con realizaciones de la presente divulgación, la región plana y la región no plana se dividen de la imagen de baja frecuencia, y la región no plana se ha mejorado para evitar la pérdida de detalles en la imagen de baja frecuencia, mantener la luminosidad de la región plana y evitar la amplificación de ruido.
En una realización, una imagen de vista previa o una imagen capturada en modo YUV de color capturada por una cámara, se puede visualizar en una interfaz de pantalla de un dispositivo electrónico (p. ej., un teléfono móvil), y se puede extraer una instrucción de ampliación de color ingresada por un usuario. La instrucción de ampliación de color puede ingresarse de manera que el usuario haga clic en un controlador virtual (por ejemplo, un controlador integral proporcional) en la interfaz de pantalla, o mediante gestos táctiles o comandos de voz del usuario. La identificación de bordes se realiza en la imagen visualizada en la interfaz de pantalla de acuerdo con una instrucción de procesamiento de imágenes, se determina un núcleo de filtro del filtro de paso bajo de acuerdo con un resultado de la identificación de bordes y se realiza un filtrado de paso bajo para los componentes de luminancia de la imagen para obtener una imagen de alta frecuencia y una imagen de baja frecuencia relacionadas con los componentes de luminancia, se calculan los coeficientes de ganancia para la imagen de alta frecuencia y la imagen de paso bajo, respectivamente, la región plana y la región no plana se identifican y dividen de la imagen de baja frecuencia, la imagen de alta frecuencia y la región no plana de la imagen de baja frecuencia se mejoran, y la fusión de imágenes se realiza para la región plana, la región no plana mejorada y la imagen de alta frecuencia mejorada para obtener la imagen procesada. En esta realización, dado que una imagen en modo YUV de color se procesa directamente, ahorra tiempo para la conversión del modo de color, y como solo se procesan los componentes Y de la imagen, no afecta la relación entre las U y las V, y no tiene cambio alguno en los componentes de crominancia. Es decir, el color de la imagen no se dañará y no se producirá distorsión en ninguna zona de la imagen. A medida que se mejoran la imagen de alta frecuencia y la región no plana de la imagen de baja frecuencia, se mejoran los detalles en la imagen y se mantiene la región plana de la imagen de baja frecuencia. Por tanto, el ruido se controla para evitar la amplificación del ruido.
La FIG. 5 es un diagrama estructural de un aparato para el procesamiento de imágenes de acuerdo con una realización de la presente divulgación. El aparato puede realizarse mediante software y/o hardware y, normalmente, puede integrarse en un dispositivo electrónico para ejecutar el método para el procesamiento de imágenes. Haciendo referencia a la FIG. 5, el aparato puede incluir un módulo 501 de identificación de bordes, un módulo 502 de determinación de núcleo de filtro, un módulo 503 de procesamiento de filtro y un módulo 504 de mejora de imagen.
El módulo 501 de identificación de bordes está configurado para obtener una imagen capturada por una cámara y realizar la identificación de bordes en la imagen.
El módulo 502 de determinación de núcleo de filtro está configurado para determinar un núcleo de filtrado para realizar un procesamiento de filtrado en la imagen de acuerdo con un resultado de la identificación de bordes.
El módulo 503 de procesamiento de filtro está configurado para realizar el procesamiento de filtrado en la imagen en base al núcleo de filtrado para obtener una imagen de alta frecuencia y una imagen de baja frecuencia correspondientes a la imagen.
EL módulo 504 de mejora de imagen está configurado para realizar un procesamiento de mejora para la imagen de alta frecuencia y realiza la fusión de imágenes para la imagen de baja frecuencia y la imagen de alta frecuencia mejorada para obtener una imagen procesada.
En el aparato para el procesamiento de imágenes de acuerdo con realizaciones de la presente divulgación, los diferentes tipos de núcleo de filtrado se adoptan para las diferencias de las imágenes capturadas por el dispositivo electrónico, lo que evita el problema de que se produzca la pérdida de la información de imagen ya que el núcleo de filtrado fijo es aplicable deficientemente y es adecuado para imágenes capturadas por el dispositivo electrónico con diferentes escenas y diferentes complejidades.
En base a las realizaciones anteriores, el módulo 502 de determinación de núcleo de filtro está configurado para las siguientes acciones/operaciones.
Determinar un coeficiente de borde en la imagen de acuerdo con el resultado de la identificación de bordes.
Determinar un tamaño del núcleo de filtrado para realizar el procesamiento de filtrado en la imagen de acuerdo con el coeficiente de borde, en donde el tamaño del núcleo de filtrado está correlacionado positivamente con el coeficiente de borde.
En base a las realizaciones anteriores, el módulo 504 de mejora de imagen puede incluir lo siguiente.
Una unidad de determinación de varianza local, que está configurada para calcular una varianza local de una ventana con un tamaño preestablecido y con un píxel de referencia como un centro en la imagen de alta frecuencia.
Una unidad de determinación de valor de ganancia, que está configurada para determinar un valor de ganancia de un píxel de referencia de acuerdo con una desviación estándar local correspondiente a la varianza local de la ventana. Una primera unidad de determinación de coeficiente de ganancia, que está configurada para determinar un primer coeficiente de ganancia de la imagen de alta frecuencia de acuerdo con valores de ganancia de todos los píxeles de referencia.
Una primera unidad de procesamiento de mejora, que está configurada para realizar un procesamiento de mejora para la imagen de alta frecuencia de acuerdo con el primer coeficiente de ganancia.
En base a las realizaciones anteriores, el aparato incluye además lo siguiente.
Un módulo de corrección de coeficiente de ganancia, que está configurado para corregir el primer coeficiente de ganancia de acuerdo con un resultado de la identificación de escena para la imagen antes realizarse de un procesamiento de mejora para la imagen de alta frecuencia de acuerdo con el primer coeficiente de ganancia.
En base a las realizaciones anteriores, el aparato incluye además lo siguiente.
Un módulo de procesamiento de mejora de imagen de baja frecuencia, que está configurado para determinar un segundo coeficiente de ganancia de la imagen de baja frecuencia y realizar el procesamiento de mejora para la imagen de baja frecuencia de acuerdo con el segundo coeficiente de ganancia.
En consecuencia, el módulo 504 de mejora de imagen está configurado para realizar la fusión de imágenes para la imagen de alta frecuencia mejorada y la imagen de baja frecuencia mejorada para obtener la imagen procesada. En base a las realizaciones anteriores, el módulo de procesamiento de mejora de imagen de baja frecuencia puede incluir lo siguiente.
Una unidad de identificación de imagen, que está configurada para identificar una región plana y una región no plana en la imagen de baja frecuencia de acuerdo con la información de luminancia de todos los píxeles en la imagen de baja frecuencia.
Una unidad de división de imagen, que está configurada para dividir la imagen de baja frecuencia en la región plana y la región no plana.
Una unidad de procesamiento de mejora de región no plana, que está configurada para realizar la mejora de imagen para la región no plana dividida de acuerdo con el segundo coeficiente de ganancia.
En consecuencia, el módulo 504 de mejora de imagen está configurado para realizar la fusión de imágenes para la región plana, la región no plana mejorada y la imagen de alta frecuencia mejorada para obtener una imagen procesada. En base a las realizaciones anteriores, la unidad de identificación de imágenes está configurada para las siguientes acciones/operaciones.
Realizar el procesamiento de particionamiento para la imagen de baja frecuencia para obtener una pluralidad de regiones de imagen y determinar los valores de diferencia de píxeles de las regiones de imagen.
Determinar las regiones de imagen cuyos valores de diferencia de píxeles son menores o iguales a un valor preestablecido para que pertenezcan a la región plana.
Determinar las regiones de imagen cuyos valores de diferencia de píxeles son mayores que el valor preestablecido para que pertenezcan a la región no plana.
En base a las realizaciones anteriores, la imagen es una imagen en un modo de color separado de crominancialuminancia. El modo de color separado de crominancia-luminancia puede incluir un modo YUV de color y un modo LAB de color.
En base a las realizaciones anteriores, el aparato incluye además lo siguiente.
Un módulo de generación para la imagen en modo YUV de color, que está configurado para convertir señales en bruto capturadas por un sensor de imágenes de la cámara en una imagen en el modo RGB de color y generar una imagen en el modo YUV de color en base a la imagen en el modo RGB de color.
La presente divulgación puede proporcionar además un medio de almacenamiento, que puede incluir instrucciones ejecutables por un procesador de una computadora, en donde las instrucciones pueden utilizarse para ejecutar el método para el procesamiento de imágenes mientras se ejecutan por el procesador de la computadora, el método puede incluir las siguientes acciones/operaciones.
El método obtiene una imagen capturada por una cámara y realiza la identificación de bordes en la imagen.
El método determina un núcleo de filtrado para realizar un procesamiento de filtrado en la imagen de acuerdo con un resultado de la identificación de bordes.
El método realiza el procesamiento de filtrado en la imagen en base al núcleo de filtrado para obtener una imagen de baja frecuencia y una imagen de alta frecuencia correspondientes a la imagen.
El método realiza un procesamiento de mejora para la imagen de alta frecuencia y realiza la fusión de imágenes para la imagen de baja frecuencia y la imagen de alta frecuencia mejorada para obtener una imagen procesada.
Un medio de almacenamiento puede ser cualquier tipo de dispositivos de memoria no transitorios o dispositivos de almacenamiento. El término "medio de almacenamiento" pretende incluir un medio de instalación, tal como dispositivos de CD-ROM, un disquete o una cinta; memoria no transitoria de un sistema informático o memoria de acceso aleatorio, tal como DRAM, DDRRAM, SRAM, EDORAM, Rambus RAM y similares; memoria no volátil, tal como memoria flash, medio magnético (tal como disco duro o almacenamiento óptico); un registro u otro tipo de elementos para almacenamiento. El medio de almacenamiento también puede incluir otros tipos de almacenamiento o una combinación de los mismos. Además, el medio de almacenamiento puede estar ubicado en un primer sistema informático del cual se pueden ejecutar programas, o ubicado en un segundo sistema informático diferente del primero, en donde el segundo sistema informático puede estar conectado al primer sistema informático a través de una red. (tal como internet). El segundo sistema informático puede proporcionar instrucciones sistémicas para que las ejecute la primera computadora. El término "medio de almacenamiento" puede incluir dos o más medios de almacenamiento que residen en diferentes ubicaciones (por ejemplo, diferentes sistemas informáticos conectados a través de Internet). El medio de almacenamiento puede almacenar instrucciones de programa, que pueden ejecutarse por uno o más procesadores (por ejemplo, una realización específica puede ser un programa de computadora).
Una realización de la presente divulgación puede proporcionar un medio de almacenamiento que incluye instrucciones ejecutables por computadoras, en donde las instrucciones ejecutables por computadoras pueden no limitarse a las operaciones mencionadas anteriormente para el procesamiento de imágenes, pero pueden incluir cualquier operación relacionada de los métodos de procesamiento de imágenes proporcionados por cualquiera de las realizaciones de la presente divulgación.
La presente divulgación puede proporcionar un dispositivo electrónico, que puede integrar un aparato de procesamiento de imágenes proporcionado por realizaciones de la presente divulgación. La FIG. 6 es un diagrama estructural de un dispositivo electrónico de acuerdo con una realización de la presente divulgación. El dispositivo 600 electrónico puede incluir una memoria 601 no transitoria, un procesador 602 y un programa informático almacenado en la memoria 601 no transitoria y ejecutado por el procesador 602, en donde el procesador 602 puede ejecutar el programa informático para realizar el método para el procesamiento de imágenes como se describe en la presente divulgación.
En el dispositivo electrónico de acuerdo con realizaciones de la presente divulgación, se adoptan diferentes tipos de núcleos de filtrado para las diferencias de las imágenes capturadas por el dispositivo electrónico, lo que evita el problema de que se produzca pérdida de la información de imagen ya que el núcleo de filtrado fijo es aplicable deficientemente, y es adecuado para imágenes capturadas por el dispositivo electrónico con diferentes escenas y diferentes complejidades.
La FIG. 7 es un diagrama estructural de otro dispositivo electrónico más proporcionado por realizaciones de la presente divulgación. El dispositivo electrónico puede incluir una carcasa (no mostrada en la figura), una memoria 701 no transitoria, una unidad 702 central de procesamiento (CPU), una placa de circuito (no mostrada en la figura) y un circuito eléctrico (no mostrado en la figura). La placa de circuito puede disponerse dentro del espacio definido por la carcasa. La CPU 702 y la memoria 701 no transitoria pueden disponerse en la placa de circuito. El circuito eléctrico puede proporcionar energía a cada uno de los circuitos o elementos del dispositivo electrónico. La memoria 701 no transitoria puede almacenar códigos para programas ejecutables. La CPU 702 puede ejecutar programas informáticos correspondientes a los códigos de programas ejecutables leyendo los códigos de programas ejecutables almacenados en la memoria 701 no transitoria. De tal manera, se pueden lograr las siguientes acciones/operaciones.
Se obtiene una imagen capturada por una cámara y realiza la identificación de bordes en la imagen.
Se determina un núcleo de filtrado para realizar un procesamiento de filtrado en la imagen de acuerdo con un resultado de la identificación de bordes.
El procesamiento de filtrado se realiza en la imagen en base al núcleo de filtrado para obtener una imagen de baja frecuencia y una imagen de alta frecuencia correspondientes a la imagen.
Se realiza un procesamiento de mejora para la imagen de alta frecuencia y se realiza la fusión de imágenes para la imagen de baja frecuencia y la imagen de alta frecuencia para obtener una imagen procesada.
El dispositivo electrónico puede incluir además una interfaz 703 de periféricos, un circuito 705 de radiofrecuencia (RF), un circuito 706 de frecuencia de audio, un altavoz 711, un chip 708 de gestión de energía, un subsistema 709 de entrada/salida (E/S), otro aparato 710 de entrada/control, una pantalla 712 táctil, otro aparato 710 de entrada/control y una interfaz 704 externa, cada uno de los cuales puede comunicarse a través de uno o más buses de comunicación o líneas 707 de señal.
Debe entenderse que, el dispositivo 700 electrónico mostrado en la figura es solo un ejemplo de dispositivos electrónicos, el dispositivo 700 electrónico puede contener más o menos de los componentes que los ilustrados en la figura, dos o más de los componentes pueden combinarse, o se puede cambiar la disposición de los componentes. Los componentes ilustrados en la figura pueden realizarse mediante hardware, software o una combinación de los mismos, en donde el hardware y el software pueden incluir uno o más procesadores de señales y/o circuitos integrados de aplicación específica.
El dispositivo electrónico para las operaciones de procesamiento de imágenes proporcionadas por la presente divulgación se describirá en detalles en el presente documento, y se puede utilizar un teléfono móvil como un ejemplo del dispositivo electrónico.
Se puede acceder a la memoria 701 no transitoria por la CPU 702, la interfaz 703 de periféricos y similares. La memoria 701 no transitoria puede incluir una memoria de acceso aleatorio de alta velocidad o una memoria no volátil, tal como un dispositivo de almacenamiento de tipo disco, un dispositivo de memoria flash u otro dispositivo de memoria de estado sólido volátil.
La interfaz 703 de periféricos puede conectar la entrada y salida del dispositivo a la CPU 702 y la memoria 701 no transitoria.
El Subsistema 709 de E/S puede establecer los periféricos de entrada y salida. Por ejemplo, la pantalla 712 táctil y otros dispositivos 710 de entrada/control pueden conectarse a la interfaz 703 de periféricos. El subsistema 709 de E/S puede incluir un controlador 7091 de pantalla y uno o más controladores 7092 de entrada para controlar otros dispositivos 710 de entrada/control. El uno o más controladores 7092 de entrada pueden recibir señales eléctricas de otros dispositivos 710 de entrada/control o enviar señales eléctricas a otros dispositivos 710 de entrada/control, donde los otros dispositivos 710 de entrada/control pueden incluir un botón físico (un botón de presión, un botón basculante y similares), una placa de marcación, un interruptor deslizante, una palanca de control o una rueda de clic. Cabe señalar que, el controlador 7092 de entrada puede conectarse a cualquiera de los siguientes: un teclado, un puerto de infrarrojos, una interfaz USB y un equipo indicador, tal como un ratón.
La pantalla 712 táctil puede proporcionar una interfaz de entrada y una interfaz de salida entre un usuario y el dispositivo electrónico del usuario. La salida visual se puede mostrar al usuario, en donde la salida visual puede incluir un gráfico, un texto, un icono, un video y similares.
El controlador 7091 de pantalla del subsistema 709 de E/S puede recibir señales eléctricas desde la pantalla 712 táctil o enviar señales eléctricas a la pantalla 712 táctil. La pantalla 712 táctil puede detectar contacto de la pantalla, el controlador 7091 de pantalla puede convertir el contacto detectado en una interacción con un objeto de interfaz de usuario visualizado en la pantalla 712 táctil, lo que realiza la interacción persona-computadora. El objeto de interfaz de usuario visualizado en la pantalla 712 táctil puede ser un icono para ejecutar un juego, un icono para conectarse a una determinada red y similares. Cabe señalar que el dispositivo también puede incluir un ratón óptico, que es una superficie sensible al tacto sin visualización de salida visual o una extensión de la superficie sensible al tacto definida por la pantalla táctil.
El circuito 705 de RF puede utilizarse para establecer la comunicación entre los teléfonos móviles y la red inalámbrica (es decir, un lado de red), realizando la recepción y el envío de datos de entre el teléfono móvil y la red inalámbrica. Por ejemplo, recibir y enviar mensajes, correos electrónicos y similares. Para ser específico, el circuito 705 de RF puede recibir y enviar señales de RF, que también se denominan señales electromagnéticas, el circuito 705 de RF puede convertir señales eléctricas en señales electromagnéticas o convertir señales electromagnéticas en señales eléctricas y comunicarse con redes de comunicaciones y otros dispositivos a través de las señales electromagnéticas. El circuito 705 de RF puede incluir un circuito conocido para ejecutar las funciones anteriores, en donde el circuito conocido puede incluir, entre otros, un sistema de antena, un transceptor de RF, uno o más amplificadores, un sintonizador, uno o más osciladores, un procesador de señales digitales., un chipset de codificador-decodificador, un módulo de identidad de abonado (SIM) y similares.
El circuito 706 de frecuencia de audio puede recibir datos de frecuencia de audio desde la interfaz 703 de periféricos y convertir los datos de frecuencia de audio en señales eléctricas, que pueden enviarse al altavoz 711.
El altavoz 711 puede reconvertir las señales de audio recibidas desde la red inalámbrica a través del circuito de RF del teléfono móvil en sonido y reproducir el sonido para el usuario.
El chip 708 de gestión de energía puede suministrar energía al hardware conectado a través de la CPU 702, el subsistema de E/S y la interfaz de periféricos y realiza la gestión de energía.
El aparato para el procesamiento de imágenes, el medio de almacenamiento y el dispositivo electrónico proporcionados por las realizaciones antes mencionadas pueden ejecutar el método para el procesamiento de imágenes proporcionan por cualquiera de las realizaciones y tiene correspondientes módulos funcionales para ejecutar los métodos y lograr los efectos beneficiosos. Los detalles técnicos que no se describen en detalle en la realización anterior pueden referirse al método para el procesamiento de imágenes descrito en cualquiera de las realizaciones.
La invención se define por las reivindicaciones adjuntas.

Claims (13)

REIVINDICACIONES
1. Un método implementado por computadora para el procesamiento de imágenes que comprende:
realizar (101,201,301,401) la identificación de bordes en una imagen;
determinar (102, 202, 302, 402) un núcleo de filtrado para un procesamiento de filtrado en la imagen de acuerdo con un resultado de la identificación de bordes;
realizar (103, 203, 303, 403) el procesamiento de filtrado en la imagen en base al núcleo de filtrado para obtener una imagen de baja frecuencia y una imagen de alta frecuencia correspondientes a la imagen; y realizar (104) un procesamiento de mejora para la imagen de alta frecuencia utilizando un primer coeficiente de ganancia de la imagen de alta frecuencia para obtener una imagen de alta frecuencia mejorada y realizar la fusión de imágenes para la imagen de baja frecuencia y la imagen de alta frecuencia mejorada para obtener una imagen procesada;
en donde se realiza un procesamiento de filtrado de paso bajo en la imagen en base al núcleo de filtrado para obtener la imagen de baja frecuencia, y la imagen de baja frecuencia se resta de la imagen original para obtener la imagen de alta frecuencia;
caracterizado por:
la determinación (102, 202, 302, 402) del núcleo de filtrado para un procesamiento de filtrado en la imagen de acuerdo con el resultado de la identificación de bordes comprende: determinar un coeficiente de borde en la imagen de acuerdo con el resultado de la identificación de bordes, en donde el coeficiente de borde indica información de borde en la imagen, en donde cuanto mayor es el coeficiente de borde, más información de borde comprende la imagen, mientras que cuanto menor es el coeficiente de borde, menos información de borde comprende la imagen; y determinar un tamaño del núcleo de filtrado de acuerdo con el coeficiente de borde, en donde el tamaño del núcleo de filtrado está correlacionado positivamente con el coeficiente de borde; o
la determinación (102, 202, 302, 402) del núcleo de filtrado para un procesamiento de filtrado en la imagen de acuerdo con el resultado de la identificación de bordes comprende: dividir la imagen en una región sin fondo donde se encuentra la información de borde y una región de fondo; y determinar de forma adaptativa un tamaño del núcleo de filtrado de acuerdo con una ubicación donde se encuentra la información de borde, en donde el tamaño del núcleo de filtrado para la región sin fondo es mayor que el de la región de fondo.
2. El método de acuerdo con la reivindicación 1, en donde el dispositivo (600, 700) electrónico comprende una cámara, y la imagen se captura por la cámara y en un modo de color separado de crominancia-luminancia, y el modo de color separado de crominancia-luminancia comprende el modo YUV de color y el modo LAB de color; y
la realización (103, 203, 303, 403) del procesamiento de filtrado comprende:
realizar el procesamiento de filtrado para los componentes de luminancia de la imagen en base al núcleo de filtrado.
3. El método de acuerdo con la reivindicación 2, en donde la cámara comprende un sensor de imágenes; y generar la imagen en el modo de color separado de crominancia-luminancia comprende:
convertir señales en bruto capturadas por el sensor de imágenes en una imagen en modo RGB de color; y generar la imagen en modo YUV de color en base a la imagen en modo RGB de color.
4. El método de acuerdo con la reivindicación 1, en donde la realización (104) del procesamiento de mejora para la imagen de alta frecuencia comprende:
determinar (206) el primer coeficiente de ganancia de la imagen de alta frecuencia, en donde el primer coeficiente de ganancia comprende valores de ganancia de todos los píxeles en la imagen de alta frecuencia, en donde un valor de ganancia de un píxel se determina de acuerdo con una desviación estándar local de un ventana con un tamaño preestablecido y con un píxel como un centro, la desviación estándar local de la ventana se obtiene calculando una varianza local de la ventana; y
realizar (208) el procesamiento de mejora para la imagen de alta frecuencia de acuerdo con el primer coeficiente de ganancia.
5. El método de acuerdo con la reivindicación 4, en donde el valor de ganancia de un píxel es inversamente proporcional a la desviación estándar local de la ventana con el píxel como un centro.
6. El método de acuerdo con la reivindicación 4, antes de realizar (208) el procesamiento de mejora para la imagen de alta frecuencia de acuerdo con el primer coeficiente de ganancia, comprende, además:
corregir (207) el primer coeficiente de ganancia de acuerdo con un resultado de la identificación de escena para la imagen; en donde el resultado de la identificación de escena comprende una relación de información de alta frecuencia a información de baja frecuencia en la imagen.
7. El método de acuerdo con la reivindicación 6, en donde el primer coeficiente de ganancia se reduce cuando la relación de información de alta frecuencia a información de baja frecuencia en la imagen es mayor que un valor preestablecido.
8. El método de acuerdo con la reivindicación 7, en donde los valores de ganancia en el primer coeficiente de ganancia tienen diferentes valores de ajuste; y
uno de los valores de ganancia se resta por un valor de ajuste correspondiente de manera que se reduce el primer coeficiente de ganancia.
9. El método de acuerdo con la reivindicación 8, en donde los valores de ajuste se determinan de acuerdo con los componentes de luminancia de todos los píxeles en la imagen de alta frecuencia, en donde un valor de ajuste para un píxel está correlacionado negativamente con un componente de luminancia del píxel.
10. El método de acuerdo con una cualquiera de las reivindicaciones 1-9, que comprende además:
determinar (304) un segundo coeficiente de ganancia de la imagen de baja frecuencia;
realizar (304) el procesamiento de mejora para la imagen de baja frecuencia de acuerdo con el segundo coeficiente de ganancia; y
realizar (305) la fusión de imágenes para la imagen de alta frecuencia mejorada y la imagen de baja frecuencia mejorada para obtener la imagen procesada.
11. El método de acuerdo con la reivindicación 10, en donde la realización (304) del procesamiento de mejora para la imagen de baja frecuencia de acuerdo con el segundo coeficiente de ganancia comprende:
identificar (405) una región plana y una región no plana en la imagen de baja frecuencia de acuerdo con la información de luminancia en la imagen de baja frecuencia; y
realizar (407) la mejora de imagen para la región no plana de acuerdo con el segundo coeficiente de ganancia; y
en donde la imagen procesada se obtiene realizando (408) la fusión de imágenes para la región plana, la región no plana mejorada y la imagen de alta frecuencia mejorada.
12. El método de acuerdo con la reivindicación 11, en donde la imagen de baja frecuencia se particiona en una pluralidad de regiones de imagen y, cada una de las regiones de imagen, tiene un valor de diferencia de píxeles que indica una condición de diferencia de la información de luminancia de todos los píxeles en cada una de las regiones de imagen;
la región plana comprende las regiones de imagen cuyos valores de diferencia de píxeles son menores o iguales a un valor preestablecido;
la región no plana comprende las regiones de imagen cuyos valores de diferencia de píxeles son mayores que el valor preestablecido;
el valor de diferencia de píxeles de cada una de las regiones de imagen se calcula en la siguiente fórmula:
Figure imgf000017_0001
en donde A es el valor de diferencia de píxeles, p es un número total de píxeles en cada una de las regiones de imagen, gb(b= 1,2,---p) es un componente de luminancia de un píxel en cada una de las regiones de imagen, 8 es un valor medio de luminancia local de cada una de las regiones de imagen, y tanto p como b son números enteros positivos mayores que 0; y
el valor preestablecido se determina de acuerdo con un valor medio de diferencia local calculado de acuerdo con un número de las regiones de imagen y el valor de diferencia de píxeles de cada una de las regiones de imagen.
13. Un dispositivo (600, 700) electrónico, que comprende una cámara configurada para capturar una imagen, una memoria (601) no transitoria que almacena un programa informático y un procesador (602), caracterizado por que el procesador está configurado para ejecutar el programa informático para realizar un método en una cualquiera de las reivindicaciones 1-12.
ES19192429T 2018-08-20 2019-08-20 Método para el procesamiento de imágenes y dispositivo electrónico Active ES2868129T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810948468.1A CN109146814B (zh) 2018-08-20 2018-08-20 图像处理方法、装置、存储介质及电子设备

Publications (1)

Publication Number Publication Date
ES2868129T3 true ES2868129T3 (es) 2021-10-21

Family

ID=64790460

Family Applications (1)

Application Number Title Priority Date Filing Date
ES19192429T Active ES2868129T3 (es) 2018-08-20 2019-08-20 Método para el procesamiento de imágenes y dispositivo electrónico

Country Status (5)

Country Link
US (1) US11158033B2 (es)
EP (1) EP3614334B1 (es)
CN (1) CN109146814B (es)
ES (1) ES2868129T3 (es)
WO (1) WO2020038261A1 (es)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109146814B (zh) 2018-08-20 2021-02-23 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备
CN109272459B (zh) * 2018-08-20 2020-12-01 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备
US11265446B2 (en) * 2018-10-18 2022-03-01 Sony Corporation Frame handling for ML-based upscaling
CN110544250B (zh) * 2019-09-06 2022-09-13 上海联影医疗科技股份有限公司 一种医学图像处理方法和系统
CN110347261A (zh) * 2019-07-11 2019-10-18 Oppo广东移动通信有限公司 信息显示方法、装置、存储介质及增强现实设备
CN110634112B (zh) * 2019-10-15 2022-02-22 中国矿业大学(北京) 一种双域分解的矿井下含噪声图像的增强方法
CN110992447B (zh) * 2019-12-05 2023-05-05 北京中网易企秀科技有限公司 一种图文适配方法、装置、存储介质及设备
CN111145114B (zh) * 2019-12-19 2022-03-25 腾讯科技(深圳)有限公司 一种图像增强的方法、装置及计算机可读存储介质
CN113129220B (zh) * 2019-12-31 2024-03-29 荣耀终端有限公司 图像处理方法及电子设备
CN111275804B (zh) * 2020-01-17 2022-09-16 腾讯科技(深圳)有限公司 图像光照去除方法、装置、存储介质和计算机设备
KR20210107955A (ko) * 2020-02-24 2021-09-02 삼성전자주식회사 컬러 스테인 분석 방법 및 상기 방법을 이용하는 전자 장치
CN111429381B (zh) * 2020-04-10 2023-02-17 展讯通信(上海)有限公司 图像边缘增强方法及装置、存储介质、计算机设备
CN113706394A (zh) * 2020-05-20 2021-11-26 北京华科德科技有限公司 图像处理方法,装置及存储介质
CN111709890B (zh) * 2020-06-12 2023-11-24 北京小米松果电子有限公司 一种图像增强模型的训练方法、装置及存储介质
CN112214773B (zh) * 2020-09-22 2022-07-05 支付宝(杭州)信息技术有限公司 基于隐私保护的图像处理方法、装置和电子设备
CN112950516B (zh) * 2021-01-29 2024-05-28 Oppo广东移动通信有限公司 图像局部对比度增强的方法及装置、存储介质及电子设备
CN113344831B (zh) * 2021-05-26 2024-05-14 中国农业大学 图像增强方法及装置
CN113744294B (zh) * 2021-08-09 2023-12-19 深圳曦华科技有限公司 图像处理方法及相关装置
CN113570537B (zh) * 2021-09-26 2022-02-08 熵基科技股份有限公司 安检图像融合方法、装置、存储介质及计算机设备
CN116095509B (zh) * 2021-11-05 2024-04-12 荣耀终端有限公司 生成视频帧的方法、装置、电子设备及存储介质
CN116438568A (zh) * 2022-05-23 2023-07-14 上海玄戒技术有限公司 位置差异图生成方法及装置、电子设备、芯片及介质
CN115242968A (zh) * 2022-06-10 2022-10-25 浙江大华技术股份有限公司 一种摄像设备的聚焦方法、装置和计算机可读存储介质

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6189064B1 (en) * 1998-11-09 2001-02-13 Broadcom Corporation Graphics display system with unified memory architecture
US6633684B1 (en) 2000-07-07 2003-10-14 Athentech Technologies Corp. Distortion-free image contrast enhancement
KR100343744B1 (ko) * 2000-09-30 2002-07-20 엘지전자주식회사 영상신호의 콘트라스트 향상 장치
US7412110B1 (en) * 2004-01-28 2008-08-12 Adobe Systems Incorporated Using forward and backward kernels to filter images
JP4466261B2 (ja) 2004-07-30 2010-05-26 カシオ計算機株式会社 撮像装置、明るさ補正方法及びプログラム
TWI286032B (en) * 2005-07-05 2007-08-21 Ali Corp Image enhancement system
CN101488219B (zh) * 2008-12-19 2010-12-22 四川虹微技术有限公司 一种快速视频图像双边滤波的方法
US8294781B2 (en) * 2009-10-20 2012-10-23 Apple Inc. System and method for sharpening image data
CN101860667B (zh) * 2010-05-06 2012-11-07 中国科学院西安光学精密机械研究所 一种快速去除图像中混合噪声的方法
JP5459251B2 (ja) * 2011-03-31 2014-04-02 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
CN102214357A (zh) * 2011-06-22 2011-10-12 王洪剑 一种图像增强方法及系统
JP5986443B2 (ja) * 2012-07-13 2016-09-06 富士フイルム株式会社 放射線画像撮影装置、放射線の照射開始の検出感度の制御方法およびプログラム
JP5975215B2 (ja) * 2012-11-14 2016-08-23 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム、画像調整装置及び画像調整プログラム
CN104240183B (zh) * 2013-06-08 2017-03-29 富士通株式会社 图像处理过程中的滤波方法和装置
CN105791790B (zh) 2014-12-25 2018-09-04 小米科技有限责任公司 图像处理方法及装置
CN104616268A (zh) * 2015-02-17 2015-05-13 天津大学 一种基于湍流模型的水下图像复原方法
WO2016135777A1 (ja) * 2015-02-26 2016-09-01 三菱電機株式会社 画像処理装置
GB2549074B (en) * 2016-03-24 2019-07-17 Imagination Tech Ltd Learned feature motion detection
CN107767356B (zh) * 2016-08-23 2020-06-19 浙江宇视科技有限公司 一种图像处理方法和装置
CN106846270B (zh) * 2017-01-05 2020-02-14 浙江大华技术股份有限公司 一种图像边缘增强方法及装置
CN107231505B (zh) * 2017-07-18 2019-09-10 北京小米移动软件有限公司 图像处理方法及装置
CN108876733B (zh) * 2018-05-30 2021-11-09 上海联影医疗科技股份有限公司 一种图像增强方法、装置、设备和存储介质
CN109146814B (zh) * 2018-08-20 2021-02-23 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备

Also Published As

Publication number Publication date
CN109146814B (zh) 2021-02-23
WO2020038261A1 (en) 2020-02-27
EP3614334B1 (en) 2021-02-24
CN109146814A (zh) 2019-01-04
US20200058112A1 (en) 2020-02-20
US11158033B2 (en) 2021-10-26
EP3614334A1 (en) 2020-02-26

Similar Documents

Publication Publication Date Title
ES2868129T3 (es) Método para el procesamiento de imágenes y dispositivo electrónico
CN109272459B (zh) 图像处理方法、装置、存储介质及电子设备
CN109639982B (zh) 一种图像降噪方法、装置、存储介质及终端
CN109727215B (zh) 图像处理方法、装置、终端设备及存储介质
US11019271B2 (en) Image sensor, camera module and electronic device
US11138695B2 (en) Method and device for video processing, electronic device, and storage medium
CN113508416B (zh) 图像融合处理模块
CN109714582B (zh) 白平衡调整方法、装置、存储介质及终端
CN109727216B (zh) 图像处理方法、装置、终端设备及存储介质
JP2015532070A (ja) シーン認識方法および装置
CN109618098B (zh) 一种人像面部调整方法、装置、存储介质及终端
US10769474B2 (en) Keypoint detection circuit for processing image pyramid in recursive manner
US20140321770A1 (en) System, method, and computer program product for generating an image thumbnail
US10438376B2 (en) Image processing apparatus replacing color of portion in image into single color, image processing method, and storage medium
US8995784B2 (en) Structure descriptors for image processing
WO2019134505A1 (zh) 图像虚化方法、存储介质及电子设备
US11641524B2 (en) Electronic device and method for displaying image in electronic device
US11375140B2 (en) Binner circuit for image signal processor
JP2016197377A (ja) 画像補正用コンピュータプログラム、画像補正装置及び画像補正方法
US12003867B2 (en) Electronic device and method for displaying image in electronic device
JP6326316B2 (ja) 画像処理装置、撮影装置、プログラム、記録媒体
CN114693507A (zh) 图像虚化方法、计算机设备、计算机可读存储介质