ES2774493T3 - Procedimiento y aparato de procesamiento de imágenes, y dispositivo electrónico - Google Patents

Procedimiento y aparato de procesamiento de imágenes, y dispositivo electrónico Download PDF

Info

Publication number
ES2774493T3
ES2774493T3 ES17202517T ES17202517T ES2774493T3 ES 2774493 T3 ES2774493 T3 ES 2774493T3 ES 17202517 T ES17202517 T ES 17202517T ES 17202517 T ES17202517 T ES 17202517T ES 2774493 T3 ES2774493 T3 ES 2774493T3
Authority
ES
Spain
Prior art keywords
image
pixel
simulation
color
photosensitive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17202517T
Other languages
English (en)
Inventor
Cheng Tang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Application granted granted Critical
Publication of ES2774493T3 publication Critical patent/ES2774493T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4015Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/46Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by combining or binning pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/62Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/77Circuits for processing the brightness signal and the chrominance signal relative to each other, e.g. adjusting the phase of the brightness signal relative to the colour signal, correcting differential gain or differential phase

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Color Television Image Signal Generators (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

Un procedimiento de procesamiento de imágenes, aplicado en un dispositivo electrónico (1000), en el que el dispositivo electrónico (1000) comprende un sensor de imagen (10), el sensor de imagen (10) comprende una matriz (12) de unidades de píxel fotosensible y una matriz (14 ) de unidades de filtro dispuestas en la matriz (12) de unidades de píxel fotosensible, cada unidad de filtro (14a) corresponde a una unidad de píxel fotosensible (12a), y cada unidad de píxel fotosensible (12a) comprende una pluralidad de píxeles fotosensibles (122) adyacentes entre sí y con el mismo color, el procedimiento de procesamiento de imágenes comprende: emitir (211) una imagen mezclada mediante el sensor de imagen (10), en el que la imagen mezclada comprende una matriz de píxeles mezclados, y la pluralidad de píxeles fotosensibles (122) en una misma unidad de píxel fotosensible (12a) se emiten colectivamente como un píxel mezclado; determinar (212) un área de enfoque de la imagen mezclada; determinar (214) si hay un objeto de destino en el área de enfoque; caracterizado porque: cuando el objeto de destino está en el área de enfoque, convertir (216) la imagen mezclada en una imagen mezclada de color verdadero; en el que, el procedimiento de procesamiento de imágenes además comprende: cuando no hay un objeto de destino en el área de enfoque, determinar (217) si un brillo del área de enfoque es menor o igual que un primer umbral de brillo, si una proporción de verde del área de enfoque es menor o igual que un umbral de proporción y si una frecuencia espacial del área de enfoque es menor o igual que un umbral de frecuencia; cuando se satisface al menos uno de lo siguiente: el brillo del área de enfoque es menor o igual que el primer umbral de brillo, la proporción de verde es menor o igual que el umbral de proporción y la frecuencia espacial es menor o igual que el umbral de frecuencia, convertir (216) la imagen mezclada en la imagen mezclada de color verdadero; en el que el procedimiento de procesamiento de imágenes además comprende: cuando el brillo del área de enfoque es mayor que el primer umbral de brillo, la proporción de verde es mayor que el umbral de proporción y la frecuencia espacial es mayor que el umbral de frecuencia, emitir (219) una imagen de bloque de color mediante el sensor de imagen (10), en el que la imagen de bloque de color comprende unidades de píxel de imagen dispuestas en una matriz predeterminada, en el que la matriz predeterminada comprende una matriz de Bayer, cada unidad de píxel de imagen comprende una pluralidad de píxeles originales proporcionados por píxeles fotosensibles cubiertos por el filtro de color que tiene el mismo color del sensor de imagen, cada unidad de píxel fotosensible (12a) corresponde a una unidad de píxel de imagen, y cada píxel fotosensible (122) corresponde a un píxel original; convertir (220) la imagen de bloque de color en una imagen de simulación usando un primer algoritmo de interpolación, en el que la imagen de simulación comprende píxeles de simulación dispuestos en una matriz, y cada píxel fotosensible corresponde a un píxel de simulación; y convertir (230) la imagen de simulación en la imagen de simulación de color verdadero; en el que convertir (216) la imagen mezclada en una imagen mezclada de color verdadero comprende: convertir (2162) la imagen mezclada en una imagen de restauración usando un segundo algoritmo de interpolación, en el que la imagen de restauración corresponde a la imagen de simulación y comprende píxeles de restauración dispuestos en un matriz, cada píxel fotosensible corresponde a un píxel de restauración; y convertir (2164) la imagen de restauración en la imagen mezclada de color verdadero, y una complejidad del segundo algoritmo de interpolación es menor que la del primer algoritmo de interpolación.

Description

DESCRIPCIÓN
Procedimiento y aparato de procesamiento de imágenes, y dispositivo electrónico
Campo
La presente divulgación se refiere al campo de la tecnología de formación de imágenes y, más particularmente, a un procedimiento de procesamiento de imágenes, un aparato de procesamiento de imágenes y un dispositivo electrónico.
Antecedentes
Cuando una imagen se procesa usando un procedimiento de procesamiento de imágenes convencional, la imagen obtenida tiene una resolución baja, o lleva mucho tiempo y demasiados recursos obtener una imagen con alta resolución, los cuales son inconvenientes para los usuarios.
El documento US2012307098A1 se refiere a un aparato de captación de imagen para generar la imagen óptica formada con luz del sistema óptico de captación de imagen. Además, se genera una segunda imagen usando la salida del sistema de captura de imagen y el 2.° elemento de captación de imagen con el cual se genera la primera imagen para mostrar y grabar usando la salida del 1.er elemento de captación de imagen que convierte el fotoelectrón respectivamente y el 2^ elemento de captación de imagen y el 1.er elemento de captación de imagen.
El documento US2011234863A1 se refiere a un dispositivo de formación de imágenes de estado sólido que tiene píxeles de color. Los filtros de color están dispuestos para píxeles respectivos, en los que en una matriz de filtros de color en la que dos bloques de dos píxeles en una dirección de fila * dos píxeles en una dirección de columna de color X1 están dispuestos en una línea diagonal, y un bloque de dos píxeles en la dirección de fila * dos píxeles en la dirección de columna de un color X2 y un bloque de dos píxeles en la dirección de fila * dos píxeles en la dirección de columna de un color X3 están dispuestos en la otra línea diagonal, los píxeles se desplazan por un píxel en la dirección de columna alternativamente en la dirección de fila.
Divulgación
La presente divulgación tiene como objetivo resolver al menos uno de los problemas existentes en la técnica relacionada al menos hasta cierto punto. Por consiguiente, la presente divulgación proporciona un procedimiento de procesamiento de imágenes, un aparato de procesamiento de imágenes y un dispositivo electrónico.
Las realizaciones de la presente divulgación proporcionan un procedimiento de procesamiento de imágenes. El procedimiento de procesamiento de imágenes se aplica en un dispositivo electrónico. El dispositivo electrónico incluye un sensor de imagen. El sensor de imagen incluye una matriz de unidades de píxel fotosensible y una matriz de unidades de filtro dispuestas en la matriz de unidades de píxel fotosensible. Cada unidad de filtro corresponde a una unidad de píxel fotosensible, y cada unidad de píxel fotosensible incluye una pluralidad de píxeles fotosensibles. El procedimiento de procesamiento de imágenes incluye: emitir una imagen mezclada mediante el sensor de imagen, en el que la imagen mezclada incluye una matriz de píxeles mezclados, y la pluralidad de píxeles fotosensibles en una misma unidad de píxel fotosensible se emiten colectivamente como un píxel combinado; determinar un área de enfoque de la imagen mezclada; determinar si hay un objeto de destino en el área de enfoque; cuando el objeto de destino está en el área de enfoque, convertir la imagen mezclada en una imagen mezclada de color verdadero.
En al menos una realización, determinar un área de enfoque de la imagen mezclada comprende: dividir la imagen mezclada en una pluralidad de regiones de análisis dispuestas en una matriz; computar una diferencia de fase de cada una de la pluralidad de regiones de análisis; y mezclar regiones de análisis cada una con una diferencia de fase conforme a una condición preestablecida en el área de enfoque.
En al menos una realización, el procedimiento de procesamiento de imágenes además incluye: cuando no hay un objeto de destino en el área de enfoque, determinar si un brillo del área de enfoque es menor o igual que un primer umbral de brillo, si una proporción de verde del área de enfoque es menor o igual que un umbral de proporción y si una frecuencia espacial del área de enfoque es menor o igual que un umbral de frecuencia; cuando se satisface al menos uno de lo siguiente: el brillo del área de enfoque es menor o igual que el primer umbral de brillo, la proporción de verde es menor o igual que el umbral de proporción y la frecuencia espacial es menor o igual que el umbral de frecuencia, convertir la imagen mezclada en la imagen mezclada de color verdadero.
En al menos una realización, el procedimiento de procesamiento de imágenes además incluye: cuando el brillo del área de enfoque es mayor que el primer umbral de brillo, la proporción de verde es mayor que el umbral de proporción y la frecuencia espacial es mayor que el umbral de frecuencia, emitir una imagen de bloque de color mediante el sensor de imagen, en el que la imagen de bloque de color comprende unidades de píxel de imagen dispuestas en una matriz preestablecida, cada unidad de píxel de imagen comprende una pluralidad de píxeles originales, cada unidad de píxel fotosensible corresponde a una unidad de píxel de imagen, y cada píxel fotosensible corresponde a un píxel original; convertir la imagen de bloque de color en una imagen de simulación usando un primer algoritmo de interpolación, en el que la imagen de simulación comprende píxeles de simulación dispuestos en una matriz, y cada píxel fotosensible corresponde a un píxel de simulación; y convertir la imagen de simulación en la imagen de simulación de color verdadero.
En al menos una realización, convertir la imagen de bloque de color en la imagen de simulación usando el primer algoritmo de interpolación comprende: determinar si un color de un píxel de simulación es idéntico al de un píxel original en la misma posición que el píxel de simulación ; cuando el color del píxel de simulación es idéntico al del píxel original en la misma posición que el píxel de simulación, determinar un valor de píxel del píxel original como un valor de píxel del píxel de simulación; y cuando el color del píxel de simulación es diferente del color del píxel original en la misma posición que el píxel de simulación, determinar el valor de píxel del píxel de simulación de acuerdo con un valor de píxel de un píxel de asociación, en el que el píxel de asociación se selecciona de una unidad de píxel de imagen con un mismo color que el píxel de simulación y adyacente a una unidad de píxel de imagen que comprende el píxel original.
En al menos una realización, determinar el valor de píxel del píxel de simulación de acuerdo con un valor de píxel de un píxel de asociación comprende: calcular un cambio del color del píxel de simulación en cada dirección de al menos dos direcciones de acuerdo con el valor de píxel del píxel de asociación; calcular un peso en cada dirección de las al menos dos direcciones de acuerdo con el cambio; y calcular el valor de píxel del píxel de simulación de acuerdo con el peso y el valor de píxel del píxel de asociación.
En al menos una realización, el procedimiento de procesamiento de imágenes además incluye: realizar una compensación de balance de blancos en la imagen de bloque de color; y realizar una compensación de balance de blancos inversa en la imagen de simulación.
En al menos una realización, el procedimiento de procesamiento de imágenes además incluye: realizar al menos una de una compensación de punto defectuoso y una compensación de diafonía en la imagen de bloque de color.
En al menos una realización, el procedimiento de procesamiento de imágenes además incluye: realizar al menos una corrección de forma de espejo, un procesamiento de eliminación de mosaico, un procesamiento de eliminación de ruido y un procesamiento de acentuación de contorno en la imagen de simulación.
En al menos una realización, convertir la imagen mezclada en una imagen mezclada de color verdadero comprende: convertir la imagen mezclada en una imagen de restauración usando un segundo algoritmo de interpolación, en el que la imagen de restauración comprende píxeles de restauración dispuestos en una matriz, cada píxel fotosensible corresponde a un píxel de restauración, y la complejidad del segundo algoritmo de interpolación es menor que la del primer algoritmo de interpolación; y convertir la imagen de restauración en la imagen mezclada de color verdadero.
Las realizaciones de la presente divulgación además proporcionan un aparato de procesamiento de imágenes. El aparato de procesamiento de imágenes se aplica en un dispositivo electrónico. El dispositivo electrónico incluye un sensor de imagen. El sensor de imagen incluye una matriz de unidades de píxel fotosensible y una matriz de unidades de filtro dispuestas en la matriz de unidades de píxel fotosensible. Cada unidad de filtro corresponde a una unidad de píxel fotosensible, y cada unidad de píxel fotosensible incluye una pluralidad de píxeles fotosensibles. El aparato de procesamiento de imágenes incluye un medio no transitorio legible por ordenador que incluye instrucciones legibles por ordenador almacenadas en el mismo, y un sistema de ejecución de instrucción que está configurado por las instrucciones para implementar al menos uno de un primer módulo de control, un primer módulo de determinación, un segundo módulo de determinación y un primer módulo de conversión. El primer módulo de control está configurado para emitir una imagen mezclada mediante el sensor de imagen, en el cual, la imagen mezclada incluye una matriz de píxeles mezclados, y la pluralidad de píxeles fotosensibles en una misma unidad de píxel fotosensible se emiten colectivamente como un píxel combinado. El primer módulo de determinación está configurado para determinar un área de enfoque de la imagen mezclada. El segundo módulo de determinación está configurado para determinar si hay un objeto de destino en el área de enfoque. El primer módulo de conversión está configurado para convertir la imagen mezclada en una imagen mezclada de color verdadero cuando el objeto de destino está en el área de enfoque.
En al menos una realización, el primer módulo de determinación comprende: una unidad de división, configurada para dividir la imagen mezclada en una pluralidad de regiones de análisis dispuestas en una matriz; una unidad de cómputo, configurada para computar una diferencia de fase de cada una de la pluralidad de regiones de análisis; y una unidad de mezclado, configurada para mezclar regiones de análisis, cada una con una diferencia de fase conforme a una condición preestablecida en el área de enfoque.
En al menos una realización, el aparato de procesamiento de imágenes además incluye: un tercer módulo de determinación, configurado para determinar si un brillo del área de enfoque es menor o igual que un primer umbral de brillo, si una proporción de verde es menor o igual que un umbral de proporción y si una frecuencia espacial es menor o igual que un umbral de frecuencia cuando no hay un objeto de destino en el área de enfoque; en el que el primer módulo de conversión está configurado para convertir la imagen mezclada en la imagen mezclada de color verdadero cuando se satisface al menos uno de lo siguiente: el brillo del área de enfoque es menor o igual que el primer umbral de brillo, la proporción de verde es menor o igual que el umbral de proporción y la frecuencia espacial es menor o igual que el umbral de frecuencia.
En al menos una realización, el aparato de procesamiento de imágenes además incluye: un segundo módulo de control, configurado para emitir una imagen de bloque de color mediante el sensor de imagen cuando el brillo del área de enfoque es mayor que el primer umbral de brillo, la proporción de verde es mayor que el umbral de proporción y la frecuencia espacial es mayor que el umbral de frecuencia, en el que la imagen de bloque de color comprende unidades de píxel de imagen dispuestas en una matriz preestablecida, cada unidad de píxel de imagen comprende una pluralidad de píxeles originales, cada unidad de píxel fotosensible corresponde a una unidad de píxel de imagen, y cada píxel fotosensible corresponde a un píxel original; un segundo módulo de conversión, configurado para convertir la imagen de bloque de color en una imagen de simulación utilizando un primer algoritmo de interpolación, en el que la imagen de simulación comprende píxeles de simulación dispuestos en una matriz y cada píxel fotosensible corresponde a un píxel de simulación; y un tercer módulo de conversión, configurado para convertir la imagen de simulación en una imagen de simulación de color verdadero. En al menos una realización, el segundo módulo de conversión comprende: una primera unidad de determinación, configurada para determinar si un color de un píxel de simulación es idéntico al de un píxel original en la misma posición que el píxel de simulación; una segunda unidad de determinación, configurada para determinar un valor de píxel del píxel original como un valor de píxel del píxel de simulación cuando el color del píxel de simulación es idéntico al del píxel original en la misma posición que el píxel de simulación; y una tercera unidad de determinación, configurada para determinar el valor de píxel del píxel de simulación de acuerdo con un valor de píxel de un píxel de asociación cuando el color del píxel de simulación es diferente del color del píxel original en la misma posición que el píxel de simulación, en el que el píxel de asociación se selecciona de una unidad de píxel de imagen con un mismo color que el píxel de simulación y adyacente a una unidad de píxel de imagen que comprende el píxel original.
En al menos una realización, la tercera unidad de determinación comprende: una primera subunidad de cálculo, configurada para calcular un cambio del color del píxel de simulación en cada dirección de al menos dos direcciones de acuerdo con el valor de píxel del píxel de asociación; una segunda subunidad de cálculo, configurada para calcular un peso en cada dirección de las al menos dos direcciones de acuerdo con el cambio; y una tercera subunidad de cálculo, configurada para calcular el valor de píxel del píxel de simulación de acuerdo con el peso y el valor de píxel del píxel de asociación.
En al menos una realización, la matriz preestablecida comprende una matriz de Bayer.
En al menos una realización, la unidad de píxel de imagen comprende píxeles originales dispuestos en una matriz.
En al menos una realización, el segundo módulo de conversión comprende: una primera unidad de compensación, configurada para realizar una compensación de balance de blancos en la imagen de bloque de color; y una unidad de restauración, configurada para realizar una compensación inversa del balance de blancos en la primera imagen.
Las realizaciones de la presente divulgación proporcionan un dispositivo electrónico. El dispositivo electrónico incluye una carcasa, un procesador, una memoria, una placa de circuito, un circuito de fuente de alimentación y un aparato de formación de imágenes. La placa de circuito está encerrada por la carcasa. El procesador y la memoria se colocan en la placa de circuito. El circuito de fuente de alimentación está configurado para proporcionar energía para los respectivos circuitos o componentes del dispositivo electrónico. El aparato de formación de imágenes incluye un sensor de imagen. El sensor de imagen incluye una matriz de unidades de píxel fotosensible y una matriz de unidades de filtro dispuestas en la matriz de unidades de píxel fotosensible. Cada unidad de filtro corresponde a una unidad de píxel fotosensible, y cada unidad de píxel fotosensible incluye una pluralidad de píxeles fotosensibles. La memoria está configurada para almacenar códigos de programa ejecutables. El procesador está configurado para ejecutar un programa correspondiente a los códigos de programa ejecutables leyendo los códigos de programa ejecutables almacenados en la memoria, para realizar el procedimiento de procesamiento de imágenes de acuerdo con las realizaciones de la presente divulgación. Los aspectos y ventajas adicionales de las realizaciones de la presente divulgación se darán en parte en las siguientes descripciones, se harán evidentes en parte a partir de las siguientes descripciones, o se aprenderán de la práctica de las realizaciones de la presente divulgación.
Breve descripción de los dibujos
Estos y otros aspectos y ventajas de las realizaciones de la presente divulgación serán evidentes y se apreciarán más fácilmente a partir de las siguientes descripciones hechas con referencia a los dibujos.
La Figura 1 es un diagrama de flujo de un procedimiento de procesamiento de imágenes de acuerdo con una realización de la presente divulgación.
La Figura 2 es un diagrama de bloques de un sensor de imagen de acuerdo con una realización de la presente divulgación.
La Figura 3 es un diagrama esquemático de un sensor de imagen de acuerdo con una realización de la presente divulgación.
La Figura 4 es un diagrama de flujo que ilustra un procedimiento para determinar un área de enfoque de la imagen de bloque de color de acuerdo con una realización de la presente divulgación.
La Figura 5 es un diagrama de flujo de un procedimiento de procesamiento de imágenes de acuerdo con una realización de la presente divulgación.
La Figura 6 es un diagrama de flujo de un procedimiento de procesamiento de imágenes de acuerdo con otra realización más de la presente divulgación.
La Figura 7 es un diagrama de flujo que ilustra un procedimiento de conversión de una imagen de bloque de color en una imagen de simulación de acuerdo con una realización de la presente divulgación.
La Figura 8 es un diagrama esquemático que ilustra un circuito de un sensor de imagen de acuerdo con una realización de la presente divulgación.
La Figura 9 es un diagrama esquemático de una matriz de unidades de filtro de acuerdo con una realización de la presente divulgación.
La Figura 10 es un diagrama esquemático de una imagen mezclada de acuerdo con una realización de la presente divulgación.
La Figura 11 es un diagrama esquemático de una imagen de bloque de color de acuerdo con una realización de la presente divulgación.
La Figura 12 es un diagrama esquemático que ilustra un procedimiento de conversión de una imagen de bloque de color en una imagen de simulación de acuerdo con una realización de la presente divulgación. La Figura 13 es un diagrama de flujo que ilustra un procedimiento de conversión de una imagen de bloque de color en una imagen de simulación de acuerdo con otra realización de la presente divulgación.
La Figura 14 es un diagrama de flujo que ilustra un procedimiento de conversión de una imagen de bloque de color en una imagen de simulación de acuerdo con otra realización de la presente divulgación.
La Figura 15 es un diagrama esquemático que muestra una unidad de píxel de imagen de una imagen de bloque de color de acuerdo con una realización de la presente divulgación.
La Figura 16 es un diagrama de flujo que ilustra un procedimiento de conversión de una imagen de bloque de color en una imagen de simulación de acuerdo con otra realización de la presente divulgación.
La Figura 17 es un diagrama de flujo que ilustra un procedimiento de conversión de una imagen mezclada en una imagen mezclada de color verdadero de acuerdo con una realización de la presente divulgación. La Figura 18 es un diagrama de bloques de un aparato de procesamiento de imágenes de acuerdo con una realización de la presente divulgación.
La Figura 19 es un diagrama de bloques de un primer módulo de determinación de acuerdo con una realización de la presente divulgación.
La Figura 20 es un diagrama de bloques de un aparato de procesamiento de imágenes de acuerdo con una realización de la presente divulgación.
La Figura 21 es un diagrama de bloques de un segundo módulo de conversión de acuerdo con una realización de la presente divulgación.
La Figura 22 es un diagrama de bloques de una tercera unidad de determinación en el segundo módulo de conversión de acuerdo con una realización de la presente divulgación.
La Figura 23 es un diagrama de bloques de un segundo módulo de conversión de acuerdo con una realización de la presente divulgación.
La Figura 24 es un diagrama de bloques de un segundo módulo de conversión de acuerdo con una realización de la presente divulgación.
La Figura 25 es un diagrama de bloques de un primer módulo de conversión de acuerdo con una realización de la presente divulgación.
La Figura 26 es un diagrama de bloques de un dispositivo electrónico 1000 de acuerdo con una realización de la presente divulgación.
Realizaciones de la presente divulgación
Ahora se hará referencia en detalle a realizaciones ejemplares, ejemplos de las cuales se ilustran en los dibujos adjuntos, en los que los números de referencia iguales o similares a lo largo de los dibujos representan elementos iguales o similares o elementos que tienen funciones iguales o similares. En la técnica relacionada, un sensor de imagen incluye una matriz de unidades de píxel fotosensible y una matriz de unidades de filtro dispuestas en la matriz de unidades de píxel fotosensible. Cada unidad de filtro corresponde y cubre una unidad de píxel fotosensible, y cada unidad de píxel fotosensible incluye una pluralidad de píxeles fotosensibles. Cuando funciona, el sensor de imagen se controla para generar una imagen mezclada, que se puede convertir en una imagen mezclada de color verdadero mediante un procedimiento de procesamiento de imágenes y que puede guardarse. La imagen mezclada incluye una matriz de píxeles mezclados, y la pluralidad de píxeles fotosensibles en una misma unidad de píxel fotosensible se emiten colectivamente como un píxel combinado. Por lo tanto, se incrementa la relación señal/ruido de la imagen mezclada. Sin embargo, se reduce la resolución de la imagen mezclada.
Ciertamente, el sensor de imagen puede controlarse para generar una imagen de bloque de color de alto píxel, que incluye una matriz de píxeles originales, y cada píxel fotosensible corresponde a un píxel original. Sin embargo, dado que una pluralidad de píxeles originales correspondientes a una misma unidad de filtro tiene el mismo color, la resolución de la imagen de bloque de color todavía no se puede aumentar. Por lo tanto, la imagen de bloque de color de alto píxel debe convertirse en una imagen de simulación de alto píxel mediante un algoritmo de interpolación, en el que la imagen de simulación incluye una matriz de Bayer de píxeles de simulación. Luego, la imagen de simulación puede convertirse en una imagen de simulación de color verdadero mediante un procedimiento de procesamiento de imágenes y puede guardarse. Sin embargo, el algoritmo de interpolación consume recursos y tiempo, y la imagen de simulación de color verdadero no es necesaria en todas las escenas.
Por lo tanto, las realizaciones de la presente divulgación proporcionan un novedoso procedimiento de procesamiento de imágenes.
Con referencia a la Figura 1, se ilustra un procedimiento de procesamiento de imágenes. El procedimiento de procesamiento de imágenes se aplica en un dispositivo electrónico. El dispositivo electrónico incluye un aparato de formación de imágenes que incluye un sensor de imagen. Como se ilustra en las Figuras 2 y 3, el sensor de imagen 10 incluye una matriz 12 de unidades de píxel fotosensible y una matriz 14 de unidades de filtro dispuestas en la matriz 12 de unidades de píxel fotosensible. Cada unidad de filtro 14a corresponde a una unidad de píxel fotosensible 12a. En al menos una realización, existe una correspondencia uno a uno entre las unidades de filtro y las unidades de píxel fotosensible. Cada unidad de píxel fotosensible 12a incluye una pluralidad de píxeles fotosensibles 122. El procedimiento de procesamiento de imágenes incluye lo siguiente.
En el bloque 211, el sensor de imagen emite una imagen mezclada.
La imagen mezclada incluye una matriz de píxeles mezclados. La pluralidad de píxeles fotosensibles en una misma unidad de píxel fotosensible se emiten colectivamente como un píxel combinado.
En el bloque 212, se determina un área de enfoque de la imagen mezclada.
En el bloque 214, se determina si hay un objeto de destino en el área de enfoque, en caso afirmativo, se ejecuta un acto en el bloque 216.
En algunas realizaciones, el objeto de destino incluye un rostro humano. En general, no hay muchos requisitos sobre la definición de una imagen que incluya un rostro humano, en su lugar, el usuario puede desear realizar un efecto de difusión en la imagen de rostro, de modo que cuando se detecta el rostro humano en el área de enfoque, solamente es necesario convertir directamente la imagen mezclada en la imagen mezclada de color verdadero sin mejorar la definición de la imagen, evitando así una situación en la que las fallas del rostro humano también se ilustran claramente en la imagen obtenida.
En el bloque 216, la imagen mezclada se convierte en una imagen mezclada de color verdadero.
Con el procedimiento de procesamiento de imágenes de acuerdo con las realizaciones de la presente divulgación, el sensor de imagen puede controlarse para emitir una imagen adecuada identificando y determinando la imagen en profundidad de enfoque, una situación en la que se necesita demasiado trabajo para emitir una imagen de alta calidad mediante el sensor de imagen se puede evitar, reduciendo así el tiempo de trabajo del dispositivo electrónico, mejorando la eficiencia de trabajo y mejorando la experiencia de usuario. En algunas realizaciones, después de que se emite la imagen mezclada, se determina si el brillo de la imagen mezclada es menor que un umbral de brillo predeterminado, en caso afirmativo, esto indica que no hay suficiente luz para esta imagen mezclada, de modo que la imagen mezclada se convierte en la imagen mezclada de color verdadero para garantizar la SNR (relación señal/ruido).
Con referencia a la Figura 4, en algunas implementaciones, el acto en el bloque 212 incluye lo siguiente.
En el bloque 2121, la imagen mezclada se divide en una pluralidad de regiones de análisis dispuestas en una matriz.
En el bloque 2122, se computa una diferencia de fase de cada una de la pluralidad de regiones de análisis. En el bloque 2123, las regiones de análisis cada una con una diferencia de fase que se ajusta a una condición preestablecida se mezclan en el área de enfoque.
Con referencia a la Figura 5, basada en las realizaciones descritas con referencia a la Figura 1 y la Figura 4, en una realización, cuando no hay un objeto de destino en el área de enfoque, el procedimiento de procesamiento de imágenes además incluye lo siguiente.
En el bloque 217, se determina si un brillo del área de enfoque es menor o igual que un primer umbral de brillo, si una proporción de verde es menor o igual que un umbral de proporción y si una frecuencia espacial es menor o igual que un umbral de frecuencia.
Cuando se satisface al menos uno de lo siguiente: el brillo del área de enfoque es menor o igual que el primer umbral de brillo, la proporción de verde es menor o igual que el umbral de proporción y la frecuencia espacial es menor o igual que el umbral de frecuencia, se ejecuta el acto en el bloque 216.
En algunas implementaciones, las características de una imagen de paisaje incluyen un brillo, una proporción de verde y una frecuencia espacial. Dado que una imagen de paisaje se captura en un entorno exterior y generalmente hay árboles, flores o similares y suficiente luz en el entorno exterior, una imagen se puede determinar como una imagen de paisaje cuando la imagen tiene un alto brillo, una alta proporción de verde y una alta frecuencia espacial. Por lo tanto, al comparar cada característica con un umbral de la misma, se puede determinar si una imagen es una imagen de paisaje.
Cuando se determina que una imagen no es una imagen de paisaje, indica que no hay muchos requisitos en la definición de la imagen, de modo que solo es necesario convertir la imagen mezclada en una imagen mezclada de color verdadero sin mejorar la definición de la imagen.
La frecuencia espacial es un factor importante para determinar cómo procesar la imagen. Cuanto más alta es la frecuencia espacial, más alto se puede establecer el requisito en la definición de la imagen. Cuanto menor es la frecuencia espacial, mayor es la posibilidad de que la imagen mezclada se convierta en una imagen mezclada de color verdadero sin mejorar la definición de la imagen.
En algunas implementaciones, un usuario puede establecer el umbral de brillo, el umbral de proporción y el umbral de frecuencia de acuerdo con diferentes entornos. En consecuencia, el usuario puede establecer uno o más umbrales de acuerdo con los diferentes entornos para lograr un efecto de disparo ideal.
En algunas implementaciones, el umbral de brillo, el umbral de proporción y el umbral de frecuencia se pueden almacenar en una memoria del dispositivo electrónico para la selección del usuario. Sin embargo, la presente divulgación no está limitada a los mismos.
Con referencia a la Figura 6, basada en la realización descrita con referencia a la Figura 5, en una realización, cuando el brillo del área de enfoque es mayor que el primer umbral de brillo, la proporción de verde es mayor que el umbral de proporción y la frecuencia espacial es mayor que el umbral de frecuencia, el procedimiento de procesamiento de imágenes además incluye lo siguiente.
En el bloque 219, el sensor de imagen emite una imagen de bloque de color.
La imagen de bloque de color incluye unidades de píxel de imagen dispuestas en una matriz preestablecida, cada unidad de píxel de imagen incluye una pluralidad de píxeles originales, cada unidad de píxel fotosensible corresponde a una unidad de píxel de imagen. En al menos una realización, existe una correspondencia uno a uno entre las unidades de píxel fotosensible y las unidades de píxel de imagen. Cada píxel fotosensible corresponde a un píxel original. En al menos una realización, existe una correspondencia uno a uno entre los píxeles fotosensibles y los píxeles originales.
En el bloque 220, la imagen de bloque de color se convierte en una imagen de simulación usando un primer algoritmo de interpolación.
La imagen de simulación incluye píxeles de simulación dispuestos en una matriz, y cada píxel fotosensible corresponde a un píxel de simulación. En al menos una realización, existe una correspondencia uno a uno entre los píxeles fotosensibles y los píxeles de simulación.
En el bloque 230, la imagen de simulación se convierte en la imagen de simulación de color verdadero.
Como la imagen de paisaje requiere una alta calidad de imagen y el brillo ambiental de la imagen de paisaje es alto, cuando se detecta una imagen de paisaje, el sensor de imagen 10 se controla para emitir una imagen de bloque de color y la imagen de bloque de color es convertido en una imagen de simulación y luego la imagen de simulación se convierte en una imagen de simulación de color verdadero.
Con referencia a la Figura 7, en algunas implementaciones, el acto en el bloque 220 incluye lo siguiente.
En el bloque 221, se determina si un color de un píxel de simulación es idéntico al de un píxel original en la misma posición que el píxel de simulación, en caso afirmativo, se ejecuta un acto en el bloque 222, de lo contrario, se ejecuta un acto en el bloque 223.
En el bloque 222, un valor de píxel del píxel original se determina como un valor de píxel del píxel de simulación. En el bloque 223, el valor de píxel del píxel de simulación se determina de acuerdo con un valor de píxel de un píxel de asociación.
El píxel de asociación se selecciona de una unidad de píxel de imagen con un mismo color que el píxel de simulación y adyacente a una unidad de píxel de imagen que incluye el píxel original.
La Figura 8 es un diagrama esquemático que ilustra un circuito de un sensor de imagen de acuerdo con una realización de la presente divulgación. La Figura 9 es un diagrama esquemático de una matriz de unidades de filtro de acuerdo con una realización de la presente divulgación. Las Figuras 2-3 y 8-9 se aprecian mejor en conjunto.
Con referencia a las Figuras 2-3 y 8-9, el sensor de imagen 10 de acuerdo con una realización de la presente divulgación incluye una matriz 12 de unidades de píxel fotosensible y una matriz 14 de unidades de filtro dispuestas en la matriz 12 de unidades de píxel fotosensible.
Además, la matriz 12 de unidades de píxel fotosensible incluye una pluralidad de unidades de píxel fotosensible 12a. Cada unidad de píxel fotosensible 12a incluye una pluralidad de píxeles fotosensibles adyacentes 122. Cada píxel fotosensible 122 incluye un elemento fotosensible 1222 y un tubo de transmisión 1224. El elemento fotosensible 1222 puede ser un fotodiodo, y el tubo de transmisión 1224 puede ser un transistor MOS.
La matriz 14 de unidades de filtro incluye una pluralidad de unidades de filtro 14a. Cada unidad de filtro 14a corresponde a una unidad de píxel fotosensible 12a.
En detalle, en algunos ejemplos, las unidades de filtro están dispuestas en una matriz de Bayer. En otras palabras, cuatro unidades de filtro adyacentes 14a incluyen una unidad de filtro roja, una unidad de filtro azul y dos unidades de filtro verdes.
Cada unidad de píxel fotosensible 12a corresponde a una unidad de filtro 14a con el mismo color. Si una unidad de píxel fotosensible 12a incluye n elementos fotosensibles adyacentes 1222, una unidad de filtro 14a cubre n elementos fotosensibles 1222 en una unidad de píxel fotosensible 12a. La unidad de filtro 14a puede formarse integralmente, o puede formarse ensamblando n subfiltros separados.
En algunas implementaciones, cada unidad de píxel fotosensible 12a incluye cuatro píxeles fotosensibles adyacentes 122. Dos píxeles fotosensibles adyacentes 122 forman colectivamente una subunidad de píxel fotosensible 120. La subunidad de píxel fotosensible 120 además incluye un seguidor de fuente 124 y un convertidor analógico a digital (ADC) 126. La unidad de píxel fotosensible 12a además incluye un sumador 128. Un primer electrodo de cada tubo de transmisión 1224 en la subunidad de píxel fotosensible 120 está acoplado a un electrodo de cátodo de un elemento fotosensible 1222 correspondiente. Los segundos electrodos de todos los tubos de transmisión 1224 se acoplan colectivamente a un electrodo de compuerta del seguidor de fuente 124 y se acoplan a un convertidor analógico a digital 126 a través del electrodo de fuente del seguidor de fuente 124. El seguidor de fuente 124 puede ser un transistor MOS. Dos subunidades de píxel fotosensible 120 están acopladas al sumador 128 a través de sus respectivos seguidores de fuente 124 y sus respectivos convertidores analógico a digital 126.
En otras palabras, cuatro elementos fotosensibles adyacentes 1222 en una unidad de píxel fotosensible 12a del sensor de imagen 10 de acuerdo con una realización de la presente divulgación usan colectivamente una unidad de filtro 14a con el mismo color que la unidad de píxel fotosensible. Cada elemento fotosensible 1222 está acoplado a un tubo de transmisión 1224 correspondientemente. Dos elementos fotosensibles adyacentes 1222 utilizan colectivamente un seguidor de fuente 124 y un convertidor analógico a digital. Cuatro elementos fotosensibles adyacentes 1222 usan colectivamente un sumador 128.
Además, cuatro elementos fotosensibles adyacentes 1222 están dispuestos en una matriz de 2 por 2. Dos elementos fotosensibles 1222 en una subunidad de píxel fotosensible 120 pueden estar en una misma fila. Durante un procedimiento de formación de imágenes, cuando dos subunidades de píxel fotosensible 120 o cuatro elementos fotosensibles 1222 cubiertos por una misma unidad de filtro 14a se exponen simultáneamente, los píxeles pueden mezclarse y la imagen mezclada puede ser emitida.
En detalle, el elemento fotosensible 1222 está configurado para convertir la luz en una carga, y la carga es proporcional a una intensidad de iluminación. El tubo de transmisión 1224 está configurado para controlar un circuito que enciende o apaga de acuerdo con una señal de control. Cuando se enciende el circuito, el seguidor de fuente 124 está configurado para convertir la carga generada a través de la iluminación de luz en una señal de tensión. El convertidor analógico a digital 126 está configurado para convertir la señal de tensión en una señal digital. El sumador 128 está configurado para agregar dos señales digitales para emisión.
Con referencia a la Figura 10, tome un sensor de imagen 10 de 16M como ejemplo. El sensor de imagen 10 de acuerdo con una realización de la presente divulgación puede mezclar píxeles fotosensibles de 16M en píxeles fotosensibles de 4M, es decir, el sensor de imagen 122 emite la imagen mezclada. Después del mezclado, el píxel fotosensible 122 se cuadruplica en tamaño, de modo que aumenta la fotosensibilidad del píxel fotosensible 122. Además, dado que la mayor parte del ruido en el sensor de imagen 10 es aleatorio, puede haber puntos de ruido en uno o dos píxeles. Después de que cuatro píxeles fotosensibles 122 se mezclan en un gran píxel fotosensible 122, se reduce el efecto de los puntos de ruido en el píxel fotosensible grande, es decir, el ruido se debilita y se mejora la SNR (relación señal/ruido).
Sin embargo, cuando el tamaño del píxel fotosensible 122 aumenta, el valor del píxel disminuye y, por lo tanto, la resolución de la imagen mezclada disminuye.
Durante un procedimiento de formación de imágenes, cuando cuatro elementos fotosensibles 1222 cubiertos por una misma unidad de filtro 14a se exponen en secuencia, se emite una imagen de bloque de color.
En detalle, el elemento fotosensible 1222 está configurado para convertir la luz en una carga, y la carga es proporcional a una intensidad de iluminación. El tubo de transmisión 1224 está configurado para controlar un circuito que enciende o apaga de acuerdo con una señal de control. Cuando se enciende el circuito, el seguidor de fuente 124 está configurado para convertir la carga generada a través de la iluminación de luz en una señal de tensión. El convertidor analógico a digital 126 está configurado para convertir la señal de tensión en una señal digital.
Con referencia a la Figura 11, tome un sensor de imagen 10 de 16M como ejemplo. El sensor de imagen 122 de acuerdo con una realización de la presente divulgación puede emitir píxeles fotosensibles de 16M, es decir, el sensor de imagen 200 emite la imagen de bloque de color. La imagen de bloque de color incluye unidades de píxel de imagen. La unidad de píxel de imagen incluye píxeles originales dispuestos en una matriz de 2 por 2. El tamaño del píxel original es el mismo que el del píxel fotosensible 122. Sin embargo, dado que una unidad de filtro 14a que cubre cuatro elementos fotosensibles adyacentes 1222 tiene un mismo color (es decir, aunque cuatro elementos fotosensibles 1222 están expuestos respectivamente, la unidad de filtro 14a que cubre los cuatro elementos fotosensibles tiene un mismo color), cuatro píxeles originales adyacentes en cada unidad de píxel de la imagen de salida tienen el mismo color y, por lo tanto, la resolución de la imagen no se puede aumentar.
El procedimiento de procesamiento de imágenes de acuerdo con una realización de la presente divulgación es capaz de procesar la imagen de bloque de color de salida para obtener una imagen de simulación.
En algunas realizaciones, cuando se emite una imagen mezclada, se pueden emitir cuatro píxeles 122 fotosensibles adyacentes con el mismo color como un píxel mezclado. En consecuencia, cuatro píxeles mezclados fotosensibles adyacentes en la imagen mezclada se pueden considerar como dispuestos en una matriz típica de Bayer, y se pueden procesar directamente para generar una imagen mezclada de color verdadero. Cuando se emite una imagen de bloque de color, cada píxel fotosensible se emite por separado. Dado que cuatro píxeles fotosensibles adyacentes 122 tienen el mismo color, cuatro píxeles originales adyacentes en una unidad de píxel de imagen tienen el mismo color, que forman una matriz atípica de Bayer. Sin embargo, la matriz atípica de Bayer no puede procesarse directamente. En otras palabras, cuando el sensor de imagen 10 adopta un mismo aparato para procesar la imagen, con el fin de obtener una compatibilidad de las emisiones de imagen en color verdadero en dos modos (es decir, la imagen en color verdadero combinada en un modo combinado y la imagen de simulación de color verdadero bajo un modo de bloque de color), es necesario convertir la imagen de bloque de color en la imagen de simulación, o convertir la unidad de píxel de imagen en una matriz atípica de Bayer en píxeles dispuestos en la matriz típica de Bayer.
La imagen de simulación incluye píxeles de simulación dispuestos en la matriz de Bayer. Cada píxel fotosensible corresponde a un píxel de simulación. Un píxel de simulación en la imagen de simulación corresponde a un píxel original ubicado en la misma posición que el píxel de simulación y en la imagen de bloque de color.
Con referencia a la Figura 12, para los píxeles de simulación R3'3' y R5'5', los píxeles originales correspondientes son R33 y B55.
Cuando se obtiene el píxel de simulación R3'3', dado que el píxel de simulación R3'3' tiene el mismo color que el píxel original R33 correspondiente, el valor de píxel del píxel original R33 se determina directamente como el valor de píxel del píxel de simulación R3'3' durante la conversión.
Cuando se obtiene el píxel de simulación R5'5', dado que el píxel de simulación R5'5' tiene un color diferente al del píxel original B55 correspondiente, el valor de píxel del píxel original B55 no se puede determinar directamente como el valor de píxel del píxel de simulación R5'5', y se requiere calcular el valor de píxel del píxel de simulación R5'5' de acuerdo con un píxel de asociación del píxel de simulación R5'5' mediante un algoritmo de interpolación.
Debe observarse que un valor de píxel de un píxel mencionado en el contexto debe entenderse en un sentido amplio como un valor de atributo de color de píxel, tal como un valor de color.
Puede haber más de una unidad de píxel de asociación para cada píxel de simulación, por ejemplo, puede haber cuatro unidades de píxel de asociación, en las que las unidades de píxel de asociación tienen el mismo color que el píxel de simulación y son adyacentes a la unidad de píxel de imagen incluyendo el píxel original en la misma posición que el píxel de simulación.
Debe observarse que "adyacente" aquí debe entenderse en un sentido amplio. Tomando la Figura 12 como ejemplo, el píxel de simulación R5'5' corresponde al píxel original B55. Las unidades de píxel de imagen 400, 500, 600 y 700 se seleccionan como unidades de píxel de asociación, pero otras unidades de píxel de imagen rojo lejanas de la unidad de píxel de imagen donde se encuentra el píxel original B55 no se seleccionan como unidades de píxel de asociación. En cada unidad de píxel de asociación, el píxel original rojo más cercano al píxel original B55 se selecciona como píxel de asociación, lo que significa que los píxeles de asociación del segundo píxel R5'5' incluyen los píxeles originales R44, R74, R47 y R77. El píxel de simulación R5'5' es adyacente y tiene el mismo color que los píxeles originales R44, R74, r47 y R77.
En diferentes casos, los píxeles originales se pueden convertir en píxeles de simulación de diferentes maneras, convirtiendo así la imagen de bloque de color en la imagen de simulación. Dado que los filtros en la matriz de Bayer se adoptan al disparar la imagen, se mejora la SNR de la imagen. Durante el procedimiento de procesamiento de imágenes, el algoritmo de interpolación realiza el procesamiento de interpolación en la imagen de bloque de color, de modo que se puede mejorar la diferenciabilidad y la resolución de la imagen.
Con referencia a la Figura 13, en algunas implementaciones, el acto en el bloque 223 (es decir, determinar el valor de píxel del píxel de simulación de acuerdo con el valor de píxel del píxel de asociación) incluye lo siguiente.
En el bloque 2232, se calcula un cambio del color del píxel de simulación en cada dirección de al menos dos direcciones de acuerdo con el valor de píxel del píxel de asociación.
En el bloque 2234, se calcula un peso en cada dirección de las al menos dos direcciones de acuerdo con el cambio.
En el bloque 2236, el valor de píxel del píxel de simulación se calcula de acuerdo con el peso y el valor de píxel del píxel de asociación.
En detalle, el procesamiento de interpolación se realiza de la siguiente manera: con referencia a los cambios de energía de la imagen en diferentes direcciones y de acuerdo con los pesos de los píxeles de asociación en diferentes direcciones, el valor de píxel del segundo píxel se calcula mediante una interpolación lineal. Desde la dirección que tiene un cambio de energía más pequeño, puede obtener un valor de referencia más alto, es decir, el peso de esta dirección en la interpolación es alto.
En algunos ejemplos, por razones de conveniencia, solo se consideran la dirección horizontal y la dirección vertical.
El valor de píxel del píxel de simulación R5'5' se obtiene mediante una interpolación basada en los píxeles originales R44, R74, R47 y R77. Como no hay un píxel original con un mismo color que el píxel de simulación (es decir, R) en la dirección horizontal y la dirección vertical del píxel original B55 correspondiente al píxel de simulación R5'5', un componente de este color (es decir, R) en cada una de las direcciones horizontales y verticales se calcula de acuerdo con los píxeles de asociación. Los componentes en la dirección horizontal son R45 y R75, los componentes en la dirección vertical son R54 y R57. Todos los componentes se pueden calcular de acuerdo con los píxeles originales R44, R74, R47 y R77.
En detalle, R45=R44*2/3+R47*1/3, R75=2/3*R74+1/3*R77, R54=2/3*R44+1/3*R74, R57=2/3*R47+1/3*R77.
El cambio de color y el peso en cada una de las direcciones horizontal y vertical se calculan respectivamente. En otras palabras, de acuerdo con el cambio de color en cada dirección, se determina el peso de referencia en cada dirección utilizada en la interpolación. El peso en la dirección con un pequeño cambio es alto, mientras que el peso en la dirección con un gran cambio es bajo. El cambio en la dirección horizontal es X1=|R45-R75|. El cambio en la dirección vertical es X2=|R54-R57|, W1=X1/(X1+X2), W2=X2/(X1+X2).
Después del cálculo anterior, el valor de píxel del píxel de simulación R5'5' se puede calcular como R5'5'=(2/3*R45+1/3*R75)*W2+(2/3*R54+1/3*R57)*W1. Se puede entender que, si X1>X2, entonces W1>W2. El peso en la dirección horizontal es W2, y el peso en la dirección vertical es W1, viceversa.
En consecuencia, el valor de píxel del píxel de simulación puede calcularse mediante el algoritmo de interpolación. Después de los cálculos en los píxeles de asociación, los píxeles originales se pueden convertir en los segundos píxeles dispuestos en la matriz típica de Bayer. En otras palabras, cuatro píxeles de simulación adyacentes dispuestos en la matriz de 2 por 2 incluyen un píxel de simulación rojo, dos píxeles de simulación verdes y un píxel de simulación azul.
Debe observarse que, el procesamiento de interpolación no se limita al procedimiento mencionado anteriormente, en el que solo se consideran los valores de píxel de píxeles con el mismo color que el segundo píxel en la dirección vertical y la dirección horizontal durante el cálculo del valor de píxel del segundo píxel. En otras realizaciones, también se pueden considerar valores de píxel de píxeles con otros colores.
Con referencia a la Figura 14, en algunas realizaciones, antes del acto en el bloque 223, el procedimiento además incluye realizar una compensación de balance de blancos en la imagen de bloque de color, como se ilustra en el bloque 224.
Por consiguiente, después del acto en el bloque 223 el procedimiento además incluye realizar una compensación de balance de blancos inversa en la imagen de simulación, como se ilustra en el bloque 225.
En detalle, en algunos ejemplos, al convertir la imagen de bloque de color en la imagen de simulación, durante la interpolación, los píxeles de simulación rojo y azul no solo se refieren a los pesos de color de los píxeles originales que tienen el mismo color que los píxeles de simulación, sino que también se refieren a los pesos de color de los píxeles originales con el color verde. Por lo tanto, se requiere realizar la compensación de balance de blancos antes de la interpolación para excluir un efecto del balance de blancos en el cálculo de la interpolación. Para evitar el balance de blancos de la imagen de bloque de color, es necesario realizar la compensación de balance de blancos inversa después de la interpolación de acuerdo con los valores de ganancia de los colores rojo, verde y azul en la compensación.
De esta manera, el efecto del balance de blancos en el cálculo de la interpolación puede excluirse, y la imagen de simulación obtenida después de la interpolación puede mantener el balance de blancos de la imagen de bloque de color.
Con referencia a la Figura 14 nuevamente, en algunas implementaciones, antes del acto en el bloque 223, el procedimiento además incluye realizar una compensación de punto defectuoso en la imagen de bloque de color, como se ilustra en el bloque 226.
Se puede entender que, limitado por el procedimiento de fabricación, puede haber puntos defectuosos en el sensor de imagen 10. El punto defectuoso presenta un mismo color todo el tiempo sin variar con la fotosensibilidad, lo que afecta la calidad de la imagen. Para garantizar la precisión de la interpolación y evitar el efecto de los puntos defectuosos, es necesario realizar la compensación de puntos defectuosos antes de la interpolación.
En detalle, durante la compensación del punto defectuoso, se detectan los píxeles originales. Cuando se detecta un píxel original como el punto defectuoso, la compensación del punto defectuoso se realiza de acuerdo con los valores de los píxeles de otros píxeles originales en la unidad de píxel de imagen donde se encuentra el píxel original.
De esta forma, se puede evitar el efecto del punto defectuoso en la interpolación, mejorando así la calidad de la imagen.
Con referencia a la Figura 14 nuevamente, en algunas implementaciones, antes del acto en el bloque 223, el procedimiento incluye realizar una compensación de diafonía en la imagen de bloque de color, como se ilustra en el bloque 227.
En detalle, cuatro píxeles fotosensibles 122 en una unidad de píxel fotosensible 12a cubren los filtros con el mismo color, y los píxeles fotosensibles 122 tienen diferencias en la fotosensibilidad, de modo que puede producirse ruido de espectro fijo en áreas de color puro en la imagen de simulación de color verdadero emitida después de convertir la imagen de simulación y la calidad de la imagen puede verse afectada. Por lo tanto, es necesario realizar la compensación de diafonía.
En algunas implementaciones, los parámetros de compensación pueden establecerse por: proporcionar un entorno luminoso preestablecido, configurar parámetros de formación de imágenes del aparato de formación de imágenes, capturar imágenes de múltiples cuadros, procesar las imágenes de múltiples cuadros para obtener parámetros de compensación de diafonía, y almacenar los parámetros de compensación de diafonía.
Como se explicó anteriormente, para realizar la compensación de diafonía, es necesario establecer los parámetros de compensación durante el procedimiento de fabricación del sensor de imagen 200 del aparato de formación de imágenes, y almacenar los parámetros relacionados con la compensación de diafonía en el almacenamiento del aparato de formación de imágenes o del dispositivo electrónico provisto con el aparato de formación de imágenes, como el teléfono móvil o tableta.
El entorno luminoso preestablecido, por ejemplo, puede incluir una placa LED uniforme que tiene una temperatura de color de aproximadamente 5000K y un brillo de aproximadamente 1000 lux. Los parámetros de formación de imágenes pueden incluir un valor de ganancia, un valor de obturador y una ubicación de un lente. Después de configurar los parámetros relacionados, se pueden obtener los parámetros de compensación de diafonía.
Durante el procedimiento, se obtienen múltiples imágenes de bloque de color usando los parámetros de formación de imágenes preestablecidos en el entorno luminoso preestablecido, y se mezclan en una imagen mezclada de bloques de color, de modo que el efecto del ruido causado por el uso de una sola imagen de bloque de color como referencia se puede reducir.
Con referencia a la Figura 15, tome la unidad de píxel de imagen Gr como ejemplo. La unidad de píxel de imagen Gr incluye píxeles originales Gr1, Gr2, Gr3 y Gr4. El propósito de la compensación de diafonía es ajustar los píxeles fotosensibles que pueden tener diferentes fotosensibilidades para que tengan la misma fotosensibilidad. Un valor de píxel promedio de la unidad de píxel de la imagen es Gr_avg = (Gr1+Gr2+Gr3+Gr4)/4, que representa un nivel promedio de fotosensibilidades de los cuatro píxeles fotosensibles. Al configurar el valor promedio como valor de referencia, se calculan las relaciones de Gr1/Gr_avg, Gr2/Gr_avg, Gr3/Gr_avg y Gr4/Gr_avg. Se puede entender que, al calcular una relación del valor de píxel de cada píxel original al valor de píxel promedio de la unidad de píxel de imagen, se puede reflejar una desviación entre cada píxel original y el valor de referencia. Se pueden registrar cuatro relaciones en un almacenamiento de un dispositivo relacionado como parámetros de compensación, y se pueden recuperar durante el procedimiento de formación de imágenes para compensar cada píxel original, reduciendo así la diafonía y mejorando la calidad de la imagen.
En general, después de establecer los parámetros de compensación de diafonía, se realiza la verificación de los parámetros para determinar la precisión de los parámetros.
Durante la verificación, se obtiene una imagen de bloque de color con el mismo entorno luminoso y los mismos parámetros de formación de imágenes que el entorno luminoso preestablecido y los parámetros de formación de imágenes preestablecidos, y la compensación de diafonía se realiza en la imagen de bloque de color de acuerdo con los parámetros calculados de compensación para calcular Gr'_avg, Gr'1/Gr'_avg, Gr'2/Gr'_avg, Gr'3/Gr'_avg y Gr'4/Gr'_avg compensados. La precisión de los parámetros se puede determinar de acuerdo con los resultados del cálculo desde una perspectiva macro y una perspectiva micro. Desde la perspectiva micro, cuando cierto píxel original después de la compensación todavía tiene una gran desviación que el usuario puede detectar fácilmente después del procedimiento de formación de imágenes, significa que los parámetros no son precisos. Desde la perspectiva macro, cuando hay demasiados píxeles originales con desviaciones después de la compensación, el usuario puede detectar las desviaciones en su conjunto, incluso si un solo píxel original tiene una pequeña desviación, y en este caso, los parámetros tampoco son precisos. Por lo tanto, se puede establecer un umbral de relación para la perspectiva micro, y se puede establecer otro umbral de relación y un umbral de número para la perspectiva macro. De esta forma, la verificación se puede realizar en los parámetros de compensación de diafonía para garantizar la precisión de los parámetros de compensación y reducir el efecto de la diafonía en la calidad de la imagen.
Con referencia a la Figura 16, en algunas implementaciones, después del acto en el bloque 223, el procedimiento además incluye realizar al menos una corrección de forma de espejo, un procesamiento de eliminación de mosaico, un procesamiento de eliminación de ruido y un procesamiento de acentuación de contorno en la imagen de simulación, como se ilustra en el bloque 228.
Se puede entender que, después de que la imagen de bloque de color se convierte en la imagen de simulación, los píxeles de simulación se disponen en la matriz típica de Bayer. La imagen de simulación se puede procesar, durante lo cual se incluye la corrección de la forma del espejo, el procesamiento de eliminación de mosaico, el procesamiento de eliminación de ruido y el procesamiento de acentuación de contorno, de modo que la imagen de simulación de color verdadero se puede obtener y emitir al usuario.
Con referencia a la Figura 17, en algunas implementaciones, el acto en el bloque 216 incluye lo siguiente.
En el bloque 2162, la imagen mezclada se convierte en una imagen de restauración usando un segundo algoritmo de interpolación.
La imagen de restauración incluye píxeles de restauración dispuestos en una matriz, y cada píxel fotosensible corresponde a un píxel de restauración. Una complejidad del segundo algoritmo de interpolación es menor que la del primer algoritmo de interpolación.
En el bloque 2164, la imagen de restauración se convierte en la imagen mezclada de color verdadero.
En algunas implementaciones, la complejidad del algoritmo incluye la complejidad del tiempo y la complejidad del espacio, y tanto la complejidad del tiempo como la complejidad del espacio del segundo algoritmo de interpolación son menores que las del primer algoritmo de interpolación. La complejidad del tiempo se configura para medir el tiempo consumido por el algoritmo, y la complejidad del espacio se configura para medir el espacio de almacenamiento consumido por el algoritmo. Si la complejidad del tiempo es pequeña, indica que el algoritmo consume poco tiempo. Si la complejidad del espacio es pequeña, indica que el algoritmo consume poco espacio de almacenamiento. Por lo tanto, es ventajoso mejorar la velocidad de cálculo utilizando el segundo algoritmo de interpolación, de modo que el procedimiento de disparo sea fluido, mejorando así la experiencia de usuario. En algunas implementaciones, el segundo algoritmo de interpolación se usa para cuadruplicar la imagen mezclada sin otros cálculos complicados, de modo que se pueda obtener la imagen de restauración correspondiente a la imagen de simulación.
Se puede entender que, después de obtener la imagen de simulación de color verdadero, el procesamiento de eliminación de ruido y el procesamiento de acentuación de contorno se realizan en la imagen de simulación de color verdadero. Por lo tanto, la imagen de simulación en color verdadero con alta calidad se puede obtener después del procesamiento y la emisión al usuario.
En otro aspecto, la presente divulgación también proporciona un aparato de procesamiento de imágenes.
La Figura 18 es un diagrama de bloques de un aparato de procesamiento de imágenes de acuerdo con una realización de la presente divulgación. Con referencia a la Figura 18 y las Figuras 2-3 y 8-9, se ilustra un aparato de procesamiento de imágenes 4000. El aparato de procesamiento de imágenes 4000 se aplica en un dispositivo electrónico. El dispositivo electrónico incluye un aparato de formación de imágenes que incluye un sensor de imagen 10. Como se ilustra arriba, el sensor de imagen 10 incluye una matriz 12 de unidades de píxel fotosensible y una matriz 14 de unidades de filtro dispuestas en la matriz 12 de unidades de píxel fotosensible. Cada unidad de filtro 14a corresponde a una unidad de píxel fotosensible 12a, y cada unidad de píxel fotosensible 12a incluye una pluralidad de píxeles fotosensibles 122. El aparato de procesamiento de imágenes 4000 incluye un medio no transitorio legible por ordenador 4600 y un sistema de ejecución de instrucción 4800. El medio no transitorio legible por ordenador 4600 incluye instrucciones ejecutables por ordenador almacenadas en el mismo. Como se ilustra en la Figura 18, el medio no transitorio legible por ordenador 4600 incluye una pluralidad de módulos de programa, incluyendo un primer módulo de control 411, un primer módulo de determinación 412, un segundo módulo de determinación 414 y un primer módulo de conversión 416. El sistema de ejecución de instrucción 4800 está configurado por las instrucciones almacenadas en el medio 4600 para implementar los módulos de programa.
El primer módulo de control 411 está configurado para emitir una imagen mezclada mediante el sensor de imagen 10. La imagen mezclada incluye una matriz de píxeles mezclados, y una pluralidad de píxeles fotosensibles 122 en una misma unidad de píxel fotosensible 12a se emiten colectivamente como un píxel combinado. El primer módulo de determinación 412 está configurado para determinar un área de enfoque de la imagen mezclada. El segundo módulo de determinación 414 está configurado para determinar si hay un objeto de destino en el área de enfoque. El primer módulo de conversión 416 está configurado para convertir la imagen mezclada en una imagen mezclada de color verdadero cuando el objeto de destino está en el área de enfoque. En otras palabras, el primer módulo de control 411 puede implementar el acto en el bloque 211. El acto en el bloque 212 puede implementarse mediante el primer módulo de determinación 412. El acto en el bloque 214 puede implementarse mediante el segundo módulo de determinación 414. El acto en el bloque 216 puede implementarse mediante el primer módulo de conversión 416.
Con el aparato de procesamiento de imágenes de acuerdo con las realizaciones de la presente divulgación, el sensor de imagen puede controlarse para emitir una imagen adecuada identificando y determinando la imagen en profundidad de enfoque, una situación en la que se necesita demasiado trabajo para emitir una imagen de alta calidad mediante el sensor de imagen se puede evitar, reduciendo así el tiempo de trabajo del dispositivo electrónico, mejorando la eficiencia del trabajo y mejorando la experiencia de usuario.
Con referencia a la Figura 19, el primer módulo de determinación 412 incluye una unidad de división 4121, una unidad de cálculo 4122 y una unidad de mezclado 4123. La unidad de división 4121 está configurada para dividir la imagen de bloque de color en una pluralidad de regiones de análisis dispuestas en una matriz. La unidad de cómputo 4122 está configurada para computar una diferencia de fase de cada una de la pluralidad de regiones de análisis. La unidad de mezclado 4123 está configurada para mezclar regiones de análisis, cada una con una diferencia de fase que se ajusta a una condición preestablecida en el área de enfoque.
En otras palabras, el acto en el bloque 2121 puede implementarse mediante la unidad de división 4121. El acto en el bloque 2122 puede ser implementado por la unidad informática 4122. El acto en el bloque 2123 puede ser implementado por la unidad de mezclado 4123.
La Figura 20 es un diagrama de bloques de un aparato de procesamiento de imágenes de acuerdo con una realización de la presente divulgación. Con referencia a la Figura 20, basada en la realización descrita con referencia a la Figura 18, en una realización, el aparato de procesamiento de imágenes 400 además incluye un tercer módulo de determinación 417.
un segundo módulo de evaluación 418, un segundo módulo de adquisición 419, un segundo módulo de conversión 420 y un tercer módulo de conversión 430.
El tercer módulo de determinación 417 está configurado para determinar si un brillo del área de enfoque es menor o igual que un primer umbral de brillo, si una proporción de verde es menor o igual que un umbral de proporción y si una frecuencia espacial es menor o igual que un umbral de frecuencia cuando no hay un objeto de destino en el área de enfoque. El primer módulo de conversión 416 está además configurado para convertir la imagen mezclada en la imagen mezclada de color verdadero cuando se satisface al menos uno de lo siguiente: el brillo del área de enfoque es menor o igual que el primer umbral de brillo, la proporción de verde es menor o igual que el umbral de proporción y la frecuencia espacial es menor o igual que el umbral de frecuencia.
Haciendo referencia nuevamente a la Figura 20, en una realización, el aparato de procesamiento de imágenes 400 además incluye un segundo módulo de control 419, un segundo módulo de conversión 420 y un tercer módulo de conversión 430.
El segundo módulo de control 419 está configurado para emitir una imagen de bloque de color mediante el sensor de imagen cuando el brillo del área de enfoque es mayor que el primer umbral de brillo, la proporción de verde es mayor que el umbral de proporción y la frecuencia espacial es mayor que el umbral de frecuencia. La imagen de bloque de color incluye unidades de píxel de imagen dispuestas en una matriz preestablecida, y cada unidad de píxel de imagen incluye una pluralidad de píxeles originales. Cada unidad de píxel fotosensible corresponde a una unidad de píxel de imagen, y cada píxel fotosensible corresponde a un píxel original.
El segundo módulo de conversión 420 está configurado para convertir la imagen de bloque de color en una imagen de simulación usando un primer algoritmo de interpolación. La imagen de simulación incluye píxeles de simulación dispuestos en una matriz y cada píxel fotosensible corresponde a un píxel de simulación.
El tercer módulo de conversión 430 está configurado para convertir la imagen de simulación en una imagen de simulación de color verdadero.
En otras palabras, el acto en el bloque 217 puede implementarse mediante el tercer módulo de determinación 417. El acto en el bloque 219 puede implementarse mediante el segundo módulo de control 419. El acto en el bloque 220 puede implementarse mediante el segundo módulo de conversión 420. El acto en el bloque 230 puede implementarse mediante el tercer módulo de conversión 430.
Con referencia a la Figura 21, el segundo módulo de conversión 420 incluye una primera unidad de determinación 421, una segunda unidad de determinación 422 y una tercera unidad de determinación 423. La primera unidad de determinación 421 está configurada para determinar si un color de un píxel de simulación es idéntico al de un píxel original en la misma posición que el píxel de simulación. La segunda unidad de determinación 422 está configurada para determinar un valor de píxel del píxel original como un valor de píxel del píxel de simulación cuando el color del píxel de simulación es idéntico al del píxel original en la misma posición que el píxel de simulación. La tercera unidad de determinación 423 está configurada para determinar el valor de píxel del píxel de simulación de acuerdo con los valores de píxel de los píxeles de asociación cuando el color del píxel de simulación es diferente del color del píxel original en la misma posición que el píxel de simulación. Los píxeles de asociación se seleccionan de una unidad de píxel de imagen con un mismo color que el píxel de simulación y adyacente a la unidad de píxel de imagen, incluyendo el píxel original.
En otras palabras, el acto en el bloque 221 puede implementarse por la primera unidad de determinación 421. El acto en el bloque 222 puede implementarse mediante la segunda unidad de determinación 422. El acto en el bloque 223 puede ser implementado por la tercera unidad de determinación 423.
Con referencia a la Figura 22, en algunas implementaciones, la tercera unidad de determinación 423 incluye una primera subunidad de cálculo 4232, una segunda subunidad de cálculo 4234 y una tercera subunidad de cálculo 4236. El acto en el bloque 2232 puede implementarse mediante la primera subunidad de cálculo 4232. El acto en el bloque 2234 puede implementarse mediante la segunda subunidad de cálculo 4234. El acto en el bloque 2236 puede implementarse mediante la tercera subunidad de cálculo 4236. En otras palabras, la primera subunidad de cálculo 4232 está configurada para calcular un cambio del color del píxel de simulación en cada dirección de al menos dos direcciones de acuerdo con el valor de píxel del píxel de asociación. La segunda subunidad de cálculo 4234 está configurada para calcular un peso en cada dirección de las al menos dos direcciones de acuerdo con el cambio. La tercera subunidad de cálculo 4236 está configurada para calcular el valor de píxel del píxel de simulación de acuerdo con el peso y el valor de píxel del píxel de asociación.
La Figura 23 es un diagrama de bloques de un segundo módulo de conversión de acuerdo con una realización de la presente divulgación. Con referencia a la Figura 23, en algunas implementaciones, el segundo módulo de conversión 420 además incluye una primera unidad de compensación 424 y una unidad de restauración 425. El acto en el bloque 224 puede ser implementado por la primera unidad de compensación 424. El acto en el bloque 225 puede ser implementado por la unidad de restauración 425. En otras palabras, la primera unidad de compensación 424 está configurada para realizar una compensación de balance de blancos en la imagen de bloque de color. La unidad de restauración 425 está configurada para realizar una compensación de balance de blancos inversa en la imagen de simulación.
En algunas implementaciones, el segundo módulo de conversión 420 además incluye una segunda unidad de compensación 426. El acto en el bloque 226 puede ser implementado por la segunda unidad de compensación 426. En otras palabras, la segunda unidad de compensación 426 está configurada para realizar una compensación de punto defectuoso en la imagen de bloque de color.
En algunas implementaciones, el segundo módulo de conversión 420 además incluye una tercera unidad de compensación 427. El acto en el bloque 227 puede ser implementado por la tercera unidad de compensación 427. En otras palabras, la tercera unidad de compensación 427 está configurada para realizar una compensación de diafonía en la imagen de bloque de color.
La Figura 24 es un diagrama de bloques de un segundo módulo de conversión de acuerdo con una realización de la presente divulgación. Con referencia a la Figura 24, en algunas implementaciones, el segundo módulo de conversión 420 incluye una unidad de procesamiento 428. El acto en el bloque 228 puede ser implementado por la unidad de procesamiento 428. En otras palabras, la unidad de procesamiento 428 está configurada para realizar al menos una corrección de forma de espejo, un procesamiento de eliminación de mosaico, un procesamiento de eliminación de ruido y un procesamiento de acentuación de contorno en la imagen de simulación.
Con referencia a la Figura 25, en algunas implementaciones, el primer módulo de conversión 416 incluye una primera unidad de conversión 4162 y una segunda unidad de conversión 4164. La primera unidad de conversión 4162 está configurada para convertir la imagen mezclada en una imagen de restauración usando un segundo algoritmo de interpolación. La imagen de restauración incluye píxeles de restauración dispuestos en una matriz, y cada píxel fotosensible corresponde a un píxel de restauración. Una complejidad del segundo algoritmo de interpolación es menor que la del primer algoritmo de interpolación. La segunda unidad de conversión 4164 está configurada para convertir la imagen de restauración en la imagen mezclada de color verdadero. En otras palabras, el acto en el bloque 2162 es implementado por la primera unidad de conversión 4162. El acto en el bloque 2164 es implementado por la segunda unidad de conversión 4164.
La presente divulgación también proporciona un dispositivo electrónico.
La Figura 26 es un diagrama de bloques de un dispositivo electrónico 1000 de acuerdo con una realización de la presente divulgación. Con referencia a la Figura 26, el dispositivo electrónico 1000 de la presente divulgación incluye una carcasa 1001, un procesador 1002, una memoria 1003, una placa de circuito 1006, un circuito de fuente de alimentación 1007 y un aparato de formación de imágenes 100, la placa de circuito 1006 está encerrada por la carcasa 1001. El procesador 1002 y la memoria 1003 se colocan en la placa de circuito 1006. El circuito de fuente de alimentación 1007 está configurado para proporcionar energía para los respectivos circuitos o componentes del dispositivo electrónico 1000. La memoria 1003 está configurada para almacenar códigos de programa ejecutables. El aparato de formación de imágenes 100 incluye un sensor de imagen 10. Como se ilustra arriba, el sensor de imagen 10 incluye una matriz 12 de unidades de píxel fotosensible y una matriz 14 de unidades de filtro dispuestas en la matriz 12 de unidades de píxel fotosensible. Cada unidad de filtro 14a corresponde a una unidad de píxel fotosensible 12a, y cada unidad de píxel fotosensible 12a incluye una pluralidad de píxeles fotosensibles 122.
El procesador 1002 está configurado para ejecutar un programa correspondiente a los códigos de programa ejecutables leyendo los códigos de programa ejecutables almacenados en la memoria 1003, para realizar las siguientes operaciones: emitir una imagen mezclada mediante el sensor de imagen, en el cual la imagen mezclada incluye una matriz de píxeles mezclados, y una pluralidad de píxeles fotosensibles en una misma unidad de píxel fotosensible se emiten colectivamente como un píxel combinado; determinar un área de enfoque de la imagen mezclada; determinar si hay un objeto de destino en el área de enfoque; y cuando el objeto de destino está en el área de enfoque, convertir la imagen mezclada en una imagen mezclada de color verdadero. En algunas implementaciones, el aparato de formación de imágenes incluye una cámara frontal o una cámara real (no ilustrada en la Figura 26).
En algunas implementaciones, el procesador 1002 está configurado para ejecutar un programa correspondiente a los códigos de programa ejecutables leyendo los códigos de programa ejecutables almacenados en la memoria 1003, para determinar un área de enfoque de la imagen mezclada mediante actos de: dividir la imagen mezclada en una pluralidad de regiones de análisis dispuestas en una matriz; computar una diferencia de fase de cada una de la pluralidad de regiones de análisis; y mezclar regiones de análisis cada una con una diferencia de fase conforme a una condición preestablecida en el área de enfoque.
En algunas implementaciones, el procesador 1002 está configurado para ejecutar un programa correspondiente a los códigos de programa ejecutables leyendo los códigos de programa ejecutables almacenados en la memoria 1003, para realizar la siguiente operación: cuando no hay un objeto de destino en el área de enfoque, determinar si un brillo del área de enfoque es menor o igual que un primer umbral de brillo, si una proporción de verde del área de enfoque es menor o igual que un umbral de proporción y si una frecuencia espacial del área de enfoque es menor o igual que un umbral de frecuencia; y cuando se satisface al menos uno de lo siguiente: el brillo del área de enfoque es menor o igual que el primer umbral de brillo, la proporción de verde es menor o igual que el umbral de proporción y la frecuencia espacial es menor o igual que el umbral de frecuencia, convertir la imagen mezclada en la imagen mezclada de color verdadero.
En algunas implementaciones, el procesador 1002 está configurado para ejecutar un programa correspondiente a los códigos de programa ejecutables leyendo los códigos de programa ejecutables almacenados en la memoria 1003, para realizar la siguiente operación: cuando el brillo del área de enfoque es mayor que el primer umbral de brillo, la proporción de verde es mayor que el umbral de proporción y la frecuencia espacial es mayor que el umbral de frecuencia, emitir una imagen de bloque de color mediante el sensor de imagen, en el que la imagen de bloque de color incluye unidades de píxel de imagen dispuestas en un conjunto preestablecido, cada unidad de píxel de imagen incluye una pluralidad de píxeles originales, cada unidad de píxel fotosensible corresponde a una unidad de píxel de imagen y cada píxel fotosensible corresponde a un píxel original; convertir la imagen de bloque de color en una imagen de simulación utilizando un primer algoritmo de interpolación, en el que la imagen de simulación incluye píxeles de simulación dispuestos en una matriz, y cada píxel fotosensible corresponde a un píxel de simulación; y convertir la imagen de simulación en la imagen de simulación de color verdadero.
En algunas implementaciones, el procesador 1002 está configurado para ejecutar un programa correspondiente a los códigos de programa ejecutables leyendo los códigos de programa ejecutables almacenados en la memoria 1003, para convertir la imagen de bloque de color en la imagen de simulación usando el primer algoritmo de interpolación por actos de: determinar si un color de un píxel de simulación es idéntico al de un píxel original en la misma posición que el píxel de simulación; cuando el color del píxel de simulación es idéntico al del píxel original en la misma posición que el píxel de simulación, determinar un valor de píxel del píxel original como un valor de píxel del píxel de simulación; y cuando el color del píxel de simulación es diferente del color del píxel original en la misma posición que el píxel de simulación, determinar el valor de píxel del píxel de simulación de acuerdo con un valor de píxel de un píxel de asociación, en el que el píxel de asociación se selecciona desde una unidad de píxel de imagen con un mismo color que el píxel de simulación y adyacente a una unidad de píxel de imagen incluyendo el píxel original.
En algunas implementaciones, el procesador 1002 está configurado para ejecutar un programa correspondiente a los códigos de programa ejecutables leyendo los códigos de programa ejecutables almacenados en la memoria, para determinar el valor de píxel del segundo píxel de acuerdo con un valor de píxel de un píxel de asociación por actos de: calcular un cambio del color del segundo píxel en cada dirección de al menos dos direcciones de acuerdo con el valor de píxel del píxel de asociación; calcular un peso en cada dirección de las al menos dos direcciones de acuerdo con el cambio; y calcular el valor de píxel del segundo píxel de acuerdo con el peso y el valor de píxel del píxel de asociación.
En algunas implementaciones, el procesador 1002 está configurado para ejecutar un programa correspondiente a los códigos de programa ejecutables leyendo los códigos de programa ejecutables almacenados en la memoria 1003, para realizar las siguientes operaciones: realizar una compensación de balance de blancos en la imagen de bloque de color; y realizar una compensación de balance de blancos inversa en la imagen de simulación. En algunas implementaciones, el procesador 1002 está configurado para ejecutar un programa correspondiente a los códigos de programa ejecutables leyendo los códigos de programa ejecutables almacenados en la memoria, para realizar la siguiente operación: realizar al menos una de una compensación de punto defectuoso y una compensación de diafonía en la imagen de bloque de color.
En algunas implementaciones, el procesador 1002 está configurado para ejecutar un programa correspondiente a los códigos de programa ejecutables leyendo los códigos de programa ejecutables almacenados en la memoria 1003, para realizar las siguientes operaciones: realizar al menos una corrección de forma de espejo, un procesamiento de eliminación de mosaico, un procesamiento de eliminación de ruido y un procesamiento de acentuación de contorno en la imagen de simulación.
En algunas implementaciones, el procesador 1002 está configurado para ejecutar un programa correspondiente a los códigos de programa ejecutables leyendo los códigos de programa ejecutables almacenados en la memoria 1003, para convertir la imagen mezclada en una imagen mezclada de color verdadero mediante actos de: convertir la imagen mezclada en una imagen de restauración utilizando un segundo algoritmo de interpolación, en el que la imagen de restauración incluye píxeles de restauración dispuestos en una matriz, cada píxel fotosensible corresponde a un píxel de restauración, y la complejidad del segundo algoritmo de interpolación es menor que la del primer algoritmo de interpolación; y convertir la imagen de restauración en la imagen mezclada de color verdadero.
En algunas implementaciones, el dispositivo electrónico puede ser un equipo electrónico provisto de un aparato de formación de imágenes, tal como un teléfono móvil o una tableta, que no está limitado en la presente memoria.
El dispositivo electrónico 1000 puede además incluir un componente de entrada (no ilustrado en la Figura 24). Debe entenderse que el componente de entrada puede además incluir uno o más de los siguientes: una interfaz de entrada, un botón físico del dispositivo electrónico 1000, un micrófono, etc.
Debe entenderse que, el dispositivo electrónico 1000 puede además incluir uno o más de los siguientes componentes (no ilustrados en la Figura 24): un componente de audio, una interfaz de entrada/salida (E/S), un componente de sensor y un componente de comunicación. El componente de audio está configurado para emitir y/o recibir señales de audio, por ejemplo, el componente de audio incluye un micrófono. La interfaz de E/S está configurada para proporcionar una interfaz entre el procesador 1002 y los módulos de interfaz periféricos. El componente de sensor incluye uno o más sensores para proporcionar evaluaciones de estado de varios aspectos del dispositivo electrónico 1000. El componente de comunicación está configurado para facilitar la comunicación, cableada o inalámbrica, entre el dispositivo electrónico 1000 y otros dispositivos.
Debe entenderse que la fraseología y la terminología utilizadas en la presente memoria con referencia a la orientación del dispositivo o elemento (términos tales como "centro", "longitudinal", "lateral", "longitud", "ancho", "altura", "arriba", "abajo", "frente", "atrás", "izquierda", "derecha", "vertical", "horizontal", "superior", "inferior", "adentro", "afuera", "en sentido horario"," en sentido antihorario", "axial", "radial", "circunferencial") solo se utilizan para simplificar la descripción de la presente invención, y no indican ni implican que el dispositivo o elemento mencionado debe estar o ser operado en una determinada orientación. No pueden verse como límites a la presente divulgación.
Además, los términos "primero" y "segundo" solo se usan para la descripción y no se puede considerar que indiquen o impliquen una importancia relativa o que indique o implique el número de las características técnicas indicadas. Por lo tanto, las características definidas con "primero" y "segundo" pueden comprender o implicar al menos una de estas características. En la descripción de la presente divulgación, "una pluralidad de" significa dos o más de dos, a menos que se especifique lo contrario.
En la presente divulgación, a menos que se especifique o se limite de otra manera, los términos "montado", "conectado", "acoplado", "fijo" y similares se usan ampliamente, y pueden ser, por ejemplo, conexiones fijas, conexiones desmontables o conexiones integrales; también pueden ser conexiones mecánicas o eléctricas; también pueden ser conexiones directas o conexiones indirectas a través de estructuras intermedias; también pueden ser comunicaciones internas de dos elementos o interacciones de dos elementos, que pueden entender los expertos en la técnica de acuerdo con situaciones específicas.
En la presente divulgación, a menos que se especifique o limite de otra forma, una estructura en la que una primera característica está "activada" en una segunda característica puede incluir una realización en la que la primera característica contacta directamente con la segunda característica, y también puede incluir una realización en la que la primera característica contacta indirectamente con la segunda característica a través de un medio intermedio. Además, una estructura en la que una primera característica está "en", "sobre" o "encima" de una segunda característica puede indicar que la primera característica está justo encima de la segunda característica u oblicuamente encima de la segunda característica, o simplemente indicar que un nivel horizontal de la primera característica es más alto que el de la segunda característica. Una estructura en la que una primera característica está "abajo" o "debajo" de una segunda característica puede indicar que la primera característica está justo debajo de la segunda característica u oblicuamente debajo de la segunda característica, o simplemente indicar que un nivel horizontal de la primera característica es más bajo que el de la segunda característica.
Se proporcionan diversas realizaciones y ejemplos en la siguiente descripción para implementar diferentes estructuras de la presente divulgación. Para simplificar la presente divulgación, se describirán ciertos elementos y configuraciones. Sin embargo, estos elementos y configuraciones son solo ejemplos y no pretenden limitar la presente divulgación. Además, los números de referencia pueden repetirse en diferentes ejemplos en la divulgación. Esta repetición tiene el propósito de simplificar y aclarar y no se refiere a relaciones entre diferentes realizaciones y/o configuraciones. Además, en la presente divulgación se proporcionan ejemplos de diferentes procedimientos y materiales. Sin embargo, los expertos en la técnica apreciarán que también pueden aplicarse otros procedimientos y/o materiales.
La referencia a lo largo de esta memoria descriptiva a "una realización", "algunas realizaciones", "un ejemplo", "un ejemplo específico" o "algunos ejemplos" significa que una característica, estructura, material o característica particular se describe en conexión con la realización o ejemplo se incluye en al menos una realización o ejemplo de la presente divulgación. En esta memoria descriptiva, las descripciones ejemplares de los términos antes mencionados no se refieren necesariamente a la misma realización o ejemplo. Además, las características, estructuras, materiales o características particulares se pueden combinar de cualquier manera adecuada en una o más realizaciones o ejemplos. Además, los expertos en la técnica podrían combinar diferentes realizaciones o diferentes características en realizaciones o ejemplos descritos en la presente divulgación.
Se puede entender que cualquier procedimiento descrito en un diagrama de flujo o descrito en la presente memoria de otras maneras incluye uno o más módulos, segmentos o porciones de códigos de instrucciones ejecutables para lograr funciones o etapas lógicas específicas en el procedimiento, y el ámbito de una realización preferente de la presente divulgación incluye otras implementaciones, en las que el orden de ejecución puede diferir del que se representa o discute, incluso de acuerdo con la función involucrada, ejecutando concurrentemente o con concurrencia parcial o en el orden contrario para realizar la función, que debe ser entendido por los expertos en la técnica.
La lógica y/o la etapa descrita de otras maneras en la presente memoria o mostrada en el diagrama de flujo, por ejemplo, una tabla de secuencia particular de instrucciones ejecutables para realizar la función lógica, puede lograrse específicamente en cualquier medio legible por ordenador para ser utilizado por el sistema, dispositivo o equipo de ejecución de instrucción (como el sistema basado en ordenadores, el sistema comprende procesadores u otros sistemas capaces de adquirir la instrucción del sistema, dispositivo y equipo de ejecución de instrucción y ejecutar la instrucción), o para usarse en combinación con el sistema, dispositivo y equipo de ejecución de instrucción. En cuanto a la memoria descriptiva, "el medio legible por ordenador" puede ser cualquier dispositivo adaptable para incluir, almacenar, comunicar, propagar o transferir programas para ser utilizados por o en combinación con el sistema, dispositivo o equipo de ejecución de instrucción. Ejemplos más específicos del medio legible por ordenador comprenden, pero no se limitan a: una conexión electrónica (un dispositivo electrónico) con uno o más cables, una caja de ordenador portátil (un dispositivo magnético), una memoria de acceso aleatorio (RAM), una lectura de solo memoria (ROM), una memoria de solo lectura programable y borrable (EPROM o memoria flash), un dispositivo de fibra óptica y un disco compacto portátil de memoria de solo lectura (CDROM). Además, el medio legible por ordenador puede ser incluso un papel u otro medio apropiado capaz de imprimir programas sobre el mismo, esto es porque, por ejemplo, el papel u otro medio apropiado puede escanearse ópticamente y luego editarse, descifrarse o procesarse con otro procedimiento cuando sea necesario para obtener los programas de manera eléctrica, y luego los programas pueden ser almacenados en las memorias del ordenador.
Debe entenderse que cada parte de la presente divulgación puede realizarse mediante hardware, software, firmware o una combinación de los mismos. En las realizaciones anteriores, el software o firmware almacenado en la memoria puede ejecutar una pluralidad de etapas o procedimientos y ejecutarlos mediante el sistema de ejecución de instrucción apropiado. Por ejemplo, si se realiza mediante el hardware, del mismo modo en otra realización, las etapas o procedimientos se pueden realizar mediante una o una combinación de las siguientes técnicas conocidas en la técnica: un circuito lógico discreto que tiene un circuito de puerta lógica para realizar una función lógica de una señal de datos, un circuito integrado de aplicación específica que tiene un circuito de puerta lógica de combinación apropiada, un arreglo de compuertas programabas (PGA), un arreglo de compuertas programables en campo (FPGA), etc.
Los expertos en la técnica comprenderán que todos o parte de las etapas en el procedimiento de ejemplo anterior para la presente divulgación pueden lograrse ordenando con programas al hardware relacionado, los programas pueden almacenarse en un medio de almacenamiento legible por ordenador, y los programas comprenden una o una combinación de las etapas en las realizaciones del procedimiento de la presente divulgación cuando se ejecutan en un ordenador.
Además, cada celda de función de las realizaciones de la presente divulgación puede integrarse en un módulo de procesamiento, o estas celdas pueden ser una existencia física separada, o dos o más celdas están integradas en un módulo de procesamiento. El módulo integrado puede realizarse en forma de hardware o en forma de módulos de función de software. Cuando el módulo integrado se realiza en forma de módulo de función de software y se vende o utiliza como un producto independiente, el módulo integrado puede almacenarse en un medio de almacenamiento legible por ordenador.
El medio de almacenamiento mencionado anteriormente puede ser memorias de solo lectura, discos magnéticos, un CD, etc.

Claims (9)

REIVINDICACIONES
1. Un procedimiento de procesamiento de imágenes, aplicado en un dispositivo electrónico (1000), en el que el dispositivo electrónico (1000) comprende un sensor de imagen (10), el sensor de imagen (10) comprende una matriz (12) de unidades de píxel fotosensible y una matriz (14 ) de unidades de filtro dispuestas en la matriz (12) de unidades de píxel fotosensible, cada unidad de filtro (14a) corresponde a una unidad de píxel fotosensible (12a), y cada unidad de píxel fotosensible (12a) comprende una pluralidad de píxeles fotosensibles (122) adyacentes entre sí y con el mismo color, el procedimiento de procesamiento de imágenes comprende:
emitir (211) una imagen mezclada mediante el sensor de imagen (10), en el que la imagen mezclada comprende una matriz de píxeles mezclados, y la pluralidad de píxeles fotosensibles (122) en una misma unidad de píxel fotosensible (12a) se emiten colectivamente como un píxel mezclado; determinar (212) un área de enfoque de la imagen mezclada;
determinar (214) si hay un objeto de destino en el área de enfoque;
caracterizado porque:
cuando el objeto de destino está en el área de enfoque, convertir (216) la imagen mezclada en una imagen mezclada de color verdadero;
en el que, el procedimiento de procesamiento de imágenes además comprende: cuando no hay un objeto de destino en el área de enfoque, determinar (217) si un brillo del área de enfoque es menor o igual que un primer umbral de brillo, si una proporción de verde del área de enfoque es menor o igual que un umbral de proporción y si una frecuencia espacial del área de enfoque es menor o igual que un umbral de frecuencia;
cuando se satisface al menos uno de lo siguiente: el brillo del área de enfoque es menor o igual que el primer umbral de brillo, la proporción de verde es menor o igual que el umbral de proporción y la frecuencia espacial es menor o igual que el umbral de frecuencia, convertir (216) la imagen mezclada en la imagen mezclada de color verdadero;
en el que el procedimiento de procesamiento de imágenes además comprende: cuando el brillo del área de enfoque es mayor que el primer umbral de brillo, la proporción de verde es mayor que el umbral de proporción y la frecuencia espacial es mayor que el umbral de frecuencia, emitir (219) una imagen de bloque de color mediante el sensor de imagen (10), en el que la imagen de bloque de color comprende unidades de píxel de imagen dispuestas en una matriz predeterminada, en el que la matriz predeterminada comprende una matriz de Bayer, cada unidad de píxel de imagen comprende una pluralidad de píxeles originales proporcionados por píxeles fotosensibles cubiertos por el filtro de color que tiene el mismo color del sensor de imagen, cada unidad de píxel fotosensible (12a) corresponde a una unidad de píxel de imagen, y cada píxel fotosensible (122) corresponde a un píxel original; convertir (220) la imagen de bloque de color en una imagen de simulación usando un primer algoritmo de interpolación, en el que la imagen de simulación comprende píxeles de simulación dispuestos en una matriz, y cada píxel fotosensible corresponde a un píxel de simulación; y convertir (230) la imagen de simulación en la imagen de simulación de color verdadero;
en el que convertir (216) la imagen mezclada en una imagen mezclada de color verdadero comprende: convertir (2162) la imagen mezclada en una imagen de restauración usando un segundo algoritmo de interpolación, en el que la imagen de restauración corresponde a la imagen de simulación y comprende píxeles de restauración dispuestos en un matriz, cada píxel fotosensible corresponde a un píxel de restauración; y convertir (2164) la imagen de restauración en la imagen mezclada de color verdadero, y una complejidad del segundo algoritmo de interpolación es menor que la del primer algoritmo de interpolación.
2. El procedimiento de procesamiento de imágenes de acuerdo con la reivindicación 1, en el que determinar (212) un área de enfoque de la imagen mezclada comprende:
dividir (2121) la imagen mezclada en una pluralidad de regiones de análisis dispuestas en una matriz; computar (2122) una diferencia de fase de cada una de la pluralidad de regiones de análisis; y mezclar (2123) cada región de análisis con una diferencia de fase conforme a una condición preestablecida en el área de enfoque.
3. El procedimiento de procesamiento de imágenes de acuerdo con la reivindicación 1, en el que la conversión (220) de la imagen de bloque de color en la imagen de simulación usando el primer algoritmo de interpolación comprende:
determinar (221) si un color de un píxel de simulación es idéntico al de un píxel original en la misma posición que el píxel de simulación;
cuando el color del píxel de simulación es idéntico al del píxel original en la misma posición que el píxel de simulación, determinar (222) un valor de píxel del píxel original como un valor de píxel del píxel de simulación; y
cuando el color del píxel de simulación es diferente del color del píxel original en la misma posición que el píxel de simulación, determinar (223) el valor de píxel del píxel de simulación de acuerdo con un valor de píxel de un píxel de asociación, en el que el píxel de asociación se selecciona de una unidad de píxel de imagen con un mismo color que el píxel de simulación y adyacente a una unidad de píxel de imagen que comprende el píxel original.
4. El procedimiento de procesamiento de imágenes de acuerdo con la reivindicación 3, en el que determinar (223) el valor de píxel del segundo píxel de acuerdo con un valor de píxel de un píxel de asociación comprende:
calcular (2232) un cambio del color del píxel de simulación en cada dirección de al menos dos direcciones de acuerdo con el valor de píxel del píxel de asociación;
calcular (2234) un peso en cada dirección de las al menos dos direcciones de acuerdo con el cambio; y
calcular (2236) el valor de píxel del píxel de simulación de acuerdo con el peso y el valor de píxel del píxel de asociación.
5. El procedimiento de procesamiento de imágenes de acuerdo con cualquiera de las reivindicaciones 1 a 4, que además comprende:
realizar (224) una compensación de balance de blancos en la imagen de bloque de color; y realizar (225) una compensación de balance de blancos inversa en la imagen de simulación;
y/o
realizar (226, 227) al menos una de una corrección de píxel defectuoso y una compensación de diafonía en la imagen de bloque de color;
y/o
realizar (228) al menos uno de una corrección de forma de espejo, un procesamiento de eliminación de mosaico, un procesamiento de eliminación de ruido y un procesamiento de acentuación de contorno en la imagen de simulación.
6. Un aparato de procesamiento de imágenes (4000), aplicado en un dispositivo electrónico (1000), en el que el dispositivo electrónico comprende un sensor de imagen (10), el sensor de imagen (10) comprende una matriz (12) de unidades de píxel fotosensible y una matriz (14 ) de unidades de filtro dispuestas en la matriz (12) de unidades de píxel fotosensible, cada unidad de filtro (14a) corresponde a una unidad de píxel fotosensible (12a), y cada unidad de píxel fotosensible (12a) comprende una pluralidad de píxeles fotosensibles (122) adyacentes entre sí y con el mismo color; el aparato de procesamiento de imágenes (4000) comprende un medio no transitorio legible por ordenador (4600) que comprende instrucciones ejecutables por ordenador almacenadas en el mismo, y un sistema de ejecución de instrucción (4800) que está configurado por las instrucciones para implementar al menos uno de:
un primer módulo de control (411), configurado para emitir una imagen mezclada mediante el sensor de imagen (10), en el que la imagen mezclada comprende una matriz de píxeles mezclados, la pluralidad de píxeles fotosensibles (122) en una misma unidad de píxel fotosensible (12a) se emiten colectivamente como un píxel combinado;
un primer módulo de determinación (412), configurado para determinar un área de enfoque de la imagen mezclada;
un segundo módulo de determinación (414), configurado para determinar si hay un objeto de destino en el área de enfoque;
caracterizado porque
un primer módulo de conversión (416), configurado para convertir la imagen mezclada en una imagen mezclada de color verdadero cuando el objeto de destino está en el área de enfoque;
en el que el sistema de ejecución de instrucción (4800) está además configurado por las instrucciones para implementar: un tercer módulo de determinación (417), configurado para determinar si un brillo del área de enfoque es menor o igual que un primer umbral de brillo, si una proporción de verde es menor o igual que un umbral de proporción y si una frecuencia espacial es menor o igual que un umbral de frecuencia cuando no hay un objeto de destino en el área de enfoque;
en el que el primer módulo de conversión (416) está además configurado para convertir la imagen mezclada en la imagen mezclada de color verdadero cuando se satisface al menos uno de lo siguiente: el brillo del área de enfoque es menor o igual que el primer umbral de brillo, la proporción de verde es menor o igual que el umbral de proporción y la frecuencia espacial es menor o igual que el umbral de frecuencia;
en el que, el sistema de ejecución de instrucción (4800) está además configurado por las instrucciones para implementar: un segundo módulo de control (419), configurado para emitir una imagen de bloque de color mediante el sensor de imagen (10) cuando el brillo del área de enfoque es mayor que el primer umbral de brillo, la proporción de verde es mayor que el umbral de proporción y la frecuencia espacial es mayor que el umbral de frecuencia, en el que la imagen de bloque de color comprende unidades de píxel de imagen dispuestas en una matriz predeterminada, en el que la matriz predeterminada comprende un matriz de Bayer, cada unidad de píxel de imagen comprende una pluralidad de píxeles originales proporcionados por píxeles fotosensibles cubiertos por el filtro de color que tiene el mismo color del sensor de imagen, cada unidad de píxel fotosensible (12a) corresponde a una unidad de píxel de imagen, y cada píxel fotosensible (122) corresponde a un píxel original; un segundo módulo de conversión (420), configurado para convertir la imagen de bloque de color en una imagen de simulación usando un primer algoritmo de interpolación, en el que la imagen de simulación comprende píxeles de simulación dispuestos en una matriz y cada píxel fotosensible corresponde a un píxel de simulación; y un tercer módulo de conversión (430), configurado para convertir la imagen de simulación en una imagen de simulación de color verdadero;
en el que el primer módulo de conversión (416) está además configurado para: convertir la imagen mezclada en una imagen de restauración usando un segundo algoritmo de interpolación, en el que la imagen de restauración corresponde a la imagen de simulación y comprende píxeles de restauración dispuestos en una matriz, cada píxel fotosensible corresponde a un píxel de restauración; y convertir la imagen de restauración en la imagen mezclada de color verdadero, y la complejidad del segundo algoritmo de interpolación es menor que la del primer algoritmo de interpolación.
7. El aparato de procesamiento de imágenes (4000) de acuerdo con la reivindicación 6, en el que el primer módulo de determinación (412) comprende:
una unidad de división (4121), configurada para dividir la imagen mezclada en una pluralidad de regiones de análisis dispuestas en una matriz;
una unidad de cómputo (4122), configurada para computar una diferencia de fase de cada una de la pluralidad de regiones de análisis; y
una unidad de mezclado (4123), configurada para mezclar regiones de análisis, cada una con una diferencia de fase conforme a una condición preestablecida en el área de enfoque.
8. El aparato de procesamiento de imágenes (4000) de acuerdo con la reivindicación 6, en el que el segundo módulo de conversión (420) comprende:
una primera unidad de determinación (421), configurada para determinar si un color de un píxel de simulación es idéntico al de un píxel original en la misma posición que el píxel de simulación; una segunda unidad de determinación (422), configurada para determinar un valor de píxel del píxel original como un valor de píxel del píxel de simulación cuando el color del píxel de simulación es idéntico al del píxel original en la misma posición que el píxel de simulación; y
una tercera unidad de determinación (423), configurada para determinar el valor de píxel del píxel de simulación de acuerdo con un valor de píxel de un píxel de asociación cuando el color del píxel de simulación es diferente del color del píxel original en la misma posición que el píxel de simulación, en el que el píxel de asociación se selecciona de una unidad de píxel de imagen con un mismo color que el píxel de simulación y adyacente a una unidad de píxel de imagen que comprende el píxel original.
9. Un dispositivo electrónico (1000), que comprende una carcasa (1001), un procesador (1002), una memoria (1003), una placa de circuito (1006), un circuito de fuente de alimentación (1007) y un aparato de formación de imágenes (100), en el que,
la placa de circuito (1006) está encerrada por la carcasa (1000);
el procesador (1002) y la memoria (1003) se colocan en la placa de circuito (1006);
el circuito de fuente de alimentación (1007) está configurado para proporcionar energía para los respectivos circuitos o componentes del dispositivo electrónico (1000);
el aparato de formación de imágenes (100) comprende un sensor de imagen (10), en el que el sensor de imagen (10) comprende una matriz (12) de unidades de píxel fotosensible y una matriz (14) de unidades de filtro dispuestas en la matriz (12) de unidades de píxel fotosensible, cada unidad de filtro (14a) corresponde a una unidad de píxel fotosensible (12a), y cada unidad de píxel fotosensible (12a) comprende una pluralidad de píxeles fotosensibles (122) que son adyacentes entre sí y tienen el mismo color;
la memoria (1003) está configurada para almacenar códigos de programa ejecutables; y
el procesador (1002) está configurado para ejecutar un programa correspondiente a los códigos de programa ejecutables leyendo los códigos de programa ejecutables almacenados en la memoria (1003), para realizar las siguientes operaciones:
emitir (211) una imagen mezclada mediante el sensor de imagen (10), en el que la imagen mezclada comprende una matriz de píxeles mezclados, y la pluralidad de píxeles fotosensibles (122) en una misma unidad de píxel fotosensible (12a) se emiten colectivamente como un píxel mezclado; determinar (212) un área de enfoque de la imagen mezclada;
determinar (214) si hay un objeto de destino en el área de enfoque;
caracterizado porque:
cuando el objeto de destino está en el área de enfoque, convertir (216) la imagen mezclada en una imagen mezclada de color verdadero;
en el que el procesador (1002) está configurado para realizar las siguientes operaciones: cuando no hay un objeto de destino en el área de enfoque, determinar si un brillo del área de enfoque es menor o igual que un primer umbral de brillo, si una proporción de verde del área de enfoque es menor o igual que un umbral de proporción y si una frecuencia espacial del área de enfoque es menor o igual que un umbral de frecuencia;
cuando se satisface al menos uno de lo siguiente: el brillo del área de enfoque es menor o igual que el primer umbral de brillo, la proporción de verde es menor o igual que el umbral de proporción y la frecuencia espacial es menor o igual que el umbral de frecuencia, convertir la imagen mezclada en la imagen mezclada de color verdadero;
en el que el procesador (1002) está configurado para realizar las siguientes operaciones: cuando el brillo del área de enfoque es mayor que el primer umbral de brillo, la proporción de verde es mayor que el umbral de proporción y la frecuencia espacial es mayor que el umbral de frecuencia, emitir una imagen de bloque de color mediante el sensor de imagen (10), en el que la imagen de bloque de color comprende unidades de píxel de imagen dispuestas en una matriz preestablecida, en el que la matriz preestablecida comprende una matriz de Bayer, cada unidad de píxel de imagen comprende una pluralidad de píxeles originales proporcionados por píxeles fotosensibles cubiertos por el filtro de color que tiene el mismo color del sensor de imagen, cada unidad de píxel fotosensible (12a) corresponde a una unidad de píxel de imagen, y cada píxel fotosensible (122) corresponde a un píxel original; convertir la imagen de bloque de color en una imagen de simulación usando un primer algoritmo de interpolación, en el que la imagen de simulación comprende píxeles de simulación dispuestos en una matriz, y cada píxel fotosensible corresponde a un píxel de simulación; y convertir la imagen de simulación en la imagen de simulación de color verdadero;
en el que convertir la imagen mezclada en una imagen mezclada de color verdadero comprende: convertir la imagen mezclada en una imagen de restauración usando un segundo algoritmo de interpolación, en el que la imagen de restauración corresponde a la imagen de simulación y comprende píxeles de restauración dispuestos en una matriz, cada píxel fotosensible corresponde a un píxel de restauración; y convertir la imagen de restauración en la imagen mezclada de color verdadero, y la complejidad del segundo algoritmo de interpolación es menor que la del primer algoritmo de interpolación.
ES17202517T 2016-11-29 2017-11-20 Procedimiento y aparato de procesamiento de imágenes, y dispositivo electrónico Active ES2774493T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611079892.4A CN106454289B (zh) 2016-11-29 2016-11-29 控制方法、控制装置及电子装置

Publications (1)

Publication Number Publication Date
ES2774493T3 true ES2774493T3 (es) 2020-07-21

Family

ID=58222540

Family Applications (1)

Application Number Title Priority Date Filing Date
ES17202517T Active ES2774493T3 (es) 2016-11-29 2017-11-20 Procedimiento y aparato de procesamiento de imágenes, y dispositivo electrónico

Country Status (5)

Country Link
US (2) US10348962B2 (es)
EP (1) EP3327781B1 (es)
CN (1) CN106454289B (es)
ES (1) ES2774493T3 (es)
WO (1) WO2018099008A1 (es)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106791477B (zh) * 2016-11-29 2019-07-19 Oppo广东移动通信有限公司 图像处理方法、图像处理装置、成像装置及制造方法
CN106504218B (zh) 2016-11-29 2019-03-12 Oppo广东移动通信有限公司 控制方法、控制装置及电子装置
CN106454289B (zh) * 2016-11-29 2018-01-23 广东欧珀移动通信有限公司 控制方法、控制装置及电子装置
CN106454054B (zh) 2016-11-29 2019-03-19 Oppo广东移动通信有限公司 控制方法、控制装置及电子装置
CN106507068B (zh) 2016-11-29 2018-05-04 广东欧珀移动通信有限公司 图像处理方法及装置、控制方法及装置、成像及电子装置
CN106454288B (zh) * 2016-11-29 2018-01-19 广东欧珀移动通信有限公司 控制方法、控制装置、成像装置及电子装置
CN106507019B (zh) 2016-11-29 2019-05-10 Oppo广东移动通信有限公司 控制方法、控制装置、电子装置
CN106604001B (zh) 2016-11-29 2018-06-29 广东欧珀移动通信有限公司 图像处理方法、图像处理装置、成像装置及电子装置
CN106341670B (zh) * 2016-11-29 2017-09-22 广东欧珀移动通信有限公司 控制方法、控制装置及电子装置
CN106507069B (zh) * 2016-11-29 2018-06-05 广东欧珀移动通信有限公司 控制方法、控制装置及电子装置
US10872261B2 (en) * 2018-12-03 2020-12-22 Qualcomm Incorporated Dynamic binning of sensor pixels
CN110738628B (zh) * 2019-10-15 2023-09-05 湖北工业大学 一种基于wiml比较图的自适应焦点检测多聚焦图像融合方法
CN112866549B (zh) * 2019-11-12 2022-04-12 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
CN115086517A (zh) * 2022-05-26 2022-09-20 联宝(合肥)电子科技有限公司 一种图像采集方法、装置、电子设备及存储介质

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7088392B2 (en) * 2001-08-27 2006-08-08 Ramakrishna Kakarala Digital image system and method for implementing an adaptive demosaicing method
EP1545135B1 (en) * 2002-09-26 2013-04-03 Seiko Epson Corporation Adjusting output image of image data
JP4046079B2 (ja) * 2003-12-10 2008-02-13 ソニー株式会社 画像処理装置
JP2005215750A (ja) * 2004-01-27 2005-08-11 Canon Inc 顔検知装置および顔検知方法
JP2007166456A (ja) * 2005-12-16 2007-06-28 Fuji Xerox Co Ltd 画像調整装置、画像調整方法及びプログラム
US7773138B2 (en) 2006-09-13 2010-08-10 Tower Semiconductor Ltd. Color pattern and pixel level binning for APS image sensor using 2×2 photodiode sharing scheme
JP5446076B2 (ja) * 2007-07-17 2014-03-19 株式会社ニコン デジタルカメラ
JP5113514B2 (ja) * 2007-12-27 2013-01-09 キヤノン株式会社 ホワイトバランス制御装置およびホワイトバランス制御方法
US7745779B2 (en) * 2008-02-08 2010-06-29 Aptina Imaging Corporation Color pixel arrays having common color filters for multiple adjacent pixels for use in CMOS imagers
JP2010035048A (ja) * 2008-07-30 2010-02-12 Fujifilm Corp 撮像装置及び撮像方法
KR101624648B1 (ko) * 2009-08-05 2016-05-26 삼성전자주식회사 장면에 따른 해상도 및 화질 변경 기능을 갖는 디지털 영상 신호 처리 방법, 상기 방법을 기록한 기록 매체, 디지털 영상 처리 장치
JP5075934B2 (ja) 2010-03-25 2012-11-21 株式会社東芝 固体撮像装置および画像記録装置
JP5825817B2 (ja) * 2011-04-01 2015-12-02 キヤノン株式会社 固体撮像素子及び撮像装置
JP5843486B2 (ja) 2011-05-31 2016-01-13 キヤノン株式会社 撮像装置およびその制御方法
JP2013021660A (ja) * 2011-07-14 2013-01-31 Sony Corp 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
JP2013066146A (ja) * 2011-08-31 2013-04-11 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
WO2013042518A1 (ja) * 2011-09-22 2013-03-28 富士フイルム株式会社 デジタルカメラ
WO2013145487A1 (ja) 2012-03-27 2013-10-03 ソニー株式会社 画像処理装置、撮像素子、および画像処理方法、並びにプログラム
CN103531603B (zh) * 2013-10-30 2018-10-16 上海集成电路研发中心有限公司 一种cmos图像传感器
JP6545007B2 (ja) * 2015-06-11 2019-07-17 キヤノン株式会社 撮像装置
US10148863B2 (en) * 2015-12-08 2018-12-04 Canon Kabushiki Kaisha Information processing apparatus and information processing method
CN105611258A (zh) * 2015-12-18 2016-05-25 广东欧珀移动通信有限公司 图像传感器的成像方法、成像装置和电子装置
US11354008B2 (en) * 2016-08-10 2022-06-07 Microsoft Technology Licensing, Llc Visual notification
CN106454289B (zh) * 2016-11-29 2018-01-23 广东欧珀移动通信有限公司 控制方法、控制装置及电子装置

Also Published As

Publication number Publication date
CN106454289A (zh) 2017-02-22
US10348962B2 (en) 2019-07-09
EP3327781A1 (en) 2018-05-30
EP3327781B1 (en) 2019-12-25
US20180152632A1 (en) 2018-05-31
WO2018099008A1 (zh) 2018-06-07
US10110809B2 (en) 2018-10-23
CN106454289B (zh) 2018-01-23
US20180249074A1 (en) 2018-08-30

Similar Documents

Publication Publication Date Title
ES2774493T3 (es) Procedimiento y aparato de procesamiento de imágenes, y dispositivo electrónico
ES2769306T3 (es) Procedimiento y aparato de procesamiento de imágenes y dispositivo electrónico
ES2734072T3 (es) Método y aparato de tratamiento de imágenes y dispositivo electrónico
ES2752655T3 (es) Procedimiento y aparato de procesamiento de imágenes, y dispositivo electrónico
ES2732973T3 (es) Método y aparato de procesamiento de imagen y dispositivo electrónico
ES2763646T3 (es) Procedimiento y aparato de procesamiento de imagen y dispositivo electrónico
ES2748572T3 (es) Método y aparato de procesamiento de imágenes, y dispositivo electrónico
ES2757506T3 (es) Procedimiento y aparato de procesamiento, dispositivo electrónico y procedimiento de control
EP3327779B1 (en) Image processing method and apparatus, and electronic device
US10432905B2 (en) Method and apparatus for obtaining high resolution image, and electronic device for same
EP3328070B1 (en) Image processing method and apparatus, and electronic device
ES2731695T3 (es) Método de control y aparato electrónico
ES2761401T3 (es) Procesamiento, aparato y dispositivo electrónico de procesamiento de imágenes
US10382709B2 (en) Image processing method and apparatus, and electronic device
WO2018098977A1 (zh) 图像处理方法、图像处理装置、成像装置、制造方法和电子装置