ES2757506T3 - Procedimiento y aparato de procesamiento, dispositivo electrónico y procedimiento de control - Google Patents

Procedimiento y aparato de procesamiento, dispositivo electrónico y procedimiento de control Download PDF

Info

Publication number
ES2757506T3
ES2757506T3 ES17198777T ES17198777T ES2757506T3 ES 2757506 T3 ES2757506 T3 ES 2757506T3 ES 17198777 T ES17198777 T ES 17198777T ES 17198777 T ES17198777 T ES 17198777T ES 2757506 T3 ES2757506 T3 ES 2757506T3
Authority
ES
Spain
Prior art keywords
pixel
image
simulation
color
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17198777T
Other languages
English (en)
Inventor
Yi Wei
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Application granted granted Critical
Publication of ES2757506T3 publication Critical patent/ES2757506T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4015Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/46Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by combining or binning pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/68Noise processing, e.g. detecting, correcting, reducing or removing noise applied to defects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/73Colour balance circuits, e.g. white balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2209/00Details of colour television systems
    • H04N2209/04Picture signal generators
    • H04N2209/041Picture signal generators using solid-state devices
    • H04N2209/042Picture signal generators using solid-state devices having a single pick-up sensor
    • H04N2209/045Picture signal generators using solid-state devices having a single pick-up sensor using mosaic colour filter
    • H04N2209/046Colour interpolation to calculate the missing colour values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Color Television Image Signal Generators (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

Un procedimiento de procesamiento de imágenes, para el procesamiento de una salida de imagen de bloque de color por un sensor de imagen (200), en el que el sensor de imagen (200) comprende una matriz de unidades de píxeles fotosensibles, y cada unidad de píxeles fotosensibles (210a) comprende una pluralidad de píxeles fotosensibles (212), la imagen de bloque de color comprende unidades de píxeles de imagen dispuestas en una matriz preestablecida, en el que la matriz preestablecida comprende una matriz de Bayer, cada unidad de píxeles de imagen comprende una pluralidad de píxeles originales, cada unidad de píxeles fotosensibles (210a) corresponde a una unidad de píxeles de imagen, cada píxel fotosensible (212) corresponde a un píxel original, y la imagen de bloque de color comprende una región fija, y el procedimiento de procesamiento de imágenes comprende: la conversión (10) de una parte de la imagen de bloque de color dentro de la región fija en una primera imagen mediante el uso de un primer algoritmo de interpolación, en el que, la primera imagen comprende primeros píxeles de simulación dispuestos en la matriz de Bayer, y cada píxel fotosensible (212) corresponde a un primer píxel de simulación; la conversión (20) de una parte de la imagen de bloque de color más allá de la región fija en una segunda imagen mediante el uso de un segundo algoritmo de interpolación, en el que, la segunda imagen comprende segundos píxeles de simulación dispuestos en la matriz de Bayer, y cada píxel fotosensible (212) corresponde a un segundo píxel de simulación, y una complejidad del segundo algoritmo de interpolación es menor que la complejidad del primer algoritmo de interpolación; y la combinación (30) de la primera imagen y la segunda imagen en una imagen de simulación que corresponde a la imagen de bloque de color, la imagen de simulación comprende píxeles de simulación dispuestos en la matriz de Bayer.

Description

DESCRIPCIÓN
Procedimiento y aparato de procesamiento, dispositivo electrónico y procedimiento de control
Campo
La presente descripción se refiere al campo de la tecnología de formación de imágenes, y más en particular a un procedimiento de procesamiento de imágenes, a un aparato de procesamiento de imágenes, a un dispositivo electrónico y a un procedimiento de control.
Antecedentes
Cuando una imagen se procesa por medio de un procedimiento de procesamiento de imágenes convencional, ya sea la imagen obtenida tiene una resolución baja, o se necesita mucho tiempo y demasiados recursos para obtener una imagen con alta resolución, los cuales son inconvenientes para los usuarios. Por otro lado, en una aplicación práctica, por lo general los usuarios prestan atención a la resolución de una parte principal de la imagen. El documento US2015/03137A divulga la captura de una imagen por medio de dos modos, uno de alta resolución para subáreas elegidas, el otro emplea una agrupación de 2 por 2 para reducir el ruido. La imagen se lee en dos pasadas. El documento US2009/0200451A también divulga subáreas con diferentes modos de lectura, 2 por 2 y píxel individual, dependiendo de la cantidad de luz incidente. Cada subárea se interpola cromáticamente de manera independiente y los resultados se combinan.
Descripción
La presente descripción tiene como objetivo resolver por lo menos uno de los problemas existentes en la técnica relacionada en por lo menos cierta medida. En consecuencia, la presente descripción proporciona un procedimiento de procesamiento de imágenes de acuerdo con la reivindicación 1, un aparato de procesamiento de imágenes de acuerdo con la reivindicación 9 y un dispositivo electrónico de acuerdo con la reivindicación 15. Las formas de realización de la presente descripción proporcionan un procedimiento de procesamiento de imágenes. El procedimiento de procesamiento de imágenes está configurado para procesar una salida de imagen de bloque de color emitida por un sensor de imagen. El sensor de imagen incluye una pluralidad de unidades de píxeles fotosensibles, y cada unidad de píxeles fotosensibles incluye una pluralidad de píxeles fotosensibles. La imagen de bloque de color incluye unidades de píxeles de imagen dispuestas en una matriz preestablecida. Cada unidad de píxeles de imagen incluye una pluralidad de píxeles originales. Cada unidad de píxeles fotosensibles corresponde a una unidad de píxeles de imagen, y cada píxel fotosensible corresponde a un píxel original. La imagen de bloque de color incluye una región fija. El procedimiento de procesamiento de imágenes incluye: la conversión de una parte de la imagen de bloque de color dentro de la región fija en una primera imagen mediante el uso de un primer algoritmo de interpolación, en el que, la primera imagen incluye primeros píxeles de simulación dispuestos en una matriz, y cada píxel fotosensible corresponde a un primer píxel de simulación; la conversión de una parte de la imagen de bloque de color más allá de la región fija en una segunda imagen mediante el uso de un segundo algoritmo de interpolación, en el cual, la segunda imagen incluye segundos píxeles de simulación dispuestos en una matriz, y cada píxel fotosensible corresponde a un segundo píxel de simulación, y una complejidad del segundo algoritmo de interpolación es menor que la complejidad del primer algoritmo de interpolación; y la combinación de la primera imagen y la segunda imagen en una imagen de simulación que corresponde a la imagen de bloque de color.
En por lo menos una forma de realización, la conversión de la parte de imagen de bloque de color dentro de la región fija en la primera imagen mediante el uso del primer algoritmo de interpolación incluye: la determinación de si un color de un primer píxel de simulación es idéntico al color de un píxel original en una misma posición que el primer píxel de simulación; cuando el color del primer píxel de simulación es idéntico al color del píxel original en la misma posición que el primer píxel de simulación, la determinación de un valor de píxel del píxel original como un valor de píxel del primer píxel de simulación; y cuando el color del primer píxel de simulación es diferente del color del píxel original en la misma posición que el primer píxel de simulación, la determinación del valor de píxel del primer píxel de simulación de acuerdo con un valor de píxel de un píxel de asociación, en el que el píxel de asociación se selecciona de una unidad de píxeles de imagen con un mismo color que el primer píxel de simulación y adyacente a una unidad de píxeles de imagen que incluyen el píxel original.
En por lo menos una forma de realización, la determinación del valor de píxel del primer píxel de simulación de acuerdo con el valor de píxel del píxel de asociación incluye: el cálculo de un cambio del color del primer píxel de simulación en cada dirección de por lo menos dos direcciones de acuerdo con el valor de píxel del píxel de asociación; el cálculo de un peso en cada dirección de las por lo menos dos direcciones de acuerdo con el cambio; y el cálculo del valor de píxel del primer píxel de simulación de acuerdo con el peso y el valor de píxel del píxel de asociación.
En por lo menos una forma de realización, la conversión de la parte de imagen de bloque de color de más allá de la región fija en la segunda imagen mediante el uso del segundo algoritmo de interpolación incluye: el cálculo de un valor de píxel promedio de cada unidad de píxeles de imagen de la imagen de bloque de color; la determinación de si un color de un segundo píxel de simulación es idéntico al color de un píxel original en una misma posición que el segundo píxel de simulación; cuando el color del segundo píxel de simulación es idéntico al color del píxel original en la misma posición que el segundo píxel de simulación, la determinación de un valor de píxel promedio de una unidad de píxeles de imagen que incluyen el píxel original como un valor de píxel del segundo píxel de simulación; y cuando el color del segundo píxel de simulación es diferente del color del píxel original en la misma posición que el segundo píxel de simulación, la determinación de un valor de píxel promedio de una unidad de píxeles de imagen con un mismo color que el segundo píxel de simulación y adyacente a una unidad de píxeles de imagen que incluyen el píxel original como un valor de píxel del segundo píxel de simulación.
En por lo menos una forma de realización, la matriz preestablecida incluye una matriz de Bayer.
En por lo menos una forma de realización, la unidad de píxeles de imagen incluye píxeles originales dispuestos en una matriz de 2 por 2.
En por lo menos una forma de realización, el procedimiento de procesamiento de imágenes además incluye: la realización de una compensación de balance de blancos en la imagen de bloque de color; y la realización de una compensación de balance de blancos inverso en la primera imagen.
En por lo menos una forma de realización, el procedimiento de procesamiento de imágenes además incluye: la realización de por lo menos uno de una compensación de puntos malos y una compensación de diafonía en la imagen de bloque de color.
En por lo menos una forma de realización, el procedimiento de procesamiento de imágenes además incluye: la realización de por lo menos uno de una corrección de formas de espejo, un procesamiento de interpolación cromática, un procesamiento de eliminación de ruido y un procesamiento de afilado de bordes en la primera imagen. En por lo menos una forma de realización, el sensor de imagen está ubicado en un dispositivo eléctrico que incluye una pantalla táctil, y el procedimiento de procesamiento de imágenes además incluye: la conversión de la imagen de bloque de color en una imagen de vista previa por medio de un tercer algoritmo de interpolación, en el que una complejidad del tercer algoritmo de interpolación es menor que la complejidad del primer algoritmo de interpolación; el control de la pantalla táctil para exhibir la imagen de vista previa; y el control de la pantalla táctil para exhibir un patrón de aviso para indicar la región fija.
En por lo menos una forma de realización, el tercer algoritmo de interpolación es el mismo que el primer algoritmo de interpolación.
Las formas de realización de la presente descripción además proporcionan un aparato de procesamiento de imágenes. El aparato de procesamiento de imágenes está configurado para procesar una salida de imagen de bloque de color emitida por un sensor de imagen. El sensor de imagen incluye una pluralidad de unidades de píxeles fotosensibles, y cada unidad de píxeles fotosensibles incluye una pluralidad de píxeles fotosensibles. La imagen de bloque de color incluye unidades de píxeles de imagen dispuestas en una matriz preestablecida. Cada unidad de píxeles de imagen incluye una pluralidad de píxeles originales. Cada unidad de píxeles fotosensibles corresponde a una unidad de píxeles de imagen, y cada píxel fotosensible corresponde a un píxel original. La imagen de bloque de color incluye una región fija. El aparato de procesamiento de imágenes incluye un medio no transitorio legible por ordenador que incluye instrucciones legibles por ordenador almacenadas en el mismo, y un sistema de ejecución de instrucciones que está configurado por las instrucciones para implementar por lo menos uno de un primer módulo de conversión, un segundo módulo de conversión y un módulo de combinación. El primer módulo de conversión está configurado para convertir una parte de la imagen de bloque de color dentro de la región fija en una primera imagen mediante el uso de un primer algoritmo de interpolación. La primera imagen incluye primeros píxeles de simulación dispuestos en una matriz, y cada píxel fotosensible corresponde a una primer píxel de simulación. El segundo módulo de conversión está configurado para convertir una parte de la imagen de bloque de color más allá de la región fija en una segunda imagen mediante el uso de un segundo algoritmo de interpolación. La segunda imagen incluye segundos píxeles de simulación dispuestos en una matriz, y cada píxel fotosensible corresponde a un segundo píxel de simulación. Una complejidad del segundo algoritmo de interpolación es menor que la complejidad del primer algoritmo de interpolación. El módulo de combinación está configurado para combinar la primera imagen y la segunda imagen en una imagen de simulación que corresponde a la imagen de bloque de color.
En por lo menos una forma de realización, el primer módulo de conversión incluye: una primera unidad de determinación, configurada para determinar si un color de un primer píxel de simulación es idéntico al color de un píxel original en una misma posición que el primer píxel de simulación; una segunda unidad de determinación, configurada para determinar un valor de píxel del píxel original como un valor de píxel del primer píxel de simulación cuando el color del primer píxel de simulación es idéntico al color del píxel original en la misma posición que el primer píxel de simulación; y una tercera unidad de determinación, configurada para determinar el valor de píxel del primer píxel de simulación de acuerdo con un valor de píxel de un píxel de asociación cuando el color del primer píxel de simulación es diferente del color del píxel original en la misma posición que el primer píxel de simulación, en la que el píxel de asociación se selecciona de una unidad de píxeles de imagen con un mismo color que el primer píxel de simulación y adyacente a una unidad de píxeles de imagen que incluyen el píxel original.
En por lo menos una forma de realización, la tercera unidad de determinación incluye: una primera subunidad de cálculo, configurada para calcular un cambio del color del primer píxel de simulación en cada dirección de por lo menos dos direcciones de acuerdo con el valor de píxel del píxel de asociación; una segunda subunidad de cálculo, configurada para calcular un peso en cada dirección de las por lo menos dos direcciones de acuerdo con el cambio; y una tercera subunidad de cálculo, configurada para calcular el valor de píxel del primer píxel de simulación de acuerdo con el peso y el valor de píxel del píxel de asociación.
En por lo menos una forma de realización, el segundo módulo de conversión incluye: una segunda unidad de cálculo, configurada para calcular un valor de píxel promedio de cada unidad de píxeles de imagen de la imagen de bloque de color; una cuarta unidad de determinación, configurada para determinar si un color de un segundo píxel de simulación es idéntico al color de un píxel original en una misma posición que el segundo píxel de simulación; una quinta unidad de determinación, configurada para determinar un valor de píxel promedio de una unidad de píxeles de imagen que incluyen el píxel original como un valor de píxel del segundo píxel de simulación, cuando el color del segundo píxel de simulación es idéntico al color del píxel original en la misma posición que el segundo píxel de simulación; y una sexta unidad de determinación, configurada para determinar un valor de píxel promedio de una unidad de píxeles de imagen con un mismo color que el segundo píxel de simulación y adyacente a una unidad de píxeles de imagen que incluyen el píxel original como un valor de píxel del segundo píxel de simulación, cuando el color del segundo píxel de simulación es diferente del color del píxel original en la misma posición que el segundo píxel de simulación.
En por lo menos una forma de realización, la matriz preestablecida incluye una matriz de Bayer.
En por lo menos una forma de realización, la unidad de píxeles de imagen incluye píxeles originales dispuestos en una matriz de 2 por 2.
En por lo menos una forma de realización, el primer módulo de conversión incluye: una primera unidad de compensación, configurada para llevar a cabo una compensación de balance de blancos en la imagen de bloque de color; y una unidad de restauración, configurada para llevar a cabo una compensación de balance de blancos inverso en la primera imagen.
En por lo menos una forma de realización, el primer módulo de conversión además incluye por lo menos una de una segunda unidad de compensación y una tercera unidad de compensación. La segunda unidad de compensación está configurada para llevar a cabo una compensación de puntos malos en la imagen de bloque de color; y la tercera unidad de compensación está configurada para llevar a cabo una compensación de diafonía en la imagen de bloque de color.
En por lo menos una forma de realización, el primer módulo de conversión además incluye: una unidad de procesamiento, configurada para llevar a cabo por lo menos uno de una corrección de formas de espejo, un procesamiento de interpolación cromática, un procesamiento de eliminación de ruido y un procesamiento de afilado de bordes en la primera imagen.
Las formas de realización de la presente descripción proporcionan un dispositivo electrónico. El dispositivo electrónico incluye una carcasa, un procesador, una memoria, una placa de circuito, un circuito de suministro de energía y un aparato de formación de imágenes. La placa de circuito está encerrada por la carcasa. El procesador y la memoria están posicionados en la placa de circuito. La fuente de alimentación está configurada para proporcionar energía para los respectivos circuitos o componentes del dispositivo electrónico. El aparato de imágenes incluye un sensor de imagen configurado para emitir una imagen en bloque de color. El sensor de imagen incluye una pluralidad de unidades de píxeles fotosensibles. Cada unidad de píxeles fotosensibles incluye una pluralidad de píxeles fotosensibles. La imagen de bloque de color incluye unidades de píxeles de imagen dispuestas en una matriz preestablecida. Cada unidad de píxeles de imagen incluye una pluralidad de píxeles originales. La memoria está configurada para almacenar códigos de programa ejecutables. El procesador está configurado para ejecutar un programa que corresponde a los códigos de programa ejecutables por medio de la lectura de los códigos de programa ejecutables almacenados en la memoria, para llevar a cabo el procedimiento de procesamiento de imágenes de acuerdo con las formas de realización de la presente descripción.
Los aspectos y las ventajas adicionales de las formas de realización de la presente descripción se presentarán en parte en las siguientes descripciones, se volverán evidentes en parte a partir de las siguientes descripciones, o se pueden aprender de la práctica de las formas de realización de la presente descripción.
Breve descripción de los dibujos
Estos y otros aspectos y ventajas de formas de realización de la presente descripción se pondrán de manifiesto y se apreciarán con mayor facilidad a partir de las siguientes descripciones realizadas con referencia a los dibujos.
La Fig. 1 es un diagrama de flujo de un procedimiento de procesamiento de imágenes de acuerdo con una forma de realización de la presente descripción.
La Fig. 2 es un diagrama de bloques de un sensor de imagen de acuerdo con una forma de realización de la presente descripción.
La Fig. 3 es un diagrama esquemático de un sensor de imagen de acuerdo con una forma de realización de la presente descripción.
La Fig. 4 es un diagrama de flujo que muestra un proceso de conversión de una parte de la imagen de bloque de color en una primera imagen de acuerdo con una forma de realización de la presente descripción.
La Fig. 5 es un diagrama esquemático que ilustra un circuito de un sensor de imagen de acuerdo con una forma de realización de la presente descripción.
La Fig. 6 es un diagrama esquemático de una matriz de unidades de filtro de acuerdo con una forma de realización de la presente descripción.
La Fig. 7 es un diagrama esquemático de una imagen combinada de acuerdo con una forma de realización de la presente descripción.
La Fig. 8 es un diagrama esquemático de una imagen de bloque de color de acuerdo con una forma de realización de la presente descripción.
La Fig. 9 es un diagrama esquemático que ilustra un proceso de conversión de una imagen de bloque de color en una primera imagen de acuerdo con una forma de realización de la presente descripción.
La Fig. 10 es un diagrama de flujo que muestra un proceso de conversión de una parte de la imagen de bloque de color en una primera imagen de acuerdo con otra forma de realización de la presente descripción.
La Fig. 11 es un diagrama de flujo que muestra un proceso de conversión de una parte de la imagen de bloque de color en una primera imagen de acuerdo con otra forma de realización de la presente descripción.
La Fig. 12 es un diagrama de flujo que muestra un proceso de conversión de una parte de la imagen de bloque de color en una primera imagen de acuerdo con otra forma de realización de la presente descripción.
La Fig. 13 es un diagrama de flujo que ilustra un proceso de conversión de una parte de una imagen de bloque de color en una segunda imagen de acuerdo con una forma de realización de la presente descripción.
La Fig. 14 es un diagrama esquemático que ilustra un proceso de conversión de una imagen de bloque de color en una segunda imagen de acuerdo con una forma de realización de la presente descripción.
La Fig. 15 es un diagrama de flujo de un procedimiento de procesamiento de imágenes de acuerdo con una forma de realización de la presente descripción.
La Fig. 16 es un diagrama esquemático que ilustra un estado de un dispositivo eléctrico controlado por un procedimiento de control de acuerdo con una forma de realización de la presente descripción.
La Fig. 17 es un diagrama de bloques de un aparato de procesamiento de imágenes de acuerdo con una forma de realización de la presente descripción.
La Fig. 18 es un diagrama de bloques de un primer módulo de conversión de acuerdo con una forma de realización de la presente descripción.
La Fig. 19 es un diagrama de bloques de una tercera unidad de determinación en el primer módulo de conversión de acuerdo con una forma de realización de la presente descripción.
La Fig. 20 es un diagrama de bloques de un primer módulo de conversión de acuerdo con otra forma de realización de la presente descripción.
La Fig. 21 es un diagrama de bloques de un primer módulo de conversión de acuerdo con otra forma de realización de la presente descripción.
La Fig. 22 es un diagrama de bloques de un segundo módulo de conversión de acuerdo con una forma de realización de la presente descripción.
La Fig. 23 es un diagrama de bloques de un aparato de procesamiento de imágenes de acuerdo con una forma de realización de la presente descripción.
La Fig. 24 es un diagrama de bloques de un dispositivo electrónico de acuerdo con una forma de realización de la presente descripción.
Formas de realización de la presente descripción
Ahora se hará referencia en detalle a formas de realización de ejemplo, ejemplos de las cuales se ilustran en los dibujos adjuntos, en los que los mismos o similares números de referencia en todos los dibujos representan los mismos o similares elementos o elementos que tienen funciones iguales o similares. Las formas de realización descritas a continuación con referencia a los dibujos son meramente de ejemplo y se usan para la explicación de la presente descripción, y no se deben entender como una limitación a la presente descripción.
En la técnica relacionada, un sensor de imagen incluye una matriz de unidades de píxeles fotosensibles y una matriz de unidades de filtro dispuestas en la matriz de la unidad de píxeles fotosensibles. Cada unidad de filtro corresponde a y abarca una unidad de píxeles fotosensibles, y cada unidad de píxeles fotosensibles incluye una pluralidad de píxeles fotosensibles. Cuando está funcionando, el sensor de imagen se puede controlar para emitir una imagen combinada, que se puede convertir en una imagen de color verdadero combinada por medio de un procedimiento de procesamiento de imágenes y se guarda. La imagen combinada incluye una matriz de píxeles combinados, y una pluralidad de píxeles fotosensibles en una misma unidad de píxeles fotosensibles se emiten de manera colectiva como un píxel combinado. De este modo, se aumenta la relación señal/ruido de la imagen de combinación. Sin embargo, se reduce la resolución de la imagen combinada.
Ciertamente, el sensor de imagen también se puede controlar para emitir una imagen de bloque de color de muchos píxeles, que incluye una matriz de píxeles originales, y cada píxel fotosensible corresponde a un píxel original. Sin embargo, dado que una pluralidad de píxeles originales que corresponden a una misma unidad de filtro tiene el mismo color, la resolución de la imagen de bloque de color todavía no se puede aumentar. Por lo tanto, la imagen de bloque de color de muchos píxeles se necesita convertir en una imagen de simulación de muchos píxeles por medio de un algoritmo de interpolación, en el que la imagen de simulación incluye una matriz de Bayer de píxeles de simulación. Entonces, la imagen de simulación se puede convertir en imagen de color verdadero de simulación por medio de un procedimiento de procesamiento de imágenes y guardarse. Sin embargo, el algoritmo de interpolación consume recursos y tiempo, y la imagen de color verdadero de simulación no es necesaria en todas las escenas. Por lo tanto, las formas de realización de la presente descripción proporcionan un nuevo procedimiento de procesamiento de imágenes.
Con referencia a la Fig. 1, se ilustra un procedimiento de procesamiento de imágenes. El procedimiento de procesamiento de imágenes está configurado para procesar una salida de imagen de color emitida en bloque por un sensor de imagen. De acuerdo con lo ilustrado en las Figs. 2 y 3, el sensor de imagen 200 incluye una matriz 210 de unidades de píxeles fotosensibles y una matriz 220 de unidades de filtro dispuestas en la matriz 210 de unidades de píxeles fotosensibles. Cada unidad de filtro 220a corresponde a una unidad de píxeles fotosensibles 210a, y cada unidad de píxeles fotosensibles 210a incluye una pluralidad de píxeles fotosensibles 212. La imagen de bloque de color incluye unidades de píxeles de imagen dispuestas en una matriz preestablecida. Cada unidad de píxeles de imagen incluye una pluralidad de píxeles originales. Cada unidad de píxeles fotosensibles 210a corresponde a una unidad de píxeles de imagen, cada píxel fotosensible 212 corresponde a un píxel original, y la imagen de bloque de color incluye una región fija. El procedimiento de procesamiento de imágenes incluye los siguientes.
En el bloque 10, una parte de la imagen de bloque de color dentro de la región fija se convierte en una primera imagen mediante el uso de un primer algoritmo de interpolación.
La primera imagen incluye primeros píxeles de simulación dispuestos en una matriz, y cada píxel fotosensible corresponde a una primer píxel de simulación.
En el bloque 20, una parte de la imagen de bloque de color más allá de la región fija se convierte en una segunda imagen mediante el uso de un segundo algoritmo de interpolación.
La segunda imagen incluye segundos píxeles de simulación dispuestos en una matriz, y cada píxel fotosensible corresponde a un segundo píxel de simulación. Una complejidad del segundo algoritmo de interpolación es menor que la complejidad del primer algoritmo de interpolación.
En el bloque 30, la primera imagen y la segunda imagen se combinan en una imagen de simulación que corresponde a la imagen de bloque de color.
Con el procedimiento de procesamiento de imágenes de acuerdo con las formas de realización de la presente descripción, para diferentes partes de una imagen de bloque de color de (es decir, una parte dentro de la región fija y una parte más allá de la región fija), se adoptan diferentes algoritmos de interpolación para el procesamiento de imágenes. La región fija es una región indescifrable y de tamaño fijo que se muestra en una pantalla táctil de un aparato de formación de imágenes en un modo de vista previa. De manera específica, cuando el usuario captura una imagen, la parte de la imagen a procesar mediante el uso del primer algoritmo de interpolación puede estar colocada en la región fija por medio del cambio de una posición de captura de imagen del aparato de formación de imágenes. El primer algoritmo de interpolación capaz de mejorar la distinguibilidad y la resolución de la imagen se adopta para la parte de la imagen de bloque de color dentro de la región fija, y el segundo algoritmo de interpolación con una complejidad menor que la complejidad del primer algoritmo de interpolación se adopta para la parte de la imagen de bloque de color más allá de la región fija, de manera tal que por un lado, se mejoran la SNR (relación señal a ruido), la distinguibilidad y la resolución de la imagen, para mejorar de ese modo la experiencia del usuario, por otro lado, se reduce el tiempo necesario para el procesamiento de la imagen.
Con referencia a la Fig. 4, en algunas implementaciones, el acto en el bloque 10 incluye los siguientes.
En el bloque 11, se determina si un color de un primer píxel de simulación es idéntico al color de un píxel original en una misma posición que el primer píxel de simulación, si esto es así, se ejecuta un acto en el bloque 12, de lo contrario, se ejecuta un acto en el bloque 13.
En el bloque 12, se determina un valor de píxel del píxel original como un valor de píxel del primer píxel de simulación.
En el bloque 13, se determina el valor de píxel del primer píxel de simulación de acuerdo con un valor de píxel de un píxel de asociación.
El píxel de asociación se selecciona de una unidad de píxeles de imagen con un mismo color que el primer píxel de simulación y adyacente a una unidad de píxeles de imagen que incluyen el píxel original.
La Fig. 5 es un diagrama esquemático que ilustra un circuito de un sensor de imagen de acuerdo con una forma de realización de la presente descripción. La Fig. 6 es un diagrama esquemático de una matriz de unidades de filtro de acuerdo con una forma de realización de la presente descripción. Las Figs. 2, 3, 5 y 6 se ven mejor en conjunto. Con referencia a las Figs. 2, 3, 5 y 6, el sensor de imagen 200 de acuerdo con una forma de realización de la presente descripción incluye una matriz 210 de unidades de píxeles fotosensibles y una matriz 220 de unidades de filtro dispuestas en la matriz 210 de unidades de píxeles fotosensibles.
Además, la matriz 210 de unidades de píxeles fotosensibles incluye una pluralidad de unidades de píxeles fotosensibles 210a. Cada unidad de píxeles fotosensibles 210a incluye una pluralidad de píxeles fotosensibles adyacentes 212. Cada píxel fotosensible 212 incluye un elemento fotosensible 2121 y un tubo de transmisión 2122. El elemento fotosensible 2121 puede ser un fotodiodo, y el tubo de transmisión 2122 puede ser un transistor MOS. La matriz 220 de unidades de filtro incluye una pluralidad de unidades de filtro 220a. Cada unidad de filtro 220a corresponde a una unidad de píxeles fotosensibles 210a.
En detalle, en algunos ejemplos, las unidades de filtro están dispuestas en una matriz de Bayer. En otras palabras, cuatro unidades de filtro adyacentes 220a incluyen una unidad de filtro de color rojo, una unidad de filtro de color azul y dos unidades de filtro de color verde.
Cada unidad de píxeles fotosensibles 210a corresponde a una unidad de filtro 220a con un mismo color. Si una unidad de píxeles fotosensibles 210a incluye n elementos fotosensibles adyacentes 2121, una unidad de filtro 220a cubre n elementos fotosensibles 2121 en una unidad de píxeles fotosensibles 210a. La unidad de filtro 220a se puede formar de manera integral, o se puede formar por medio del ensamblaje de n subfiltros separados.
En algunas implementaciones, cada unidad de píxeles fotosensibles 210a incluye cuatro píxeles fotosensibles adyacentes 212. Dos píxeles fotosensibles adyacentes 212 de manera colectiva forman una subunidad de píxeles fotosensibles 2120. La subunidad de píxeles fotosensibles 2120 además incluye un seguidor de fuente 2123 y un convertidor de analógico a digital 2124. La unidad de píxeles fotosensibles 210a además incluye un sumador 213. Un primer electrodo de cada tubo de transmisión 2122 en la subunidad de píxeles fotosensibles 2120 está acoplado a un electrodo de cátodo de un elemento fotosensible correspondiente 2121. Los segundos electrodos de todos los tubos de transmisión 2122 se acoplan de manera colectiva a un electrodo de puerta del seguidor de fuente 2123 y acoplado a un convertidor de analógico a digital 2124 a través del electrodo de fuente del seguidor de fuente 2123. El seguidor de fuente 2123 puede ser un transistor MOS. Dos subunidades de píxeles fotosensibles 2120 están acopladas al sumador 213 a través de respectivos seguidores de fuente 2123 y convertidores de analógico a digital 2124 respectivos.
En otras palabras, cuatro elementos fotosensibles adyacentes 2121 en una unidad de píxeles fotosensibles 210a del sensor de imagen 200 de acuerdo con una forma de realización de la presente descripción usan de manera colectiva una unidad de filtro 220a con un mismo color que la unidad de píxeles fotosensibles. Cada elemento fotosensible 2121 está acoplado a un tubo de transmisión 2122 de manera correspondiente. Dos elementos fotosensibles adyacentes 2121 usan de manera colectiva un seguidor de fuente 2123 y un convertidor de analógico a digital 2124. Cuatro elementos fotosensibles adyacentes 2121 usan de manera colectiva un sumador 213.
Además, cuatro elementos fotosensibles adyacentes 2121 están dispuestos en una matriz de 2 por 2. Dos elementos fotosensibles 2121 en una subunidad de píxeles fotosensibles 2120 pueden estar en una misma fila. Durante un proceso de formación de imágenes, cuando dos subunidades de píxeles fotosensibles 2120 o cuatro elementos fotosensibles 2121 cubiertos por una misma unidad de filtro 220a quedan expuestos de manera simultánea, los píxeles se pueden combinar, y la imagen combinada se puede emitir.
En detalle, el elemento fotosensible 2121 está configurado para convertir la luz en carga, y la carga es proporcional a una intensidad de iluminación. El tubo de transmisión 2122 está configurado para controlar un circuito para activar o desactivar de acuerdo con una señal de control. Cuando el circuito está activado, el seguidor de fuente 2123 está configurado para convertir la carga generada a través de iluminación de luz en una señal de tensión. El convertidor de analógico a digital 2124 está configurado para convertir la señal de tensión en una señal digital. El sumador 213 está configurado para sumar dos señales digitales para la emisión.
Con referencia a la Fig. 7, se toma un sensor de imagen 200 de 16M como un ejemplo. El sensor de imagen 200 de acuerdo con una forma de realización de la presente descripción puede combinar píxeles fotosensibles 212 de 16M en píxeles fotosensibles de 4M, es decir, el sensor de imagen 200 emite la imagen combinada. Después de la combinación, el píxel fotosensible 212 se cuadruplica en tamaño, de manera tal que aumente la fotosensibilidad del píxel fotosensible 212. Además, dado que la mayor parte del ruido en el sensor de imagen 200 es aleatoria, puede haber puntos de ruido en uno o dos píxeles. Después de que cuatro píxeles fotosensibles 212 se combinan en un gran píxel fotosensible 212, se reduce un efecto de puntos de ruido en el gran píxel fotosensible, es decir, se debilita el ruido y se mejora la SNR (relación señal a ruido).
Sin embargo, cuando se aumenta el tamaño del píxel fotosensible 212, el valor de píxel se reduce, y por lo tanto se reduce la resolución de la imagen combinada.
Durante un proceso de formación de imágenes, cuando cuatro elementos fotosensibles 2121 cubiertos por una misma unidad de filtro 220a quedan expuestos en secuencia, una imagen de bloque de color se emite después de un procesamiento de imágenes.
En detalle, el elemento fotosensible 2121 está configurado para convertir la luz en carga, y la carga es proporcional a una intensidad de iluminación. El tubo de transmisión 2122 está configurado para controlar un circuito para activar o desactivar de acuerdo con una señal de control. Cuando el circuito está activado, el seguidor de fuente 2123 está configurado para convertir la carga generada a través de iluminación de luz en una señal de tensión. El convertidor de analógico a digital 2124 está configurado para convertir la señal de tensión en una señal digital para ser procesada.
Con referencia a la Fig. 8, se toma un sensor de imagen 200 de 16M, como ejemplo. El sensor de imagen de acuerdo con una forma de realización de la presente descripción puede emitir píxeles fotosensibles 212 de 16M, es decir, el sensor de imagen 200 emite la imagen de bloque de color. La imagen de bloque de color incluye unidades de píxeles de imagen. La unidad de píxeles de imagen incluye píxeles originales dispuestos en una matriz de 2 por 2. El tamaño del píxel original es el mismo que el del píxel fotosensible 212. Sin embargo, desde una unidad de filtro 220a que abarca cuatro elementos fotosensibles adyacentes 2121 tiene un mismo color (es decir, si bien se exponen cuatro elementos fotosensibles 2121 respectivamente, la unidad de filtro 220a que cubre los cuatro elementos fotosensibles tiene un mismo color), cuatro píxeles originales adyacentes en cada unidad de píxeles de imagen de la imagen de salida tiene un mismo color, y por lo tanto, no se puede aumentar la resolución de la imagen.
El procedimiento de procesamiento de imágenes de acuerdo con una forma de realización de la presente descripción es capaz de emitir la imagen de bloque de color de salida para obtener una imagen de simulación. En algunas formas de realización, cuando se emite una imagen combinada, cuatro píxeles fotosensibles adyacentes 212 con el mismo color se pueden emitir como un píxel combinado. Por consiguiente, cuatro píxeles combinados adyacentes en la imagen combinada se pueden considerar como dispuestos en una matriz de Bayer típica, y se puede procesar de manera directa para emitir una imagen de color verdadero combinado. Cuando se emite una imagen de bloque de color, cada píxel fotosensible 212 se emite por separado. Dado que cuatro píxeles fotosensibles adyacentes 212 tienen un mismo color, cuatro píxeles originales adyacentes en una unidad de píxeles de imagen tienen un mismo color, que forman una matriz de Bayer atípica. Sin embargo, la matriz de Bayer atípica no se puede procesar de manera directa. En otras palabras, cuando el sensor de imagen 200 adopta un mismo aparato para el procesamiento de la imagen, con el fin de llevar a cabo una compatibilidad de las emisiones de imagen de color verdadero bajo dos modos (es decir, la imagen de color verdadero combinada en un modo combinado y la imagen de color verdadero de simulación bajo un modo de bloque de color), se requiere convertir la imagen de bloque de color en la imagen de simulación, o convertir la unidad de píxeles de imagen en una matriz de Bayer atípica en píxeles dispuestos en la matriz de Bayer típica.
La imagen de simulación incluye píxeles de simulación dispuestos en la matriz de Bayer. Cada píxel fotosensible corresponde a un píxel de simulación. Un píxel de simulación en la imagen de simulación corresponde a un píxel original situado en la misma posición que el píxel de simulación y en la imagen de bloque de color. De acuerdo con las formas de realización de la presente descripción, la imagen de simulación se combina por la primera imagen y la segunda imagen.
Mediante el uso del primer algoritmo de interpolación, la parte de la imagen de bloque de color dentro de la región fija se puede convertir en la primera imagen. La primera imagen incluye primeros píxeles de simulación dispuestos en una matriz y cada píxel fotosensible corresponde a una primer píxel de simulación.
La Fig. 9 es un diagrama esquemático que ilustra un proceso de conversión de una imagen de bloque de color en una primera imagen de acuerdo con una forma de realización de la presente descripción.
Con referencia a la Fig. 9, para los primeros píxeles de simulación R3'3' y R5'5', los píxeles originales correspondientes son R33 y B55.
Cuando se obtiene el primer píxel de simulación R3'3', dado que el primer píxel de simulación R3'3' tiene el mismo color que el píxel original correspondiente R33, el valor de píxel del píxel original R33 se determina de manera directa como el valor de píxel del primer píxel de simulación R3'3' durante la conversión.
Cuando se obtiene el primer píxel de simulación R5'5', dado que el primer píxel de simulación R5'5' tiene un color diferente del color del píxel original correspondiente B55, el valor de píxel del píxel original B55 no se puede determinar de manera directa como el valor de píxel del primer píxel de simulación R5'5', y se requiere calcular el valor de píxel del primer píxel de simulación R5'5' de acuerdo con un píxel de asociación del primer píxel de simulación R5'5' por un primer algoritmo de interpolación.
Se debe señalar que un valor de píxel de un píxel que se menciona en el contexto se debe entender en un sentido amplio como un valor de atributo de color del píxel, tal como un valor de color.
Puede haber más de una unidad de píxel de asociación para cada primer píxel de simulación, por ejemplo, puede haber cuatro unidades de píxeles de asociación, en el que las unidades de píxeles de asociación tienen el mismo color que el primer píxel de simulación y son adyacentes a la unidad de píxeles de imagen que incluye el píxel original en la misma posición que el primer píxel de simulación.
Se debe señalar que “adyacente” en la presente memoria, se debe entender en un sentido amplio. Si se toma la Fig. 11 como un ejemplo, el primer píxel de simulación R5'5' corresponde al píxel original B55. Las unidades de píxeles de imagen 400, 500, 600 y 700 se seleccionan como las unidades de píxeles de asociación, pero otras unidades de píxel de color rojo por fuera de la unidad de píxeles de imagen donde se encuentra el píxel original B55 no se seleccionan como las unidades de píxeles de asociación. En cada unidad de píxel de asociación, el píxel original de color rojo más cercano al píxel original B55 se selecciona como el píxel de asociación, lo que significa que los píxeles de asociación del primer píxel de simulación R5'5' incluyen los píxeles originales R44, R74, R47 y R77. El primer píxel de simulación R5'5' es adyacente a y tiene el mismo color que los píxeles originales R44, r74, R47 y R77.
En diferentes casos, los píxeles originales se pueden convertir en los primeros píxeles de simulación de diferentes maneras, para convertir de ese modo la imagen de bloque de color en la primera imagen. Dado que los filtros en la matriz de Bayer se adoptan cuando se dispara la imagen, se mejora la SNR de la imagen. Durante el procedimiento de procesamiento de imágenes, el procesamiento de interpolación se lleva a cabo la imagen de bloque de color en el primer algoritmo de interpolación, de manera tal que se pueden mejorar la distinguibilidad y la resolución de la imagen.
Con referencia a la Fig. 10, en algunas implementaciones, el acto en el bloque 13 (es decir, la determinación del valor de píxel del primer píxel de simulación de acuerdo con el valor de píxel del píxel de asociación) incluye los siguientes.
En el bloque 131, un cambio del color del primer píxel de simulación en cada dirección de por lo menos dos direcciones se calcula de acuerdo con el valor de píxel del píxel de asociación.
En el bloque 132, un peso en cada dirección de las por lo menos dos direcciones se calcula de acuerdo con el cambio.
En el bloque 133, el valor de píxel del primer píxel de simulación se calcula de acuerdo con el peso y el valor de píxel del píxel de asociación.
En detalle, el primer algoritmo de interpolación se lleva a cabo de acuerdo con lo presentado a continuación: con referencia a los cambios de energía de la imagen en diferentes direcciones y de acuerdo con los pesos de los píxeles de asociación en diferentes direcciones, el valor de píxel del primer píxel de simulación se calcula por medio de una interpolación lineal. A partir de la dirección que tiene un cambio de energía más pequeño, se puede conseguir un valor de referencia superior, es decir, el peso de esta dirección en la interpolación es alto.
En algunos ejemplos, por razones de conveniencia, solamente se consideran la dirección horizontal y la dirección vertical.
El valor de píxel del primer píxel de simulación R5'5' se obtiene por medio de una interpolación sobre la base de los píxeles originales R44, R74, R47 y R77. Dado que no hay píxel original con un mismo color que el píxel de simulación (es decir, R) en la dirección horizontal y la dirección vertical del píxel original B55 que corresponde al primer píxel de simulación R5'5', un componente de este color (es decir, R) en cada una de la dirección horizontal y la dirección vertical se calcula de acuerdo con los píxeles de asociación. Los componentes en la dirección horizontal son R45 y R75, y los componentes en la dirección vertical son R54 y R57. Todos los componentes se pueden calcular de acuerdo con los píxeles originales R44, R74, R47 y R77.
En detalle, R45 = R44 * 2/3 R47 * 1/3, R75 = 2/3 * R74 1/3 * R77, R54 = 2/3 * R44 1/3 * R74, R57 = 2/3 * R47 1/3 * R77.
El cambio del color y el peso en cada una de la dirección horizontal y la dirección vertical se calculan respectivamente. En otras palabras, de acuerdo con el cambio del color en cada dirección, se determina el peso de referencia en cada dirección que se usa en la interpolación. El peso en la dirección con un pequeño cambio es alto, mientras que el peso en la dirección con un gran cambio es bajo. El cambio en la dirección horizontal es X1 = |R45-R75|. El cambio en la dirección vertical es X2 = |R54-R57|, W1 = X1/ (X1 X2), W2 = X2/ (X1 X2).
Después del cálculo anterior, el valor de píxel del primer píxel de simulación R5'5' se puede calcular como R5'5' = (2/3 * R45 1/3 * R75) * W2 (2/3 * R54 1/3 * R57) * W1. Se puede entender que, si X1 > X2, entonces W1 > W2. El peso en la dirección horizontal es W2, y el peso en la dirección vertical es W1, viceversa.
En consecuencia, el valor de píxel del primer píxel de simulación se puede calcular por medio del primer algoritmo de interpolación. Después de los cálculos en los píxeles de asociación, los píxeles originales se pueden convertir en los primeros píxeles de simulación dispuestos en la matriz de Bayer típica. En otras palabras, cuatro primeros píxeles de simulación adyacentes dispuestos en la matriz de 2 por 2 incluyen un primer píxel de simulación de color rojo, dos primeros píxeles de simulación de color verde y un primer píxel de simulación de color azul.
Se debe señalar que el primer algoritmo de interpolación no se limita al procedimiento mencionado con anterioridad, en el que sólo se consideran los valores de píxel de los píxeles con un mismo color que el píxel de simulación en la dirección vertical y la dirección horizontal durante el cálculo del valor de píxel del primer píxel de simulación. En otras formas de realización, se pueden considerar los valores de píxel de los píxeles con otros colores también.
Con referencia a la Fig. 11, en algunas formas de realización, antes del acto en el bloque 13, el procedimiento además incluye la realización de una compensación de balance de blancos en la imagen de bloque de color, de acuerdo con lo ilustrado en el bloque 14.
En consecuencia, después del acto en 13, el procedimiento además incluye la realización de una compensación de balance de blancos inverso en la primera imagen, de acuerdo con lo ilustrado en el bloque 15.
En detalle, en algunos ejemplos, al convertir la imagen de bloque de color en la primera imagen, en el primer algoritmo de interpolación, los primeros píxeles de simulación de color rojo y azul no sólo se refieren a los pesos de color de píxeles originales que tienen el mismo color que los primeros píxeles de simulación, pero también se refiere a los pesos de color de los píxeles originales con el color verde. Por lo tanto, se requiere llevar a cabo la compensación de balance de blancos antes de la interpolación para excluir un efecto del balance de blancos en el primer algoritmo de interpolación. Con el fin de evitar daños en el balance de blancos de la imagen de bloque de color, se requiere llevar a cabo la compensación de balance de blancos inverso después del primer algoritmo de interpolación de acuerdo con valores de ganancia de los colores rojo, verde y azul en la compensación.
Con referencia a la Fig. 11 de nuevo, en algunas implementaciones, antes del acto en el bloque 13, el procedimiento además incluye la realización de una compensación de puntos malos en la imagen de bloque de color, de acuerdo con lo ilustrado en el bloque 16.
Se puede entender que, limitado por el proceso de fabricación, puede haber puntos negativos en el sensor de imagen 200. El punto malo presenta un mismo color todo el tiempo sin variar con la fotosensibilidad, que afecta a la calidad de la imagen. Con el fin de garantizar una precisión de la interpolación y evitar el efecto de los puntos negativos, se requiere llevar a cabo la compensación de puntos malos antes de llevar a cabo el primer algoritmo de interpolación.
En detalle, durante la compensación de puntos malos, se detectan los píxeles originales. Cuando se detecta un píxel original como el punto malo, la compensación de puntos malos se lleva a cabo de acuerdo con los valores de píxel de otros píxeles originales en la unidad de píxeles de imagen donde se encuentra el píxel original.
De esta forma, se puede evitar el efecto del punto malo en la interpolación, para mejorar de este modo la calidad de la imagen.
Con referencia a la Fig. 11 de nuevo, en algunas implementaciones, antes del acto en el bloque 13, el procedimiento incluye la realización de una compensación de diafonía en la imagen de bloque de color, de acuerdo con lo ilustrado en el bloque 17.
En detalle, cuatro píxeles fotosensibles 212 en una unidad de píxeles fotosensibles 210a cubren los filtros con el mismo color, y los píxeles fotosensibles 212 tienen diferencias de fotosensibilidad, de manera tal que el ruido de espectro fijo pueda ocurrir en áreas de color puro en la primera imagen de color verdadero emitida después de la conversión de la primera imagen y la calidad de la imagen se puede ver afectada. Por lo tanto, se requiere llevar a cabo la compensación de diafonía.
Con referencia a la Fig. 12, en algunas implementaciones, después del acto en el bloque 13, el procedimiento además incluye la realización de por lo menos uno de una corrección de formas de espejo, un procesamiento de interpolación cromática, un procesamiento de eliminación de ruido y un procesamiento de afilado de bordes en la primera imagen, de acuerdo con lo ilustrado en el bloque 18.
Se puede entender que, después de que la imagen de bloque de color se convierte en la primera imagen, los primeros píxeles de simulación están dispuestos en la matriz de Bayer típica. La primera imagen se puede procesar, durante lo cual, la corrección de formas de espejo, el procesamiento de interpolación cromática, el procesamiento de eliminación de ruido y el procesamiento de afilado de bordes están incluidos, de manera tal que se pueda obtener la imagen de color verdadero y emitirse al usuario.
Para la parte de la imagen de bloque de color más allá de la región fija, se requiere procesar esta parte por medio del segundo algoritmo de interpolación. Mediante el uso del segundo algoritmo de interpolación, la parte de la imagen de bloque de color más allá de la región fija se puede convertir en la segunda imagen. La segunda imagen incluye segundos píxeles de simulación dispuestos en una matriz, y cada píxel fotosensible corresponde a un segundo píxel de simulación.
La Fig. 13 es un diagrama de flujo que ilustra un proceso de conversión de una parte de una imagen de bloque de color en una segunda imagen de acuerdo con una forma de realización de la presente descripción.
Con referencia a la Fig. 13, en algunas implementaciones, el acto en el bloque 20 incluye los siguientes.
En el bloque 21, se calcula un valor de píxel promedio de cada unidad de píxeles de imagen de la imagen de bloque de color.
En el bloque 22, se determina si un color de un segundo píxel de simulación es idéntico al color de un píxel original en una misma posición que el segundo píxel de simulación, si esto es así, se ejecuta un acto en el bloque 33, de lo contrario, se ejecuta un acto en el bloque 34.
En el bloque 23, un valor de píxel promedio de una unidad de píxeles de imagen que incluyen el píxel original se determina como un valor de píxel del segundo píxel de simulación.
En el bloque 24, un valor de píxel promedio de una unidad de píxeles de imagen con un mismo color que el segundo píxel de simulación y adyacente a una unidad de píxeles de imagen que incluyen el píxel original se determina como un valor de píxel del segundo píxel de simulación.
En detalle, con referencia a la Fig. 14, un valor de píxel promedio para cada unidad de píxeles de imagen se calcula de acuerdo con lo presentado a continuación: Ravg = (R1 R2 R3 R4)/4, Gravg = (Gr1 Gr2 Gr3 Gr4)/4, Gbavg = (Gb1 Gb2 Gb3 Gb4)/4, Bavg = (B1 B2 B3 B4)/4. En este caso, el valor de píxel de cada uno de los R11, R12, R21 y R22 es Ravg, el valor de píxel de cada uno de Gr31, GR32, Gr41 y GR42 es Gravg, el valor de píxel de cada uno de Gb13, Gb14, Gb23 y Gb24 es Gbavg, y el valor de píxel de cada uno de B33, B34, B43 y B44 es Bavg. Si se toma el segundo píxel de simulación B22 como un ejemplo, el píxel original correspondiente al segundo píxel de simulación B22 es R22, que tiene un color diferente del color de B22, de manera tal que el valor de píxel promedio Bavg de la unidad de píxeles de imagen (que incluyen los píxeles originales B33, B34, B43 y B44) con el mismo color (azul) como B22 y adyacente a la unidad de píxeles de imagen que incluyen B22 se determina como el valor de píxel de B22. Del mismo modo, los valores de píxel de los segundos píxeles de simulación con otros colores se pueden determinar mediante el uso del segundo algoritmo de interpolación.
Dado que el segundo algoritmo de interpolación es más simple que el primer algoritmo de interpolación, los datos a ser procesados por el segundo algoritmo de interpolación es menor que para ser procesado por el primer algoritmo de interpolación, la complejidad (por ejemplo, que incluye la complejidad del tiempo y la complejidad del espacio) de la segunda complejidad es menor que la complejidad del primer algoritmo de interpolación.
Mediante el uso del segundo algoritmo de interpolación, la complejidad del proceso en el que una matriz de Bayer atípica se convierte en una matriz de Bayer típica es pequeña. La distinguibilidad de la segunda imagen también se puede mejorar por medio del segundo algoritmo de interpolación, pero el efecto de la segunda imagen es más pobre que el efecto de la primera imagen generada mediante el uso del primer algoritmo de interpolación. Por lo tanto, el primer algoritmo de interpolación se usa procesar la parte de la imagen de bloque de color dentro de la región fija y el segundo algoritmo de interpolación se usa para procesar la parte de imagen de bloque de color de más allá de la región fija, para mejorar de ese modo la distinguibilidad y el efecto de la parte principal de la imagen, lo que mejora la experiencia del usuario y reduce el tiempo de procesamiento de la imagen.
En algunas formas de realización, cuando el sensor de imagen está en un dispositivo electrónico que incluye una pantalla táctil, el procedimiento de procesamiento de imágenes además incluye los siguientes para determinar la región fija de la imagen de bloque de color se puede determinar de acuerdo con lo presentado a continuación, de acuerdo con lo ilustrado en la Fig. 15.
En el bloque 41, la imagen de bloque de color se convierte en una imagen de vista previa mediante el uso de un tercer algoritmo de interpolación.
Una complejidad del tercer algoritmo de interpolación es menor que la complejidad del primer algoritmo de interpolación.
En el bloque 42, la pantalla táctil se controla para exhibir la imagen de vista previa.
En el bloque 43, la pantalla táctil se controla para exhibir un patrón de aviso para indicar la región fija.
En algunas formas de realización, después de que el sensor de imagen emite la imagen de bloque de color, se requiere convertir la imagen de bloque de color en una imagen de color verdadero y exhibir en la pantalla táctil para la vista previa. La imagen de bloque de color se puede convertir en la imagen de color verdadero mediante el uso del tercer algoritmo de interpolación de acuerdo con lo presentado a continuación: la imagen de bloque de color se convierte en una imagen de simulación en una matriz de Bayer típica mediante el uso del segundo algoritmo de interpolación, la imagen de simulación se interpola de manera adicional, por ejemplo, mediante el uso de un procedimiento de interpolación bilineal para obtener la imagen de color verdadero, y la imagen de color verdadero se exhibe en la pantalla táctil.
En detalle, con referencia a la Fig. 16, la pantalla táctil exhibe la imagen de color verdadero para ser capturada. Las regiones fijas están limitadas por un recuadro, por ejemplo, en la Fig. 16, la región fija se indica por medio de un recuadro de trazos. El usuario puede mover la imagen a procesar mediante el uso del primer algoritmo de interpolación en el recuadro de trazos por medio del movimiento del dispositivo electrónico. De esta manera, la imagen dentro del recuadro de trazos después del procesamiento puede obtener una alta resolución, de manera tal que el usuario pueda obtener una mejor experiencia de usuario.
Si bien la Fig. 16 ilustra que la imagen fija está limitada por un recuadro, la presente descripción no se limita a la misma. En algunas formas de realización, la región fija en la pantalla táctil exhibe una imagen de color verdadero, es decir, la imagen de vista previa. El procesamiento difuso se lleva a cabo en la parte más allá de la región fija, por ejemplo, la parte más allá de la imagen fija parece estar cubierta por un vidrio esmerilado.
La Fig. 17 es un diagrama de bloques de un aparato de procesamiento de imágenes de acuerdo con una forma de realización de la presente descripción. Con referencia a la Fig. 17 y las Figs. 2, 3, 5 y 6, se ilustra un aparato de procesamiento de imágenes 4000. El aparato de procesamiento de imágenes 4000 está configurado para procesar una salida de imagen de bloque de color emitida por un sensor de imagen 200. De acuerdo con lo ilustrado con anterioridad, el sensor de imagen 200 incluye una matriz 210 de unidades de píxeles fotosensibles y una matriz 220 de unidades de filtro dispuestas en la matriz 210 de unidades de píxeles fotosensibles. Cada unidad de filtro 220a corresponde a una unidad de píxeles fotosensibles 210a, y cada unidad de píxeles fotosensibles 210a incluye una pluralidad de píxeles fotosensibles 212. La imagen de bloque de color incluye unidades de píxeles de imagen dispuestas en una matriz preestablecida. Cada unidad de píxeles de imagen incluye una pluralidad de píxeles originales. Cada unidad de píxeles fotosensibles 210a corresponde a una unidad de píxeles de imagen, y cada píxel fotosensible 212 corresponde a un píxel original. El aparato de procesamiento de imágenes 4000 incluye un medio no transitorio legible por ordenador 4600 y un sistema de ejecución de instrucciones 4800. El medio no transitorio legible por ordenador 4600 incluye instrucciones ejecutables por ordenador almacenadas en el mismo. De acuerdo con lo ilustrado en la Fig. 16, el medio no transitorio legible por ordenador 4600 incluye una pluralidad de módulos de programa, que incluye un primer módulo de conversión 410, un segundo módulo de conversión 420 y un módulo de combinación 430. El sistema de ejecución de instrucciones 4800 está configurado por las instrucciones almacenadas en el medio 4600 para implementar los módulos del programa.
El primer módulo de conversión 410 está configurado para convertir una parte de la imagen de bloque de color dentro de la región fija en una primera imagen mediante el uso de un primer algoritmo de interpolación. La primera imagen incluye primeros píxeles de simulación dispuestos en una matriz, y cada píxel fotosensible corresponde a una primer píxel de simulación. El segundo módulo de conversión 420 está configurado para convertir una parte de la imagen de bloque de color más allá de la región fija en una segunda imagen mediante el uso de un segundo algoritmo de interpolación. La segunda imagen incluye segundos píxeles de simulación dispuestos en una matriz, y cada píxel fotosensible corresponde a un segundo píxel de simulación. Una complejidad del segundo algoritmo de interpolación es menor que la complejidad del primer algoritmo de interpolación. El módulo de combinación 430 está configurado para combinar la primera imagen y la segunda imagen en una imagen de simulación que corresponde a la imagen de bloque de color.
En otras palabras, el acto en el bloque 10 se puede implementar por medio del primer módulo de conversión 410. El acto en el bloque 20 se puede implementar por medio del segundo módulo de conversión 420. El acto en el bloque 30 se puede implementar por medio del módulo de combinación 430.
Con el aparato de procesamiento de imágenes de acuerdo con las formas de realización de la presente descripción, para diferentes partes de la imagen de bloque de color (es decir, una parte dentro de la región fija y una parte más allá de la región fija), se adoptan diferentes algoritmos de interpolación para el procesamiento de imágenes. La región fija es una región indescifrable y de tamaño fijo que se muestra en una pantalla táctil de un aparato de formación de imágenes en un modo de vista previa. De manera específica, cuando el usuario captura una imagen, la parte de la imagen a procesar mediante el uso del primer algoritmo de interpolación puede estar colocada en la región fija por medio del cambio de una posición de captura de imagen del aparato de formación de imágenes. El primer algoritmo de interpolación capaz de mejorar la distinguibilidad y la resolución de la imagen se adopta para la parte de la imagen de bloque de color dentro de la región fija, y el segundo algoritmo de interpolación con una complejidad menor que la complejidad del primer algoritmo de interpolación se adopta para la parte de la imagen de bloque de color más allá de la región fija, de manera tal que por un lado, se mejoran la SNR (relación señal a ruido), la distinguibilidad y la resolución de la imagen, para mejorar de ese modo la experiencia del usuario, por otro lado, se reduce el tiempo necesario para el procesamiento de la imagen.
Con referencia a la Fig. 18, en algunas implementaciones, el primer módulo de conversión 410 incluye una primera unidad de determinación 411, una segunda unidad de determinación 412 y una tercera unidad de determinación 413. El acto en el bloque 11 se puede implementar por medio de la primera unidad de determinación 411. El acto en el bloque 12 se puede implementar por medio de la segunda unidad de determinación 412. El acto en el bloque 13 se puede implementar por medio de la tercera unidad de determinación 413. En otras palabras, la primera unidad de determinación 411 está configurada para determinar si un color de un primer píxel de simulación es idéntico al color de un píxel original en una misma posición que el primer píxel de simulación. La segunda unidad de determinación 412 está configurada para determinar un valor de píxel del píxel original como un valor de píxel del primer píxel de simulación cuando el color del primer píxel de simulación es idéntico al color del píxel original en la misma posición que el primer píxel de simulación. La tercera unidad de determinación 413 está configurada para determinar el valor de píxel del primer píxel de simulación de acuerdo con un valor de píxel de un píxel de asociación cuando el color del primer píxel de simulación es diferente del color del píxel original en la misma posición que el primer píxel de simulación. El píxel de asociación se selecciona de una unidad de píxeles de imagen con un mismo color que el primer píxel de simulación y adyacente a una unidad de píxeles de imagen que incluyen el píxel original.
Con referencia a la Fig. 19, en algunas implementaciones, la tercera unidad de determinación 413 además incluye una primera subunidad de cálculo 4131, una segunda subunidad de cálculo 4132 y una tercera subunidad de cálculo 4133. El acto en el bloque 131 se puede implementar por medio de la primera subunidad de cálculo 4131. El acto en el bloque 132 se puede implementar por medio de la segunda subunidad de cálculo 4132. El acto en el bloque 133 se puede implementar por medio de la tercera subunidad de cálculo 4133. En otras palabras, la primera subunidad de cálculo 4131 está configurada para calcular un cambio del color del primer píxel de simulación en cada dirección de por lo menos dos direcciones de acuerdo con el valor de píxel del píxel de asociación. La segunda subunidad de cálculo 4132 está configurada para calcular un peso en cada dirección de las por lo menos dos direcciones de acuerdo con el cambio. La tercera subunidad de cálculo 4133 está configurada para calcular el valor de píxel del primer píxel de simulación de acuerdo con el peso y el valor de píxel del píxel de asociación.
Con referencia a la Fig. 20, en algunas implementaciones, el primer módulo de conversión 410 además incluye una primera unidad de compensación 414 y una unidad de restauración 415. El acto en el bloque 14 se puede implementar por medio de la primera unidad de compensación 414. El acto en el bloque 15 se puede implementar por medio de la unidad de restauración 415. En otras palabras, la primera unidad de compensación 414 está configurada para llevar a cabo una compensación de balance de blancos en la imagen de bloque de color. La unidad de restauración 415 está configurada para llevar a cabo una compensación de balance de blancos inverso en la primera imagen.
En algunas implementaciones, el primer módulo de conversión 410 además incluye una segunda unidad de compensación 416. El acto en el bloque 16 se puede implementar por medio de la segunda unidad de compensación 416. En otras palabras, la segunda unidad de compensación 416 está configurada para llevar a cabo una compensación de puntos malos en la imagen de bloque de color.
En algunas implementaciones, el primer módulo de conversión 410 además incluye una tercera unidad de compensación 417. El acto en el bloque 17 se puede implementar por medio de la tercera unidad de compensación 417. En otras palabras, la tercera unidad de compensación 417 está configurada para llevar a cabo una compensación de diafonía en la imagen de bloque de color.
La Fig. 21 es un diagrama de bloques de un primer módulo de conversión de acuerdo con otra forma de realización de la presente descripción. Con referencia a la Fig. 21, en algunas implementaciones, el primer módulo de conversión 410 incluye una unidad de procesamiento 418. El acto en el bloque 18 se puede implementar por medio de la unidad de procesamiento 428. En otras palabras, la unidad de procesamiento 418 está configurada para llevar a cabo por lo menos una de una corrección de formas de espejo, un procesamiento de interpolación cromática, un procesamiento de eliminación de ruido y un procesamiento de afilado de bordes en la primera imagen.
Con referencia a la Fig. 22, en algunas implementaciones, el segundo módulo de conversión 420 incluye una segunda unidad de cálculo 421, una cuarta unidad de determinación 422, quinta unidad de determinación 423 y una sexta unidad de determinación 424. La segunda unidad de cálculo 421 está configurada para calcular un valor de píxel promedio de cada unidad de píxeles de imagen de la imagen de bloque de color. La cuarta unidad de determinación 422 está configurada para determinar si un color de un segundo píxel de simulación es idéntico al color de un píxel original en una misma posición que el segundo píxel de simulación. La quinta unidad de determinación 423 está configurada para determinar un valor de píxel promedio de una unidad de píxeles de imagen que incluyen el píxel original como un valor de píxel del segundo píxel de simulación, La sexta unidad de determinación 424 está configurada para determinar un valor de píxel promedio de una unidad de píxeles de imagen con un mismo color que el segundo píxel de simulación y adyacente a una unidad de píxeles de imagen que incluyen el píxel original como un valor de píxel del segundo píxel de simulación, cuando el color del segundo píxel de simulación es diferente del color del píxel original en la misma posición que el segundo píxel de simulación. En otras palabras, el acto en el bloque 21 se implementa por medio de la segunda unidad de cálculo 421. El acto en el bloque 22 se implementa por medio de la cuarta unidad de determinación 422. El acto en el bloque 23 se implementa por medio de la quinta unidad de determinación 423. El acto en el bloque 24 se implementa por medio de la sexta unidad de determinación 424.
La Fig. 23 es un diagrama de bloques de un aparato de procesamiento de imágenes de acuerdo con otra forma de realización de la presente descripción. Sobre la base de la forma de realización descrita con referencia a la Fig. 17, el aparato de procesamiento de imágenes además incluye un tercer módulo de conversión 441, un primer módulo de control 442 y un segundo módulo de control 443.
El tercer módulo de conversión 441 está configurado para convertir la imagen de bloque de color en una imagen de vista previa por medio de un tercer algoritmo de interpolación. Una complejidad del tercer algoritmo de interpolación es menor que la complejidad del primer algoritmo de interpolación. El primer módulo de control 442 está configurado para controlar la pantalla táctil para exhibir la imagen de vista previa. El segundo módulo de control 443 está configurado para controlar la pantalla táctil para exhibir un patrón de aviso para indicar la región fija.
En otras palabras, el acto en el bloque 41 se implementa por medio del tercer módulo de conversión 441. El acto en el bloque 42 se implementa por medio del primer módulo de control 442. El acto en el bloque 43 se implementa por medio del segundo módulo de control 443.
La presente descripción también proporciona un dispositivo electrónico.
La Fig. 24 es un diagrama de bloques de un dispositivo electrónico 1000 de acuerdo con una forma de realización de la presente descripción. Con referencia a la Fig. 24, el dispositivo electrónico 1000 de la presente descripción incluye una carcasa 1001, un procesador 1002, una memoria 1003, una placa de circuito 1006, una fuente de alimentación 1007 y un aparato de formación de imágenes 100, la placa de circuito 1006 está encerrada por la carcasa 1001. El procesador 1002 y la memoria 1003 están posicionados en la placa de circuito 1006. La fuente de alimentación 1007 está configurada para proporcionar energía para los respectivos circuitos o componentes del dispositivo electrónico 1000. La memoria 1003 está configurada para almacenar códigos de programa ejecutables. El aparato de formación de imágenes 100 incluye un sensor de imagen 200. De acuerdo con lo ilustrado con anterioridad, el sensor de imagen 200 incluye una matriz 210 de unidades de píxeles fotosensibles y una matriz 220 de unidades de filtro dispuestas en la matriz 210 de unidades de píxeles fotosensibles. Cada unidad de filtro 220a corresponde a una unidad de píxeles fotosensibles 210a, y cada unidad de píxeles fotosensibles 210a incluye una pluralidad de píxeles fotosensibles 212. La imagen de bloque de color incluye unidades de píxeles de imagen dispuestas en una matriz preestablecida. Cada unidad de píxeles de imagen incluye una pluralidad de píxeles originales. Cada unidad de píxeles fotosensibles corresponde a una unidad de píxeles de imagen, y cada píxel fotosensible corresponde a un píxel original.
El procesador 1002 está configurado para ejecutar un programa que corresponde a los códigos de programa ejecutables por medio de la lectura de los códigos de programa ejecutables almacenados en la memoria 1003, para llevar a cabo las siguientes operaciones: la conversión de una parte de la imagen de bloque de color dentro de la región fija en una primera imagen mediante el uso de un primer algoritmo de interpolación, en el cual, la primera imagen incluye primeros píxeles de simulación dispuestos en una matriz, y cada píxel fotosensible corresponde a un primer píxel de simulación; la conversión de una parte de la imagen de bloque de color más allá de la región fija en una segunda imagen mediante el uso de un segundo algoritmo de interpolación, en el cual, la segunda imagen incluye segundos píxeles de simulación dispuestos en una matriz, y cada píxel fotosensible corresponde a un segundo píxel de simulación, y una complejidad del segundo algoritmo de interpolación es menor que la complejidad del primer algoritmo de interpolación; y la combinación de la primera imagen y la segunda imagen en una imagen de simulación que corresponde a la imagen de bloque de color.
En algunas implementaciones, el aparato de formación de imágenes incluye una cámara frontal o una cámara real (no se ilustra en la Fig. 24).
En algunas implementaciones, el procesador 1002 está configurado para ejecutar un programa que corresponde a los códigos de programa ejecutables por medio de la lectura de los códigos de programa ejecutables almacenados en la memoria 1003, para convertir una parte de la imagen de bloque de color dentro de la región fija en una primera imagen mediante el uso de un primer algoritmo de interpolación por actos de: la determinación de si un color de un primer píxel de simulación es idéntico al color de un píxel original en una misma posición que el primer píxel de simulación; cuando el color del primer píxel de simulación es idéntico al color del píxel original en la misma posición que el primer píxel de simulación, la determinación de un valor de píxel del píxel original como un valor de píxel del primer píxel de simulación; y cuando el color del primer píxel de simulación es diferente del color del píxel original en la misma posición que el primer píxel de simulación, la determinación del valor de píxel del primer píxel de simulación de acuerdo con un valor de píxel de un píxel de asociación, en el que el píxel de asociación se selecciona de una unidad de píxeles de imagen con un mismo color que el primer píxel de simulación y adyacente a una unidad de píxeles de imagen que incluyen el píxel original.
En algunas implementaciones, el procesador 1002 está configurado para ejecutar un programa que corresponde a los códigos de programa ejecutables por medio de la lectura de los códigos de programa ejecutables almacenados en la memoria 1003, para determinar el valor de píxel del primer píxel de simulación de acuerdo con un valor de píxel de un píxel de asociación por medio de los siguientes actos: el cálculo de un cambio del color del primer píxel de simulación en cada dirección de por lo menos dos direcciones de acuerdo con el valor de píxel del píxel de asociación; el cálculo de un peso en cada dirección de las por lo menos dos direcciones de acuerdo con el cambio; y el cálculo del valor de píxel del primer píxel de simulación de acuerdo con el peso y el valor de píxel del píxel de asociación.
En algunas implementaciones, el procesador 1002 está configurado para ejecutar un programa que corresponde a los códigos de programa ejecutables por medio de la lectura de los códigos de programa ejecutables almacenados en la memoria 1003, para convertir una parte de la imagen de bloque de color más allá de la región fija en una segunda imagen mediante el uso de un segundo algoritmo de interpolación por medio de los siguientes actos: el cálculo de un valor de píxel promedio de cada unidad de píxeles de imagen de la imagen de bloque de color; la determinación de si un color de un segundo píxel de simulación es idéntico al color de un píxel original en una misma posición que el segundo píxel de simulación; cuando el color del segundo píxel de simulación es idéntico al color del píxel original en la misma posición que el segundo píxel de simulación, la determinación de un valor de píxel promedio de una unidad de píxeles de imagen que incluyen el píxel original como un valor de píxel del segundo píxel de simulación; y cuando el color del segundo píxel de simulación es diferente del color del píxel original en la misma posición que el segundo píxel de simulación, la determinación de un valor de píxel promedio de una unidad de píxeles de imagen con un mismo color que el segundo píxel de simulación y adyacente a una unidad de píxeles de imagen que incluyen el píxel original como un valor de píxel del segundo píxel de simulación.
En algunas implementaciones, el procesador 1002 está configurado para ejecutar un programa que corresponde a los códigos de programa ejecutables por medio de la lectura de los códigos de programa ejecutables almacenados en la memoria 1003, para llevar a cabo las siguientes operaciones: la realización de una compensación de balance de blancos en la imagen de bloque de color; y la realización de una compensación de balance de blancos inverso en la primera imagen.
En algunas implementaciones, el procesador 1002 está configurado para ejecutar un programa que corresponde a los códigos de programa ejecutables por medio de la lectura de los códigos de programa ejecutables almacenados en la memoria 1003, para llevar a cabo las siguientes operaciones: la realización de por lo menos una de una compensación de puntos malos y una compensación de diafonía en la imagen de bloque de color.
En algunas implementaciones, el procesador 1002 está configurado para ejecutar un programa que corresponde a los códigos de programa ejecutables por medio de la lectura de los códigos de programa ejecutables almacenados en la memoria 1003, para llevar a cabo las siguientes operaciones: la realización de por lo menos uno de una corrección de formas de espejo, un procesamiento de interpolación cromática, un procesamiento de eliminación de ruido y un procesamiento de afilado de bordes en la primera imagen.
En algunas implementaciones, el dispositivo electrónico puede ser un equipo electrónico provisto de un aparato de formación de imágenes, tal como un teléfono móvil o una tableta, que no se limita en la presente memoria.
El dispositivo electrónico 1000 además puede incluir un componente de entrada (no se ilustra en la Fig. 24). Se debe entender que el componente de entrada además puede incluir uno o más de los siguientes: una interfaz de entrada, un botón físico del dispositivo electrónico 1000, un micrófono, etc.
Se debe entender que el dispositivo electrónico 1000 puede incluir además uno o más de los siguientes componentes: un componente de audio, una interfaz de entrada/salida (I/O), un componente de sensor y un componente de comunicación. El componente de audio está configurado para emitir y/o introducir señales de audio, por ejemplo, el componente de audio incluye un micrófono. La interfaz I/O está configurada para proporcionar una interfaz entre el procesador 1002 y los módulos de interfaz de periféricos. El componente de sensor incluye uno o más sensores para proporcionar evaluaciones del estado de los diversos aspectos del dispositivo electrónico 1000. El componente de comunicación está configurado para facilitar la comunicación, por cable o de manera inalámbrica, entre el dispositivo electrónico 1000 y otros dispositivos.
Se ha de entender que la fraseología y la terminología usadas en la presente memoria con referencia a la orientación del dispositivo o elemento (tales como, términos como “centro”, “longitudinal”, “lateral”, “longitud”, “anchura”, “altura”, “arriba“, “abajo”, “delantero”, “trasero”, “izquierda”, “derecha”, “vertical”, “horizontal”, “superior”, “inferior”, “interior”, “exterior”, “en el sentido de las agujas del reloj”, “en el sentido contrario al de las agujas del reloj”, “axial”, “radial”, “circunferencial”) sólo se usan para simplificar la descripción de la presente invención, y no indicar o implicar que el dispositivo o elemento que se menciona debe tener u operar en una orientación particular. Ellos no pueden ser vistos como límites a la presente descripción.
Por otra parte, los términos “primero” y “segundo” sólo se usan para la descripción y no se pueden ver como una indicación o implicación de la importancia relativa o una indicación o implicación del número de las características técnicas indicadas. Por lo tanto, las características definidas con “primero” y “segundo” pueden comprender o implicar por lo menos una de estas características. En la descripción de la presente descripción, “una pluralidad de' significa dos o más de dos, a menos que se especifique lo contrario.
En la presente descripción, salvo que se especifique o se limite de otro modo, los términos “montado”, “conectado”, “acoplado”, “fijo” y similares se usan ampliamente, y pueden ser, por ejemplo, conexiones fijas, conexiones desmontables, o conexiones integrales; también pueden ser conexiones mecánicas o eléctricas; también pueden ser conexiones directas o conexiones indirectas a través de estructuras intermedias; también pueden ser comunicaciones internas de dos elementos o interacciones de dos elementos, que pueden ser entendidos por aquellos con experiencia en la técnica de acuerdo con situaciones específicas.
En la presente descripción, salvo que se especifique o se limite de otra manera, una estructura en la que una primera característica está “sobre” una segunda característica puede incluir una forma de realización en la que la primera característica está en contacto de manera directa con la segunda característica, y también puede incluir una forma de realización en la que la primera característica está en contacto de manera indirecta con la segunda característica a través de un medio intermedio. Por otra parte, una estructura en la que una primera característica es “sobre”, “en” o “por encima” de una segunda característica puede indicar que la primera característica está justo por encima de la segunda característica o de manera oblicua por encima de la segunda característica, o simplemente puede indicar que un nivel horizontal de la primera característica es más alto que la segunda característica. Una estructura en la que una primera característica está “abajo” o “debajo” de una segunda característica puede indicar que la primera característica está justo debajo de la segunda característica o de manera oblicua por debajo de la segunda característica, o simplemente puede indicar que un nivel horizontal de la primera característica es más bajo que la segunda característica.
Diversas formas de realización y ejemplos se proporcionan en la siguiente descripción para implementar diferentes estructuras de la presente descripción. Con el fin de simplificar la presente descripción, se describirán ciertos elementos y configuraciones. Sin embargo, estos elementos y configuraciones son sólo ejemplos y no pretenden limitar la presente descripción. Además, los números de referencia se pueden repetir en diferentes ejemplos de la divulgación. Esta repetición es para el propósito de simplificación y claridad y no se refiere a las relaciones entre diferentes formas de realización y/o configuraciones. Además, se proporcionan ejemplos de los diferentes procesos y materiales en la presente descripción. Sin embargo, sería apreciado por aquellos con experiencia en la técnica que otros procesos y/o materiales también se pueden aplicar.
Las referencias a lo largo de esta memoria descriptiva a “una forma de realización”, “algunas formas de realización”, “un ejemplo”, “un ejemplo específico” o “algunos ejemplos,” significa que un rasgo, una estructura, un material o una característica descrita en conexión con la forma de realización o ejemplo se incluye en por lo menos una forma de realización o ejemplo de la presente descripción. En esta memoria descriptiva, las descripciones a modo de ejemplo de los términos mencionados con anterioridad no se refieren necesariamente a la misma forma de realización o ejemplo. Además, los rasgos, las estructuras, los materiales, o las características particulares se pueden combinar de cualquier manera adecuada en una o más formas de realización o ejemplos. Además, aquellos con experiencia en la técnica podrían combinar las diferentes formas de realización o características diferentes en formas de realización o ejemplos descritos en la presente descripción.
Se puede entender que cualquier proceso o procedimiento descrito en un diagrama de flujo o descrito en la presente memoria en otros aspectos incluye uno o más módulos, segmentos o porciones de códigos de instrucciones ejecutables para el logro de funciones lógicas específicas o etapas en el proceso, y el ámbito de una forma de realización preferida de la presente descripción incluye otras implementaciones, en el que el orden de ejecución puede diferir del que se representa o se discute, que incluye de acuerdo con la función implicada, la ejecución concurrente o con concurrencia parcial o en el orden contrario para llevar a cabo la función, lo cual debe ser entendido por aquellos con experiencia en la técnica.
La lógica y/o etapa descrita de otras maneras en la presente memoria o mostrada en el diagrama de flujo, por ejemplo, una tabla de secuencia particular de instrucciones ejecutables para la realización de la función lógica, se pueden conseguir de manera específica en cualquier medio legible por ordenador para ser usado por el sistema, dispositivo o equipo de ejecución de instrucciones (tal como el sistema basado en ordenadores, el sistema comprende procesadores u otros sistemas capaces de adquirir la instrucción desde el sistema, el dispositivo y el equipo de ejecución de instrucciones, y ejecutar la instrucción), o para ser usado en combinación con el sistema, el dispositivo y el equipo de ejecución de instrucciones. En cuanto a la memoria descriptiva, “el medio legible por ordenador” puede ser cualquier dispositivo adaptativa para la inclusión, el almacenamiento, la comunicación, la propagación o la transferencia de programas para ser usados por o en combinación con el sistema, el dispositivo o el equipo de ejecución de instrucciones. Los ejemplos más específicos del medio legible por ordenador comprenden, pero no se limitan a: una conexión electrónica (un dispositivo electrónico) con uno o más cables, una caja para ordenador portátil (un dispositivo magnético), una memoria de acceso aleatorio (RAM), una memoria de sólo lectura (ROM), una memoria programable y borrable de sólo lectura (EPROM o una memoria flash), un dispositivo de fibra óptica y un disco compacto portátil de memoria de sólo lectura (CD-ROM). Además, el medio legible por ordenador puede ser incluso un papel u otro medio apropiado capaz imprimir programas sobre el mismo, esto es porque, por ejemplo, el papel u otro medio apropiado se pueden escanear de manera óptica y luego editarlos, descifrarlos o procesarlos con otros procedimientos apropiados cuando sea necesario para obtener los programas de una manera eléctrica, y luego, los programas se pueden almacenar en las memorias de los ordenadores.
Se debe entender que cada parte de la presente descripción se puede llevar a cabo por medio de hardware, software, firmware o su combinación. En las formas de realización anteriores, una pluralidad de etapas o procedimientos se puede llevar a cabo por medio del software o firmware almacenado en la memoria y ejecutado por el sistema de ejecución de instrucciones apropiado. Por ejemplo, si se lleva a cabo por el hardware, así mismo en otra forma de realización, las etapas o procedimientos se pueden llevar a cabo por medio de una o una combinación de las siguientes técnicas conocidas en la técnica: un circuito de lógica discreta que tiene un circuito de puerta lógica para la realización de una función lógica de una señal de datos, un circuito integrado de aplicación específica que tiene un circuito de puerta lógica de combinación apropiado, una matriz de puertas programable (PGA), una matriz de puertas programable por campo (FPGA), etc.
Aquellos con experiencia en la técnica entenderán que todas o partes de las etapas en el procedimiento de ejemplo anterior para la presente descripción pueden ser alcanzadas por medio del mando del hardware relacionado con los programas, los programas pueden ser almacenados en un medio de almacenamiento legible por ordenador, y los programas comprenden una o una combinación de las etapas de las formas de realización del procedimiento de la presente descripción cuando se ejecuta en un ordenador.
Además, cada celda en función de las formas de realización de la presente descripción puede estar integrada en un módulo de procesamiento, o estas celdas pueden tener una existencia física separada, o dos o más celdas están integradas en un módulo de procesamiento. El módulo integrado se puede llevar a cabo de una forma de hardware o en una forma de módulos de función de software. Cuando el módulo integrado se lleva a cabo en una forma de módulo de función de software y se comercializa o se usa como un producto independiente, el módulo integrado se puede almacenar en un medio de almacenamiento legible por ordenador.
El medio de almacenamiento mencionado con anterioridad puede ser memorias de sólo lectura, discos magnéticos, CD, etc.

Claims (15)

REIVINDICACIONES
1. Un procedimiento de procesamiento de imágenes, para el procesamiento de una salida de imagen de bloque de color por un sensor de imagen (200), en el que el sensor de imagen (200) comprende una matriz de unidades de píxeles fotosensibles, y cada unidad de píxeles fotosensibles (210a) comprende una pluralidad de píxeles fotosensibles (212), la imagen de bloque de color comprende unidades de píxeles de imagen dispuestas en una matriz preestablecida, en el que la matriz preestablecida comprende una matriz de Bayer, cada unidad de píxeles de imagen comprende una pluralidad de píxeles originales, cada unidad de píxeles fotosensibles (210a) corresponde a una unidad de píxeles de imagen, cada píxel fotosensible (212) corresponde a un píxel original, y la imagen de bloque de color comprende una región fija, y el procedimiento de procesamiento de imágenes comprende:
la conversión (10) de una parte de la imagen de bloque de color dentro de la región fija en una primera imagen mediante el uso de un primer algoritmo de interpolación, en el que, la primera imagen comprende primeros píxeles de simulación dispuestos en la matriz de Bayer, y cada píxel fotosensible (212) corresponde a un primer píxel de simulación;
la conversión (20) de una parte de la imagen de bloque de color más allá de la región fija en una segunda imagen mediante el uso de un segundo algoritmo de interpolación, en el que, la segunda imagen comprende segundos píxeles de simulación dispuestos en la matriz de Bayer, y cada píxel fotosensible (212) corresponde a un segundo píxel de simulación, y una complejidad del segundo algoritmo de interpolación es menor que la complejidad del primer algoritmo de interpolación; y
la combinación (30) de la primera imagen y la segunda imagen en una imagen de simulación que corresponde a la imagen de bloque de color, la imagen de simulación comprende píxeles de simulación dispuestos en la matriz de Bayer.
2. El procedimiento de procesamiento de imágenes de acuerdo con la reivindicación 1, en el que la conversión (10) de la parte de imagen de bloque de color dentro de la región fija en la primera imagen mediante el uso del primer algoritmo de interpolación comprende:
la determinación (11) de si un color de un primer píxel de simulación es idéntico al color de un píxel original en una misma posición que el primer píxel de simulación;
cuando el color del primer píxel de simulación es idéntico al color del píxel original en la misma posición que el primer píxel de simulación, la determinación (12) de un valor de píxel del píxel original como un valor de píxel del primer píxel de simulación; y
cuando el color del primer píxel de simulación es diferente del color del píxel original en la misma posición que el primer píxel de simulación, la determinación (13) del valor de píxel del primer píxel de simulación de acuerdo con un valor de píxel de un píxel de asociación, en el que el píxel de asociación se selecciona de una unidad de píxeles de imagen con un mismo color que el primer píxel de simulación y adyacente a una unidad de píxeles de imagen que comprende el píxel original.
3. El procedimiento de procesamiento de imágenes de acuerdo con la reivindicación 2, en el que la determinación (13) del valor de píxel del primer píxel de simulación de acuerdo con el valor de píxel del píxel de asociación comprende:
el cálculo (131) de un cambio del color del primer píxel de simulación en cada dirección de por lo menos dos direcciones de acuerdo con el valor de píxel del píxel de asociación;
el cálculo (132) de un peso en cada dirección de las por lo menos dos direcciones de acuerdo con el cambio; y
el cálculo (133) del valor de píxel del primer píxel de simulación de acuerdo con el peso y el valor de píxel del píxel de asociación.
4. El procedimiento de procesamiento de imágenes de acuerdo con cualquiera de las reivindicaciones 1 a 3, en el que la conversión (20) de la parte de la imagen de bloque de color más allá de la región fija en la segunda imagen mediante el uso del segundo algoritmo de interpolación comprende:
el cálculo (21) de un valor de píxel promedio de cada unidad de píxeles de imagen de la imagen de bloque de color;
la determinación (22) de si un color de un segundo píxel de simulación es idéntico al color de un píxel original en una misma posición que el segundo píxel de simulación;
cuando el color del segundo píxel de simulación es idéntico al color del píxel original en la misma posición que el segundo píxel de simulación, la determinación (23) de un valor de píxel promedio de una unidad de píxeles de imagen que comprende el píxel original como un valor de píxel del segundo píxel de simulación; y cuando el color del segundo píxel de simulación es diferente del color del píxel original en la misma posición que el segundo píxel de simulación, la determinación (24) de un valor de píxel promedio de una unidad de píxeles de imagen con un mismo color que el segundo píxel de simulación y adyacente a una unidad de píxeles de imagen que comprende el píxel original como un valor de píxel del segundo píxel de simulación.
5. El procedimiento de procesamiento de imágenes de acuerdo con cualquiera de las reivindicaciones 1 a 4, que además comprende:
la realización (14) de una compensación de balance de blancos en la imagen de bloque de color; y la realización (15) de una compensación de balance de blancos inverso en la primera imagen;
y/o
la realización (16, 17) de por lo menos uno de una compensación de puntos malos y una compensación de diafonía en la imagen de bloque de color.
6. El procedimiento de procesamiento de imágenes de acuerdo con cualquiera de las reivindicaciones 1 a 5, que además comprende:
la realización (18) de por lo menos uno de entre un procesamiento de interpolación cromática, un procesamiento de eliminación de ruido y un procesamiento de afilado de bordes en la primera imagen.
7. El procedimiento de procesamiento de imágenes de acuerdo con cualquiera de las reivindicaciones 1 a 6, en el que el sensor de imagen está ubicado en un dispositivo eléctrico que comprende una pantalla táctil, y el procedimiento de procesamiento de imágenes además comprende:
la conversión (41) de la imagen de bloque de color en una imagen de vista previa mediante el uso de un tercer algoritmo de interpolación, en el que una complejidad del tercer algoritmo de interpolación es menor que la complejidad del primer algoritmo de interpolación;
el control (42) de la pantalla táctil para exhibir la imagen de vista previa; y
el control (43) de la pantalla táctil para exhibir un patrón de aviso para indicar la región fija.
8. El procedimiento de procesamiento de imágenes de acuerdo con cualquiera de las reivindicaciones 1 a 6, en el que el sensor de imagen está ubicado en un dispositivo eléctrico que comprende una pantalla táctil, y el procedimiento de procesamiento de imágenes además comprende:
la conversión (41) de la imagen de bloque de color en una imagen de vista previa mediante el uso de un tercer algoritmo de interpolación, en el que el tercer algoritmo de interpolación es el mismo que el primer algoritmo de interpolación;
la conversión (41) de la imagen de bloque de color en una imagen de vista previa mediante el uso de un tercer algoritmo de interpolación, en el que una complejidad del tercer algoritmo de interpolación es menor que la complejidad del primer algoritmo de interpolación;
el control (42) de la pantalla táctil para exhibir la imagen de vista previa; y
el control (43) de la pantalla táctil para exhibir un patrón de aviso para indicar la región fija.
9. Un aparato de procesamiento de imágenes (4000), configurado para procesar una salida de imagen de bloque de color por un sensor de imagen (200), en el que el sensor de imagen (200) comprende una matriz (210) de unidades de píxeles fotosensibles, y cada unidad de píxeles fotosensibles (210a) comprende una pluralidad de píxeles fotosensibles (212); la imagen de bloque de color comprende unidades de píxeles de imagen dispuestas en una matriz preestablecida, en el que la matriz preestablecida comprende una matriz de Bayer, cada unidad de píxeles de imagen comprende una pluralidad de píxeles originales, cada unidad de píxeles fotosensibles (210a) corresponde a una unidad de píxeles de imagen, y cada píxel fotosensible (212) corresponde a un píxel original, y la imagen de bloque de color comprende una región fija; el aparato de procesamiento de imágenes (4000) comprende un medio no transitorio legible por ordenador (4600) que comprende instrucciones ejecutables por ordenador almacenadas en el mismo, y un sistema de ejecución de instrucciones (4800), que está configurado por las instrucciones para implementar por lo menos uno de:
un primer módulo de conversión (410), configurado para convertir una parte de la imagen de bloque de color dentro de la región fija en una primera imagen mediante el uso de un primer algoritmo de interpolación, en el que, la primera imagen comprende primeros píxeles de simulación dispuestos en la matriz de Bayer, y cada píxel fotosensible (212) corresponde a un primer píxel de simulación;
un segundo módulo de conversión (420), configurado para convertir una parte de la imagen de bloque de color más allá de la región fija en una segunda imagen mediante el uso de un segundo algoritmo de interpolación, en el que, la segunda imagen comprende segundos píxeles de simulación dispuestos en la matriz de Bayer, y cada píxel fotosensible (212) corresponde a un segundo píxel de simulación, y una complejidad del segundo algoritmo de interpolación es menor que la complejidad del primer algoritmo de interpolación; y
un módulo de combinación (430), configurado para combinar la primera imagen y la segunda imagen en una imagen de simulación que corresponde a la imagen de bloque de color, la imagen de simulación comprende píxeles de simulación dispuestos en la matriz de Bayer.
10. El aparato de procesamiento de imágenes (4000) de acuerdo con la reivindicación 9, en el que el primer módulo de conversión (410) comprende:
una primera unidad de determinación (411), configurada para determinar si un color de un primer píxel de simulación es idéntico al color de un píxel original en una misma posición que el primer píxel de simulación; una segunda unidad de determinación (412), configurada para determinar un valor de píxel del píxel original como un valor de píxel del primer píxel de simulación cuando el color del primer píxel de simulación es idéntico al color del píxel original en la misma posición que el primer píxel de simulación; y
una tercera unidad de determinación (413), configurada para determinar el valor de píxel del primer píxel de simulación de acuerdo con un valor de píxel de un píxel de asociación cuando el color del primer píxel de simulación es diferente del color del píxel original en la misma posición que el primer píxel de simulación, en el que el píxel de asociación se selecciona de una unidad de píxeles de imagen con un mismo color que el primer píxel de simulación y adyacente a una unidad de píxeles de imagen que comprende el píxel original.
11. El aparato de procesamiento de imágenes (4000) de acuerdo con la reivindicación 10, en el que la tercera unidad de determinación (413) comprende:
una primera subunidad de cálculo (4131), configurada para calcular un cambio del color del primer píxel de simulación en cada dirección de por lo menos dos direcciones de acuerdo con el valor de píxel del píxel de asociación;
una segunda subunidad de cálculo (4132), configurada para calcular un peso en cada dirección de las por lo menos dos direcciones de acuerdo con el cambio;
y
una tercera subunidad de cálculo (4133), configurada para calcular el valor de píxel del primer píxel de simulación de acuerdo con el peso y el valor de píxel del píxel de asociación.
12. El aparato de procesamiento de imágenes (4000) de acuerdo con cualquiera de las reivindicaciones 9 a 11, en el que el segundo módulo de conversión (420) comprende:
una segunda unidad de cálculo (421), configurada para calcular un valor de píxel promedio de cada unidad de píxeles de imagen de la imagen de bloque de color;
una cuarta unidad de determinación (422), configurada para determinar si un color de un segundo píxel de simulación es idéntico al color de un píxel original en una misma posición que el segundo píxel de simulación; una quinta unidad de determinación (423), configurada para determinar un valor de píxel promedio de una unidad de píxeles de imagen que comprende el píxel original como un valor de píxel del segundo píxel de simulación, cuando el color del segundo píxel de simulación es idéntico al color de el píxel original en la misma posición que el segundo píxel de simulación; y
una sexta unidad de determinación (424), configurada para determinar un valor de píxel promedio de una unidad de píxeles de imagen con un mismo color que el segundo píxel de simulación y adyacente a una unidad de píxeles de imagen que comprende el píxel original como un valor de píxel del segundo píxel de simulación, cuando el color del segundo píxel de simulación es diferente del color del píxel original en la misma posición que el segundo píxel de simulación.
13. El aparato de procesamiento de imágenes (4000) de acuerdo con cualquiera de las reivindicaciones 9 a 12, en el que la unidad de píxeles de imagen comprende píxeles originales dispuestos en una matriz de 2 por 2.
14. El aparato de procesamiento de imágenes (4000) de acuerdo con cualquiera de las reivindicaciones 9 a 13, en el que el primer módulo de conversión (410) comprende:
una primera unidad de compensación (414), configurada para llevar a cabo una compensación de balance de blancos en la imagen de bloque de color; y una unidad de restauración (415), configurada para llevar a cabo una compensación de balance de blancos inverso en la primera imagen;
y/o el primer módulo de conversión (410) comprende: por lo menos una de una segunda unidad de compensación (416) y una tercera unidad de compensación (417), en el que la segunda unidad de compensación (416) está configurada para llevar a cabo una compensación de puntos malos sobre la imagen de bloque de color; y la tercera unidad de compensación (417) está configurada para llevar a cabo una compensación de diafonía en la imagen de bloque de color;
y/o el primer módulo de conversión (410) comprende: una unidad de procesamiento (418), configurada para llevar a cabo por lo menos uno de un procesamiento de interpolación cromática, un procesamiento de eliminación de ruido y un procesamiento de afilado de bordes en la primera imagen.
15. Un dispositivo electrónico (1000), que comprende un carcasa (1001), un procesador (1002), una memoria (1003), una placa de circuito (1006), un circuito de suministro de energía (1007), y un aparato de formación de imágenes (100), en el que,
la placa de circuito (1006) está encerrada por la carcasa (1001);
el procesador (1002) y la memoria (1003) están posicionados en la placa de circuito (1006);
el circuito de suministro de energía (1007) está configurado para proporcionar energía para los respectivos circuitos o componentes del dispositivo electrónico (1000);
el aparato de formación de imágenes (100) comprende un sensor de imagen (200) configurado para emitir una imagen de bloque de color, en el que el sensor de imagen (200) comprende una matriz (210) de unidades de píxeles fotosensibles, y cada unidad de píxeles fotosensibles (210a) comprende una pluralidad de píxeles fotosensibles (212), la imagen de bloque de color comprende unidades de píxeles de imagen dispuestas en una matriz preestablecida, en el que la matriz preestablecida comprende una matriz de Bayer, cada unidad de píxeles de imagen (210a) comprende una pluralidad de píxeles originales, cada unidad de píxeles fotosensibles corresponde a una unidad de píxeles de imagen, y cada píxel fotosensible (212) corresponde a un píxel original; la memoria (1003) está configurada para almacenar códigos de programa ejecutables; y
el procesador (1002) está configurado para ejecutar un programa que corresponde a los códigos de programa ejecutables por medio de la lectura de los códigos de programa ejecutables almacenados en la memoria (1003), para llevar a cabo las siguientes operaciones:
la conversión (10) de una parte de la imagen de bloque de color dentro de la región fija en una primera imagen mediante el uso de un primer algoritmo de interpolación, en el que, la primera imagen comprende primeros píxeles de simulación dispuestos en la matriz de Bayer, y cada píxel fotosensible corresponde a un primer píxel de simulación;
la conversión (20) de una parte de la imagen de bloque de color más allá de la región fija en una segunda imagen mediante el uso de un segundo algoritmo de interpolación, en el que, la segunda imagen comprende segundos píxeles de simulación dispuestos en la matriz de Bayer, y cada píxel fotosensible corresponde a un segundo píxel de simulación, y una complejidad del segundo algoritmo de interpolación es menor que la complejidad del primer algoritmo de interpolación; y
la combinación (30) de la primera imagen y la segunda imagen en una imagen de simulación que corresponde a la imagen de bloque de color, la imagen de simulación comprende píxeles de simulación dispuestos en la matriz de Bayer.
ES17198777T 2016-11-29 2017-10-27 Procedimiento y aparato de procesamiento, dispositivo electrónico y procedimiento de control Active ES2757506T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611079583.7A CN106507068B (zh) 2016-11-29 2016-11-29 图像处理方法及装置、控制方法及装置、成像及电子装置

Publications (1)

Publication Number Publication Date
ES2757506T3 true ES2757506T3 (es) 2020-04-29

Family

ID=58328104

Family Applications (1)

Application Number Title Priority Date Filing Date
ES17198777T Active ES2757506T3 (es) 2016-11-29 2017-10-27 Procedimiento y aparato de procesamiento, dispositivo electrónico y procedimiento de control

Country Status (5)

Country Link
US (2) US10440265B2 (es)
EP (1) EP3327664B1 (es)
CN (1) CN106507068B (es)
ES (1) ES2757506T3 (es)
WO (1) WO2018098983A1 (es)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106507068B (zh) 2016-11-29 2018-05-04 广东欧珀移动通信有限公司 图像处理方法及装置、控制方法及装置、成像及电子装置
CN106507019B (zh) 2016-11-29 2019-05-10 Oppo广东移动通信有限公司 控制方法、控制装置、电子装置
CN107743199B (zh) * 2017-10-30 2020-05-15 努比亚技术有限公司 图像处理方法、移动终端及计算机可读存储介质
CN107808361B (zh) * 2017-10-30 2021-08-10 努比亚技术有限公司 图像处理方法、移动终端及计算机可读存储介质
CN111340863B (zh) * 2019-08-29 2023-12-05 杭州海康慧影科技有限公司 一种摩尔纹像素点确定方法、装置及电子设备
US11776088B2 (en) * 2020-03-11 2023-10-03 Samsung Electronics Co., Ltd. Electronic device generating image data and converting the generated image data and operating method of the electronic device
CN111355937B (zh) * 2020-03-11 2021-11-16 北京迈格威科技有限公司 图像处理方法、装置和电子设备

Family Cites Families (100)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3592147B2 (ja) 1998-08-20 2004-11-24 キヤノン株式会社 固体撮像装置
JP4317624B2 (ja) 1999-09-10 2009-08-19 メディア・テック・ユーエスエイ・インコーポレーテッド 画像処理装置
TW563365B (en) 2001-09-24 2003-11-21 Winbond Electronics Corp Image compensation processing method of digital camera
JP4458236B2 (ja) 2003-09-30 2010-04-28 パナソニック株式会社 固体撮像装置
JP2006140594A (ja) 2004-11-10 2006-06-01 Pentax Corp デジタルカメラ
JP4816336B2 (ja) 2006-02-07 2011-11-16 日本ビクター株式会社 撮像方法及び撮像装置
KR100843087B1 (ko) 2006-09-06 2008-07-02 삼성전자주식회사 영상 생성 장치 및 방법
US7773138B2 (en) 2006-09-13 2010-08-10 Tower Semiconductor Ltd. Color pattern and pixel level binning for APS image sensor using 2×2 photodiode sharing scheme
CN101150733A (zh) 2006-09-22 2008-03-26 华邦电子股份有限公司 影像像素干扰的补偿方法
TW200922232A (en) 2006-10-04 2009-05-16 Interdigital Tech Corp Method and apparatus for advanced adaptive two dimensional channel interpolation in orthogonal frequency division multiplexing (OFDM) wireless communication systems
JPWO2008053791A1 (ja) 2006-10-31 2010-02-25 三洋電機株式会社 撮像装置および撮像装置における映像信号生成方法
JP4795929B2 (ja) 2006-12-26 2011-10-19 富士通株式会社 補間方法を決定するプログラム、装置、および方法
JP5053654B2 (ja) 2007-02-09 2012-10-17 オリンパスイメージング株式会社 画像処理装置およびその方法と電子カメラ
US20080235933A1 (en) 2007-03-29 2008-10-02 Emerson Power Transmission Manufacturing Mechanism for mounting and dismounting bearing
JP4359634B2 (ja) 2007-06-21 2009-11-04 シャープ株式会社 カラー固体撮像装置、および画素信号の読み出し方法
US8102435B2 (en) 2007-09-18 2012-01-24 Stmicroelectronics S.R.L. Method for acquiring a digital image with a large dynamic range with a sensor of lesser dynamic range
JP5045421B2 (ja) * 2007-12-21 2012-10-10 ソニー株式会社 撮像装置、色ノイズ低減方法および色ノイズ低減プログラム
JP5113514B2 (ja) * 2007-12-27 2013-01-09 キヤノン株式会社 ホワイトバランス制御装置およびホワイトバランス制御方法
CN101227621A (zh) 2008-01-25 2008-07-23 炬力集成电路设计有限公司 在cmos传感器中对cfa进行插值的方法及电路
US7745779B2 (en) 2008-02-08 2010-06-29 Aptina Imaging Corporation Color pixel arrays having common color filters for multiple adjacent pixels for use in CMOS imagers
JP2010028722A (ja) 2008-07-24 2010-02-04 Sanyo Electric Co Ltd 撮像装置及び画像処理装置
JP5219778B2 (ja) 2008-12-18 2013-06-26 キヤノン株式会社 撮像装置及びその制御方法
CN101815157B (zh) 2009-02-24 2013-01-23 虹软(杭州)科技有限公司 图像及视频的放大方法与相关的图像处理装置
US8248496B2 (en) * 2009-03-10 2012-08-21 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and image sensor
KR101335127B1 (ko) 2009-08-10 2013-12-03 삼성전자주식회사 에지 적응적 보간 및 노이즈 필터링 방법, 컴퓨터로 판독 가능한 기록매체 및 휴대 단말
US8724928B2 (en) 2009-08-31 2014-05-13 Intellectual Ventures Fund 83 Llc Using captured high and low resolution images
CN102648632B (zh) 2009-11-27 2015-01-28 株式会社尼康 数据处理装置
JP2011248576A (ja) 2010-05-26 2011-12-08 Olympus Corp 画像処理装置、撮像装置、プログラム及び画像処理方法
US8803994B2 (en) 2010-11-18 2014-08-12 Canon Kabushiki Kaisha Adaptive spatial sampling using an imaging assembly having a tunable spectral response
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
CN102073986A (zh) 2010-12-28 2011-05-25 冠捷显示科技(厦门)有限公司 实现显示装置画面放大的方法
JP5741007B2 (ja) 2011-01-21 2015-07-01 株式会社リコー 画像処理装置、画素補間方法およびプログラム
WO2012114574A1 (ja) 2011-02-21 2012-08-30 三菱電機株式会社 画像拡大装置及び方法
EP2685726A4 (en) 2011-03-11 2014-09-03 Fujifilm Corp IMAGING DEVICE AND IMAGING PROGRAM
CN103416067B (zh) 2011-03-11 2014-10-29 富士胶片株式会社 摄像装置
JP5822508B2 (ja) 2011-04-05 2015-11-24 キヤノン株式会社 撮像装置及びその制御方法
JP2012234393A (ja) * 2011-05-02 2012-11-29 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
DE102011100350A1 (de) 2011-05-03 2012-11-08 Conti Temic Microelectronic Gmbh Bildsensor mit einstellbarer Auflösung
WO2013008517A1 (ja) 2011-07-08 2013-01-17 オリンパス株式会社 撮像装置及び画像生成方法
CN103650487B (zh) 2011-07-13 2015-04-29 富士胶片株式会社 图像拾取设备、图像拾取元件,和用于校正灵敏度差异的方法
JP2013066146A (ja) 2011-08-31 2013-04-11 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
US8891866B2 (en) 2011-08-31 2014-11-18 Sony Corporation Image processing apparatus, image processing method, and program
JP2013066140A (ja) 2011-08-31 2013-04-11 Sony Corp 撮像装置、および信号処理方法、並びにプログラム
WO2013046828A1 (ja) 2011-09-29 2013-04-04 富士フイルム株式会社 画像処理装置、方法、プログラムおよび記録媒体並びに撮像装置
GB201117191D0 (en) 2011-10-04 2011-11-16 Imagination Tech Ltd +Detecting image impairments in an interpolated image
JP5687608B2 (ja) 2011-11-28 2015-03-18 オリンパス株式会社 画像処理装置、画像処理方法、および画像処理プログラム
CA2861220C (en) 2012-01-24 2020-02-11 Sony Corporation Image processing apparatus and image processing method, and program
JP5889049B2 (ja) 2012-03-09 2016-03-22 オリンパス株式会社 画像処理装置、撮像装置及び画像処理方法
WO2013145487A1 (ja) 2012-03-27 2013-10-03 ソニー株式会社 画像処理装置、撮像素子、および画像処理方法、並びにプログラム
CN102630019B (zh) 2012-03-27 2014-09-10 上海算芯微电子有限公司 去马赛克的方法和装置
JP2013211603A (ja) 2012-03-30 2013-10-10 Sony Corp 撮像装置、撮像方法およびプログラム
JP5755814B2 (ja) 2012-08-27 2015-07-29 富士フイルム株式会社 画像処理装置、方法、プログラム及び撮像装置
JP2014110507A (ja) 2012-11-30 2014-06-12 Canon Inc 画像処理装置および画像処理方法
KR101744761B1 (ko) 2012-11-30 2017-06-09 한화테크윈 주식회사 영상처리장치 및 방법
WO2014118868A1 (ja) 2013-01-30 2014-08-07 パナソニック株式会社 撮像装置及び固体撮像装置
CN104969545B (zh) 2013-02-05 2018-03-20 富士胶片株式会社 图像处理装置、摄像装置、图像处理方法以及程序
US9224362B2 (en) 2013-03-14 2015-12-29 Microsoft Technology Licensing, Llc Monochromatic edge geometry reconstruction through achromatic guidance
JP6263035B2 (ja) 2013-05-17 2018-01-17 キヤノン株式会社 撮像装置
US9692992B2 (en) 2013-07-01 2017-06-27 Omnivision Technologies, Inc. Color and infrared filter array patterns to reduce color aliasing
CN103810675B (zh) 2013-09-09 2016-09-21 深圳市华星光电技术有限公司 图像超分辨率重构系统及方法
CN103531603B (zh) 2013-10-30 2018-10-16 上海集成电路研发中心有限公司 一种cmos图像传感器
US9438866B2 (en) 2014-04-23 2016-09-06 Omnivision Technologies, Inc. Image sensor with scaled filter array and in-pixel binning
CN103996170B (zh) 2014-04-28 2017-01-18 深圳市华星光电技术有限公司 一种具有超高解析度的图像边缘锯齿消除方法
JP6415113B2 (ja) 2014-05-29 2018-10-31 オリンパス株式会社 撮像装置、画像処理方法
US9888198B2 (en) 2014-06-03 2018-02-06 Semiconductor Components Industries, Llc Imaging systems having image sensor pixel arrays with sub-pixel resolution capabilities
CN104168403B (zh) 2014-06-27 2018-03-02 深圳市大疆创新科技有限公司 基于拜尔颜色滤波阵列的高动态范围视频录制方法和装置
US9479695B2 (en) 2014-07-31 2016-10-25 Apple Inc. Generating a high dynamic range image using a temporal filter
US9344639B2 (en) 2014-08-12 2016-05-17 Google Technology Holdings LLC High dynamic range array camera
JP5893713B1 (ja) 2014-11-04 2016-03-23 オリンパス株式会社 撮像装置、撮像方法、処理プログラム
US10013735B2 (en) 2015-01-28 2018-07-03 Qualcomm Incorporated Graphics processing unit with bayer mapping
JP6508626B2 (ja) 2015-06-16 2019-05-08 オリンパス株式会社 撮像装置、処理プログラム、撮像方法
CN105025283A (zh) 2015-08-07 2015-11-04 广东欧珀移动通信有限公司 一种新的色彩饱和度调整方法、系统及移动终端
CN105120248A (zh) 2015-09-14 2015-12-02 北京中科慧眼科技有限公司 像素阵列及相机传感器
WO2017064807A1 (ja) * 2015-10-16 2017-04-20 オリンパス株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラムおよび記憶媒体
CN105516698A (zh) * 2015-12-18 2016-04-20 广东欧珀移动通信有限公司 图像传感器的成像方法、成像装置和电子装置
CN105578072A (zh) 2015-12-18 2016-05-11 广东欧珀移动通信有限公司 成像方法、成像装置及电子装置
CN105578076A (zh) 2015-12-18 2016-05-11 广东欧珀移动通信有限公司 成像方法、成像装置及电子装置
CN105578078B (zh) 2015-12-18 2018-01-19 广东欧珀移动通信有限公司 图像传感器、成像装置、移动终端及成像方法
CN105611258A (zh) * 2015-12-18 2016-05-25 广东欧珀移动通信有限公司 图像传感器的成像方法、成像装置和电子装置
CN105578005B (zh) 2015-12-18 2018-01-19 广东欧珀移动通信有限公司 图像传感器的成像方法、成像装置和电子装置
CN105578067B (zh) 2015-12-18 2017-08-25 广东欧珀移动通信有限公司 图像生成方法、装置及终端设备
CN105611124B (zh) 2015-12-18 2017-10-17 广东欧珀移动通信有限公司 图像传感器、成像方法、成像装置及终端
CN105592303B (zh) 2015-12-18 2018-09-11 广东欧珀移动通信有限公司 成像方法、成像装置及电子装置
CN105609516B (zh) 2015-12-18 2019-04-12 Oppo广东移动通信有限公司 图像传感器及输出方法、相位对焦方法、成像装置和终端
CN105611123B (zh) * 2015-12-18 2017-05-24 广东欧珀移动通信有限公司 成像方法、图像传感器、成像装置及电子装置
JP6711612B2 (ja) 2015-12-21 2020-06-17 キヤノン株式会社 画像処理装置、画像処理方法、および撮像装置
CN105573522B (zh) * 2015-12-22 2019-10-01 广东欧珀移动通信有限公司 一种移动终端的操作方法及移动终端
US9883155B2 (en) 2016-06-14 2018-01-30 Personify, Inc. Methods and systems for combining foreground video and background video using chromatic matching
CN106454289B (zh) 2016-11-29 2018-01-23 广东欧珀移动通信有限公司 控制方法、控制装置及电子装置
CN106604001B (zh) 2016-11-29 2018-06-29 广东欧珀移动通信有限公司 图像处理方法、图像处理装置、成像装置及电子装置
CN106357967B (zh) 2016-11-29 2018-01-19 广东欧珀移动通信有限公司 控制方法、控制装置和电子装置
CN106713790B (zh) 2016-11-29 2019-05-10 Oppo广东移动通信有限公司 控制方法、控制装置及电子装置
CN106504218B (zh) 2016-11-29 2019-03-12 Oppo广东移动通信有限公司 控制方法、控制装置及电子装置
CN106507068B (zh) 2016-11-29 2018-05-04 广东欧珀移动通信有限公司 图像处理方法及装置、控制方法及装置、成像及电子装置
CN106506984B (zh) 2016-11-29 2019-05-14 Oppo广东移动通信有限公司 图像处理方法及装置、控制方法及装置、成像及电子装置
CN106412592B (zh) 2016-11-29 2018-07-06 广东欧珀移动通信有限公司 图像处理方法、图像处理装置、成像装置及电子装置
CN106488203B (zh) 2016-11-29 2018-03-30 广东欧珀移动通信有限公司 图像处理方法、图像处理装置、成像装置及电子装置
CN106507019B (zh) 2016-11-29 2019-05-10 Oppo广东移动通信有限公司 控制方法、控制装置、电子装置
CN106507069B (zh) 2016-11-29 2018-06-05 广东欧珀移动通信有限公司 控制方法、控制装置及电子装置
US20180357750A1 (en) 2017-06-07 2018-12-13 Mediatek Inc. Demosaicking for multi-cell image sensor

Also Published As

Publication number Publication date
US10440265B2 (en) 2019-10-08
EP3327664B1 (en) 2019-10-02
US10447925B2 (en) 2019-10-15
US20190089896A1 (en) 2019-03-21
US20180152633A1 (en) 2018-05-31
WO2018098983A1 (zh) 2018-06-07
CN106507068B (zh) 2018-05-04
CN106507068A (zh) 2017-03-15
EP3327664A1 (en) 2018-05-30

Similar Documents

Publication Publication Date Title
ES2757506T3 (es) Procedimiento y aparato de procesamiento, dispositivo electrónico y procedimiento de control
ES2774493T3 (es) Procedimiento y aparato de procesamiento de imágenes, y dispositivo electrónico
ES2769306T3 (es) Procedimiento y aparato de procesamiento de imágenes y dispositivo electrónico
ES2761401T3 (es) Procesamiento, aparato y dispositivo electrónico de procesamiento de imágenes
ES2748572T3 (es) Método y aparato de procesamiento de imágenes, y dispositivo electrónico
ES2752655T3 (es) Procedimiento y aparato de procesamiento de imágenes, y dispositivo electrónico
ES2734072T3 (es) Método y aparato de tratamiento de imágenes y dispositivo electrónico
US10257447B2 (en) Imaging method, imaging device, and electronic device
AU2016369789B2 (en) Image sensor, imaging device, mobile terminal and imaging method
US10380717B2 (en) Image processing method and apparatus, and electronic device
ES2732973T3 (es) Método y aparato de procesamiento de imagen y dispositivo electrónico
ES2731695T3 (es) Método de control y aparato electrónico
US10290079B2 (en) Image processing method and apparatus, and electronic device
US10282817B2 (en) Image processing method and apparatus, and electronic device
US10630919B2 (en) Image sensing apparatus and black level correction method thereof and computer readable medium
JP2011101419A (ja) 画像処理装置、コンピュータ読み取り可能な記憶媒体及びデジタル撮影装置