ES2761401T3 - Procesamiento, aparato y dispositivo electrónico de procesamiento de imágenes - Google Patents

Procesamiento, aparato y dispositivo electrónico de procesamiento de imágenes Download PDF

Info

Publication number
ES2761401T3
ES2761401T3 ES17198892T ES17198892T ES2761401T3 ES 2761401 T3 ES2761401 T3 ES 2761401T3 ES 17198892 T ES17198892 T ES 17198892T ES 17198892 T ES17198892 T ES 17198892T ES 2761401 T3 ES2761401 T3 ES 2761401T3
Authority
ES
Spain
Prior art keywords
pixel
image
simulation
unit
photosensitive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17198892T
Other languages
English (en)
Inventor
Cheng Tang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Application granted granted Critical
Publication of ES2761401T3 publication Critical patent/ES2761401T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3871Composing, repositioning or otherwise geometrically modifying originals the composed originals being of different kinds, e.g. low- and high-resolution originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/585Control of the dynamic range involving two or more exposures acquired simultaneously with pixels having different sensitivities within the sensor, e.g. fast or slow pixels or pixels having different sizes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/0142Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes the interpolation being edge adaptive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2209/00Details of colour television systems
    • H04N2209/04Picture signal generators
    • H04N2209/041Picture signal generators using solid-state devices
    • H04N2209/042Picture signal generators using solid-state devices having a single pick-up sensor
    • H04N2209/045Picture signal generators using solid-state devices having a single pick-up sensor using mosaic colour filter
    • H04N2209/046Colour interpolation to calculate the missing colour values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/62Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

Un procedimiento de procesamiento de imagen para un dispositivo electrónico, en el que el dispositivo electrónico comprende un aparato de procesamiento de imágenes que comprende un sensor de imagen (21), el sensor de imagen (21) comprende una matriz (212) de unidades de píxeles fotosensibles (212a) y una matriz (211) de unidades de filtro (211a) dispuestas en la matriz (212) de unidades de píxeles fotosensibles (212a), las unidades de filtro están dispuestas en un mosaico de Bayer, cada unidad de filtro (211a) corresponde a una unidad de píxeles fotosensibles ( 212a), y cada unidad de píxeles fotosensibles (212a) comprende múltiples píxeles fotosensibles (21211) adyacentes entre sí y con el mismo color, el procedimiento de procesamiento de imágenes comprende: controlar (11) el sensor de imagen (21) para generar una imagen de bloques de color, en el que la imagen de bloques de color comprende unidades de píxeles de imagen dispuestas en una matriz preestablecida, en donde la matriz preestablecida comprende el mosaico de Bayer, cada unidad de píxeles de imagen corresponde a una unidad de píxeles fotosensibles (212a), cada unidad de píxeles de imagen comprende múltiples píxeles originales adyacentes entre sí, y cada píxel fotosensible (21211) corresponde a un píxel original; determinar (12) un área predeterminada en la imagen de bloques de color de acuerdo con una entrada del usuario; convirtiendo (13) una primera parte de la imagen de bloques de color en una primera imagen de simulación usando un primer algoritmo de interpolación, en el que la primera parte de la imagen de bloques de color está en el área predeterminada, la primera imagen de simulación comprende primero píxeles de simulación dispuestos en el mosaico de Bayer, y cada píxel fotosensible (21211) corresponde a un primer píxel de simulación; convertir (14) una segunda parte de la imagen de bloques de color en una segunda imagen de simulación usando un segundo algoritmo de interpolación, en el que la segunda parte de la imagen de bloques de color está fuera del área predeterminada, la segunda imagen de simulación comprende segundos píxeles de simulación dispuestos en el mosaico de Bayer, cada píxel fotosensible (21211) corresponde a un segundo píxel de simulación, y la complejidad del segundo algoritmo de interpolación es menor que la del primer algoritmo de interpolación; y fusionar (15) la primera imagen de simulación y la segunda imagen de simulación para generar una imagen de simulación correspondiente a la imagen de bloques de color.

Description

DESCRIPCIÓN
Procesamiento, aparato y dispositivo electrónico de procesamiento de imágenes.
Campo
La presente divulgación se refiere al campo de la tecnología de imágenes y, más particularmente, a un procedimiento de procesamiento de imágenes, a un aparato de procesamiento de imágenes y a un dispositivo electrónico.
Antecedentes
Cuando es procesada una imagen utilizando un procedimiento de procesamiento de imagen convencional, la imagen obtenida tiene, ya sea una baja resolución o se necesita mucho tiempo y demasiados recursos para obtener una imagen con alta resolución, ambas situaciones son un inconveniente para los usuarios.
El documento US 2009/200451 A1 se refiere a sensores de imagen y a procedimientos para operar sensores de imagen. Un sensor de imagen incluye una matriz de píxeles y una matriz de filtros de color dispuestos sobre la matriz de píxeles de modo que cada filtro de color diferente esté dispuesto sobre múltiples píxeles. Un procedimiento para operar un sensor de imagen que incluye una matriz de bloques de dos por dos de píxeles de un solo color que incluye determinar un nivel de luz incidente, determinar un valor de luz incidente correspondiente al nivel de luz incidente y comparar el valor de luz incidente con un valor umbral predeterminado. Si el valor de la luz incidente es menor que el valor umbral predeterminado, se lee una señal fusionada de los bloques de dos por dos. Si el valor de la luz incidente es menor que el valor umbral predeterminado, se lee una señal individual de cada píxel.
El documento EP 2 753 082 A1 se refiere a un dispositivo de procesamiento de imágenes, un procedimiento de procesamiento de imágenes para llevar a cabo el procesamiento de interpolación cromática para realizar la conversión en una imagen de una matriz de píxeles diferente.
Divulgación
La presente divulgación tiene como objetivo resolver al menos uno de los problemas existentes en la técnica relacionada al menos en cierta medida. Por consiguiente, la presente divulgación proporciona un procedimiento de procesamiento de imágenes, un aparato de procesamiento de imágenes y un dispositivo electrónico.
Las realizaciones de la presente divulgación proveen un procedimiento de procesamiento de imágenes para un dispositivo electrónico. El dispositivo electrónico incluye un aparato de imagen que incluye un sensor de imagen. El sensor de imagen incluye una matriz de unidades de píxeles fotosensibles y una matriz de unidades de filtro dispuestas en la matriz de unidades de píxeles fotosensibles. Las unidades de filtro están dispuestas en un mosaico de Bayer. Cada unidad de filtro corresponde a una unidad de píxeles fotosensibles, y cada unidad de píxeles fotosensibles incluye múltiples píxeles fotosensibles que son adyacentes entre sí y tienen un mismo color. El procedimiento de procesamiento de imagen incluye: controlar el sensor de imagen para generar una imagen de bloques de color, en el que la imagen de bloques de color incluye unidades de píxeles de imagen dispuestas en una matriz predeterminada, la matriz predeterminada comprende el mosaico de Bayer, cada unidad de píxeles de imagen corresponde a una unidad de píxel fotosensible, cada unidad de píxel de imagen incluye múltiples píxeles originales adyacentes entre sí, y cada píxel fotosensible corresponde a un píxel original; determinar un área predeterminada en la imagen de bloques de color de acuerdo con una entrada del usuario; convertir una primera parte de la imagen de bloques de color en una primera imagen de simulación usando un primer algoritmo de interpolación, en el cual, la primera parte de la imagen de bloques de color está en el área predeterminada, la primera imagen de simulación incluye los primeros píxeles de simulación dispuestos en el mosaico de Bayer, y cada píxel fotosensible corresponde a un primer píxel de simulación; convertir una segunda parte de la imagen de bloques de color en una segunda imagen de simulación usando un segundo algoritmo de interpolación, en el cual, una complejidad del segundo algoritmo de interpolación es menor que la del primer algoritmo de interpolación, la segunda parte de la imagen de bloques de color está fuera del área predeterminada, la segunda imagen de simulación incluye segundos píxeles de simulación dispuestos en el mosaico de Bayer, y cada píxel fotosensible corresponde a un segundo píxel de simulación; y fusionar la primera imagen de simulación y la segunda imagen de simulación para generar una imagen de simulación correspondiente a la imagen de bloques de color.
Las realizaciones de la presente divulgación proporcionan además un aparato de procesamiento de imágenes. El aparato de procesamiento de imágenes es adecuado para ser aplicado en un dispositivo electrónico. El dispositivo electrónico incluye un aparato de imagen que incluye un sensor de imagen. El sensor de imagen incluye una matriz de unidades de píxeles fotosensibles y una matriz de unidades de filtro dispuestas en la matriz de unidades de píxeles fotosensibles. Las unidades de filtro están dispuestas en un mosaico de Bayer. Cada unidad de filtro corresponde a una unidad de píxeles fotosensibles, y cada unidad de píxeles fotosensibles incluye múltiples píxeles fotosensibles que son adyacentes entre sí y tienen un mismo color. El aparato de procesamiento de imágenes incluye un módulo de control, un módulo de determinación, un primer módulo de conversión, un segundo módulo de conversión y un módulo de fusión. El módulo de control está configurado para controlar el sensor de imagen para generar una imagen de bloques de color. La imagen de bloques de color incluye unidades de píxeles de imagen dispuestas en una matriz preestablecida. La matriz predeterminada comprende el mosaico de Bayer. Cada unidad de píxel de imagen corresponde a una unidad de píxeles fotosensibles. Cada unidad de píxel de imagen incluye múltiples píxeles originales adyacentes entre sí, y cada píxel fotosensible corresponde a un píxel original. El módulo de determinación está configurado para determinar un área predeterminada en la imagen de bloques de color de acuerdo con una entrada del usuario. El primer módulo de conversión está configurado para convertir una primera parte de la imagen de bloques de color en una primera imagen de simulación utilizando un primer algoritmo de interpolación. La primera parte de la imagen de bloques de color está en el área predeterminada. La primera imagen de simulación incluye los primeros píxeles de simulación dispuestos en un mosaico de Bayer, y cada píxel fotosensible corresponde a un primer píxel de simulación. El segundo módulo de conversión está configurado para convertir una segunda parte de la imagen de bloques de color en una segunda imagen de simulación utilizando un segundo algoritmo de interpolación. La segunda parte de la imagen de bloques de color está fuera del área predeterminada. Una complejidad del segundo algoritmo de interpolación es menor a la del primer algoritmo de interpolación. La segunda imagen de simulación incluye los segundos píxeles de simulación dispuestos en un mosaico de Bayer, y cada píxel fotosensible corresponde a un segundo píxel de simulación. El módulo de fusión está configurado para fusionar la primera imagen de simulación y la segunda imagen de simulación en una imagen de simulación correspondiente a la imagen de bloques de color.
Las realizaciones de la presente divulgación proporcionan un dispositivo electrónico. El dispositivo electrónico incluye una carcasa, un procesador, una memoria, una placa de circuito impreso, un circuito de suministro eléctrico y un aparato de imágenes y un componente de entrada. La placa de circuito impreso se encuentra dentro de la carcasa. El procesador y la memoria están ubicados en la placa de circuito impreso. El circuito de suministro eléctrico está configurado para suministrar electricidad a los respectivos circuitos o componentes del dispositivo electrónico. El componente de entrada está configurado para recibir una entrada del usuario. El aparato de imágenes incluye un sensor de imagen. El sensor de imagen incluye una matriz de unidades de píxeles fotosensibles y una matriz de unidades de filtro dispuestas en la matriz de unidades de píxeles fotosensibles. Las unidades de filtro están dispuestas en un mosaico de Bayer. Cada unidad de filtro corresponde a una unidad de píxeles fotosensibles, y cada unidad de píxeles fotosensibles incluye múltiples píxeles fotosensibles que son adyacentes entre sí y tienen un mismo color. La memoria está configurada para almacenar códigos de programa ejecutables. El procesador está configurado para ejecutar un programa correspondiente a los códigos de programa ejecutables leyendo los códigos de programa ejecutables almacenados en la memoria, para realizar el procedimiento de procesamiento de imágenes de acuerdo con las realizaciones de la presente divulgación.
Los aspectos y ventajas adicionales de las realizaciones de la presente divulgación se darán en parte en las siguientes descripciones, se harán evidentes en parte a partir de las siguientes descripciones, o se aprenderán de la práctica de las realizaciones de la presente divulgación.
Breve descripción de los dibujos
Estos y otros aspectos y ventajas de las realizaciones de la presente divulgación se harán evidentes y se apreciarán más fácilmente a partir de las siguientes descripciones hechas con referencia a los dibujos.
Fig. 1 es un diagrama de flujo de un procedimiento de procesamiento de imágenes de acuerdo con una realización de la presente divulgación.
Fig. 2 es un diagrama de bloques de un sensor de imagen de acuerdo con una realización de la presente divulgación.
Fig. 3 es un diagrama esquemático de un sensor de imagen de acuerdo con una realización de la presente divulgación.
Fig. 4 es un diagrama esquemático que ilustra un circuito de un sensor de imagen de acuerdo con una realización de presente divulgación.
Fig. 5 es un diagrama esquemático de una matriz de unidades de filtro de acuerdo con una realización de la presente divulgación.
Fig. 6 es un diagrama esquemático de una imagen fusionada de acuerdo con una realización de la presente divulgación.
Fig. 7 es un diagrama esquemático de una imagen de bloques de color de acuerdo con una realización de la presente divulgación.
Fig. 8 es un diagrama de flujo que ilustra un proceso de conversión de una parte de una imagen de bloques de color en una primera imagen de simulación de acuerdo con una realización de la presente divulgación.
Fig. 9 es un diagrama esquemático que ilustra un proceso de conversión de una parte de una imagen de bloques de color en una primera imagen de simulación de acuerdo con una realización de la presente divulgación.
Fig. 10 es un diagrama de flujo que ilustra un proceso de determinación de un valor de píxel de un primer píxel de simulación de acuerdo con un valor de píxel de un píxel de asociación de acuerdo con una realización de la presente divulgación.
Fig. 11 es un diagrama de flujo que ilustra un proceso de conversión de una segunda parte de una imagen de bloques de color en una segunda imagen de simulación de acuerdo con una realización de la presente divulgación.
Fig. 12 es un diagrama esquemático que ilustra un proceso de conversión de una segunda parte de una imagen de bloques de color en una segunda imagen de simulación de acuerdo con una realización de la presente divulgación.
Fig. 13 es un diagrama de flujo que ilustra la determinación de un área predeterminada de acuerdo con una realización de la presente divulgación.
Fig. 14 es un diagrama de flujo que ilustra la determinación de un área predeterminada de acuerdo con una realización de la presente divulgación.
Fig. 15 es un diagrama esquemático de la determinación de un área predeterminada de acuerdo con una realización de la presente divulgación.
Fig. 16 es un diagrama de flujo de la determinación de un área predeterminada de acuerdo con otra realización de la presente divulgación.
Fig. 17 es un diagrama esquemático de la determinación de un área predeterminada de acuerdo con otra realización de la presente divulgación.
Fig. 18 es un diagrama de flujo de un procedimiento de procesamiento de imágenes de acuerdo con una realización de la presente divulgación.
Fig. 19 es un diagrama de flujo de un procedimiento de procesamiento de imágenes de acuerdo con una realización de la presente divulgación.
Fig. 20 es un diagrama de bloques de un aparato de procesamiento de imágenes de acuerdo con una realización de la presente divulgación.
Fig. 21 es un diagrama de bloques de un módulo de determinación de acuerdo con una realización de la presente divulgación.
Fig. 22 es un diagrama de bloques de una primera unidad de procesamiento de acuerdo con una realización de la presente divulgación.
Fig. 23 es un diagrama de bloques de una primera unidad de procesamiento de acuerdo con una realización de la presente divulgación.
Fig. 24 es un diagrama de bloques de un primer módulo de conversión de acuerdo con otra realización de la presente divulgación.
Fig. 25 es un diagrama de bloques de una tercera unidad de procesamiento de acuerdo con otra realización de la presente divulgación.
Fig. 26 es un diagrama de bloques de un aparato de procesamiento de imágenes de acuerdo con una realización de la presente divulgación.
Fig. 27 es un diagrama de bloques de un aparato de procesamiento de imágenes de acuerdo con una realización de la presente divulgación.
Fig. 28 es un diagrama de bloques de un dispositivo electrónico de acuerdo con una realización de la presente divulgación.
Realizaciones de la presente divulgación
Ahora se hará referencia en detalle a realizaciones ejemplares, ejemplos de los cuales se ilustran en los dibujos adjuntos, en los que los mismos o similares números de referencia a lo largo de los dibujos representan los mismos elementos o elementos que tienen funciones iguales o similares. Las realizaciones descritas a continuación con referencia a los dibujos son meramente ejemplares y se usan para explicar la presente divulgación, y no deben entenderse como una limitación de la presente divulgación.
En la técnica relacionada, un sensor de imagen incluye una matriz de unidades de píxeles fotosensibles y una matriz de unidades de filtro dispuestas en la matriz de la unidad de píxeles fotosensibles. Cada unidad de filtro corresponde a y cubre una unidad de píxeles fotosensibles, y cada unidad de píxeles fotosensibles incluye múltiples píxeles fotosensibles. Al funcionar, el sensor de imagen es controlado para generar una imagen fusionada. La imagen fusionada incluye una matriz de píxeles fusionados, y múltiples píxeles fotosensibles en una misma unidad de píxeles fotosensibles se generan de forma colectiva como un píxel fusionado. Por lo tanto, se incrementa la relación señal/ruido de la imagen fusionada. Sin embargo, se reduce la resolución de la imagen fusionada.
Ciertamente, el sensor de imagen puede controlarse para generar una imagen de bloques de color de píxeles altos, que incluye una matriz de píxeles originales, y cada píxel fotosensible corresponde a un píxel original. Sin embargo, dado que múltiples píxeles originales correspondientes a una misma unidad de filtro tienen el mismo color, la resolución de la imagen de bloques de color todavía no puede aumentarse. Por lo tanto, la imagen de bloques de color de píxeles altos debe convertirse en una imagen de simulación de píxeles altos a través de un algoritmo de interpolación, en el que la imagen de simulación incluya un mosaico de Bayer de píxeles de simulación. Entonces, la imagen de simulación puede convertirse en una imagen de color verdadero de simulación a través de un procedimiento de procesamiento de imagen y guardarse. El algoritmo de interpolación puede mejorar la resolución de la imagen de color verdadero. Sin embargo, el algoritmo de interpolación consume recursos y tiempo, lo que resulta en un tiempo de toma más prolongado y una experiencia de usuario deficiente. En otro aspecto, en aplicaciones específicas, el usuario solo le presta atención a la resolución de la parte principal de la imagen en color verdadero.
Por lo tanto, las realizaciones de la presente divulgación proporcionan un nuevo procedimiento de procesamiento de imágenes.
Con referencia a la Fig. 1 se ilustra un procedimiento de procesamiento de imágenes. El procedimiento de procesamiento de imágenes es aplicado en un dispositivo electrónico. El dispositivo electrónico incluye un aparato de imagen que incluye un sensor de imagen. El sensor de imagen 21 ilustrado en la Fig. 2 incluye una matriz de unidades de píxeles fotosensibles 212 y una matriz de unidades de filtro 211 dispuestas en la matriz de unidades de píxeles fotosensibles 212.Como se ilustra en la Fig. 3, cada unidad de filtro 211a corresponde y cubre una unidad de píxel fotosensible 212a, y cada unidad de píxel fotosensible 212a incluye múltiples píxeles fotosensibles 2121. El procedimiento de procesamiento de imágenes incluye lo siguiente.
En el bloque 11, el sensor de imagen se controla para generar una imagen de bloques de color.
La imagen de bloques de color incluye unidades de píxeles de imagen dispuestas en una matriz preestablecida. Cada unidad de píxeles de imagen incluye múltiples píxeles originales. Cada unidad de píxeles fotosensibles 212a corresponde a una unidad de píxel de imagen, y cada píxel fotosensible corresponde a un píxel original.
En el bloque 12, se determina un área predeterminada en la imagen de bloques de color de acuerdo con una entrada del usuario.
En el bloque 13, una primera parte de la imagen de bloques de color es convertida en una primera imagen de simulación utilizando un primer algoritmo de interpolación.
La primera parte de la imagen de bloques de color está en el área predeterminada. La primera imagen de simulación incluye los primeros píxeles de simulación dispuestos en un mosaico de Bayer, y cada píxel fotosensible corresponde a un primer píxel de simulación.
En el bloque 14, una segunda parte de la imagen de bloques de color es convertida en una primera imagen de simulación utilizando un segundo algoritmo de interpolación.
La segunda parte de la imagen de bloques de color está fuera del área predeterminada. La segunda imagen de simulación incluye los segundos píxeles de simulación dispuestos en una matriz preestablecida, y cada píxel fotosensible corresponde a un segundo píxel de simulación.
En el bloque 15, la primera imagen de simulación y la segunda imagen de simulación se fusionan para generar una imagen de simulación correspondiente a la imagen de bloques de color.
Con el procedimiento de procesamiento de imágenes de acuerdo con las realizaciones de la presente divulgación, la primera parte de la imagen de bloques de color en el área predeterminada y la segunda parte de la imagen de bloques de color fuera del área predeterminada se procesan usando el primer algoritmo de interpolación y el segundo algoritmo de interpolación, respectivamente. La complejidad del primer algoritmo de interpolación es mayor que la del segundo algoritmo de interpolación. Por lo tanto, en la toma real, al realizar el procesamiento de la imagen solo en una parte de la imagen utilizando el primer algoritmo de interpolación con gran complejidad, los datos y el tiempo necesarios para el procesamiento de la imagen pueden reducirse de manera efectiva, la resolución de la imagen de la parte principal (es decir, la primera parte de la imagen de bloques de color) puede mejorarse y así se mejora la experiencia del usuario. La Fig. 4 es un diagrama esquemático que ilustra un circuito de un sensor de imagen de acuerdo con una realización de la 5 presente descripción. La Fig. 5 es un diagrama esquemático de una matriz de unidades de filtro de acuerdo con una realización de la presente divulgación. Las Figs. 2-5 se observan mejor juntas.
Con referencia a las Figs. 2-5, el sensor de imagen 21 de acuerdo con una realización de la presente divulgación incluye una matriz 212 de unidades de píxeles fotosensibles y una matriz 211 de unidades de filtro dispuestas en la matriz 212 de unidades de píxeles fotosensibles.
Además, la matriz 212 de unidades de píxeles fotosensibles incluye múltiples unidades de píxeles fotosensibles 212a. Cada unidad de píxeles fotosensibles 212a incluye múltiples píxeles fotosensibles adyacentes 2121.Cada píxel fotosensible 2121 incluye un elemento fotosensible 21211 y un tubo de transmisión 21212. El elemento fotosensible 21211 puede ser un fotodiodo, y el tubo de transmisión 21212 puede ser un transistor MOSFET.
La matriz 211 de unidades de filtro incluye múltiples unidades de filtro 211a. Cada unidad de filtro 211a corresponde a una unidad de píxeles fotosensibles 212a.
En detalle, en algunos ejemplos, las unidades de filtro están dispuestas en un mosaico de Bayer. En otras palabras, cuatro unidades de filtro adyacentes 211a incluyen una unidad de filtro roja, una unidad de filtro azul y dos unidades de filtro verdes.
Cada unidad de píxel fotosensible 212a corresponde a una unidad de filtro 211a con el mismo color. Si una unidad de píxeles fotosensibles 212a incluye n elementos fotosensibles adyacentes 21211, una unidad de filtro 211a cubre n elementos fotosensibles 21211 en una unidad de píxeles fotosensibles 210a. La unidad de filtro 211a puede formarse integralmente, o puede formarse ensamblando n sub-filtros separados.
En algunas implementaciones, cada unidad de píxeles fotosensibles 212a incluye cuatro píxeles fotosensibles adyacentes 2121. Dos píxeles fotosensibles adyacentes 2121 forman de forma colectiva una sub-unidad de píxeles fotosensibles 2120. La sub-unidad de píxeles fotosensibles 2120 incluye además un seguidor de fuente 21213 y un convertidor de señal analógico a digital 21214. La unidad de píxel fotosensible 212a incluye además un sumador 2122. Un primer electrodo de cada tubo de transmisión 21212 en la sub-unidad de píxeles fotosensibles 2120 está acoplado a un electrodo catódico de un elemento fotosensible 21211 correspondiente. Los segundos electrodos de todos los tubos de transmisión 21212 se acoplan colectivamente a un electrodo de puerta del seguidor de fuente 21213 y se acoplan a un convertidor de señal analógico a digital 21214 a través del electrodo de fuente del seguidor de fuente 21213. El seguidor de fuente 21213 puede ser un transistor MOSFET. Dos sub-unidades de píxeles fotosensibles 2120 se acoplan al sumador 2122 a través de los respectivos seguidores de fuente 21213 y de los respectivos convertidores de señal analógico a digital 21214.
En otras palabras, cuatro elementos adyacentes fotosensibles 21211 en una unidad de píxeles fotosensibles 212a del sensor de imagen 21 de acuerdo con una realización de la presente divulgación usan de forma colectiva una unidad de filtro 211a con el mismo color que la unidad de píxeles fotosensibles. Cada elemento fotosensible 21211 está acoplado a un tubo de transmisión 21212 correspondientemente. Dos elementos fotosensibles adyacentes 21211 usan de forma colectiva un seguidor de fuente 21213 y un convertidor de señal analógico a digital 21214. Cuatro elementos fotosensibles adyacentes 21211 usan de forma colectiva un sumador 2122.
Además, cuatro elementos fotosensibles adyacentes 21211 están dispuestos en una matriz de 2 por 2. Dos elementos fotosensibles 21211 en una sub-unidad de píxeles fotosensibles 2120 pueden estar en una misma hilera.
Durante un proceso de obtención de imágenes, cuando dos sub-unidades de píxeles fotosensibles 2120 o cuatro elementos fotosensibles 21211 cubiertos por una misma unidad de filtro 211a se exponen de forma simultánea, los píxeles pueden fusionarse y puede generarse la imagen fusionada.
En detalle, el elemento fotosensible 21211 está configurado para convertir la luz en cargas, y la cantidad de cargas es proporcional a una intensidad de iluminación. El tubo de transmisión 21212 está configurado para controlar un circuito para encender o apagar de acuerdo con una señal de control. Cuando se enciende el circuito, el seguidor de fuente 21213 está configurado para convertir la carga generada a través de iluminación de la luz en una señal de voltaje. El convertidor de señal analógico a digital 21214 está configurado para convertir la señal de voltaje en una señal digital. El sumador 2122 está configurado para agregar y emitir dos señales digitales para su procesamiento a través de un módulo de imagen conectado con el sensor de imagen 21.
Con referencia a la Fig. 6, se toma como ejemplo un sensor de imagen 21 de 16M. El sensor de imagen 21 de acuerdo con una realización de la presente divulgación puede fusionar píxeles fotosensibles de 16M en píxeles fotosensibles de 4M, es decir, el sensor de imagen 21 genera la imagen fusionada. Después de la fusión, el píxel fotosensible se cuadruplica en tamaño, de tal modo que aumenta la fotosensibilidad del píxel fotosensible. Además, dado que la mayor parte del ruido en el sensor de imagen 21 es aleatorio, puede haber puntos de ruido en uno o dos píxeles. Después de que cuatro píxeles fotosensibles se fusionan en un gran píxel fotosensible, se reduce el efecto de los puntos de ruido en el gran píxel fotosensible, es decir, el ruido se debilita y se mejora la SNR (relación señal / ruido).
Sin embargo, cuando aumenta el tamaño del píxel fotosensible, disminuye el número de píxeles y, por lo tanto, disminuye la resolución de la imagen fusionada.
Durante un proceso de obtención de imágenes, cuando cuatro elementos fotosensibles 21211 cubiertos por una misma unidad de filtro 211a se exponen en secuencia, puede generarse una imagen de bloques de color.
En detalle, el elemento fotosensible 21211 está configurado para convertir la luz en cargas, y la cantidad de cargas es proporcional a una intensidad de iluminación. El tubo de transmisión 21212 está configurado para controlar un circuito para encender o apagar de acuerdo con una señal de control. Cuando se enciende el circuito, el seguidor de fuente 21213 está configurado para convertir la carga generada a través del elemento fotosensible 21211 bajo iluminación de la luz en una señal de voltaje. El convertidor de señal analógico a digital 21214 está configurado para convertir la señal de voltaje en una señal digital para su procesamiento por el módulo de imágenes conectado con el sensor de imagen 21.
Con referencia a la Fig. 7, se toma como ejemplo un sensor de imagen 21 de 16M. El sensor de imagen 21 de acuerdo con una realización de la presente divulgación puede generar píxeles fotosensibles de 16M, es decir, el sensor de imagen 21 genera la imagen de bloques de color. La imagen de bloques de color incluye unidades de píxeles de imagen. La unidad de píxeles de imagen incluye píxeles originales dispuestos en una matriz de 2 por 2. El tamaño del píxel original es el mismo que el del píxel fotosensible. Sin embargo, dado que la unidad de filtro 211a que cubre cuatro elementos fotosensibles adyacentes 21211 tiene un mismo color (es decir, aunque cuatro elementos fotosensibles 21211 estén expuestos respectivamente, la unidad de filtro 211a que cubre los cuatro elementos fotosensibles tiene un mismo color), cuatro píxeles originales adyacentes en cada unidad de píxel de imagen de la imagen de generación tienen el mismo color y, por lo tanto, no puede aumentarse la resolución de la imagen.
El procedimiento de procesamiento de imágenes de acuerdo con una realización de la presente divulgación es capaz de procesar la imagen de bloques de color de generación para obtener la imagen de simulación.
En algunas realizaciones, cuando se genera una imagen fusionada, pueden generarse cuatro píxeles fotosensibles adyacentes con el mismo color como un píxel fusionado. En consecuencia, cuatro píxeles fotosensibles adyacentes en la imagen fusionada pueden considerarse como dispuestos en un mosaico de Bayer típico, y pueden procesarse directamente para generar una imagen fusionada de color verdadero. Cuando se genera una imagen de bloques de color, cada píxel fotosensible se genera por separado. Dado que cuatro píxeles fotosensibles adyacentes tienen el mismo color, cuatro píxeles originales adyacentes en una unidad de píxeles de imagen tienen un mismo color, que forman un mosaico de Bayer atípico. Sin embargo, el mosaico de Bayer atípico no puede procesarse directamente. En otras palabras, cuando el sensor de imagen 21 adopta un mismo aparato para procesar la imagen, a fin de lograr una compatibilidad de las generaciones de imagen en color verdadero en los dos modos (es decir, la imagen en color verdadero fusionada en un modo fusionado y la simulación imagen de color verdadero en un modo de bloque de color), es necesario convertir la imagen de bloques de color en la imagen de simulación, o convertir las unidades de píxeles de la imagen en un mosaico de Bayer atípico en píxeles dispuestos en el mosaico de Bayer típico.
Para la primera parte de la imagen de bloques de color en el área predeterminada, los píxeles originales se convierten en primeros píxeles de simulación en el mosaico de Bayer utilizando el primer algoritmo de interpolación. Con referencia a la Fig. 8, en algunas implementaciones, la acción en el bloque 13 incluye lo siguiente.
En el bloque 131, se determina si un color de un primer píxel de simulación es idéntico al de un píxel original en la misma posición que el primer píxel de simulación; en caso afirmativo, se ejecuta una acción en el bloque 132; de lo contrario, se ejecuta una acción en el bloque 133.
En el bloque 132, un valor de píxel del píxel original se determina como un valor de píxel del primer píxel de simulación. En el bloque 133, un valor de píxel del primer píxel de simulación se determina de acuerdo con un valor de píxel de un píxel de asociación.
El píxel de asociación se selecciona de una unidad de píxel de imagen con el mismo color que el primer píxel de simulación y adyacente al píxel original.
Con referencia a la Fig. 9, se ilustra el primer algoritmo de interpolación. Para los primeros píxeles de simulación R3'3 'y R5'5', los píxeles originales correspondientes son R33 y B55.
Cuando se obtiene el primer píxel de simulación R3'3', dado que el primer píxel de simulación R3'3' tiene un mismo color al del píxel original R33 correspondiente, el valor de píxel del píxel original R33 se determina directamente como el valor de píxel del primer píxel de simulación R3'3' durante la conversión.
Cuando se obtiene el primer píxel de simulación R5'5', dado que el primer píxel de simulación R5'5' tiene un color diferente al del píxel original B55 correspondiente, el valor de píxel del píxel original B55 no puede determinarse directamente como el valor de píxel del primer píxel de simulación R5'5', y se requiere calcular el valor de píxel del primer píxel de simulación R5'5' de acuerdo con un píxel de asociación del píxel de simulación R5'5' por el primer algoritmo de interpolación.
Cabe señalar que, un valor de píxel de un píxel mencionado en el contexto debe entenderse en un sentido amplio como un valor de atributo de color del píxel, como un valor de color.
El píxel de asociación se selecciona de una unidad de píxel de asociación. Puede haber más de una unidad de píxel de asociación para cada primer píxel de simulación, por ejemplo, puede haber cuatro unidades de píxel de asociación, en las que las unidades de píxel de asociación tienen el mismo color que el primer píxel de simulación y son adyacentes al píxel original en la misma posición que el primer píxel de simulación.
Cabe señalar que, "adyacente" en el presente documento debe entenderse en un sentido amplio. Si se toma la Fig. 9 como ejemplo, el primer píxel de simulación R5'5‘ corresponde al píxel original B55. Las unidades de píxel de imagen 400, 500, 600 y 700 se seleccionan como unidades de píxel de asociación, pero otras unidades de píxel de imagen rojas lejos de la unidad de píxel de imagen donde se encuentra el píxel original B55 no se seleccionan como unidades de píxel de asociación. En cada unidad de píxel de asociación, el píxel original rojo más cercano al píxel original B55 se selecciona como píxel de asociación, lo que significa que los píxeles de asociación del primer píxel de simulación R5'5‘ incluyen los píxeles originales R44, R74, R47 y R77. El primer píxel de simulación R5'5‘ es adyacente a y tiene el mismo color que los píxeles originales R44, R74, R47 y R77.
Con referencia a la figura 10, en algunas implementaciones, la acción en el bloque 133 (es decir, determinar el valor de píxel del primer píxel de simulación de acuerdo con un valor de píxel de un píxel de asociación) incluye lo siguiente. En el bloque 1331, se calcula un cambio del color del primer píxel de simulación en cada dirección de al menos dos direcciones de acuerdo con el valor de píxel del píxel de asociación.
En el bloque 1332, se calcula un peso en cada dirección de las al menos dos direcciones de acuerdo con el cambio. En el bloque 1333, el valor de píxel del primer píxel de simulación se calcula de acuerdo con el peso y el valor de píxel del píxel de asociación.
Desde la dirección que tiene un cambio de energía menor, puede obtener un valor de referencia más alto, es decir, el peso de esta dirección en la interpolación es alto.
En algunos ejemplos, por conveniencia, solo se consideran la dirección horizontal y la dirección vertical.
El valor de píxel del primer píxel de simulación R5'5' se obtiene a través de interpolación basada en los píxeles originales R44, R74, R47 y R77. Dado que no hay un píxel original con el mismo color que el primer píxel de simulación (es decir, R) en la dirección horizontal y en la dirección vertical del píxel original R55 correspondiente al primer píxel de simulación R5'5', un componente de este color (es decir, R) en cada una de la dirección horizontal y la dirección vertical se calcula de acuerdo con los píxeles de asociación. Los componentes en la dirección horizontal son R45 y R75, y los componentes en la dirección vertical son R54 y R57. Todos los componentes pueden calcularse de acuerdo con los píxeles originales R44, R74, R47 y R77.
En el detalle, R45=R44*2/3+R47*1/3, R75=2/3*R74+1/3*R77, R54=2/3*R44+1/3*R74, R57= 2/3*R47+1/3*R77.
Se calculan respectivamente el cambio de color y el peso en cada una de las direcciones horizontal y vertical. En otras palabras, de acuerdo con el cambio de color en cada dirección, se determina el peso de referencia en cada dirección utilizada en la interpolación. El peso en la dirección con un pequeño cambio es alto, mientras que el peso en la dirección con un gran cambio es bajo. El cambio en la dirección horizontal es X1=|R45-R75|. El cambio en la dirección vertical es X2=|R54-R57|, W1=X1/ (X1+X2), W2=X2/ (X1+X2).
Después del cálculo anterior, el valor de píxel del primer píxel de simulación R5'5' puede calcularse como R5'5'=(2/3*R45+1/3*R75)*W2+(2/3*R54+1/3*R57)*W1. Puede entenderse que, si X1>X2, entonces W1>W2. El peso en la dirección horizontal es W2, y el peso en la dirección vertical es W1, viceversa.
En consecuencia, el valor de píxel del primer píxel de simulación puede ser calculado a través del primer algoritmo de interpolación. Después de los cálculos en los píxeles de asociación, los píxeles originales pueden convertirse en los primeros píxeles de simulación dispuestos en el mosaico de Bayer típico. En otras palabras, cuatro primeros píxeles de simulación adyacentes dispuestos en la matriz de 2 por 2 incluyen un píxel de simulación rojo, dos píxeles de simulación verdes y un píxel de simulación azul.
Cabe señalar que, el primer algoritmo de interpolación no se limita al procedimiento mencionado anteriormente, en el que solo se consideran los valores de píxel de píxeles con un mismo color que el primer píxel de simulación en la dirección vertical y en la dirección horizontal durante el cálculo del valor de píxel del primer píxel de simulación. En otras realizaciones, también pueden considerarse valores de píxeles de píxeles con otros colores.
Para la segunda parte de la imagen de bloques de color fuera del área predeterminada, los píxeles originales se convierten en los segundos píxeles de simulación en el mosaico de Bayer utilizando el segundo algoritmo de interpolación. Con referencia a la Fig. 11, en algunas implementaciones, la acción en el bloque 14 incluye lo siguiente. En el bloque 1402, se calcula un valor de píxel promedio de cada unidad de píxel de imagen de la segunda parte de la imagen de bloques de color.
En el bloque 1404, se determina si un color de un segundo píxel de simulación es idéntico al del píxel original en la misma posición que el segundo píxel de simulación.
En el bloque 1406, cuando el color del segundo píxel de simulación es idéntico al del píxel original en la misma posición que el segundo píxel de simulación, el valor de píxel promedio de una unidad de píxel de imagen correspondiente al píxel original se determina como un valor de píxel del segundo píxel de simulación.
En el bloque 1408, cuando el color del segundo píxel de simulación es diferente al del píxel original en la misma posición que el segundo píxel de simulación, un valor de píxel promedio de una unidad de píxel de imagen con el mismo color que el segundo píxel de simulación y más cercano al píxel original se determina como el valor de píxel del segundo píxel de simulación.
En referencia a la Fig. 12, y tomando la Fig. 12 como ejemplo, el valor de píxel de cada píxel original en la unidad de píxel de imagen se calcula como Ravg = (Rl+R2+R3+R4)/4, Gravg= (Gr1+Gr2+Gr3+Gr4)/4, Gbavg= (Gb1+Gb2+Gb3+Gb4)/4, y Bavg=(B1+B2+B3+B4)/4. Aquí, los valores de píxel de los píxeles originales R11, R12, R21 y R22 son todos iguales a Ravg, los valores de píxel de los píxeles originales Gr31, Gr32, Gr41 y Gr42 son todos iguales a Gravg, los valores de píxel de los píxeles originales Gb13, Gb14, Gb23 y Gb24 son todos iguales a Gbavg, y los valores de píxeles de los píxeles originales B33, B34, B43 y B44 son todos iguales a Bavg. Tomando el píxel de simulación B22 como ejemplo, el píxel original correspondiente es R22. Si se toma como ejemplo el segundo píxel de simulación B22, el píxel original correspondiente tiene la misma posición que el segundo píxel de simulación B22 es R22. Dado que el segundo píxel de simulación B22 tiene un color diferente al del píxel original correspondiente R22, el valor de píxel del segundo píxel de simulación B22 puede determinarse como el valor de píxel correspondiente al filtro azul más cercano, es decir, el valor de píxel Bavg de cualquiera de los píxeles originales B33, B34, B43 y B44. De manera similar, también pueden calcularse otros colores usando el segundo algoritmo de interpolación para obtener los valores de píxel de los respectivos segundos píxeles de simulación.
En consecuencia, para la parte de la imagen de bloques de color fuera del área de brillo alto, el píxel original se convierte en el segundo píxel de simulación utilizando el segundo algoritmo de interpolación. Dado que la complejidad del segundo algoritmo de interpolación es menor que la del primer algoritmo de interpolación, se reduce el tiempo requerido para el procesamiento de la imagen y se mejora la experiencia del usuario.
En diferentes partes de la imagen de bloques de color, los píxeles originales pueden ser convertidos en píxeles de simulación de diferentes maneras, y de este modo se convierte la imagen de bloques de color en la imagen de simulación. Dado que los filtros en el mosaico de Bayer se adoptan al tomar la imagen, se mejora la SNR de la imagen. Durante el procedimiento de procesamiento de imagen, el primer algoritmo de interpolación realiza el procesamiento de interpolación en la imagen de bloques de color, de tal modo que puede mejorarse la distinción y la resolución de la imagen.
Además, para la parte de la imagen dentro del área predeterminada y la parte de la imagen fuera del área predeterminada, se utilizan diferentes algoritmos de interpolación. El área predeterminada puede ser seleccionada por el usuario de muchas maneras.
Con referencia a la Fig. 13, en algunas realizaciones, la acción en el bloque 12 incluye lo siguiente.
En el bloque 121, la imagen de bloques de color es convertida en una imagen previa utilizando un tercer algoritmo de interpolación.
En el bloque 122, se controla una pantalla táctil para mostrar la imagen de vista previa.
En el bloque 123, la entrada del usuario en la pantalla táctil se recibe y se procesa para determinar el área predeterminada.
Debe entenderse que el usuario debe seleccionar el área predeterminada en la imagen de vista previa. El proceso de convertir la imagen de bloques de color en la imagen de vista previa se calcula utilizando un tercer algoritmo de interpolación. El tercer algoritmo de interpolación incluye el segundo algoritmo de interpolación y un algoritmo de interpolación bilineal. Durante la conversión, la imagen de bloques de color se convierte en la imagen de simulación con píxeles de simulación dispuestos en el mosaico de Bayer usando primero el segundo algoritmo de interpolación, y luego la imagen de simulación se convierte en la imagen de color verdadero usando el algoritmo de interpolación bilineal. De esta manera, el usuario puede obtener una vista previa de la imagen, lo que le permite seleccionar el área predeterminada.
Cabe señalar que el algoritmo de conversión de la imagen de simulación en la imagen de color verdadero no se limita al algoritmo de interpolación bilineal, y también pueden utilizarse otros algoritmos de interpolación.
Con referencia a la Fig. 14, en algunas implementaciones, la acción en el bloque 123 incluye lo siguiente.
En el bloque 1231, la imagen de vista previa se divide en unidades de extensión dispuestas en una matriz.
En el bloque 1232, la entrada del usuario se procesa para identificar una ubicación táctil.
En el bloque 1233, la unidad de extensión donde se encuentra la ubicación táctil se determina como una unidad de extensión original, y se realiza una extensión tomando la unidad de extensión original como centro.
En el bloque 1234, se calcula un valor de contraste de cada unidad de extensión que alcanza la extensión.
En el bloque 1235, la unidad de extensión se determina como una unidad de extensión de borde cuando el valor de contraste de la unidad de extensión excede un umbral preestablecido.
En el bloque 1236, un área encerrada por las unidades de extensión de borde se determina como el área predeterminada.
En el detalle, refiriéndose a la Fig. 15, y tomando la Fig. 15 como ejemplo, la ubicación táctil del usuario está representada por el punto negro. Tomando la ubicación táctil como la unidad de extensión original, se realiza una extensión hacia afuera. Cada cubo en la Fig. 15 es una unidad de extensión. El valor de contraste de cada unidad de extensión se compara con el umbral preestablecido, y la unidad de extensión cuyo valor de contraste es mayor que el umbral preestablecido se determina como la unidad de extensión de borde. En la Fig. 15, el valor de contraste de la unidad de extensión donde se encuentra el borde de la parte frontal es mayor que el umbral preestablecido, y por lo tanto las unidades de extensión donde se encuentra el borde de la parte frontal son la unidad de extensión de borde, es decir, los cubos grises son las unidades de extensión de borde. De esta manera, el área encerrada por múltiples unidades de extensión de borde se determina como el área predeterminada, y el área predeterminada es el área de procesamiento especificada por el usuario (es decir, la parte principal que llama la atención del usuario). La parte de la imagen dentro del área se procesa utilizando el primer algoritmo de interpolación, lo que mejora la resolución de la parte principal de la imagen que atrae la atención del usuario y mejora la experiencia del usuario.
Con referencia a la Fig. 16, en algunas implementaciones, la acción en el bloque 123 incluye lo siguiente.
En el bloque 1237, la entrada del usuario se procesa para identificar la ubicación táctil y una forma predeterminada. En el bloque 1238, un área con la ubicación táctil como centro y que tiene la forma predeterminada se determina como el área predeterminada.
En el detalle, con referencia a la Fig. 17, la ubicación táctil del usuario está representada por el punto negro, y un área circular se extiende hacia afuera con la ubicación táctil como el centro para generar el área predeterminada. El área predeterminada que se extiende en forma circular incluye toda el área frontal, y el área frontal puede procesarse utilizando el primer algoritmo de interpolación para mejorar la resolución del área frontal.
Debe hacerse notar que, en otras realizaciones, la forma predeterminada extendida también puede ser una forma rectangular, cuadrada u otra, y el usuario puede ajustar y arrastrar la forma predeterminada extendida de acuerdo con las necesidades reales. Además, la manera en que el usuario especifica el área predeterminada también puede incluir que el usuario dibuje directamente una forma arbitraria en la pantalla táctil como el área predeterminada, o que el usuario seleccione varios puntos en la pantalla táctil, de modo que el área encerrada por los puntos está determinada como el área predeterminada. La parte de la imagen en el área predeterminada se procesa utilizando el primer algoritmo de interpolación. Por lo tanto, la resolución de la parte principal de la imagen puede mejorarse, y se mejora así la experiencia del usuario.
Con referencia a la Fig. 18, en algunas realizaciones, antes de convertir la imagen de bloques de color en la primera imagen de simulación, el procedimiento incluye además realizar una compensación de balance de blancos en la imagen de bloques de color, como se ilustra en el bloque 134.
En consecuencia, después de convertir la imagen de bloques de color en la imagen de simulación, el procedimiento incluye además realizar una compensación inversa del balance de blancos en la imagen de simulación, como se ilustra en el bloque 135.
En el detalle, en algunos ejemplos, convirtiendo la imagen de bloques de color en la imagen de simulación, durante la interpolación, los píxeles de simulación rojo y azul no solo se refieren a los pesos de color de los píxeles originales que tienen el mismo color que los píxeles de simulación, sino que también se refieren a los pesos de color de los píxeles originales con el color verde. Por lo tanto, se requiere realizar la compensación del balance de blancos antes de la interpolación para excluir un efecto del balance de blancos en el cálculo de la interpolación. Para evitar el balance de blancos de la imagen de bloques de color, es necesario realizar la compensación inversa del balance de blancos después de la interpolación de acuerdo con los valores de ganancia de los colores rojo, verde y azul en la compensación.
De esta forma, puede excluirse el efecto del balance de blancos en el cálculo de la interpolación, y la imagen de simulación obtenida después de la interpolación puede mantener el balance de blancos de la imagen de bloques de color.
Con referencia la Fig. 18, en algunas implementaciones, antes de convertir la imagen de bloques de color en la imagen de simulación, el procedimiento incluye además realizar una compensación de punto malo en la imagen de bloques de color, como se ilustra en el bloque 136.
Puede entenderse que, limitado por el proceso de fabricación, puede haber puntos malos en el sensor de imagen 21. El punto malo presenta un mismo color todo el tiempo sin variar con la fotosensibilidad, lo que afecta la calidad de la imagen. Para garantizar una precisión de la interpolación y evitar el efecto de los puntos malos, es necesario realizar la compensación de puntos malos antes de la interpolación.
En detalle, durante la compensación del punto malo, se detectan los píxeles originales. Cuando se detecta un píxel original como el punto malo, se realiza la compensación del punto malo de acuerdo con los valores de píxel de otros píxeles originales en la unidad de píxel de imagen donde se encuentra el píxel original.
De esta forma, puede evitarse el efecto del punto malo en la interpolación, y de este modo se mejora la calidad de la imagen.
Con referencia la Fig. 18, en algunas implementaciones, antes de convertir la imagen de bloques de color en la imagen de simulación, el procedimiento incluye además realizar una compensación de diafonía en la imagen de bloques de color, como se ilustra en el bloque 137.
En el detalle, cuatro píxeles fotosensibles en una unidad de píxeles fotosensibles están cubiertos por los filtros con el mismo color, y los píxeles fotosensibles tienen diferencias de fotosensibilidad, de modo que puede producirse ruido de espectro fijo en áreas de color puro en la imagen de color verdadero de simulación generada después de convertir la imagen de bajo brillo, y la calidad de la imagen puede verse afectada. Por lo tanto, es necesario realizar la compensación de diafonía en la imagen de bloques de color.
Con referencia a la Fig. 19, en algunas realizaciones, después de convertir la imagen de bloques de color en la imagen de simulación, el procedimiento incluye además realizar al menos un procesamiento de interpolación cromática, un procesamiento de eliminación de ruido y un procesamiento de afilado de bordes en la imagen de simulación, como se ilustra en el bloque 138.
Puede entenderse que, después de convertir la imagen de bloques de color en la imagen de simulación, los píxeles de simulación se disponen en el mosaico de Bayer típico. La imagen de simulación puede procesarse, durante lo cual se incluyen el procesamiento de interpolación cromática, un procesamiento de eliminación de ruido y un procesamiento de afilado de bordes, de modo que la imagen de color verdadero de simulación puede obtenerse y presentarse al usuario. Con el procedimiento de procesamiento de imágenes de acuerdo con las realizaciones de la presente descripción, la parte de la imagen en el área predeterminada y la parte de la imagen fuera del área predeterminada se procesan usando diferentes algoritmos de interpolación. El usuario puede seleccionar el área predeterminada, y hay múltiples formas de selección para seleccionar el área predeterminada.
En otro aspecto, la presente divulgación proporciona además un aparato de procesamiento de imágenes.
La Fig. 20 es un diagrama de bloques de una matriz de unidades de filtro de acuerdo con una realización de la presente divulgación. Con referencia a la Fig. 20 se ilustra un aparato 10 de procesamiento de imágenes. El aparato10 de procesamiento de imágenes es aplicado en un dispositivo electrónico. El dispositivo electrónico incluye un aparato de imágenes que incluye un sensor de imagen 21. El sensor de imagen 21 ilustrado anteriormente incluye una matriz de unidades de píxeles fotosensibles 212 y una matriz de unidades de filtro 211 dispuestas en la matriz de unidades de píxeles fotosensibles 212. Cada unidad de filtro 211a corresponde a una unidad de píxeles fotosensibles 212a, y cada unidad de píxeles fotosensibles 212a incluye múltiples píxeles fotosensibles 2121. El aparato de procesamiento de imágenes 10 incluye un módulo de control 1100, un módulo de determinación 1200, un primer módulo de conversión 1300, un segundo módulo de conversión 1400 y un módulo de fusión 1500. El sistema de ejecución de instrucciones 180 está configurado por las instrucciones almacenadas en el medio 160 para implementar los módulos del programa. El módulo de control 1100 está configurado para controlar el sensor de imagen para generar una imagen de bloques de color. La imagen de bloques de color incluye unidades de píxeles de imagen dispuestas en una matriz preestablecida. Cada unidad de píxel de imagen incluye múltiples píxeles originales, cada unidad de píxel fotosensible corresponde a una unidad de píxel de imagen, y cada píxel fotosensible corresponde a un píxel original.
El módulo de determinación 1200 está configurado para determinar un área predeterminada en la imagen de bloques de color de acuerdo con una entrada del usuario.
El primer módulo de conversión 1300 está configurado para convertir una primera parte de la imagen de bloques de color en una primera imagen de simulación utilizando un primer algoritmo de interpolación. La primera parte de la imagen de bloques de color está en el área predeterminada. La primera imagen de simulación incluye los primeros píxeles de simulación dispuestos en una matriz predeterminada y cada píxel fotosensible corresponde a un primer píxel de simulación.
El segundo módulo de conversión 1400 está configurado para convertir una segunda parte de la imagen de bloques de color en una segunda imagen de simulación usando un segundo algoritmo de interpolación. La segunda parte de la imagen de bloques de color está fuera del área predeterminada. Una complejidad del segundo algoritmo de interpolación es menor a la del primer algoritmo de interpolación. La segunda imagen de simulación incluye segundos píxeles de simulación dispuestos en una matriz preestablecida, y cada píxel fotosensible corresponde a un segundo píxel de simulación.
El módulo de fusión 1500 está configurado para fusionar la primera imagen de simulación y la segunda imagen de simulación para generar una imagen de simulación correspondiente a la imagen de bloques de color.
Con referencia a la Fig. 21, en algunas implementaciones, el módulo de determinación 1200 incluye una primera unidad de conversión 1210, una unidad de visualización 1220 y una primera unidad de procesamiento 1230. La primera unidad de conversión 1210 está configurada para convertir la imagen de bloques de color en una imagen de vista previa usando un tercer algoritmo de interpolación. La unidad de visualización 1220 está configurada para controlar la pantalla táctil para mostrar la imagen de vista previa. La primera unidad de procesamiento 1230 está configurada para recibir y procesar la entrada del usuario en la pantalla táctil para determinar el área predeterminada.
En otras palabras, la acción en el bloque 121 puede implementarse a través de la unidad de conversión 1210. La acción en el bloque 122 puede implementarse a través de una unidad de visualización 1220. La acción en el bloque 123 puede implementarse a través del primer módulo de procesamiento 1230.
Con referencia a la figura 22, en algunas realizaciones, la primera unidad de procesamiento 1230 incluye una sub­ unidad divisoria 12310, una primera sub-unidad de identificación 12320, una sub-unidad que se extiende 12330, una primera sub-unidad de cálculo 12340, una primera sub-unidad de procesamiento 12350 y una segunda sub-unidad de procesamiento 12360. La sub-unidad divisoria 12310 está configurada para dividir la imagen de vista previa en unidades de extensión dispuestas en una matriz. La primera sub-unidad de identificación 12320 está configurada para procesar la entrada del usuario para identificar una ubicación táctil. La sub-unidad de extensión 12330 está configurada para determinar la unidad de extensión donde se localiza la ubicación táctil como una unidad de extensión original, y para extenderse hacia afuera tomando la unidad de extensión original como centro. La primera sub-unidad de cálculo 12340 está configurada para calcular un valor de contraste de cada unidad de extensión que alcanza la extensión. La primera sub-unidad de procesamiento 12350 está configurada para determinar la unidad de extensión como una unidad de extensión de borde cuando el valor de contraste de la unidad de extensión excede un umbral preestablecido. La segunda sub-unidad de procesamiento 12360 está configurada para determinar un área encerrada por las unidades de extensión de borde como el área predeterminada.
En otras palabras, la acción en el bloque 1231 puede implementarse a través de la sub-unidad de división 12310. La acción en el bloque 1232 puede implementarse a través de la primera sub-unidad de identificación 12320. La acción en el bloque 1233 puede implementarse a través de la sub-unidad de extensión 12330. La acción en el bloque 1234 puede implementarse a través de la primera sub-unidad de cálculo 12340. La acción en el bloque 1235 puede implementarse a través de la primer sub-unidad de procesamiento 12350. La acción en el bloque 1236 puede implementarse a través de la segunda sub-unidad de procesamiento 12360.
Con referencia a la figura 23, en algunas realizaciones, la primera unidad de procesamiento 123 incluye una segunda sub-unidad de identificación 12370 y una sub-unidad de determinación 12380. La segunda sub-unidad de identificación 12370 está configurada para procesar la entrada del usuario para identificar la ubicación táctil y una forma predeterminada. La sub-unidad de determinación 12380 está configurada para determinar un área con la ubicación táctil como centro y que tiene la forma predeterminada como el área predeterminada.
En otras palabras, la acción en el bloque 1237 puede implementarse a través de la segunda sub-unidad de identificación 1237. La acción en el bloque 1238 puede implementarse a través de la sub-unidad de determinación 12380.
Con referencia a la Fig. 24, en algunas realizaciones, el primer módulo de conversión 1300 incluye una unidad de determinación 1310, una segunda unidad de procesamiento 1320 y una tercera unidad de procesamiento 1330. La unidad de determinación 1310 está configurada para determinar si un color de un primer píxel de simulación es idéntico al del píxel original en la misma posición que el primer píxel de simulación. La segunda unidad de procesamiento 1320 está configurada para determinar un valor de píxel del píxel original como un valor de píxel del primer píxel de simulación; cuando el color del primer píxel de simulación es idéntico al del píxel original en la misma ubicación que el primer píxel de simulación. La tercera unidad de procesamiento 1330 está configurada para determinar el valor de píxel del primer píxel de simulación de acuerdo con un valor de píxel de un píxel de asociación; cuando el color del primer píxel de simulación es diferente del del píxel original en la misma ubicación que el primer píxel de simulación. El píxel de asociación se selecciona de una unidad de píxel de imagen con el mismo color que el píxel de simulación y adyacente a una unidad de píxel de imagen que comprende el píxel original.
Con referencia a la Fig. 25, en algunas realizaciones, la tercera unidad de procesamiento 1330 incluye una segunda sub-unidad de cálculo 13310, una tercera sub-unidad de cálculo 13320 y una cuarta sub-unidad de cálculo 13330. La segunda sub-unidad de cálculo 13310 está configurada para calcular un cambio del color del primer píxel de simulación en cada dirección de al menos dos direcciones de acuerdo con el valor de píxel del píxel de asociación. La tercera sub­ unidad de cálculo 13320 está configurada para calcular un peso en cada dirección de al menos dos direcciones de acuerdo con el cambio. La cuarta sub-unidad de cálculo 13330 está configurada para calcular el valor de píxel del primer píxel de simulación de acuerdo con el peso y el valor de píxel del píxel de asociación.
En otras palabras, la acción en el bloque 1331 puede implementarse a través de la segunda sub-unidad de cálculo 13310. La acción en el bloque 1332 puede implementarse a través de la tercera unidad de cálculo 13320. La acción en el bloque 1333 puede implementarse a través de la cuarta sub-unidad de cálculo 13330.
Con referencia a la Fig. 26, en algunas realizaciones, el aparato de procesamiento de imágenes 10 incluye además un módulo de compensación 1600 y una unidad de restauración 1700. El primer módulo de compensación 1600 está configurado para realizar una compensación del balance de blancos en la imagen de bloques de color. El módulo de restauración 1700 está configurado para realizar una compensación del balance de blancos inversa en la imagen de simulación.
En otras palabras, la acción en el bloque 134 puede implementarse a través del primer módulo de compensación 1600. La acción en el bloque 135 puede implementarse a través del módulo de restauración 1700.
Con referencia de nuevo a la Fig. 26, en algunas realizaciones, el aparato de procesamiento de imágenes incluye además un segundo módulo de compensación 1800. El segundo módulo de compensación 1800 está configurado para realizar al menos una compensación de punto malo y una compensación de diafonía en la imagen de bloques de color. En otras palabras, la acción en el bloque 136 puede implementarse a través del segundo módulo de compensación 1800.
Con referencia a la Fig. 27, en algunas realizaciones, el aparato de procesamiento de imágenes incluye además un módulo de procesamiento 1900. El módulo de procesamiento 1900 está configurado para realizar al menos uno un procesamiento de interpolación cromática, un procesamiento de eliminación de ruido y un procesamiento de afilado de bordes en la imagen de simulación. En otras palabras, la acción en el bloque 137 puede implementarse a través del módulo de procesamiento 1900.
La presente divulgación proporciona también un dispositivo electrónico.
La Fig. 28 es un diagrama de bloques de un dispositivo electrónico de acuerdo con una realización de la presente divulgación. Con referencia a la Fig. 28, el dispositivo electrónico 1000 de la presente descripción incluye una carcasa 1001, un procesador 1002, una memoria 1003, una placa de circuito impreso 1006, un circuito de suministro eléctrico 1007, un aparato de formación de imágenes 100 y una pantalla táctil 1008. La placa de circuito impreso 1006 se encuentra dentro de la carcasa 1001.El procesador 1002 y la memoria 1003 están ubicadas en la placa de circuito impreso 1006. El circuito de suministro eléctrico 1007 está configurado para suministrar electricidad a los circuitos o componentes del dispositivo electrónico 1000. La memoria 1003 está configurada para almacenar códigos de programa. La pantalla táctil 1008 está configurada para recibir una entrada del usuario.
El aparato de procesamiento de imágenes 100 incluye un sensor de imagen 21. El sensor de imagen 21 ilustrado anteriormente incluye una matriz de unidades de píxeles fotosensibles 212 y una matriz de unidades de filtro 211 dispuestas en la matriz de unidades de píxeles fotosensibles 212. Cada unidad de filtro 211a corresponde a una unidad de píxeles fotosensibles 212a, y cada unidad de píxeles fotosensibles 212a incluye múltiples píxeles fotosensibles 2121. El procesador 1002 está configurado para ejecutar un programa correspondiente a los códigos del programa ejecutable leyendo los códigos de programa ejecutables almacenados en la memoria, para realizar las siguientes operaciones: controlar el sensor de imagen para generar una imagen de bloques de color, en la cual, la imagen de bloques de color incluye unidades de píxeles de imagen dispuestas en una matriz preestablecida, cada unidad de píxeles de imagen incluye múltiples píxeles originales, cada píxel fotosensible corresponde a un píxel original; determinar un área predeterminada en la imagen de bloques de color de acuerdo con la entrada del usuario; convertir una primera parte de la imagen de bloques de color en una primera imagen de simulación usando un primer algoritmo de interpolación, en el cual, la primera parte de la imagen de bloques de color está en el área predeterminada, la primera imagen de simulación incluye los primeros píxeles de simulación dispuestos en la matriz preestablecida, cada píxel fotosensible corresponde a un primer píxel de simulación; convertir una segunda parte de la imagen de bloques de color en una segunda imagen de simulación usando un segundo algoritmo de interpolación, en el cual, una complejidad del segundo algoritmo de interpolación es menor que la del primer algoritmo de interpolación, la segunda parte de la imagen de bloques de color está fuera del área predeterminada, la segunda imagen de simulación incluye segundos píxeles de simulación dispuestos en la matriz preestablecida, cada píxel fotosensible corresponde a un segundo píxel de simulación; y fusionar la primera imagen de simulación y la segunda imagen de simulación para generar una imagen de simulación correspondiente a la imagen de bloques de color.
En algunas implementaciones, el aparato de procesamiento de imágenes incluye una cámara frontal o una cámara real (no ilustrada en la Fig. 28).
En algunas implementaciones, el procesador 1002 está configurado para ejecutar un programa correspondiente a los códigos de programa ejecutables leyendo los códigos de programa ejecutables almacenados en la memoria, para realizar la determinación de un área predeterminada en la imagen de bloques de color de acuerdo con una entrada del usuario por las acciones de: convertir la imagen de bloques de color en una imagen de vista previa utilizando un tercer algoritmo de interpolación; controlar la pantalla táctil para mostrar la imagen de vista previa; y recibir y procesar la entrada del usuario en la pantalla táctil para determinar el área predeterminada.
En algunas implementaciones, el procesador 1002 está configurado para ejecutar un programa correspondiente a los códigos de programa ejecutables leyendo los códigos de programa ejecutables almacenados en la memoria, para realizar la recepción y el procesamiento de la entrada del usuario en la pantalla táctil para determinar el área predeterminada por las acciones de: dividir la imagen de vista previa en unidades de extensión dispuestas en una matriz; procesar la entrada del usuario para identificar una ubicación táctil; determinar la unidad de extensión donde esté localizada la ubicación táctil como una unidad de extensión original; calcular un valor de contraste de cada unidad de extensión que se alcanza cuando se extiende hacia afuera tomando la unidad de extensión original como centro; determinar la unidad de extensión como una unidad de extensión de borde cuando el valor de contraste de la unidad de extensión exceda un umbral preestablecido; y determinar un área encerrada por las unidades de extensión de borde como el área predeterminada.
En algunas implementaciones, el procesador 1002 está configurado para ejecutar un programa correspondiente a los códigos de programa ejecutables leyendo los códigos de programa ejecutables almacenados en la memoria, para realizar la recepción y el procesamiento de la entrada del usuario en la pantalla táctil para determinar el área predeterminada por acciones de: procesar la entrada del usuario para identificar la ubicación táctil y una forma predeterminada; y determinar un área con la ubicación táctil como centro y teniendo la forma predeterminada como el área predeterminada.
En algunas implementaciones, el procesador 1002 está configurado para ejecutar un programa correspondiente a los códigos de programa ejecutable leyendo los códigos de programa ejecutables almacenados en la memoria, para realizar la conversión de una parte de la imagen de bloques de color en una primera imagen de simulación utilizando un primer algoritmo de interpolación por las acciones de: determinar si un color de un primer píxel de simulación es idéntico al de un píxel original en un misma posición que el primer píxel de simulación; cuando el color del primer píxel de simulación es idéntico al del píxel original en la misma posición que el primer píxel de simulación, determinar un valor de píxel del píxel original como un valor de píxel del primer píxel de simulación; y cuando el color del primer píxel de simulación es diferente del del píxel original en la misma posición que el primer píxel de simulación, determinar el valor de píxel del primer píxel de simulación de acuerdo con un valor de píxel de un píxel de asociación, en el que el píxel de asociación se selecciona de una unidad de píxel de imagen con el mismo color que el primer píxel de simulación y adyacente a una unidad de píxel de imagen que incluye el píxel original.
En algunas implementaciones, el procesador 1002 está configurado para ejecutar un programa correspondiente a los códigos de programa ejecutable leyendo los códigos de programa ejecutables almacenados en la memoria, para realizar la determinación del valor de píxel del primer píxel de simulación de acuerdo con un valor de píxel de un píxel de asociación por acciones de: calcular un cambio del color del primer píxel de simulación en cada dirección de al menos dos direcciones de acuerdo con el valor del píxel del píxel de asociación; calcular un peso en cada dirección de las al menos dos direcciones de acuerdo con el cambio; y calcular el valor de píxel del primer píxel de simulación de acuerdo con el peso y el valor de píxel del píxel de asociación.
En algunas implementaciones, el procesador 1002 está configurado para ejecutar un programa correspondiente a los códigos de programa ejecutables leyendo los códigos de programa ejecutables almacenados en la memoria, para realizar las siguientes operaciones: realizar una compensación del balance de blancos en la imagen de bloques de color; y realizar una compensación inversa del balance de blancos en la imagen de simulación.
En algunas implementaciones, el procesador 1002 está configurado para ejecutar un programa correspondiente a los códigos de programa ejecutables leyendo los códigos de programa ejecutables almacenados en la memoria, para realizar las siguientes operaciones: al menos una compensación de punto malo en la imagen de bloques de color. En algunas implementaciones, el procesador 1002 está configurado para ejecutar un programa correspondiente a los códigos de programa ejecutables leyendo los códigos de programa ejecutables almacenados en la memoria, para realizar las siguientes operaciones: realizar al menos un procesamiento de interpolación cromática, un procesamiento de eliminación de ruido y un procesamiento de afilado de bordes en la imagen de simulación.
En algunas implementaciones, el dispositivo electrónico puede ser un teléfono móvil o una tableta electrónica, pero no está limitada a ello.
El dispositivo electrónico 1000 también puede incluir un componente de entrada (no ilustrado en la Fig. 28). Debe entenderse que el componente de entrada puede incluir además uno o más de los siguientes: una interfaz de entrada, un botón físico del dispositivo electrónico 1000, un micrófono, etc.
Debe entenderse que el dispositivo electrónico 1000 puede incluir además uno o más de los siguientes componentes (no ilustrados en la Fig. 28): un componente de audio, una interfaz de entrada/salida (E/S), un componente de sensor, y un componente de comunicación. El componente de audio está configurado para emitir y/o recibir señales de audio, por ejemplo, el componente de audio incluye un micrófono. La interfaz de E/S está configurada para proporcionar una interfaz entre el procesador 1002 y los módulos de interfaz periféricos. El componente del sensor incluye uno o más sensores para proporcionar evaluaciones de estado de varios aspectos del dispositivo electrónico 1000. El componente de comunicación está configurado para facilitar la comunicación, por cable o inalámbrica, entre el dispositivo electrónico 1000 y otros dispositivos.
Debe entenderse que la fraseología y la terminología utilizadas en el presente documento con referencia a la orientación del dispositivo o elemento (como, por ejemplo, términos como "centro", "longitudinal", "lateral", "largo", "ancho", "alto", "arriba", "abajo", "anterior", "posterior", "izquierdo", "derecho", "vertical", "horizontal", "superior" "inferior», "dentro ", "fuera", "en sentido horario", "en sentido antihorario", "axial", "radial", "circunferencial") solo se utilizan para simplificar la descripción de la presente invención, y no indican ni implica que el dispositivo o elemento mencionado debe tener u operar en una orientación particular. Estos no pueden verse como limitantes a la presente divulgación.
Además, los términos "primero" y "segundo" solo se utilizan para la descripción y no pueden verse como indicativos o implicados de relativa importancia o que indiquen o impliquen el número de las características técnicas indicadas. Por lo tanto, las características definidas con "primero" y "segundo" pueden comprender o implicar al menos una de estas características. En la descripción de la presente divulgación, "múltiples" significa dos o más de dos, a menos que se especifique lo contrario.
En la presente descripción, a menos que se especifique o se limite de otra manera, los términos "montado", "conectado", "acoplado", "fijado" y similares son usados ampliamente, y pueden ser, por ejemplo, conexiones fijas, conexiones desmontables o integrales; también pueden ser conexiones directas o conexiones indirectas a través de estructuras intermedias; También pueden ser comunicaciones internas de dos elementos o interacciones de dos elementos, que pueden ser comprendidas por los expertos en la materia de acuerdo con situaciones específicas.
En la presente descripción, a menos que se especifique o limite lo contrario, una estructura en la que una primera característica esté "en" una segunda característica puede incluir una realización en la que la primera característica contacta directamente con la segunda característica, y también puede incluir una realización en la que la primera característica contacta indirectamente con la segunda característica a través de un elemento intermedio. Además, una estructura en la que una primera característica esté "en", "sobre" o "encima" de una segunda característica puede indicar que la primera característica está justo por encima de la segunda u oblicuamente por encima de la segunda característica, o simplemente indicar que un nivel horizontal de la primera característica es más alta que la segunda característica. Una estructura en la que una primera característica está "debajo" o "abajo" de una segunda característica puede indicar que la primera característica está justo debajo de la segunda característica u oblicuamente por debajo de la segunda característica, o simplemente indicar que un nivel horizontal de la primera característica es inferior a la segunda característica.
En la siguiente descripción se proporcionan varias realizaciones y ejemplos para implementar diferentes estructuras de la presente divulgación. Para simplificar la presente divulgación, se describirán ciertos elementos y configuraciones. Sin embargo, estos elementos y configuraciones son solo ejemplos y no pretenden limitar la presente divulgación. Además, los números de referencia pueden repetirse en diferentes ejemplos en la divulgación. Esta repetición tiene el propósito de simplificar y aclarar, y no se refiere a relaciones entre diferentes realizaciones y/o configuraciones. Además, se proporcionan ejemplos de diferentes procesos y materiales en la presente divulgación. Sin embargo, los expertos en la materia observarán que también se pueden aplicar otros procesos y/o materiales.
La referencia a lo largo de esta especificación a "una realización", "algunas realizaciones", "un ejemplo", "un ejemplo específico" o "algunos ejemplos" significa que una propiedad, estructura, material o característica particular descrita en relación con la realización o el ejemplo se incluye en al menos una realización o un ejemplo de la presente divulgación. En esta especificación, las descripciones ejemplares de los términos mencionados no se refieren necesariamente a la misma realización o ejemplo. Además, las propiedades, estructuras, materiales o características particulares pueden fusionarse de cualquier manera adecuada en uno o más ejemplos. Además, los expertos en la técnica podrían fusionar diferentes realizaciones o diferentes características en realizaciones o ejemplos descritos en la presente divulgación.
Puede entenderse que cualquier proceso o procedimiento descrito en un diagrama de flujo o descrito en el presente documento de otras maneras incluye uno o más módulos, segmentos o porciones de códigos de instrucciones ejecutables para lograr funciones o pasos lógicos específicos en el proceso, y el de una realización preferida de la presente divulgación incluye otras implementaciones, en las que el orden de ejecución puede diferir del que se describe o discute, incluso de acuerdo con la función involucrada, al ejecutarse concurrentemente o con concurrencia parcial o en el orden contrario para realizar la función, lo que debe entenderse por los expertos en la materia.
Aunque las realizaciones de la presente divulgación se han mostrado y descrito anteriormente, debe entenderse que las realizaciones anteriores son solo explicativas, y no pueden interpretarse como limitantes de la presente divulgación, para los expertos en la técnica, pueden realizarse cambios, alternativas y modificaciones a las realizaciones sin apartarse de los principios y el ámbito de la presente divulgación.

Claims (18)

REIVINDICACIONES
1. Un procedimiento de procesamiento de imagen para un dispositivo electrónico, en el que el dispositivo electrónico comprende un aparato de procesamiento de imágenes que comprende un sensor de imagen (21), el sensor de imagen (21) comprende una matriz (212) de unidades de píxeles fotosensibles (212a) y una matriz (211) de unidades de filtro (211a) dispuestas en la matriz (212) de unidades de píxeles fotosensibles (212a), las unidades de filtro están dispuestas en un mosaico de Bayer, cada unidad de filtro (211a) corresponde a una unidad de píxeles fotosensibles ( 212a), y cada unidad de píxeles fotosensibles (212a) comprende múltiples píxeles fotosensibles (21211) adyacentes entre sí y con el mismo color, el procedimiento de procesamiento de imágenes comprende:
controlar (11) el sensor de imagen (21) para generar una imagen de bloques de color, en el que la imagen de bloques de color comprende unidades de píxeles de imagen dispuestas en una matriz preestablecida, en donde la matriz preestablecida comprende el mosaico de Bayer, cada unidad de píxeles de imagen corresponde a una unidad de píxeles fotosensibles (212a), cada unidad de píxeles de imagen comprende múltiples píxeles originales adyacentes entre sí, y cada píxel fotosensible (21211) corresponde a un píxel original; determinar (12) un área predeterminada en la imagen de bloques de color de acuerdo con una entrada del usuario; convirtiendo (13) una primera parte de la imagen de bloques de color en una primera imagen de simulación usando un primer algoritmo de interpolación, en el que la primera parte de la imagen de bloques de color está en el área predeterminada, la primera imagen de simulación comprende primero píxeles de simulación dispuestos en el mosaico de Bayer, y cada píxel fotosensible (21211) corresponde a un primer píxel de simulación;
convertir (14) una segunda parte de la imagen de bloques de color en una segunda imagen de simulación usando un segundo algoritmo de interpolación, en el que la segunda parte de la imagen de bloques de color está fuera del área predeterminada, la segunda imagen de simulación comprende segundos píxeles de simulación dispuestos en el mosaico de Bayer, cada píxel fotosensible (21211) corresponde a un segundo píxel de simulación, y la complejidad del segundo algoritmo de interpolación es menor que la del primer algoritmo de interpolación; y
fusionar (15) la primera imagen de simulación y la segunda imagen de simulación para generar una imagen de simulación correspondiente a la imagen de bloques de color.
2. El procedimiento de procesamiento de imágenes según la reivindicación 1, en el que la primera unidad de píxeles de imagen comprende píxeles originales dispuestos en una matriz de 2 por 2.
3. El procedimiento de procesamiento de imágenes según la reivindicacións 1 o 2, en el que el dispositivo electrónico comprende una pantalla táctil, la determinación (12) de un área predeterminada en la imagen de bloques de color de acuerdo con una entrada de usuario comprende:
convertir (121) la imagen de bloques de color en una imagen de vista previa utilizando un tercer algoritmo de interpolación;
controlar (122) la pantalla táctil para mostrar la imagen de vista previa; y
recibir y procesar (123) la entrada del usuario en la pantalla táctil para determinar el área predeterminada
4. El procedimiento de procesamiento de imágenes según la reivindicación 3, en el que recibir y procesar (123) la entrada del usuario en la pantalla táctil para determinar el área predeterminada comprende:
dividir (1231) la imagen de vista previa en unidades de extensión dispuestas en una matriz;
procesar (1232) la entrada del usuario para identificar una ubicación táctil;
determinar (1233) la unidad de extensión donde la ubicación táctil es como una unidad de extensión original; calcular (1234) un valor de contraste de cada unidad de extensión que alcanza cuando se extiende hacia afuera tomando la unidad de extensión original como centro;
determinar (1235) la unidad de extensión como una unidad de extensión de borde cuando el valor de contraste de la unidad de extensión excede un umbral preestablecido,
y
determinar (1236) un área encerrada por las unidades de extensión de borde como el área predeterminada.
5. El procedimiento de procesamiento de imágenes según la reivindicación 3, en el que recibir y procesar (123) la entrada del usuario en la pantalla táctil para determinar el área predeterminada comprende:
procesar (1237) la entrada del usuario para identificar una ubicación táctil y una forma predeterminada; y determinar (1238) un área con la ubicación táctil como centro y teniendo la forma predeterminada como el área predeterminada.
6. El procedimiento de procesamiento de imágenes según cualquiera de las reivindicaciones 3 a 5, en el que el tercer algoritmo de interpolación comprende el segundo algoritmo de interpolación.
7. El procedimiento de procesamiento de imágenes según cualquiera de las reivindicaciones 1 a 6, en el que convertir (13) la primera parte de la imagen de bloques de color en una primera imagen de simulación utilizando un primer algoritmo de interpolación comprende:
determinar (131) si un color de un píxel de simulación es idéntico al de un píxel original en un misma ubicación que el primer píxel de simulación; cuando el color del primer píxel de simulación es idéntico al del píxel original en la misma ubicación que el primer píxel de simulación, determinar (132) un valor de píxel del píxel original como un valor de píxel del primer píxel de simulación; y cuando el color del primer píxel de simulación es diferente del del píxel original en la misma ubicación que el primer píxel de simulación, determinar (133) el valor de píxel del primer píxel de simulación de acuerdo con un valor de píxel de un píxel de asociación, en el que el píxel de asociación se selecciona de una unidad de píxel de imagen con el mismo color que el primer píxel de simulación y adyacente a una unidad de píxel de imagen que comprende el píxel original, en el que, determinar (133) un valor de píxel del primer píxel de simulación de acuerdo con un valor de píxel de un píxel de asociación comprende:
calcular (1331) un cambio del color del primer píxel de simulación en cada dirección de al menos dos direcciones de acuerdo con el valor de píxel del píxel de asociación;
calcular (1332) un peso en cada dirección de las al menos dos direcciones de acuerdo con el cambio; y
calcular (1333) el valor de píxel del primer píxel de simulación de acuerdo con el peso y el valor de píxel del píxel de asociación.
8. El procedimiento de procesamiento de imágenes según cualquiera de las reivindicaciones 1 a 7, que además comprende al menos uno de los siguientes:
realizar una compensación de balance de blancos (134) en la imagen de bloques de color y realizar una compensación de balance de blancos inverso (135) en la imagen de simulación;
realizar al menos una compensación de punto malo (136) y una compensación de diafonía (137) en la imagen de bloques de color; y
realizar (138) al menos un procesamiento de interpolación cromática, un procesamiento de eliminación de ruido y un procesamiento de afilado de bordes en la imagen de simulación.
9. Un aparato de procesamiento de imagen (10) adecuado para ser aplicado a un dispositivo electrónico, en el que el dispositivo electrónico comprende un aparato de procesamiento de imágenes que comprende un sensor de imagen (21), el sensor de imagen (21) comprende una matriz (212) de unidades de píxeles fotosensibles (212a) y una matriz (211) de unidades de filtro (211a) dispuestas en la matriz (212) de unidades de píxeles fotosensibles (212a), las unidades de filtro están dispuestas en un mosaico de Bayer, cada unidad de filtro (211a) corresponde a una unidad de píxeles fotosensibles ( 212a), y cada unidad de píxeles fotosensibles (212a) comprende múltiples píxeles fotosensibles (21211) adyacentes entre sí y con el mismo color, el aparato de procesamiento de imágenes (10) comprende:
un módulo de control (1100) configurado para controlar el sensor de imagen (21) para generar una imagen de bloques de color,
en el que la imagen de bloques de color comprende unidades de píxeles de imagen dispuestas en una matriz predeterminada, en el que la matriz predeterminada comprende el mosaico de Bayer, cada unidad de píxeles de imagen corresponde a una unidad de píxeles fotosensibles (212a), cada unidad de píxeles de imagen comprende múltiples píxeles originales adyacentes entre sí, y cada píxel fotosensible (21211) corresponde a un píxel original;
un módulo de determinación (1200) está configurado para determinar un área predeterminada en la imagen de bloques de color de acuerdo con una entrada del usuario;
un primer módulo de conversión (1300) está configurado para convertir una primera parte de la imagen de bloques de color en una primera imagen de simulación utilizando un primer algoritmo de interpolación, en el que la primera parte de la imagen de bloques de color está en el área predeterminada, la primera imagen de simulación comprende los primeros píxeles de simulación dispuestos en el mosaico de Bayer, y cada píxel fotosensible (21211) corresponde a un primer píxel de simulación;
un segundo módulo de conversión (1400) está configurado para convertir una segunda parte de la imagen de bloques de color en una segunda imagen de simulación utilizando un segundo algoritmo de interpolación., en el que una complejidad del segundo algoritmo de interpolación es menor que la del primer algoritmo de interpolación, la segunda parte de la imagen de bloques de color está fuera del área predeterminada, la segunda imagen de simulación comprende segundos píxeles de simulación dispuestos en el mosaico de Bayer y cada píxel fotosensible (21211) corresponde a un segundo píxel de simulación; y
un módulo de fusión (1500) está configurado para fusionar la primera imagen de simulación y la segunda imagen de simulación para generar una imagen de simulación correspondiente a la imagen de bloques de color.
10. El aparato de procesamiento de imágenes (10) según la reivindicación 9, en el que la unidad de píxeles de imagen comprende píxeles originales dispuestos en una matriz de 2 por 2.
11. El aparato de procesamiento de imágenes (10) según una cualquiera de las reivindicaciones 9 o 10, en el que el dispositivo electrónico comprende una pantalla táctil, y el módulo de determinación (1200) comprende:
una primera unidad de conversión (1210) configurada para convertir la imagen de bloques de color en una imagen de vista previa usando un tercer algoritmo de interpolación;
una unidad de visualización (1220) configurada para controlar la pantalla táctil para mostrar la imagen de vista previa; y
una primera unidad de cálculo (1230), configurada para recibir y procesar la entrada del usuario en la pantalla táctil para determinar el área predeterminada.
12. El aparato de procesamiento de imágenes según la reivindicación 11, en el que la primera unidad de procesamiento (1230) comprende:
una sub-unidad divisoria (12310), configurada para dividir la imagen de vista previa en unidades de extensión dispuestas en una matriz;
una primera sub-unidad de identificación (12320), configurada para procesar la entrada del usuario para identificar una ubicación táctil;
una sub-unidad de extensión (12330), configurada para determinar la unidad de extensión donde se localiza la ubicación táctil como una unidad de extensión original, y para extenderse hacia afuera tomando la unidad de extensión original como centro;
una primera sub-unidad de cálculo (12340), configurada para calcular un valor de contraste de cada unidad de extensión que alcanza la extensión;
una primera sub-unidad de procesamiento (12350), configurada para determinar una unidad de extensión como una unidad de extensión de borde cuando el valor de contraste de la unidad de extensión excede un umbral preestablecido; y
una segunda sub-unidad de procesamiento (12360), configurada para determinar un área encerrada por las unidades de extensión de borde como el área predeterminada.
13. El aparato de procesamiento de imágenes (10) según la reivindicación 11, en el que la primera unidad de procesamiento (1230) comprende:
una segunda sub-unidad de identificación (12370), configurada para procesar la entrada del usuario para identificar la ubicación táctil y una forma predeterminada; y
una sub-unidad de determinación (12380), configurada para determinar un área con la ubicación táctil como centro y que tiene la forma predeterminada como el área predeterminada.
14. El aparato de procesamiento de imágenes según cualquiera de las reivindicaciones 11 a 13, en el que el tercer algoritmo de interpolación comprende el segundo algoritmo de interpolación.
15. El aparato de procesamiento de imágenes según cualquiera de las reivindicaciones 9 a 14, en el que el primer módulo de conversión (1300) comprende:
una unidad de determinación (1310), configurada para determinar si un color de un primer píxel de simulación es idéntico al de un píxel original en la misma ubicación que el primer píxel de simulación;
una segunda unidad de procesamiento (1320), configurada para determinar un valor de píxel del píxel original como un valor de píxel del primer píxel de simulación; cuando el color del primer píxel de simulación es diferente del del píxel original en la misma ubicación que el primer píxel de simulación; y
una tercera unidad de procesamiento (1330), configurada para determinar el valor de píxel del primer píxel de simulación de acuerdo con un valor de píxel de un píxel de asociación cuando el color del primer píxel de simulación es diferente del del píxel original en la misma ubicación que el primer píxel de simulación, en el que el píxel de asociación se selecciona de una unidad de píxel de imagen con un mismo color que el primer píxel de simulación y adyacente a una unidad de píxel de imagen que comprende el píxel original, en el que, la tercera unidad de procesamiento (1330) comprende:
una primera sub-unidad de cálculo (13310), configurada para calcular un cambio del color del primer píxel de simulación en cada dirección de al menos dos direcciones de acuerdo con el valor de píxel del primer píxel de asociación;
una tercera sub-unidad de cálculo (13320) configurada para calcular un peso en cada dirección de las al menos dos direcciones de acuerdo con el cambio; y una cuarta sub-unidad de cálculo (13330), configurada para calcular el valor de píxel del primer píxel de simulación de acuerdo con el peso y el valor de píxel del píxel de asociación.
16. El aparato de procesamiento de imágenes según cualquiera de las reivindicaciones 9 a 15, que además comprende:
una primera unidad de compensación (1600), configurada para realizar una compensación del balance de blancos en la imagen de bloques de color; y
un módulo de restauración (1700), configurado para realizar una compensación inversa del balance de blancos en la imagen de simulación.
17. El aparato de procesamiento de imágenes según cualquiera de las reivindicaciones 9 a 16, que además comprende al menos uno de los siguientes:
un segundo módulo de compensación (1800), configurado para realizar al menos una compensación de punto malo y una compensación de diafonía en la imagen de bloques de color; y
un módulo de procesamiento (1900), configurado para realizar al menos un procesamiento de interpolación cromática, un procesamiento de eliminación de ruido y un procesamiento de afilado de bordes en la imagen de simulación.
18. Un dispositivo electrónico (1000), que comprende una carcasa (1001), un procesador (1002), una memoria (1003), una placa de circuito impreso (1006), un circuito de suministro eléctrico (1007) y un aparato de procesamiento de imágenes (100) y una pantalla táctil (1008), en el que,
la placa de circuito impreso (1006) está encerrada por la carcasa; el procesador (1002) y la memoria (1003) están colocados en la placa de circuito impreso (1006);
el circuito de suministro eléctrico (1007) está configurado para proporcionar de energía para los respectivos circuitos o componentes del dispositivo electrónico (1000);
el aparato de procesamiento de imágenes (100) comprende un sensor de imagen (21), en el que el sensor de imagen (21) comprende una matriz (212) de unidades de píxeles fotosensibles (212a) y una matriz (211) de unidades de filtro (211a) dispuesta en la matriz (212) de unidades de píxeles fotosensibles (212a), las unidades de filtro están dispuestas en un mosaico de Bayer, cada unidad de filtro (211a) corresponde a una unidad de píxeles fotosensibles ( 212a), y cada unidad de píxeles fotosensibles (212a) comprende múltiples píxeles fotosensibles (21211) adyacentes entre sí y con el mismo color;
la pantalla táctil (1008) está configurada para recibir una entrada del usuario;
la memoria (1003) está configurada para almacenar códigos de programa ejecutables; y
el procesador (1002) está configurado para ejecutar un programa correspondiente a los códigos de programa ejecutables leyendo los códigos de programa ejecutables almacenados en la memoria (1003), para realizar el procedimiento de procesamiento de imágenes de acuerdo con una cualquiera de las reivindicaciones 1 a 8.
ES17198892T 2016-11-29 2017-10-27 Procesamiento, aparato y dispositivo electrónico de procesamiento de imágenes Active ES2761401T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611079543.2A CN106507019B (zh) 2016-11-29 2016-11-29 控制方法、控制装置、电子装置

Publications (1)

Publication Number Publication Date
ES2761401T3 true ES2761401T3 (es) 2020-05-19

Family

ID=58328273

Family Applications (1)

Application Number Title Priority Date Filing Date
ES17198892T Active ES2761401T3 (es) 2016-11-29 2017-10-27 Procesamiento, aparato y dispositivo electrónico de procesamiento de imágenes

Country Status (5)

Country Link
US (1) US10356315B2 (es)
EP (1) EP3328076B1 (es)
CN (1) CN106507019B (es)
ES (1) ES2761401T3 (es)
WO (1) WO2018099009A1 (es)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3424403B1 (en) * 2016-03-03 2024-04-24 Sony Group Corporation Medical image processing device, system, method, and program
CN106507019B (zh) * 2016-11-29 2019-05-10 Oppo广东移动通信有限公司 控制方法、控制装置、电子装置
CN106507068B (zh) * 2016-11-29 2018-05-04 广东欧珀移动通信有限公司 图像处理方法及装置、控制方法及装置、成像及电子装置
CN106604001B (zh) * 2016-11-29 2018-06-29 广东欧珀移动通信有限公司 图像处理方法、图像处理装置、成像装置及电子装置
JP7320352B2 (ja) * 2016-12-28 2023-08-03 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元モデル送信方法、三次元モデル受信方法、三次元モデル送信装置及び三次元モデル受信装置
CN107808361B (zh) * 2017-10-30 2021-08-10 努比亚技术有限公司 图像处理方法、移动终端及计算机可读存储介质
CN107743199B (zh) * 2017-10-30 2020-05-15 努比亚技术有限公司 图像处理方法、移动终端及计算机可读存储介质
CN111126568B (zh) * 2019-12-09 2023-08-08 Oppo广东移动通信有限公司 图像处理方法及装置、电子设备及计算机可读存储介质
KR20210112042A (ko) * 2020-03-04 2021-09-14 에스케이하이닉스 주식회사 이미지 센싱 장치 및 그의 동작 방법
CN112019775B (zh) * 2020-09-04 2023-03-24 成都微光集电科技有限公司 一种坏点检测校正方法及装置

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3592147B2 (ja) * 1998-08-20 2004-11-24 キヤノン株式会社 固体撮像装置
JP2006140594A (ja) 2004-11-10 2006-06-01 Pentax Corp デジタルカメラ
KR100843087B1 (ko) 2006-09-06 2008-07-02 삼성전자주식회사 영상 생성 장치 및 방법
CN101150733A (zh) * 2006-09-22 2008-03-26 华邦电子股份有限公司 影像像素干扰的补偿方法
US8102435B2 (en) * 2007-09-18 2012-01-24 Stmicroelectronics S.R.L. Method for acquiring a digital image with a large dynamic range with a sensor of lesser dynamic range
CN101227621A (zh) * 2008-01-25 2008-07-23 炬力集成电路设计有限公司 在cmos传感器中对cfa进行插值的方法及电路
US7745779B2 (en) * 2008-02-08 2010-06-29 Aptina Imaging Corporation Color pixel arrays having common color filters for multiple adjacent pixels for use in CMOS imagers
US8897551B2 (en) * 2009-11-27 2014-11-25 Nikon Corporation Data processing apparatus with horizontal interpolation
CN102073986A (zh) 2010-12-28 2011-05-25 冠捷显示科技(厦门)有限公司 实现显示装置画面放大的方法
WO2012124182A1 (ja) * 2011-03-11 2012-09-20 富士フイルム株式会社 撮像装置及び撮像プログラム
JP5822508B2 (ja) 2011-04-05 2015-11-24 キヤノン株式会社 撮像装置及びその制御方法
JP5818514B2 (ja) 2011-05-27 2015-11-18 キヤノン株式会社 画像処理装置および画像処理方法、プログラム
JP2013066146A (ja) * 2011-08-31 2013-04-11 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
US20130202191A1 (en) 2012-02-02 2013-08-08 Himax Technologies Limited Multi-view image generating method and apparatus using the same
CN102630019B (zh) * 2012-03-27 2014-09-10 上海算芯微电子有限公司 去马赛克的方法和装置
WO2014118868A1 (ja) 2013-01-30 2014-08-07 パナソニック株式会社 撮像装置及び固体撮像装置
US20140267701A1 (en) 2013-03-12 2014-09-18 Ziv Aviv Apparatus and techniques for determining object depth in images
US9692992B2 (en) 2013-07-01 2017-06-27 Omnivision Technologies, Inc. Color and infrared filter array patterns to reduce color aliasing
JP5930079B2 (ja) * 2013-09-30 2016-06-08 株式会社ニコン 電子機器
EP2887642A3 (en) 2013-12-23 2015-07-01 Nokia Corporation Method, apparatus and computer program product for image refocusing for light-field images
DE102014209197B4 (de) 2014-05-15 2024-09-19 Continental Autonomous Mobility Germany GmbH Vorrichtung und Verfahren zum Erkennen von Niederschlag für ein Kraftfahrzeug
US9479695B2 (en) 2014-07-31 2016-10-25 Apple Inc. Generating a high dynamic range image using a temporal filter
CN105120248A (zh) 2015-09-14 2015-12-02 北京中科慧眼科技有限公司 像素阵列及相机传感器
CN105592303B (zh) 2015-12-18 2018-09-11 广东欧珀移动通信有限公司 成像方法、成像装置及电子装置
CN105609516B (zh) * 2015-12-18 2019-04-12 Oppo广东移动通信有限公司 图像传感器及输出方法、相位对焦方法、成像装置和终端
CN106507069B (zh) 2016-11-29 2018-06-05 广东欧珀移动通信有限公司 控制方法、控制装置及电子装置
CN106507068B (zh) * 2016-11-29 2018-05-04 广东欧珀移动通信有限公司 图像处理方法及装置、控制方法及装置、成像及电子装置
CN106507019B (zh) * 2016-11-29 2019-05-10 Oppo广东移动通信有限公司 控制方法、控制装置、电子装置
CN106454289B (zh) 2016-11-29 2018-01-23 广东欧珀移动通信有限公司 控制方法、控制装置及电子装置
CN106488203B (zh) * 2016-11-29 2018-03-30 广东欧珀移动通信有限公司 图像处理方法、图像处理装置、成像装置及电子装置
CN106604001B (zh) * 2016-11-29 2018-06-29 广东欧珀移动通信有限公司 图像处理方法、图像处理装置、成像装置及电子装置

Also Published As

Publication number Publication date
CN106507019B (zh) 2019-05-10
EP3328076A1 (en) 2018-05-30
EP3328076B1 (en) 2019-10-23
WO2018099009A1 (zh) 2018-06-07
CN106507019A (zh) 2017-03-15
US20180152634A1 (en) 2018-05-31
US10356315B2 (en) 2019-07-16

Similar Documents

Publication Publication Date Title
ES2761401T3 (es) Procesamiento, aparato y dispositivo electrónico de procesamiento de imágenes
ES2757506T3 (es) Procedimiento y aparato de procesamiento, dispositivo electrónico y procedimiento de control
ES2752655T3 (es) Procedimiento y aparato de procesamiento de imágenes, y dispositivo electrónico
ES2774493T3 (es) Procedimiento y aparato de procesamiento de imágenes, y dispositivo electrónico
ES2748572T3 (es) Método y aparato de procesamiento de imágenes, y dispositivo electrónico
ES2769306T3 (es) Procedimiento y aparato de procesamiento de imágenes y dispositivo electrónico
EP3328070B1 (en) Image processing method and apparatus, and electronic device
KR102083292B1 (ko) 이미지 센서, 이미징 장치, 이동 단말기 및 이미징 방법
ES2731695T3 (es) Método de control y aparato electrónico
US10380717B2 (en) Image processing method and apparatus, and electronic device
US10290079B2 (en) Image processing method and apparatus, and electronic device
ES2732973T3 (es) Método y aparato de procesamiento de imagen y dispositivo electrónico
TW201724015A (zh) 成像方法、成像裝置及電子裝置