ES2733475T3 - Método y aparato para fotografiar imagen y dispositivo terminal - Google Patents

Método y aparato para fotografiar imagen y dispositivo terminal Download PDF

Info

Publication number
ES2733475T3
ES2733475T3 ES17177453T ES17177453T ES2733475T3 ES 2733475 T3 ES2733475 T3 ES 2733475T3 ES 17177453 T ES17177453 T ES 17177453T ES 17177453 T ES17177453 T ES 17177453T ES 2733475 T3 ES2733475 T3 ES 2733475T3
Authority
ES
Spain
Prior art keywords
image
image sensor
pixel points
pixels
filter unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17177453T
Other languages
English (en)
Inventor
Xiaopeng Li
Gong Zhang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Application granted granted Critical
Publication of ES2733475T3 publication Critical patent/ES2733475T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/583Control of the dynamic range involving two or more exposures acquired simultaneously with different integration times
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/585Control of the dynamic range involving two or more exposures acquired simultaneously with pixels having different sensitivities within the sensor, e.g. fast or slow pixels or pixels having different sizes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Image Processing (AREA)

Abstract

Un método para fotografiar una imagen, aplicado en un dispositivo terminal que tiene un primer conjunto (10, 66) de cámara y un segundo conjunto (20, 67) de cámara, en el que cada unidad (111) de filtro en el primer conjunto (10, 66) de cámara corresponde a un punto (121) de píxel de un primer sensor (12) de imagen del primer conjunto (10, 66) de cámara, correspondiendo cada unidad (211) de filtro en el segundo conjunto (20, 67) de cámara a n puntos (221) de píxel adyacentes de un segundo sensor (22) de imagen del segundo conjunto (20, 67) de cámara, donde n es mayor o igual que 2, y el método comprende: controlar (S201) los n puntos (221) de píxeles adyacentes que corresponden a una misma unidad (211) de filtro en el segundo sensor (22) de imagen para que estén por debajo de respectivas diferentes cantidades de exposición; obtener (S202, S305) una primera imagen y una segunda imagen de un objeto respectivamente por el primer sensor (12) de imagen y el segundo sensor (22) de imagen, en el que un número de píxeles en la primera imagen es diferente de un número de píxeles en la segunda imagen; realizar (S203, S306) una operación de interpolación en los píxeles en la segunda imagen para obtener una tercera imagen que tiene un mismo número de píxeles que el de la primera imagen; y realizar (S204, S307) una composición de imagen en la tercera imagen y la primera imagen para obtener una imagen de alto rango dinámico del objeto.

Description

DESCRIPCIÓN
Método y aparato para fotografiar imagen y dispositivo terminal
Campo
La presente divulgación se refiere al campo de la tecnología electrónica, y más particularmente a un método y un aparato para fotografiar una imagen, y un dispositivo terminal.
Antecedentes
Con el desarrollo de productos electrónicos y tecnologías de procesamiento de imágenes, las personas tienen mayores y mayores requisitos sobre el efecto de las imágenes. Las imágenes HDR (Alto Rango Dinámico), que tienen ventajas de capas ricas, realidad intensa, enorme alto rango dinámico y mejor efecto de iluminación para restaurar escenarios reales, han sido de interés por muchas personas.
El documento EP3185537A1 desvela métodos y aparatos que se proporcionan para obtener una imagen por un dispositivo electrónico. Se obtiene una primera imagen para un objeto de un primer sensor de imagen del dispositivo electrónico. La información con respecto a un estado de enfoque se determina con respecto al objeto basándose en la primera imagen. El segundo sensor de imagen del dispositivo electrónico se enfoca en el objeto basándose en la información con respecto al estado de enfoque. Se obtiene una segunda imagen para el objeto a través del segundo sensor de imagen.
El documento US2015/0103200A1 desvela la calibración de sensores, se identifica una característica asociada con un primer o un segundo sensor. La característica puede identificarse antes o después del montaje de un dispositivo que incluye el primer y segundo sensores. A su vez, una característica de operación de al menos uno del primer sensor o el segundo sensor puede ajustarse basándose en la característica identificada. Además una primera imagen puede capturarse con el primer sensor y una segunda imagen puede capturarse con el segundo sensor. Un atributo de la segunda imagen, por ejemplo, puede ajustarse para tratar sustancialmente cualquier diferencia entre el atributo de la segunda imagen y un correspondiente atributo de la primera imagen usando la característica para su calibración. Los ajustes descritos en el presente documento pueden ayudar a diversas técnicas de procesamiento que operan en pares de imágenes, por ejemplo, particularmente cuando se usa una mezcla heterogénea de sensores.
El documento US200610245014A1 desvela un aparato de formación de imágenes incluye una pluralidad de filtros de color dispuestos en una disposición específica; una pluralidad de píxeles dispuestos de manera adyacente en cada filtro de color; una sección de ajuste de exposición para asignar una de una pluralidad de exposiciones a cada píxel para realizar exposición usando la pluralidad de exposiciones; una sección de lectura para leer una señal de imagen que corresponde cada una de la pluralidad de las exposiciones de la pluralidad de los píxeles de cada filtro de color; y una sección de sintetización para determinar una señal de imagen de cada filtro de color, basándose en las señales de imagen leídas por la sección de lectura, y sintetizar las señales de imagen determinadas de todos de la pluralidad de los filtros de color, para emitir una señal de imagen para formar una imagen.
Divulgación
Las realizaciones de la presente divulgación proporcionan un método para fotografiar una imagen. El método se expone en la reivindicación 1.
En una realización, controlar n puntos de píxel adyacentes que corresponden a una misma unidad de filtro en el segundo sensor de imagen para estar por debajo de respectivas diferentes cantidades de exposición incluye: controlar n puntos de píxel adyacentes que corresponden a una misma unidad de filtro en el segundo sensor de imagen para someterse a respectivas diferentes duraciones de exposición; y/o controlar n puntos de píxel adyacentes que corresponden a una misma unidad de filtro en el segundo sensor de imagen para que sean correspondientes a respectivas diferentes iluminaciones.
En una realización, después de controlar n puntos de píxel adyacentes que corresponden a una misma unidad de filtro en el segundo sensor de imagen para que sean correspondientes a respectivas diferentes iluminaciones, el método incluye adicionalmente: determinar si una luminancia de cada punto de píxel está dentro de un rango prestablecido; y si la luminancia de cualquier punto de píxel está fuera del rango prestablecido, aumentar o reducir las duraciones de exposición de respectivos puntos de píxel.
En una realización, cada unidad de filtro en el segundo módulo de cámara corresponde a 2*2 puntos de píxel adyacentes en el segundo sensor de imagen.
En una realización, un número de puntos de píxel en el primer sensor de imagen es el mismo que un número de puntos de píxel en el segundo sensor de imagen.
En una realización, antes de controlar los n puntos de píxel adyacentes que corresponden a una misma unidad de filtro en el segundo sensor de imagen para estar por debajo de respectivas diferentes cantidades de exposición, el método incluye adicionalmente: recibir un comando para fotografiar la imagen de HDR.
Con el método para fotografiar una imagen de acuerdo con las realizaciones de la presente divulgación, los n puntos de píxel adyacentes que corresponden a la misma unidad de filtro en el segundo sensor de imagen se controlan para estar bajo diferentes cantidades de exposición, y la primera imagen y la segunda imagen del objeto a fotografiar se obtienen por el primer sensor de imagen y el segundo sensor de imagen respectivamente, y a continuación se realiza la división de imagen en la segunda imagen para obtener la tercera imagen que tiene el mismo número de píxeles que la primera imagen, y finalmente se componen la tercera imagen y la primera imagen para obtener la imagen de HDR del objeto a fotografiar. Por lo tanto, se usan dos módulos de cámara para fotografiar, usándose el primer módulo de cámara para obtener una imagen normal, y usándose el segundo módulo de cámara para obtener una imagen con respectivo píxel de combinación que tiene diferentes cantidades de exposición, y a continuación se componen las dos imágenes para generar la imagen de HDR, reduciendo por lo tanto el tiempo usado para fotografiar la imagen de HDR, potenciando el efecto de fotografiar la imagen, y mejorando la experiencia de usuario. Las realizaciones de la presente divulgación proporcionan un aparato para fotografiar una imagen. El aparato se expone en la reivindicación 7.
En una realización, el módulo de control está configurado para controlar n puntos de píxel adyacentes que corresponden a una misma unidad de filtro en el segundo sensor de imagen para someterse a respectivas diferentes duraciones de exposición; y/o controlar n puntos de píxel adyacentes que corresponden a una misma unidad de filtro en el segundo sensor de imagen para que sean correspondientes a respectivas diferentes iluminaciones.
En una realización, el módulo de control está configurado adicionalmente para: determinar si una luminancia de cada punto de píxel está dentro de un rango prestablecido; y aumentar o reducir las duraciones de exposición de respectivos puntos de píxel, si la luminancia de cualquier punto de píxel está fuera del rango prestablecido.
En una realización, cada unidad de filtro en el segundo módulo de cámara corresponde a 2*2 puntos de píxel adyacentes en el segundo sensor de imagen.
En una realización, un número de puntos de píxel en el primer sensor de imagen es el mismo que un número de puntos de píxel en el segundo sensor de imagen.
En una realización, el aparato incluye adicionalmente un módulo de recepción configurado para recibir un comando para fotografiar la imagen de HDR.
Con el aparato para fotografiar una imagen de acuerdo con las realizaciones de la presente divulgación, los n puntos de píxel adyacentes que corresponden a la misma unidad de filtro en el segundo sensor de imagen se controlan para estar bajo diferentes cantidades de exposición, y la primera imagen y la segunda imagen del objeto a fotografiar se obtienen por el primer sensor de imagen y el segundo sensor de imagen respectivamente, y a continuación se realiza la división de imagen en la segunda imagen para obtener la tercera imagen que tiene el mismo número de píxeles que la primera imagen, y finalmente se componen la tercera imagen y la primera imagen para obtener la imagen de HDR del objeto a fotografiar. Por lo tanto, se usan dos módulos de cámara para fotografiar, usándose el primer módulo de cámara para obtener una imagen normal, y usándose el segundo módulo de cámara para obtener una imagen con respectivo píxel de combinación que tiene diferentes cantidades de exposición, y a continuación se componen las dos imágenes para generar la imagen de HDR, reduciendo por lo tanto el tiempo usado para fotografiar la imagen de HDR, potenciando el efecto de fotografiar la imagen, y mejorando la experiencia de usuario. Las realizaciones de la presente divulgación proporcionan un dispositivo terminal. El dispositivo terminal se expone en la reivindicación 13.
Con el dispositivo terminal de acuerdo con las realizaciones de la presente divulgación, los n puntos de píxel adyacentes que corresponden a la misma unidad de filtro en el segundo sensor de imagen se controlan para estar bajo diferentes cantidades de exposición, y la primera imagen y la segunda imagen del objeto a fotografiar se obtienen por el primer sensor de imagen y el segundo sensor de imagen respectivamente, y a continuación se realiza la división de imagen en la segunda imagen para obtener la tercera imagen que tiene el mismo número de píxeles que la primera imagen, y finalmente se componen la tercera imagen y la primera imagen para obtener la imagen de HDR del objeto a fotografiar. Por lo tanto, se usan dos módulos de cámara para fotografiar, usándose el primer módulo de cámara para obtener una imagen normal, y usándose el segundo módulo de cámara para obtener una imagen con respectivo píxel de combinación que tiene diferentes cantidades de exposición, y a continuación se componen las dos imágenes para generar la imagen de HDR, reduciendo por lo tanto el tiempo usado para fotografiar la imagen de HDR, potenciando el efecto de fotografiar la imagen, y mejorando la experiencia de usuario.
Breve descripción de los dibujos
Los anteriores y/u otros aspectos y ventajas de la presente divulgación se harán más evidentes y fáciles de entender a partir de la siguiente descripción de realizaciones con referencia a los dibujos, en los que:
La Figura 1 es un diagrama esquemático que muestra una estructura espacial de un primer conjunto de cámara proporcionado en las realizaciones de la presente divulgación.
La Figura 2 es un diagrama esquemático que muestra una estructura espacial de un segundo conjunto de cámara proporcionado en las realizaciones de la presente divulgación.
La Figura 3 es un diagrama de flujo de un método para fotografiar una imagen de acuerdo con una realización de la presente divulgación.
La Figura 4 es un diagrama de flujo de un método para fotografiar una imagen de acuerdo con otra realización de la presente divulgación.
La Figura 5 es un diagrama de bloques de un aparato para fotografiar una imagen de acuerdo con una realización de la presente divulgación.
La Figura 6 es un diagrama de bloques de un aparato para fotografiar una imagen de acuerdo con otra realización de la presente divulgación.
La Figura 7 es un diagrama de bloques de un dispositivo terminal de acuerdo con una realización de la presente divulgación.
Realizaciones de la presente divulgación
Se hará ahora referencia a en detalle a realizaciones ejemplares, ejemplos de las que se ilustran en los dibujos adjuntos, en los que los mismos o similares números de referencia a través de todos los dibujos representan los mismos o similares elementos o elementos que tienen las mismas funciones o similares. Las realizaciones descritas a continuación con referencia a los dibujos son meramente ejemplares y se usan para explicar la presente divulgación, y no deben entenderse como limitación a la presente divulgación.
Con respecto a los problemas de tiempo de fotografiado largo y efecto de fotografiado malo en el método existente para fotografiar imágenes, las respectivas realizaciones de la presente divulgación proporcionan un método para fotografiar una imagen, que utiliza dos cámaras para fotografiar dos imágenes, obteniendo una cámara una imagen normal, obteniendo la otra cámara una imagen con diferente exposición, y a continuación procesa las dos imágenes para obtener una imagen de HDR.
A continuación, se describe un método y un aparato para fotografiar una imagen y un dispositivo terminal de acuerdo con las realizaciones de la presente divulgación con referencia a los dibujos.
Para ilustrar de manera evidente y explicar el método para fotografiar una imagen proporcionada en la presente divulgación, se ilustra en primer lugar en detalle una estructura de un segundo conjunto de cámara proporcionado en la presente divulgación.
El método para fotografiar una imagen proporcionada por realizaciones de la presente divulgación se aplica en un dispositivo terminal que tiene un primer conjunto de cámara y un segundo conjunto de cámara. El dispositivo terminal puede ser de cualquier tipo, por ejemplo, puede ser un teléfono móvil, un IPAD, un dispositivo llevable inteligente o similares.
El primer conjunto de cámara puede adoptar la estructura general del conjunto de cámara, que incluye una primera matriz de filtros y un primer sensor de imagen, y correspondiendo cada unidad de filtro en la primera matriz de filtros a un píxel del primer sensor de imagen, de manera que respectivos píxeles fotosensibles en el primer sensor de imagen generan señales eléctricas recibiendo señales ópticas filtradas por respectivas unidades de filtro en la matriz de filtros, y se emite una imagen por exposición.
En detalle, el primer sensor de imagen puede ser un sensor de imagen CCD (Dispositivo de Carga Acoplada), o puede ser un sensor de imagen CMOS (Transistor de Semiconductor Complementario de Óxido Metálico), que no está limitado en la presente divulgación.
La estructura del segundo conjunto de cámara en las presentes realizaciones se ilustra a continuación con referencia a la Figura 1. La Figura 1 es un diagrama esquemático que ilustra una estructura espacial de un primer conjunto de cámara proporcionado por las realizaciones de la presente divulgación.
Como se ilustra en la Figura 1, el primer conjunto 10 de cámara incluye una primera matriz 11 de unidades de filtro y un primer sensor 12 de imagen.
La primera matriz 11 de unidades de filtro incluye una pluralidad de primeras unidades 111 de filtro que corresponden a una pluralidad de puntos de píxel del primer sensor 12 de imagen en una relación de uno a uno, es decir, cada primera unidad 111 de filtro corresponde a un punto 121 de píxel en el primer sensor 12 de imagen.
Además, la estructura del segundo conjunto de cámara es la misma que la estructura del primer conjunto de cámara, pero cada unidad de filtro en el segundo conjunto de cámara corresponde a un píxel de combinación en el segundo sensor de imagen. Cada píxel de combinación incluye n puntos de píxel adyacentes, donde n es mayor o igual que 2. La estructura del segundo conjunto de cámara en las presentes realizaciones se ilustra a continuación con referencia a la Figura 2.
La Figura 2 es un diagrama esquemático que ilustra una estructura espacial de un segundo conjunto de cámara proporcionado por las realizaciones de la presente divulgación.
Como se ilustra en la Figura 2, el segundo conjunto 20 de cámara incluye una segunda matriz 1 de unidad de filtro y un segundo sensor 2 de imagen.
La matriz 21 de unidades de filtro incluye una pluralidad de segundas unidades 211 de filtro, y cada unidad 211 de filtro corresponde a n puntos 221 de píxel adyacentes en el segundo sensor 22 de imagen, donde n es mayor o igual que 2. Aunque n puede ser un número mayor o igual que 2, la calidad de formación de imágenes del segundo sensor 2 de imagen es óptima cuando n=4, de manera que la Figura 2 ilustra un ejemplo en el que n=2*2 puntos de píxel.
Basándose en la estructura ilustrada en la Figura 2, en el segundo conjunto de cámara, se combinan cada 2*2 puntos de píxel en el segundo sensor 22 de imagen para formar un píxel 222 de combinación, y a continuación puede obtenerse una imagen con diferente exposición controlando diferentes puntos de píxel en cada píxel 222 de combinación para que estén bajo diferentes cantidades de exposición.
En detalle, el segundo sensor de imagen puede ser un sensor de imagen CCD (Dispositivo de Carga Acoplada), o puede ser un sensor de imagen CMOS (Transistor de Semiconductor Complementario de Óxido Metálico), que no está limitado en la presente divulgación.
Basándose en la estructura anterior del segundo conjunto de cámara y el primer conjunto de cámara, el método para fotografiar una imagen proporcionado por las realizaciones de la presente divulgación se describe a continuación con referencia a la Figura 3.
La Figura 3 es un diagrama de flujo de un método para fotografiar una imagen de acuerdo con una realización de la presente divulgación.
Como se ilustra en la Figura 3, el método para fotografiar una imagen incluye los siguientes actos.
En el bloque S201, se controlan n puntos de píxel adyacentes que corresponden a la misma unidad de filtro en el segundo sensor de imagen para estar bajo respectivas diferentes cantidades de exposición.
En el bloque S202, se obtienen una primera imagen y una segunda imagen de un objeto a fotografiarse respectivamente por el primer sensor de imagen y el segundo sensor de imagen.
La cantidad de exposición hace referencia a una integración de tiempo de iluminación recibida por el sensor de imagen sobre la duración de exposición. Por consiguiente, la cantidad de exposición tiene una relación directa con la duración de exposición y la iluminación.
En las realizaciones de la presente divulgación, para obtener una imagen que tiene un rango dinámico más amplio y más detalles de imagen que una imagen convencional, pueden controlarse n puntos de píxel en un píxel de combinación para que estén bajo diferentes cantidades de exposición, para obtener una segunda imagen del objeto a fotografiar. Cada píxel de combinación en la segunda imagen está formado de n puntos de píxel bajo diferentes cantidades de exposición, es decir, la segunda imagen incluye un conjunto de todos los píxeles de n imágenes del objeto a fotografiar bajo n clases de exposición.
En una implementación específica, puesto que la cantidad de exposición recibida por cada punto de píxel en el sensor de imagen está relacionada con la iluminación y la duración de exposición, la cantidad de exposición para cada punto de píxel en el segundo sensor de imagen puede controlarse controlando la duración de exposición y la iluminación.
En otras palabras, controlar los n puntos de píxel adyacentes que corresponden a una misma unidad de filtro en el segundo sensor de imagen para estar por debajo de respectivas diferentes cantidades de exposición incluye: controlar los n puntos de píxel adyacentes que corresponden a una misma unidad de filtro en el segundo sensor de imagen para someterse a respectivas diferentes duraciones de exposición; y/o controlar n puntos de píxel adyacentes que corresponden a una misma unidad de filtro en el segundo sensor de imagen para que sean correspondientes a respectivas diferentes iluminaciones.
En una implementación específica, las duraciones de exposición o iluminaciones de puntos de píxel en cada píxel de combinación pueden controlarse de muchas maneras. Tomando el sensor de imagen CMOS como un ejemplo, un circuito de procesamiento de señal analógica, un circuito de conversión digital, un conmutador de selección de fila, un conmutador de selección de columna, un amplificador, una matriz de célula fotosensible, etc., están integrados en un mismo chip de sensor de imagen CMOS. Controlando el conmutador de selección de fila y el conmutador de selección de columna para encendido o apagado, la matriz de célula fotosensible se controla para encendido o apagado, de manera que la iluminación recibida por el sensor de imagen puede controlarse, controlando por lo tanto la cantidad de exposición. En una realización de la presente divulgación, controlando la duración en la que el conmutador de selección de fila y el conmutador de selección de columna se encienden o apagan, puede controlarse la duración en la que se enciende o apaga la matriz de célula fotosensible, de manera que la duración en la que el sensor de imagen experimenta la exposición puede controlarse, controlando por lo tanto la cantidad de exposición. Pueden usarse también otras maneras. Por lo tanto, se obtiene la segunda imagen del objeto a fotografiar por el segundo sensor de imagen.
En las realizaciones de la presente divulgación, controlando diferentes puntos de píxel del mismo píxel de combinación en el segundo sensor de imagen para que estén bajo diferentes cantidades de exposición, se obtiene una imagen con respectivo píxel de combinación que tiene diferentes cantidades de exposición, que lleva menos tiempo que obtener múltiples imágenes respectivamente bajo diferentes cantidades de exposición. Además, puesto que n es mayor o igual que 2, la imagen de HDR obtenida tiene una mejor transición de sombreado y representa colores más realistas.
En las realizaciones de la presente divulgación, puesto que se obtiene la segunda imagen del objeto por el segundo sensor de imagen cuando los puntos de píxel están bajo diferentes cantidades de exposición, una parte del objeto que tiene un brillo superior puede ser más oscura en la imagen, y una parte del objeto que tiene un brillo inferior puede ser más brillante en la imagen, dando como resultado distorsión de imagen. En las realizaciones de la presente divulgación, cada unidad de filtro en el primer conjunto de cámara corresponde a un punto de píxel en el primer sensor de imagen, es decir, el primer sensor de imagen en el primer conjunto de cámara aún recibe luz de una manera convencional, y se obtiene una imagen normal del objeto, es decir, la primera imagen, por el primer sensor de imagen.
En el bloque S203, se realiza una división de imagen en la segunda imagen para obtener una tercera imagen que tiene un mismo número de píxeles que el de la primera imagen.
En el bloque S204, se realiza una composición de imagen en la tercera imagen y la primera imagen para obtener una imagen de HDR del objeto.
En una implementación específica, para obtener la imagen de HDR usando la primera imagen y la segunda imagen, la primera imagen y la segunda imagen pueden estar compuestas. Sin embargo, en una posible implementación de la presente divulgación, el número de píxeles en la primera imagen puede ser diferente del número de píxeles en la segunda imagen, y por lo tanto no es posible componer la primera imagen y la segunda imagen en una imagen. Por lo tanto, en las realizaciones de la presente divulgación, antes de la composición de imagen usando la primera imagen y la segunda imagen, se realiza la división de imagen en la segunda imagen, para obtener la tercera imagen que tiene el mismo número de píxeles que la primera imagen.
En detalle, puede realizarse una operación de interpolación en los píxeles en la segunda imagen, para obtener la tercera imagen que tiene el mismo número de píxeles que la primera imagen.
La operación de interpolación puede prestablecerse, o puede determinarse de acuerdo con situaciones específicas de la segunda imagen. En detalle, puede ser un algoritmo de interpolación bilineal, o un algoritmo de interpolación bicúbica. Realizando la operación de interpolación en la segunda imagen, pueden generarse nuevos puntos de píxel, obteniendo por lo tanto la tercera imagen que tiene el mismo número de píxeles que la primera imagen.
La composición de imagen se realiza en la primera imagen y la tercera imagen, y por lo tanto se obtiene la imagen de HDR del objeto. Con respecto a métodos de composición específicos, puede hacerse referencia a la técnica relacionada, que no se detallará en el presente documento.
En las realizaciones de la presente divulgación, el primer sensor de imagen y el segundo sensor de imagen tienen el mismo número de puntos de píxel, de otra manera la tercera imagen que tiene el mismo número de píxeles que la primera imagen no puede obtenerse incluso si se realiza la operación de interpolación en la segunda imagen. Por ejemplo, suponiendo que el primer sensor de imagen tiene 16 millones de puntos de píxel, el segundo sensor de imagen tiene 8 millones de puntos de píxel, y n es 4. Después del agrupamiento de píxeles, el segundo sensor de imagen tiene 2 millones de píxeles. Para evitar mosaicos o partículas en la tercera imagen obtenida después de la operación de interpolación, la tercera imagen tiene como mucho 8 millones de puntos de píxel, es decir, no es posible que la tercera imagen tenga el mismo número de puntos de píxel que la primera imagen.
Además, puede entenderse que, cuando el objeto está en un escenario que tiene un enorme contraste entre luz y sombra, el aparato para fotografiar imágenes puede fotografiar automáticamente una imagen de HDR, o puede fotografiar una imagen de HDR después de recibir un comando del usuario. Es decir, en las realizaciones de la presente divulgación, antes de controlar los n puntos de píxel adyacentes que corresponden a una misma unidad de filtro en el segundo sensor de imagen para estar por debajo de respectivas diferentes cantidades de exposición, puede recibirse un comando para fotografiar la imagen de h Dr .
El comando para fotografiar la imagen de HDR puede activarse por el usuario a través de hacer clic, deslizamiento o presión larga de un botón que tiene el comando de fotografiado de la imagen de HDR.
Con el método para fotografiar una imagen de acuerdo con las realizaciones de la presente divulgación, los n puntos de píxel adyacentes que corresponden a la misma unidad de filtro en el segundo sensor de imagen se controlan para estar bajo diferentes cantidades de exposición, y la primera imagen y la segunda imagen del objeto a fotografiar se obtienen por el primer sensor de imagen y el segundo sensor de imagen respectivamente, y a continuación se realiza la división de imagen en la segunda imagen para obtener la tercera imagen que tiene el mismo número de píxeles que la primera imagen, y finalmente se componen la tercera imagen y la primera imagen para obtener la imagen de HDR del objeto a fotografiar. Por lo tanto, se usan dos conjuntos de cámara para fotografiar, usándose el primer conjunto de cámara para obtener una imagen normal, y usándose el segundo conjunto de cámara para obtener una imagen con respectivo píxel de combinación que tiene diferentes cantidades de exposición, y a continuación se componen las dos imágenes para generar la imagen de HDR, reduciendo por lo tanto el tiempo usado para fotografiar la imagen de HDR, potenciando el efecto de fotografiar la imagen, y mejorando la experiencia de usuario.
Puede observarse a partir de la descripción anterior que, puede obtenerse la segunda imagen del objeto controlando diferentes puntos de píxel del píxel de combinación en el segundo sensor de imagen para que estén bajo diferentes cantidades de exposición, y a continuación se realiza el procesamiento de división en la segunda imagen para composición de imagen con la primera imagen obtenida por el primer conjunto de cámara para obtener la imagen de HDR. En una posible implementación, cuando respectivos puntos de píxel del mismo píxel de combinación en el segundo sensor de imagen están bajo diferentes iluminaciones para realizar diferentes cantidades de exposición para diferentes puntos de píxel en el mismo píxel de combinación, la luminancia de algunos puntos de píxel puede ser demasiado grande o insuficiente debido a características tales como la estructura o el material del objeto. Se proporcionará a continuación una descripción detallada con referencia a la Figura 4.
La Figura 4 es un diagrama de flujo de un método para fotografiar una imagen de acuerdo con otra realización de la presente divulgación.
Como se ilustra en la Figura 4, el método para fotografiar una imagen incluye los siguientes actos.
En el bloque S301, se recibe un comando para fotografiar una imagen de HDR.
En el bloque S302, n puntos de píxel adyacentes que corresponden a una misma unidad de filtro en el segundo sensor de imagen se controlan para estar bajo respectivas diferentes iluminaciones, donde n es mayor o igual que 2. Puede entenderse que, puesto que la cantidad de la exposición está relacionada con la duración de la exposición y la iluminación, es posible realizar diferentes cantidades de exposición para diferentes puntos de píxel en el mismo píxel de combinación ajustando respectivas duraciones de exposición e iluminaciones que corresponden a diferentes puntos de píxel en el mismo píxel de combinación.
En una realización de la presente divulgación, se realizan diferentes cantidades de exposición para diferentes puntos de píxel en el mismo píxel de combinación controlando diferentes puntos de píxel en el mismo píxel de combinación para que estén bajo diferentes iluminaciones y misma duración de exposición.
En el bloque S303, se determina si una luminancia de cada punto de píxel está dentro de un rango prestablecido. En el bloque S304, si se determina que la luminancia de cualquier punto de píxel está fuera del presente rango, se reducen o aumentan las duraciones de exposición de respectivos puntos de píxel.
La luminancia hace referencia a un grado de brillo presentado por una superficie del objeto bajo luz.
Puede entenderse que, durante el fotografiado de una imagen, pueden presentarse diferentes grados de brillo debido a la dirección de la luz y estructura o material del objeto, incluso si el objeto está bajo la misma iluminación. Por lo tanto, después de que se determinan las duraciones de exposición e iluminaciones para respectivos puntos de píxel en el mismo píxel de combinación, una cierta parte del objeto puede hacerse más blanca en la imagen debido a la sobreexposición o hacerse poco clara debido a la subexposición, si la luminancia de esta parte es demasiado alta o demasiado baja. En las realizaciones de la presente divulgación, para evitar el área de sobreexposición o subexposición en la imagen obtenida por el segundo conjunto de cámara, puede establecerse un rango para la luminancia, y si la luminancia de un cierto punto de píxel no está dentro del rango, la duración de exposición de este punto de píxel se aumenta o reduce, evitando de esta manera la sobreexposición o subexposición.
El presente rango puede determinarse de acuerdo con valores empíricos. Por ejemplo, bajo condiciones normales, cuando la iluminación es 1 lux, pueden obtenerse características detalladas del objeto de manera verdadera si la luminancia del punto de píxel está dentro del intervalo de 10-20 nit, y por lo tanto el rango prestablecido puede ser 10-20 nit. Además, el rango prestablecido puede ajustarse de acuerdo con factores tales como estructura o material del objeto, que no está limitado en el presente documento.
En una implementación específica, tomando el sensor de imagen CMOS como un ejemplo, se controla la duración en la que la conmutación de selección de fila y la conmutación de selección de columna integradas en el mismo chip de sensor de imagen CMOS se encienden o apagan, de manera que se controla la duración en la que la matriz de células fotosensibles se enciende o apaga, reduciendo o aumentando por lo tanto las duraciones de exposición de respectivos puntos de píxel.
Por ejemplo, suponiendo que la iluminación de un cierto punto de píxel es 1 lux, la duración de exposición es 1 s, y el rango prestablecido es 10-20 nit. A continuación, si la luminancia del punto de píxel es 5 nit, que está por debajo del rango prestablecido, la duración de exposición puede aumentarse, por ejemplo, establecerse a 2 s, evitando por lo tanto la subexposición.
En el bloque S305, se obtienen una primera imagen y una segunda imagen del objeto respectivamente por el primer sensor de imagen y el segundo sensor de imagen.
En el bloque S306, se realiza una división de imagen en la segunda imagen para obtener una tercera imagen que tiene un mismo número de píxeles que el de la primera imagen.
En el bloque S307, se realiza una composición de imagen en la tercera imagen y la primera imagen para obtener una imagen de HDR del objeto.
Con respecto a implementaciones específicas y los principios de los bloques S301-S302 y los bloques S305-S307, puede hacerse referencia a la descripción de los bloques S201-S204 en la realización anterior, que no se detalla en este punto.
Con el método para fotografiar una imagen de acuerdo con las realizaciones de la presente divulgación, después de que se recibe el comando para fotografiar una imagen de HDR, se controlan los n puntos de píxel adyacentes que corresponden a la misma unidad de filtro en el segundo sensor de imagen para que sean correspondientes a diferentes iluminaciones, y cuando la luminancia de un cierto punto de píxel no está dentro del rango prestablecido, se ajustan las duraciones de exposición de los puntos de píxel, y a continuación se obtienen la primera imagen y la segunda imagen del objeto a fotografiar por el primer sensor de imagen y el segundo sensor de imagen respectivamente, y se realiza la división de imagen en la segunda imagen para obtener la tercera imagen que tiene el mismo número de píxeles que la primera imagen, y finalmente se componen la tercera imagen y la primera imagen para obtener la imagen de HDR del objeto a fotografiar. Por lo tanto, se usan dos conjuntos de cámara para fotografiar, usándose el primer conjunto de cámara para obtener una imagen normal, y usándose el segundo conjunto de cámara para obtener una imagen con respectivo píxel de combinación que tiene diferentes cantidades de exposición, y a continuación se componen las dos imágenes para generar la imagen de HDR, durante lo cual las duraciones de exposición de respectivos puntos de píxel se ajustan dinámicamente de acuerdo con la luminancia de los puntos de píxel, reduciendo por lo tanto el tiempo usado para fotografiar la imagen de HDR, potenciando el efecto de fotografiar la imagen, y mejorando la experiencia de usuario.
La Figura 5 es un diagrama de bloques de un aparato para fotografiar una imagen de acuerdo con una realización de la presente divulgación.
En detalle, el aparato para fotografiar una imagen se aplica en un dispositivo terminal que tiene un primer conjunto 10 de cámara y un segundo conjunto 20 de cámara. El primer conjunto de cámara incluye una pluralidad de primeras unidades de filtro y un primer sensor de imagen, correspondiendo la pluralidad de primeras unidades de filtro a una pluralidad de puntos de píxel del primer sensor de imagen en una relación de uno a uno. El segundo conjunto de cámara incluye una pluralidad de segundas unidades de filtro y un segundo sensor de imagen, y cada una de la pluralidad de segundas unidades de filtro en el segundo conjunto de cámara corresponde a n puntos de píxel adyacentes de una pluralidad de puntos de píxel del segundo sensor de imagen, donde n es mayor o igual que 2. Como se ilustra en la Figura 5, el aparato para fotografiar una imagen incluye un módulo 41 de control, un módulo 42 de obtención, un módulo 43 de procesamiento y un módulo 44 de composición.
El módulo 41 de control está configurado para controlar los n puntos de píxel adyacentes que corresponden a una misma unidad de filtro en el segundo sensor de imagen para estar por debajo de respectivas diferentes cantidades de exposición.
El módulo 42 de obtención está configurado para obtener una primera imagen y una segunda imagen de un objeto respectivamente por el primer sensor de imagen y el segundo sensor de imagen.
El módulo 43 de procesamiento está configurado para realizar una división de imagen en la segunda imagen para obtener una tercera imagen que tiene un mismo número de píxeles que el de la primera imagen.
El módulo 44 de composición está configurado para realizar una composición de imagen en la tercera imagen y la primera imagen para obtener una imagen de HDR del objeto.
Debería observarse que, la descripción anterior para las realizaciones del método para fotografiar una imagen es aplicable también al aparato para fotografiar una imagen, que no se detalla en este punto.
Con el aparato para fotografiar una imagen de acuerdo con las realizaciones de la presente divulgación, los n puntos de píxel adyacentes que corresponden a la misma unidad de filtro en el segundo sensor de imagen se controlan para estar bajo diferentes cantidades de exposición, y la primera imagen y la segunda imagen del objeto a fotografiar se obtienen por el primer sensor de imagen y el segundo sensor de imagen respectivamente, y a continuación se realiza la división de imagen en la segunda imagen para obtener la tercera imagen que tiene el mismo número de píxeles que la primera imagen, y finalmente se componen la tercera imagen y la primera imagen para obtener la imagen de HDR del objeto a fotografiar. Por lo tanto, se usan dos conjuntos de cámara para fotografiar, usándose el primer conjunto de cámara para obtener una imagen normal, y usándose el segundo conjunto de cámara para obtener una imagen con respectivo píxel de combinación que tiene diferentes cantidades de exposición, y a continuación se componen las dos imágenes para generar la imagen de HDR, reduciendo por lo tanto el tiempo usado para fotografiar la imagen de HDR, potenciando el efecto de fotografiar la imagen, y mejorando la experiencia de usuario.
La Figura 6 es un diagrama de bloques de un aparato para fotografiar una imagen de acuerdo con otra realización de la presente divulgación.
Como se muestra en la Figura 6, basándose en la Figura 5, el aparato incluye adicionalmente un módulo 51 de recepción. El módulo 51 de recepción está configurado para recibir un comando para fotografiar la imagen de HDR. En una posible implementación de la presente divulgación, el módulo 41 de control está configurado para: controlar n puntos de píxel adyacentes que corresponden a una misma unidad de filtro en el segundo sensor de imagen para someterse a respectivas diferentes duraciones de exposición; y/o controlar n puntos de píxel adyacentes que corresponden a una misma unidad de filtro en el segundo sensor de imagen para que sean correspondientes a respectivas diferentes iluminaciones.
En otra posible implementación de la presente divulgación, el módulo 41 de control está configurado adicionalmente para: determinar si una luminancia de cada punto de píxel está dentro de un rango prestablecido; y aumentar o reducir las duraciones de exposición de respectivos puntos de píxel, si la luminancia de cualquier punto de píxel está fuera del rango prestablecido.
En otra posible implementación de la presente divulgación, el módulo 43 de procesamiento está configurado para realizar una operación de interpolación en los píxeles en la segunda imagen para obtener la tercera imagen que tiene el mismo número de píxeles que la primera imagen.
En otra posible implementación de la presente divulgación, cada unidad de filtro en el segundo conjunto de cámara corresponde a 2*2 puntos de píxel adyacentes en el segundo sensor de imagen.
En otra posible implementación de la presente divulgación, un número de puntos de píxel en el primer sensor de imagen es el mismo que un número de puntos de píxel en el segundo sensor de imagen.
Debería observarse que, la descripción anterior para las realizaciones del método para fotografiar una imagen es aplicable también al aparato para fotografiar una imagen en esta realización, que no se detalla en este punto.
Con el aparato para fotografiar una imagen de acuerdo con las realizaciones de la presente divulgación, después de que se recibe el comando para fotografiar una imagen de HDR, se controlan los n puntos de píxel adyacentes que corresponden a la misma unidad de filtro en el segundo sensor de imagen para que sean correspondientes a diferentes iluminaciones, y cuando la luminancia de un cierto punto de píxel no está dentro del rango prestablecido, se ajustan las duraciones de exposición de los puntos de píxel, y a continuación se obtienen la primera imagen y la segunda imagen del objeto a fotografiar por el primer sensor de imagen y el segundo sensor de imagen respectivamente, y se realiza la división de imagen en la segunda imagen para obtener la tercera imagen que tiene el mismo número de píxeles que la primera imagen, y finalmente se componen la tercera imagen y la primera imagen para obtener la imagen de HDR del objeto a fotografiar. Por lo tanto, se usan dos conjuntos de cámara para fotografiar, usándose el primer conjunto de cámara para obtener una imagen normal, y usándose el segundo conjunto de cámara para obtener una imagen con respectivo píxel de combinación que tiene diferentes cantidades de exposición, y a continuación se componen las dos imágenes para generar la imagen de HDR, durante lo cual las duraciones de exposición de respectivos puntos de píxel se ajustan dinámicamente de acuerdo con la luminancia de los puntos de píxel, reduciendo por lo tanto el tiempo usado para fotografiar la imagen de HDR, potenciando el efecto de fotografiar la imagen, y mejorando la experiencia de usuario.
La Figura 7 es un diagrama de bloques de un dispositivo terminal de acuerdo con una realización de la presente divulgación.
Como se ilustra en la Figura 7, el dispositivo terminal incluye un alojamiento 61, un procesador 62, una memoria 63, una placa 64 de circuito, un circuito 65 de suministro de alimentación, un primer conjunto 66 de cámara y un segundo conjunto 67 de cámara recibidos en el alojamiento 61.
Cada unidad de filtro en el primer conjunto 66 de cámara corresponde a un punto de píxel de un primer sensor de imagen del primer conjunto 66 de cámara, y cada unidad de filtro en el segundo conjunto 67 de cámara corresponde a n puntos de píxel adyacentes de un segundo sensor de imagen del segundo conjunto 67 de cámara, donde n es mayor o igual que 2. La placa 64 de circuito está encerrada por el alojamiento 61, y el procesador 62 y la memoria 63 están situados en la placa 64 de circuito. El circuito 65 de suministro de alimentación está configurado para proporcionar alimentación para respectivos circuitos o componentes del dispositivo terminal. La memoria 63 está configurada para almacenar códigos de programa ejecutables. El procesador 62 está configurado para ejecutar un programa que corresponde a los códigos de programa ejecutables leyendo los códigos de programa ejecutables almacenados en la memoria 63, para realizar las siguientes operaciones: controlar los n puntos de píxel adyacentes que corresponden a una misma unidad de filtro en el segundo sensor de imagen para estar por debajo de respectivas diferentes cantidades de exposición; obtener una primera imagen y una segunda imagen de un objeto respectivamente por el primer sensor de imagen y el segundo sensor de imagen; realizar una división de imagen en la segunda imagen para obtener una tercera imagen que tiene un mismo número de píxeles que el de la primera imagen; y realizar una composición de imagen en la tercera imagen y la primera imagen para obtener una imagen de HDR del objeto.
Debería observarse que, la descripción anterior para las realizaciones del método para fotografiar una imagen es aplicable también al dispositivo terminal en esta realización, ambos tienen el mismo principio de implementación, que no se detalla en este punto.
Con el dispositivo terminal de acuerdo con las realizaciones de la presente divulgación, los n puntos de píxel adyacentes que corresponden a la misma unidad de filtro en el segundo sensor de imagen se controlan para estar bajo diferentes cantidades de exposición, y la primera imagen y la segunda imagen del objeto a fotografiar se obtienen por el primer sensor de imagen y el segundo sensor de imagen respectivamente, y a continuación se realiza la división de imagen en la segunda imagen para obtener la tercera imagen que tiene el mismo número de píxeles que la primera imagen, y finalmente se componen la tercera imagen y la primera imagen para obtener la imagen de HDR del objeto a fotografiar. Por lo tanto, se usan dos conjuntos de cámara para fotografiar, usándose el primer conjunto de cámara para obtener una imagen normal, y usándose el segundo conjunto de cámara para obtener una imagen con respectivo píxel de combinación que tiene diferentes cantidades de exposición, y a continuación se componen las dos imágenes para generar la imagen de HDR, reduciendo por lo tanto el tiempo usado para fotografiar la imagen de HDR, potenciando el efecto de fotografiar la imagen, y mejorando la experiencia de usuario.
La referencia a través de toda esta memoria descriptiva a "una realización", "algunas realizaciones", "un ejemplo", "un ejemplo específico", o "algunos ejemplos", significa que un rasgo, estructura, material o característica particular descrito en relación con la realización o ejemplo está incluido en al menos una realización o ejemplo de la presente divulgación. En esta memoria descriptiva, las descripciones ejemplares de los términos anteriormente mencionados no hacen necesariamente referencia a la misma realización o ejemplo. Adicionalmente, los rasgos estructuras, materiales, o características particulares pueden combinarse de cualquier manera adecuada en una o más realizaciones o ejemplos. Además, los expertos en la materia podrían combinar diferentes realizaciones o diferentes características en las realizaciones o ejemplos descritos en la presente divulgación.
Además, expresiones tales como "primer" y "segundo" se usan en el presente documento para los fines de descripción y no se pretende que indiquen o impliquen importancia o significancia relativa o que impliquen el número de características técnicas indicadas. Por lo tanto, las características definidas con "primero" y "segundo" pueden comprender o implicar al menos una de estas características. En la descripción de la presente divulgación, "una pluralidad de" significa dos o más de dos, a menos que se especifique de otra manera.
Cualquier proceso o método descrito en un diagrama de flujo o descrito en el presente documento de otra maneras puede entenderse que incluye uno o más módulos, segmentos o porciones de códigos de instrucciones ejecutables para conseguir funciones o etapas lógicas específicas en el proceso, y el alcance de una realización preferida de la presente divulgación incluye otras implementaciones, en las que el orden de ejecución puede diferir del que se representa o analiza, incluyéndose de acuerdo con la función implicada, ejecutándose de manera concurrente o con concurrencia parcial o en el orden contrario para realizar la función, que debería entenderse por los expertos en la materia.
La lógica y/o etapa descritas de otra manera en el presente documento o mostradas en el diagrama de flujo, por ejemplo, una tabla de secuencias particulares de instrucciones ejecutables para realizar la función lógica, pueden conseguirse específicamente en cualquier medio legible por ordenador para usarse por el sistema de ejecución de instrucciones, dispositivo o equipo (tal como el sistema basado en ordenadores, comprendiendo el sistema procesadores u otros sistemas que puedan obtener la instrucción del sistema de ejecución de instrucciones, dispositivo y equipo y ejecutar la instrucción), o usarse en combinación con el sistema de ejecución de instrucciones, dispositivo y equipo. En cuanto a la especificación, "el medio legible por ordenador" puede ser cualquier dispositivo adaptativo para incluir, almacenar, comunicar, propagar, o transferir programas para usarse por o en combinación con el sistema de ejecución de instrucciones, dispositivo o equipo. Ejemplos más específicos del medio legible por ordenador comprenden pero sin limitación: una conexión electrónica (un dispositivo electrónico) con uno o más cables, una carcasa de ordenador portátil (un dispositivo magnético), una memoria de acceso aleatorio (RAM), una memoria de sólo lectura (ROM), una memoria de sólo lectura programable borrable (EPROM o una memoria flash), un dispositivo de fibra óptica y una memoria de sólo lectura de disco compacto portátil (CDROM). Además, el medio legible por ordenador puede incluso ser un papel u otro medio apropiado que pueda imprimirse programas en el mismo, esto es puesto que, por ejemplo, el papel u otro medio apropiado puede explorarse ópticamente y a continuación editarse, desencriptarse o procesarse con otros métodos apropiados cuando sea necesario para obtener los programas de una manera eléctrica, y a continuación los programas pueden almacenarse en las memorias informáticas.
Debería entenderse que cada parte de la presente divulgación puede realizarse por hardware, software, firmware o su combinación. En las realizaciones anteriores, pueden realizarse una pluralidad de etapas o métodos por el software o firmware almacenado en la memoria y ejecutarse por el sistema de ejecución de instrucciones apropiado. Por ejemplo, si se realiza por el hardware, análogamente en otra realización, las etapas o métodos pueden realizarse por una o una combinación de las siguientes técnicas conocidas en la técnica: un circuito de lógica discreta que tiene un circuito de puertas lógicas para realizar una función lógica de una señal de datos, un circuito integrado específico de la aplicación que tiene un circuito de puertas lógicas de combinación apropiada, una matriz de puertas programable (PGA), un campo de matriz de puertas programables (FPGA), etc.
Los expertos en la materia deberán entender que todo o partes de las etapas en el método ejemplar para la presente divulgación pueden conseguirse dando instrucciones al hardware relacionado con programas, los programas pueden almacenarse en un medio de almacenamiento legible por ordenador, y los programas pueden comprender una o una combinación de las etapas en las realizaciones del método de la presente divulgación cuando se ejecuta en un ordenador.
Además, cada célula de función de las realizaciones de la presente divulgación puede integrarse en un módulo de procesamiento, o estás células pueden ser la existencia física separada, o dos o más células están integradas en un módulo de procesamiento. El módulo integrado puede realizarse en una forma de hardware o en una forma de módulos de función de software. Cuando se realiza el módulo integrado en una forma de módulo de función de software y se comercializa o se usa como un producto independiente, el módulo integrado puede almacenarse en un medio de almacenamiento legible por ordenador.

Claims (13)

REIVINDICACIONES
1. Un método para fotografiar una imagen, aplicado en un dispositivo terminal que tiene un primer conjunto (10, 66) de cámara y un segundo conjunto (20, 67) de cámara, en el que cada unidad (111) de filtro en el primer conjunto (10, 66) de cámara corresponde a un punto (121) de píxel de un primer sensor (12) de imagen del primer conjunto (10, 66) de cámara, correspondiendo cada unidad (211) de filtro en el segundo conjunto (20, 67) de cámara a n puntos (221) de píxel adyacentes de un segundo sensor (22) de imagen del segundo conjunto (20, 67) de cámara, donde n es mayor o igual que 2, y el método comprende:
controlar (S201) los n puntos (221) de píxeles adyacentes que corresponden a una misma unidad (211) de filtro en el segundo sensor (22) de imagen para que estén por debajo de respectivas diferentes cantidades de exposición;
obtener (S202, S305) una primera imagen y una segunda imagen de un objeto respectivamente por el primer sensor (12) de imagen y el segundo sensor (22) de imagen, en el que un número de píxeles en la primera imagen es diferente de un número de píxeles en la segunda imagen;
realizar (S203, S306) una operación de interpolación en los píxeles en la segunda imagen para obtener una tercera imagen que tiene un mismo número de píxeles que el de la primera imagen; y
realizar (S204, S307) una composición de imagen en la tercera imagen y la primera imagen para obtener una imagen de alto rango dinámico del objeto.
2. El método de acuerdo con la reivindicación 1, en el que controlar (S201) los n puntos de píxel adyacentes que corresponden a una misma unidad de filtro en el segundo sensor de imagen para que estén por debajo de respectivas diferentes cantidades de exposición comprende:
controlar n puntos (221) de píxel adyacentes que corresponden a una misma unidad (211) de filtro en el segundo sensor (22) de imagen para someterse a respectivas diferentes duraciones de exposición; y/o
controlar (S302) n puntos (221) de píxel adyacentes que corresponden a una misma unidad (211) de filtro en el segundo sensor (22) de imagen para que sean correspondientes a respectivas diferentes iluminaciones.
3. El método de acuerdo con la reivindicación 2, en el que después de controlar (S302) n puntos (221) de píxel adyacentes que corresponden a una misma unidad (211) de filtro en el segundo sensor (22) de imagen para que sean correspondientes a respectivas diferentes iluminaciones, el método comprende adicionalmente: determinar (S303) si una luminancia de cada punto de píxel está dentro de un rango prestablecido; y si la luminancia de cualquier punto de píxel está fuera del rango prestablecido, aumentar o reducir (S304) las duraciones de exposición de respectivos puntos de píxel.
4. El método de acuerdo con cualquiera de las reivindicaciones 1-3, en el que cada unidad (211) de filtro en el segundo conjunto (20, 67) de cámara corresponde a 2*2 puntos (221) de píxel adyacentes en el segundo sensor (22) de imagen.
5. El método de acuerdo con la reivindicación 4, en el que un número de puntos (121) de píxel en el primer sensor (12) de imagen es el mismo que un número de puntos (221) de píxel en el segundo sensor (22) de imagen.
6. El método de acuerdo con cualquiera de las reivindicaciones 1-3, en el que antes de controlar (S201) los n puntos (221) de píxeles adyacentes que corresponden a una misma unidad (211) de filtro en el segundo sensor (22) de imagen para que estén por debajo de respectivas diferentes cantidades de exposición, el método comprende adicionalmente:
recibir (S301) un comando para fotografiar la imagen de alto rango dinámico.
7. Un aparato para fotografiar una imagen, aplicado en un dispositivo terminal que tiene un primer conjunto (10, 66) de cámara que comprende una pluralidad de primeras unidades (111) de filtro y un primer sensor (12) de imagen correspondiendo la pluralidad de primeras unidades (111) de filtro a una pluralidad de puntos (121) de píxel del primer sensor (12) de imagen en una relación de uno a uno; comprendiendo un segundo conjunto (20, 67) de cámara una pluralidad de segundas unidades (211) de filtro y un segundo sensor (22) de imagen, correspondiendo cada una de la pluralidad de segundas unidades (211) de filtro a n puntos de píxel adyacentes de una pluralidad de puntos (221) de píxel del segundo sensor (22) de imagen, donde n es mayor o igual que 2; y
el aparato comprende:
un módulo (41) de control, configurado para controlar los n puntos (221) de píxeles adyacentes que corresponden a una misma unidad (211) de filtro en el segundo sensor (22) de imagen para que estén por debajo de respectivas diferentes cantidades de exposición;
un módulo (42) de obtención, configurado para obtener una primera imagen y una segunda imagen de un objeto respectivamente por el primer sensor (12) de imagen y el segundo sensor (22) de imagen, en el que un número de píxeles en la primera imagen es diferente de un número de píxeles en la segunda imagen;
un módulo (43) de procesamiento, configurado para realizar una operación de interpolación en los píxeles en la segunda imagen para obtener una tercera imagen que tiene un mismo número de píxeles que el de la primera imagen; y
un módulo (44) de composición, configurado para realizar una composición de imagen en la tercera imagen y la primera imagen para obtener una imagen de alto rango dinámico del objeto.
8. El aparato de acuerdo con la reivindicación 7, en el que el módulo (41) de control está configurado para: controlar n puntos (221) de píxel adyacentes que corresponden a una misma unidad (211) de filtro en el segundo sensor (22) de imagen para someterse a respectivas diferentes duraciones de exposición; y/o
controlar n puntos (221) de píxel adyacentes que corresponden a una misma unidad (211) de filtro en el segundo sensor (22) de imagen para que sean correspondientes a respectivas diferentes iluminaciones.
9. El aparato de acuerdo con la reivindicación 8, en el que el módulo (41) de control está configurado adicionalmente para:
determinar si una luminancia de cada punto de píxel está dentro de un rango prestablecido; y
aumentar o reducir las duraciones de exposición de respectivos puntos de píxel, si la luminancia de cualquier punto de píxel está fuera del rango prestablecido.
10. El aparato de acuerdo con cualquiera de las reivindicaciones 7-9, en el que cada unidad (211) de filtro en el segundo conjunto (20, 67) de cámara corresponde a 2*2 puntos (221) de píxel adyacentes en el segundo sensor (22) de imagen.
11. El aparato de acuerdo con la reivindicación 10, en el que un número de puntos (121) de píxel en el primer sensor (12) de imagen es el mismo que un número de puntos (221) de píxel en el segundo sensor (22) de imagen.
12. El aparato de acuerdo con cualquiera de las reivindicaciones 7-9, que comprende adicionalmente:
un módulo (51) de recepción, configurado para recibir un comando para fotografiar la imagen de alto rango dinámico.
13. Un dispositivo terminal, que comprende un alojamiento (61), un procesador (62), una memoria (63), una placa (64) de circuito, un circuito (65) de suministro de alimentación, un primer conjunto (10, 66) de cámara y un segundo conjunto (20, 67) de cámara recibidos en el alojamiento (61), en el que cada unidad (111) de filtro en el primer conjunto (10, 66) de cámara corresponde a un punto (121) de píxel de un primer sensor (12) de imagen del primer conjunto (10, 66) de cámara, correspondiendo cada unidad (211) de filtro en el segundo conjunto (20, 67) de cámara a n puntos (221) de píxel adyacentes de un segundo sensor (22) de imagen del segundo conjunto (20, 67) de cámara, donde n es mayor o igual que 2; la placa (64) de circuito está encerrada por el alojamiento (61), y el procesador (62) y la memoria (63) están situados en la placa (64) de circuito; el circuito (65) de suministro de alimentación está configurado para proporcionar alimentación para respectivos circuitos o componentes del dispositivo terminal; la memoria (63) está configurada para almacenar códigos de programa ejecutables; y el procesador (62) está configurado para ejecutar un programa que corresponde a los códigos de programa ejecutables leyendo los códigos de programa ejecutables almacenados en la memoria (63), para realizar las siguientes operaciones:
controlar (S201) los n puntos (221) de píxeles adyacentes que corresponden a una misma unidad (211) de filtro en el segundo sensor (22) de imagen para que estén por debajo de respectivas diferentes cantidades de exposición;
obtener (S202, S305) una primera imagen y una segunda imagen de un objeto respectivamente por el primer sensor (12) de imagen y el segundo sensor (22) de imagen, en el que un número de píxeles en la primera imagen es diferente de un número de píxeles en la segunda imagen;
realizar (S203, S306) una operación de interpolación en los píxeles en la segunda imagen para obtener una tercera imagen que tiene un mismo número de píxeles que el de la primera imagen; y
realizar (S204, S307) una composición de imagen en la tercera imagen y la primera imagen para obtener una imagen de alto rango dinámico del objeto.
ES17177453T 2016-11-29 2017-06-22 Método y aparato para fotografiar imagen y dispositivo terminal Active ES2733475T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611079528.8A CN106454149B (zh) 2016-11-29 2016-11-29 图像拍摄方法、装置及终端设备

Publications (1)

Publication Number Publication Date
ES2733475T3 true ES2733475T3 (es) 2019-11-29

Family

ID=58223274

Family Applications (1)

Application Number Title Priority Date Filing Date
ES17177453T Active ES2733475T3 (es) 2016-11-29 2017-06-22 Método y aparato para fotografiar imagen y dispositivo terminal

Country Status (5)

Country Link
US (1) US10178326B2 (es)
EP (1) EP3328067B1 (es)
CN (1) CN106454149B (es)
ES (1) ES2733475T3 (es)
WO (1) WO2018099060A1 (es)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106454149B (zh) * 2016-11-29 2019-03-19 Oppo广东移动通信有限公司 图像拍摄方法、装置及终端设备
JP6770254B2 (ja) * 2018-02-07 2020-10-14 オムロン株式会社 3次元測定装置、3次元測定方法及び3次元測定プログラム
CN110958363B (zh) * 2019-12-04 2022-04-15 RealMe重庆移动通信有限公司 图像处理方法及装置、计算机可读介质和电子设备
CN112991244A (zh) * 2019-12-17 2021-06-18 华为技术有限公司 图像融合方法装置设备和摄像机以及存储介质与程序产品
WO2021184362A1 (zh) * 2020-03-20 2021-09-23 华为技术有限公司 一种摄像装置
WO2021184353A1 (zh) * 2020-03-20 2021-09-23 华为技术有限公司 一种摄像装置
CN114520871B (zh) * 2020-11-20 2023-09-01 华为技术有限公司 图像处理方法及其设备

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7616256B2 (en) 2005-03-21 2009-11-10 Dolby Laboratories Licensing Corporation Multiple exposure methods and apparatus for electronic cameras
JP2006311240A (ja) * 2005-04-28 2006-11-09 Olympus Corp 撮像装置
US20080085946A1 (en) * 2006-08-14 2008-04-10 Mather Patrick T Photo-tailored shape memory article, method, and composition
CN101997981B (zh) * 2010-11-01 2013-08-14 惠州Tcl移动通信有限公司 一种基于手机摄像头的宽容度实现方法及手机
US9143749B2 (en) * 2011-10-11 2015-09-22 Sony Corporation Light sensitive, low height, and high dynamic range camera
US9177988B2 (en) 2011-12-16 2015-11-03 Chromatra, Llc. Systems and methods for creating full-color image in low light
KR102039464B1 (ko) * 2013-05-21 2019-11-01 삼성전자주식회사 전자 센서와, 그의 제어 방법
US8957984B2 (en) 2013-06-30 2015-02-17 Konica Minolta Laboratory U.S.A., Inc. Ghost artifact detection and removal in HDR image processsing using multi-scale normalized cross-correlation
US9473708B1 (en) * 2013-08-07 2016-10-18 Google Inc. Devices and methods for an imaging system with a dual camera architecture
KR101487617B1 (ko) * 2013-09-24 2015-02-02 희성전자 주식회사 발광다이오드용 광 확산 렌즈
US9294662B2 (en) * 2013-10-16 2016-03-22 Broadcom Corporation Depth map generation and post-capture focusing
KR102128467B1 (ko) * 2014-01-09 2020-07-09 삼성전자주식회사 이미지 센서 및 이미지 센서를 포함하는 영상 촬영 장치
CN103780840B (zh) * 2014-01-21 2016-06-08 上海果壳电子有限公司 一种高品质成像的双摄像成像装置及其方法
CN103986875A (zh) 2014-05-29 2014-08-13 宇龙计算机通信科技(深圳)有限公司 一种图像获取装置、方法、终端及视频获取方法
US9282256B1 (en) 2014-12-22 2016-03-08 Omnivision Technologies, Inc. System and method for HDR imaging
CN105472266A (zh) 2015-12-18 2016-04-06 广东欧珀移动通信有限公司 高动态范围图像的生成方法、拍照装置和终端
KR102536083B1 (ko) 2015-12-24 2023-05-24 삼성전자주식회사 이미징 장치, 전자 장치 및 그의 이미지 획득 방법
CN106162024A (zh) * 2016-08-02 2016-11-23 乐视控股(北京)有限公司 照片处理方法及装置
US9916644B1 (en) * 2016-09-09 2018-03-13 Omnivision Technologies, Inc. Ghost artifact removal system and method
CN106454149B (zh) 2016-11-29 2019-03-19 Oppo广东移动通信有限公司 图像拍摄方法、装置及终端设备

Also Published As

Publication number Publication date
EP3328067B1 (en) 2019-06-19
EP3328067A1 (en) 2018-05-30
US10178326B2 (en) 2019-01-08
CN106454149A (zh) 2017-02-22
CN106454149B (zh) 2019-03-19
US20180152642A1 (en) 2018-05-31
WO2018099060A1 (en) 2018-06-07

Similar Documents

Publication Publication Date Title
ES2733475T3 (es) Método y aparato para fotografiar imagen y dispositivo terminal
US10880501B2 (en) Image sensor, output method, phase focusing method, imaging device, and terminal
US10992878B2 (en) Method of obtaining wide dynamic range image and image pickup device performing the same
JP6445844B2 (ja) 撮像装置および撮像装置で実行される方法
KR102083292B1 (ko) 이미지 센서, 이미징 장치, 이동 단말기 및 이미징 방법
ES2734072T3 (es) Método y aparato de tratamiento de imágenes y dispositivo electrónico
ES2788854T3 (es) Método y dispositivo de procesamiento de imágenes
TWI615027B (zh) 高動態範圍圖像的生成方法、拍照裝置和終端裝置、成像方法
JP2012095214A (ja) 撮像装置
JP2014179980A (ja) 高ダイナミックレンジ画像を生成するために画像のセットからサブセットを選択する方法
JP6641181B2 (ja) 画像処理装置および撮像装置、それらの制御方法ならびにプログラム
TW201515466A (zh) 控制裝置、控制方法及電子機器
KR20170046498A (ko) 이미지 처리 장치의 저조도 화질 개선 방법 및 상기 방법을 수행하는 이미지 처리 시스템의 동작 방법
CN104735361A (zh) 用于获取由闪光灯照明的图像集合的方法和装置
WO2012093519A1 (ja) 撮像装置及びその発光量制御方法
US10861140B2 (en) Image processing apparatus, image processing method, and recording medium
KR20220064170A (ko) 이미지 센서를 포함하는 전자 장치 및 그 동작 방법
JP6533336B2 (ja) ホワイトバランス調整装置及びその作動方法並びに作動プログラム
JP6718256B2 (ja) 画像処理装置、撮像装置およびそれらの制御方法ならびにプログラム
JP2009033289A (ja) 撮像装置及び撮像方法
JP6157274B2 (ja) 撮像装置、情報処理方法及びプログラム
Hirata et al. A Vision System With 1-inch 17-Mpixel 1000-fps Block-Controlled Coded-Exposure Stacked-CMOS Image Sensor for Computational Imaging and Adaptive Dynamic Range Control
JP2021089534A (ja) 画像処理装置およびその制御方法、撮像装置、プログラム、並びに記憶媒体
JP2015119436A (ja) 撮像装置
KR20110068747A (ko) 화상 처리 장치, 방법, 및 상기 방법을 수행하는 컴퓨터 프로그램을 저장하는 컴퓨터 판독가능 매체