ES2716613T3 - Dispositivo de visualización configurado como fuente de iluminación - Google Patents

Dispositivo de visualización configurado como fuente de iluminación Download PDF

Info

Publication number
ES2716613T3
ES2716613T3 ES14731490T ES14731490T ES2716613T3 ES 2716613 T3 ES2716613 T3 ES 2716613T3 ES 14731490 T ES14731490 T ES 14731490T ES 14731490 T ES14731490 T ES 14731490T ES 2716613 T3 ES2716613 T3 ES 2716613T3
Authority
ES
Spain
Prior art keywords
image
illumination
subject
screen
adjusting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES14731490T
Other languages
English (en)
Inventor
Stepan Moskovchenko
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Application granted granted Critical
Publication of ES2716613T3 publication Critical patent/ES2716613T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/73Colour balance circuits, e.g. white balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • H04N2007/145Handheld terminals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4854End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Image Input (AREA)
  • Stroboscope Apparatuses (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Illuminated Signs And Luminous Advertising (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Image Processing (AREA)

Description

DESCRIPCIÓN
Dispositivo de visualización configurado como fuente de iluminación
ANTECEDENTES DE LA INVENCIÓN
Campo de la invención
[0001] La tecnología divulgada se refiere a un dispositivo electrónico configurado para usar la propia pantalla del dispositivo para proporcionar una fuente de iluminación para los sensores de imagen frontales. Los aspectos también están dirigidos a los procedimientos de uso de los mismos.
Descripción de la técnica relacionada
[0002] Muchos dispositivos digitales están equipados con un sensor de imagen frontal para capturar imágenes personales de un usuario. Sin embargo, la mayoría de los dispositivos equipados con sensores de imagen frontales carecen de una fuente de iluminación dedicada para proporcionar iluminación adicional para capturar la imagen propia utilizando el sensor de imagen frontal en un entorno de poca luz. En muchos casos, el beneficio de incorporar una fuente de iluminación de este tipo no supera la complejidad tecnológica adicional y el coste asociado de tener una fuente de iluminación dedicada para los dispositivos digitales que tienen sensores de imagen frontales.
[0003] En el documento US 2004/0239799 A1, un dispositivo electrónico equipado con cámara tiene una pantalla en el mismo lado que una parte de lente de una unidad de cámara. La pantalla de visualización se puede cambiar entre una función de visualización normal y una función de iluminación para usar con la unidad de la cámara.
[0004] En CN 103152523 A se proporciona un aparato de filmación de un dispositivo electrónico, que comprende: un módulo de habilitación de cámara, configurado para permitir que una cámara frontal se prepare para disparar; y un módulo de ajuste de la pantalla de cristal líquido, configurado para: cuando la cámara frontal se utiliza para disparar, ajustar una escala de grises de píxeles de una pantalla de cristal líquido a un valor de escala de grises establecido y/o ajustar el color de la pantalla de cristal líquido a un color establecido, para proporcionar más luz a un objeto que se está fotografiando.
SUMARIO DE LA INVENCIÓN
[0005] En un aspecto, como se establece en la reivindicación 1, se proporciona un procedimiento para capturar una imagen digital realizada por un dispositivo electrónico que tiene un sensor de imagen frontal y una pantalla frontal, con el procedimiento que comprende: recibir un comando para capturar la imagen digital; capturar una trama de prueba utilizando el sensor de imagen frontal; ajustar la pantalla a una condición de iluminación de imagen en respuesta al comando y a la trama de prueba capturada, en el que ajustar la pantalla incluye seleccionar una imagen de iluminación (404) y mostrar la imagen de iluminación, en el que la imagen de iluminación (404) incluye una o más regiones de iluminación, en el que los píxeles en al menos una región de iluminación tienen un color seleccionado basándose en la trama de prueba; y capturar la imagen digital utilizando el sensor de imagen frontal en la condición de iluminación de imagen.
[0006] En otro aspecto, como se expone en la reivindicación 14, un medio legible por ordenador comprende instrucciones que, cuando se ejecutan, hacen que un procesador realice los pasos del procedimiento descrito anteriormente.
[0007] En otro aspecto más, como se expone en la reivindicación 15, se proporciona un dispositivo electrónico que comprende: un sensor de imagen frontal; una pantalla frontal; medios para recibir un comando para capturar una imagen digital; medios para capturar una trama de prueba utilizando el sensor de imagen frontal; medios para ajustar la pantalla a una condición de iluminación de imagen en respuesta al comando y a la trama de prueba capturada, en el que los medios para ajustar la pantalla incluyen medios para seleccionar una imagen de iluminación y mostrar la imagen de iluminación, en el que la imagen de iluminación (404) incluye una o más regiones de iluminación, en el que los píxeles en al menos una región de iluminación tienen un color seleccionado basado en la trama de prueba; y medios para capturar la imagen digital utilizando el sensor de imagen frontal en la condición de iluminación de imagen.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
[0008]
La FIG. 1A es una vista en perspectiva que ilustra un dispositivo digital típico con un sensor de imagen frontal y un usuario que usa el dispositivo digital para capturar una imagen propia o un vídeo propio de acuerdo con un modo de realización.
La FIG. 1B es una vista en perspectiva que ilustra dispositivos digitales típicos con sensores de imagen frontales y múltiples usuarios que usan los dispositivos digitales para intercambiar imágenes o vídeos a través de una red de acuerdo con otro modo de realización.
La FIG. 2 es un diagrama de bloques funcional que ilustra un dispositivo digital que comprende un sensor de imagen frontal y un dispositivo de visualización configurado como una fuente de iluminación de acuerdo con un modo de realización.
La FIG. 3A es un diagrama de flujo que ilustra un procedimiento para utilizar un dispositivo digital con un sensor de imagen frontal y un dispositivo de visualización configurado como una fuente de iluminación de acuerdo con un modo de realización.
La FIG. 3B es un diagrama de flujo que ilustra un procedimiento para determinar una condición de iluminación preexistente de acuerdo con el modo de realización de la FIG. 3A.
La FIG. 3C es un diagrama de flujo que ilustra un procedimiento para ajustar el dispositivo de visualización a una iluminación de imagen optimizada de acuerdo con el modo de realización de la FIG. 3A.
La FIG. 3D es un diagrama de flujo que ilustra un procedimiento para ajustar el dispositivo de visualización a una iluminación de imagen predeterminada de acuerdo con el modo de realización de la FIG. 3A.
Las FIGs. 4A-4L son diagramas de bloques que ilustran diversos modos de realización de imágenes de iluminación mostradas en el dispositivo de visualización de un dispositivo digital que tiene un sensor de imagen frontal y un dispositivo de visualización configurado como fuente de iluminación de acuerdo con un modo de realización.
DESCRIPCIÓN DETALLADA
[0009] Muchos dispositivos digitales vienen con un sensor de imagen frontal para capturar las imágenes propias de un usuario. La imagen propia capturada puede ser una imagen estática, como una fotografía, o puede ser una imagen dinámica, como un vídeo. Sin embargo, la mayoría, si no todos los dispositivos con cámaras frontales, carecen de una fuente de iluminación dedicada (p. ej., un flash o una luz LED para capturar imágenes fijas o vídeos). Como resultado, cuando se utiliza el sensor de imagen frontal en un ambiente con poca luz, la iluminación de la luz ambiental puede no ser suficiente para proporcionar una iluminación adecuada para el sensor de imagen. Si bien la incorporación de un flash o una fuente de LED puede proporcionar una solución, la ventaja de incorporar dicha fuente de iluminación no supera la complejidad tecnológica incorporada y el coste asociado de tener una fuente de iluminación dedicada para una cámara frontal en los dispositivos digitales. Por lo tanto, existe la necesidad de una fuente de iluminación rentable para capturar imágenes utilizando el sensor de imagen frontal de un dispositivo digital.
[0010] La divulgación está dirigida a un dispositivo electrónico que tiene un sensor de imagen frontal y una pantalla digital, donde el dispositivo electrónico está configurado para usar la pantalla digital como fuente de iluminación para el sensor de imagen frontal. Los aspectos también están dirigidos a los procedimientos de uso de los mismos. Una de las ventajas del sistema descrito en el presente documento es que mejora el rendimiento con poca luz del sensor de imagen frontal del dispositivo electrónico sin incurrir en los costes adicionales o la complejidad de una fuente de iluminación adicional.
[0011] Por lo tanto, un modo de realización es un dispositivo electrónico que está configurado para iluminar la pantalla digital cuando la cámara frontal está capturando una imagen. El usuario puede activar la cámara frontal para capturar una imagen, y esto haría que la pantalla digital muestre un color blanco brillante mientras se captura la imagen. En otro aspecto, la pantalla digital puede iluminarse a un brillo predefinido, o a un color predefinido, mientras se captura la imagen. Esta función puede permitir al usuario elegir cómo se usa la pantalla digital para mejorar la captura de imágenes con poca luz de la cámara frontal.
[0012] La siguiente divulgación puede describir las características de varios modos de realización de un dispositivo digital que tiene un sensor de imagen frontal y un dispositivo de visualización configurado como fuente de iluminación en el contexto de un tipo de dispositivo (por ejemplo, un teléfono inteligente). Sin embargo, debe entenderse que son posibles otros modos de realización, incluyendo cualquier dispositivo electrónico adecuado que pueda configurarse para tener un sensor de imagen frontal y un dispositivo de visualización configurado como fuente de iluminación. Tales dispositivos incluyen, por ejemplo, teléfonos móviles, tablets, ordenadores portátiles, ordenadores de escritorio, cámaras de vídeo, reproductores de música portátiles, entre otros. Además, el dispositivo de visualización que puede proporcionar esta función incluye un LED, LCD, OLED, AMOLED u otros tipos de pantallas similares que pueden configurarse como una fuente de iluminación para un sensor de imagen frontal de un dispositivo digital.
[0013] La FIG. 1A ilustra un dispositivo digital 102 con un sensor de imagen frontal 110 y un usuario 120 que usa el dispositivo digital para capturar una imagen propia o un vídeo propio de acuerdo con un modo de realización. Como se analizó anteriormente, el dispositivo digital ilustrado 102 puede ser una tablet o un teléfono inteligente, aunque los aspectos no se limitan a ellos. El dispositivo digital 102 incluye un dispositivo de visualización 104 que muestra imágenes de lo que se captura a través del sensor de imagen frontal 110. En el modo de realización ilustrado, el dispositivo de visualización 104 está configurado para mostrar una imagen de iluminación 106, que incluye una imagen propia del usuario 120 en este ejemplo. La imagen propia del usuario como imagen de iluminación 106 capturada por el sensor de imagen frontal 110 puede capturarse en respuesta a un comando del usuario 120.
[0014] Como se describe en el presente documento, una "imagen" puede referirse no solo a una imagen digital fija, sino también a un vídeo que comprende tramas instantáneas de muchas imágenes. Además, una imagen puede referirse a imágenes visualizadas en el dispositivo de visualización 104, o imágenes que existen en un dispositivo de memoria o dispositivo de almacenamiento del dispositivo digital 102 pero que no se muestran en el dispositivo de visualización 104.
[0015] Como se muestra, el usuario 120 comenzaría un modo de captura de imagen con el dispositivo digital 102 en el que se mostraría una imagen de iluminación 106. El usuario 120 podría entonces activar un botón del obturador para capturar la imagen en un punto particular. Cuando se activa el botón del obturador, el dispositivo digital 102 indicaría al dispositivo de visualización 104 que destelle un color blanco brillante que iluminaría mejor al usuario 120. Esto mejoraría la imagen que se captura al añadir luz adicional al usuario 120.
[0016] La FIG. 1B ilustra dispositivos digitales con sensores de imagen frontales y múltiples usuarios que utilizan los dispositivos digitales para intercambiar imágenes o vídeos a través de una red de acuerdo con otro modo de realización. El dispositivo digital 102A en uso por un primer usuario 120A incluye un primer sensor de imagen frontal 110A y un primer dispositivo de visualización 104A configurado para mostrar una primera imagen de iluminación. En este ejemplo, la imagen de iluminación incluye una imagen propia 106A del primer usuario 102A capturada por el primer sensor de imagen frontal 110A en respuesta a un comando del primer usuario 120A. De manera análoga, el dispositivo digital 102B utilizado por un segundo usuario 120B incluye un segundo sensor de imagen frontal 110B y un segundo dispositivo de visualización 104B configurado para mostrar una segunda imagen de iluminación. En este ejemplo, la segunda imagen de iluminación incluye una segunda imagen propia 106B del segundo usuario 102B capturada por el segundo sensor de imagen frontal 110B en respuesta a un comando del segundo usuario 120B.
[0017] Durante el uso, como una videollamada, el primer dispositivo de visualización 104A puede configurarse para iluminarse a medida que el usuario 120a está en la llamada. Este brillo permitiría al sistema transmitir una imagen de mayor calidad al segundo usuario 120b. De manera similar, el segundo dispositivo de visualización 104b podría configurarse para iluminarse mientras el segundo usuario 120b estaba en una llamada de vídeo.
[0018] Un dispositivo digital con un sensor de imagen frontal como el primer y el segundo dispositivo digital 102A y 102B de la FIG. 1B también se puede configurar para convertir las señales eléctricas generadas por los sensores de imagen en respuesta a los fotones detectados en señales electromagnéticas y transmitir las señales electromagnéticas. El dispositivo digital puede configurarse además para recibir señales electromagnéticas similares generadas por otro dispositivo acoplado comunicativamente al dispositivo digital. Por ejemplo, en el modo de realización ilustrado de la FIG. 1B, el primer dispositivo digital 102A puede configurarse para convertir señales eléctricas correspondientes a la primera imagen propia 106A, generadas en respuesta a los fotones detectados por el primer sensor de imagen 110A, y convertir las señales eléctricas en la primera señal electromagnética de carga 122A. La información contenida en la primera señal electromagnética de carga 122A puede a su vez ser recibida por el segundo dispositivo digital 102B configurado para recibir la primera señal electromagnética de descarga 122B a través de la red 130 y convertir la primera señal electromagnética de descarga 122B en señales eléctricas, que luego se muestran como una primera imagen comunicada 108B. La primera imagen comunicada 108B en este ejemplo corresponde a la primera imagen propia 106A capturada por el primer sensor de imagen 110A. Análogamente, el segundo dispositivo digital 102B puede configurarse para convertir las señales eléctricas correspondientes en la segunda imagen propia 106B, generadas en respuesta a los fotones detectados por el segundo sensor de imagen 110B, y convertir las señales eléctricas en la segunda señal electromagnética de carga 124B. La información contenida en la segunda señal electromagnética de carga 124B puede a su vez ser recibida por el primer dispositivo digital 102A configurado para recibir la segunda señal electromagnética de descarga 124A a través de la red 130 y convertir la segunda señal electromagnética de descarga 124 en señales eléctricas, que luego se muestran como segunda imagen comunicada 108A correspondiente a la segunda imagen propia 106B capturada por el segundo sensor de imagen 110B.
[0019] La FIG. 2 es un diagrama de bloques funcional que ilustra un dispositivo digital 200 con un sensor de imagen frontal y un dispositivo de visualización configurado como una fuente de iluminación, tal como un teléfono inteligente, de acuerdo con un modo de realización. El dispositivo digital 200 incluye un módulo de entrada de comando 210, un módulo de detección de iluminación 220, un módulo de ajuste de iluminación 230 y un módulo de sensor de imagen frontal 240. Cada uno del módulo de entrada de comando 210, el módulo de detección de iluminación 220, el módulo de ajuste de iluminación 230 y el módulo de sensor de imagen frontal 240 están conectados comunicativamente a un módulo de procesamiento central 250. El dispositivo digital 200 incluye además un módulo de memoria 260 y un módulo de almacenamiento 270 conectados comunicativamente al módulo de procesamiento central 250. El dispositivo digital 200 incluye además un subsistema de comunicación 280 configurado para conectar comunicativamente el dispositivo digital 200 a una red 290.
[0020] El dispositivo digital ilustrado 200 incluye el módulo de procesamiento central 250 configurado para controlar el funcionamiento general del dispositivo digital 200 y puede incluir un microprocesador adecuado configurado para realizar las funciones de procesamiento del dispositivo digital 200. En algunos modos de realización, el módulo de procesamiento central 250 incluye módulos de subprocesamiento especializados, tales como un módulo de procesamiento de gráficos.
[0021] El dispositivo digital 200 incluye además el módulo de entrada de comando 210 configurado para recibir varios modos de entrada de comando de un usuario. En algunos modos de realización, el módulo de entrada de comando 210 puede incluir cualquier número de dispositivos de entrada adecuados, como un dispositivo de reconocimiento de voz, un dispositivo de reconocimiento de gestos, un dispositivo de detección de movimiento, un dispositivo de visualización táctil, un dispositivo de teclado y un dispositivo de entrada/salida (E/S) auxiliar, entre otros. El módulo de entrada de comando también puede incluir circuitos de soporte para transformar señales de entrada físicas, como una onda de voz o un movimiento en señales digitales.
[0022] El dispositivo digital 200 incluye además el módulo de detección de iluminación 220 configurado para determinar una condición de iluminación. El módulo de detección de iluminación 220 comprende el sensor de imagen frontal y un controlador de sensor de imagen. El sensor de imagen incluye una pluralidad de píxeles configurados para convertir fotones incidentes en señales eléctricas, que se transfieren al módulo de procesamiento central para su procesamiento. En un sensor de imagen típico, cada píxel incluye un área fotosensible, que está configurada para absorber fotones incidentes de luz. En algunos modos de realización, los fotones incidentes pueden ser dirigidos por una micro lente sobre cada píxel para mejorar la eficiencia cuántica de la colección de fotones. Los fotones absorbidos se convierten en electrones, cuyo número puede depender de la energía del fotón incidente. Los electrones a su vez se convierten en una señal de voltaje.
[0023] En algunos modos de realización, el sensor de imagen incluye un sensor de imagen de dispositivo acoplado por carga (CCD). Un sensor de imagen CCD comprende una matriz de filtro de color y una matriz de píxeles. Cada píxel de un sensor de imagen CCD incluye un filtro de color que comprende un patrón de filtros rojo, verde y azul. En un ejemplo, el filtro de color puede estar dispuesto en un patrón de filtro Bayer que tiene un patrón de filtro de color de tablero de ajedrez 2x2. El patrón de filtro de tablero de ajedrez de 2x2 de un filtro Bayer incluye un filtro rojo y uno azul dispuestos en diagonal entre sí y dos filtros verdes dispuestos en diagonal entre sí. Los fotones filtrados que pasan a través de diferentes filtros de color son absorbidos a continuación por un fotodiodo dentro de la matriz de píxeles. El fotodiodo convierte los fotones absorbidos en una carga, y la carga pasa a una única ubicación mediante la aplicación de diferentes voltajes a píxeles, en un proceso llamado acoplamiento de carga. Debido a que la carga en el píxel pasa al aplicar diferentes voltajes, los sensores de imagen CCD son soportados por generadores de voltaje externos.
[0024] En algunos modos de realización, el sensor de imagen incluye un sensor de imagen de semiconductor de óxido metálico complementario (CMOS). Al igual que los sensores de imagen CCD, los sensores de imagen CMOS incluyen una matriz de diodos fotosensibles, un diodo dentro de cada píxel. Sin embargo, a diferencia de los CCD, cada píxel en un generador de imágenes CMOS tiene su propio amplificador integrado individual. Además, cada píxel en un generador de imágenes CMOS se puede leer directamente en un sistema de coordenadas x-y, en lugar de a través del movimiento de una carga. Por lo tanto, un píxel del sensor de imagen CMOS detecta un fotón directamente y lo convierte en un voltaje, que se emite.
[0025] El módulo de detección de iluminación 220 incluye circuitos adicionales para convertir los voltajes de salida resultantes de un fotón incidente en información digital, que puede ser procesada por el módulo de procesamiento central 250. El módulo de detección de iluminación 220 incluye además un controlador de sensor de imagen configurado para controlar el sensor de imagen en respuesta a varios comandos del módulo de procesamiento central 250.
[0026] El módulo de ajuste de iluminación 230 puede configurarse para ajustar las condiciones de iluminación del dispositivo de visualización hacia y desde una condición de iluminación de imagen y una condición de iluminación de visualización normal, en respuesta a un comando recibido de un usuario. El módulo de ajuste de iluminación incluye el dispositivo de visualización y un controlador de visualización. En un modo de realización, el dispositivo de visualización puede incluir una pantalla de diodo emisor de luz orgánica de matriz activa (AMOLED) que comprende una matriz activa de píxeles de diodo emisor de luz orgánica (OLED) que generan luz tras la activación eléctrica. Los píxeles OLED se pueden integrar en una matriz de transistores de película delgada (TFT), que funciona como una serie de interruptores para controlar la corriente que fluye a cada píxel individual. Son posibles otros modos de realización del dispositivo de visualización, incluyendo un LED, LCD, OLED, AMOLED o cualquier otro tipo de pantallas similares que puedan configurarse como una fuente de iluminación para un sensor de imagen frontal del dispositivo digital 200.
[0027] La intensidad de emisión de luz y, por lo tanto, la luminancia de cada píxel dentro de una pantalla se puede ajustar mediante la corriente suministrada a un elemento emisor, como un diodo emisor de luz (LED). En una implementación, la pantalla es una pantalla de matriz activa, como AMOLED, cuyos píxeles comprenden dos transistores y un condensador. Un primer transistor cuyo drenaje está conectado a un diodo emisor de luz (por ejemplo, OLED) está configurado para controlar la cantidad de corriente que fluye a través del diodo y, por lo tanto, la intensidad de emisión de luz controlando un voltaje de la fuente de la puerta del primer transistor. El voltaje de la fuente de la puerta se mantiene a su vez mediante el condensador conectado entre la puerta y la fuente del primer transistor. El voltaje de la fuente de la puerta se puede modificar controlando la cantidad de carga almacenada en el condensador mediante el control de un segundo transistor, cuya puerta está conectada a una línea de selección de fila y cuya fuente está conectada a una línea de datos. De este modo, al controlar varios voltajes, como el voltaje de línea de selección de fila y el voltaje de línea de datos para controlar el segundo transistor, que a su vez controla la corriente entregada al diodo emisor de luz a través del primer transistor, el valor de luminancia de cada píxel en el dispositivo de visualización se puede ajustar para proporcionar diversos grados de iluminación para el sensor de imagen frontal.
[0028] El módulo de sensor de imagen frontal 240 está configurado para capturar la imagen digital a través del sensor de imagen frontal en la condición de iluminación de la imagen. El módulo de sensor de imagen frontal puede incluir y compartir dispositivos de hardware similares al módulo de detección de iluminación. Por ejemplo, el módulo de sensor de imagen frontal 240 comprende el sensor de imagen frontal y un controlador del sensor de imagen, cuyas funciones y operaciones son sustancialmente las mismas que las del módulo de detección de iluminación 220. Además, el módulo de ajuste de iluminación realiza los cálculos necesarios para determinar varias condiciones de iluminación para el dispositivo de visualización del módulo de ajuste de iluminación 230.
[0029] El dispositivo digital 200 incluye además el módulo de memoria 260 configurado para almacenar información mientras el dispositivo digital 200 está encendido. El módulo de memoria 260 puede incluir dispositivos de memoria tales como una memoria de acceso aleatorio estática (SRAM) y una memoria de acceso aleatorio dinámica (RAM). Los dispositivos de memoria pueden configurarse como diferentes niveles de memoria caché acoplados comunicativamente al módulo de procesamiento central 250 a través de un bus de memoria que proporciona una ruta de datos para el flujo de datos hacia y desde los dispositivos de memoria y el microprocesador. En particular, el módulo de memoria puede contener información de la imagen en varias etapas del funcionamiento del dispositivo digital para proporcionar iluminación al sensor de imagen frontal que usa el dispositivo de visualización.
[0030] El dispositivo digital 200 incluye además el módulo de almacenamiento 270 configurado para almacenar medios tales como archivos de fotos y vídeos, así como códigos de software. En algunos modos de realización, el módulo de almacenamiento 270 está configurado para almacenar permanentemente medios incluso cuando el dispositivo digital 200 está apagado. En algunas implementaciones, el módulo de almacenamiento 270 incluye medios de almacenamiento, como un disco duro, una memoria no volátil, como una memoria flash, una memoria de solo lectura (ROM), entre otras.
[0031] El dispositivo digital 200 incluye además el subsistema de comunicación 280 configurado para conectar comunicativamente el dispositivo digital 200 a la red 290. El subsistema de comunicación 280 incluye circuitos configurados para comunicación inalámbrica. Por ejemplo, el subsistema de comunicación 280 puede habilitar la comunicación Wi-Fi® entre el dispositivo digital 200 y la red 290 usando uno de los estándares 802.11. El sistema de comunicación 280 también puede habilitar estándares como BLUETOOTH®, Code Division Multiple Access® (CDMA) y Global System for Mobile Communication® (GSM), entre otros.
[0032] Las FIGs. 3A-3D son diagramas de flujo que ilustran un procedimiento 300 de uso de un dispositivo digital con un sensor de imagen frontal y un dispositivo de visualización configurado como una fuente de iluminación de acuerdo con un modo de realización. El procedimiento incluye recibir un comando para capturar la imagen digital, ajustar el dispositivo de visualización a una condición de iluminación de imagen en respuesta al comando, y capturar la imagen digital utilizando el sensor de imagen frontal en la condición de iluminación de imagen.
[0033] El dispositivo digital de los modos de realización ilustrados en las FIGs. 3A-3D puede ser un dispositivo digital tal como el dispositivo digital 200 de la FIG. 2 con un sensor de imagen frontal y un dispositivo de visualización configurado como fuente de iluminación de acuerdo con un modo de realización.
[0034] El procedimiento 300 de usar un dispositivo digital con un sensor de imagen frontal y un dispositivo de visualización configurado como fuente de iluminación comienza en un estado de inicio 310 y se desplaza a un estado 320 para recibir un comando para capturar una imagen digital utilizando el sensor de imagen frontal. En un aspecto, el comando puede recibirse de cualquier forma adecuada que pueda ser procesada por el módulo de entrada de comando 210, incluyendo un comando de voz procesado por un dispositivo de reconocimiento de voz, un comando de gesto procesado por un dispositivo de reconocimiento de gesto, un comando de toque procesado por un dispositivo de visualización táctil, un comando de teclado procesado por un dispositivo de teclado, un comando de movimiento procesado por un dispositivo de detección de movimiento, entre otras formas adecuadas de un comando de usuario.
[0035] Después de recibir el comando para capturar la imagen digital en el estado 320, el procedimiento 300 pasa a un estado 330 y activa el sensor de imagen frontal. En un aspecto, la activación del sensor de imagen frontal en el estado 330 puede incluir, por ejemplo, proporcionar un voltaje de acceso a las líneas de acceso del sensor de imagen y proporcionar Vcc a un controlador de sensor de imagen del módulo de sensor de imagen 220.
[0036] Una condición de iluminación proporcionada por el dispositivo de visualización puede definirse por muchos parámetros, incluidos los valores de luminancia y crominancia de los píxeles del dispositivo de visualización. Por ejemplo, como entenderá una persona con experiencia ordinaria en la técnica, los valores reales de luminancia y crominancia dependen del espacio de color que se utiliza para describirlos. Por ejemplo, en espacios de color RGB o sRGB, cada píxel puede tener una luminancia relativa Y representada por la ecuación Y=rR+gG+bB, donde R, G y B representan componentes de color rojo, verde y azul y r, g, b son constantes. Por ejemplo, para el espacio sRGB, las constantes r, b y b tienen valores 0,212; 0,7152 y 0,0722, respectivamente. En el espacio de color Y'UV, por ejemplo, Y 'representa un valor de luma y U y V representan dos componentes de color. El espacio RGB y el espacio Y'UV están relacionados por las relaciones de transformación bien conocidas:
Y' 0,299 0,587 0,114 R
U = -0 ,147 13 -0 ,28 886 0,436 G
.V . . 0,615 -0 ,5149 9 -0 ,100 01 .B. (1)
R 1 0 1,13983 Y '
G = 1 0,39465 -0 ,580 60 U
(2)
B 1 -2 ,032 11 0 V
[0037] Además, una persona experta en la técnica también entenderá que se puede usar cualquier representación de espacio de color adecuada, como una de YUV, YCbCr, YPbPr, etc. para representar una condición de iluminación de los píxeles del dispositivo de visualización. En la descripción del presente documento, el término "luminancia" se usa en general para referirse a una intensidad general de la luz, y el término "crominancia" se usa en general para referirse a un componente de color.
[0038] De acuerdo con un modo de realización, el procedimiento 300 de usar el dispositivo digital con un sensor de imagen frontal incluye proporcionar un modo de iluminación dinámica, que puede ser seleccionado por el usuario. Cuando es activado por el usuario, el modo de iluminación dinámica permite una optimización de la condición de iluminación proporcionada por el dispositivo de visualización basándose en una condición de iluminación preexistente determinada por el módulo de detección de iluminación. Cuando el usuario no activa el modo de iluminación dinámica, el dispositivo de visualización proporciona una condición de iluminación por defecto predeterminada, independientemente de la condición de iluminación preexistente. Los detalles de los modos de iluminación serán más evidentes en los análisis siguientes. Después de activar el sensor de imagen frontal en el estado 330, el procedimiento 300 pasa a un estado de decisión 340 para determinar si se ha activado o no un modo de iluminación dinámica.
[0039] Cuando se toma una determinación en el estado de decisión 340 de que el modo de iluminación dinámica no está activado, el procedimiento 300 ajusta el dispositivo de visualización a una condición de iluminación de imagen predeterminada en un estado de proceso 350. Los detalles adicionales sobre los pasos realizados para ajustar el dispositivo de visualización en el estado 350 se analizan a continuación con referencia a la Figura 3D. El procedimiento 300 a continuación activa un obturador de captura de imagen en un estado 390.
[0040] Sin embargo, cuando se realiza una determinación en el estado de decisión 340 de que el modo de iluminación dinámica está activado, el procedimiento 300 pasa a un estado de proceso 360 para determinar una condición de iluminación preexistente. Se puede encontrar información adicional sobre cómo determinar una condición de iluminación preexistente con referencia a la Figura 3B siguiente.
[0041] Una vez que la condición de iluminación preexistente se ha determinado en el estado 360 del proceso, el procedimiento 300 pasa al estado de decisión 370 para determinar si se necesita iluminación adicional. Esta determinación puede basarse en la diferencia calculada entre un valor de luminancia medio del sujeto y un criterio de luminancia almacenado correspondiente a ese sujeto. Si la diferencia calculada excede un cierto valor de porcentaje de umbral, el procedimiento 300 puede proceder a un estado de proceso 380 para ajustar el dispositivo de visualización a una condición de iluminación de imagen optimizada. Sin embargo, si la diferencia calculada no excede un determinado valor de porcentaje de umbral, el procedimiento 300 procede al estado de proceso 350 para ajustar el dispositivo de visualización a una condición de iluminación de imagen predeterminada, como se analizó anteriormente.
[0042] Solo a modo de ejemplo, los criterios de luminancia objetivo almacenados para un rostro humano pueden incluir el 18 % en escala de grises de la curva de luminancia. En una curva de luminancia de 8 bits, puede haber 28 = 256 niveles de valores de luminancia de tal manera que el 18 % en la escala de grises corresponde al 46.° nivel de grises. Si el valor de luminancia media del rostro humano capturado en la trama de prueba tiene un valor medio de luminancia correspondiente a, por ejemplo, el 10 % en la escala de grises correspondiente al 26.° nivel de grises en una curva de luminancia de 8 bits, la diferencia calculada sería del 8 %. Si el procedimiento 300 procede a ajustar el dispositivo de visualización a una condición de iluminación de imagen optimizada o a ajustar el dispositivo de visualización a una condición de iluminación de imagen predeterminada puede depender de si la diferencia calculada del 8 % excede el valor de umbral en un modo de realización.
[0043] Después de ajustar el dispositivo de visualización a una condición de iluminación de imagen optimizada en el estado de proceso 380, el procedimiento 300 pasa al estado 390 para activar el obturador. El procedimiento 300 a continuación pasa a un estado 392 en el que la imagen o la trama de vídeo se captura mientras la imagen de iluminación se muestra en el dispositivo de visualización. El procedimiento 300 a continuación pasa a un estado 394 en el que el obturador está desactivado. Finalmente, el procedimiento 300 pasa a un estado 396 en el que el dispositivo de visualización vuelve a la condición de iluminación normal.
[0044] La FIG. 3B es un diagrama de flujo que proporciona detalles adicionales sobre el proceso 360 para determinar una condición de iluminación preexistente de acuerdo con una implementación analizada anteriormente en relación con la FIG. 3A. El proceso 360 incluye capturar una trama de prueba utilizando el sensor de imagen frontal en un estado 362 y calcular una diferencia entre un valor de luminancia medio de la trama de prueba y un criterio de luminancia almacenado en un estado 366. Además, en otra implementación, el proceso 360 para determinar una condición de iluminación preexistente puede incluir además determinar un sujeto en la trama de prueba en un estado 364. En esta implementación, calcular la diferencia en el estado 366 incluye calcular una diferencia entre un valor de luminancia medio de un sujeto de la trama de prueba y un criterio de luminancia almacenado correspondiente al sujeto. Por ejemplo, el sujeto puede incluir una cara, varias caras, un cuerpo, varios cuerpos y un paisaje, entre otros. Los detalles adicionales de los estados 362, 364 y 366 se analizan a continuación.
[0045] De acuerdo con una implementación, el proceso 360 para determinar la condición de iluminación preexistente incluye capturar una trama de prueba en el estado 362. Una trama de prueba puede ser una trama capturada utilizando un conjunto de condiciones de imágenes de tramas de prueba fijas, incluido un número f y un tiempo de exposición. En algunas implementaciones, las condiciones de imagen de la trama de prueba incluyen un número f relativamente bajo y un tiempo de exposición relativamente corto en comparación con las condiciones reales de imagen para maximizar la velocidad. En otras implementaciones, las condiciones de imagen de la trama de prueba incluyen un número f y un tiempo de exposición que son similares a las condiciones de imagen reales.
[0046] Aún refiriéndose a la FIG. 3B, el proceso 360 para determinar la condición de iluminación preexistente de acuerdo con una implementación incluye además determinar un sujeto en la trama de prueba en el estado 364. En un aspecto, la determinación del sujeto puede incluir la determinación de una región de medición y la determinación del sujeto que se va a visualizar basándose en la información recopilada de la región de medición.
[0047] La determinación de la región de medición puede incluir la determinación de un área rectangular que comprende un porcentaje fijo del área de visualización total de la trama de prueba para que sea la región de medición. Solo a modo de ejemplo, la región de medición puede tener, por ejemplo, una región de medición rectangular que tiene una anchura igual a aproximadamente el 75 % de la anchura de la trama de prueba y una longitud igual a aproximadamente el 75 % de la longitud de la trama de prueba. Son posibles otros modos de realización, donde la región de medición puede incluir un área no rectangular y/o un área rectangular que ocupa diferentes porcentajes de la longitud y/o anchura de la trama de prueba.
[0048] En otro aspecto, la determinación del sujeto del cual se va a tomar la imagen puede basarse en cualquier número adecuado de criterios de determinación del sujeto. En algunas implementaciones, los criterios de determinación del sujeto pueden incluir determinar una fracción del área total de la trama de prueba que ocupa un posible sujeto. En otras implementaciones, los criterios de determinación del sujeto pueden incluir un valor de luminancia medio del posible sujeto en comparación con un medio general de luminancia de la trama de prueba total. En otras implementaciones, los criterios de determinación del sujeto pueden incluir otros criterios tales como un valor medio de los componentes de color del posible sujeto en comparación con un valor medio de los componentes de color de la trama de prueba total. Utilizando uno o más de los criterios de determinación del sujeto y comparando con una lista de referencia almacenada en el módulo de almacenamiento, se puede determinar un sujeto de la trama de prueba.
[0049] En otro aspecto, determinar el sujeto que del cual se va a tomar una imagen puede incluir determinar que el sujeto incluye un rostro humano. Determinar que el sujeto es un ser humano puede invocar uno o más de los algoritmos de detección de caras conocidos en la técnica. Por ejemplo, la determinación de un rostro humano se puede realizar basándose en cualquier número de factores adecuados, como la naturaleza ovular del sujeto y las distancias mínimas y máximas entre el punto central y los límites exteriores del sujeto.
[0050] Aún refiriéndose a la FIG. 3B, el proceso 360 para determinar la condición de iluminación preexistente de acuerdo con una implementación incluye calcular una diferencia entre el valor de luminancia medio del sujeto de la trama de prueba y un criterio de luminancia almacenado correspondiente a ese sujeto en el estado 366.
[0051] La FIG. 3C ilustra un diagrama de flujo que proporciona detalles adicionales sobre el proceso 380 para ajustar el dispositivo de visualización a una condición de iluminación de imagen optimizada analizada anteriormente en relación con la FIG. 3A. El proceso 380 comienza en un estado 382 calculando una iluminación adicional basada en la diferencia calculada entre el valor de luminancia medio del sujeto y los criterios de luminancia almacenados correspondientes al sujeto. El estado 382 es seguido seleccionando una imagen de iluminación en un estado 384, seguido de un ajuste del valor de luminancia medio en un estado 386, seguido de la visualización de la imagen de iluminación en un estado 388. Cada uno de los estados 382, 384, 386 y 388 se analizan más detalladamente a continuación.
[0052] En algunos modos de realización, la iluminación adicional calculada en el estado 382 puede ser lineal o no linealmente proporcional a la diferencia calculada entre el valor de luminancia medio del sujeto y los criterios de luminancia almacenados correspondientes a ese sujeto en el estado 366 en la FIG. 3B. La iluminación adicional calculada que debe proporcionar el dispositivo de visualización puede ser un valor obtenido, por ejemplo, multiplicando la diferencia calculada entre el valor de luminancia medio del sujeto y los criterios de luminancia almacenados correspondientes a ese sujeto por otros factores. Uno de estos factores puede ser un factor de distancia, por ejemplo, para tener en cuenta el hecho de que una cantidad sustancial de intensidad de luz se puede reducir en función de la distancia entre el dispositivo de visualización y el sujeto del cual se está tomando una imagen.
[0053] En otros modos de realización, la iluminación adicional puede calcularse basándose en una diferencia entre un valor de crominancia medio del sujeto y los criterios de crominancia almacenados correspondientes a ese sujeto en el estado 382. En este modo de realización, los componentes de color que tienen valores medios relativamente bajos en el sujeto de la trama de prueba pueden calcularse para compensarse en exceso por parte el dispositivo de visualización, mientras que otros componentes de color que tienen valores medios relativamente altos en el sujeto de la trama de prueba pueden calcularse para compensarse de forma insuficiente para compensar preferentemente los componentes de color con el fin de producir una imagen estéticamente más agradable.
[0054] Aún refiriéndose a la FIG. 3C, el proceso 380 para ajustar el dispositivo de visualización incluye además la selección de una imagen de iluminación en el estado 384. La imagen de iluminación seleccionada puede ser cualquier imagen adecuada para proporcionar la iluminación deseada para el sensor de imagen frontal.
[0055] En una implementación, la imagen de iluminación puede ser una imagen que se estaba mostrando antes de recibir el comando para capturar la imagen digital en el estado 320 en la FIG. 3A, como una pantalla predeterminada del dispositivo con luminancia optimizada. En otra implementación, la imagen de iluminación puede ser una imagen que se estaba mostrando inmediatamente antes de ajustar el dispositivo de visualización, como una trama de vista previa de la imagen del usuario capturada por el sensor de imagen frontal con luminancia optimizada. En otra implementación más, la imagen de iluminación puede ser una imagen que tenga regiones de iluminación configuradas de manera que los píxeles incluidos en las regiones de iluminación tengan una luminancia y/o una crominancia optimizadas. Varias configuraciones de la imagen de iluminación que pueden incluirse en la selección de la imagen de iluminación en el estado 384 se analizan con más detalle a continuación en relación con la FIG. 4.
[0056] La imagen de iluminación se puede seleccionar en el estado 384 basándose en la iluminación adicional calculada en el estado 382. Por ejemplo, una imagen de iluminación adecuada puede ser la capaz de proporcionar la iluminación adicional calculada en el estado 382. Sin embargo, no todas las imágenes de iluminación disponibles pueden ser capaces de proporcionar la iluminación adicional calculada en el estado 382. Como ejemplo ilustrativo, una primera imagen de iluminación puede tener píxeles dispuestos para proporcionar 1 -5 % de luminancia adicional, mientras que una segunda imagen de iluminación puede tener píxeles dispuestos para proporcionar 5-10 % de luminancia adicional. En este ejemplo ilustrativo, si la luminancia adicional requerida basada en la imagen adicional calculada en el estado 382 supera el 5 %, la segunda imagen de iluminación se seleccionaría sobre la primera imagen de iluminación en el estado 384.
[0057] Aún refiriéndose a la FIG. 3C, el proceso 380 para ajustar el dispositivo de visualización a una condición de iluminación de imagen optimizada incluye además ajustar un valor de luminancia medio de la imagen de iluminación seleccionada a un valor de luminancia de imagen objetivo en un estado 386. El ajuste del valor de luminancia medio en el estado 386 incluye primero determinar una diferencia entre un valor de luminancia medio de la imagen de iluminación seleccionada y un valor de luminancia de imagen objetivo. Al determinar la diferencia, el ajuste del valor de luminancia medio en el estado 386 incluye además la determinación de los voltajes y corrientes requeridos para los píxeles incluidos en la imagen de iluminación para mostrar la imagen de iluminación seleccionada bajo el valor de luminancia de imagen predeterminado del objetivo.
[0058] Aún refiriéndose a la FIG. 3C, el proceso 380 de ajustar el dispositivo de visualización a una condición de iluminación de imagen optimizada incluye además visualizar la imagen de iluminación seleccionada que tiene el valor de luminancia de imagen en un estado 388. La visualización de la imagen de iluminación seleccionada en el estado 388 incluye la selección de los píxeles del dispositivo de visualización correspondientes a la imagen de iluminación seleccionada y el suministro de los voltajes y corrientes determinados basándose en la diferencia entre un valor de luminancia medio de la imagen de iluminación seleccionada y el valor de luminancia de imagen objetivo.
[0059] Refiriéndonos ahora a la FIG. 3D, se analiza con más detalle el proceso 350 de ajuste del dispositivo de visualización a una condición de iluminación de imagen predeterminada. El proceso 350 comienza en un estado 352 para seleccionar una imagen de iluminación, seguido de un estado 354 donde un valor de luminancia medio de la imagen de iluminación se ajusta a un valor de luminancia de imagen predeterminado. A su vez, el estado 354 es seguido por la visualización de la imagen de iluminación que tiene el valor de luminancia de imagen predeterminado en un estado 356. Cada uno de los estados 352, 354 y 356 se describen más detalladamente a continuación.
[0060] Haciendo referencia a la FIG. 3D, el proceso 350 de ajustar el dispositivo de visualización a una condición de iluminación de imagen predeterminada incluye seleccionar en el estado 352 una imagen de iluminación. La selección en el estado 352 de una imagen de iluminación puede incluir la selección de una imagen de iluminación predeterminada. La imagen de iluminación predeterminada puede ser cualquier imagen adecuada para proporcionar iluminación para el sensor de imagen frontal. En una implementación, la imagen de iluminación predeterminada puede ser una imagen que se estaba mostrando antes de recibir el comando para capturar la imagen digital en el estado 320 en la FIG. 3A. Por ejemplo, la imagen de iluminación predeterminada puede ser cualquiera de las pantallas predeterminadas del dispositivo de visualización que puede incluir, por ejemplo, iconos de aplicaciones. En otra implementación, la imagen de iluminación predeterminada puede ser una imagen que se estaba mostrando inmediatamente antes de ajustar el dispositivo de visualización. Por ejemplo, la imagen predeterminada puede ser una trama de vista previa de la imagen del usuario capturada por el sensor de imagen frontal antes de capturar una imagen permanente. En otra implementación, la imagen de iluminación predeterminada puede ser una imagen que tenga un área de iluminación configurada de tal manera que los píxeles incluidos en el área de iluminación tengan un valor de luminancia predeterminado. En algunos modos de realización, la imagen de iluminación predeterminada puede ser una de las imágenes predeterminadas almacenadas por el fabricante del dispositivo en el módulo de almacenamiento del dispositivo digital. En otros modos de realización, el usuario puede proporcionar la imagen de iluminación predeterminada y almacenarla en el módulo de almacenamiento. Por ejemplo, la imagen puede ser cualquier imagen almacenada en el módulo de almacenamiento por el usuario, como un retrato personal, una página web, entre otros. Varias configuraciones de la imagen de iluminación que se pueden incluir en la selección en el estado 352 de la imagen de iluminación se analizan con más detalle a continuación en relación con la FIG. 4.
[0061] Aún refiriéndose a la FIG. 3D, el proceso 350 de ajustar el dispositivo de visualización a una condición de iluminación de imagen predeterminada incluye además ajustar en el estado 354 un valor de luminancia medio de la imagen de iluminación predeterminada a un valor de luminancia de imagen predeterminado. Ajustar en el estado 354, el valor de luminancia medio incluye primero determinar una diferencia entre un valor de luminancia medio de la imagen de iluminación predeterminada seleccionada y un valor de luminancia de imagen predeterminado objetivo. Al determinar la diferencia, el ajuste del valor de luminancia medio en el estado 354 incluye además la determinación de los voltajes y corrientes requeridos para los píxeles incluidos en la imagen de iluminación para mostrar la imagen de iluminación predeterminada bajo el valor de luminancia de imagen predeterminado objetivo.
[0062] Aún refiriéndose a la FIG. 3D, el proceso 350 de ajustar el dispositivo de visualización a una condición de iluminación de imagen predeterminada incluye además mostrar en el estado 356 la imagen de iluminación predeterminada que tiene el valor de luminancia de imagen predeterminado. La visualización de la imagen de iluminación predeterminada en el estado 356 incluye la selección de los píxeles del dispositivo de visualización correspondientes a la imagen de iluminación predeterminada y el suministro de los voltajes y corrientes determinados basándose en la diferencia entre un valor de luminancia medio de la imagen de iluminación predeterminada seleccionada y el valor de luminancia de imagen predeterminado objetivo.
[0063] Las FIGs. 4A - 4L ilustran implementaciones a modo de ejemplo de imágenes de iluminación seleccionadas al ajustar 380 el dispositivo de visualización a una condición de iluminación de imagen optimizada y ajustar 350 el dispositivo de visualización a una condición de iluminación de imagen predeterminada. Cada una de las FIGs. 4A-4L representa una implementación a modo de ejemplo de un dispositivo digital 400 que comprende un sensor de imagen frontal 402. Aunque el dispositivo digital 400 representado en las FIGs. 4A-4L es un teléfono inteligente, el dispositivo digital 400 puede ser cualquiera de un teléfono móvil, una tablet, un ordenador portátil, un ordenador de escritorio, una cámara de vídeo, un reproductor de música portátil, entre otros dispositivos digitales que se pueden configurar para incluir un sensor de imagen frontal. Además, en cada uno de los modos de realización ilustrados en las FIGs. 4A-4L, el dispositivo digital 400 está configurado para mostrar una imagen de iluminación 404. Debe entenderse que cada una de las implementaciones ilustradas en las FIGs. 4A-4L, o cualquier característica incluida en las implementaciones, se puede combinar para formar modos de realización no representados en las FIGs. 4A-4L. Además, el número, las formas y los tamaños físicos de diferentes características se proporcionan solo como ejemplos, y son posibles otros modos de realización que tienen un número diferente, formas diferentes y tamaños físicos diferentes.
[0064] La imagen de iluminación 404 puede ser cualquier imagen adecuada mostrada en el dispositivo de visualización del dispositivo digital 400 para proporcionar una iluminación adecuada para el sensor de imagen frontal 402. En algunas implementaciones, la imagen de iluminación 404 puede ser una imagen que se estaba mostrando antes de recibir un comando del usuario para capturar una imagen digital. Una implementación de dicha imagen de iluminación se representa en la FIG. 4A. La imagen de iluminación 404 de la FIG. 4A es la de una imagen por defecto 406. La imagen predeterminada 406 puede incluir características visuales e interactivas como un reloj, una ventana de búsqueda, iconos de aplicaciones, entre otras características. En esta implementación, al recibir el comando para capturar una imagen digital, un valor de luminancia medio de la imagen predeterminada 406 puede ajustarse de acuerdo con el ajuste 380 del dispositivo de visualización a una iluminación de imagen optimizada o de acuerdo con el ajuste 350 del dispositivo de visualización a una condición de iluminación de imagen predeterminada analizada anteriormente en relación con la FIG. 3A.
[0065] En algunas implementaciones, la imagen de iluminación puede incluir una o más regiones de iluminación configuradas de manera que los píxeles incluidos en las regiones de iluminación estén configurados para iluminar con luz blanca. Un píxel puede configurarse para iluminar con luz blanca cuando las intensidades de los componentes de color individuales (p. ej., R, G y B del espacio de color RGB) se equilibran para tener sustancialmente los mismos valores, de modo que un ojo humano perciba que la luz resultante es neutral sin tener una preferencia de color.
[0066] La imagen de iluminación 404 del dispositivo digital 400 en la FIG. 4B de acuerdo con una implementación incluye una única región de iluminación 408 que está configurada para iluminar con luz blanca y cubrir sustancialmente toda la imagen de iluminación 404. En esta implementación, como en la FIG. 4A, un valor de luminancia medio de la región de iluminación 408 puede ajustarse de acuerdo con el ajuste 380 del dispositivo de visualización a una iluminación de imagen optimizada o de acuerdo con el ajuste 350 del dispositivo de visualización a una condición de iluminación de imagen predeterminada analizada anteriormente en.
[0067] La imagen de iluminación 404 del dispositivo digital 400 en la FIG. 4C de acuerdo con otra implementación incluye una sola región de iluminación 410 que está configurada para iluminar con luz blanca y cubrir una parte de la imagen de iluminación 404. Un valor de luminancia medio de la región de iluminación 410 se puede ajustar como en las FIGs. 4A-4B. Además, el tamaño de la región de iluminación 410 se puede ajustar para aumentar el número de píxeles incluidos en la región de iluminación 410 para aumentar la iluminación general del dispositivo de visualización. Los píxeles incluidos en una región pasiva 412 están configurados para tener valores de luminancia despreciables.
[0068] La imagen de iluminación 404 del dispositivo digital 400 en la FIG. 4D de acuerdo con otra implementación incluye una pluralidad de regiones de iluminación 416a-416c, cada una de las cuales está configurada para iluminar con luz blanca y cubrir una parte de la imagen de iluminación 404. El valor de luminancia medio de las regiones de iluminación 416a-416c se puede ajustar como en las FIGs. 4A-4C. En esta implementación, los valores de luminancia medio de las regiones de iluminación 416a-416c pueden ajustarse individual o colectivamente. Además, los tamaños de las regiones de iluminación 416a-416c se pueden ajustar individual o colectivamente para optimizar la iluminación general del dispositivo de visualización. Los píxeles incluidos en las regiones pasivas 414a-414c fuera de las regiones de iluminación 416a-416c están configurados para tener valores de luminancia despreciables.
[0069] En algunas implementaciones, la imagen de iluminación 404 puede incluir una o más regiones de iluminación configuradas de tal manera que los píxeles incluidos en las regiones de iluminación estén configurados para iluminar preferentemente la luz coloreada de un componente de color (por ejemplo, R, G o B en el espacio RGB). Los píxeles pueden configurarse para iluminar preferentemente la luz de color cuando la intensidad de uno de los componentes de color aumenta, mientras que las intensidades de otros componentes de color se suprimen de manera que un ojo humano percibe que la luz resultante tiene un color. Por ejemplo, para iluminar preferentemente la luz roja, los fotodiodos correspondientes a las luces verde y azul se pueden suprimir de modo que el componente de color R tenga un valor relativamente alto en comparación con los componentes de color G y B.
[0070] La imagen de iluminación 404 del dispositivo digital 400 en la FIG. 4E de acuerdo con una implementación incluye una pluralidad de regiones de iluminación, donde cada una de las regiones de iluminación está configurada para iluminar preferentemente una luz de color y para cubrir una parte de la imagen de iluminación 404. En la implementación ilustrada, la imagen de iluminación 404 incluye tres regiones de iluminación 420, 422 y 424, cada una de las cuales está configurada para iluminar preferentemente la luz roja, verde o azul, respectivamente. Un valor de luminancia medio de cada una de las regiones de iluminación individuales 420, 422 y 424 puede ajustarse como en las FIGs. 4A-D. Ajustando individualmente el valor de luminancia medio de cada una de las tres regiones de iluminación, cuyos valores se obtienen preferentemente ponderados por el componente de color que se ilumina preferentemente, se puede proporcionar una iluminación combinada con una mezcla de colores personalizable para la cámara frontal 402. Los píxeles incluidos en la región pasiva 412 están configurados para tener valores de luminancia despreciables.
[0071] La imagen de iluminación 404 del dispositivo digital 400 en la FIG. 4F de acuerdo con una implementación incluye una pluralidad de regiones de iluminación, donde las regiones de iluminación configuradas para iluminar de manera preferente luces de diferentes colores se intercalan y cubren sustancialmente toda la imagen de iluminación 404. En la implementación ilustrada, la imagen de iluminación 404 incluye cuatro regiones de iluminación 430, 432, 446 y 448, cada una de las cuales está configurada para iluminar de forma preferente luz roja, cuatro regiones de iluminación 432, 440, 442 y 450, cada una de las cuales está configurada para iluminar preferentemente la luz verde y cuatro regiones de iluminación 434, 436, 444 y 452, cada una de las cuales está configurada para iluminar de forma preferente luz azul. Un valor de luminancia medio de cada una de las regiones de iluminación individuales 430, 432, 434, 436, 438, 440, 442, 444, 446, 448, 450 y 452 se puede ajustar como en las FIGs. 4A-4E. Como en la FIG. 4E, al ajustar individualmente el valor de luminancia medio de cada una de las regiones de iluminación, cuyos valores se obtiene preferentemente ponderados por el componente de color que se ilumina preferentemente, se puede proporcionar una iluminación combinada con una mezcla de colores personalizable para la cámara frontal 402. Además, el patrón intercalado puede proporcionar una distribución más uniforme de la luz de color para evitar, por ejemplo, que diferentes partes del sujeto (por ejemplo, una cara) se iluminen preferentemente con un componente de color particular
[0072] La imagen de iluminación 404 del dispositivo digital 400 en la FIG. 4G de acuerdo con una implementación incluye una pluralidad de regiones de iluminación, donde las regiones de iluminación configuradas para iluminar de manera preferente diferentes luces de colores se distribuyen dentro de la imagen de iluminación 404 y para cubrir al menos una parte de la imagen de iluminación 404. En la implementación ilustrada, la imagen de iluminación 404 incluye tres regiones de iluminación 460 y 466, cada una de las cuales está configurada para iluminar preferentemente la luz roja, dos regiones de iluminación 462 y 469, cada una de las cuales está configurada para iluminar preferentemente la luz verde, y dos regiones de iluminación 464 y 470, cada uno de los cuales está configurada para iluminar preferentemente la luz azul. Un valor de luminancia medio de cada una de las regiones de iluminación individuales 460, 462, 464, 466, 468 y 470 puede ajustarse como en las FIGs. 4A-4F. Como en la FIG. 4E, al ajustar individualmente el valor de luminancia medio de cada una de las regiones de iluminación, cuyos valores se obtiene preferentemente ponderados por el componente de color que se ilumina preferentemente, se puede proporcionar una iluminación combinada con una mezcla de colores personalizable para la cámara frontal 402. Además, el patrón intercalado puede proporcionar una distribución no uniforme de luz coloreada para proporcionar, por ejemplo, diferentes cantidades de luz coloreada a diferentes partes del sujeto (por ejemplo, una cara). Los píxeles incluidos en la región pasiva 412 están configurados para tener valores de luminancia despreciables.
[0073] La imagen de iluminación 404 del dispositivo digital 400 en la FIG. 4H de acuerdo con una implementación incluye una pluralidad de regiones de iluminación, donde algunas de las regiones de iluminación están configuradas para iluminar preferentemente una luz de color, mientras que otras regiones de iluminación están configuradas para iluminar con luz blanca. En la implementación ilustrada, la imagen de iluminación 404 incluye tres regiones de iluminación 472, 474, configuradas para iluminar preferentemente la luz roja, verde o azul, respectivamente. La imagen de iluminación 404 incluye adicionalmente una región de iluminación 478 configurada para iluminar con luz blanca. Los valores medios de luminancia de cada una de las regiones de iluminación individuales 472. 474, 476 y 478 pueden ajustarse como en las FIGs. 4A-4G. Ajustando individualmente el valor de luminancia medio de cada una de las regiones de iluminación 472, 474 y 476, cuyos valores se obtienen preferentemente ponderados por el componente de color que se ilumina preferentemente, se puede proporcionar una iluminación combinada que tiene una mezcla de colores personalizable para la cámara frontal 402. Además, al ajustar el valor de luminancia medio de la región de iluminación 478, se puede proporcionar luz blanca adicional para aumentar el brillo general de la imagen capturada. Los píxeles incluidos en la región pasiva 412 están configurados para tener valores de luminancia despreciables.
[0074] En algunas implementaciones, la imagen de iluminación puede incluir una imagen capturada por el sensor de imagen frontal. En algunas implementaciones, la imagen capturada por el sensor de imagen frontal puede ser una vista previa de una imagen fija. En otras implementaciones, la imagen capturada por la cámara frontal puede ser una trama en tiempo real que se captura en un vídeo.
[0075] Una implementación que utiliza la imagen capturada por la cámara frontal como una imagen de iluminación se representa en la FIG. 4I. La imagen de iluminación 404 de la FIG. 4I incluye una región de iluminación 482 que cubre sustancialmente toda la imagen de iluminación 404 e incluye una imagen de un usuario 480 contra un fondo. Un valor de luminancia medio de toda la imagen de iluminación 404 se puede ajustar como en las FIGs. 4A-4H.
[0076] Otra implementación que utiliza la imagen capturada por la propia cámara frontal como imagen de iluminación se muestra en la FIG. 4J. Además de una región de iluminación 482 que cubre una parte de la imagen de iluminación 404 que comprende una imagen de un usuario, la imagen de iluminación 404 de la FIG. 4J adicionalmente incluye una región de iluminación 484 que cubre una parte de la imagen de iluminación 404 y está configurada para iluminar con luz blanca. Un valor de luminancia medio de cada una de las regiones de iluminación 484 y 482 se puede ajustar como en las FIGs. 4A-4H. Los píxeles incluidos en la región pasiva 412 están configurados para tener valores de luminancia despreciables.
[0077] Otra implementación que utiliza la imagen capturada por la propia cámara frontal como una imagen de iluminación se representa en las FIGs. 4K y 4L. En ambas implementaciones, además de una región de iluminación 482 que cubre una parte de la imagen de iluminación 404 que comprende una imagen de un usuario, las imágenes de iluminación 404 de las FIGs. 4K y 4L incluyen adicionalmente regiones de iluminación 488 y 490 que comprenden una imagen transmitida desde otro dispositivo (por ejemplo, de un segundo usuario 486) a través de la red. Un valor de luminancia medio de cada una de las regiones de iluminación 482, 488 y 490 se puede ajustar como en las FIGs. 4A-4J. Los píxeles incluidos en la región pasiva 412 en la FIG. 4L están configurados para tener valores de luminancia despreciables.
[0078] La descripción anterior de las implementaciones divulgadas se proporciona para permitir que cualquier experto en la técnica realice o use la presente invención. Diversas modificaciones de estas implementaciones resultarán inmediatamente evidentes para los expertos en la técnica, y los principios genéricos definidos en el presente documento se pueden aplicar a otras implementaciones.
Aclaraciones sobre terminología
[0079] Las implementaciones divulgadas en el presente documento proporcionan sistemas, procedimientos y aparatos para usar la propia pantalla del dispositivo para proporcionar una fuente de iluminación para sensores de imagen frontales. Un experto en la técnica reconocerá que estos modos de realización pueden implementarse en hardware, software, firmware o en cualquier combinación de los mismos.
[0080] En la descripción, se dan detalles específicos para proporcionar una comprensión exhaustiva de los ejemplos. Sin embargo, un experto en la técnica entenderá que pueden llevarse a la práctica los ejemplos sin estos detalles específicos. Por ejemplo, los componentes/dispositivos eléctricos pueden mostrarse en diagramas de bloques con el fin de no oscurecer los ejemplos con detalles innecesarios. En otros casos, dichos componentes, otras estructuras y técnicas se pueden mostrar en detalle para explicar mejor los ejemplos.
[0081] Los títulos se incluyen en el presente documento para referencia y para facilitar la ubicación de diversas secciones. Estos títulos no pretenden limitar el alcance de los conceptos descritos con respecto a los mismos. Dichos conceptos pueden tener aplicabilidad a lo largo de toda la memoria descriptiva.
[0082] Además, se observa también que los ejemplos pueden describirse como un proceso, que se representa como un organigrama, un diagrama de flujo, un diagrama de estados finitos, un diagrama estructural o un diagrama de bloques. Aunque un diagrama de flujo puede describir las operaciones como un proceso secuencial, muchas de las operaciones pueden realizarse en paralelo o simultáneamente, y el proceso puede repetirse. Además, el orden de las operaciones puede reorganizarse. Un proceso se termina cuando sus operaciones se completan. Un proceso puede corresponder a un procedimiento, una función, un proceso, una subrutina, un subprograma, etc. Cuando un proceso se corresponde con una función de software, su finalización corresponde al retorno de la función a la función de llamada o a la función principal.
[0083] La descripción anterior de las implementaciones divulgadas se proporciona para permitir que cualquier experto en la técnica realice o use la presente invención. Diversas modificaciones de estas implementaciones resultarán fácilmente evidentes a los expertos en la materia, y los principios genéricos definidos en el presente documento pueden aplicarse a otros modos de realización sin apartarse del espíritu o el alcance de la invención.

Claims (26)

  1. REIVINDICACIONES
    i . Un procedimiento para capturar una imagen digital realizada por un dispositivo electrónico (400) que tiene un sensor de imagen frontal (402) y una pantalla frontal, el procedimiento que comprende:
    recibir (320) un comando para capturar la imagen digital;
    capturar (362) una trama de prueba utilizando el sensor de imagen frontal;
    ajustar (380) la pantalla a una condición de iluminación de imagen en respuesta al comando y a la trama de prueba capturada, en el que ajustar la pantalla incluye seleccionar (382) una imagen de iluminación (404) y mostrar (388) la imagen de iluminación (404), en el que la imagen de iluminación (404) incluye una o más regiones de iluminación, en el que los píxeles en al menos una región de iluminación tienen un color seleccionado basándose en la trama de prueba; y
    capturar (392) la imagen digital utilizando el sensor de imagen frontal en la condición de iluminación de imagen.
  2. 2. El procedimiento según la reivindicación 1, en el que ajustar la pantalla incluye ajustar un valor de luminancia medio de la imagen de iluminación (404) a un valor de luminancia predeterminado, siendo el valor de luminancia predeterminado diferente de un valor de luminancia medio preexistente de la pantalla antes de ajustar la pantalla.
  3. 3. El procedimiento según la reivindicación 2, en el que la imagen de iluminación incluye una de:
    i) una imagen preexistente mostrada en la pantalla antes de ajustar el dispositivo;
    ii) una imagen de usuario (480) capturada por el sensor de imagen frontal; y
    iii) una primera área de iluminación y una segunda área de iluminación, en el que los píxeles dentro de la primera área de iluminación tienen un primer conjunto de valores de componentes R, G y B y los píxeles dentro de la segunda área de iluminación tienen un segundo conjunto de valores de componentes R, G y B.
  4. 4. El procedimiento según la reivindicación 1, que comprende:
    determinar un sujeto en la trama de prueba; y
    calcular (366) una diferencia entre un valor de luminancia medio del sujeto de la trama de prueba y un criterio de luminancia almacenado correspondiente al sujeto,
    en el que ajustar la pantalla incluye calcular (382) una iluminación adicional basándose en la diferencia y seleccionar una imagen de iluminación basándose en la iluminación adicional calculada.
  5. 5. El procedimiento según la reivindicación 1, que comprende
    determinar un sujeto en la trama de prueba;
    determinar un valor de crominancia medio basado en al menos una parte del sujeto en la trama de prueba; y
    comparar el valor de crominancia medio determinado con un valor de crominancia objetivo,
    en el que los píxeles en al menos una región de iluminación tienen un color seleccionado basado en la comparación.
  6. 6. El procedimiento según la reivindicación 4 o la reivindicación 5, en el que determinar un sujeto en la trama de prueba comprende determinar si el sujeto de la trama de prueba incluye una cara.
  7. 7. El procedimiento según la reivindicación 6, en el que se usa un algoritmo de detección de cara para determinar si la trama de prueba incluye una cara.
  8. 8. El procedimiento según la reivindicación 4, en el que ajustar la pantalla incluye ajustar (386) un valor de luminancia medio de la imagen de iluminación (404) a un valor de luminancia de imagen, siendo el valor de luminancia de imagen diferente de un valor de luminancia medio preexistente del dispositivo de visualización antes de ajustar el dispositivo de visualización.
  9. 9. El procedimiento según la reivindicación 8, en el que ajustar la pantalla incluye adicionalmente ajustar un valor de crominancia medio de la imagen de iluminación (404) a un valor de crominancia de imagen, siendo el valor de crominancia de imagen diferente de un valor de crominancia medio preexistente de la pantalla antes de ajustar la pantalla.
  10. 10. El procedimiento según la reivindicación 8, en el que la iluminación adicional se calcula basándose en una diferencia entre un valor de crominancia medio del sujeto y los criterios de crominancia almacenados correspondientes al sujeto.
  11. 11. El procedimiento según la reivindicación 1, en el que la imagen de iluminación (404) consta de una única región de iluminación.
  12. 12. El procedimiento según la reivindicación 1, en el que la imagen de iluminación (404) se basa en una distribución uniforme de luz coloreada.
  13. 13. El procedimiento según la reivindicación 11, en el que la imagen de iluminación (404) comprende una pluralidad de regiones de iluminación intercaladas que cubren sustancialmente la imagen de iluminación (404), estando configurada cada una de la pluralidad de regiones de iluminación intercaladas para iluminar una de luz roja, luz verde y la luz azul, siendo los valores de luminancia de cada una de la pluralidad de regiones de iluminación intercaladas ajustables para proporcionar una mezcla de colores personalizable.
  14. 14. Un medio legible por ordenador que comprende instrucciones que cuando se ejecutan hacen que un procesador realice un procedimiento de acuerdo con cualquiera de las reivindicaciones 1 a 13.
  15. 15. Un dispositivo electrónico (400) que comprende:
    un sensor de imagen frontal (402);
    una pantalla frontal;
    medios para recibir (320) un comando para capturar una imagen digital;
    medios para capturar (362) una trama de prueba utilizando el sensor de imagen frontal;
    medios para ajustar (380) la pantalla a una condición de iluminación de imagen en respuesta al comando y a la trama de prueba capturada, en el que los medios para ajustar la pantalla incluyen medios para seleccionar (384) una imagen de iluminación (404) y medios para mostrar (388) una imagen de iluminación (404), en el que la imagen de iluminación (404) incluye una o más regiones de iluminación, en el que los píxeles en al menos una región de iluminación tienen un color seleccionado basándose en la trama de prueba; y
    medios para capturar (392) la imagen digital utilizando el sensor de imagen frontal en la condición de iluminación de imagen.
  16. 16. El dispositivo electrónico de la reivindicación 15, en el que los medios de ajuste incluyen medios para ajustar un valor de luminancia medio de la imagen de iluminación (404) a un valor de luminancia predeterminado, siendo el valor de luminancia predeterminado diferente de un valor de luminancia medio preexistente de la pantalla antes de ajuste de la pantalla.
  17. 17. El dispositivo electrónico de la reivindicación 15, que comprende:
    medios para determinar un sujeto en la trama de prueba; y
    medios para calcular (366) una diferencia entre un valor de luminancia medio del sujeto de la trama de prueba y un criterio de luminancia almacenado correspondiente al sujeto,
    en el que ajustar la pantalla incluye calcular (382) una iluminación adicional basándose en la diferencia y seleccionar (384) una imagen de iluminación basándose en la iluminación adicional calculada.
  18. 18. El dispositivo electrónico de la reivindicación 15, que comprende
    medios para determinar un sujeto en la trama de prueba;
    medios para determinar un valor de crominancia basado en al menos una parte del sujeto en la trama de prueba; y
    medios para comparar el valor de crominancia determinado con un valor de crominancia objetivo, en el que los píxeles en al menos una región de iluminación tienen un color seleccionado basado en la comparación.
  19. 19. El dispositivo electrónico de la reivindicación 17 o la reivindicación 18, en el que los medios para determinar un sujeto en la trama de prueba comprenden medios para determinar si el sujeto de la trama de prueba incluye una cara.
  20. 20. El dispositivo electrónico de la reivindicación 19, en el que se usa un algoritmo de detección de cara para determinar si la trama de prueba incluye una cara.
  21. 21. El dispositivo electrónico de la reivindicación 17, en el que ajustar la pantalla incluye adicionalmente ajustar un valor de crominancia medio de la imagen de iluminación (404) a un valor de crominancia de imagen, siendo el valor de crominancia de imagen diferente de un valor de crominancia medio preexistente de la pantalla antes del ajuste de la pantalla.
  22. 22. El dispositivo electrónico de la reivindicación 21, en el que ajustar la pantalla incluye adicionalmente ajustar un valor de crominancia medio de la imagen de iluminación (404) a un valor de crominancia de imagen, siendo el valor de crominancia de imagen diferente de un valor de crominancia medio preexistente de la pantalla antes del ajuste de la pantalla.
  23. 23. El dispositivo electrónico de la reivindicación 21, en el que la iluminación adicional se calcula basándose en una diferencia entre un valor de crominancia medio del sujeto y los criterios de crominancia almacenados correspondientes al sujeto.
  24. 24. El dispositivo electrónico de la reivindicación 15, en el que la imagen de iluminación (404) consta de una única región de iluminación.
  25. 25. El dispositivo electrónico de la reivindicación 15, en el que la imagen de iluminación (404) se basa en una distribución uniforme de luz coloreada.
  26. 26. El dispositivo electrónico de la reivindicación 25, en el que la imagen de iluminación (404) comprende una pluralidad de regiones de iluminación intercaladas que cubren sustancialmente la imagen de iluminación (404), estando configurada cada una de la pluralidad de regiones de iluminación intercaladas para iluminar una de luz roja, luz verde, y la luz azul, siendo los valores de luminancia de cada una de la pluralidad de regiones de iluminación intercaladas ajustables para proporcionar una mezcla de colores personalizable.
ES14731490T 2013-07-01 2014-05-21 Dispositivo de visualización configurado como fuente de iluminación Active ES2716613T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/932,844 US9525811B2 (en) 2013-07-01 2013-07-01 Display device configured as an illumination source
PCT/US2014/038991 WO2015002699A1 (en) 2013-07-01 2014-05-21 Display device configured as an illumination source

Publications (1)

Publication Number Publication Date
ES2716613T3 true ES2716613T3 (es) 2019-06-13

Family

ID=50977123

Family Applications (1)

Application Number Title Priority Date Filing Date
ES14731490T Active ES2716613T3 (es) 2013-07-01 2014-05-21 Dispositivo de visualización configurado como fuente de iluminación

Country Status (10)

Country Link
US (5) US9525811B2 (es)
EP (3) EP3439292B1 (es)
JP (2) JP6513648B2 (es)
KR (1) KR102242302B1 (es)
CN (3) CN113596304B (es)
BR (1) BR112015032794B1 (es)
CA (1) CA2912850C (es)
ES (1) ES2716613T3 (es)
HU (1) HUE043157T2 (es)
WO (1) WO2015002699A1 (es)

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9513724B2 (en) * 2011-08-30 2016-12-06 Blackberry Limited Device and method for adjusting object illumination
JP5751270B2 (ja) * 2013-03-21 2015-07-22 カシオ計算機株式会社 撮像装置、撮像制御方法及びプログラム
US9525811B2 (en) * 2013-07-01 2016-12-20 Qualcomm Incorporated Display device configured as an illumination source
CN105493494B (zh) * 2013-08-30 2019-08-06 麦克赛尔株式会社 信息处理装置、信息处理方法和存储介质
KR20230173733A (ko) * 2013-11-28 2023-12-27 가부시키가이샤 한도오따이 에네루기 켄큐쇼 전자 기기 및 그 구동 방법
JP2015133693A (ja) * 2013-12-10 2015-07-23 株式会社半導体エネルギー研究所 表示装置、及び、電子機器
KR102153436B1 (ko) * 2014-01-15 2020-09-08 엘지전자 주식회사 이동단말기 및 그 제어방법
KR102358935B1 (ko) 2014-02-12 2022-02-04 가부시키가이샤 한도오따이 에네루기 켄큐쇼 전자 기기
TW201541258A (zh) * 2014-04-16 2015-11-01 Generalplus Technology Inc 光發電互動裝置以及光發電互動系統
US9420248B2 (en) 2014-09-19 2016-08-16 Qualcomm Incorporated Multi-LED camera flash for color temperature matching
US10475361B2 (en) * 2015-02-02 2019-11-12 Apple Inc. Adjustable display illumination
KR102477522B1 (ko) * 2015-09-09 2022-12-15 삼성전자 주식회사 전자 장치 및 그의 카메라 노출 조정 방법
CN105204743A (zh) 2015-09-28 2015-12-30 百度在线网络技术(北京)有限公司 用于语音和视频通讯的交互控制方法及装置
US20170134625A1 (en) * 2015-11-09 2017-05-11 Qualcomm Incorporated Dedicated illumination element and display based flash illumination for image capture
CN105872321A (zh) * 2015-12-10 2016-08-17 乐视移动智能信息技术(北京)有限公司 前置摄像头亮度补偿方法和装置及移动终端
KR102449593B1 (ko) * 2016-01-15 2022-09-30 삼성전자주식회사 카메라 장치를 제어하기 위한 방법 및 그 전자 장치
KR20170097860A (ko) * 2016-02-19 2017-08-29 삼성전자주식회사 디스플레이를 이용하여 이미지를 촬영하는 전자 장치 및 이미지 촬영 방법
US9762807B1 (en) 2016-03-10 2017-09-12 Intel Corporation Using display light to improve front facing camera performance
DE102016104383A1 (de) * 2016-03-10 2017-09-14 Osram Opto Semiconductors Gmbh Verfahren und optoelektronische Leuchtvorrichtung zum Beleuchten eines Gesichts einer Person sowie Kamera und mobiles Endgerät
CN105979125B (zh) * 2016-06-15 2019-09-24 惠州Tcl移动通信有限公司 一种基于屏幕补光的拍照方法及系统
CN105872402A (zh) 2016-06-15 2016-08-17 深圳Tcl新技术有限公司 智能电视的拍照方法及系统
CN107547887A (zh) * 2016-06-28 2018-01-05 深圳富泰宏精密工业有限公司 电子装置及其色温调节方法
US10277829B1 (en) 2016-08-12 2019-04-30 Apple Inc. Video capture in low-light conditions
CN114740963B (zh) 2016-09-23 2024-06-28 苹果公司 观影模式
CN106254690B (zh) * 2016-10-13 2019-09-20 努比亚技术有限公司 一种显示屏的调整装置及方法
US20180114493A1 (en) * 2016-10-21 2018-04-26 Motorola Mobility Llc Electronic Device with Display-Based Image Compensation and Corresponding Systems and Methods
CN106550191A (zh) * 2016-10-31 2017-03-29 维沃移动通信有限公司 一种拍照补光方法及移动终端
CN106331382B (zh) 2016-11-17 2019-06-25 捷开通讯(深圳)有限公司 一种基于移动终端的闪光灯组件及其控制系统、控制方法
WO2018103253A1 (zh) * 2016-12-09 2018-06-14 华为技术有限公司 一种移动设备及其背光控制方法、闪光校准方法和装置
CN106604010A (zh) 2016-12-15 2017-04-26 北京小米移动软件有限公司 控制屏幕发光的方法及装置
DE102016226206A1 (de) 2016-12-23 2018-06-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. System und Verfahren zum Erfassen von Messbildern eines Messobjekts
US10587209B2 (en) 2017-03-08 2020-03-10 Natural Gas Solutions North America, Llc Generating power for electronics on a gas meter
DK179555B1 (en) 2017-05-16 2019-02-13 Apple Inc. USER INTERFACE FOR A FLASHLIGHT MODE ON AN ELECTRONIC DEVICE
WO2019026191A1 (ja) * 2017-08-01 2019-02-07 オリンパス株式会社 撮像装置および制御方法
CN107483729B (zh) * 2017-08-08 2021-01-26 陕西银河景天电子有限责任公司 一种多画面显示选择截取画面的方法及系统
WO2019033386A1 (zh) * 2017-08-18 2019-02-21 深圳市汇顶科技股份有限公司 获取指纹图像的方法、装置和终端设备
JP7069627B2 (ja) * 2017-10-12 2022-05-18 凸版印刷株式会社 情報記録媒体の読み取り方法および真贋判定方法
CN109960964A (zh) * 2017-12-14 2019-07-02 红石生物特征科技有限公司 非接触式掌纹获取装置及其方法
CN108259754B (zh) * 2018-03-06 2021-02-02 Oppo广东移动通信有限公司 图像处理方法及装置、计算机可读存储介质和计算机设备
CN109005360B (zh) * 2018-06-11 2021-02-09 北京小米移动软件有限公司 拍摄环境的补光方法、装置及计算机可读存储介质
CN110225365A (zh) * 2019-04-23 2019-09-10 北京奇艺世纪科技有限公司 一种蒙版弹幕交互的方法、服务器及客户端
DK180684B1 (en) 2019-09-09 2021-11-25 Apple Inc Techniques for managing display usage
US11159737B2 (en) * 2019-10-14 2021-10-26 Google Llc Exposure change control in low light environments
CN110809120B (zh) * 2019-11-01 2021-04-27 深圳创维-Rgb电子有限公司 拍摄画面的补光方法、智能电视及计算机可读存储介质
CN112864186B (zh) * 2019-11-26 2024-08-23 北京小米移动软件有限公司 电子设备及其控制方法和装置
US11190705B2 (en) * 2020-03-16 2021-11-30 Lenovo (Singapore) Pte. Ltd. Intelligent array of lights for illumination
US20230334631A1 (en) * 2020-09-15 2023-10-19 Hewlett-Packard Development Company, L.P. Glare Reduction in Images
US20230410721A1 (en) * 2020-10-23 2023-12-21 Hewlett-Packard Development Company, L.P. Illumination portions on displays
USD961572S1 (en) * 2020-11-11 2022-08-23 Case-Mate, Inc. Case for mobile device
CN113645743B (zh) * 2021-08-10 2023-07-25 深圳创维-Rgb电子有限公司 基于电视的智能照明方法、装置、设备及存储介质
CN117095450B (zh) * 2023-10-20 2024-01-09 武汉大学人民医院(湖北省人民医院) 一种基于图像的眼干程度评估系统

Family Cites Families (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH104531A (ja) * 1996-06-14 1998-01-06 Nikon Corp 情報処理装置
GB9709737D0 (en) * 1997-05-14 1997-07-02 Chase Advanced Technologies Portable presentation device
EP1719541A1 (en) * 1997-10-08 2006-11-08 The General Hospital Corporation Phototherapy systems
US6970580B2 (en) 2001-10-17 2005-11-29 Qualcomm Incorporated System and method for maintaining a video image in a wireless communication device
US6907193B2 (en) * 2001-11-08 2005-06-14 Johnson & Johnson Consumer Companies, Inc. Method of taking polarized images of the skin and the use thereof
US7738032B2 (en) * 2001-11-08 2010-06-15 Johnson & Johnson Consumer Companies, Inc. Apparatus for and method of taking and viewing images of the skin
US20040146290A1 (en) * 2001-11-08 2004-07-29 Nikiforos Kollias Method of taking images of the skin using blue light and the use thereof
US20030098922A1 (en) * 2001-11-27 2003-05-29 Creo Il. Ltd. Precision exposure setting in a digital imaging device
JP3986349B2 (ja) * 2002-04-04 2007-10-03 富士フイルム株式会社 画像取得方法
GB2396001B (en) * 2002-10-09 2005-10-26 Canon Kk Gaze tracking system
CN1726696A (zh) * 2002-12-12 2006-01-25 松下电器产业株式会社 电子设备和使用该电子设备的摄像方法
US7805021B2 (en) * 2002-12-17 2010-09-28 Xerox Corporation Electronic image registration based on chrominance channel
US20040125996A1 (en) * 2002-12-27 2004-07-01 Unilever Home & Personal Care Usa, Division Of Conopco, Inc. Skin diagnostic imaging method and apparatus
JP2004350208A (ja) * 2003-05-26 2004-12-09 Tohoku Pioneer Corp カメラ付き電子機器
US7920908B2 (en) * 2003-10-16 2011-04-05 David Hattery Multispectral imaging for quantitative contrast of functional and structural features of layers inside optically dense media such as tissue
US7004599B2 (en) * 2004-01-02 2006-02-28 3Gen, Llc. Illuminated mirror employing cross and parallel polarization
JP4379129B2 (ja) * 2004-01-23 2009-12-09 ソニー株式会社 画像処理方法、および画像処理装置、並びにコンピュータ・プログラム
US20060097978A1 (en) * 2004-10-22 2006-05-11 Ng Kee Y Field-sequential color display with feedback control
KR100631603B1 (ko) * 2004-10-25 2006-10-09 엘지전자 주식회사 이동 통신 단말기의 영상 화질 개선 방법
US7663691B2 (en) * 2005-10-11 2010-02-16 Apple Inc. Image capture using display device as light source
US7711257B2 (en) * 2006-04-24 2010-05-04 Nokia Corporation Image quality in cameras using flash
JP5007523B2 (ja) * 2006-05-02 2012-08-22 カシオ計算機株式会社 撮像装置及びそのプログラム
US7965859B2 (en) * 2006-05-04 2011-06-21 Sony Computer Entertainment Inc. Lighting control of a user environment via a display device
US20080260242A1 (en) * 2006-06-22 2008-10-23 Tidal Photonics Inc. Apparatus and methods for measuring and controlling illumination for imaging objects, performances and the like
KR100773584B1 (ko) * 2006-07-06 2007-11-08 호서대학교 산학협력단 영상을 이용한 조명 제어 방법
JP4761066B2 (ja) * 2006-09-22 2011-08-31 富士フイルム株式会社 ホワイトバランス補正方法及び撮像装置
KR20080058820A (ko) 2006-12-22 2008-06-26 삼성전자주식회사 디스플레이장치 및 그 제어방법
KR100839093B1 (ko) * 2007-01-31 2008-06-19 한국과학기술원 입력 영상의 휘도 및 색상 측정 방법 및 장치
JP2008233381A (ja) * 2007-03-19 2008-10-02 Fujifilm Corp 撮像装置
CN101022564B (zh) 2007-03-26 2010-05-26 北京中星微电子有限公司 一种调整图像色彩的方法、装置及计算机
CN101290414B (zh) * 2007-04-20 2011-07-27 鸿富锦精密工业(深圳)有限公司 电子设备及其背景光控制方法
US8122378B2 (en) * 2007-06-08 2012-02-21 Apple Inc. Image capture and manipulation
US20080303918A1 (en) * 2007-06-11 2008-12-11 Micron Technology, Inc. Color correcting for ambient light
US8692930B2 (en) * 2007-08-20 2014-04-08 Matthew Rolston Photographer, Inc. Mobile device with operation for modifying visual perception
WO2009026399A1 (en) * 2007-08-20 2009-02-26 Matthew Rolston Photographer, Inc. Modifying visual perception
US8238968B1 (en) 2007-08-24 2012-08-07 Marvell Israel (M.I.S.L) Ltd. Camera sensor usage as luminance meter for power saving in mobile portable devices
TWI383370B (zh) * 2007-09-20 2013-01-21 Chunghwa Picture Tubes Ltd 顯示裝置之色度補償方法與照明方法
US8922672B2 (en) * 2008-01-03 2014-12-30 Apple Inc. Illumination systems and methods for imagers
US8446450B2 (en) * 2008-04-30 2013-05-21 Cisco Technology, Inc. Method of lighting
US20090322889A1 (en) * 2008-06-27 2009-12-31 Motorola, Inc. Method and apparatus for illuminating users of video communication devices
FR2933581B1 (fr) * 2008-07-10 2011-12-02 Oreal Procede de maquillage et dispositif pour la mise en oeuvre d'un tel procede
US7990421B2 (en) * 2008-07-18 2011-08-02 Sony Ericsson Mobile Communications Ab Arrangement and method relating to an image recording device
JP4561914B2 (ja) * 2008-09-22 2010-10-13 ソニー株式会社 操作入力装置、操作入力方法、プログラム
US8223241B2 (en) * 2008-12-15 2012-07-17 Robbyn Gayer Self shot camera
US20100164920A1 (en) 2008-12-26 2010-07-01 Kabushiki Kaisha Toshiba Information processing apparatus
US8797441B2 (en) * 2009-01-30 2014-08-05 Apple Inc. Continuous illumination of backlit display and of subject for image capture
JP5293367B2 (ja) 2009-04-17 2013-09-18 セイコーエプソン株式会社 自発光表示装置および電子機器
CN101888486B (zh) 2009-05-14 2014-04-30 鸿富锦精密工业(深圳)有限公司 亮度补偿系统及亮度补偿方法
US8289400B2 (en) * 2009-06-05 2012-10-16 Apple Inc. Image capturing device having continuous image capture
US8553103B1 (en) * 2009-09-30 2013-10-08 Hewlett-Packard Development Company, L.P. Compensation of ambient illumination
JP5434513B2 (ja) * 2009-11-18 2014-03-05 富士通株式会社 携帯端末および輝度調整プログラム
KR101604846B1 (ko) * 2009-11-27 2016-03-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US8611660B2 (en) * 2009-12-17 2013-12-17 Apple Inc. Detecting illumination in images
JP2010161783A (ja) * 2010-02-10 2010-07-22 Toshiba Corp 情報処理装置
US8339508B2 (en) * 2010-02-22 2012-12-25 Csr Technology Inc. Method and apparatus for low-light imaging enhancement
US8730384B2 (en) 2010-06-03 2014-05-20 Apple Inc. Systems, methods, and devices for flash exposure control using preflash statistics
KR101051509B1 (ko) * 2010-06-28 2011-07-22 삼성전기주식회사 카메라의 광량 제어 장치 및 방법
CN102053360B (zh) * 2010-10-18 2013-01-02 北京高普乐光电科技有限公司 一种主动照明的夜视装置及其方法
KR101739378B1 (ko) * 2010-12-23 2017-05-24 삼성전자주식회사 디지털 영상 촬영 장치 및 이의 제어 방법
GB201101083D0 (en) 2011-01-21 2011-03-09 Rawlin Internat Inc Mobile device camera lighting
WO2012103554A2 (en) 2011-01-28 2012-08-02 Windy Place, Inc. Lighting and power devices and modules
US8500293B2 (en) * 2011-03-21 2013-08-06 Joan E. Sutton Personal video lighting system
JP2012242676A (ja) * 2011-05-20 2012-12-10 Canon Inc 撮像装置及び制御方法
WO2011150890A2 (zh) * 2011-06-24 2011-12-08 华为终端有限公司 电子设备屏幕亮度调节方法和装置
US9082235B2 (en) * 2011-07-12 2015-07-14 Microsoft Technology Licensing, Llc Using facial data for device authentication or subject identification
US9513724B2 (en) 2011-08-30 2016-12-06 Blackberry Limited Device and method for adjusting object illumination
EP2565602B1 (en) * 2011-08-30 2018-11-14 BlackBerry Limited Device and method for adjusting object illumination
US9001255B2 (en) * 2011-09-30 2015-04-07 Olympus Imaging Corp. Imaging apparatus, imaging method, and computer-readable storage medium for trimming and enlarging a portion of a subject image based on touch panel inputs
JP5214797B2 (ja) * 2011-11-30 2013-06-19 株式会社東芝 個人画像データ取得装置及び個人画像データ取得方法
KR101817656B1 (ko) * 2011-12-13 2018-01-12 삼성전자주식회사 다기능 디스플레이를 구비하는 카메라
US8922673B2 (en) * 2011-12-21 2014-12-30 Xerox Corporation Color correction of digital color image
CN102573239A (zh) * 2012-01-16 2012-07-11 迅驰(北京)视讯科技有限公司 用于摄像机的补光灯亮度智能控制方法及装置
US9086610B2 (en) * 2012-02-03 2015-07-21 Glow Enterprises, Llc Illumination device
US9075975B2 (en) 2012-02-21 2015-07-07 Andrew Bud Online pseudonym verification and identity validation
US9137246B2 (en) * 2012-04-09 2015-09-15 Brivas Llc Systems, methods and apparatus for multivariate authentication
JP2013242504A (ja) * 2012-05-23 2013-12-05 Sony Corp 電子鏡装置、電子鏡表示方法および電子鏡プログラム
CN103024146A (zh) * 2012-11-20 2013-04-03 广东欧珀移动通信有限公司 一种控制显示屏的方法及移动智能终端
US9100579B2 (en) * 2012-12-10 2015-08-04 Cisco Technology, Inc. Modification of a video signal of an object exposed to ambient light and light emitted from a display screen
CN103152523A (zh) * 2013-02-27 2013-06-12 华为终端有限公司 电子设备拍摄方法及装置和电子设备
JP5751270B2 (ja) * 2013-03-21 2015-07-22 カシオ計算機株式会社 撮像装置、撮像制御方法及びプログラム
US9036086B2 (en) * 2013-03-29 2015-05-19 Konica Minolta Laboratory U.S.A., Inc. Display device illumination
US20140313303A1 (en) * 2013-04-18 2014-10-23 Digimarc Corporation Longitudinal dermoscopic study employing smartphone-based image registration
US9003196B2 (en) * 2013-05-13 2015-04-07 Hoyos Labs Corp. System and method for authorizing access to access-controlled environments
WO2014188895A1 (en) * 2013-05-21 2014-11-27 Semiconductor Energy Laboratory Co., Ltd. Light-emitting device and camera
KR101316805B1 (ko) * 2013-05-22 2013-10-11 주식회사 파이브지티 자동 얼굴 위치 추적 및 얼굴 인식 방법 및 시스템
US9635255B1 (en) * 2013-05-30 2017-04-25 Amazon Technologies, Inc. Display as adjustable light source
US9525811B2 (en) 2013-07-01 2016-12-20 Qualcomm Incorporated Display device configured as an illumination source
US9210331B2 (en) 2013-07-10 2015-12-08 Htc Corporation Camera device and flash light control method
CN104754203B (zh) 2013-12-31 2018-07-31 华为技术有限公司 拍摄方法、装置及终端
CN104468578B (zh) * 2014-12-10 2017-12-26 怀效宁 一种无线通讯的优先通讯系统和通讯方法

Also Published As

Publication number Publication date
KR20160027100A (ko) 2016-03-09
US20150002735A1 (en) 2015-01-01
EP3691245A1 (en) 2020-08-05
BR112015032794A2 (pt) 2017-09-26
CN105409206A (zh) 2016-03-16
EP3017592A1 (en) 2016-05-11
US20170366715A1 (en) 2017-12-21
CN113596304B (zh) 2023-09-15
US11070710B2 (en) 2021-07-20
CA2912850C (en) 2021-07-20
EP3439292A1 (en) 2019-02-06
HUE043157T2 (hu) 2019-08-28
US11917234B2 (en) 2024-02-27
US9525811B2 (en) 2016-12-20
JP6513648B2 (ja) 2019-05-15
CN105409206B9 (zh) 2021-09-28
CN105409206B (zh) 2021-08-31
JP6602914B2 (ja) 2019-11-06
JP2016535394A (ja) 2016-11-10
EP3017592B1 (en) 2018-12-26
WO2015002699A1 (en) 2015-01-08
US20170078542A1 (en) 2017-03-16
US20240187678A1 (en) 2024-06-06
US20210329152A1 (en) 2021-10-21
KR102242302B1 (ko) 2021-04-19
JP2018170278A (ja) 2018-11-01
US9781321B2 (en) 2017-10-03
CN113596304A (zh) 2021-11-02
CA2912850A1 (en) 2015-01-08
BR112015032794B1 (pt) 2023-04-11
EP3439292B1 (en) 2020-04-22
CN108111717B (zh) 2021-08-24
CN108111717A (zh) 2018-06-01

Similar Documents

Publication Publication Date Title
ES2716613T3 (es) Dispositivo de visualización configurado como fuente de iluminación
ES2946587T3 (es) Método fotográfico, aparato fotográfico y terminal móvil
CA3046139C (en) Camera assembly and mobile electronic device
US10490162B2 (en) Display control method and device, and computer readable storage medium
US9214111B2 (en) Image display apparatus and method
KR20130067132A (ko) 다기능 디스플레이를 구비하는 카메라
US9497410B2 (en) Imaging apparatus and focus control method
KR102273656B1 (ko) 광역 역광 보정 영상의 노이즈 레벨 제어 장치, 및 이를 포함하는 영상 처리 시스템
ES2733475T3 (es) Método y aparato para fotografiar imagen y dispositivo terminal
US10778880B2 (en) Imaging device, imaging method, and imaging program