ES2883186T3 - Inicialización de la cámara basada en sensores - Google Patents

Inicialización de la cámara basada en sensores Download PDF

Info

Publication number
ES2883186T3
ES2883186T3 ES16730655T ES16730655T ES2883186T3 ES 2883186 T3 ES2883186 T3 ES 2883186T3 ES 16730655 T ES16730655 T ES 16730655T ES 16730655 T ES16730655 T ES 16730655T ES 2883186 T3 ES2883186 T3 ES 2883186T3
Authority
ES
Spain
Prior art keywords
camera
settings
electronic device
sensor
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16730655T
Other languages
English (en)
Inventor
Ying Chen Lou
Ruben Velarde
Sagar Sanket Krishnamurthy
Hengzhou Ding
Liang Liang
Leung Chun Chan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Application granted granted Critical
Publication of ES2883186T3 publication Critical patent/ES2883186T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • H04N21/4436Power management, e.g. shutting down unused components of the receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/65Control of camera operation in relation to power supply
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/65Control of camera operation in relation to power supply
    • H04N23/651Control of camera operation in relation to power supply for reducing power consumption by affecting camera operations, e.g. sleep mode, hibernation mode or power off of selective parts of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/671Focus control based on electronic image sensor signals in combination with active ranging signals, e.g. using light or sound signals emitted toward objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ecology (AREA)
  • Emergency Management (AREA)
  • Environmental & Geological Engineering (AREA)
  • Environmental Sciences (AREA)
  • Remote Sensing (AREA)
  • Studio Devices (AREA)

Abstract

Un dispositivo electrónico (100) que comprende: una cámara (104); un dispositivo sensor (110); un inicializador (102) que comprende hardware y/o instrucciones ejecutables por un procesador, el inicializador está configurado para: establecer uno o más ajustes de la cámara antes de la inicialización de la cámara y durante un modo de espera de funcionamiento de la cámara, uno o más ajustes establecidos en base a una o más segundas mediciones realizadas en respuesta a una indicación de movimiento (124) asociado con el dispositivo electrónico, en donde la indicación de movimiento se genera antes de inicializar la cámara, el movimiento se detecta usando una primera medición realizada por el dispositivo sensor, en donde una o más segundas mediciones incluyen una o más de una medición de profundidad, una medición de iluminancia, o una medición espectral, una o más segundas mediciones se realizan usando uno o más sensores del dispositivo sensor; y un dispositivo de procesamiento (106) configurado para: ejecutar una aplicación de la cámara (120) para inicializar la cámara después de establecer uno o más ajustes; controlar la cámara para capturar una imagen basada en establecer uno o más ajustes después de inicializar la aplicación de la cámara; y establecer, después de capturar la primera imagen, uno o más ajustes; en donde el nivel de consumo de energía de la cámara inicializada es mayor que el nivel de consumo de energía de la cámara en el modo de espera.

Description

DESCRIPCIÓN
Inicialización de la cámara basada en sensores
REIVINDICACIÓN DE PRIORIDAD
La presente solicitud reivindica la prioridad de la solicitud de Estados Unidos n. ° 14/815.517, presentada el 31 de julio de 2015, titulada "INICIALIZACIÓN DE CÁMARA BASADA EN SENSOR".
La presente divulgación se relaciona generalmente con dispositivos electrónicos y más particularmente con dispositivos electrónicos que incluyen una cámara.
I. Descripción de la técnica relacionada
Los dispositivos electrónicos pueden incluir cámaras para permitir a los usuarios capturar imágenes. Por ejemplo, un dispositivo móvil puede incluir una cámara y el dispositivo móvil puede ejecutar una aplicación de la cámara para permitir que un usuario controle la cámara (por ejemplo, al mostrar una interfaz gráfica con la que el usuario puede controlar la cámara). Para reducir el consumo de energía, el dispositivo móvil puede desactivar la cámara y la aplicación de la cámara mientras no se capturan imágenes.
En algunas circunstancias, la inicialización de la cámara y la aplicación de la cámara (por ejemplo, la "activación" de la cámara y la carga de la aplicación de la cámara desde la memoria) pueden consumir tiempo, lo que le quita al usuario la oportunidad de capturar una imagen de una escena de interés o un evento interesante. Por ejemplo, inicializar la cámara puede incluir calibrar uno o más de un enfoque de la cámara, una compensación de exposición de la cámara o un balance de blancos de la cámara. Una vez que la cámara se inicializa, es posible que un objeto de destino haya salido del foco (lo que da como resultado una imagen borrosa) o que un evento de interés haya terminado. En la patente WO2011/098899, se describe una disposición en la que, cuando un usuario saca un teléfono con cámara (1) de un bolsillo u otro lugar de almacenamiento y lo levanta con un movimiento predefinido frente a su rostro, el movimiento predefinido activa la cámara (2). Cuando el teléfono con cámara se desacelera/estabiliza en la mano del usuario en la orientación correcta para tomar una foto, se produce el enfoque automático (4) y la cámara graba automáticamente imágenes/fotografías. En la patente JP2009177563, se proporciona un programa para hacer que un ordenador ejecute un aparato de fotografía, un método para controlar un aparato de fotografía y un método para controlar un aparato de fotografía.
II. Sumario
La invención se define en las reivindicaciones adjuntas, a las que ahora se hace referencia. En un ejemplo particular, un aparato incluye un inicializador configurado para establecer uno o más ajustes de una cámara antes de la inicialización de la cámara. Uno o más ajustes se establecen en base a una indicación de movimiento que se detecta usando al menos una medición realizada por un dispositivo sensor. El aparato incluye además un dispositivo de procesamiento configurado para ejecutar una aplicación de la cámara para inicializar la cámara después de establecer uno o más ajustes.
En otro ejemplo, un método incluye generar una indicación de movimiento asociado con un dispositivo electrónico antes de inicializar una aplicación de la cámara de una cámara del dispositivo electrónico. El método incluye además realizar al menos una medición usando uno o más sensores del dispositivo electrónico. Uno o más sensores incluyen uno o más de un sensor de profundidad, un sensor de iluminancia o un sensor espectral. Al menos una medición se realiza basándose en la indicación. El método incluye además establecer uno o más ajustes de la cámara en base a al menos una medición, e inicializar la aplicación de la cámara después de establecer uno o más ajustes.
En otro ejemplo, un aparato incluye medios para generar, antes de inicializar una aplicación de la cámara de una cámara de un dispositivo electrónico, una indicación de movimiento asociado con el dispositivo electrónico. El aparato incluye además medios para realizar, basándose en la indicación y antes de inicializar la aplicación de la cámara, una o más mediciones. Una o más mediciones incluyen una o más de una medición de profundidad, una medición de iluminancia o una medición espectral. El aparato incluye además medios para establecer uno o más ajustes de la cámara en base a una o más mediciones antes de inicializar la aplicación de la cámara y medios para inicializar la aplicación de la cámara después de establecer una o más configuraciones.
En otro ejemplo, un medio legible por ordenador almacena instrucciones ejecutables por un procesador para realizar operaciones. Las operaciones incluyen establecer uno o más ajustes de una cámara de un dispositivo electrónico antes de la inicialización de la cámara. Uno o más ajustes se establecen en base a una indicación de movimiento del dispositivo electrónico. Las operaciones incluyen además la ejecución de una aplicación de la cámara para inicializar la cámara después de establecer uno o más ajustes.
III. Breve descripción de los dibujos
La figura 1 es un diagrama de bloques de un ejemplo ilustrativo de un dispositivo electrónico que está configurado para realizar la inicialización de la cámara basada en sensores.
La figura 2 es un diagrama de flujo que ilustra un ejemplo de un método de funcionamiento de un dispositivo electrónico, tal como el dispositivo electrónico de la figura 1.
La figura 3 es un diagrama de bloques de un ejemplo ilustrativo de un dispositivo electrónico que está configurado para realizar la inicialización de la cámara basada en sensores.
IV. Descripción detallada
La figura 1 ilustra un dispositivo electrónico 100. Por ejemplo, el dispositivo electrónico 100 puede corresponder o estar integrado dentro de un dispositivo móvil (por ejemplo, un teléfono celular) o un dispositivo portátil (por ejemplo, una cámara personal, una pantalla montada en la cabeza o un reloj) u otro dispositivo electrónico, como ejemplos ilustrativos.
El dispositivo electrónico 100 puede incluir un inicializador 102, una cámara 104, un dispositivo de procesamiento 106, una memoria 108 y un dispositivo sensor 110. El dispositivo sensor 110 puede incluir uno o más sensores (por ejemplo, una matriz de sensores). Por ejemplo, el dispositivo sensor 110 puede incluir uno o más de un sensor de profundidad 112, un sensor de iluminancia 114 o un sensor espectral 116.
El dispositivo sensor 110 puede incluir además uno o más sensores de movimiento 118. Por ejemplo, uno o más sensores de movimiento 118 pueden incluir uno o más de un sensor giroscópico configurado para detectar una o más de una orientación o una rotación del dispositivo electrónico 100, un acelerómetro configurado para medir una aceleración del dispositivo electrónico 100, un láser configurado para generar una señal EM y/o un receptor configurado para detectar un reflejo de la señal EM, un sensor de tiempo de vuelo (por ejemplo, un sensor basado en lidar) o un telémetro (por ejemplo, un dispositivo configurado para medir una distancia desde el dispositivo electrónico hasta un objeto de destino).
La cámara 104 puede incluir uno o más sensores de imagen. Por ejemplo, la cámara 104 puede incluir uno o más de un sensor de imagen de dispositivo de carga acoplada (CCD) o un sensor de imagen de semiconductor complementario de óxido metálico (CMOS). Además, aunque la figura 1 ilustra una única cámara por conveniencia de la descripción, debe apreciarse que el dispositivo electrónico 100 puede incluir múltiples cámaras, y cada cámara puede incluir una pluralidad de sensores de imagen (por ejemplo, una matriz de sensores de imagen). En algunas implementaciones, una cámara puede funcionar como sensor del dispositivo sensor 110. Por ejemplo, en una implementación multicámara, una cámara (por ejemplo, la cámara 104) puede configurarse para preinicializar una o más cámaras del dispositivo electrónico 100. Como ejemplo ilustrativo, la cámara 104 puede funcionar como una cámara frontal (por ejemplo, una cámara de menor potencia) que está configurada para preinicializar una cámara trasera (por ejemplo, una cámara de mayor potencia) del dispositivo electrónico 100 en respuesta al movimiento de detección de la cámara 104 del dispositivo electrónico 100.
El dispositivo de procesamiento 106 puede incluir una unidad de procesamiento central (CPU) o un controlador (por ejemplo, un controlador de cámara o un microcontrolador configurado para controlar las operaciones de la cámara 104), como ejemplos ilustrativos. Según la implementación particular, el inicializador 102 puede incluir hardware, instrucciones ejecutables por un procesador (por ejemplo, por el dispositivo de procesamiento 106), o una combinación de los mismos.
Durante el funcionamiento, la cámara 104 puede capturar imágenes, como en respuesta a una entrada recibida desde un usuario del dispositivo electrónico 100. Por ejemplo, las operaciones de la cámara 104 pueden ser controladas por el dispositivo de procesamiento 106 ejecutando una aplicación de la cámara 120 recuperada desde la memoria 108. Para una mayor ilustración, la cámara 104 puede funcionar usando una o más de una función de enfoque automático (AF), una función de control de exposición automática (AEC) o una función automática de balance de blancos (AWB). En este ejemplo, la aplicación de la cámara 120 puede incluir una o más de las instrucciones AF 142 ejecutables por el dispositivo de procesamiento 106 para controlar la función AF, las instrucciones AEC 144 ejecutables por el dispositivo de procesamiento 106 para controlar la función AEC, o las instrucciones AWB 146 ejecutables por el dispositivo de procesamiento 106 para controlar la función AWB.
El dispositivo electrónico 100 puede iniciar un modo de espera de la cámara (o modo de suspensión) si no se capturan imágenes usando la cámara 104 (por ejemplo, en respuesta a una duración de tiempo límite durante la cual no se capturan imágenes con la cámara 104, o como un estado predeterminado al encender el dispositivo electrónico 100 o cuando el usuario sale de la aplicación de la cámara 120). La iniciación del modo de espera de la cámara puede incluir reducir la energía suministrada a la cámara 104, desactivar la cámara 104, dejar de ejecutar la aplicación de la cámara 120, o una combinación de los mismos. El dispositivo electrónico 100 puede funcionar según el modo de espera de la cámara hasta que la cámara 104 se inicialice o "despierte" y la aplicación de la cámara 120 se cargue desde la memoria 108 (por ejemplo, en respuesta a una entrada recibida desde un usuario del dispositivo electrónico 100).
Durante el funcionamiento según el modo de espera de la cámara, uno o más del sensor de profundidad 112, el sensor de iluminancia 114 o el sensor espectral 116 pueden configurarse para generar valores "próximos" o "aproximados" usados por el dispositivo electrónico 100 para controlar la función AF, la función AEC y la función AWB. Por ejemplo, el uso de valores "próximos" o "aproximados" puede permitir que la cámara 104 funcione según el modo de espera de la cámara (para ahorrar energía) mientras que también facilita la inicialización rápida de la cámara 104 (porque las funciones de la cámara 104 pueden estar "preconfiguradas" para que una o más imágenes puedan ser capturadas antes de realizar un proceso de configuración "completo").
Para reducir aún más el consumo de energía del dispositivo electrónico 100, el funcionamiento de uno o más del sensor de profundidad 112, el sensor de iluminancia 114 o el sensor espectral 116 pueden controlarse basándose en la cantidad de movimiento del dispositivo electrónico 100. Por ejemplo, si el dispositivo electrónico 100 está relativamente estacionario (por ejemplo, cuando el dispositivo electrónico 100 está en reposo sobre una superficie o en el bolsillo o bolso del usuario), entonces es menos probable que el usuario use la cámara 104 para capturar una o más imágenes. En este caso, uno o más del sensor de profundidad 112, el sensor de iluminancia 114 o el sensor espectral 116 pueden funcionar usando un modo de funcionamiento de "baja resolución".
Para una mayor ilustración, el dispositivo sensor 110 puede configurarse para generar una indicación 124, tal como una indicación de una cantidad de movimiento del dispositivo electrónico 100 (por ejemplo, una aceleración o una velocidad) o una indicación de si el dispositivo electrónico 100 está en movimiento o está estacionario (por ejemplo, un valor lógico para indicar que se detecta movimiento o un valor lógico en cero en caso contrario). Por ejemplo, dependiendo de la implementación particular, la indicación 124 puede incluir un valor (por ejemplo, una magnitud de corriente o un voltaje) asociado con una señal analógica o digital generada por uno o más sensores de movimiento 118. La indicación 124 puede indicar una cantidad baja de movimiento, como cuando el dispositivo electrónico 100 está relativamente estacionario con respecto a un objeto (por ejemplo, cuando el dispositivo electrónico 100 está en reposo sobre una superficie o en el bolsillo o bolso del usuario). Alternativamente, la indicación 124 puede indicar que el dispositivo electrónico 100 está en movimiento con relación a un objeto (por ejemplo, cuando un usuario del dispositivo electrónico 100 está colocando el dispositivo electrónico 100). Según la implementación particular, la indicación 124 puede ser generada por el sensor de profundidad 112, el sensor de iluminancia 114 o el sensor espectral 116, o uno o más sensores de movimiento 118.
El dispositivo sensor 110 puede configurarse para controlar el funcionamiento de uno o más del sensor de profundidad 112, el sensor de iluminancia 114 o el sensor espectral 116 en base a la indicación 124. Como ejemplo, en algunas implementaciones, el dispositivo electrónico 100 está configurado para apagar (por ejemplo, desactivar) uno o más del sensor de profundidad 112, el sensor de iluminancia 114 o el sensor espectral 116 si el dispositivo electrónico 100 está relativamente estacionario. En este ejemplo, el sensor de profundidad 112, el sensor de iluminancia 114 o el sensor espectral 116 pueden permanecer desactivados hasta que el sensor de movimiento 118 detecte el movimiento del dispositivo electrónico 100 o hasta que ocurra otro evento (por ejemplo, recibir una entrada del usuario del dispositivo electrónico 100). El dispositivo electrónico 100 puede configurarse para activar uno o más sensores del dispositivo sensor 110 en respuesta al movimiento del dispositivo electrónico 100 (o en respuesta a al menos una cantidad límite de movimiento del dispositivo electrónico 100).
Como otro ejemplo, el dispositivo sensor 110 puede configurarse para ajustar un ciclo de funcionamiento (también denominado en la presente "frecuencia de muestreo") asociado con uno o más del sensor de profundidad 112, el sensor de iluminancia 114 o el sensor espectral 116 aumentando o disminuyendo un número de muestras por segundo. Un ciclo de funcionamiento de cualquiera del sensor de profundidad 112, el sensor de iluminancia 114 o el sensor espectral 116 puede aumentarse o disminuirse en respuesta a uno o más sensores de movimiento 118 que indican movimiento o un cambio de movimiento del dispositivo electrónico 100 (por ejemplo, un aumento en la velocidad del dispositivo electrónico 100). Como ejemplo ilustrativo no restrictivo, un ciclo de funcionamiento de cualquiera del sensor de profundidad 112, el sensor de iluminancia 114 o el sensor espectral 116 puede reducirse a aproximadamente una muestra por segundo (por ejemplo, de dos muestras por segundo, o de otro frecuencia de muestreo) en respuesta a la cantidad de movimiento del dispositivo electrónico 100 identificado por la indicación 124 que no logra cumplir el límite (por ejemplo, en respuesta a una disminución en la velocidad del dispositivo electrónico 100).
El dispositivo sensor 110 puede configurarse para generar uno o más valores 126 en base a la indicación 124. Por ejemplo, el dispositivo sensor 110 puede realizar al menos una medición para generar uno o más valores 126 usando cualquiera del sensor de profundidad 112, el sensor de iluminancia 114 o el sensor espectral 116.
A fines ilustrativos, uno o más valores 126 pueden incluir un parámetro de profundidad medido por el sensor de profundidad 112. El parámetro de profundidad puede indicar una distancia entre el dispositivo electrónico 100 y un objeto que está próximo al dispositivo electrónico 100. Por ejemplo, en algunas implementaciones, el sensor de profundidad puede incluir un transceptor (o transmisor y receptor) configurado para generar una señal electromagnética (EM) (por ejemplo, una señal infrarroja, una señal láser u otra señal) y para recibir un reflejo de la señal EM desde un objeto que está próximo al dispositivo electrónico 100 (si lo hay). En este ejemplo, el parámetro de profundidad puede corresponder a un intervalo de tiempo entre la transmisión de la señal EM y la recepción de la señal EM. Como otro ejemplo, en algunas implementaciones, el sensor de profundidad puede incluir un transceptor (o transmisor y receptor) configurado para generar una señal acústica (por ejemplo, una señal ultrasónica u otra señal) y para recibir un reflejo de la señal acústica desde un objeto que está próximo al dispositivo electrónico 100 (si lo hay). En este ejemplo, el parámetro de profundidad puede corresponder a un intervalo de tiempo entre la transmisión de la señal acústica y la recepción de la señal acústica.
De manera adicional o alternativa, uno o más valores 126 pueden incluir un parámetro de iluminancia medido por el sensor de iluminancia 114. El parámetro de iluminancia puede indicar una magnitud de luz ambiental próxima al dispositivo electrónico 100. A fines ilustrativos, el sensor 114 de iluminancia puede configurarse para detectar una cantidad (por ejemplo, magnitud) de radiación EM que incide en el dispositivo electrónico 100. En algunas implementaciones, el sensor de iluminancia 114 puede configurarse para "ponderar" las longitudes de onda (o frecuencias) asociadas con la cantidad de luz en base a una función de luminosidad que representa ciertas características de la visión humana. Por ejemplo, la función de luminosidad puede ponderar una o más longitudes de onda o intervalos de longitudes de onda que son perceptibles por la visión humana (por ejemplo, una longitud de onda de aproximadamente 500 nanómetros (nm), que corresponde a un color verde) más de una o más o más longitudes de onda o intervalos de longitudes de onda que no son perceptibles por la visión humana (por ejemplo, una longitud de onda de aproximadamente 200 nm, que corresponde a una característica ultravioleta). En este ejemplo, el parámetro de iluminancia puede indicar una cantidad de radiación EM próxima al dispositivo electrónico 100 que es perceptible por la visión humana. En otros casos, el sensor de iluminancia 114 puede no estar configurado basándose en la función de luminosidad (por ejemplo, para capturar información que representa longitudes de onda infrarrojas, longitudes de onda ultravioleta o una o más de otras longitudes de onda). En este ejemplo, el parámetro de iluminancia puede indicar una cantidad "total" de radiación EM próxima al dispositivo electrónico 100 (que puede incluir radiación EM que no es perceptible por la visión humana).
De manera adicional o alternativa, uno o más valores 126 pueden incluir un parámetro espectral medido por el sensor espectral 116. El parámetro espectral puede indicar un espectro de luz ambiental próximo al dispositivo electrónico 100. A fines ilustrativos, el parámetro espectral puede indicar una magnitud de cada una de una pluralidad de longitudes de onda (o frecuencias) o una pluralidad de intervalos de longitudes de onda (o frecuencias). En una implementación ilustrativa, el parámetro espectral puede indicar una cantidad de radiación EM asociada con uno o más de un intervalo violeta (por ejemplo, aproximadamente 380-450 nm), un intervalo azul (por ejemplo, aproximadamente 450-495 nm), un intervalo verde (por ejemplo, aproximadamente 495-570 nm), un intervalo amarillo (por ejemplo, aproximadamente 570-590 nm), un intervalo naranja (por ejemplo, aproximadamente 590-620 nm) y un intervalo rojo (por ejemplo, aproximadamente 620-750 nm). En algunos casos, el parámetro espectral puede indicar una o más longitudes de onda o intervalos o longitudes de onda, como un intervalo infrarrojo o un intervalo ultravioleta. En algunas implementaciones, el sensor espectral 116 puede incluir un espectrómetro óptico configurado para generar datos que indiquen la intensidad de la radiación EM próxima al dispositivo electrónico 100 como una función de la longitud de onda (o frecuencia) de la radiación EM, y el parámetro espectral puede incluir los datos.
El dispositivo electrónico 100 puede ajustar o "preconfigurar" (antes de inicializar la aplicación de la cámara 120) uno o más ajustes 128 de la cámara 104 basándose en uno o más valores 126. Por ejemplo, establecer uno o más ajustes 128 puede incluir establecer al menos un ajuste de AF (por ejemplo, la posición de la lente de la cámara 104) en base al parámetro de profundidad, establecer un ajuste de AEC (por ejemplo, la cantidad de aumento aplicada a imágenes capturadas usando la cámara 104) en base al parámetro de iluminancia, o establecer un ajuste de AWB (por ejemplo, la temperatura de color asociada con imágenes capturadas usando la cámara 104) en base al parámetro espectral. En algunos casos, uno o más de los ajustes pueden preconfigurarse utilizando información que no sea del sensor, por ejemplo al seleccionar un modo de luz diurna, un modo "nublado" o un modo fluorescente para el ajuste de AWB según la información de fecha y hora almacenada en el dispositivo electrónico 100 o proporcionarse al dispositivo electrónico 100 (por ejemplo, mediante un proveedor de servicios celulares, como ejemplo ilustrativo).
Para una mayor ilustración, la preconfiguración de la cámara 104 puede incluir ajustar la posición focal de la lente de la cámara 104 en base a un parámetro de profundidad indicado por uno o más valores 126. En este ejemplo, si el sensor de profundidad 112 detecta un objeto a una distancia particular desde el sensor de profundidad 112, un valor asociado con la indicación 124 puede corresponder a la distancia particular. La lente de la cámara 104 puede ajustarse basándose en la distancia particular (antes de la inicialización de la cámara 104 ejecutando la aplicación de la cámara 120). Tras inicializar la cámara 104 mediante la ejecución de la aplicación de la cámara 120, la convergencia de AF puede ocurrir más rápidamente (porque la posición de la lente está "preajustada"). De manera alternativa, cuando el sensor de profundidad 112 no detecta ningún objeto, entonces uno o más objetos cerca del dispositivo electrónico 100 (si los hay) pueden estar fuera del alcance del sensor de profundidad 112. En este caso, el valor de la indicación 124 puede indicar que no se detecta ningún objeto, y la lente de la cámara 104 puede ajustarse hasta una posición particular (por ejemplo, una posición hiperfocal) en caso de que un usuario del dispositivo electrónico 100 inicie la captura de una imagen de un objeto o escena distante. Como ejemplo, un punto de referencia puede estar fuera del alcance del sensor de profundidad 112. En este caso, la lente de la cámara 104 puede ajustarse a la posición hiperfocal en caso de que un usuario del dispositivo electrónico 100 inicie la captura de una imagen del punto de referencia (para reducir el tiempo asociado con el proceso de convergencia de AF dedicado a "buscar" una posición de la lente). En este ejemplo, el inicializador 102 puede incluir un circuito configurado para recibir la indicación 124 desde el dispositivo sensor 110 y generar una o más señales de control de posición de la lente para controlar la lente de la cámara 104.
En ciertas implementaciones, uno o más valores 126 incluyen cada uno de los parámetros de profundidad, el parámetro de iluminancia y el parámetro espectral. En este caso, el dispositivo electrónico 100 está configurado para realizar un proceso de preajuste "3A" en el que cada uno de los ajustes AF, AEC y AWB se establecen previamente antes de la inicialización de la cámara 104. En otras implementaciones, se puede omitir el uso de uno o más de los parámetros en relación con el preajuste de la cámara 104. Por ejemplo, el procesamiento AEC y/o el procesamiento de AWB se pueden llevar a cabo después de la captura de la imagen (por ejemplo, durante el posprocesamiento de una imagen). A fines ilustrativos, en algunos casos, el procesamiento de AEC se puede realizar durante el posprocesamiento (o se puede realizar "fuera de línea") utilizando un proceso de ajuste de aumento de posprocesamiento. En este ejemplo, el uso del sensor de iluminancia 114 y/o el sensor espectral 116 puede omitirse durante las operaciones de preajuste del dispositivo electrónico 100. En algunas implementaciones, la aplicación de la cámara 120 puede permitir la captura rápida de imágenes (o una característica de "inicio rápido"). Por ejemplo, la aplicación de la cámara 120 puede permitir a un usuario del dispositivo electrónico 100 capturar imágenes sin cargar una aplicación de la cámara "completa" del dispositivo electrónico 100. En otras implementaciones, la aplicación de la cámara 120 puede corresponder a una aplicación de la cámara "completa" (por ejemplo, una utilidad de cámara incluida en un sistema operativo del dispositivo electrónico 100). En algunos casos, la aplicación de la cámara 120 puede preinicializarse basándose en la entrada desde el dispositivo sensor 110. Por ejemplo, en algunos casos, la aplicación de la cámara 120 puede cargarse en respuesta al dispositivo sensor 110 que genera la indicación 124 (por ejemplo, antes de recibir la entrada del usuario para cargar la aplicación de la cámara 120).
Después de establecer uno o más ajustes 128, el dispositivo electrónico 100 puede inicializar (o configurar) la cámara 104. Por ejemplo, un usuario puede proporcionar una indicación para hacer que el dispositivo electrónico 100 active la aplicación de la cámara 120 (por ejemplo, al presionar una tecla dura o una tecla suave del dispositivo electrónico 100, o al seleccionar un icono asociado con la aplicación de la cámara 120 utilizando una pantalla táctil del dispositivo electrónico 100). Inicializar la cámara 104 puede incluir recuperar la aplicación de la cámara 120 desde la memoria 108 después de establecer uno o más ajustes 128 y ejecutar la aplicación de la cámara 120 mediante el dispositivo de procesamiento 106 (por ejemplo, para iniciar un proceso de ajuste 3A).
Después de activar la aplicación de la cámara 120 (y antes de completar el proceso de ajuste 3A), el usuario puede capturar una o más imágenes (por ejemplo, una primera imagen 132) usando la cámara 104. Cuando la aplicación de la cámara 120 se inicializa, uno o más ajustes 128 se han establecido en base a uno o más valores 126 (por ejemplo, antes de que se realice un proceso de ajuste "completo" 3A). Establecer uno o más justes 128 usando uno o más valores 126 puede permitir la preconfiguración de la cámara 104 para reducir la latencia en el dispositivo electrónico 100 cuando se activa la aplicación de la cámara 120 (en comparación con "espera" para establecer el ajuste 128 hasta que el proceso de ajuste 3A está completo).
En algunos casos, el dispositivo electrónico 100 puede realizar un proceso de "horquillado" (o "modo de ráfaga") mientras captura la primera imagen 132. Por ejemplo, en respuesta a la entrada del usuario que indica la captura de una sola imagen, se pueden capturar múltiples imágenes usando un rango de ajustes 130 (por ejemplo, en caso de que una o más de la función AF, la función AEC o la función AWB no estén "completamente" calibradas antes de completar el proceso de ajuste 3A). A fines ilustrativos, si la entrada del usuario hace que la cámara capture la primera imagen 132 basada en un primer valor de uno o más valores 126, la cámara 104 puede capturar una segunda imagen 134 usando un segundo valor (por ejemplo, el primer valor más un valor delta) y puede capturar una tercera imagen 136 usando un tercer valor (por ejemplo, el primer valor menos el valor delta).
A fines ilustrativos, un proceso de horquillado puede incluir el uso de múltiples posiciones focales de la lente de la cámara 104 para obtener múltiples imágenes asociadas con diferentes focos. En este caso, la primera imagen 132 puede capturarse usando una primera posición focal de la cámara 104, la segunda imagen 134 puede capturarse usando una segunda posición focal (por ejemplo, la primera posición focal más un valor delta) y la tercera imagen 136 se puede capturar usando una tercera posición focal (por ejemplo, la primera posición focal menos el valor delta). De manera adicional o alternativa, un proceso de horquillado puede incluir capturar múltiples imágenes (por ejemplo, las imágenes 132, 134 y 136) usando un rango de ajustes a Ec de la cámara 104, un rango de ajustes aWb de la cámara 104, o una combinación de los mismos.
Se puede seleccionar una de las imágenes 132, 134 y 136 en particular (por ejemplo, en relación con una operación de posprocesamiento). A fines ilustrativos, la primera imagen 132 puede seleccionarse como la "mejor" imagen durante el posprocesamiento de las imágenes y/o basándose en la entrada de un usuario del dispositivo electrónico 100. En algunos casos, una o más de las imágenes 134, 136 pueden descartarse (por ejemplo, eliminarse o marcarse para su eliminación) en respuesta a la selección de la primera imagen 132.
Se observa que en algunas implementaciones, las operaciones de posprocesamiento pueden incluir realizar un ajuste AEC y/o un ajuste AWB. En estas implementaciones, uno o más valores 126 pueden corresponder a parámetros de profundidad generados por el sensor de profundidad 112, y uno o más ajustes 128 pueden corresponder a ajustes para la función AF de la cámara 104. En estas implementaciones, uno o más del sensor de iluminancia 114, el sensor espectral 116, o uno o más sensores de movimiento 118 pueden omitirse del dispositivo electrónico 100 o no pueden usarse durante las operaciones de preajuste.
La captura de una o más imágenes (por ejemplo, la primera imagen 132) en base a uno o más valores 126 puede permitir una rápida inicialización de la cámara 104 mientras también reduce el consumo de energía del dispositivo electrónico 100 (por ejemplo, al permitir que la cámara 104 funcione según un modo de espera de la cámara mientras no se capturan imágenes). Cuando la aplicación de la cámara 120 se inicializa, uno o más ajustes 128 se han establecido en base a uno o más valores 126 (por ejemplo, antes de que se realice un proceso de ajuste "completo" 3A). Establecer uno o más justes 128 usando uno o más valores 126 puede permitir la preconfiguración de la cámara 104 para reducir la latencia en el dispositivo electrónico 100 cuando se activa la aplicación de la cámara 120 (en comparación con "espera" para establecer el ajuste 128 hasta que el proceso de ajuste 3A está completo). Por lo tanto, un usuario puede capturar más rápidamente una imagen de una escena de interés. Además, el consumo de energía del sensor se puede controlar determinando un ciclo de funcionamiento de uno o más sensores del dispositivo sensor 110 mediante el uso de una cantidad de movimiento del dispositivo electrónico 100 (por ejemplo, para que el dispositivo sensor 110 pueda estar menos activo cuando es menos probable que se capturen imágenes, como cuando el dispositivo electrónico 100 está en el bolso o bolsillo del usuario).
En referencia a la figura 2, se representa un ejemplo ilustrativo particular de un método y se designa generalmente como 200. El método puede realizarse en un dispositivo electrónico (por ejemplo, en el dispositivo electrónico 100 de la figura 1).
El método 200 puede incluir generar una indicación de movimiento asociado con un dispositivo electrónico antes de inicializar una aplicación de la cámara de una cámara del dispositivo electrónico, en 210. El movimiento puede detectarse usando una primera medición realizada por un dispositivo sensor (por ejemplo, el dispositivo sensor 110). Por ejemplo, la indicación puede corresponder a la indicación 124, y la aplicación de la cámara puede corresponder a la aplicación de la cámara 120. La indicación puede ser generada por un sensor del dispositivo sensor 110. Por ejemplo, la indicación se puede generar usando uno o más sensores de movimiento 118, que pueden incluir uno o más de un sensor giroscópico, un acelerómetro, un láser, un sensor de tiempo de vuelo o un telémetro, como ejemplos ilustrativos. En otra implementación, la indicación se genera usando un sensor de profundidad (por ejemplo, el sensor de profundidad 112), un sensor de iluminancia (por ejemplo, el sensor de iluminancia 114) o un sensor espectral (por ejemplo, el sensor espectral 116).
En algunas implementaciones, el método 200 incluye iniciar un modo de funcionamiento de bajo consumo basado en la indicación al desactivar uno o más sensores o al reducir la frecuencia de muestreo de uno o más sensores. De manera adicional o alternativa, el método 200 puede incluir terminar un modo de funcionamiento de bajo consumo basado en la indicación al activar uno o más sensores o al aumentar la frecuencia de muestreo de uno o más sensores.
El método 200 puede incluir además realizar al menos una segunda medición basada en la indicación mediante el uso de uno o más sensores del dispositivo electrónico antes de inicializar la aplicación de la cámara, en 220. Por ejemplo, el dispositivo sensor 110 de la figura 1 puede configurarse para realizar la segunda medición (por ejemplo, para generar uno o más valores 126). Uno o más sensores pueden incluir uno o más de un sensor de profundidad (por ejemplo, el sensor de profundidad 112), un sensor de iluminancia (por ejemplo, el sensor de iluminancia 114) o un sensor espectral (por ejemplo, el sensor espectral 116).
En una implementación ilustrativa, la segunda medición se realiza basándose en un ciclo de funcionamiento. En este caso, el método 200 puede incluir además ajustar el ciclo de funcionamiento en base a la indicación (por ejemplo, para aumentar o disminuir una frecuencia de muestreo en base a la indicación). A fines ilustrativos, el ciclo de funcionamiento puede incrementarse en respuesta a la indicación que especifica que el dispositivo electrónico está en movimiento con respecto a un objeto, o el ciclo de funcionamiento puede disminuir en respuesta a la indicación que especifica que el dispositivo electrónico se encuentra estacionario.
El método 200 puede incluir además establecer uno o más ajustes de la cámara en base a la segunda medición antes de inicializar la aplicación de la cámara, en 230. Por ejemplo, uno o más ajustes pueden corresponder a uno o más ajustes 128. A fines ilustrativos, establecer uno o más ajustes de la cámara puede incluir establecer un ajuste AF de la cámara en base a un parámetro de profundidad. En otra implementación, establecer uno o más ajustes de la cámara incluye establecer un ajuste AEC de la cámara en base a un parámetro de iluminancia. En otro ejemplo, establecer uno o más ajustes de la cámara incluye establecer un ajuste AWB de la cámara en base a un parámetro espectral. En otra implementación, establecer uno o más ajustes de la cámara incluye establecer uno o más ajustes AF de la cámara en base al parámetro de profundidad, establecer el ajuste AEC de la cámara en base al parámetro de iluminancia y establecer el ajuste AWB de la cámara en base al parámetro espectral.
El método 200 puede incluir además inicializar la aplicación de la cámara después de establecer uno o más ajustes, en 240. Por ejemplo, inicializar la aplicación de la cámara puede incluir configurar la aplicación de la cámara cargando la aplicación de la cámara desde una memoria (por ejemplo, la memoria 108) del dispositivo electrónico a un procesador (por ejemplo, el dispositivo de procesamiento 106) del dispositivo electrónico para iniciar la aplicación de cámara.
El método 200 puede incluir opcionalmente capturar una primera imagen (por ejemplo, la primera imagen 132) usando la cámara en base a uno o más ajustes ajustados después de inicializar la aplicación de la cámara y reestablecer, después de capturar la primera imagen, uno o más ajustes. El método 200 también puede incluir capturar al menos una segunda imagen (por ejemplo, la segunda imagen 134, la tercera imagen 136, o una combinación de las mismas) usando uno o más ajustes reestablecidos, y seleccionar (o recibir una selección de) una de las primeras imágenes y al menos una segunda imagen. Como ejemplo, se puede seleccionar una de las imágenes 132, 134 y 136, y las otras imágenes 132, 134 y 136 se pueden descartar (por ejemplo, borrar o marcar para borrar). En una implementación ilustrativa, uno o más ajustes se vuelven a establecer en relación con una operación de horquillado que incluye modificar un ajuste particular de uno o más ajustes dentro de un rango particular de ajustes (por ejemplo, el rango de ajustes 130), por ejemplo al modificar una posición focal dentro de un rango de posiciones focales, como un ejemplo ilustrativo.
En algunas implementaciones, el método 200 incluye realizar una o más operaciones de posprocesamiento después de capturar una imagen. Por ejemplo, una o más operaciones de posprocesamiento incluyen establecer un ajuste AWB asociado con la imagen.
El método 200 puede permitir que un dispositivo electrónico realice una inicialización rápida de la cámara mientras que permite un bajo consumo de energía del dispositivo electrónico. Por ejemplo, se pueden usar uno o más sensores para inicializar una cámara (permitiendo que la cámara permanezca en un modo de bajo consumo o en espera), y se puede usar una cantidad de movimiento del dispositivo electrónico para controlar el funcionamiento de uno o más sensores (por ejemplo, reduciendo un ciclo de funcionamiento asociado con uno o más sensores cuando la cantidad de movimiento es baja).
La figura 3 es un diagrama de bloques de un ejemplo ilustrativo de un dispositivo electrónico 300 (por ejemplo, el dispositivo electrónico 100 de la figura 1). Por ejemplo, el dispositivo electrónico 300 puede corresponder o estar integrado dentro de un dispositivo móvil (por ejemplo, un teléfono celular) o un dispositivo portátil (por ejemplo, una cámara personal, una pantalla montada en la cabeza o un reloj) u otro dispositivo electrónico, como ejemplos ilustrativos.
El dispositivo electrónico 300 puede incluir el dispositivo de procesamiento 106 de la figura 1. Por ejemplo, el dispositivo de procesamiento 106 puede incluir una CPU, un controlador de cámara, otro dispositivo de procesamiento o una combinación de los mismos. En el ejemplo de la figura 3, el dispositivo de procesamiento 106 incluye el inicializador 102. Por ejemplo, el inicializador 102 puede incluir instrucciones ejecutables por el dispositivo de procesamiento 106. De manera adicional o alternativa, el inicializador 102 puede incluir uno o más componentes de hardware del dispositivo de procesamiento 106. En una o más de otras implementaciones, el inicializador 102 puede ser externo al dispositivo de procesamiento 106. Por ejemplo, el inicializador 102 puede incluir hardware y/o instrucciones integradas dentro de un controlador de cámara u otro dispositivo que esté acoplado al dispositivo de procesamiento 106.
El dispositivo electrónico 300 puede incluir además la memoria 108. La memoria 108 puede incluir un medio legible por ordenador no transitorio que almacena instrucciones ejecutables por el dispositivo de procesamiento 106. Por ejemplo, las instrucciones pueden incluir instrucciones de la aplicación de cámara 120 de la figura 1. Un medio legible por ordenador no transitorio puede incluir un dispositivo de memoria, como una memoria de acceso aleatorio (RAM), una memoria de acceso aleatorio magnetorresistiva (MRAM), una MRAM de transferencia de par de giro (STT-MRAM), una memoria rápida, una memoria de solo lectura (ROM), memoria de solo lectura programable (PROM), memoria de solo lectura programable y borrable (EPROM), memoria de solo lectura programable y borrable eléctricamente (EEPROM), registros, disco duro, disco extraíble, memoria de solo lectura de disco compacto (CD-ROM), otro dispositivo de memoria o una combinación de los mismos.
El dispositivo electrónico 300 puede incluir además un codificador/decodificador (CODEC) 334. El CODEC 334 se puede acoplar al dispositivo de procesamiento 106. El CODEC 334 puede acoplarse a uno o más de un altavoz 336 o un micrófono 338. El CODEC 334 puede incluir una memoria, tal como una memoria que almacena instrucciones ejecutables por una unidad de procesamiento del CODEC 334.
El dispositivo electrónico 300 también puede incluir un procesador de señales digitales (DSP) 396. El DSP 396 puede acoplarse al dispositivo de procesamiento 106 y al CODEC 334. El DSP 396 puede ejecutar instrucciones, tales como instrucciones recuperadas de la memoria 108.
La figura 3 también muestra un controlador de pantalla 326 que está acoplado al dispositivo de procesamiento 106 y a una pantalla 328. La figura 3 también indica que se puede acoplar un controlador inalámbrico 340 al dispositivo de procesamiento 106 y a una antena 342.
En un ejemplo particular, el dispositivo de procesamiento 106, el controlador de pantalla 326, la memoria 108, el CODEC 334, el controlador inalámbrico 340 y el DSP 396 están incluidos en un dispositivo de sistema en paquete o sistema en chip 322. Un dispositivo de entrada 330, tal como una pantalla táctil y/o un teclado, y una fuente de alimentación 344 pueden acoplarse al dispositivo de sistema en chip 322. Además, como se ilustra en la figura 3, la pantalla 328, el dispositivo de entrada 330, el altavoz 336, el micrófono 338, la antena 342 y la fuente de alimentación 344 pueden ser externas al dispositivo de sistema en chip 322. Sin embargo, cada uno de la pantalla 328, el dispositivo de entrada 330, el altavoz 336, el micrófono 338, la antena 342 y la fuente de alimentación 344 se pueden acoplar a un componente del dispositivo de sistema en chip 322, tal como un interfaz o un controlador.
Un aparato puede incluir medios (por ejemplo, uno o más sensores de movimiento 118) para generar, antes de inicializar una aplicación de la cámara (por ejemplo, la aplicación de la cámara 120) de una cámara (por ejemplo, la cámara 104) de un dispositivo electrónico (por ejemplo, uno o más del dispositivo electrónico 100 o el dispositivo electrónico 300), una indicación (por ejemplo, la indicación 124) de movimiento asociado con el dispositivo electrónico. El aparato incluye además medios (por ejemplo, uno o más del sensor de profundidad 112, el sensor de iluminancia 114 o el sensor espectral 116) para realizar, en base a la indicación y antes de inicializar la aplicación de la cámara, una o más mediciones. Una o más mediciones incluyen una o más de una medición de profundidad, una medición de iluminancia o una medición espectral.
El aparato incluye además medios para establecer uno o más ajustes (por ejemplo, uno o más ajustes 128) de la cámara en base a una o más mediciones antes de inicializar la aplicación de la cámara, y medios (por ejemplo, el dispositivo de procesamiento 106) para inicializar la aplicación de la cámara después de establecer uno o más ajustes. El aparato puede incluir además un dispositivo sensor (por ejemplo, el dispositivo sensor 110) configurado para determinar un ciclo de funcionamiento en base a la indicación, y una o más mediciones pueden realizarse en base al ciclo de funcionamiento. Por ejemplo, el dispositivo sensor 110 puede estar configurado para aumentar el ciclo de funcionamiento en respuesta a una indicación de que el dispositivo electrónico está en movimiento. Como otro ejemplo, el dispositivo sensor 110 puede configurarse para disminuir el ciclo de funcionamiento en respuesta a una indicación de que el dispositivo electrónico está estacionario. En una implementación ilustrativa, el aparato incluye además medios para almacenar (por ejemplo, la memoria 108) la aplicación de la cámara. Los medios para inicializar la aplicación de la cámara incluyen un dispositivo de procesamiento (por ejemplo, el dispositivo de procesamiento 106) configurado para acceder a la aplicación de la cámara desde los medios de almacenamiento.
Un medio legible por ordenador (por ejemplo, la memoria 108) puede almacenar instrucciones (por ejemplo, instrucciones de la aplicación de la cámara 120) ejecutables por un procesador para realizar operaciones. Las operaciones pueden incluir establecer uno o más ajustes (por ejemplo, uno o más ajustes 128) de una cámara (por ejemplo, la cámara 104) de un dispositivo electrónico (por ejemplo, cualquiera de los dispositivos electrónicos 100, 300) antes de la inicialización de la cámara. Uno o más ajustes se establecen en base a una indicación de movimiento del dispositivo electrónico (por ejemplo, en base a la indicación 124). Las operaciones pueden incluir además la ejecución de una aplicación de la cámara (por ejemplo, la aplicación de cámara 120) para inicializar la cámara después de establecer uno o más ajustes.
En la descripción anterior, se han descrito varias funciones y operaciones como implementadas o realizadas por ciertos componentes o módulos. Se observa que en algunas implementaciones, una función u operación descrita como implementada o realizada por un componente o módulo particular puede implementarse o realizarse en su lugar utilizando múltiples componentes o módulos. Además, en algunas implementaciones, dos o más componentes o módulos descritos en la presente pueden integrarse en un único componente o módulo. Uno o más componentes o módulos descritos en la presente pueden implementarse usando hardware (por ejemplo, un dispositivo de matriz de puertas programables en campo (FPGA), un circuito integrado específico de la aplicación (ASIC), un DSP y/o un controlador, como ejemplos ilustrativos), instrucciones ejecutables por un procesador, o cualquier combinación de los mismos.
Los expertos apreciarán además que los diversos bloques lógicos ilustrativos, configuraciones, módulos, circuitos y pasos de algoritmo descritos en relación con los aspectos divulgados en la presente pueden implementarse como hardware electrónico, software de computadora ejecutado por un dispositivo de procesamiento tal como un procesador de hardware, o combinaciones de ambos. Varios componentes, bloques, configuraciones, módulos, circuitos y pasos ilustrativos se han descrito anteriormente en general en términos de su funcionalidad. Si dicha funcionalidad se implementa como hardware o software ejecutable depende de la aplicación particular y las restricciones de diseño impuestas en el sistema general. Los expertos pueden implementar la funcionalidad descrita de diferentes maneras para cada aplicación en particular, pero dichas decisiones de implementación no deben interpretarse como una desviación del alcance de la divulgación.
Una o más operaciones de un método o algoritmo descrito en la presente pueden realizarse directamente en hardware, en un módulo de software ejecutado por un procesador o en una combinación de los dos. Un módulo de software puede residir en un dispositivo de memoria, como una memoria de acceso aleatorio (RAM), una memoria de acceso aleatorio magnetorresistiva (MRAM), una MRAM de transferencia de par de giro (STT-MRAM), una memoria rápida, una memoria de solo lectura (ROM), memoria de solo lectura programable (PROM), memoria de solo lectura programable y borrable (EPROM), memoria de solo lectura programable y borrable eléctricamente (EEPROM), registros, disco duro, disco extraíble o memoria de solo lectura de disco compacto (CD-ROM). Un dispositivo de memoria ejemplar está acoplado al procesador de manera que el procesador puede leer información y escribir información en el dispositivo de memoria. Como alternativa, el dispositivo de memoria puede formar parte del procesador. El procesador y el medio de almacenamiento pueden residir en un ASIC. El ASIC puede residir en un dispositivo informático o en terminal de usuario. Como alternativa, el procesador y el medio de almacenamiento pueden residir como componentes discretos en un dispositivo informático o terminal de usuario.
La descripción anterior de los aspectos divulgados se proporciona para permitir que una persona experta en la técnica realice o utilice los aspectos divulgados. Varias modificaciones de estos aspectos serán fácilmente evidentes para los expertos en la técnica, y los principios definidos en la presente pueden aplicarse a otros aspectos sin apartarse del alcance de la divulgación. Por lo tanto, no se pretende que la presente divulgación se limite a los aspectos mostrados en la presente, sino que se le concederá el alcance más amplio posible de acuerdo con los principios y características novedosas definidas por las siguientes reivindicaciones.

Claims (15)

REIVINDICACIONES
1. Un dispositivo electrónico (100) que comprende:
una cámara (104);
un dispositivo sensor (110);
un inicializador (102) que comprende hardware y/o instrucciones ejecutables por un procesador, el inicializador está configurado para:
establecer uno o más ajustes de la cámara antes de la inicialización de la cámara y durante un modo de espera de funcionamiento de la cámara, uno o más ajustes establecidos en base a una o más segundas mediciones realizadas en respuesta a una indicación de movimiento (124) asociado con el dispositivo electrónico, en donde la indicación de movimiento se genera antes de inicializar la cámara, el movimiento se detecta usando una primera medición realizada por el dispositivo sensor, en donde una o más segundas mediciones incluyen una o más de una medición de profundidad, una medición de iluminancia, o una medición espectral, una o más segundas mediciones se realizan usando uno o más sensores del dispositivo sensor; y un dispositivo de procesamiento (106) configurado para: ejecutar una aplicación de la cámara (120) para inicializar la cámara después de establecer uno o más ajustes; controlar la cámara para capturar una imagen basada en establecer uno o más ajustes después de inicializar la aplicación de la cámara; y establecer, después de capturar la primera imagen, uno o más ajustes; en donde el nivel de consumo de energía de la cámara inicializada es mayor que el nivel de consumo de energía de la cámara en el modo de espera.
2. El dispositivo electrónico de la reivindicación 1, en donde el dispositivo sensor está configurado para ajustar una frecuencia de muestreo asociada con uno o más sensores del dispositivo sensor en base a la indicación, en donde la frecuencia de muestreo aumentó en respuesta a la indicación que especifica que el dispositivo electrónico está en movimiento con respecto a un objeto y/o en donde la frecuencia de muestreo disminuye en respuesta a la indicación que especifica que el dispositivo electrónico está estacionario.
3. El dispositivo electrónico de la reivindicación 1, en donde el dispositivo sensor incluye uno o más de un sensor de profundidad (112) configurado para realizar la segunda medición, un sensor de iluminancia (114) configurado para realizar la segunda medición, o un sensor espectral (116) configurado para realizar la segunda medición.
4. Un método de funcionamiento de un dispositivo electrónico (100), el método comprende:
antes de inicializar una cámara (104) del dispositivo electrónico y durante un modo de espera de funcionamiento de la cámara:
generar una indicación de movimiento (124) asociado con el dispositivo electrónico antes de inicializar la cámara, el movimiento detectado usa una primera medición realizada por un dispositivo sensor (110) del dispositivo electrónico; realizar una o más segundas mediciones usando uno o más sensores del dispositivo sensor del dispositivo electrónico, una o más segundas mediciones incluyen una o más de una medición de profundidad, una medición de iluminancia o una medición espectral, en donde se realiza la segunda medición en base a la indicación; y en base a la segunda medición, establecer uno o más ajustes de la cámara;
después de establecer uno o más ajustes, ejecutar una aplicación de
la cámara (120) para inicializar la cámara;
controlar la cámara para capturar una imagen basada en uno o más ajustes establecidos después de inicializar la aplicación de la cámara; y
volver a establecer, después de capturar la primera imagen, uno o más ajustes;
en donde la cámara inicializada está asociada con un nivel de consumo de energía mayor que el nivel de consumo de energía de la cámara en el modo de espera.
5. El método de la reivindicación 4, en donde la segunda medición se realiza en base a una frecuencia de muestreo asociada con uno o más sensores, y comprende además establecer la frecuencia de muestreo en base a la indicación, en donde la frecuencia de muestreo se incrementa en respuesta a la indicación que especifica que el dispositivo electrónico está en movimiento con respecto a un objeto y/o en donde la frecuencia de muestreo disminuye en respuesta a la indicación que especifica que el dispositivo electrónico está estacionario.
6. El método de la reivindicación 4, en donde la indicación se genera usando uno o más de un sensor giroscópico, un acelerómetro, un láser, un sensor de tiempo de vuelo, un telémetro, el sensor de profundidad, el sensor de iluminancia o el sensor espectral.
7. El método de la reivindicación 4, que además comprende:
capturar una primera imagen usando la cámara en base a uno o más ajustes establecidos después de inicializar la aplicación de la cámara;
después de capturar la primera imagen, volver a establecer uno o más ajustes;
capturar al menos una segunda imagen usando uno o más ajustes reestablecidos; y seleccionar una de la primera imagen y menos la segunda imagen.
8. El método de la reivindicación 7, en donde uno o más ajustes se vuelven a establecer en relación con una operación de horquillado que incluye modificar un ajuste particular de uno o más ajustes dentro de un rango particular de ajustes.
9. El método de la reivindicación 4, en donde establecer uno o más ajustes de la cámara incluye establecer un ajuste de enfoque automático (AF) de la cámara en base a un parámetro de profundidad.
10. El método de la reivindicación 9, que además comprende:
después de inicializar la aplicación de la cámara, capturar una imagen usando la cámara en base a uno o más ajustes establecidos; y
realizar una o más operaciones de posprocesamiento después de capturar la imagen, en donde una o más operaciones de posprocesamiento incluyen establecer un balance de blancos automático (AWB) asociado con la imagen.
11. El método de la reivindicación 4, en donde establecer uno o más ajustes de la cámara incluye establecer un ajuste de control de exposición automática (AEC) de la cámara en base a un parámetro de iluminancia.
12. El método de la reivindicación 4, en donde establecer uno o más ajustes de la cámara incluye establecer un ajuste de balance de blancos automático (AWB) de la cámara en base a un parámetro espectral.
13. El método de la reivindicación 4, en donde establecer uno o más ajustes de la cámara incluye establecer uno o más ajustes de enfoque automático (AF) de la cámara en base a un parámetro de profundidad, establecer un ajuste de control de exposición automática (AEC) de la cámara en base a un parámetro de iluminancia, o establecer un ajuste de balance de blancos automático (AWB) de la cámara en base a un parámetro espectral.
14. El método de la reivindicación 4, que comprende además iniciar un modo de funcionamiento de bajo consumo del dispositivo electrónico en base a la indicación al desactivar uno o más sensores o al reducir una frecuencia de muestreo de uno o más sensores y/o al terminar un modo de funcionamiento de bajo consumo del dispositivo electrónico en base a la indicación al activar uno o más sensores o al aumentar la frecuencia de muestreo de uno o más sensores.
15. Un medio legible por ordenador que almacena instrucciones ejecutables por un procesador para realizar operaciones según el método de cualquiera de las reivindicaciones 4 a 14.
ES16730655T 2015-07-31 2016-06-08 Inicialización de la cámara basada en sensores Active ES2883186T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/815,517 US10230888B2 (en) 2015-07-31 2015-07-31 Sensor-based camera initialization
PCT/US2016/036398 WO2017023415A1 (en) 2015-07-31 2016-06-08 Sensor-based camera initialization

Publications (1)

Publication Number Publication Date
ES2883186T3 true ES2883186T3 (es) 2021-12-07

Family

ID=56137587

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16730655T Active ES2883186T3 (es) 2015-07-31 2016-06-08 Inicialización de la cámara basada en sensores

Country Status (8)

Country Link
US (1) US10230888B2 (es)
EP (1) EP3329667B1 (es)
JP (1) JP2018522499A (es)
KR (1) KR20180035816A (es)
CN (1) CN107836110B (es)
BR (1) BR112018002043A2 (es)
ES (1) ES2883186T3 (es)
WO (1) WO2017023415A1 (es)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10277816B2 (en) 2016-09-28 2019-04-30 Qualcomm Incorporated Systems and methods to reduce actuator power leakage
US10218906B2 (en) * 2017-03-22 2019-02-26 Htc Corporation Camera device and method for camera device
KR102531128B1 (ko) * 2018-02-23 2023-05-10 삼성전자주식회사 카메라를 이용하여 복수의 프레임 레이트에 따라 영상을 촬영하는 전자 장치 및 그 작동 방법
US10986287B2 (en) * 2019-02-19 2021-04-20 Samsung Electronics Co., Ltd. Capturing a photo using a signature motion of a mobile device
US11159737B2 (en) 2019-10-14 2021-10-26 Google Llc Exposure change control in low light environments
US20210272131A1 (en) * 2020-02-28 2021-09-02 Amos Enabosi Automatic recording system
KR102378138B1 (ko) * 2020-03-16 2022-03-25 엘지전자 주식회사 포인트 클라우드 데이터 전송 장치, 전송 방법, 처리 장치 및 처리 방법
CN111726522B (zh) * 2020-06-12 2021-06-11 上海摩勤智能技术有限公司 一种人脸识别设备控制方法及装置
US20230334711A1 (en) * 2020-06-29 2023-10-19 Lg Electronics Inc. Point cloud data transmission device, transmission method, processing device, and processing method
WO2022075786A1 (ko) * 2020-10-07 2022-04-14 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법
WO2022080982A1 (ko) * 2020-10-16 2022-04-21 엘지전자 주식회사 포인트 클라우드 데이터 전송 방법, 포인트 클라우드 데이터 전송 장치, 포인트 클라우드 데이터 수신 방법 및 포인트 클라우드 데이터 수신 장치

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8225873B2 (en) * 2003-02-21 2012-07-24 Davis Raymond C Oil well pump apparatus
JP4026511B2 (ja) 2003-02-25 2007-12-26 カシオ計算機株式会社 カメラ装置
JP2005252800A (ja) 2004-03-05 2005-09-15 Fuji Photo Film Co Ltd デジタルカメラ
JP4137085B2 (ja) 2005-04-21 2008-08-20 キヤノン株式会社 撮像装置
JP4789789B2 (ja) 2006-12-12 2011-10-12 キヤノン株式会社 撮像装置
US8169461B2 (en) * 2007-09-28 2012-05-01 Sony Ericsson Mobile Communications Ab Method and system for a quick start camera application in a camera
US8681237B2 (en) * 2008-01-23 2014-03-25 Hewlett-Packard Development Company, L.P. Image-capture parameter variation
JP2009177563A (ja) 2008-01-25 2009-08-06 Fujifilm Corp 撮影装置および撮影装置の制御方法
JP4675411B2 (ja) * 2008-12-17 2011-04-20 ソニー・エリクソン・モバイルコミュニケーションズ株式会社 カメラ機能付き携帯電話端末及びその制御方法
US8388233B2 (en) * 2009-07-22 2013-03-05 Schaeffler Technologies AG & Co. KG Axial bearing arrangement and method for manufacturing same
KR101141854B1 (ko) * 2009-12-30 2012-05-08 삼성전자주식회사 카메라 구동 방법 및 장치
US9357118B2 (en) * 2010-02-15 2016-05-31 Sony Corporation Photograph prediction including automatic photograph recording with autofocus and method
US9049663B2 (en) * 2010-12-10 2015-06-02 Qualcomm Incorporated Processing involving multiple sensors
KR101340794B1 (ko) * 2011-08-12 2013-12-11 엘지이노텍 주식회사 휴대용 단말기 및 그의 구동 방법
WO2013118621A1 (ja) * 2012-02-09 2013-08-15 日本電気株式会社 センサネットワーク、センサ管理サーバ、鍵更新方法および鍵更新プログラム
US20140111638A1 (en) 2012-10-24 2014-04-24 Abbyy Software Ltd. Capturing Images after Sufficient Stabilization of a Device
CN104011627B (zh) * 2012-12-11 2017-12-05 英特尔公司 用于计算设备的情境感测
KR102003377B1 (ko) * 2012-12-13 2019-07-24 삼성전자주식회사 슬립 모드에서 카메라 모듈을 구동하는 전자 장치 및 방법
US8964062B1 (en) 2012-12-18 2015-02-24 Amazon Technologies, Inc. Integrated light sensor for dynamic exposure adjustment
US9223136B1 (en) * 2013-02-04 2015-12-29 Google Inc. Preparation of image capture device in response to pre-image-capture signal
US9292045B2 (en) * 2013-02-15 2016-03-22 Apple Inc. Apparatus and method for automatically activating a camera application based on detecting an intent to capture a photograph or a video
US10030067B2 (en) * 2013-03-15 2018-07-24 University Of Florida Research Foundation, Incorporated Compounds for treating neurodegenerative proteinopathies
JP6265625B2 (ja) * 2013-05-13 2018-01-24 キヤノン株式会社 画像処理装置及び画像処理方法
KR102085766B1 (ko) * 2013-05-30 2020-04-14 삼성전자 주식회사 촬영 장치의 자동 초점 조절 방법 및 장치
US9437045B2 (en) * 2013-07-03 2016-09-06 Fuji Xerox Co., Ltd. Real-time mobile capture and application of photographic images as textures in three-dimensional models
US9426357B1 (en) * 2013-08-28 2016-08-23 Ambarella, Inc. System and/or method to reduce a time to a target image capture in a camera
US9615012B2 (en) * 2013-09-30 2017-04-04 Google Inc. Using a second camera to adjust settings of first camera
JP6267502B2 (ja) * 2013-12-10 2018-01-24 キヤノン株式会社 撮像装置、撮像装置の制御方法、及び、プログラム
US20160248986A1 (en) * 2014-02-27 2016-08-25 Sony Corporation Digital cameras having reduced startup time, and related devices, methods, and computer program products
WO2015127623A1 (zh) * 2014-02-27 2015-09-03 华为终端有限公司 一种拍照方法及移动终端
CN104052930A (zh) * 2014-06-16 2014-09-17 苏州佳世达电通有限公司 具有拍照功能的电子装置
CN104202535B (zh) * 2014-06-30 2017-10-27 杭州光典医疗器械有限公司 一种自动曝光方法及装置
CN104519282A (zh) * 2014-12-09 2015-04-15 小米科技有限责任公司 图像拍摄方法及装置
EP3057309B1 (en) * 2015-02-12 2020-10-21 Samsung Electronics Co., Ltd. Method for controlling camera system, electronic device, and storage medium
US9716876B2 (en) * 2015-04-01 2017-07-25 Sony Corporation Power efficient multiple camera system
US9800773B2 (en) * 2015-06-25 2017-10-24 Motorola Mobility Llc Digital camera apparatus with dynamically customized focus reticle and automatic focus reticle positioning

Also Published As

Publication number Publication date
CN107836110B (zh) 2020-10-23
EP3329667B1 (en) 2021-07-14
US20170034432A1 (en) 2017-02-02
US10230888B2 (en) 2019-03-12
KR20180035816A (ko) 2018-04-06
CN107836110A (zh) 2018-03-23
BR112018002043A2 (pt) 2018-09-18
JP2018522499A (ja) 2018-08-09
EP3329667A1 (en) 2018-06-06
WO2017023415A1 (en) 2017-02-09

Similar Documents

Publication Publication Date Title
ES2883186T3 (es) Inicialización de la cámara basada en sensores
ES2946587T3 (es) Método fotográfico, aparato fotográfico y terminal móvil
ES2945260T3 (es) Método de detección de luz ambiental y terminal
US9413939B2 (en) Apparatus and method for controlling a camera and infrared illuminator in an electronic device
US8154650B2 (en) Electronic device having a camera flash redirector
US9110355B1 (en) External flash device for mobile electronic devices
US8150255B2 (en) Flash control for electronic rolling shutter
US8493453B2 (en) Image capturing devices using orientation detectors to implement automatic exposure mechanisms
US9723284B2 (en) Method and apparatus for controlling white balance
ES2968868T3 (es) Método y terminal para adquirir una imagen panorámica
KR102085766B1 (ko) 촬영 장치의 자동 초점 조절 방법 및 장치
US20110102630A1 (en) Image capturing devices using device location information to adjust image data during image signal processing
US9876961B2 (en) Lighting apparatus including first housing and second housing that can rotate with respect to the first housing and control method
CN111447322B (zh) 获取外部照度的方法以及应用该方法的电子装置
KR20200089593A (ko) 카메라 센서를 이용하여 외부 조도를 획득하는 방법 및 해당 방법을 적용한 전자 장치
US9791764B2 (en) Image pickup apparatus enabling automatic irradiation direction control, lighting device, image pickup system, automatic irradiation direction control method, and storage medium storing program therefor
US10599010B2 (en) Illumination device, display apparatus, and control method
US9716818B2 (en) Illumination apparatus having first case and second case rotatable relative to first case, and imaging apparatus having detachable illumination apparatus
JP6546632B2 (ja) 電子機器、プログラムおよび制御方法
CA2794067C (en) Apparatus and method for controlling a camera and infrared illuminator in an electronic device
JP6584130B2 (ja) 照明装置、撮像装置、撮像システム及びその制御方法
CN104052930A (zh) 具有拍照功能的电子装置
JP2011171917A (ja) 携帯端末及び撮影方式設定方法、撮影方式設定プログラム
TWI464620B (zh) 背光調節系統及方法
JP2015001670A (ja) 照明装置、撮像装置、カメラシステム及び制御方法