KR102604336B1 - 비행시간 센서를 사용하여 노출 추정을 수행하기 위한 방법들 및 장치들 - Google Patents

비행시간 센서를 사용하여 노출 추정을 수행하기 위한 방법들 및 장치들 Download PDF

Info

Publication number
KR102604336B1
KR102604336B1 KR1020177037159A KR20177037159A KR102604336B1 KR 102604336 B1 KR102604336 B1 KR 102604336B1 KR 1020177037159 A KR1020177037159 A KR 1020177037159A KR 20177037159 A KR20177037159 A KR 20177037159A KR 102604336 B1 KR102604336 B1 KR 102604336B1
Authority
KR
South Korea
Prior art keywords
target object
flash
exposure
optical signal
distance
Prior art date
Application number
KR1020177037159A
Other languages
English (en)
Other versions
KR20180019606A (ko
Inventor
잉 천 러우
헝저우 딩
루벤 마누엘 벨라르데
Original Assignee
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 인코포레이티드 filed Critical 퀄컴 인코포레이티드
Publication of KR20180019606A publication Critical patent/KR20180019606A/ko
Application granted granted Critical
Publication of KR102604336B1 publication Critical patent/KR102604336B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4868Controlling received signal intensity or exposure of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Studio Devices (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Focusing (AREA)
  • Stroboscope Apparatuses (AREA)
  • Automatic Focus Adjustment (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

본 출원은 비행시간 센서로부터의 정보를 사용하여 타겟 오브젝트의 이미지를 캡처하는 것과 관련된다. 일 양태에서, 방법은 광을 방사하고 방사된 광의 반사를 감지하도록 구성된 비행시간 (TOF) 시스템을 포함할 수도 있고, 방사된 광의 반사에 기초하여 리턴 에너지를 결정할 수도 있다. 방법은 광이 방사될 때와 반사가 감지될 때 사이의 시간을 측정할 수도 있고, 그 시간에 기초하여 타겟 오브젝트와 TOF 시스템 간의 거리를 결정할 수도 있다. 그 방법은 또한, 리턴 에너지에 기초하여 타겟 오브젝트의 반사율을 식별할 수도 있고, 타겟 오브젝트 간의 거리와 타겟 오브젝트의 반사율에 기초하여 노출 레벨을 결정할 수도 있다.

Description

비행시간 센서를 사용하여 노출 추정을 수행하기 위한 방법들 및 장치들{METHODS AND APPARATUS FOR PERFORMING EXPOSURE ESTIMATION USING A TIME-OF-FLIGHT SENSOR}
본 개시는 일반적으로 사진 및/또는 다른 이미지 캡처 디바이스들에서 자동 노출을 제공하는 것에 관련된다. 더 구체적으로, 본 개시는 비행시간 (time-of-flight) 센서로부터의 정보를 사용하여 타겟 오브젝트의 노출을 결정하는 것과 관련된다.
사용자들은 종종, 그들이 사진 또는 비디오에서 장면을 캡처하고, 차후 날짜 및/또는 시간에 보고 싶어하는 이벤트들, 예컨대 아이의 첫걸음 또는 첫마디, 졸업, 또는 결혼식을 경험한다. 종종, 이들 이벤트들은 거의 고정적이고 그들의 발생이 일반적으로 예측가능하며 (예컨대, 결혼식, 졸업식, 평화로운 풍경, 또는 인물 사진), 이미징 시스템, 예컨대 카메라, 비디오 레코더, 또는 스마트폰을 사용하여 용이하게 캡처될 수도 있다. 그러한 순간들을 위해, 이미징 시스템이 순간 이벤트를 캡처하기 위해 적절한 노출 세팅들을 결정하고 조절하는데 충분한 시간이 있을 수도 있다. 그러나, 때때로 빠르게 이동하는 장면들을 적절한 노출로 캡처하는 것은, 특히 장면이 일시적인 경우 (예컨대, 그 장면이 이동하는 오브젝트들을 포함하거나 또는 이미징 시스템이 다양한 밝기 레벨들을 갖는 장면을 통해 고속 패닝함), 도전과제를 제시할 수도 있다.
장비의 사용자가 적절한 순간에 장면의 이미지를 캡처하거나 멀티-샷 시스템을 활용하는 경우에도, 사용자는 언제 이벤트가 발생할 수도 있는지를 인식하여야 하고, 포커스와 노출을 결정하기 위해 이미징 시스템 지연을 고려하여야 한다. 그러므로, 사용자는 그러한 순간들이 발생할 때를 예견하기 위해 주의를 기울여야만 한다. 이는 어려울 수도 있다. 종종, 순간 또는 이벤트의 적어도 일부 부분이 적절하게 캡처되지 않고 지나갈 수도 있다. 따라서, 이미징 시스템의 노출을 신속히 계산하고 조절하기 위한 시스템들 및 방법들이 유리할 것이다.
본 발명의 시스템들, 방법들 및 디바이스들 각각은 수개의 양태들을 가지며, 이들 양태들 중 어떠한 단일 양태도 그 바람직한 속성들을 유일하게 책임지지 않는다. 뒤이어지는 청구항들에 의해 표현된 바와 같이 본 발명의 범위를 한정하지 않고도, 일부 특징들이 지금부터 간략하게 논의될 것이다. 이 논의를 고려한 이후, 특히, "상세한 설명" 이라는 제목의 섹션을 읽은 후, 이미징 시스템에 대한 노출 파라미터들의 더 신속한 결정을 포함하는 장점들을 본 발명의 다양한 실시형태들의 특징부들이 어떻게 제공하는지를 이해할 것이다.
본 개시에 설명된 주제의 일 양태는 장면을 캡처하기 위한 장치를 제공한다. 그 장치는, 광 신호를 방사하도록 구성된 방사기 및 방사된 광 신호의 타겟 오브젝트에 대한 반사를 감지하고, 방사된 광 신호의 반사에 기초하여 리턴 에너지를 결정하도록 구성된 감지 시스템을 포함하는 비행시간 (time-of-flight; TOF) 시스템을 포함할 수도 있다. 그 장치는 TOF 시스템에 커플링된 클록으로서, 상기 클록은 광 신호가 방사될 때와 방사된 광 신호가 감지 시스템에 의해 감지될 때 사이의 시간을 측정하도록 구성되는, 상기 클록, 및 TOF 시스템, 클록 및 카메라와 통신하는 프로세서를 더 포함한다. 프로세서는 측정된 시간에 기초하여 타겟 오브젝트와 TOF 시스템 간의 거리를 결정하고, 방사된 광 신호의 리턴 에너지에 기초하여 타겟 오브젝트의 반사율을 식별하고, 타겟 오브젝트로의 거리 및 타겟 오브젝트의 반사율에 기초하여 노출 레벨을 결정하도록 구성된다.
본 개시에서 설명된 청구물의 다른 양태는 이미지를 캡처하기 위한 방법을 제공한다. 그 방법은, 비행시간 (TOF) 시스템을 통해 광 신호를 방사하는 단계 및 방사된 광 신호의 타겟 오브젝트에 대한 반사를 비행시간 (TOF) 시스템을 통해 감지하는 단계를 포함한다. 그 방법은, 방사된 광의 반사에 기초하여 리턴 에너지를 결정하는 단계 및 광 신호가 방사될 때와 방사된 광 신호가 감지될 때 사이의 시간을 측정하는 단계를 더 포함한다. 그 방법은 또한, 측정된 시간에 기초하여 타겟 오브젝트와 TOF 시스템 간의 거리를 결정하는 단계, 방사된 광 신호의 리턴 에너지에 기초하여 타겟 오브젝트의 반사율을 식별하는 단계, 및 타겟 오브젝트로의 거리 및 타겟 오브젝트의 반사율에 기초하여 노출 레벨을 결정하는 단계를 포함한다.
본 개시에 설명된 주제의 또 다른 양태는 장면을 캡처하기 위한 추가의 장치를 제공한다. 이미징 장치는, 광 신호의 비행시간 (TOF) 을 식별하는 수단을 포함하고, 광 신호를 방사하는 수단, 방사된 광 신호의 타겟 오브젝트에 대한 반사를 감지하는 수단, 및 방사된 광 신호의 반사에 기초하여 리턴 에너지를 결정하는 수단을 포함할 수도 있다. 그 장치는 추가로, 광 신호가 방사될 때와 방사된 광 신호가 감지될 때 사이의 시간을 측정하는 수단 및 측정된 시간에 기초하여 타겟 오브젝트와 TOF 시스템 간의 거리를 결정하는 수단을 더 포함한다. 그 장치는 또한, 방사된 광 신호의 리턴 에너지에 기초하여 타겟 오브젝트의 반사율을 식별하는 수단, 및 타겟 오브젝트로의 거리 및 타겟 오브젝트의 반사율에 기초하여 노출 레벨을 결정하는 수단을 포함한다.
본 개시에서 설명된 주제의 또 다른 양태는 컴퓨터 프로그램 제품을 포함하고, 그 제품은, 실행될 때, 장치로 하여금 이미지를 캡처하는 방법을 수행하게 하는 명령들로 인코딩된 컴퓨터 판독가능 저장매체를 포함한다. 그 방법은, 비행시간 (TOF) 시스템을 통해 광 신호를 방사하는 단계 및 방사된 광 신호의 타겟 오브젝트에 대한 반사를 비행시간 (TOF) 시스템을 통해 감지하는 단계를 포함한다. 그 방법은, 방사된 광의 반사에 기초하여 리턴 에너지를 결정하는 단계 및 광 신호가 방사될 때와 방사된 광 신호가 감지될 때 사이의 시간을 측정하는 단계를 더 포함한다. 그 방법은 또한, 측정된 시간에 기초하여 타겟 오브젝트와 TOF 시스템 간의 거리를 결정하는 단계, 방사된 광 신호의 리턴 에너지에 기초하여 타겟 오브젝트의 반사율을 식별하는 단계, 및 타겟 오브젝트로의 거리 및 타겟 오브젝트의 반사율에 기초하여 노출 레벨을 결정하는 단계를 포함한다.
앞서 언급된 양태들 뿐만 아니라, 본 기술의 다른 특징들, 양태들 및 장점들은 지금부터 첨부된 도면들을 참조하여 다양한 실시형태들과 연계하여 설명될 것이다. 그러나, 예시된 실시형태들은 단지 예들일 뿐이고 제한하는 것으로 의도되지 않는다. 도면들 전체에서, 문맥상 다르게 지시하지 않는 한, 유사한 도면 부호들은 통상 유사한 컴포넌트들을 식별한다. 다음 도면들의 상대적인 크기들은 일정한 스케일로 도시되지 않을 수도 있음을 주목해야 한다.
도 1a 는 일부 실시형태들에 따라 자동 노출 제어 시스템의 타이밍 다이어그램의 일 예를 도시한다.
도 1b 는 3 가지 예시적인 구현들에 따라 자동 노출 제어 시스템들의 타이밍 다이어그램들의 3 가지 예들을 도시한다.
도 2 는 예시적인 구현에 따라, 타겟 오브젝트까지의 거리 및 타겟 오브젝트의 반사율을 식별하기 위해 센서 (예컨대, 카메라) 를 사용하는 것을 도시하는 다이어그램이다.
도 3 은 자동 노출 보정 및 오토포커싱을 결정하기 위한 이미지 캡처 디바이스의 일 실시형태의 일 예를 도시하는 블록 다이어그램이다.
도 4a 는 타겟 오브젝트와 이미징 디바이스 간의 거리와 노출 사이의 관계를 도시하는 그래프이다.
도 4b 는 도 4a 에 도시된 그래프와 연관되는 차트이고, 거리에 관련된 정보, 노출 제어에 관련된 정보, 및 TOF 센서 데이터에 관련된 정보의 예들을 도시한다.
도 4c 는 예시적인 실시형태에 따라, 가변 반사율 값들을 가지고 소정 거리에서 타겟 오브젝트의 사전-플래시 노출을 도시하는 사전-플래시 노출 대 신호-잡음 비를 도시하는 그래프를 도시한다.
도 4d 는 도 4c 와 연관된 정보를 도시하는 차트이다.
도 5a 는 LED 플래시 자동 노출 보정에 기초하여 플래시 노출을 추정하기 위한 프로세스의 일 예를 도시하는 블록 다이어그램이다.
도 5b 는 AEC 모듈과 함께 TOF 또는 레이저 센서를 활용하는 카메라에 의해 타겟 오브젝트까지의 식별된 거리 및 타겟 오브젝트의 반사율에 기초하여 플래시 노출을 추정하기 위한 프로세스의 일 예를 예시하는 블록 다이어그램이다.
도 6 은 일부 실시형태들에 따라, 노출을 결정하기 위한 방법의 일 예를 도시하는 플로우차트이다.
신규한 시스템들, 장치들, 및 방법들의 다양한 양태들이 첨부 도면들을 참조하여 이하 더 충분히 설명된다. 하지만, 본 개시물은 다수의 상이한 형태들로 구현될 수도 있으며, 본 개시 전반에 걸쳐 제시된 임의의 특정 구조 또는 기능으로 한정되는 것으로서 해석되지 않아야 한다. 대신, 이들 양태들은, 본 개시가 철저하고 완벽할 수도 있고 그리고 본 개시의 범위를 당업자에게 충분히 전달할 수도 있도록 제공된다. 본 발명의 임의의 다른 양태와 독립적으로 구현되든 또는 임의의 다른 양태와 결합되든, 본 개시의 범위는 본 명세서에 개시된 시스템들, 장치들, 및 방법들의 양태들을 커버하도록 의도된다. 예를 들어, 본 명세서에서 설명된 임의의 수의 양태들을 이용하여 일 장치가 구현될 수도 있거나 일 방법이 실시될 수도 있다. 부가적으로, 본원에 설명된 것들을 포함하는 본 발명의 실시형태들의 범위는, 본 명세서에서 기재된 실시형태들의 다양한 양태들에 부가한 또는 그 이외의 구조 및 기능, 또는 다른 구조, 기능을 이용하여 실시되는 그러한 장치 또는 방법을 커버하도록 의도된다. 본 명세서에서 개시된 임의의 양태는 청구항의 하나 이상의 엘리먼트들에 의해 구현될 수도 있음이 이해되어야 한다.
특정 양태들이 본 명세서에서 설명되지만, 이들 양태들의 다수의 변형예들 및 치환예들은 본 개시의 범위 내에 있다. 바람직한 양태들의 일부 이익들 및 이점들이 언급되지만, 본 개시물의 범위는 특정 이익들, 사용들, 또는 목적들에 한정되도록 의도되지 않는다. 대신, 본 개시물의 양태들은 다양한 이미징 및 사진 기술들, 시스템 시스템 구성들, 계산, 및 계산 시스템들, 플래시 시스템들, 및 노출 결정 시스템들에 널리 적용가능하도록 의도된다. 상세한 설명 및 도면들은 본 발명의 실시형태들의 개시를 제한하는 것보다 예시하는 것으로 의도된다.
사진술에서, 사용자가 매뉴얼 모드에서 이미징 시스템 (또는 카메라) 를 사용하고 있을 때, 사용자는 이미징 시스템이 포커싱되는 것을 능동적으로 제어할 수 있고, 노출을 제어하는 다양한 특징들 (예컨대, 조리개, 셔터 속도, "필름" 속도) 을 선택할 수도 있다. 이는 이미징 시스템이 사용자가 이미지를 캡처하기 위해 제어 인터페이스를 활성화할 때 거의 순시적으로 이미지를 캡처하게 한다. 그러나, 이미징 시스템이 자동 포커스 ("오토포커스") 및 자동 노출 모드에서 사용될 때, 이미지가 캡처되기 전에 이미징 시스템은 정확한 노출을 결정하고 오토포커스 프로세스를 수행하도록 구성된다. 플래시를 사용하여 캡처될 이미지의 노출을 자동으로 결정하는 것은, 타겟 오브젝트 (또는 다르게 표시되지 않는다면 본원에서 "타겟 오브젝트" 와 상호교환가능하게 사용되는 장면) 의 비-플래시 노출로부터 결정된 정보를, 실제 이미지가 캡처되기 전에 타겟 오브젝트의 사전-플래시 노출로부터 결정된 정보와 결합하는 것을 수반할 수도 있다. 따라서, 자동 노출 프로세스는 수행하는데 시간이 걸리고, 이미지를 캡처하는데 있어 지연을 발생한다.
"비-플래시 주기" 는 일반적으로, 이미징 시스템이 오직 주변 조명 (예컨대, 이미징 시스템 플래시로부터가 아닌 태양광 또는 다른 광) 만을 갖는 타겟 오브젝트의 밝기에 기초하여 노출 레벨을 결정하고 세팅할 수도 있는 시간 주기를 지칭하기 위해 본원에서 사용되는 광범위의 어구이다. 비-플래시 주기 동안, 이미징 시스템의 플래시는 장면을 조명하지 않고, 스탠바이 모드에 있거나 오프될 수도 있다. 비-플래시 주기는 이미징 시스템이 활성이지만 이미지를 캡처하기 위해 활성화되지 않은 임의의 시간에 존재할 수도 있다.
"사전-플래시 주기" 는 일반적으로, 이미징 시스템이 그 이미징 시스템의 노출 파라미터들을 결정하고 세팅하기 위해 전체 전력 미만의 전력 레벨로 플래시를 작동시킬 수도 있는 시간 주기를 지칭하기 위해 본원에서 사용되는 광범위의 어구이다. 일부 실시형태들에서, 플래시는 2 이상의 조명 레벨들로 타겟 오브젝트의 조명을 생성한다. 그러나, 이러한 프로세스는 사용자가 이미지를 캡처하기 위해 이미징 시스템을 활성화시킬 때까지 수행되지 않을 수도 있기 때문에, 이미징 시스템이 사전-플래시 노출을 수행하는데 필요한 시간은 이미지의 캡처를 지연시킨다. 추가로, 플래시가 종종 제한된 전력으로 있기 때문에, 이미징 시스템으로부터 먼 거리 (예컨대, 8-15+ 미터) 에서의 타겟 오브젝트는 사전-플래시 주기 동안 적당히 조명되지 않을 수도 있다. 이는 이미징 시스템으로 하여금 부적절한 플래시 노출을 생성하거나 또는 노출을 결정하기 위해 확장된 시간 주기가 걸리게할 수도 있다.
원하는 이미지의 캡처를 촉진하기 위한 하나의 예시적인 솔루션은, 이미징 시스템의 노출을 결정하기 위한 대안적인 또는 부가적인 센서들, 예컨대 타겟 오브젝트의 거리 및 반사율을 결정하도록 구성된 센서들을 활용하는 것을 포함할 수도 있다.
도 1a 는 자동 노출 제어 (AEC) 시스템에 대한 타이밍 다이어그램 (100) 의 일 예의 그래픽 표현을 도시한다. 타이밍 다이어그램 (100) 은 플래시가 사용될 때 센서의 노출 레벨 및 이미지를 캡처하는 이미징 시스템에 대한 플래시 출력 레벨의 일 예를 도시한다. 타이밍 다이어그램 (100) 에서, 시간은 x 축을 따라 좌에서 우로 증가한다. 이미징 시스템과 연관된 (방사된 광의) 상대적인 플래시 출력 전력은 y 축을 따라 증가하며, 즉 y 축의 제로에 가까운 낮은 플래시 출력 레벨부터 y 축을 따라 증가하는 더 높은 플래시 출력 레벨까지이다. 타이밍 다이어그램 (100) 은 또한, y 축을 따라 증가하는 상대적인 노출량을 표시하며, 즉 y 축의 제로에 가까운 낮은 노출량부터 y 축을 따라 증가하는 더 높은 플래시 출력 레벨까지이다. 플래시 라인 (102) 은 (상기 예에서 카메라로 지칭되는) 이미징 시스템의 플래시에 의해 방사되고 있는 광의 레벨을 표시하는 반면, 노출 라인 (104) 은 이미징 시스템의 AEC 프로세스 또는 시스템에 의해 결정되고 세팅되는 것과 같은 노출을 표시한다. 타이밍 다이어그램 (100) 은 x 축을 따른 특정 시점들을 더 포함한다.
도 1a 에 도시된 것과 같이, 플래시 라인 (102) 은 0 의 비-플래시 주기 (151) 에서 또는 그 근처에서 시작하고, 이는 예컨대, 카메라가 오프일 때 또는 카메라가 단지 장면을 보기 위해 사용되고 있지만 아직 이미지를 캡처하도록 지시되지 않았을 때, 플래시가 광을 방사하지 않는 것을 표시한다. (시간 t0 이전에 x 축을 따르는) 상기 주기 동안, 노출 라인 (104) 은 비-플래시 노출 레벨에 있고, 이는 카메라가 플래시를 사용하고 있는 시간보다 더 높을 수도 있는 카메라의 노출 세팅을 표시한다. t0 이전의 시간에, 카메라는 비-플래시 노출, 예컨대 타겟 오브젝트의 밝기 레벨 및 카메라로부터의 플래시가 없는 장면 및/또는 환경에서 자연광의 레벨을 식별할 수도 있다. 카메라는 노출을 결정하는데 사용될 수 있는 AEC 프로세스로 구성된다.
시간 t0 에서, 플래시 라인 (102) 은 사전-플래시 주기 (152) 동안 일정한 사전-플래시 조명 레벨로 증가한다. 사전-플래시 레벨은 플래시가 그 전체 전력 레벨보다 더 낮은 전력 레벨로 충전될 때 있을 수도 있거나, 또는 그 플래시가 전체 전력 레벨로 방사하는 광보다 더 낮은 레벨로 오직 광을 방사하도록 제어될 수도 있다. 일부 실시형태들에서, 사전-플래시 레벨은 소정의 조명 임계치를 넘어서 증가하지 않는 가변 조명 레벨 또는 일정한 조명 레벨일 수도 있다. 타이밍 다이어그램 (100) 에 도시된 것과 같이, 도시된 실시형태의 사전-플래시 레벨은 사전-플래시 주기 (152) 동안 일정한 조명 레벨로 유지된다. 이러한 사전-플래시 주기 동안, AEC 프로세스는 노출 레벨 (108) 에 도달할 때까지 섹션 (106) 에서 감소하는 노출 라인 (104) 에 의해 표시되는 것과 같이, 사전-플래시에 의해 조명된 것과 같은 타겟 오브젝트의 밝기에 기초하여 타겟 오브젝트에 대한 노출을 조절할 수도 있다. 시간 t1 에서, 사전-플래시 주기는 제로 값 근처에서 또는 제로 값에서 다시 낮은 레벨 (153) 로 감소하는 플래시 라인 (102) 에 의해 표시되는 것과 같이 종료한다.
카메라가 사전-플래시 주기 동안 노출을 조절하는데 걸리는 시간은 예컨대, 환경의 밝기, 카메라로부터의 타겟 오브젝트의 거리, 및 타겟 오브젝트의 반사율 중 하나 이상에 의해 영향받을 수도 있다. 예를 들어, 노출을 결정하기 위한 시간은 카메라의 플래시로부터의 광이 타겟 오브젝트의 거리 및또는 낮은 반사율로 인해 타겟 오브젝트의 밝기를 상당히 증가시키지 않기 때문에, 타겟 오브젝트가 카메라로부터 멀 때 또는 타겟 오브젝트가 낮은 반사율을 가질 때 더 적을 수도 있고, 따라서 적절한 플래시 노출이 결정하는데 필요하지 않다.
시간 t2 에서, 플래시 라인 (102) 이 제로 값 근처에서 또는 제로 값에서 다시 감소했지만, AEC 프로세스는 노출을 추정된 플래시 노출 레벨 (110) 로 조절한다. 추정된 플래시 노출 레벨 (110) 은 타겟 오브젝트의 (t0 이전의) 비-플래시 노출 및 사전-플래시 주기 (t0 와 t1 사이) 동안 식별된 측정되고 조절된 노출들을 사용하여 계산될 수도 있다. AEC 프로세스는 사전-플래시 주기 동안 수집된 하나 이상의 이미지들로부터 수집된 정보를 사용하여, 사전-플래시 주기 동안 조명된 프레임의 프레임 밝기를 계산할 수도 있다. AEC 프로세서는 사전-플래시 주기 동안이지만 더 높은 전력 레벨로 조명된 플래시를 활용하는, 타겟 오브젝트의 밝기를 메인 플래시 동안 조명될 때 추가로 계산할 수도 있고, 따라서 이미지를 캡처하기 위한 카메라의 노출을 식별한다. 타겟 오브젝트의 밝기는 메인 플래시로 이미지를 캡처하기 위해 적절한 노출을 결정하는데 사용될 수도 있고, AEC 프로세스는 노출을 시간 t2 에서 추정된 플래시 노출 레벨 (110) 로 세팅할 수 있다.
시간 t3 에서, 메인 플래시는 시간 주기 동안의 메인 플래시 주기 (154) 동안, 즉 이미지가 캡처되는 시간 t4 까지 고전력 레벨에서 활성화된다. t5 에서, 이미지가 캡처된 후에, AEC 프로세스는 카메라의 노출을 비-플래시 노출 세팅 (115) 으로 리셋할 수도 있고, 플래시는 비-플래시 주기 (155) 동안 제로 레벨 근처까지 턴 오프될 수도 있다.
앞서 설명된 프로세스로, 원하는 타겟 오브젝트에 대하여 필요한 노출의 조절 및 계산은 열 다섯 (15) 개 이상 만큼 많은 프레임들을 취할 수도 있다. 다수의 실시형태들에서, 전체 프로세스는 0.5 초 이상을 취할 수도 있다. 타이밍 다이어그램 (100) 에서 보여질 수도 있지만, 시간의 대부분은 카메라의 노출이 사전-플래시 주기 동안 조절되는 것을 대기할 때, 소비될 수도 있다. 따라서, 앞서 설명된 AEC 프로세스를 사용하여 이미지를 캡처하는 것은 타겟 오브젝트의 이미지를 캡처하는 프로세스에 상당한 레이턴시들을 도입할 수도 있다.
다양한 프로세스들이 사전-프로세스를 사용하여 정확한 노출을 결정하는데 사용될 수도 있고, 이는 각각 카메라가 사진을 찍으라는 사용자 커맨드를 수신할 때와 실제로 사진이 찍힐 때 사이의 시간에서 지연을 야기한다. 도 1b 는 카메라에서 사용될 수도 있는 플래시 타이밍 다이어그램들 (그래프들) 의 3 가지 예들을 도시하고, AEC 시스템들 및 노출 조절 방식들에 의해 야기되는 잠재적인 지연들을 도시한다. 3 개의 그래프들 (도 1 에서와 유사한 타이밍 다이어그램들) (150, 160 및 170) 은 각각, x 축을 따라 좌에서 우로 증가하는 "시간" 및 y 축을 따라 저부에서 상부로 증가하는 "광 강도" 로 도시된다. 도시된 타이밍 다이어그램들 (150, 160, 및 170) 은 도 1a 의 플래시 타이밍 다이어그램에 대응하는 라벨들을 포함하여, 도 1a 로부터의 유사한 주기들이 도 1b 의 타이밍 다이어그램에 도시되도록 한다. 예를 들어, 예시적인 타이밍 다이어그램 (150, 160 및 170) 은 비-플래시 주기 (151), 사전-플래시 주기 (152), 메인 플래시 주기 (154), 및 메인 플래시 주기 (154) 이후의 다른 비-플래시 주기 (155) 를 갖는다. 이들 예들은 이미징 프로세스에서 상당한 지연들을 도시한다. 타이밍 다이어그램 (150) 에 도시된 예에 대하여, 사전-플래시 노출 결정 프로세스를 수행하기 위한 전체 시간은 약 1.2 초이다. 타이밍 다이어그램 (160) 에 대하여, 전체 시간은 약 4 초이다. 타이밍 다이어그램 (170) 에 대하여, 전체 시간은 약 1.8 초이다.
일부 실시형태들에 대하여, 오토포커스 시스템은 앞서 설명된 AEC 시스템의 유사한 타이밍 이슈들에 의존할 수도 있다. 따라서, 오토포커스 시스템은 앞서 설명된 다수의 결점들을 경험할 수도 있다. 예를 들어, 환경이 너무 어둡거나 조도가 낮다면, 오토포커스 시스템은 환경이 너무 어둡기 때문에 적절히 작동하지 않을 수도 있다. 따라서, 오토포커스 시스템은 느릴 수도 있는 카메라의 포커싱을 보조하기 위해 카메라의 플래시를 사용할 수도 있고, 카메라가 이미지를 캡처하도록 커맨드 받는 시간부터 카메라가 실제로 이미지를 캡처하는 시간까지, 노출과 관련하여 앞서 설명된 지연들과 유사한 지연들을 발생할 수도 있다. 오토포커스는 초기의 렌즈 위치 및 카메라를 포커싱하는데 사용된 포커싱 알고리즘의 타입에 의존하여 추가로 느려질 수도 있다.
이미징 시스템들은 레이저 센서들 및/또는 비행시간 (TOF) 시스템들을 통합할 수도 있다. 이들 TOF 시스템들은 카메라들의 노출 및 포커싱을 보조하는데 사용될 수도 있고, 노출 결정 프로세스를 상당히 감소시킬 수도 있다. 다양한 실시형태들에서, TOF 시스템들은: 거리를 측정하고, 리턴되거나 반사된 에너지를 측정하고, 및/또는 신호대 잡음비들을 식별하는데 사용될 수도 있다. TOF 시스템들은 광 방사기 및 광 센서를 포함할 수 있다. 광 방사기는 광을 방사하도록 구성될 수도 있는 반면, 광 센서 시스템은 타겟 오브젝트에서 반사되어 광 센서로 리턴하는 방사된 광의 일부를 감지하도록 구성될 수도 있다. 광 방사기로부터 방사된 광이 타겟 오브젝트로부터 광 센서로 반사되는데 걸리는 시간은 TOF 시스템으로부터 타겟 오브젝트의 거리를 식별하는데 사용될 수 있다. TOF 시스템은 또한, (타겟 오브젝트에서 반사된) 감지된 광의 에너지의 양을 결정하도록 구성될 수 있고, 이는 타겟 오브젝트의 반사율과 노출 정보를 결정하는데 사용될 수도 있다. 일부 실시형태들에서, 방사된 광 및 감지된 광의 상 차이는 거리를 결정하는데 사용될 수도 있다.
도 2 는 본 발명의 일부 실시형태들에 따른, 이미지 캡처 디바이스 (202) 의 일 예를 도시하는 다이어그램이다. 상기 예에서, 이미지 캡처 디바이스 (202) 는 비행시간 (TOF) 시스템 (214) 을 포함하는 카메라인 반면, 이미지 캡처 디바이스 (202) 는 포캣 (디지털, 필름, 등) 또는 타입 (비디오 카메라, 스틸 카메라, 웹 카메라, 등) 에 관계없이 스틸 또는 무빙 이미지를 캡처할 수 있는 임의의 디바이스일 수도 있다. 이미지 캡처 디바이스 (202) 는 타겟 장면 또는 타겟 오브젝트까지의 거리를 결정하고, TOF 시스템 (214) 을 사용하여 타겟 장면 또는 타겟 오브젝트의 노출 (예컨대, 적어도 하나의 노출 파라미터) 를 결정하도록 구성된다. 설명의 명확함을 위해, 타겟 장면과 타겟 오브젝트 양자는 주제가 되는 맥락에서 카메라가 포커싱되는 "타겟 오브젝트" 로 지칭될 것이다. 노출 파라미터는 노출을 결정하거나 노출에 영향을 줄 수 있는 임의의 다양한 파라미터들일 수도 있다. 노출 파라미터의 일 예는 센서를 향해 렌즈를 통해 전파중인 광이 통과하는 조리개 또는 입사 동공 (entrance pupil) 을 표시하는 파라미터이다 (예컨대,
Figure 112017128587069-pct00001
또는 물리적 조리개 사이즈). 노출 파라미터의 다른 예는, 카메라의 셔터가 광이 카메라의 센서를 통과하게 하도록 오픈되는 시간의 지속기간이다 ("셔터 속도" 로 지칭될 수도 있음). 노출 파라미터의 다른 예는 광을 감지하고 이미지를 캡처하기 위해 카메라의 센서의 동작을 제어하기 위한 파라미터 - 예컨대 "필름 속도" 이고 - 당업자가 이해할 용어는 센서의 감조에 영향을 주는 세팅이다 (필름 사진으로부터 이어진 용어이며, 각각의 필름은 ISO 로 표시되는 것과 같은 상대적인 스케일로 평가되는 감도를 갖는다). 노출 파라미터의 다른 예는 타겟 오브젝트에 의해 반사되고 있는 주변 광의 표시하는 파라미터이고, 타겟 오브젝트의 이미지를 캡처하는데 사용되는 노출을 결정하는데 사용될 수도 있다. 노출 파라미터의 다른 예는 타겟 오브젝트에 의해 반사된 광원으로부터의 광의 표시하는 파라미터이다. 예를 들어, (광원으로부터의) 광은 TOF 시스템 (214) 의 광 방사기에 의해 생성된 광일 수도 있다. TOF 시스템의 광 방사기 (212) 는 이미지 캡처 디바이스 (202) 에 통합되거나 이미지 캡처 디바이스 (202) 에 커플링될 수도 있다. 일부 실시형태들에서, 광 방사기 (212) 는 이미지 캡처 디바이스 (202) 로부터 분리된다, 즉 이미지 캡처 디바이스 (202) 내로 통합되지 않거나 그에 구조적으로 부착된다.
도 2 의 실시형태는 광 방사기 (212) 로부터 타겟 오브젝트 (210) 로의 광의 경로를 나타내는 광 경로 (206) 를 따라 전파하는 광 방사기 (212) 로부터의 방사된 광 (204) 을 도시한다. 도 2 는 또한, (예컨대, 광 방사기 (212) 로부터) 타겟 오브젝트 (210) 를 조명하고 타겟 오브젝트 (210) 로부터 TOF 시스템 (214) 의 광 센서 (220) 로 반사되는 광 또는 광의 반사된 경로를 나타낼 수도 있는 반사된 광 (208) 을 도시한다. 일부 실시형태들에서, 이미지 캡처 디바이스 (202) 는 방사된 광 (204) 이 타겟 오브젝트 (210) 를 조명하기 위해 광 방사기 (212) 로부터 방사될 때와 타겟 오브젝트 (210) 로부터 반사된 방사된 광 (204) 이 광 센서 (220) 에 의해 감지될 때 사이의 시간의 양을 결정하기 위해 클록, 타이머, 또는 일부 다른 수단을 포함할 수도 있다. 일부 실시형태들에서, 광 방사기 (212) 및 광 센서 (220) 는 단일 컴포넌트 TOF 시스템 (214) 의 부분인 대신, 함께 동작하도록 구성되는 2 개의 컴포넌트들일 수도 있다. 광 방사기 (212) 및 광 센서 (220) 가 2 개의 별개의 컴포넌트들 및/또는 시스템들일 수도 있지만, 본 개시의 목적들을 위해, 이들은 TOF 시스템 (214) 으로서 논의될 것이다. 일부 실시형태들에서, TOF 시스템 (214) 은 통합된 TOF 시스템일 수도 있는 반면, 광 방사기 (212) 및 광 센서 (220) 는 단일의 통합된 시스템의 부분이다.
그 동작의 일 예에서, 광 방사기 (212) 는 펄스화된 적외선 (IR) 광을 방사할 수도 있다. 광 신호(들) 을 또는 복수의 광자들을 포함하는 것을 특징으로 할 수 있는 (그리고 본원에서 참조되는) 이러한 방사된 광 (204) 은, 타겟 오브젝트 (210) 를 조명하고 타겟 오브젝트로부터 광 센서 (220) 로 반사된다. TOF 시스템 (214) 의 클록 또는 타이머, 또는 이미지 캡처 디바이스 (202) 의 다른 컴포넌트는 방사된 광 (204) 을 방사하는 것과 광 센서 (220) 에서 반사된 광 (208) 을 감지하는 것 사이에 걸리는 시간을 결정할 수도 있다. 이러한 시간의 양 및 공지된 광의 속도를 사용하여, 광이 광 방사기 (212) 로부터 타겟 오브젝트 (210) 로 그리고 다시 광 센서로 (220) 이동하는 거리는 식 1 을 사용하여 계산될 수도 있다.
이동된 거리 = (광 이동 시간) x (광의 속도) (1)
타겟 오브젝트까지의 거리는 이동된 거리의 절반이다. 따라서, 카메라에 근접하는 타겟 오브젝트들과 비교하여, 카메라로부터 멀리 떨어진 위치에 있는 타겟 오브젝트 (210) 는 방사된 광 (204) 이 광 방사기 (212) 로부터 타겟 오브젝트 (210) 로 그리고 다시 광 센서 (220) 로 이동하는데 더 많은 시간이 필요할 것이다.
TOF 시스템 (214) 은 타겟 오브젝트로부터 리턴된 에너지를 식별하도록 구성될 수도 있다. 리턴된 에너지는 방사된 광이 타겟 오브젝트에서 반사된 후에 가지는 에너지의 양을 식별한다. 타겟 오브젝트에서 반사된 후에 TOF 시스템 (214) 의 광 센서에 의해 감지될 때, 방사된 광의 에너지의 양이 더 클수록, 타겟 오브젝트의 반사율은 더 높다. 타겟 오브젝트 반사율은 타겟 오브젝트가 얼마나 밝게 또는 얼마나 어둡게 나타나는지와 직접 연관될 수도 있다. 따라서, 소정의 광 상태 및 거리에 대하여, 광 센서 (220) 에서 감지될 때의 광의 에너지의 양이 더 적을 수록, 타겟 오브젝트의 출현은 더 어둡다.
TOF 시스템은 리턴 신호가 타겟 오브젝트에서 반사된 후에, TOF 시스템에서 리턴 신호 (광) 의 강도를 표시하는 신호대 잡음 (신호대 잡음비 또는 SNR) 을 생성하도록 구성될 수도 있다. 예를 들어, 수신된 리턴 신호가 (환경에 의해 도입된 잡음 또는 배경 잡음에 비하여) 강할 때, SNR 이 더 높다. 대안적으로, 수신된 리턴 신호가 (배경 잡음에 비해) 더 약하다면, SNR 은 더 낮을 수도 있다. 타겟 오브젝트의 리턴 신호의 반사와 관련하여, 더 높은 SNR 은 타겟 오브젝트가 더 높은 반사율을 갖는 것 (예컨대, 타겟 오브젝트가 광을 반사하는 컬러 또는 재료로 이루어질 수도 있는 것) 을 표시할 수도 있지만, 더 낮은 SNR 은 타겟 오브젝트가 더 낮은 반사율을 갖는 것 (예컨대, 타겟 오브젝트가 더 많은 광을 흡수하는 컬러 또는 재료로 이루어질 수도 있는 것) 을 표시한다. 앞의 논의는 동일한 거리에 있는 타겟 오브젝트로부터 반사가 수신될 때 SNR 이 측정되는 시나리오들에 적용될 수도 있다. 그러나, SNR 은 또한, TOF 시스템으로부터의 타겟 오브젝트의 거리에 의존하여 변화할 수도 있다. 따라서, 동일한 타겟 오브젝트는 TOF 시스템으로부터의 타겟 오브젝트의 거리에 의존하여 상이한 SNR 값들을 생성할 수도 있다. 타겟 오브젝트가 TOF 시스템으로부터 멀리 이동할수록 (예컨대, 거리가 더 클수록), SNR 이 더 낮아질 것이다.
도 3 은 (도 2 의 이미지 캡처 디바이스 (202) 와 유사한) 이미지 캡처 디바이스 (302) 의 일 실시형태의 하이 레벨 블록 다이어그램을 도시하며, 그 디바이스 (302) 는 카메라 (315) 에, 플래시 (또는 다른 광원) (316) 에, TOF 시스템 (317) 에, 그리고 자동 노출 보정을 결정하기 위한 모듈들 (AEC 모듈 (360) 및 오토포커스 (AF) 모듈 (365)) 에 링크된 이미지 프로세서 (320) 를 포함하는 컴포넌트들의 세트를 갖는다. 이미지 프로세서 (320) 는 또한, 작업 메모리 (305), 메모리 (330), 및 디바이스 프로세서 (350) 와 통신할 수도 있고, 디바이스 프로세서 (350) 는 차례로 전자 스토리지 모듈 (310), 디스플레이 (325) (예컨대, 전자 또는 터치스크린 디스플레이), 및 거리/반사율 모듈 (340) 과 통신할 수도 있다. 일부 실시형태들에서, 단일 프로세서는 도 3 에 도시된 것과 같은 2 개의 분리된 프로세서들 대신, 이미지 프로세서 (320) 와 디바이스 프로세서 (350) 양자를 포함할 수도 있다. 일부 실시형태들에서, 이미지 프로세서 (320) 와 디바이스 프로세서 (350) 중 하나 또는 양자는 디바이스 프로세서 (250) 내에 통합된 것과 같은, 도 3 에 도시된 클록 (351) 을 포함할 수도 있다. 일부 실시형태들은 3 이상의 프로세서들을 포함할 수도 있다. 일부 실시형태들에서, 앞서 설명된 컴포넌트들 중 일부는 이미지 캡처 디바이스 (302) 에 포함되지 않을 수도 있거나, 앞서 설명되지 않는 추가의 컴포넌트들이 이미지 캡처 디바이스 (302) 에 포함될 수도 있다. 일부 실시형태들에서, 앞서 설명되거나 이미지 캡처 디바이스 (302) 에 포한된 것으로 설명된 컴포넌트들 중 하나 이상이 이미지 캡처 디바이스 (302) 의 다른 컴포넌트와 결합되거나 그에 통합될 수도 있다.
이미지 캡처 디바이스 (302) 는 셀 폰, 디지털 카메라, 태블릿 컴퓨터, 개인 휴대정보 단말기, 랩탑 컴퓨터, 개인용 카메라, 액션 카메라, 장착형 카메라, 접속형 카메라, 웨어러블 디바이스, 자동차, 드론, 등일 수도 있거나, 또는 그 일부일 수도 있다. 이미지 캡처 디바이스 (302) 는 또한, 고정식 컴퓨팅 디바이스 또는 TOF 시스템 (317) 이 유리할 임의의 디바이스일 수도 있다. 복수의 애플리케이션들은 이미지 캡처 디바이스 (302) 상의 사용자에게 사용가능할 수도 있다. 이러한 애플리케이션들은 종래의 사진 및 비디오 애플리케이션들, 높은 동적 범위 이미징, 파노라마 사진 및 비디오, 또는 3D 이미지들이나 3D 비디오와 같은 입체 이미징을 포함할 수도 있다.
여전히 도 3 을 참조하여, 이미지 캡처 디바이스 (302) 는 타겟 오브젝트들 및/또는 장면들의 이미지들을 캡처하기 위한 카메라/렌즈 ("카메라") (315) 를 포함한다. 카메라 (315) 는 적어도 하나의 센서, 이미지 캡처 디바이스 (302) 의 시계 (FOV) (예를 들면, 카메라 (315) 의 FOV) 로부터 적어도 하나의 센서 (예컨대, CMOS 또는 CCD 센서) 로 수신된 광을 포커싱하는 적어도 하나의 광학 이미징 컴포넌트, 적어도 하나의 광학 이미징 컴포넌트에 커플링된 AF 모듈 (365) 및 적어도 하나의 광학 이미징 컴포넌트에 커플링된 AEC 모듈 (360) 을 포함할 수도 있다. 일부 실시형태들에서, 이미지 캡처 디바이스 (302) 는 1 초과의 카메라를 포함할 수도 있다. 카메라 (315) 는 캡처된 이미지를 이미지 프로세서 (320) 에 송신하기 위해 이미지 프로세서 (320) 에 커플링될 수도 있다. 상기의 실시형태에서, 카메라 (315) 로/부터의 신호들은 이미지 프로세서 (320) 를 통해 통신된다.
이미지 캡처 디바이스는 플래시 (316) 를 포함할 수도 있다. 일부 실시형태들에서, 이미지 캡처 디바이스 (302) 는 적어도 2 개의 플래시들을 포함할 수도 있다. 플래시 (316) 는 예컨대, 플래시 벌브, 반사기, 기하학적 광 패턴 생성기, 또는 LED 플래시를 포함할 수도 있다. 이미지 프로세서 (320) 는 플래시 (316) 를 제어하기 위해 플래시 (316) 로부터 신호들을 수신하고 송신하도록 구성될 수 있다.
이미지 프로세서 (320) 는 추가로, TOF 시스템 (317) 에 커플링될 수도 있다. 일부 실시형태들에서, TOF 시스템 (317) 은 앞서 설명된 것과 같은 2 개의 컴포넌트들을 포함할 수도 있다. 일부 실시형태들에서, TOF 시스템 (317) 은 광 방사기 (318) 및 광 센서 (319) 를 포함할 수 있다. 광 방사기 (318) 는 TOF 시스템 (317) 으로부터 방사선 (예컨대, 광) 를 방사하도록 구성될 수도 있다. 설명의 용이함을 위해, TOF 시스템 (317) 으로부터 방사된 임의의 방사선은 가시적인 및 비-가시적인 방사선을 포함하는 "광" 으로 지칭될 것이다. 광은 이미지 캡처 디바이스 (302) 의 타겟 오브젝트에서 지향된다. 광 센서 (319) 는 광이 오브젝트로부터 반사된 후에 광 방사기 (318) 에 의해 방사된 광을 감지하도록 구성된다. 일부 실시형태들에서, 광 센서 (319) 는 장면의 다수의 타겟 오브젝트들로부터 반사된 광을 감지하도록 구성될 수도 있다.
도 3 에 도시된 것과 같이, 이미지 센서 (320) 는 메모리 (330) 및 작업 메모리 (305) 에 접속된다. 도시된 실시형태에서, 메모리 (330) 는 캡처 제어 모듈 (335), 거리/반사율 모듈 (340), 오퍼레이팅 모듈 (345), 비행시간 (TOF) 모듈 (355), AEC 모듈 (360), 및 AF 모듈 (365) 을 저장하도록 구성될 수도 있다. 추가의 모듈들이 일부 실시형태들에 포함될 수도 있거나 또는 더 적은 모듈들이 일부 실시형태들에 포함될 수도 있다. 이들 모듈들은, 다양한 이미지 프로세싱 및 디바이스 관리 태스크들을 수행하도록 이미지 프로세서 (320) 를 구성하는 명령들을 포함할 수도 있다. 작업 메모리 (305) 는 메모리 (330) 의 모듈들 중 하나 이상에 포함된 프로세서 명령들 또는 기능들의 작업 세트를 저장하도록 이미지 프로세서 (320) 에 의해 이용될 수도 있다. 작업 메모리 (305) 는 이미지 캡처 디바이스 (302) 의 동작 중에 생성된 동적 데이터를 저장하도록 이미지 프로세서 (320) 에 의해 이용될 수도 있다 (예컨대, 하나 이상의 타겟 오브젝트 거리 측정들 또는 FOV 거리 측정 어레이들, 하나 이상의 타겟 오브젝트들 또는 FOV 반사율 측정 어레이들의 반사율, 노출 추정치들, 포커스 추정치들, 등등). 디바이스들 또는 하드웨어 외부의 추가의 모듈들 또는 접속들이 상기 도면에 도시되지 않을 수도 있지만, 그들은 다른 노출 및 포커스 조절 및 추정 옵션들 또는 액션들을 제공하기 위해 존재할 수도 있다.
앞서 언급된 것과 같이, 이미지 프로세서 (320) 는 메모리 (330) 에 저장된 몇몇 모듈들에 의해 구성될 수도 있거나 또는 그 모듈들과 함께 동작하도록 구성될 수도 있다. 캡쳐 제어 모듈 (335) 은 이미지 캡처 디바이스 (302) 의 전체 이미지 캡쳐 기능들을 제어하는 명령들을 포함할 수도 있다. 예를 들어, 캡쳐 제어 모듈 (335) 은 카메라 (315) 를 이용하여 타겟 오브젝트의 원시 이미지 데이터를 캡쳐하도록 이미지 프로세서 (320) 를 구성하는 명령들을 포함할 수도 있다. 캡처 제어 모듈 (335) 은 또한, 원시 데이터를 캡처할 때 플래시 (316) 를 활성화하도록 구성될 수도 있다. 일부 실시형태들에서, 캡처 제어 모듈 (335) 은 캡처된 원시 이미지 데이터를 전자 스토리지 모듈 (310) 에 저장하거나 캡처된 원시 이미지 데이터를 디스플레이 (325) 상에 디스플레이하도록 구성될 수도 있다. 일부 실시형태들에서, 캡처 제어 모듈 (335) 은 캡처된 원시 이미지 데이터를 작업 메모리 (305) 에 저장되도록 지향할 수도 있다. 일부 실시형태들에서, 캡처 제어 모듈 (335) 은 메모리 (330) 에서의 다른 모듈들, 예컨대 거리/반사율 모듈 (340), TOF 모듈 (355), AEC 모듈 (360), 또는 AF 모듈 (365) 중 하나 이상을 호출할 수도 있다.
거리/반사율 모듈 (340) 은 이미지 프로세서 (320) 또는 디바이스 프로세서 (350) 로 하여금, 타겟 오브젝트까지의 거리 및 타겟 오브젝트의 반사율 또는 이미지 캡처 디바이스 (302) 의 FOV 를 계산하거나, 추정하거나, 또는 그렇지 않으면 결정하게 하는 명령들을 포함할 수도 있다. 거리/반사율 모듈 (340) 은 타겟 오브젝트의 거리를 식별하기 위해 TOF 시스템 (317), 카메라 (315), 및 클록 (351) 을 사용하기 위한 명령들을 포함할 수도 있다. 타겟 오브젝트까지의 거리 및 그 반사율을 식별할 때, 거리/반사율 모듈 (340) 은 타겟 오브젝트까지의 거리를 결정하도록 구성될 수도 있다. 따라서, 거리/반사율 모듈 (340) 은 광 방사기 (318) 를 통해 광 신호를 방사하고 타겟 오브젝트에서 광 신호의 반사를 광 센서 (319) 를 통해 감지하기 위한 명령들을 포함할 수도 있다. 명령들은 광 신호의 방사와 광 신호의 반사의 감지 간의 시간을 측정할 것을 클록 (351) 에 추가로 지시할 수도 있다. 광 신호가 광 방사기 (318) 에 의해 방사될 때와 광 신호 반사가 광 센서 (319) 에 의해 감지될 때 사이에 경과되는 시간의 양에 기초하여, 거리/반사율 모듈 (340) 은 예컨대, 앞의 식 1 을 사용하여 광 신호가 이동한 거리를 결정하기 위한 명령들을 포함할 수도 있다. 거리/반사율 모듈 (340) 은 이미지 캡처 디바이스 (302) 의 FOV 에서 다중 포인트들의 거리들을 결정하고 그 거리들의 어레이를 형성하기 위한 명령들을 더 포함할 수도 있다. 그 내부에 포함된 명령들은 이미지 캡처 디바이스 (403) 의 FOV 내의 복수의 포인트들 또는 위치들의 각각에 대한 (타겟 오브젝트에 대하여 앞서 설명된 것과 같은) 거리들을 식별하고, 예컨대, 작업 메모리 (305) 또는 전자 스토리지 모듈 (310) 중 하나에 어레이를 저장하는 것을 포함할 수도 있다.
부가적으로, 거리/반사율 모듈 (340) 은 이미지 캡처 디바이스 (302) 의 FOV 내의 포인트들의 어레이 또는 타겟 오브젝트의 반사율을 결정하기 위한 명령들을 포함할 수도 있다. 거리 명령들에 대하여 앞서 설명된 것과 같이, 거리/반사율 모듈 (340) 은 추가로, TOF 시스템 (317) 의 광 방사기 (318) 를 통해 광 신호를 방사하고 반사된 광 신호를 광 센서 (319) 를 통해 감지하기 위한 명령들을 포함할 수도 있다. 타겟 오브젝트에서 반사된 광의 에너지에 기초하여, 거리/반사율 모듈 (340) 은 타겟 오브젝트의 반사율을 식별할 수도 있다. 부가적으로, 본원에 포함된 명령들은 거리/반사율 모듈 (340) 에 이미지 캡처 디바이스 (302) 의 FOV 내의 복수의 포인트들 또는 위치들의 각각의 반사율을 식별하는 것을 지시할 수도 있고, 식별된 반사율 값들의 저장 또는 디스플레이를 위해 제공할 수도 있다.
일부 실시형태들에서, 거리/반사율 모듈 (340) 은 도 5b 를 참조하여 이하 설명되는 오프라인 구성 데이터를 생성하기 위한 명령들을 더 포함할 수도 있다.
AEC 모듈 (360) 은 이미지 프로세서 (320) 또는 디바이스 프로세서 (350) 로 하여금, 카메라 (315) 의, 따라서 이미지 캡처 디바이스 (302) 의 노출을 계산하거나, 추정하거나, 또는 조절하게 하는 명령들을 포함할 수도 있다. AEC 모듈 (360) 은 도 1 을 참조하여 앞에서 그리고 도 5a 와 도 5b 를 참조하여 하기에서 설명되는 조출 추정들을 허용하는 명령들을 포함할 수도 있다. 따라서, AEC 모듈 (360) 은 비-플래시 노출, 사전-플래시 노출, 및 플래시 노출을 식별 및/또는 추정하기 위해 (광 방사기 (318) 및 광 센서 (319) 양자를 포함하는) TOF 시스템 (317), 카메라 (315), 클록 (351), 및 플래시 (316) 를 활용하기 위한 명령들을 포함할 수도 있다. 부가적으로, AEC 모듈 (360) 은 카메라 (315) 의 노출을 비-플래시 노출, 사전-플래시 노출, 및 플래시 노출 중 적어도 하나로 조절하기 위한 명령들을 포함할 수도 있다. 일부 실시형태들에서, AEC 모듈은 조명의 비-플래시, 사전-플래시 및 메인 플래시 레벨들 중 하나로 플래시를 조명하기 위한 명령들을 더 포함할 수도 있다.
이미지 캡처 디바이스 (302) 에 의해 캡처된 것과 같은 타겟 오브젝트의 밝기가 이미지 캡처 디바이스 (302) 의 노출에 직접 관련되기 때문에, 이미지 캡처 디바이스 (302) 의 비-플래시 노출은 플래시가 조명되지 않지만 이미지 캡처 디바이스 (302) 가 턴 온될 때 언제라도 식별될 수도 있다. 따라서, 일부 실시형태들에서, AEC 모듈 (360) 은 타겟 오브젝트의 밝기에 기초하여 이미지 캡처 디바이스 (302) 의 노출을 일정하게 모니터링하도록 구성될 수도 있다. AEC 모듈 (360) 은 캡처 제어 모듈 (335) 과 오퍼레이팅 시스템 (345) 중 하나 이상과 통합되거나 그렇지 않으면 통신할 수도 있고, 대신 앞서 설명된 방법론에 따라 이미지를 캡처할 수도 있다. 그러나, 앞서 설명된 것과 같이, ARC 모듈 (360) 과 플래시 (316) 의 사용은 이미지의 캡처에 불필요한 지연들을 도입할 수도 있다.
대안적으로, TOF 시스템 (317) 은 단지 단일 포인트 대신 FOV 상이한 부분들에 대하여 심도 및 SNR 정보를 제공할 수도 있다. AF 모듈 (365) 및 AEC 모듈 (360) 은 TOF 시스템 (317) 으로부터 상기 정보를 활용할 수도 있고, FOV 에서의 다양한 위치들에서 타겟 오브젝트들에 대한 최적의 노출 및 포커스를 달성하기 위해 특정한 전략들 및 방법들을 채용할 수도 있다. 예를 들어, 사람의 인물 사진이 찍혔고, 사람이 이미지의 중심에 서있는 것이 아닌 중심에서 벗어나서, 예컨대 FOV 의 좌측 1/3 에 서있다면, TOF 시스템 (317) 은 (사람이 카메라에 가장 가까운 오브젝트라고 가정하여) 사람의 위치를 정확히 검출할 수도 있다. 따라서, AF 모듈 (365) 및 AEC 모듈 (360) 은 최인접 오브젝트, 이 경우 사람에서 포커스 및 노출을 선택할 수도 있다.
여전히 도 3 을 참조하여, 오퍼레이팅 시스템 (345) 은 작업 메모리 (305) 및 이미지 캡처 디바이스 (302) 의 프로세싱 리소스들을 관리하도록 이미지 프로세서 (320) 를 구성할 수도 있다. 예를 들면, 오퍼레이팅 시스템 (345) 은 카메라 (315), 플래시 (316), 및 TOF 시스템 (317) 과 같은 하드웨어 리소스들을 관리하기 위한 디바이스 드라이버들을 포함할 수도 있다. 따라서, 일부 실시형태들에 있어서, 상기에 및 하기에 논의된 프로세싱 모듈들에 포함된 명령들은, 이들 하드웨어 리소스들과 직접 상호작용하지 않고 대신 오퍼레이팅 시스템 (345) 에 위치된 표준 서브루틴들 또는 API들을 통해 상기 하드웨어와 상호작용할 수도 있다. 그 후, 오퍼레이팅 시스템 (345) 내의 명령들은 이들 하드웨어 컴포넌트들과 직접 상호작용할 수도 있다. 오퍼레이팅 시스템 (345) 은 추가로, 디바이스 프로세서 (350) 와 정보를 공유하도록 이미지 프로세서 (320) 를 구성할 수도 있다. 오퍼레이팅 시스템 (345) 은 또한, 이미지 캡처 디바이스 (302) 의 다양한 프로세싱 모듈들 간에 정보와 리소스들의 공유를 허용하는 명령들을 포함할 수도 있다.
AF 모듈 (365) 은 카메라 (315) 의 포커스 포지션을 조절하도록 이미지 프로세서 (320) 를 구성하는 명령들을 포함할 수 있다. AF 모듈 (365) 은 일부 실시형태들에서 포커스 분석들을 수행하고 포커스 파라미터들을 자동으로 결정하도록 이미지 프로세서 (320) 를 구성하는 명령들을 포함할 수 있고, 일부 실시형태들에서 사용자-입력 포커스 커맨드들에 응답하는 이미지 프로세서 (320) 를 구성하는 명령들을 포함할 수 있다. 일부 실시형태들에서, AF 모듈 (365) 은 타겟 오브젝트 (또는 이미지 캡처 디바이스의 FOV 내의 하나 이상의 포인트들 또는 포지션들) 가 특정 거리 및 적절한 포커스에 있을 때를 결정하기 위해 광 방사기 (318) 및 광 센서 (319) 로부터의 정보를 사용할 수도 있다. 일부 실시형태들에서, AF 모듈 (365) 은 플래시 (316) 로부터 방사되고 그리고 광 센서 (319) 에서 FOV 내의 하나 이상의 포인트들 또는 포지션들 또는 타겟 오브젝트로부터 수신된 광에 기초하여 카메라 (315) 의 포커스를 식별하고 조절하기 위한 명령들을 포함할 수도 있다. 일부 실시형태들에서, AF 모듈 (365) 은 캡처 제어 모듈 (335), 거리/반사율 모듈 (340), AEC 모듈 (360), TOF 모듈 (355) 로부터, 또는 이미지 프로세서 (320) 나 디바이스 프로세서 (350) 중 하나로부터 커맨드를 수신하도록 구성될 수도 있다.
AF 모듈 (365) 은 오직 사전-플래시 주기 동안 검색 알고리즘을 수행하도록 구성될 수도 있고, 비-플래시 주기 동안 어떤 기능들도 수행하지 않을 수도 있다. 따라서, TOF 시스템 (317) 으로부터의 정보가 AF 모듈 (365) 에 제공되면, AF 모듈 (365) 이 오토-포커싱 기능들을 수행하는데 걸린 시간의 양이 감소될 수 있다.
도 3 에서, 디바이스 프로세서 (350) 는 캡처된 이미지, 또는 추정된 노출 및 포커스 세팅들을 포함하는 캡처된 이미지의 미리 보기를 사용자에게 디스플레이하기 위해 디스플레이 (325) 를 제어하도록 구성될 수도 있다. 디스플레이 (325) 는 이미지 캡처 디바이스 (302) 의 외부에 있을 수도 있거나, 이미지 캡처 디바이스 (302) 의 부분일 수도 있다. 디스플레이 (325) 는 또한, 타겟 오브젝트의 이미지를 캡처하기 전에 사용자를 위한 미리보기 이미지를 디스플레이하는 뷰 파인더를 제공하도록 구성될 수도 있거나, 또는 작업 메모리 (305) 또는 전자 스토리지 모듈 (310) 에 저장되어 있거나 사용자에 의해 최근에 캡처된, 캡처된 이미지를 디스플레이하도록 구성될 수도 있다. 디스플레이 (325) 는 패널 디스플레이, 예컨대 LCD 스크린, LED 스크린, 또는 다른 디스플레이 기술들을 포함할 수도 있으며, 터치 감응 기술들을 구현할 수도 있다. 디바이스 프로세서 (350) 는 또한, 사용자로부터 입력을 수신하도록 구성될 수도 있다. 예를 들어, 디스플레이 (325) 는 또한, 터치스크린이도록 구성될 수도 있고, 따라서 사용자로부터 입력을 수신하도록 구성될 수도 있다. 사용자는, 프로세서가 거리/반사율 모듈 (340) 또는 TOF 모듈 (355) 또는 AEC 모듈 (360) 또는 AF 모듈 (365) 에 제공할 수도 있는, 정보를 입력하기 위해 디스플레이 (325) 를 사용할 수도 있다. 예를 들어, 사용자는 디스플레이 (325) 상에 도시된 FOV 로부터 타겟 오브젝트를 선택하거나, 또는 이미지 캡처 디바이스 (302) 의 노출 레벨들 또는 포커스 세팅들을 세팅하거나 확립하기 위해 터치스크린을 사용할 수도 있다. 디바이스 프로세서 (350) 는 입력을 수신하여 적절한 모듈에 제공할 수도 있고, 그 모듈은 내부에 첨부된 수행 명령들을 선택하기 위해 (예컨대, 거리/반사율 모듈 (340) 에서 타겟 이미지의 거리 또는 반사율을 결정하고, AF 모듈 (365) 에서 타겟 이미지의 포커스를 결정하는 등을 위해) 그 입력을 사용할 수도 있다.
일부 실시형태들에서, 디바이스 프로세서 (350) 는 메모리 (330) 에서의 프로세싱 모듈들 중 하나 이상을 제어하거나 또는 메모리 (330) 에서의 프로세싱 모듈들 중 하나 이상으로부터 입력들을 수신하도록 구성될 수도 있다. TOF 모듈 (355) 은 TOF 시스템 (317) 과 상호작용하도록 구성될 수도 있다. TOF 모듈 (355) 은 TOF 시스템 (317) 에 의해 수행된 측정들 및 액션들에 기초하여 다양한 파라미터들 및 값들을 결정하기 위해, 본원에서 설명된 것과 같은 식들 1 및 2 을 적용하기 위한 명령들을 포함할 수도 있다. 예를 들어, TOF 모듈 (355) 은 광 방사기 (318) 에 의해 방사된 신호가 이동하는 거리를 결정하기 위한 식들을 포함할 수도 있거나 또는 TOF 시스템 (317) 및 광 방사기 (318) 및 광 센서 (319) 와 상호작용하고 및/또는 이들을 제어하기 위한 소프트웨어를 포함할 수도 있다. 일부 실시형태들에서, TOF 모듈 (355) 은 이하 설명되는 오프라인 구성 정보를 저장하거나 포착하도록 구성될 수도 있다. 일부 실시형태들에서, 디바이스 프로세서 (350) 또는 TOF 모듈 (355) 은 TOF 시스템 (317) 과 사용하기 위해 다수의 식들을 선택할 수도 있고, 방사되고 감지된 광 신호들에 기초하여 원하는 파라미터를 식별하기 위해 식들 중 하나 이상을 사용할 것을 결정할 수도 있다.
디바이스 프로세서 (350) 는 저장 모듈 (310) 에 데이터, 예를 들어, 캡처된 이미지들을 나타내는 데이터를 기록할 수도 있다. 전자 스토리지 모듈 (310) 이 종래의 디스크 디바이스로서 그래픽적으로 표현되지만, 일부 실시형태들에서 전자 저장 모듈 (310) 은 임의의 저장 매체 디바이스로서 구성될 수도 있다. 예를 들어, 전자 스토리지 모듈 (310) 은 플로피 디스크 드라이브, 하드 디스크 드라이브, 광학 디스크 디바이스 또는 자기-광학 디스크 디바이스와 같은 디스크 드라이브스, 또는 플래시 메모리, RAM, ROM, 및/또는 EEPROM 과 같은 솔리드 스테이트 메모리를 포함할 수도 있다. 전자 스토리지 모듈 (310) 은 또한 다중 메모리 유닛들을 포함할 수 있으며, 그 메모리 유닛들 중 임의의 하나는 이미지 캡처 디바이스 (302) 내에 있도록 구성될 수도 있거나 또는 이미지 캡처 디바이스 (302) 외부에 있을 수도 있다. 예를 들어, 전자 스토리지 모듈 (310) 은 이미지 캡쳐 디바이스 (302) 내에 저장된 시스템 프로그램 명령들을 포함하는 ROM 메모리를 포함할 수도 있다. 전자 스토리지 모듈 (310) 은 또한, 카메라로부터 착탈가능할 수도 있는, 캡처된 이미지들을 저장하도록 구성된 메모리 카드들 또는 고속 메모리들을 포함할 수도 있다.
도 3 이 프로세서, 이미징 센서, 및 메모리를 포함하는 개별적인 컴포넌트들을 갖는 디바이스 (300) 를 도시하고 있지만, 일부 실시형태들에서 이러한 개별적인 컴포넌트들이 특정 설계 목적들을 달성하기 위해 다양한 방식들로 결합될 수도 있다. 예를 들어, 대안적인 실시형태에서, 메모리 컴포넌트들은 비용을 절약하고 성능을 개선하기 위해 프로세서 컴포넌트들과 결합될 수도 있다.
추가로, 도 3 은 몇몇 프로세싱 모듈들을 포함하는 메모리 (330) 와 작업 메모리 (305) 를 포함하는 개별 메모리를 포함하는 다수의 메모리 컴포넌트들을 도시하지만, 몇몇 실시형태들에서, 상이한 메모리 구조들이 활용될 수도 있다. 예를 들어, 설계는 메모리 (330) 에 포함된 모듈들을 구현하는 프로세서 명령들의 저장을 위해 ROM 또는 정적 RAM 메모리를 활용할 수도 있다. 프로세서 명령들은 RAM 내로 로딩되어 이미지 프로세서 (320) 에 의한 실행을 가능하게 할 수도 있다. 예를 들어, 작업 메모리 (305) 는 RAM 메모리를 포함할 수도 있으며, 명령들은 이미지 프로세서 (320) 에 의한 실행 전에 작업 메모리 (305) 내에 로딩된다. 일부 실시형태들에서, 프로세싱 모듈들 중 하나 이상은 메모리 (330) 에 저장된 소프트웨이일 수도 있거나, 또는 소프트웨어 컴포넌트들과 결합된 하드웨어 시스템을 포함할 수도 있다. 추가로, 이미지 프로세서 (320) 와 디바이스 프로세서 (350) 중 하나와 앞서 연관된 기능들은 예컨대 앞에서 설명되지 않았지만, 이미지 프로세서 (320) 와 디바이스 프로세서 (350) 중 다른 하나 또는 이미지 프로세서 (320) 와 디바이스 프로세서 (350) 의 양자에 의해 수행될 수도 있다.
일부 실시형태들에서, 이미지 프로세서 (320) 는 추가로, 이미지를 캡처하기 전에, 이미지를 캡처하는 동안, 및 이미지를 캡처한 후에 하나 이상의 프로세싱 동작들에 참여하도록 구성될 수도 있다. 예를 들어, 이미지를 캡처하기 전에, 이미지 프로세서 (320) 는 (예컨대, 카메라 (315) 의 노출 및 포커스를 추정하고 조절하는) 앞서 설명된 프로세스들 중 하나 이상을 수행하도록 구성될 수도 있다. 일부 실시형태들에서, 이미지 프로세서 (320) 는 LED 플래시, TOF 시스템 (317), 거리/반사율 모듈 (340), TOF 모듈 (355), AEC 모듈 (360), 및 AF 모듈 (365) 중 하나 이상과 결합하여, 이미지 캡처 디바이스 (302) (구체적으로 카메라) 의 노출과 포커스를 조절하도록 구성될 수도 있다. 따라서, 이미지 프로세서 (320) 는 이미지 캡처 디바이스 (302) 가 사용자가 원하는 것과 같은 적절한 세팅들 (노출 및 포커스) 로 타겟 오브젝트 또는 FOV 의 이미지를 캡처할 수 있도록 구성될 수도 있다.
일부 실시형태들에서, 이미지 프로세서 (320) 는 카메라 (315) 의 노출 및 포커스의 조절 및 추정과 연관되고 및/또는 이를 제어할 수도 있다. 이미지 프로세서 (320) 는 (앞서 도 1a 에 대하여 설명된 것과 같은) 추정된 플래시 노출을 확립하기 위해 플래시 (316), 카메라 (315), AEC 모듈 (360), 거리/반사율 모듈 (340) 을 제어하도록 구성될 수도 있다. 따라서, 이미지 프로세서 (320) 는 플래시 (316) 로부터의 임의의 조명 전에 타겟 오브젝트의 밝기를 모니터링할 수도 있다 (도 2 에서 참조되는 것과 같은 타겟 오브젝트의 밝기를 모니터링하는 것은, 타겟 오브젝트를 보고 플래시 (316) 로부터의 광이 없는 타겟 오브젝트 또는 환경의 밝기를 검출하거나 식별하기 위해 카메라 (315) 를 사용하는 것을 포함할 수도 있다). 그 후에, 이미지 프로세서 (320) 는 광의 사전-플레시 레벨을 방사하기 위해 플래시 (316) 를 제어하고, AEC 모듈 (360) 로부터 수신된 커맨드들 및 입력들에 기초하여 이미지 캡처 디바이스 (302) 의 노출을 조절할 수도 있다. 사전-플래시 노출에 도달하면, 이미지 프로세서 (320) 는 플래시 (316) 를 턴 오프하고, 이미지 캡처 디바이스 (302) 의 노출을 AEC 모듈 (360) 에 의해 계산되는 것과 같은 추정된 플래시 노출로 세팅할 수도 있다. 그 후에, 이미지 프로세서 (320) 는 플래시 (316) 를 메인 플래시 광 레벨로 작동시키고 타겟 오브젝트 (210) 의 이미지를 캡처할 수도 있다.
대안적으로, 또는 부가적으로, 이미지 프로세서 (320) 는 앞서 논의 된 단계들을 수행하기 전에 추정된 사전-플래시 노출을 생성하도록 구성될 수도 있다. 예를 들어, 이미지 프로세서 (320) 는 TOF 모듈 (355), TOF 시스템 (317) 및 거리/반사율 모듈 (340) 중 하나 이상을 통해, 타겟 오브젝트의 거리 및 반사 추정 또는 FOV 내의 포인트들 또는 포지션들의 어레이를 수행하도록 구성될 수도 있다. 본원에 설명된 것과 같이, 거리 및 반사 추정은 광 (또는 광 신호) 이 광 방사기 (318) 로부터 방사될 때와 (FOV 내의 포인트들 또는 포지션들 또는 타겟 오브젝트에서 반사된 후의) 리턴 광 신호가 광 센서 (319) 에 의해 수신될 때 사이에 경과한 시간의 양에 기초할 수도 있다. TOF 반사율 및 추정이 수행되기 전에, 동안 또는 후에, 이미지 프로세서 (320) 는 또한, 비-플래시 주기와 관련하여 앞서 논의된 것과 같이, 플래시 (316) 로부터 임의의 조명 이전에 타겟 오브젝트를 모니터링할 수도 있고, 이는 이미지 캡처 디바이스 (302) 의 비-플래시 노출 (오직 환경적인 광) 을 식별하기 위해 플래시 (316) 로부터의 임의의 조명 없이 카메라 (315) 에 의해 수신된 것과 같은 밝기 레벨들을 모니터링하는 것을 수반할 수도 있다. 이미지 프로세서 (320) 는 TOF 시스템 (317) 으로부터 수신된 정보 (거리 및 반사율) 를 사전-플래시 노출 추정을 생성하기 위한 비-플래시 노출과 결합할 수도 있다. 일부 실시형태들에서, 사전-플래시 노출 추정은 하기에 더 상헤시 설명되는 오프라인 사전-캘리브레인션 값들을 참조하는 것을 수반할 수도 있다. 일부 실시형태들에서, 사전-플래시 노출 추정은 앞서 설명된 사전-플래시 노출 조절을 스킵하고 이미지 프로세서 (320) 가 이미지 캡처 동안 사용하기 위한 플래시 노출을 추정하는 것을 직접 계속할 수도 있도록 충분히 정확할 수도 있다. 일부 실시형태들에서, TOF 거리 추정은 메인 플래시로의 이미지 캡처 동안 사용하기 위한 플래시 노출을 추정하기 전에 사전-플래시 노출 조절과 결합될 수도 있다.
일부 실시형태들에서, 이미지 프로세서 (320) 는 TOF 시스템 (317), TOF 모듈 (355), 및 거리/반사율 모듈 (340) 에 의해 제공된 TOF 거리 추정치들을 사용하여 이미지 캡처 디바이스 (302) 의 포커스의 추정치들을 개선하고 카메라 (315) 의 포커스가 카메라 (315) 에 의해 보여지는 것과 같은 타겟 오브젝트의 밝기에 응답하여 조절될 수도 있는 사전-플래시 주기 동안 플래시 (316) 에 응답하여 이미지 캡처 디바이스 (302) (구체적으로, 카메라/렌즈 ("카메라") (315)) 의 포커스를 조절하는데 필요한 시간을 감소시킬 수도 있다. 노출 추정을 위해 앞서 설명된 것과 유사하게, 이미지 프로세서 (320) 는 카메라 (315) 의 사전-플래시 포커스를 추정하도록 구성될 수도 있고, 그 추정치를 감소된 사전-플래시 포커스 조절 및 추정 주기와 함께 또는 사전-플래시 포커스 조절 및 추정 주기 대신 사용할 수도 있다.
대안적으로, 또는 부가적으로, 이미지 프로세서 (320) 는 오직 이미지 캡처 디바이스 (302) 의 하나 이상의 다른 컴포넌트들 또는 모듈들로부터의 명령들에 응답하여 동작할 수도 있다. 예를 들어, AEC 모듈 (360) 또는 AF 모듈 (365) 이 AEC 모듈 (360) 이 (TOF 시스템 입력들로 또는 TOF 시스템 입력들 없이) 앞서 설명된 방법들 중 어느 하나에 기초하여 추정된 플래시 노출을 계산하게 하거나 또는 AF 모듈 (365) 이 앞서 설명된 것과 같은 추정된 포커스를 계산하게 하기 위해 명령들을 이미지 캡처 디바이스 (302) 의 다른 컴포넌트들에 발행할 수도 있다. 부가적으로, 센서로부터의 이미지 데이터에 기초하여 실시간으로 다양한 하드웨어 (예컨대 이미지 신호 프로세서 (ISP)) 를 사용하여 통계치들이 수집될 수도 있다. 예를 들어, 수집된 통계치들은 64x48 과 같은 특정 사이즈 그리드 상의 모든 영역들의 합들 및 평균들일 수도 있다. 수집된 통계치들은 또한, 이미지 데이터의 히스토그램들을 포함할 수도 있다.
도 4a 는 타겟 오브젝트와 이미징 디바이스 간의 거리와 노출 사이의 관계를 도시하는 그래프 (400) 이다. 그래프 (400) 의 x 축은 타겟 오브젝트와 카메라 간의 거리를 센티미터 (cm) 로 표시하는 반면, 그래프 (400) 의 y 축은 카메라의 결정된 "정확한" (상대적인) 노출 레벨을 나타낸다. 예를 들어, 그래프 (400) 는 사전-플래시 노출 대 타겟 오브젝트의 거리의 예들을 도시한다. 도 4b 는 그래프 (400) 와 연관되는 차트 (425) 이고, 거리에 관련된 정보의 예들 (426), 노출에 관련된 정보의 예들 (427), 및 신호대 잡음비 (SNR) 와 같은 TOF 센서 데이터에 관련된 정보의 예들 (431) 을 도시한다. 그래프 (400) 및 차트 (425) 는 개시된 양태들의 테스트들 및 비교들로부터 식별된 실험 데이터를 포함한다. 차트 (425) 는 다양한 컬럼들을 포함한다: 거리 (426) 는 타겟 오브젝트와 카메라 간의 거리를 포함하고, 3 개의 컬럼들은 타겟 오브젝트에 대한 사전-플래시 노출을 도시하는 노출 (427), 타겟 오브젝트의 사전-플래시 루마를 도시하는 루마 (428), 및 초들로 사전-플래시 주기가 계속되는 시간의 양 (카메라가 노출 (427) 의 노출에 도달하는데 걸리는 시간) 을 포함하는 사전-플래시 시간 컬럼 (429) 을 포함하는 LED AEC 추정 데이터에 대응한다. 차트 (425) 는 또한, (밀리미터들로) TOF 시스템에 의해 측정된 것과 같은 타겟 오브젝트와 카메라 간의 거리를 포함하는 측정된 거리 (430) 및 TOF 시스템에 의해 식별되는 것과 같은 신호대 잡음비 (SNR) 를 표시하는 SNR (431) 을 포함하는 TOF 시스템 데이터를 포함하는 컬럼들을 포함한다. 차트 (425) 는 또한, (센티미터들로) 상이한 거리들에 대응하는 4 개의 로우들을 갖는다. 거리들은 10cm, 17cm, 27cm, 및 43cm 을 포함한다.
그래프 (400) 에 도시된 것과 같이, 타겟 오브젝트와 카메라 간의 거리가 작을 경우, 타겟 오브젝트가 카메라에 근접할 때, 플래시로부터의 광이 카메라에 의해 보여지는 것과 같은 타겟 오브젝트의 밝기에 더 큰 영향을 미치기 때문에 사전-플래시 노출이 더 낮고, 그리고 사전-플래시 노출 레벨이 더 낮다. 대응하여, 카메라와 타겟 오브젝트 간의 거리가 증가할수록, 플래시로부터의 광이 카메라에 의해 보여지는 것과 같은 타겟 오브젝트의 밝기에 더 적은 영향을 미치기 때문에 노출 레벨이 증가하고, 노출 레벨은 소정의 밝기 레벨에서 이미지를 캡처하기 위해 더 높아야만 한다. 따라서, 그래프 (400) 와 차트 (425) 에 도시된 것과 같이, 타겟 오브젝트가 카메라로부터 10 cm 의 거리일 때, 카메라의 사전-플래시 노출은 249 일 수도 있다. 타겟 오브젝트가 카메라로부터 17 cm 의 거리일 때, 카메라의 사전-플래시 노출은 279 일 수도 있다. 유사하게, 거리가 27 cm 일 때, 사전-플래시 노출은 302 일 수도 있고, 거리가 43 cm 일 때, 사전-플래시 노출은 340 일 수도 있다. 차트 (425) 의 루마 (밝기) (428) 는 소정의 거리에서 노출 (427) 의 사전-플레시 노출 레벨들이 주어질 때, 카메라에 의해 조여지는 것과 같은 타겟 오브젝트의 밝기를 표시한다. 루마는 사전-플래시 프로세스의 종료시 최종 루마이고, 이는 사전-플래시 노출 인덱스에 대응한다. 예를 들어, 10 cm 의 거리에서 타겟 오브젝트에 대한 사전-플래시 루마는 58 인 반면, 17 cm 의 거리에서 타겟 오브젝트에 대한 사전-플래시 루마는 55 이고, 27 cm 의 거리에서 49 이고, 43cm 의 거리에서 62 이다. 따라서, 앞서 설명된 것과 같이, 타겟 오브젝트가 카메라로부터 멀리 있기 때문에, 결과적인 사전-플래시 노출 은 동일하거나 유사한 밝기 레벨들을 획득하기 위해 더 높을 수도 있다.
사전-플래시 시간 컬럼 (429) 은, AEC 시스템이 카메라의 노출을 사전-플래시 노출 레벨로 조절하는 동안 경과하는 시간을 제공한다. 사전-플래시 시간 컬럼 (429) 의 값들을, 그 값들이 다양한 거리들에 대응할 때 비교하는 것에 의해 보여지는 것과 같이, 시간은 사전-플래시 노출이 증가할 때 감소한다. 예를 들어, 그 시간은 타겟 오브젝트의 거리가 10 cm 이고 사전-플래시 노출이 249 일 때 0.675 초이지만, 타겟 오브젝트가 카메라로부터 43 cm 이고 사전-플래시 노출이 340 일 때 오직 0.447 초이다. 이는 사전-플래시 노출 조절에 허비된 시간이 수행된 노출 조절의 양과 직접 연관되는 것을 보여준다.
측정된 거리 (430) 는 TOF 시스템에 의해 결정된 것과 같은, 타겟 오브젝트와 카메라 간의 거리를 표시한다. 측정된 거리 (430) 를 거리 (426) 와 비교함으로써, TOF 가 타겟 오브젝트와 카메라 간의 거리의 정확한 측정을 제공하는 것을 볼 수 있다. 이 데이터에서, TOF 시스템을 통한 측정된 값은 센티미터에서 오프된다 (거리 (426) 로부터 27 cm 대 측정된 거리 (430) 로부터 261.5 mm). 결국, SNR (431) 은 TOF 시스템에 의해 식별되는 것과 같은 SNR 을 도시한다. SNR 은, 카메라와 타겟 오브젝트 간의 10 cm 거리에서 60.8 로부터 카메라와 타겟 오브젝트 간의 43 cm 거리에서 1.7 로 감소한다.
도 4c 는 예시적인 실시형태에 따라, 가변 반사율 값들을 가지고 소정 거리에서 타겟 오브젝트의 사전-플래시 노출을 도시하는 사전-플래시 노출 대 신호-잡음 비를 도시하는 그래프 (450) 를 도시한다. 그래프 (450) 의 x 축은 타겟 오브젝트들의 컬러들 (또는 반사율 값들) 을 표시하지만, 그래프 (450) 의 y 축은 카메라의 노출 레벨을 나타낸다. 도 4d 는 도 4c 와 연관된 정보를 도시하는 차트 (475) 이다. 그래프 (450) 및 차트 (475) 는 개시된 양태들의 테스트들 및 비교들로부터 식별된 실험 데이터를 포함한다. 그래프 (450) 는 타겟 오브젝트의 사전-플래시 노출 대 반사율을 도시한다. 차트 (475) 는 다양한 컬럼들을 포함한다: 오브젝트 (476) 는 타겟 오브젝트의 컬러 (반사율) 를 포함하고, 3 개의 컬럼들은 타겟 오브젝트에 대한 사전-플래시 노출을 도시하는 사전-플래시 노출 (477), 타겟 오브젝트의 사전-플래시 루마 정보를 도시하는 루마 (478), 및 초들로 사전-플래시 주기가 계속되는 시간의 양의 정보 (카메라가 사전-노출 (477) 의 노출에 도달하는데 걸리는 시간) 를 포함하는 사전-플래시 시간 (479) 을 포함하는 LED AEC 추정 데이터에 대응한다. 차트 (475) 는 또한, (밀리미터들로) TOF 시스템에 의해 측정된 것과 같은 타겟 오브젝트와 카메라 간의 거리를 포함하는 측정된 거리 (480) 및 TOF 시스템에 의해 식별되는 것과 같은 신호 잡음비 (SNR) 를 표시하는 신호 잡음비 (SNR) (481) 를 포함하는 TOF 시스템 데이터를 포함하는 컬럼들을 포함한다. 차트 (475) 는 또한, (센티미터들로) 상이한 반사율 값들을 갖는 타겟 오브젝트들의 상이한 컬러들에 대응하는 3 개의 로우들을 갖는다. 컬러들은 화이트, 그레이, 및 블랙을 포함한다.
그래프 (450) 에 도시된 것과 같이, 타겟 오브젝트의 신호대 잡음비가 더 클 때, 사전-플래시 노출 값은 더 낮다. 이는 앞서 설명된 것과 같이, 타겟 오브젝트가 더 높은 반사율을 가질 때 타겟 오브젝트에서 반사되는 리턴 신호가 더 높고 더 높은 반사율을 갖는 타겟 오브젝트가 통상적으로 더 낮은 반사율을 갖는 것들 보다 더 적은 노출을 요구하기 때문일 수도 있다. 이는 타겟 오브젝트가 더 반사될 때 (예컨대, 더 높은 반사율을 가질 때), 플래시가 카메라의 노출에 영향을 줄 수도 있다는 앞의 설명에 대응한다.
그래프 (450) 및 차트 (475) 에서 도시된 것과 같이, 사전-플래시 노출 (477) 은 오브젝트 (476) 에서 타겟 오브젝트의 노출 (또는 컬러/재료) 에 대응한다. 예를 들어, (그레이 또는 블랙 타겟 오브젝트들보다 더 높은 반사율을 갖는) 화이트 오브젝트는 249 의 더 낮은 노출 값을 가지지만, 그레이 및 블랙 타겟 오브젝트들은 각각, 313 및 343 의 노출 값들을 갖는다. 이들 값들은 더 높은 반사율 값들을 갖는 타겟 오브젝트들이 더 낮은 반사율 값들을 갖는 타겟 오브젝트보다 더 낮은 노출 값들을 사용할 수도 있다는 본원의 논의에 순응한다. 추가로, 루마 (478) 의 루마 (밝기) 값들은 카메라가 보는 것과 같은 타겟 오브젝트(들)의 밝기의 양을 표시한다. 도시된 것과 같이, 화이트 타겟 오브젝트, 블랙 타겟 오브젝트, 및 그레이 타겟 오브젝트는 모두 비교할만한 값들 (각각, 58, 17, 및 78) 에 있다. 일부 실시형태들에서, 알고리즘은 루마를 합당한 범위 내에서 조종하는데 사용될 수도 있다. 예를 들어, 화이트, 블랙, 및 그레이 타겟 오브젝트들의 루마 값들 (각각, 58, 17, 및 78) 은 각각 합당한 값들로 고려될 수도 있다. 부가적으로, 차트 (475) 에서, 루마 (478) 의 사전-플래시 밝기가 증가할 수록, 사전-플래시 시간 (479) 은 감소한다. 부가적으로, 그래프 (450) 에 도시된 것과 같이, SNR (481) 에서 타겟 오브젝트들의 각각의 SNR 은 사전-플래시 노출 (477) 의 노출 레벨들이 증가할 때, 감소한다 (249 의 노출 레벨이 60.8 의 SNR 을 가지는 반면, 313 및 344 의 노출들은 각각 40.4 및 21.2 의 SNR들을 갖는다). 도 10 에 도시된 것과 같이, SNR 은 타겟 오브젝트의 반사율과 상관될 수도 있다 (예컨대, 화이트 타겟 오브젝트는, 대략적으로 동일한 거리들에서 블랙 타겟 오브젝트보다 더 높은 SNR 을 갖는, 그레이 타겟 오브젝트보다 더 높은 SNR 을 갖는다). 도 10 에 도시된 것과 같이, 루마 및 사전-플래시 시간 값들은 SNR 보다 사전-플래시 노출과 더 적은 상관을 가질 수도 있다.
측정된 거리 (480) 는 TOF 시스템에 의해 결정된 것과 같은, 타겟 오브젝트와 카메라 간의 거리를 표시한다. 측정된 거리 (480) 에서 도시된 것과 같이, 오브젝트 (476) 의 타겟 오브젝트들은 모두 서로 1 cm 내에 있다 (화이트는 100.6 mm 에서 측정되고, 그레이는 102.3 mm 에서 측정되고, 블랙은 106.1 mm 에서 측정된다). 결국, SNR (481) 은 TOF 시스템에 의해 식별되는 것과 같은 SNR 을 도시한다. SNR 은 화이트 타겟 오브젝트에 대하여 60.8 로부터 블랙 타겟 오브젝트에 대하여 21.2 로 감소한다.
도 5a 는 앞서 논의된 것과 같이 TOF 또는 레이저 센서를 활용하지 않는 카메라를 사용하여 LED 플래시 자동 노출 보정에 기초하여 플래시 노출을 추정하기 위해 이미징 디바이스가 구현하도록 구성될 수도 있는 프로세스 (500) 를 도시하는 블록 다이어그램을 도시한다. 도시된 것과 같이, 프로세스 (500) 는 앞서 설명된, 추정된 플래시 노출의 식별에 수반된 4 개의 블록들을 포함한다. 프로세스 (500) 는 블록 (505) 에서 비-플래시 노출의 결정으로 시작한다. 블록 (505) 의 비-플래시 노출은 플래시가 임의의 레벨에서 활성이 아닐 때, 카메라의 노출의 식별의 앞의 논의에 대응할 수도 있다. 예를 들어, 이는 카메라가 턴 온되지만 플래시 (316) 로부터 광을 방사하지 않을 때 발생할 수도 있다. 비-플래시 노출은 후속 사용을 위해 식별되고 저장될 수도 있다. 비-플래시 노출이 블록 (505) 에서 결정되면, 프로세스 (500) 는 동시에 동작할 수도 있는 블록들 (510 및 515) 로 진행한다.
블록 (510) 은 사전-플래시 레벨에서 카메라의 플래시를 활성화시키는 것을 포함한다. 이는 예컨대, 전체 미만의 플래시 레벨에서 타겟 오브젝트를 조명하기 위해 플래시를 제어하는 것을 포함할 수도 있다. 플래시가 사전-플래시 레벨에서 활성화되지만, 블록 (515) 은 카메라의 노출을 사전-플래시 노출 레벨로 조절한다. 일부 실시형태들에서, 사전-플래시 노출 레벨은 루마가 명시된 범위 내에 있도록 조절될 수도 있다 (예를 들어, 앞서 설명된 것과 같이, 58, 17, 및 78 의 각각은 명시된 범위 내에 있을 수도 있다). 일부 실시형태들에서, 반사율, 타겟 오브젝트의 거리, 및 사전-플래시 노출 레벨은 루마 값을 명시된 범위 내에 들어오게 하도록 조절될 수도 있다. 그러한 조절은 앞서 설명된 AEC 모듈에 의해, 또는 카메라의 노출을 제어하도록 구성된 임의의 다른 모듈에 의해 수행될 수도 있다. 블록들 (510 및 515) 동안, 카메라는 어떤 이미지들도 캡처하지 않을 수도 있다. 대신, 카메라는 단지 타겟 오브젝트 및/또는 환경의 밝기를 모니터링하고, 그 노출을 모니터링된 밝기에 따라 타겟 노출 레벨로 조절할 수도 있다. 부가적으로, 사전-플래시 노출은 후속 사용을 위해 저장될 수도 있다. 예를 들어, AEC 모듈 (360) 은 최종 플래시 이미지 상의 원하는 노출 레벨을 추정하기 위해 저장된 사전-플래시 노출 레벨과 함께 사전-플래시 및 메인 플래시 밝기 비율 (일부 값은 사전-정의되고/결정됨) 을 사용할 수도 있다. 일부 실시형태들에서, 메인 플래시는 사전 플래시보다 더 밝을 수도 있고 (밝기 비율 >1), 따라서 AEC 모듈 (360) 은 최종 이미지가 적절히 노출될 수 있도록, 사전-플래시 노출 레벨로부터 노출 레벨을 추가로 감소시킬 것이다. 일부 실시형태들에서, 카메라의 노출의 조절은 노출 알고리즘에 의해 수행될 수도 있다. 사전-플래시 노출이 블록 (515) 에서 결정된다면, 프로세스 (500) 는 블록 (520) 으로 진행한다.
블록 (520) 은 메인 플래시 조명에 대한 카메라의 노출을 추정하는 것을 포함한다. 이는 앞서 설명된 노출 알고리즘 또는 AEC 모듈에 의해 수행될 수도 있다. 노출 알고리즘은 블록 (505) 에서 포착된 비-플래시 정보 및 블록 (515) 에서 포착된 사전-플래시 노출 정보를 활용하여, 앞서 설명된 수집된 통계치들 정보를 통해 타겟 오브젝트의 밝기 (구체적으로, LED 에 의해 조사되는 동안 카메라가 보는 것과 같은, 타겟 오브젝트를 포함하는 프레임의 밝기) 를 컴퓨팅하도록 구성될 수도 있다. 노출 알고리즘은 (사전-플래시 구동 전류(들)보다 상당히 큰) 메인 플래시 구동 전류에 의해 조명될 때 타겟 오브젝트와 장면의 밝기를 추가로 추론할 수도 있다. 이러한 추론된 밝기는 메인 플래시가 풀 전류 (예컨대, 메인 플래시 구동 전류) 하에서 조명될 때 예상되는 타겟 오브젝트 또는 장면에 대한 추정된 밝기 레벨을 나타낼 수도 있다. 추론된 밝기는 그 후에, 타겟 또는 장면이 노출 과다 또는 노출 부족되지 않도록 (예컨대, 캡처 타겟 또는 장면이 적절한 밝기에 있도록) 카메라의 노출을 적절한 레벨로 세팅하는데 사용될 수도 있다. 추정된 플래시 노출이 결정될 시, 프로세스 (500) 가 종료한다. 일부 실시형태들에서, 식별된 밝기 및/또는 노출은 후속 사용을 위해 저장될 수도 있다.
도 5b 는 예컨대, 앞서 설명된 것과 같이, AEC 모듈과 함께 TOF 시스템 또는 레이저 센서를 활용하는 카메라에 의해 타겟 오브젝트의 결정된 거리 및 반사율에 기초하여 플래시 노출을 추정하기 위해, 이미징 디바이스가 구현하도록 구성될 수도 있는 프로세스 (550) 를 도시하는 블록 다이어그램이다. 도시된 것과 같이, 프로세스 (550) 는 추정된 사전-플래시의 식별에 수반되는 4 개의 블록들을 포함하지만, (본원에 도시되지 않았지만) 옵션의 제 5 블록이 포함될 수도 있다. 프로세스 (550) 가 시작하고 블록들 (555 및 560) 이 동시에 동작한다. 블록 (555) 은 TOF 시스템을 사용하여 타겟 오브젝트까지의 거리를 추정하는 것을 포함한다.
일부 실시형태들에서, 타겟 오브젝트의 거리의 결정은, 카메라의 FOV 의 중심 또는 타겟 오브젝트의 중심에 기초하는 오직 단일 거리 추정만을 포함할 수도 있다. 일부 실시형태들에서, 타겟 오브젝트의 거리는 카메라의 FOV 에 걸쳐 분포된 다양한 포인트들에 대한 거리 정보의 어레이를 사용하여 결정될 수도 있다. 예를 들어, TOF 시스템은 거리 정보의 어레이를 생성하기 위해 FOV 주위의 다양한 위치들로 광을 방사하고 그로부터 광을 감지할 수도 있다. 일부 실시형태들에서, 카메라는 그 후, 이미지의 거리를 결정하기 위해 어레이로부터의 거리 정보를 평균할 수도 있다. 일부 실시형태들에서, 카메라는 FOV 내의 타겟 오브젝트의 위치에 대응하는 어레이에서의 포인트에서 어레이로부터의 거리 정보에 기초하여 (예컨대, 포커스 포인트 등을 선택할 때 사용자에 의해 선택되는 것과 같은) FOV 내의 특정 위치에서 타겟 오브젝트에 대한 거리 이미지를 식별할 수도 있다.
이미징 디바이스는 TOF 시스템을 사용하여 타겟 오브젝트의 반사율을 결정하도록 구성될 수도 있다. 반사율은 TOF 방사기로부터 방사되고 TOF 에 의해 수신된 광의 리턴된 에너지에 기초하여 결정될 수도 있다. 리턴된 에너지가 클수록, 앞서 설명된 것과 같이, 타겟 오브젝트의 반사율이 더 크다. 앞의 거리 정보와 유사하게, 반사율의 결정은 FOV 의 어레이의 반사율을 결정을 포함할 수도 있고, 여기서 FOV 내의 다수의 위치들의 반사율은 결정되고 및/또는 계산될 수도 있다.
TOF 시스템 거리 추정들과 동시에, 카메라는 블록 (560) 에서 비-플래시 노출을 식별하도록 구성될 수도 있다. 블록 (560) 에서 비-플래시 노출은 도 5a 와 관련하여 앞서 설명된 블록 (505) 에서의 비-플래시 노출과 유사하거나 동일할 수도 있다. 블록 (560) 의 비-플래시 노출은, TOF 시스템이 타겟 오브젝트 또는 FOV 의 밝기에 영향을 주는 광을 활용하지 않기 때문에, 블록 (555) 의 TOF 거리 추정과 동시에 결정될 수도 있다. 따라서, TOF 시스템에 의해 방사된 광 (예컨대, IR 광) 은 노출 검출 동안 카메라가 보는 것과 같은 타겟 오브젝트 도는 FOV 의 밝기에 영향을 주지 않으며, 따라서 비-플래시 노출 검출은 TOF 시스템 거리 추정과 동시에 수행될 수도 있다. 일부 실시형태들에서, 카메라에 의한 노출 측정들은 TOF 시스템 추정들과 동시에 수행될 수도 있다. 블록들 (555 및 560) 이 완료하면, 프로세스 (550) 는 블록 (565) 으로 진행한다.
도 5b 의 카메라는 블록 (565) 에서 사전-플래시 노출을 추정한다. 카메라는 앞서 설명된 것과 같은 사전-플래시 주기 이전에 초기 사전-플래시 노출을 계산하기 위해, 블록 (555) 에서 식별된 TOF 거리 추정과 블록 (560) 의 비-플래시 노출을 사용할 수도 있다. 사전-플래시 주기에 들어가기 전에 추정된 초기 사전-플래시 노출을 적용하는 것은 카메라의 노출이 적절한 사전-플래시 노출에 더 인접한 레벨에 있을 것이기 때문에, 카메라가 사전-플래시 주기에서 소비할 수도 있는 시간의 양을 감소시킬 수도 있고, 따라서 사전-플래시 주기 동안 필수적인 노출 조절을 감소시킬 수도 있다. 앞서 설명된 것과 같이, 카메라가 사전-플래시 노출에 도달하기 위해 비-플래시 노출을 조절하는데 사전-플래시 주기를 사용할 경우, 카메라는 적어도 환경적 조명 (lighting), 타겟 오브젝트와 카메라 간의 거리, 및 타겟 오브젝트의 반사율에 상당히 의존하여 노출을 조절할 수도 있다. 그러나, 블록들 (555 및 560) 이 타겟 오브젝트의 거리 및 반사율을 제공하기 때문에, 블록 (565) 은 원하는 밝기 레벨로 타겟 디바이스의 이미지를 캡처하는데 필요한 카메라의 노출의 더 정확한 추정치를 제공할 수 있으며, 카메라의 노출은 사전-플래시 노출 추정 레벨로부터 덜 조절되어야만 한다.
일부 실시형태들에서, 블록 (565) 의 사전-플래시 노출 추정은 사전-캘리브레이션될 수도 있다. 일부 실시형태들에서, 오프라인 사전-캘리브레이션은 다양한 거리들에서 타겟 오브젝트를 캡처할 때 카메라의 노출을 식별하는 것을 수반할 수도 있고, 따라서 다양한 거리들에서 타겟 오브젝트에 대한 노출 값들의 라이브러리를 구축한다. 일부 실시형태들에서, 오프라인 사전-캘리브레이션은 동일한 거리에서 변화하는 반사율을 갖는 다양한 타겟 오브젝트들을 캡처할 때 카메라의 노출 값들을 식별하는 것을 포함하며, 따라서 변화하는 반사율 값들로 거리에 대한 노출 값들의 라이브러리를 구축할 수도 있다. 일부 실시형태들에서, 사전-캘리브레이션은 블록 (565) 의 사전-플래시 노출 추정이 사전-플래시 노출의 더 정확한 추정치들을 전개시키는 것을 돕는 정보를 제공할 수도 있다. 일부 실시형태들에서, 라이브러리 또는 다른 데이터베이스는 다양한 반사율 값들로 다양한 거리들에 있는 타겟 오브젝트들을 캡처하는데 사용될 수도 있다. 라이브러리 또는 데이터베이스는 모든 시나리오들을 커버할 수도 있고, 알고리즘이 입력 거리 및 반사율 또는 SNR 이 주어질 때 라이브러리 또는 데이터베이스에서 정확한 노출 레벨을 정확히 식별하게 할 수도 있다. 예를 들어, 사전-캘리브레이션 정보는, 블록 (565) 이 추정된 거리 및 추정된 반사율에 대하여 캘리브레이션 정보에서 노출 값들을 검토할 수도 있기 때문에, 블록 (565) 이 TOF 거리 추정이 제공될 때 사전-플래시 노출을 더 양호하게 추정하게할 수도 있다. 더 양호한 추정은 블록 (565) 의 사전-플래시 노출 추정이 사전-플래시 노출 값을 더 정확히 추정하게할 수도 있고, 따라서 카메라가 사전-플래시 주기에서 소비할 수도 있는 시간의 양을 추가로 단축시킬 수도 있다.
블록 (565) 이 사전-플래시 노출 추정을 완료하면, 프로세스 (550) 는 블록 (570) 으로 진행하고, 여기서 카메라는 앞서 설명된 사전-플래시 주기에 진입한다 (예컨대, 프로세스 (500) 의 블록들 (510 및 515) 에 진입한다). (상기 도면에 도시되지 않은) 일부 실시형태들에서, 블록 (565) 의 사전-플래시 노출 추정은 정확한 사전-플래시 노출 추정을 제공할 수도 있다. 따라서, 프로세스 (550) 는 사전-플래시 노출 조절 주기를 스킵하고, 직접 메인 플래시 주기 동안의 이미지 캡처로 진행할 수도 있다. 따라서, 일부 실시형태들에서, 블록 (565) 의 사전-플래시 노출 추정은 각각, 블록들 (555 및 560) 의 TOF 거리 및 반사율 추정치 및 비-플래시 노출을 사용하는 메인 플래시 노출 추정 블록을 포함할 수도 있다. 그러한 사전-플래시 주기 전체의 제거는 TOF 시스템과 사용되지 않을 때 앞서 설명된 AEC 프로세스에 의해 도입된 레이턴시들을 상당히 감소시킬 수도 있다.
일부 실시형태들에서, 카메라는 사전-플래시 포커스를 더 양호하게 추정하기 위해 블록 (555) 의 TOF 거리 추정을 사용할 수도 있다. 예를 들어, 카메라가 이미지를 캡처하기 위해 준비하고 있을 때, 카메라는 카메라가 타겟 오브젝트에 포커싱하는데 걸리는 시간의 양을 감소시키는 더 정확한 사전-플래시 포커스 추정치를 생성하기 위해 TOF 거리 추정으로부터의 정보를 사용할 수도 있지만, 카메라는 여전히 사전-플래시 주기로 진행할 수도 있다.
도 6 은 일부 실시형태들에 따라, 노출을 결정하기 위한 방법 (600) 의 일 예를 도시하는 플로우차트이다. 방법 (600) 은 블록 (602) 에서 시작하고 블록 (604) 으로 진행할 수도 있다. 블록 (604) 에서, 방법 (600) 은 TOF 시스템을 통해 광 신호를 타겟 오브젝트를 향해 방사할 수도 있다. TOF 시스템은 도 2 및 도 3 과 관련하여 앞서 설명된 것과 같이, (광 방사기 및 광 센서 양자를 포함하는) TOF 시스템 (214/317) 을 포함할 수도 있다. 일부 실시형태들에서, TOF 시스템은 각각 도 2 및 도 3 에 도시된 이미지 캡처 디바이스들 (202 및 302) 과 같은 이미지 캡처 디바이스의 부분일 수도 있다. TOF 시스템은 프로세서 (예컨대, 이미지 프로세서 (320) 또는 디바이스 프로세서 (350) 중 하나) 를 통해 또는 도 3 과 관련하여 앞서 설명된 임의의 모듈들을 통해 제어될 수도 있다. 광 신호가 생성되고 타겟 오브젝트를 향해 방사되면, 방법 (600) 은 블록 (606) 으로 진행한다.
블록 (606) 에서, 방법 (600) 은 각각 도 2 및 도 3 에서 참조된 것과 같이, 광 센서, 예컨대 광 센서 (220/318) 를 통해 방사된 광 신호의 타겟 오브젝트에 대한 반사를 감지한다. 일부 실시형태들에서, TOF 시스템의 광 센서는 수신된 반사에 관한 정보를 이미지 캡처 디바이스의 프로세서에 통신할 수도 있거나, 또는 작업 메모리 (305) 또는 전자 스토리지 모듈 (310) 과 같은 메모리에 정보를 저장할 수도 있다. 대안적으로, 광 센서로부터의 정보는 도 3 에 도시된 것과 같은 이미지 캡처 디바이스 (302) 에서의 임의의 모듈들로 통신될 수도 있다. 반사된 광이 TOF 시스템의 광 센서에 의해 감지된다면, 방법 (600) 은 블록 (608) 으로 진행한다.
블록 (608) 에서, 방법 (600) 은 광 센서에 의해 감지된 것과 같은 방사된 광 신호의 반사에 기초하여 리턴 에너지를 결정한다. 리턴 에너지는 광 센서 자체에 의해 결정될 수도 있거나, 또는 프로세서들 중 하나에 의해 결정될 수도 있다. 대안적으로, 또는 부가적으로, 리턴 에너지는 도 3 의 이미지 캡처 디바이스 (302) 의 모듈들, 예컨대 거리/반사율 모듈 (340) 또는 TOF 모듈 (355) 중 하나 이상에 의한 방사된 광 신호의 반사에 기초하여 결정될 수도 있다. 방법 (600) 이 방사된 광 신호의 반사에 기초하여 반사된 에너지를 결정하면, 방법 (600) 은 블록 (610) 으로 진행한다. 블록 (610) 에서, 방법 (600) 은 광 신호가 TOF 시스템의 광 에미터에 의해 방사될 때와 TOF 시스템의 광 센서가 타겟 오브젝트에서의 방사된 광 신호의 반사를 감지할 때 간의 시간을 측정한다. 일부 실시형태들에서, 시간의 측정은 프로세서에 의해 또는 도 3 의 이미지 캡처 디바이스 (302) 의 모듈들, 예컨대 거리/반사율 모듈 (340) 또는 TOF 모듈 (355) 중 하나 이상에 의해 수행될 수도 있다. 일부 실시형태들에서, 시간의 측정은 클록 (351) 을 수반할 수도 있다. 일부 실시형태들에서, 측정의 결과들은 메모리에 저장될 수도 있거나, 또는 프로세서들 또는 임의의 연관된 모듈들로 통신될 수도 있다. 시간이 측정되었다면, 방법 (600) 은 블록 (612) 으로 진행한다.
블록 (612) 에서, 방법 (600) 은 측정된 시간에 기초하여 타겟 오브젝트와 TOF 시스템 간의 거리를 결정한다. 일부 실시형태들에서, 이러한 결정은 TOF 시스템 자체 또는 프로세서들 중 하나에 의해 수행될 수도 있다. 일부 실시형태들에서, 이미지 캡처 디바이스 (302) 의 거리/반사율 모듈 (340) 에 의해 결정이 실행될 수도 있다. 일부 실시형태들에서, 결정된 거리는 메모리들 중 하나에 저장될 수도 있거나 또는 모듈들 또는 프로세서들 중 하나에 의해 즉시 사용될 수도 있다. 블록 (612) 이 완료하면, 방법 (600) 은 블록 (614) 으로 진행한다. 블록 (614) 에서, 방법 (600) 은 리턴된 에너지에 기초하여 타겟 오브젝트의 반사율을 식별한다. 일부 실시형태들에서, 반사율은 거리/반사율 모듈 (340) 또는 TOF 시스템에 의해 식별될 수도 있다. 일부 실시형태들에서, 프로세서들 중 하나 또는 다른 모듈들 중 하나는 감지된 반사 및 식별된 주변 또는 비-플래시 조명에 기초하여 타겟 오브젝트의 반사율을 식별하도록 구성될 수도 있다. 일부 실시형태들에서, 반사율은 광 센서에 의해 감지된 것과 같은 리턴된 에너지에 기초하여 결정될 수도 있다. 일부 실시형태들에서, 반사율을 식별하는 것은 또한, 하나 이상의 다른 측정된, 식별된, 또는 결정된 파라미터 (예컨대, 주변광 노출, 등) 를 통합할 수도 있다. 반사율이 블록 (614) 에서 결정되면, 방법 (600) 은 블록 (616) 으로 진행한다.
블록 (616) 에서, 방법 (600) 은 결정된 거리 및 식별된 반사율에 기초하여 타겟 오브젝트의 노출 레벨을 결정한다. 일부 실시형태들에서, 노출 레벨의 결정은 도 3 의 AEC 모듈 (360) 또는 프로세서들 중 하나 또는 다른 모듈들 중 하나에 의해 수행될 수도 있다. 일부 실시형태들에서, 노출 레벨은 광 센서에 의해 결정될 수도 있다. 일부 실시형태들에서, 노출 레벨은 메모리들 중 하나에 저장될 수도 있거나 또는 도 3 의 이미지 캡처 디바이스 (302) 의 모듈들 중 하나에 직접 통신될 수도 있다. 노출 레벨이 결정된다면, 방법 (600) 은 블록 (618) 에서 종료한다.
일부 실시형태들에서, 앞서 설명된 결정되거나, 식별되거나, 측정되거나, 또는 생성된 값들 또는 양들은 도 3 에 의해 참조되는 것과 같이, 예컨대 디스플레이 (325) 상에 디스플레이되거나, 또는 작업 메모리 (305) 또는 전자 스토리지 모듈 (310) 에 저장되거나 프로세서들 중 하나에 의해 프로세싱될 수도 있다.
본원에서 이용되는 바와 같이, 용어 "결정하는" 는 매우 다양한 액션들을 망라한다. 예를 들어, "결정하는" 은 계산하는, 컴퓨팅, 프로세싱, 도출하는, 조사하는, 검색하는(예를 들어, 테이블, 데이터베이스, 또는 다른 데이터 구조에서 검색하는), 확인하는 등을 포함할 수도 있다. 또한, "결정하는" 은 수신하는 (예를 들면, 정보를 수신하는), 액세스하는 (메모리의 데이터에 액세스하는) 등을 포함할 수 있다. 또한, "결정하는" 은 해결하는, 선택하는, 고르는, 확립하는 등을 포함할 수 있다. 추가로, 본 명세서에서 사용된 바와 같은 "채널 폭" 은 특정 양태들에 있어서 대역폭을 포괄할 수도 있거나 또는 대역폭으로서 또한 지칭될 수도 있다.
본원에서 이용되는 바와 같이, 아이템들의 리스트 중 "중 적어도 하나" 를 지칭하는 구절은 단일 멤버들을 포함하여, 이들 아이템들의 임의의 조합을 지칭한다. 예로서, "a, b, 또는 c: 중 적어도 하나" 는 a, b, c, a-b, a-c, b-c, 및 a-b-c 를 포함하도록 의도된다.
상기 설명된 방법들의 다양한 동작들은 다양한 하드웨어 및/또는 소프트웨어 컴포넌트(들), 회로들, 및/또는 모듈(들)과 같이 그 동작들을 수행 가능한 임의의 적절한 수단에 의해 수행될 수도 있다. 일반적으로, 도면들에서 도시된 임의의 동작들은 그 동작들을 수행할 수 있는 대응하는 기능적 수단에 의해 수행될 수도 있다.
본 명세서에서 사용된 바와 같이, 용어 인터페이스는 2 이상의 디바이스들을 함께 접속하도록 구성된 하드웨어 또는 소프트웨어를 지칭할 수도 있다. 예를 들어, 인터페이스는 프로세서 또는 버스의 부분일 수도 있고, 디바이스들 간의 정보 또는 데이터의 통신을 허용하도록 구성될 수도 있다. 인터페이스는 칩 또는 다른 디바이스로 통합될 수도 있다. 예를 들어, 일부 실시형태들에 있어서, 인터페이스는 다른 디바이스에서의 디바이스로부터 정보 또는 통신물들을 수신하도록 구성된 수신기를 포함할 수도 있다. (예를 들어, 프로세서 또는 버스의) 인터페이스는 프론트 엔드 또는 다른 디바이스에 의해 프로세싱된 정보 또는 데이터를 수신할 수도 있거나 또는 수신된 정보를 프로세싱할 수도 있다. 일부 실시형태들에 있어서, 인터페이스는 정보 또는 데이터를 다른 디바이스에 송신 또는 통신하도록 구성된 송신기를 포함할 수도 있다. 따라서, 인터페이스는 정보 또는 데이터를 송신할 수도 있거나 또는 (예를 들어, 버스를 통해) 송신용으로 출력하기 위한 정보 또는 데이터를 준비할 수도 있다.
본 개시와 관련하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 및 회로들은 범용 프로세서, 디지털 신호 프로세서 (DSP), 주문형 집적회로 (ASIC), 필드 프로그래밍가능 게이트 어레이 신호 (FPGA) 또는 다른 프로그래밍가능 로직 디바이스 (PLD), 이산 게이트 또는 트랜지스터 로직, 이산 하드웨어 컴포넌트들, 또는 본 명세서에서 설명된 기능들을 수행하도록 설계된 이들의 임의의 조합으로 구현 또는 수행될 수도 있다. 범용 프로세서는 마이크로프로세서일 수도 있지만, 대안적으로, 그 프로세서는 임의의 상업적으로 입수가능한 프로세서, 제어기, 마이크로 제어기, 또는 상태 머신일 수도 있다. 프로세서는 또한 컴퓨팅 디바이스들의 조합, 예를 들면, DSP와 마이크로프로세서의 조합, 복수의 마이크로프로세서들의 조합, DSP 코어와 연계한 하나 이상의 마이크로프로세서들의 조합, 또는 임의의 다른 그러한 구성으로서 구현될 수도 있다.
하나 이상의 양태들에서, 설명된 기능들은 하드웨어, 소프트웨어, 펌웨어 또는 이들의 임의의 조합으로 구현될 수도 있다. 소프트웨어로 구현된다면, 상기 기능들은 하나 이상의 명령들 또는 코드로서 컴퓨터 판독 가능한 매체 상에 저장될 수도 있다. 컴퓨터 판독가능 매체들은 컴퓨터 저장 매체들을 포함한다. 저장 매체는, 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수도 있다. 비제한적인 예로서, 이러한 컴퓨터 판독 가능한 매체는 RAM, ROM, EEPROM, CD-ROM 또는 다른 광학 디스크 스토리지, 자기 디스크 스토리지 또는 다른 자기 스토리지 디바이스들, 또는 요구되는 프로그램 코드를 명령들 또는 데이터 구조들의 형태로 이송 또는 저장하기 위해 사용될 수 있으며 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있다. 본원에서 이용되는 바와 같은 디스크 (disk) 및 디스크 (disc) 는 CD (compact disc), 레이저 디스크, 광 디스크, DVD (digital versatile disc), 플로피 디스크, 및 블루레이 디스크를 포함하는데, 여기서 디스크 (disk) 는 보통 데이터를 자기적으로 재생하며, 반면 디스크 (disc) 는 레이저들을 이용하여 광학적으로 데이터를 재생한다. 따라서, 일부 양태들에 있어서, 컴퓨터 판독가능 매체는 비-일시적인 컴퓨터 판독가능 매체 (예를 들어, 유형의 매체들) 를 포함할 수도 있다. 위의 조합들도 컴퓨터 판독가능 매체들의 범위 내에 포함되어야 한다.
본원에서 개시된 방법들은 상술된 방법을 달성하기 위한 하나 이상의 단계들 또는 액션들을 포함한다. 방법 단계들 및/또는 작동들은 청구항들의 범위를 벗어나지 않으면서 서로 상호 교환될 수도 있다. 즉, 단계들 또는 액션들의 특정 순서가 명시되지 않으면, 특정 단계들 및/또는 액션들의 순서 및/또는 그 사용은 청구항들의 범위로부터 일탈함없이 수정될 수도 있다.
설명된 기능들은 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 임의의 조합에서 구현될 수도 있다. 소프트웨어에서 구현된다면, 그 기능들은 하나 이상의 명령들로서 컴퓨터 판독가능 매체 상에 저장될 수도 있다. 저장 매체는, 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수도 있다. 비제한적인 예로서, 이러한 컴퓨터 판독 가능한 매체는 RAM, ROM, EEPROM, CD-ROM 또는 다른 광학 디스크 스토리지, 자기 디스크 스토리지 또는 다른 자기 스토리지 디바이스들, 또는 요구되는 프로그램 코드를 명령들 또는 데이터 구조들의 형태로 이송 또는 저장하기 위해 사용될 수 있으며 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있다. 본 명세서에서 사용된 바와 같이, 디스크 (disk) 및 디스크 (disc) 는 컴팩트 디스크 (CD), 레이저 디스크, 광학 디스크, 디지털 다기능 디스크 (DVD), 플로피 디스크 및 블루레이 디스크를 포함하며, 여기서, 디스크 (disk) 들은 통상적으로 데이터를 자기적으로 재생하지만 디스크 (disc) 들은 레이저들을 이용하여 데이터를 광학적으로 재생한다.
따라서, 특정 양태들은, 본 명세서에서 제시된 동작들을 수행하기 위한 컴퓨터 프로그램 제품을 포함할 수도 있다. 예를 들어, 그러한 컴퓨터 프로그램 제품은 명령들이 저장된 (및/또는 인코딩된) 컴퓨터 판독가능 매체를 포함할 수도 있으며, 그 명령들은 본 명세서에서 설명된 동작들을 수행하기 위해 하나 이상의 프로세서들에 의해 실행가능하다. 특정 양태들에 대해, 컴퓨터 프로그램 제품은 패키징 재료를 포함할 수도 있다.
추가로, 본 명세서에서 설명된 방법들 및 기법들을 수행하기 위한 모듈들 및/또는 다른 적절한 수단은, 적용가능할 경우, 사용자 단말기 및/또는 기지국에 의해 다운로드되고/되거나 그렇지 않으면 획득될 수 있음을 인식해야 한다. 예를 들어, 그러한 디바이스는 서버에 커플링되어, 본 명세서에서 설명된 방법들을 수행하는 수단의 전송을 용이하게 할 수 있다. 대안적으로, 본 명세서에서 설명된 다양한 방법들은 저장 수단 (예를 들어, RAM, ROM, 컴팩트 디스크 (CD) 또는 플로피 디스크와 같은 물리적 저장 매체 등) 을 통해 제공될 수 있어서, 그 저장 수단을 디바이스에 커플링 또는 제공할 시, 사용자 단말기 및/또는 기지국이 다양한 방법들을 획득할 수 있다. 더욱이, 본 명세서에서 설명된 방법들 및 기술들을 디바이스에 제공하기 위한 임의의 다른 적합한 기술이 활용될 수 있다.
청구항들은 상기 예시된 정확한 구성 및 컴포넌트들에 한정되지 않음을 이해해야 한다. 다양한 수정들, 변경들 및 변이들이 청구항들의 범위로부터 일탈함없이, 상기 설명된 방법들 및 장치의 배열, 동작 및 상세들에서 행해질 수도 있다.
전술한 바는 본 개시의 양태들에 관한 것이지만, 본 개시의 다른 양태들 및 추가의 양태들이 그 기본적인 범위로부터 일탈함없이 발명될 수도 있으며, 그 범위는 뒤이어지는 청구항들에 의해 결정된다.

Claims (43)

  1. 이미징 장치로서,
    타겟 오브젝트까지의 거리를 결정하고 상기 타겟 오브젝트의 반사율을 결정하도록 구성된 비행시간 (TOF) 시스템;
    상기 타겟 오브젝트를 조명하기 위해 사전-플래시 및 메인 플래시를 방사하도록 구성된 플래시 회로; 및
    상기 TOF 시스템 및 상기 플래시 회로와 통신하는 프로세서를 포함하고,
    상기 프로세서는,
    상기 타겟 오브젝트까지의 거리 및 상기 타겟 오브젝트의 반사율에 기초하여 제 1 노출 레벨을 결정하고,
    상기 제 1 노출 레벨에 기초하여 출력 레벨에서 상기 사전-플래시를 방사하도록 상기 플래시 회로를 제어하고,
    상기 사전-플래시에 의한 상기 타겟 오브젝트의 조명에 기초하여 상기 타겟 오브젝트의 제 2 노출 레벨을 결정하고,
    상기 메인 플래시를 방사하도록 상기 플래시 회로를 제어하는 것으로서, 상기 메인 플래시는 상기 제 2 노출 레벨에 기초하는 출력 레벨을 가지는, 상기 메인 플래시를 방사하도록 상기 플래시 회로를 제어하고, 그리고
    상기 타겟 오브젝트가 상기 메인 플래시에 의해 조명되는 동안 상기 타겟 오브젝트의 이미지를 캡처하도록 상기 이미징 장치의 카메라를 제어하도록
    구성되는, 이미징 장치.
  2. 제 1 항에 있어서,
    상기 프로세서는 주변 광 조건들 하의 상기 타겟 오브젝트의 밝기 레벨을 결정하도록 구성되는, 이미징 장치.
  3. 제 2 항에 있어서,
    상기 프로세서는 추가로, 주변 광 조건들 하의 상기 타겟 오브젝트의 밝기에 적어도 부분적으로 기초하여 상기 제 1 노출 레벨을 결정하도록 구성되는, 이미징 장치.
  4. 제 1 항에 있어서,
    카메라를 더 포함하는, 이미징 장치.
  5. 제 1 항에 있어서,
    결정된 상기 제 1 노출 레벨 및 상기 제 2 노출 레벨에 기초하여 상기 카메라의 노출을 조절하도록 구성된 자동 노출 제어 (AEC) 모듈을 더 포함하는, 이미징 장치.
  6. 제 1 항에 있어서,
    상기 타겟 오브젝트까지의 거리를 사용하여 상기 카메라의 포커스를 조절하도록 구성된 자동 포커스 (AF) 모듈을 더 포함하는, 이미징 장치.
  7. 제 1 항에 있어서,
    상기 TOF 시스템은 상기 카메라의 시계 (FOV) 에 걸친 거리 정보 포인트들을 생성하도록 구성되는, 이미징 장치.
  8. 제 7 항에 있어서,
    상기 TOF 시스템은 거리 정보를 사용하여 상기 카메라의 상기 FOV 에서 상기 타겟 오브젝트의 포지션을 검출하도록 구성되는, 이미징 장치.
  9. 제 1 항에 있어서,
    상기 프로세서는 추가로, 상기 타겟 오브젝트의 상기 반사율, 상기 타겟 오브젝트의 상기 거리 및 주변 조명 조건들에 기초하여 상기 제 1 노출 레벨을 결정하도록 구성되는, 이미징 장치.
  10. 제 1 항에 있어서,
    상기 프로세서는 추가로, 캘리브레이션 정보에 기초하여 상기 제 1 노출 레벨을 결정하도록 구성되고,
    상기 캘리브레이션 정보는 복수의 거리들에서 캡처된 제 1 오브젝트의 노출 레벨들에 관련된 정보 또는 고정된 거리에서 복수의 오브젝트들의 노출 레벨들에 관련된 정보를 포함하고, 상기 복수의 오브젝트들의 각각은 상이한 반사율을 가지는, 이미징 장치.
  11. 이미지를 캡처하기 위한 방법으로서,
    타겟 오브젝트까지의 거리 및 상기 타겟 오브젝트의 반사율을 결정하는 단계;
    상기 타겟 오브젝트까지의 거리 및 상기 타겟 오브젝트의 반사율에 기초하여 제 1 노출 레벨을 결정하는 단계;
    상기 제 1 노출 레벨에 기초하여 출력 레벨에서 사전-플래시를 방사하도록 플래시 회로를 제어하는 단계;
    상기 사전-플래시에 의한 상기 타겟 오브젝트의 조명에 기초하여 상기 타겟 오브젝트의 제 2 노출 레벨을 결정하는 단계;
    메인 플래시를 방사하도록 상기 플래시 회로를 제어하는 단계로서, 상기 메인 플래시는 상기 제 2 노출 레벨에 기초하는 출력 레벨을 가지는, 상기 메인 플래시를 방사하도록 상기 플래시 회로를 제어하는 단계; 및
    상기 타겟 오브젝트가 상기 메인 플래시에 의해 조명될 때 상기 타겟 오브젝트의 이미지를 캡처하도록 카메라를 제어하는 단계를 포함하는, 이미지를 캡처하기 위한 방법.
  12. 제 11 항에 있어서,
    프로세서를 통해 주변 광 조건들 하의 상기 타겟 오브젝트의 밝기 레벨을 결정하는 단계를 더 포함하는, 이미지를 캡처하기 위한 방법.
  13. 제 12 항에 있어서,
    주변 광 조건들 하의 상기 타겟 오브젝트의 밝기에 기초하여 상기 제 1 노출 레벨을 결정하는 단계를 더 포함하는, 이미지를 캡처하기 위한 방법.
  14. 제 12 항에 있어서,
    상기 카메라를 제어하는 단계는, 상기 제 2 노출 레벨로 상기 이미지를 캡처하도록 상기 카메라를 조절하는 단계를 더 포함하는, 이미지를 캡처하기 위한 방법.
  15. 제 14 항에 있어서,
    자동 노출 제어 (AEC) 모듈을 통해, 결정된 상기 제 1 노출 레벨 및 상기 제 2 노출 레벨에 기초하여 상기 카메라의 노출을 조절하는 단계를 더 포함하는, 이미지를 캡처하기 위한 방법.
  16. 제 14 항에 있어서,
    자동 포커스 (AF) 모듈을 통해, 상기 타겟 오브젝트의 거리에 기초하여 상기 카메라의 포커스를 조절하는 단계를 더 포함하는, 이미지를 캡처하기 위한 방법.
  17. 제 11 항에 있어서,
    상기 타겟 오브젝트의 반사율, 상기 타겟 오브젝트와 TOF 시스템 간의 거리, 및 주변 광 조건들에 기초하여 상기 제 1 노출 레벨을 결정하는 단계를 더 포함하는, 이미지를 캡처하기 위한 방법.
  18. 제 11 항에 있어서,
    캘리브레이션 정보에 기초하여 상기 제 1 노출 레벨을 결정하는 단계를 더 포함하며,
    상기 캘리브레이션 정보는 복수의 거리들에서 캡처된 제 1 오브젝트의 노출 레벨들에 관련된 정보 또는 고정된 거리에서 복수의 오브젝트들의 노출 레벨들에 관련된 정보를 포함하고, 상기 복수의 오브젝트들의 각각은 상이한 반사율을 가지는, 이미지를 캡처하기 위한 방법.
  19. 이미징 장치로서,
    타겟 오브젝트까지의 거리를 결정하는 수단;
    상기 타겟 오브젝트의 반사율을 결정하는 수단;
    상기 타겟 오브젝트까지의 거리 및 상기 타겟 오브젝트의 반사율에 기초하여 제 1 노출 레벨을 결정하는 수단;
    상기 제 1 노출 레벨에 기초하여 출력 레벨에서 사전-플래시를 방사하는 수단;
    상기 사전-플래시에 의한 상기 타겟 오브젝트의 조명에 기초하여 제 2 노출 레벨을 결정하는 수단;
    상기 제 2 노출 레벨에 기초하는 출력 레벨을 가지는 메인 플래시를 방사하는 수단; 및
    상기 타겟 오브젝트가 상기 메인 플래시에 의해 조명될 때 상기 타겟 오브젝트의 이미지를 캡처하도록 카메라를 제어하는 수단을 포함하는, 이미징 장치.
  20. 제 19 항에 있어서,
    주변 광 조건들 하의 상기 타겟 오브젝트의 밝기 레벨을 결정하는 수단을 더 포함하는, 이미징 장치.
  21. 제 20 항에 있어서,
    상기 제 1 노출 레벨을 결정하는 수단은 주변 광 조건들 하의 상기 타겟 오브젝트의 밝기에 기초하여 상기 제 1 노출 레벨을 결정하도록 구성되는, 이미징 장치.
  22. 제 20 항에 있어서,
    상기 카메라를 더 포함하는, 이미징 장치.
  23. 제 22 항에 있어서,
    결정된 상기 제 1 노출 레벨 및 상기 제 2 노출 레벨에 기초하여 상기 카메라를 자동 노출 제어 (AEC) 하는 수단을 더 포함하는, 이미징 장치.
  24. 제 22 항에 있어서,
    결정된 상기 제 1 노출 레벨 및 제 2 노출 레벨에 기초하여 상기 카메라를 자동으로 포커싱 (AF) 하는 수단을 더 포함하는, 이미징 장치.
  25. 제 19 항에 있어서,
    상기 제 1 노출 레벨을 결정하는 수단은 추가로, 상기 타겟 오브젝트의 반사율, 상기 타겟 오브젝트의 거리, 및 주변 조명 조건들에 기초하여 상기 제 1 노출 레벨을 결정하도록 구성되는, 이미징 장치.
  26. 제 19 항에 있어서,
    상기 제 1 노출 레벨을 결정하는 수단은 캘리브레이션 정보에 기초하여 상기 제 1 노출 레벨을 결정하도록 구성되며,
    상기 캘리브레이션 정보는 복수의 거리들에서 캡처된 제 1 오브젝트의 노출 레벨들에 관련된 정보 또는 고정된 거리에서 복수의 오브젝트들의 노출 레벨들에 관련된 정보를 포함하고, 상기 복수의 오브젝트들의 각각은 상이한 반사율을 가지는, 이미징 장치.
  27. 명령들이 인코딩된 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램으로서,
    상기 명령들은, 실행될 때 장치로 하여금 이미지를 캡처하는 방법을 수행하게 하고, 상기 이미지를 캡처하는 방법은,
    타겟 오브젝트까지의 거리 및 상기 타겟 오브젝트의 반사율을 결정하는 단계;
    상기 타겟 오브젝트까지의 거리 및 상기 타겟 오브젝트의 반사율에 기초하여 제 1 노출 레벨을 결정하는 단계;
    상기 제 1 노출 레벨에 기초하여 출력 레벨에서 사전-플래시를 방사하도록 플래시 회로를 제어하는 단계;
    상기 사전-플래시에 의한 상기 타겟 오브젝트의 조명에 기초하여 제 2 노출 레벨을 결정하는 단계;
    상기 제 2 노출 레벨에 기초하여 메인 플래시를 방사하도록 상기 플래시 회로를 제어하는 단계; 및
    상기 타겟 오브젝트가 상기 메인 플래시에 의해 조명될 때 카메라를 통해 상기 타겟 오브젝트의 이미지를 캡처하는 단계
    를 포함하는, 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
  28. 제 1 항에 있어서,
    상기 TOF 시스템은,
    광 신호를 방사하도록 구성된 방사기, 및
    방사된 상기 광 신호의 타겟 오브젝트로부터의 반사를 감지하도록 구성된 감지 시스템으로서, 상기 TOF 시스템은 추가로, 방사된 상기 광 신호의 감지된 반사에 기초하여 리턴 에너지를 결정하도록 구성되는, 상기 감지 시스템을 포함하는 이미징 장치.
  29. 제 28 항에 있어서,
    상기 프로세서는 추가로, 상기 리턴 에너지에 기초하여 상기 타겟 오브젝트의 신호대 잡음비 (SNR) 를 식별하도록 구성되고,
    상기 SNR 은 상기 타겟 오브젝트의 상기 반사율에 대응하는, 이미징 장치.
  30. 제 28 항에 있어서,
    방사된 상기 광 신호는 적외선 (IR) 광 신호인, 이미징 장치.
  31. 제 28 항에 있어서,
    상기 TOF 시스템에 커플링된 클록을 더 포함하며,
    상기 클록은 상기 광 신호가 방사될 때와 방사된 상기 광 신호의 상기 리턴 에너지가 상기 감지 시스템에 의해 감지될 때 사이의 시간을 결정하도록 구성되는, 이미징 장치.
  32. 제 31 항에 있어서,
    상기 프로세서는 상기 클록과 통신하고, 상기 프로세서는 결정된 상기 시간에 기초하여 상기 타겟 오브젝트와 상기 TOF 시스템 간의 거리를 결정하도록 구성되는, 이미징 장치.
  33. 제 28 항에 있어서,
    상기 프로세서는 방사된 상기 광 신호의 상기 리턴 에너지에 기초하여 상기 타겟 오브젝트의 반사율을 결정하도록 구성되는, 이미징 장치.
  34. 제 11 항에 있어서,
    비행시간 (TOF) 시스템을 통해 광 신호를 방사하는 단계;
    상기 TOF 시스템을 통해, 방사된 광 신호의 상기 타겟 오브젝트로부터의 반사를 감지하는 단계;
    상기 TOF 시스템에 커플링된 클록을 사용하여, 상기 광 신호가 방사될 때와 방사된 상기 광 신호의 반사가 감지될 때 사이의 시간을 결정하는 단계를 더 포함하며,
    상기 TOF 시스템으로부터 상기 타겟 오브젝트까지의 거리는 결정된 상기 시간에 기초하여 결정되는, 이미지를 캡처하기 위한 방법.
  35. 제 34 항에 있어서,
    방사된 상기 광 신호는 적외선 (IR) 광 신호인, 이미지를 캡처하기 위한 방법.
  36. 제 11 항에 있어서,
    비행시간 (TOF) 시스템을 통해 광 신호를 방사하는 단계;
    상기 TOF 시스템을 통해, 방사된 광 신호의 상기 타겟 오브젝트로부터의 반사를 감지하는 단계;
    상기 방사된 광 신호의 감지된 반사에 기초하여 리턴 에너지를 결정하는 단계를 더 포함하며,
    상기 타겟 오브젝트의 반사율은 상기 방사된 광 신호의 상기 리턴 에너지에 기초하여 결정되는, 이미지를 캡처하기 위한 방법.
  37. 제 36 항에 있어서,
    상기 리턴 에너지에 기초하여 상기 타겟 오브젝트의 신호대 잡음비 (SNR) 를 식별하는 단계를 더 포함하고,
    상기 SNR 은 상기 타겟 오브젝트의 상기 반사율에 대응하는, 이미지를 캡처하기 위한 방법.
  38. 제 36 항에 있어서,
    상기 방사된 광 신호는 적외선 (IR) 광 신호인, 이미지를 캡처하기 위한 방법.
  39. 제 19 항에 있어서,
    광 신호의 비행시간 (TOF) 을 식별하는 수단으로서, 상기 비행시간 (TOF) 을 식별하는 수단은,
    광 신호를 방사하는 수단, 및
    방사된 상기 광 신호의 상기 타겟 오브젝트로부터의 반사를 감지하는 수단
    을 포함하는, 상기 비행시간 (TOF) 을 식별하는 수단; 및
    상기 광 신호가 방사될 때와 방사된 상기 광 신호의 리턴 에너지가 감지될 때 사이의 시간을 결정하는 수단을 더 포함하며,
    상기 타겟 오브젝트까지의 거리를 결정하는 수단은 측정된 결정된 시간에 기초하여 상기 타겟 오브젝트까지의 거리를 결정하는, 이미징 장치.
  40. 제 39 항에 있어서,
    방사된 상기 광 신호는 적외선 (IR) 광 신호인, 이미징 장치.
  41. 제 19 항에 있어서,
    광 신호의 비행시간 (TOF) 을 식별하는 수단으로서, 상기 비행시간 (TOF) 을 식별하는 수단은,
    광 신호를 방사하는 수단, 및
    방사된 상기 광 신호의 상기 타겟 오브젝트로부터의 반사를 감지하는 수단
    을 포함하는, 상기 비행시간 (TOF) 을 식별하는 수단; 및
    방사된 상기 광 신호의 감지된 반사에 기초하여 리턴 에너지를 결정하는 수단을 더 포함하며,
    상기 타겟 오브젝트까지의 반사율을 결정하는 수단은 방사된 상기 광 신호의 상기 리턴 에너지에 기초하여 상기 타겟 오브젝트의 반사율을 결정하는, 이미징 장치.
  42. 제 41 항에 있어서,
    반사율을 식별하는 수단은 추가로, 상기 리턴 에너지에 기초하여 상기 타겟 오브젝트의 신호대 잡음비 (SNR) 를 식별하도록 구성되고, 상기 SNR 은 상기 타겟 오브젝트의 상기 반사율에 대응하는, 이미징 장치.
  43. 제 41 항에 있어서,
    방사된 상기 광 신호는 적외선 (IR) 광 신호인, 이미징 장치.
KR1020177037159A 2015-06-25 2016-04-26 비행시간 센서를 사용하여 노출 추정을 수행하기 위한 방법들 및 장치들 KR102604336B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/750,209 US9638791B2 (en) 2015-06-25 2015-06-25 Methods and apparatus for performing exposure estimation using a time-of-flight sensor
US14/750,209 2015-06-25
PCT/US2016/029345 WO2016209359A1 (en) 2015-06-25 2016-04-26 Methods and apparatus for performing exposure estimation using a time-of-flight sensor

Publications (2)

Publication Number Publication Date
KR20180019606A KR20180019606A (ko) 2018-02-26
KR102604336B1 true KR102604336B1 (ko) 2023-11-20

Family

ID=56069202

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177037159A KR102604336B1 (ko) 2015-06-25 2016-04-26 비행시간 센서를 사용하여 노출 추정을 수행하기 위한 방법들 및 장치들

Country Status (7)

Country Link
US (1) US9638791B2 (ko)
EP (1) EP3314299A1 (ko)
JP (1) JP6756747B2 (ko)
KR (1) KR102604336B1 (ko)
CN (1) CN107743590B (ko)
BR (1) BR112017027969B1 (ko)
WO (1) WO2016209359A1 (ko)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI706181B (zh) * 2015-09-11 2020-10-01 新加坡商海特根微光學公司 具有自動對焦控制的成像裝置
US9912861B1 (en) * 2016-03-02 2018-03-06 Amazon Technologies, Inc. Systems and methods for determining a depth or reflectance of objects
KR101946941B1 (ko) * 2016-06-13 2019-04-29 엘지전자 주식회사 야간 영상표시 장치
US10904448B2 (en) * 2017-07-13 2021-01-26 Motorola Mobility Llc Controlling flash behavior during capture of image data
DE102018105301B4 (de) * 2018-03-08 2021-03-18 Sick Ag Kamera und Verfahren zur Erfassung von Bilddaten
US11294039B2 (en) 2018-07-24 2022-04-05 Samsung Electronics Co., Ltd. Time-resolving image sensor for range measurement and 2D greyscale imaging
US11019274B2 (en) 2018-09-10 2021-05-25 Tusimple, Inc. Adaptive illumination for a time-of-flight camera on a vehicle
US11353588B2 (en) * 2018-11-01 2022-06-07 Waymo Llc Time-of-flight sensor with structured light illuminator
CN111372005B (zh) * 2018-12-25 2023-03-24 浙江舜宇智能光学技术有限公司 Tof摄像模组自动曝光补偿方法及其系统
KR20200091197A (ko) * 2019-01-22 2020-07-30 엘지이노텍 주식회사 카메라 장치 및 그의 오토포커싱 방법
CN112639509B (zh) * 2019-03-28 2021-11-09 华为技术有限公司 一种雷达功率控制方法及装置
JP6805448B2 (ja) * 2019-04-23 2020-12-23 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 制御装置、撮像システム、移動体、制御方法、及びプログラム
CN110346780A (zh) * 2019-07-31 2019-10-18 炬佑智能科技(苏州)有限公司 飞行时间传感相机及其局部检测精度调整方法
JP7120181B2 (ja) * 2019-08-22 2022-08-17 トヨタ自動車株式会社 物体認識装置
CN112789522B (zh) * 2019-09-11 2022-03-25 华为技术有限公司 一种目标物的反射率计算方法、装置及相关设备
US11070738B2 (en) * 2019-10-02 2021-07-20 Qualcomm Incorporated Infrared-assisted pre-flash
US11159737B2 (en) 2019-10-14 2021-10-26 Google Llc Exposure change control in low light environments
CN111679289B (zh) * 2020-05-13 2023-05-05 奥比中光科技集团股份有限公司 一种深度计算系统、方法及计算机可读存储介质
CN113928307A (zh) 2020-06-29 2022-01-14 图森有限公司 自动泊车技术
CN114697560A (zh) * 2020-12-31 2022-07-01 浙江舜宇智能光学技术有限公司 基于tof成像系统的主动曝光方法及曝光时间的计算方法
US11630211B1 (en) * 2022-06-09 2023-04-18 Illuscio, Inc. Systems and methods for LiDAR-based camera metering, exposure adjustment, and image postprocessing

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000347237A (ja) 1999-03-31 2000-12-15 Seiko Precision Inc 露光制御装置および測距装置
KR100278806B1 (ko) 1995-01-19 2001-02-01 데이비드 윌리엄 레이저범위탐지기
US20130088576A1 (en) * 2011-10-05 2013-04-11 Pixart Imaging Inc. Optical touch system
US20150009396A1 (en) * 2013-07-03 2015-01-08 Ricoh Imaging Company, Ltd. Apparatus for photographing by using electronic flash
WO2015057535A1 (en) 2013-10-17 2015-04-23 Microsoft Corporation Probabilistic time of flight imaging

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4357083A (en) 1980-10-06 1982-11-02 Polaroid Corporation Method and apparatus using weighted range signal for controlling photographic functions
CN1073712C (zh) 1992-11-30 2001-10-24 旭光学工业株式会社 具有根据焦距自动调节曝光量的装置的小型照相机
JP3627111B2 (ja) * 1995-05-26 2005-03-09 フジノン株式会社 ストロボ内蔵カメラ
AUPR301401A0 (en) * 2001-02-09 2001-03-08 Commonwealth Scientific And Industrial Research Organisation Lidar system and method
JP4389546B2 (ja) 2003-10-23 2009-12-24 株式会社ニコン カメラシステム
JP4466366B2 (ja) * 2004-12-27 2010-05-26 パナソニック電工株式会社 距離画像を用いた人体検知方法および人体検知装置
US20070280673A1 (en) * 2006-05-31 2007-12-06 Kazuo Mikami Lens-interchangeable digital camera
JP4452951B2 (ja) * 2006-11-02 2010-04-21 富士フイルム株式会社 距離画像生成方法及びその装置
US8538166B2 (en) * 2006-11-21 2013-09-17 Mantisvision Ltd. 3D geometric modeling and 3D video content creation
US7586077B2 (en) 2007-07-18 2009-09-08 Mesa Imaging Ag Reference pixel array with varying sensitivities for time of flight (TOF) sensor
US8358370B2 (en) 2007-12-05 2013-01-22 Nxp B.V. Flash light compensation system for digital camera system
EP2107446A1 (en) 2008-04-04 2009-10-07 ETH Zurich System and a method for tracking input devices on LC-displays
JP4604112B2 (ja) * 2008-06-16 2010-12-22 アキュートロジック株式会社 被写体情報測定方法及び被写体情報測定装置、並びに露光制御方法及び、露光制御装置
JP2011024003A (ja) * 2009-07-16 2011-02-03 Fujifilm Corp 立体動画記録方法および装置、動画ファイル変換方法および装置
US8736670B2 (en) * 2009-12-07 2014-05-27 Photon-X, Inc. 3D visualization system
JP2011199798A (ja) * 2010-03-24 2011-10-06 Sony Corp 物理情報取得装置、固体撮像装置、物理情報取得方法
US20120056982A1 (en) * 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
JP5760938B2 (ja) * 2011-10-14 2015-08-12 オムロン株式会社 光学式センサ
US8483557B1 (en) 2012-01-31 2013-07-09 Hewlett-Packard Development Company, L.P. Camera flash filter

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100278806B1 (ko) 1995-01-19 2001-02-01 데이비드 윌리엄 레이저범위탐지기
JP2000347237A (ja) 1999-03-31 2000-12-15 Seiko Precision Inc 露光制御装置および測距装置
US20130088576A1 (en) * 2011-10-05 2013-04-11 Pixart Imaging Inc. Optical touch system
US20150009396A1 (en) * 2013-07-03 2015-01-08 Ricoh Imaging Company, Ltd. Apparatus for photographing by using electronic flash
WO2015057535A1 (en) 2013-10-17 2015-04-23 Microsoft Corporation Probabilistic time of flight imaging
US20150109414A1 (en) 2013-10-17 2015-04-23 Amit Adam Probabilistic time of flight imaging

Also Published As

Publication number Publication date
US9638791B2 (en) 2017-05-02
CN107743590A (zh) 2018-02-27
BR112017027969B1 (pt) 2023-04-18
US20160377708A1 (en) 2016-12-29
BR112017027969A2 (pt) 2018-08-28
WO2016209359A1 (en) 2016-12-29
JP6756747B2 (ja) 2020-09-16
JP2018528633A (ja) 2018-09-27
CN107743590B (zh) 2021-05-07
EP3314299A1 (en) 2018-05-02
KR20180019606A (ko) 2018-02-26

Similar Documents

Publication Publication Date Title
KR102604336B1 (ko) 비행시간 센서를 사용하여 노출 추정을 수행하기 위한 방법들 및 장치들
US20220345613A1 (en) System and method for generating a digital image
JP6200151B2 (ja) 撮像装置および調光制御方法
WO2018194759A1 (en) Methods and apparatus for controlling exposure and synchronization of image sensors
WO2016000330A1 (zh) 一种焦距调节方法、装置和终端、计算机存储介质
JP6460829B2 (ja) 撮像装置、電子機器及び光量変化特性の算出方法
US10609265B2 (en) Methods and apparatus for synchronizing camera flash and sensor blanking
US9992425B2 (en) Image pickup system that performs light emission control, light emission device, light emission control method, and storage medium
US9459351B2 (en) Image system
JP6501463B2 (ja) 撮像装置及びその制御方法
EP3099059B1 (en) Camera having hdr during pre-flash
JP6862114B2 (ja) 処理装置、処理システム、撮像装置、処理方法、プログラム、および記録媒体
JP2001222048A (ja) カメラ
JP7242247B2 (ja) 撮像装置および撮像装置の制御方法
JP4765860B2 (ja) 監視カメラおよび撮像装置
JP2018010116A (ja) 処理装置、処理システム、撮像装置、処理方法、プログラム、および記録媒体
JP2014035446A (ja) 発光制御装置、発光制御プログラム
TWI405458B (zh) Digital camera sensitivity adjustment method
JP2014143645A (ja) 撮像装置及び撮像プログラム
JP2018151464A (ja) 撮像装置及びその制御方法、並びにプログラム
JP2019029836A (ja) 撮像装置
JP2008310233A (ja) 撮像装置および測光領域特定方法
JP2017085434A (ja) 撮像装置
JPH0519328A (ja) 可変プログラム露出制御が可能なttl自動調光カメラ
JP2015012441A (ja) 撮像装置及び撮像方法

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant