KR20180026410A - 오토포커스 트리거를 위한 시스템들 및 방법들 - Google Patents

오토포커스 트리거를 위한 시스템들 및 방법들 Download PDF

Info

Publication number
KR20180026410A
KR20180026410A KR1020177037941A KR20177037941A KR20180026410A KR 20180026410 A KR20180026410 A KR 20180026410A KR 1020177037941 A KR1020177037941 A KR 1020177037941A KR 20177037941 A KR20177037941 A KR 20177037941A KR 20180026410 A KR20180026410 A KR 20180026410A
Authority
KR
South Korea
Prior art keywords
lens
target object
distance
focus
imaging device
Prior art date
Application number
KR1020177037941A
Other languages
English (en)
Other versions
KR102299566B1 (ko
Inventor
벤카타 라비 키란 다야나
카르티케얀 샨무가바디벨루
시종 리우
잉 천 러우
헝-신 우
나라야나 카르틱 사다난담 라비랄라
아다르쉬 아바이 고리케리
Original Assignee
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 인코포레이티드 filed Critical 퀄컴 인코포레이티드
Publication of KR20180026410A publication Critical patent/KR20180026410A/ko
Application granted granted Critical
Publication of KR102299566B1 publication Critical patent/KR102299566B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/12Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • H04N5/23212

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

포커싱을 오토포커싱 트리거링하기 위한 방법 및 시스템들이 본원에 개시된다. 일 예에서, 시스템은 렌즈, 상기 렌즈의 렌즈 파라미터들, 및 렌즈 파라미터들에 대응하는 포커스의 영역들을 저장하도록 구성되는 메모리 컴포넌트, 및 메모리 컴포넌트 및 렌즈에 커플링된 프로세서를 포함할 수도 있다. 프로세서는 제 1 시간 인스턴스에서 타겟 오브젝트 상에 렌즈를 포커싱하고, 기간에 걸쳐 이미징 디바이스로부터 타겟 오브젝트까지의 거리들을 나타내는 정보를 수신하고, 렌즈의 렌즈 파라미터들을 획득하고, 포커스의 영역을 결정하고, 그리고 타겟 오브젝트가 포커스의 영역의 밖에 있음을 타겟 오브젝트까지의 거리가 나타내고 타겟 오브젝트까지의 거리가 지정된 기간 동안 변경되지 않으면, 타겟 오브젝트 상에 재포커싱하도록 제 1 렌즈를 트리거링하도록 구성될 수도 있다.

Description

오토포커스 트리거를 위한 시스템들 및 방법들{SYSTEMS AND METHODS FOR AUTOFOCUS TRIGGER}
본 개시는 일반적으로 이미징 디바이스의 오토포커싱 시스템에 오토포커스 트리거를 제공하는 시스템들 및 방법들에 관한 것이다. 특히, 시스템들 및 방법들은 정지 이미지 및 비디오 포토그래피에서 적용가능한 개선된 오토포커스 트리거링을 제공한다.
오토포커스 (AF) 시스템들은 독립형 카메라들 및 모바일 컴퓨팅 디바이스들 (예를 들어, 셀 폰들 및 테블릿들) 에 통합된 카메라들을 포함한, 이미징 디바이스들에 유비쿼터스적이다. 오토포커스 시스템의 성능은 포커스 및 트리거의 면에서 특징으로 될 수 있다. "포커스"는 렌즈가 현재 장면에 대한 최상의 포커스를 결정하기 위해 여러 렌즈 포지션들로 이동될 수도 있는 실제 오토포커스 동작을 지칭한다. "트리거"는 오토포커스 프로세스가 언제 및/또는 어떤 조건 하에서 시작해야 하는지를 결정하는 기준들을 지칭한다. "트리거" 기능에 대한 종래의 접근 방식은 예를 들어, 이미징 디바이스의 시야 (FOV) 에서의 장면을 모니터링하고, 장면 변화들을 검출하고, 장면 변화들이 현저하면, 오토포커스 동작을 시작 또는 트리거링하는 것을 포함한다. 일부 현재 트리거 기능에서의 문제는 장면 변화를 손실하거나 또는 너무 종종 또는 너무 드물게 오토포커스 동작을 트리거링하는 장면 변화들의 오검출이다.
장면에서의 변화는 장면 내에서 움직이는 오브젝트들, 및/또는 이것이 상이한 장면을 가르키도록 이미징 디바이스가 움직이는 결과일 수도 있다. 일부 기존의 오토포커스 트리거 시스템은 메트릭들을 모니터링하고, 메트릭들에서의 변경들은 재포커싱 동작을 트리거링할 필요가 있는 장면에서의 변경 가능성을 나타낼 수 있다. 이들 메트릭들은 예를 들어 콘트라스트, 루마 또는 노출 및/또는 다양한 장면 디스크립터들을 포함할 수 있다.
종종 오토포커스 동작을 트리거링하기 위한 기존의 접근방식에 이용된 메트릭들은 재포커싱 동작이 필요한지의 여부에 간접적 또는 접선적으로만 관련된다. 예를 들어, 일부 접근 방식에서는 AF 트리거가 언제 필요한지를 나타내기 위해 메트릭으로서 노출에서의 변화가 이용된다. 그러나, AF 동작을 트리거하기 위해 노출 변화에 의존하는 이미징 디바이스는, 예를 들어 다른 오브젝트가, 촬영되거나 또는 필름화되는 오브젝트 상에 그림자를 일시적으로 드리울 때 불필요하게 AF 동작을 트리거링할 수 있다. 이와 반대로, 노출만을 기초로 하는 AF 트리거 기능은 오브젝트의 새로운 포지션에서 오브젝트가 아웃 오브 포커스인 동안 노출이 일정하게 되는 방식으로 오브젝트가 포지션을 이동하는 경우 필요로 하는 AF 동작을 트리거링하는 것을 실패할 수도 있다. 그 결과, 일부 종래 접근방식들에서는, 이미징 디바이스의 오토포커스 동작은 불필요하게 너무 자주 또는 그 반대로 너무 드물게 트리거링된다. 따라서, 오토포커싱 동작이 신뢰성있게 필요한 경우에 트리거링되는 이미징 디바이스의 오토포커스 동작의 트리거링의 타이밍을 결정하는 개선된 시스템들 및 방법들이 필요하다.
본 개시의 시스템들, 방법들 및 디바이스들 각각은 여러 혁신적인 양태들을 가지며, 이들 중 어느 것도 본원에서 개시된 바람직한 속성들에 대해 독자적으로 책임지는 것은 아니다.
이 개시에 설명된 청구물의 혁신적인 일 양태는 제 1 렌즈, 제 1 렌즈의 렌즈 파라미터들, 및 렌즈 파라미터들에 대응하는 포커스의 영역들을 저장하도록 구성되는 메모리 컴포넌트, 및 메모리 및 렌즈에 커플링된 프로세서를 포함하는 시스템에서 구현될 수도 있다. 프로세서는 제 1 시간 인스턴스에서 타겟 오브젝트 상에 제 1 렌즈를 포커싱하고, 기간에 걸쳐 이미징 디바이스로부터 타겟 오브젝트까지의 거리들을 나타내는 정보를 수신하는 것으로서, 제 1 시간 인스턴스는 기간에 포함된, 정보를 수신하고, 제 1 시간 인스턴스에서 제 1 렌즈의 렌즈 파라미터들을 획득하고, 제 1 시간 인스턴스에서의 거리 및 제 1 시간 인스턴스에서의 렌즈 파라미터들에 기초하여 포커스의 영역을 결정하고, 타겟 오브젝트가 포커스의 영역의 밖에 있음을 타겟 오브젝트까지의 거리가 나타내고 타겟 오브젝트까지의 거리가 지정된 기간 동안 변경되지 않으면, 타겟 오브젝트 상에 재포커싱하도록 제 1 렌즈를 트리거링하도록 구성될 수도 있다.
이러한 시스템들은 추가적인 피처들 또는 더 적은 피처들을 포함할 수도 있다. 이러한 시스템들의 여러 실시형태들에서, 렌즈 파라미터들은 제 1 렌즈의 구경을 나타내는 정보 및 제 1 시간 인스턴스에서의 제 1 렌즈의 초점 길이를 나타내는 정보를 포함할 수도 있다. 일부 실시형태들에서, 프로세서는 또한, 포커스의 영역을 결정하기 위해 제 1 렌즈의 렌즈 파라미터들을 취출하고 취출된 렌즈 파라미터들을 이용하도록 메모리 컴포넌트에 액세스하도록 구성될 수도 있다. 메모리 컴포넌트는 렌즈 파라미터들 및 포커스의 연관된 영역들로 구성되고, 프로세서는 또한, 제 1 시간 인스턴스에서 제 1 렌즈의 렌즈 파라미터들과 연관된 포커스의 영역을 메모리 컴포넌트로부터 취출하도록 구성될 수도 있다. 지정된 기간은 미리 정해진 기간을 포함할 수도 있다. 포커스의 영역은 제 1 렌즈의 렌즈 파라미터들과 연관된 필드의 깊이 내에서의 미리 정해진 거리일 수도 있다. 시스템은 프로세서와 커플링되거나 또는 프로세서와 통신하는 범위 검색 시스템을 포함할 수도 있고, 범위 검색 시스템은 이미징 디바이스로부터 타겟 오브젝트까지의 거리를 나타내는 정보를 프로세서에 전송하도록 구성된다. 범위 검색 시스템은 제 1 렌즈 및 제 2 렌즈를 포함할 수도 있고, 범위 검색 시스템은 제 1 렌즈를 이용하여 생성된 이미지와, 제 2 렌즈를 이용하여 생성된 이미지 사이의 디스패리티에 기초하여 이미징 디바이스로부터 타겟 오브젝트까지의 거리를 나타내는 정보를 결정하도록 구성된다. 일부 실시형태들에서, 범위 검색 시스템은 광 이미터를 포함한다. 범위 검색 시스템은 광 이미터에 의해 방출되고 타겟 오브젝트로부터 반사되는 광을 수신하는 것에 기초하여 이미징 디바이스로부터 타겟 오브젝트까지의 거리를 나타내는 정보를 결정하도록 구성될 수도 있다.
다른 혁신은 포커싱하는 방법을 포함하고, 메모리 컴포넌트에서, 제 1 렌즈의 렌즈 파라미터들, 및 렌즈 파라미터들에 대응하는 포커스의 영역들을 저장하는 단계, 제 1 시간 인스턴스에서 타겟 오브젝트 상에 제 1 렌즈를 포커싱하는 단계, 기간에 걸쳐 이미징 디바이스로부터 타겟 오브젝트까지의 거리들을 나타내는 정보를 수신하는 단계로서, 제 1 시간 인스턴스는 기간에 포함된, 정보를 수신하는 단계, 제 1 시간 인스턴스에서 제 1 렌즈의 렌즈 파라미터들을 획득하는 단계, 제 1 시간 인스턴스에서의 거리 및 제 1 시간 인스턴스에서의 렌즈 파라미터들에 기초하여 포커스의 영역을 결정하는 단계, 및 타겟 오브젝트가 포커스의 영역의 밖에 있음을 타겟 오브젝트까지의 거리가 나타내고 타겟 오브젝트까지의 거리가 지정된 기간 동안 변경되지 않으면, 타겟 오브젝트 상에 재포커싱하도록 제 1 렌즈를 트리거링하는 단계를 포함한다.
이러한 방법들은 추가적인 피처들 또는 더 적은 피처들을 포함할 수도 있다. 이러한 방법들의 여러 실시형태들에서, 렌즈 파라미터들은 제 1 렌즈의 구경을 나타내는 정보 및 제 1 시간 인스턴스에서의 제 1 렌즈의 초점 길이를 나타내는 정보를 포함할 수도 있다. 일부 실시형태들에서, 방법은 포커스의 영역을 결정하기 위해 제 1 렌즈의 렌즈 파라미터들을 취출하고 취출된 렌즈 파라미터들을 이용하도록 메모리 컴포넌트에 액세스하는 것을 더 포함한다. 일부 실시형태들에서, 지정된 기간은 미리 정해진 기간을 포함한다. 일부 실시형태들에서, 포커스의 영역은 제 1 렌즈의 렌즈 파라미터들과 연관된 필드의 깊이 내에서의 미리 정해진 거리이다. 일부 실시형태들은 제 1 렌즈를 이용하여 생성된 이미지와, 제 2 렌즈를 이용하여 생성된 이미지 사이의 디스패리티에 기초하여 이미징 디바이스로부터 타겟 오브젝트까지의 거리를 나타내는 정보를 결정하는 단계를 더 포함한다. 일부 실시형태들은 타겟 오브젝트로 광을 방출하고 타겟 오브젝트로부터 반사된 광을 수신하는 것에 기초하여 이미징 디바이스로부터 타겟 오브젝트까지의 거리를 나타내는 정보를 결정하는 단계를 더 포함한다.
다른 혁신은 포커싱하는 시스템을 포함하고, 제 1 렌즈의 렌즈 파라미터들, 및 렌즈 파라미터들에 대응하는 포커스의 영역들을 저장하기 위한 수단, 제 1 시간 인스턴스에서 타겟 오브젝트 상에 제 1 렌즈를 포커싱하기 위한 수단, 기간에 걸쳐 이미징 디바이스로부터 타겟 오브젝트까지의 거리들을 나타내는 정보를 수신하기 위한 수단으로서, 제 1 시간 인스턴스는 기간에 포함된, 정보를 수신하기 위한 수단, 제 1 시간 인스턴스에서 제 1 렌즈의 렌즈 파라미터들을 획득하기 위한 수단, 제 1 시간 인스턴스에서의 거리 및 제 1 시간 인스턴스에서의 렌즈 파라미터들에 기초하여 포커스의 영역을 결정하기 위한 수단, 및 타겟 오브젝트가 포커스의 영역의 밖에 있음을 타겟 오브젝트까지의 거리가 나타내고 타겟 오브젝트까지의 거리가 지정된 기간 동안 변경되지 않으면, 타겟 오브젝트 상에 재포커싱하도록 제 1 렌즈를 트리거링하기 위한 수단을 포함한다.
이러한 시스템들은 추가적인 피처들 또는 더 적은 피처들을 포함할 수도 있다. 렌즈 파라미터들은 제 1 렌즈의 구경을 나타내는 정보 및 제 1 시간 인스턴스에서의 제 1 렌즈의 초점 길이를 나타내는 정보를 포함할 수도 있다. 이러한 시스템의 일부 실시형태들은 포커스의 영역을 결정하기 위해 제 1 렌즈의 렌즈 파라미터들을 취출하고 취출된 렌즈 파라미터들을 이용하기 위한 수단을 더 포함할 수도 있다. 일부 실시형태들에서, 지정된 기간은 미리 정해진 기간을 포함한다. 일부 실시형태들에서, 포커스의 영역은 제 1 렌즈의 렌즈 파라미터들과 연관된 필드의 깊이 내에서의 미리 정해진 거리이다. 일부 실시형태들은 제 1 렌즈를 이용하여 생성된 이미지와, 제 2 렌즈를 이용하여 생성된 이미지 사이의 디스패리티에 기초하여 이미징 디바이스로부터 타겟 오브젝트까지의 거리를 나타내는 정보를 결정하기 위한 수단을 더 포함한다. 일부 실시형태들은 타겟 오브젝트로 광을 방출하고 타겟 오브젝트로부터 반사된 광을 수신하는 것에 기초하여 이미징 디바이스로부터 타겟 오브젝트까지의 거리를 나타내는 정보를 결정하기 위한 수단을 더 포함한다.
다른 혁신은 실행가능한 프로그램 명령들을 포함하는 포커싱하는 방법을 포함하고, 실행가능한 프로그램 명령들은 하나 이상의 컴퓨팅 디바이스들에 의해 실행될 때 메모리 컴포넌트에서, 제 1 렌즈의 렌즈 파라미터들, 및 렌즈 파라미터들에 대응하는 포커스의 영역들을 저장하는 것, 제 1 시간 인스턴스에서 타겟 오브젝트 상에 제 1 렌즈를 포커싱하는 것, 기간에 걸쳐 이미징 디바이스로부터 타겟 오브젝트까지의 거리들을 나타내는 정보를 수신하는 것으로서, 제 1 시간 인스턴스는 기간에 포함된, 정보를 수신하는 것, 제 1 시간 인스턴스에서 제 1 렌즈의 렌즈 파라미터들을 획득하는 것, 제 1 시간 인스턴스에서의 거리 및 제 1 시간 인스턴스에서의 렌즈 파라미터들에 기초하여 포커스의 영역을 결정하는 것, 및 타겟 오브젝트가 포커스의 영역의 밖에 있음을 타겟 오브젝트까지의 거리가 나타내고 타겟 오브젝트까지의 거리가 지정된 기간 동안 변경되지 않으면, 타겟 오브젝트 상에 재포커싱하도록 제 1 렌즈를 트리거링하는 것을 포함하는 동작들을 수행하도록 하나 이상의 컴퓨팅 디바이스들을 구성시킨다. 렌즈 파라미터들은 제 1 렌즈의 구경을 나타내는 정보 및 제 1 시간 인스턴스에서의 제 1 렌즈의 초점 길이를 나타내는 정보를 포함할 수도 있다. 동작들은 포커스의 영역을 결정하기 위해 상기 제 1 렌즈의 렌즈 파라미터들을 취출하고 취출된 상기 렌즈 파라미터들을 이용하도록 상기 메모리 컴포넌트에 액세스하는 것을 더 포함할 수도 있다. 일부 실시형태들에서, 지정된 기간은 미리 정해진 기간을 포함한다. 일부 실시형태들에서, 포커스의 영역은 제 1 렌즈의 렌즈 파라미터들과 연관된 필드의 깊이 내에서의 미리 정해진 거리이다. 일부 실시형태들은 제 1 렌즈를 이용하여 생성된 이미지와, 제 2 렌즈를 이용하여 생성된 이미지 사이의 디스패리티에 기초하여 이미징 디바이스로부터 타겟 오브젝트까지의 거리를 나타내는 정보를 결정하는 단계를 더 포함한다. 일부 실시형태들은 타겟 오브젝트로 광을 방출하고 타겟 오브젝트로부터 반사된 광을 수신하는 것에 기초하여 이미징 디바이스로부터 타겟 오브젝트까지의 거리를 나타내는 정보를 결정하는 것을 더 포함한다.
본 개시에서 설명되는 청구물의 하나 이상의 구현예들의 세부 사항은 첨부된 도면 및 하기의 상세한 설명에서 설명된다. 본 개시에 제공된 예들이 모바일 디바이스 (예를 들어, 셀폰 또는 카메라) 에서 구현되는 이미징 디바이스의 관점에서 주로 설명되어 있지만, 본원에 제공되는 개념들은 이미징 디바이스가 내부에서 또는 이와 함께 구현되는 다른 유형들의 시스템에 적용할 수도 있다. 다른 특징들, 양태들, 및 이점들은 상세한 설명, 도면들, 및 청구범위로부터 명확해질 것이다. 첨부된 도면에서 상대적인 크기들은 일정한 축척으로 그려지지 않을 수도 있음을 주목해야 한다.
개시된 양태들은 이하에서 개시된 양태들을 설명하기 위한 것으로 제한하지 않도록 제공되는 첨부된 도면들과 결부하여 설명될 것이며, 유사한 지정들은 유사한 요소들을 표시한다.
도 1 은 포커스의 영역과 이 포커스의 영역에 영향을 주는 예시적 팩터들 간의 관계의 개요를 예시한다.
도 2 는 일 실시형태에 따라 이미징 디바이스의 일 예를 예시하는 개략도이다.
도 3 은 일 실시형태에 따른 이미징 디바이스, 및 이미징 디바이스에 관련된 여러 거리들에서 이미징되는 오브젝트의 일 예를 예시하는 다이어그램이다.
도 4 는 일 실시형태에 따라 이미징 디바이스로부터의 오브젝트의 거리 (y 축) 대 캡처된 이미지 프레임들의 수 (x 축) 를 예시하는 그래프이다.
도 5 는 일 실시형태에 따른 오토포커스 트리거 프로세스의 일 실시형태의 예를 예시하는 흐름도이다.
도 6 은 일 실시형태에 따른 오토포커스 동작을 트리거링하는 방법을 예시하는 플로우차트이다.
다음의 상세한 설명은 본 발명의 특정한 특정 실시형태들에 관한 것이다. 그러나, 본 발명은 다수의 상이한 방법들로 구현될 수 있다. 본원의 양태들은 폭넓은 형태들로 구현될 수도 있고, 본원에 개시된 임의의 특정 구조, 기능 또는 양쪽 모두는 단지 예시에 불과함이 명백해야 한다. 본원의 교시들에 기초하여, 당해 기술 분야의 당업자는 본원에 개시된 양태가 임의의 다른 양태들과 독립적으로 구현될 수도 있고, 이들 양태들 중 둘 이상은 여러 방식으로 결합될 수도 있음을 알 것이다. 예를 들어, 본원에 제시된 임의의 수의 양태들을 이용하여 장치가 구현될 수도 있거나 방법이 실시될 수도 있다. 또한, 본원에 설명된 양태들 중 하나 이상의 양태 이외의 것과 함께 또는 하나 이상의 양태 이외의 다른 구조, 기능성 또는 구조와 기능성을 이용하여 이러한 장치가 구현될 수도 있거나 또는 이러한 방법이 실시될 수도 있다.
또한, 본원에 설명된 시스템들 및 방법들은 카메라를 호스팅하는 여러 상이한 컴퓨팅 디바이스들 상에서 구현될 수도 있다. 이들은 모바일 폰들, 태블릿들, 전용 카메라들, 착용가능한 컴퓨터들, 개인용 컴퓨터들, 사진 부스 또는 키오스크, 개인 휴대정보 단말기, 울트라 모바일 퍼스널 컴퓨터, 및 모바일 인터넷 디바이스들을 포함한다. 이들은 범용 또는 특수 목적의 컴퓨팅 시스템 환경들 또는 구성들을 사용할 수도 있다. 본 발명에 이용하기에 적합할 수도 있는 컴퓨팅 시스템들, 환경들 및/또는 구성들의 예들은 퍼스널 컴퓨터들, 서버 컴퓨터들, 핸드헬드 또는 랩톱 디바이스들, 멀티프로세서 시스템들, 프로세서 기반 시스템들, 프로그래밍가능 소비자 전자 장치들, 네트워크 PC들, 미니컴퓨터들, 메인프레임 컴퓨터들, 위에 시스템들 또는 디바이스들의 어느 것을 포함하는 분산형 컴퓨팅 환경들 등을 포함하지만 이들에 제한되지 않는다.
다음의 설명에서, 예들에 대한 완전한 이해를 제공하기 위해 특정 세부사항들이 주어진다. 그러나, 예들은 이러한 특정 세부사항들이 없이 실시될 수도 있음이 당업자에 의해 이해될 것이다. 예를 들어, 불필요한 세부사항으로 예들을 모호하게 하지 않기 위해 전기 컴포넌트들/디바이스들은 블록도들로 보여질 수도 있다. 다른 사례들에서, 이러한 컴포넌트들, 다른 구조들, 및 기법들이 상세히 보여져 에들을 추가적으로 설명할 설명할 수도 있다.
예들은 프로세스로서 설명될 수도 있으며, 프로세스는 플로우차트, 플로우 도, 유한 상태도, 구조도, 또는 블록도로 도시됨을 또한 주지해야 한다. 플로우차트가 동작들을 순차적인 프로세스로 설명할지라도, 동작들 중 많은 동작들은 병행하여, 또는 동시에 수행될 수 있고, 프로세스는 반복될 수 있다. 또한, 동작들의 순서는 재배열될 수도 있다. 프로세스는 프로세스의 동작들이 완료되는 경우 종료된다. 프로세스는 방법, 기능, 절차, 서브루틴, 서브프로그램 등에 대응할 수도 있다. 프로세스가 소프트웨어 기능에 대응하는 경우, 프로세스의 만료는 호출 함수 또는 메인 함수로의 함수의 리턴에 대응한다.
당업자라면, 정보 및 신호들이 임의의 다양한 상이한 기술들 및 기법들을 사용하여 표현될 수도 있음을 이해할 것이다. 예를 들면, 상기 설명을 통해 참조될 수도 있는 데이터, 명령들, 커맨드들, 정보, 신호들, 비트들, 심볼들, 및 칩들은 전압들, 전류들, 전자기파들, 자기장들 또는 자기 입자들, 광학 필드들 또는 입자들, 이들의 임의의 조합에 의해 표현될 수도 있다.
이미징 콘텍스트에서 피사계 심도 (depth of field; DOF) 의 다양한 정의들이 존재한다. 예를 들어, 렌즈의 피사계 심도는 렌즈에 의해 캡처된 그 장면의 비디오 프레임 또는 이미지에서 적절하게 선명하게 보이는 장면에서 가장 가까운 오브젝트와 가장 먼 오브젝트 사이의 거리로서 정의될 수 있다. 선명도의 적합성 (reasonableness) 은 주관적인 요소가 될 수 있으며 이미징 디바이스의 다양한 구현에서 다를 수 있으며, 심지어 예를 들어 뷰어의 시력, 시청 조건들 및 기타 팩터들과 같은 이미징 디바이스에 관련없는 팩터들에도 의존할 수도 있다.
피사계 심도는 다른 팩터들 뿐만 아니라 렌즈 또는 이미징 디바이스의 다양한 광학 특징들과 관련될 수 있다. 이들 특징들 및 팩터들 중 일부가 본원에 설명된다. 예를 들어 광학에서 렌즈의 최단 거리 (hyperfocal distance)(H) 는 렌즈가 무한대로 포커싱될 때 모든 물체가 적절하게 선명할 수 있는 거리를 넘어서는 거리로서 정의될 수 있다. 렌즈의 최단 거리에 대한 다른 정의들도 또한 존재한다. 이들 정의들은 광학 또는 이미징 시스템에서 적절한 또는 허용가능한 것으로 간주되는 선명도의 레벨이 무엇인지에 따라 달라질 수 있다.
때로는 원하는 선명도를 표현하는 것과 관련된 메트릭은 착락원 (circle of confusion) 이다. 카메라는 물체로부터 반사된 광선을 렌즈를 통해 매체 상에 포커싱하는 것에 의해 매체, 예를 들어, 필름 또는 디지털 포토 센서에 오브젝트의 이미지를 형성할 수 있다. "이상적인" 렌즈는 수차가 없지만 실제 렌즈들은 오브젝트 상의 점에서부터 이미지 상의 점으로 완벽하게 모든 광선들을 포커싱하지 못할 수도 있다. 따라서, 이러한 렌즈들은 그들이 이미징하는 오브젝트 상의 한 점에 대응하는 이미지에 스폿 또는 원을 형성할 수 있다. 다시 말해, 오브젝트 상의 점에서 반사된 광선들이 완벽한 포커싱을 가져올 수 없고, 이에 의해 단일 점에 대향되어 매체 상에 원 또는 점을 형성할 수 있다. 이 시나리오에서, 착락원은 이미징되는 오브젝트 상의 점에 대응하는 가장 큰 허용가능한 원 또는 스폿으로서 정의될 수도 있다. 착락원은 이어서 뷰어의 시력, 시청 조건들, 배율의 정도 및 매체의 사이즈 및 형상 (예를 들어, 이미지 포맷) 과 같은 팩터에 따라 달라질 수 있다.
렌즈의 피사계 심도와 관련된 또 다른 메트릭은 렌즈 초점 길이 (f) 일 수 있다. 렌즈의 초점 길이는 렌즈 중심과, 시준된 광선이 렌즈를 통과한 후 포커싱을 가져올 수 있는 한 점 사이의 거리로서 정의될 수 있다.
피사계 심도와 관련된 렌즈 또는 이미징 시스템의 다른 파라미터는 렌즈 구경 (aperture) 일 수 있다. 렌즈의 물리적 구경은 이미징 디바이스가 광을 허용할 수 있는 개구 또는 구경의 직경을 나타낼 수 있다. 추가적으로, 이미징 디바이스 또는 렌즈는 여러 소자들, 예를 들어 렌즈 다이어프레임을 포함할 수 있고, 이에 의해 이미징 디바이스 또는 렌즈는 자신이 이미징 디바이스에 허용하는 광을 광량을 조작할 수 있다. 용어 물리적 구경 조리개는 이러한 다양한 팩터들을 지칭하는데 이용될 수 있다. 광학 시스템의 유효 렌즈 구경 또는 입사 퍼필은 광학 시스템의 전면을 통해 관측된 물리적 구경 조리개의 광학 이미지로서 정의될 수 있다. 렌즈 구경은 렌즈 f-수 (f/N) 또는 상대 구경으로 표현될 수 있다. f-수는 유효 렌즈 구경 또는 입사 퍼필의 직경에 대한 렌즈의 초점 길이의 비율로 정의될 수 있다. 예를 들어, 렌즈의 초점 길이가 10 밀리미터 (mm) 이고 유효 렌즈 구경 또는 입사 퍼필의 직경이 5 mm 라면, f-수는 2 이고 구경 직경 또는 렌즈 구경은 f/2 이다. 광학에서 용어 렌즈 구경은 일반적으로 렌즈 세트업 및 그 세트업의 결과로서 렌즈가 허용하는 광량을 지칭하는데 상대적 용어에 사용할 수 있다. 예를 들어 "넓은" 렌즈 구경은 "좁은" (또는 "소") 렌즈 구경에 비해 더 많은 광을 허용한다. 넓은 렌즈 구경은 작은 f-수, 예를 들어, f/1.4, f/1.8 또는 f/2 에 대응할 수 있다. 좁은 또는 소 렌즈 구경은 큰 f-수, 예를 들어, f/11, f/18 또는 f/22 에 대응할 수도 있다.
피사계 심도와 관련된 또 다른 팩터는 포커싱 거리 (focusing distance)(s) 이다. 광학 시스템이 오브젝트 상에 렌즈를 포커싱할 때, 렌즈는 오브젝트의 선명한 이미지가 매체 상에 형성될 때까지 매체 (예를 들어, 필름 또는 디지털 이미지 센서) 와 오브젝트에 대해 상대적으로 이동된다. 포커싱 거리 (s) 는 렌즈를 포함하는 이미징 디바이스의 매질 상에 오브젝트의 선명한 이미지가 형성될 때 렌즈의 중심까지의 오브젝트의 거리로서 정의될 수 있다.
마지막으로, 렌즈의 피사계 심도는 허용가능한 선명도의 원거리 (Df) 와 허용가능한 선명도의 근거리 (Dn) 사이의 차이로서 표현될 수 있으며, "근" 및 "원"은 렌즈의 중심에 대해 상대적으로 이용된다. 일부 예들에서, 다음 방정식들은 거리들 (Dn 및 Df) 및 결과적으로 피사계 심도를 계산하기 위해 사용된 관계들을 산출할 수 있다.
Figure pct00001
식 (1)
Figure pct00002
식 (2)
Figure pct00003
식 (3)
Figure pct00004
식 (4)
위의 식 (1) 에서, H 는 최단 거리를 표기하고, f 는 초점 길이를 표기하고, N 은 f-수를 표기하고, c 는 착락원의 직경을 표기한다. 위의 식 (2) 에서, Dn 은 렌즈의 중심에 대하여 허용가능한 선명도의 근거리를 나타낸다. 이는 렌즈의 중심과, 렌즈의 중심으로부터의 거리 (Dn) 사이에 위치되는 오브젝트가 이미징될 때 선명하지 않게 보일 수 있음을 의미할 수 있다. 위의 식 (3) 에서, Df 는 허용가능한 선명도의 원 거리를 표기한다. 이는 렌즈의 중심으로부터 거리 (Df) 를 넘어 위치된 오브젝트가 이미징될 때 선명하지 않은 것으로 보여질 수 있음을 의미할 수 있다. 마지막으로, 식 (4) 에서, 거리들 (Df 와 Dn) 사이의 차이는 피사계 심도 또는 DOF 를 표기할 수 있다.
위의 설명으로부터 관측될 수 있는 바와 같이, 위에 설명된 예시적인 렌즈 특성들 및 파라미터들을 알면, 당업자는 피사계 심도를 결정하기 위해 식 (1) 내지 (4) 에 표현된 관계식들을 사용할 수 있다.
물론, 당업자는 이에 논의된 특징들 및 파라미터들의 다른 정의들이 이용가능할 수 있다는 것을 인식할 것이다. 이들 대체 정의들은 본 개시의 정신으로부터 벗어남이 없이 본원에 설명된 실시형태들에 있을 수 있다.
본원에 설명된 이미징 시스템들 및 방법들의 예시적인 실시형태들은 렌즈의 오토포커스 동작이 언제 트리거링되어야 하는지를 결정하기 위해 렌즈로부터의 오브젝트의 거리에 대한 렌즈의 포커스의 영역을 사용할 수 있다. 포커스의 영역은 피사계 심도에 관련될 수 있다. 일부 실시형태들에서, 포커스의 영역은 피사계 심도와 동일할 수 있다. 다른 실시형태들에서, 포커스의 영역은 피사계 심도에 대해 알려진 거리 및/또는 미리정해진 거리일 수 있다. 예를 들어, 렌즈의 피사계 심도가 렌즈의 중심으로부터 1 미터 (m) 내지 5 m 의 거리라면, 포커스의 영역은 0.2 m 의 마진만큼 피사계 심도를 수반하는 거리로서 정의될 수 있다. 이 시나리오에서 포커스의 영역은 렌즈 중심에 대해 0.8 m 내지 5.2 m 일 수 있다. 대안으로서, 포커스의 영역은 피사계 심도 만큼 피사계 심도에 의해 수반되거나 또는 그 내에 있도록 정의될 수 있다. 이 시나리오에서, 미리 정의된 거리가 0.3 m 라면, 포커스의 영역은 렌즈의 중심에 대해 1.3 m 내지 4.7 m 일 수 있다.
대안적으로, 포커스의 영역은 허용가능한 선명도의 근거리 (Dn) 및 허용가능한 선명도의 원거리 (Df) 에 대해 비대칭적으로 정의될 수 있다. 예를 들어, 렌즈의 피사계 심도는 근거리 (Dn) 로부터 4 m 에서 시작하여 렌즈의 중심으로부터 원거리 (Df) 까지 1 m, 렌즈의 중심으로부터 5 m 일 수 있다. 이 시나리오에서, 피사계 심도의 내부로부터 무한대까지의 미리 정해진 거리 또는 거리의 백분율로부터 시작하도록 포커스의 영역이 정의될 수 있다. 예를 들어, 포커스의 영역은 근거리 (Dn) 로부터 피사계 심도의 4 % 거리로부터 시작할 수 있다. 이 예에서 포커스의 영역은 렌즈 중심에서부터 무한대까지 1.16 cm 에서부터 시작할 수 있다. 당업자는 피사계 심도에 대한 거리들 및 근거리 및 원거리 (Dn 및 Df) 의 다른 조합이 본 개시의 정신을 벗어나지 않고 또한 가능하여 개시된 실시형태들에 따라 오토포커스 트리거 동작을 구현할 때 다양한 감도들을 실현할 수 있음을 인식할 것이다.
도 1 은 포커스의 영역과 이 포커스의 영역에 영향을 주는 예시적 팩터들 간의 관계의 양태들을 예시한다. 이들 팩터들은 포커싱 거리, 렌즈 초점 길이 및 렌즈 구경을 포함할 수 있다. 설명될 바와 같이, 포커스의 영역은 렌즈 구경 또는 렌즈가 허용하는 광량에 반비례할 수 있고 포커싱 거리에 비례하고 렌즈 초점 길이에 반비례할 수 있다.
도 1 은 이미지 또는 복수의 이미지들에서 캡처될 오브젝트 (102) 를 예시한다. 본원에서의 개시는 오브젝트의 이미지 또는 복수의 이미지들을 캡처할 때 이미징되는 오브젝트를 지칭할 수 있다. 또한, 도 1 의 렌즈 (101) 의 포커싱 거리는 오브젝트 (102) 로부터 렌즈 (101) 의 중심까지의 거리와 동일할 수 있다. 즉, 도 1 에서, 렌즈 (101) 의 포커스의 평면은 오브젝트 (102) 가 위치하는 곳에 있을 수 있다. 도 1 에서, 렌즈 (101) 의 특징들은 이미지를 캡처하기 위해 구성되거나 조작될 수 있다. 예를 들어, 렌즈 (101) 는 렌즈 구경 (A 로 표기됨) 및 렌즈 초점 길이 (f 로 표기됨) 에 대해 상이한 값들로 구성될 수 있다. 도 1 에서, 렌즈 (101) 의 포커스의 영역은 렌즈 (101) 의 중심에 대해 거리들 (D1 및 D2) 사이의 영역으로 예시된다.
도 1(a)-1(c) 는 동일한 포커싱 거리 및 렌즈 초점 길이가 오브젝트 (102) 를 이미징하는데 사용될 때 렌즈 (101) 의 포커스의 영역과 렌즈 구경 사이의 관계의 예들을 예시한다. 도 1(d)-1(f) 는 동일한 렌즈 초점 길이 및 렌즈 구경이 오브젝트 (102) 를 이미징하는데 사용될 때 렌즈 (101)의 포커스의 영역과 포커싱 거리 사이의 관계를 예시한다. 도 1(g)-1(i) 는 동일한 포커싱 거리 및 렌즈 구경이 오브젝트 (102) 를 이미징하는데 사용될 때 렌즈 (101) 의 포커스의 영역과 렌즈 초점 길이 사이의 관계를 예시한다.
도 1(a) 에서, 렌즈 (101) 는 이미지에서 오브젝트 (102) 를 캡처하기 위해 렌즈 구경 (A1) 및 초점 길이 (f1) 로 구성된다. 포커싱 거리는 L1 이다. 도 1(b) 에서, 렌즈 (101) 는 이미지에서 오브젝트 (102) 를 캡처하기 위해 렌즈 구경 (A1) 및 초점 길이 (f1) 로 구성된다. 포커싱 거리는 L1 이고 렌즈 구경 (A2) 은 A1 보다 작다. 도 1(c) 에서, 렌즈 (101) 는 이미지에서 오브젝트 (102) 를 캡처하기 위해 렌즈 구경 (A3) 및 초점 길이 (f1) 로 구성된다. 포커싱 거리는 L1 이고 렌즈 구경 (A3) 은 도 1(a) 및 1(b) 의 렌즈 구성들에 사용된 렌즈 구경들 (A1 및 A2) 보다 작다. 도 1(a)-1(c) 로부터 알 수 있는 바와 같이, 포커스의 영역 (D1-D2) 은 렌즈 구경에 반비례한다. 도 1(a)-1(c) 에 도시된 바와 같이, A1 > A2 > A3 에 대해, 가장 넓은 렌즈 구경 (A1) 에 대응하는 포커스의 영역 (D1-D2) 은 렌즈 구경 (A2) 에 대응하는 포커스의 영역 (D1-D2) 보다 더 얕고, 최소 렌즈 구경 (A3) 에 대응하는 포커스의 영역 (D1-D2) 은 도 1(a)-1(c) 에 도시된 포커스의 영역들 중에서 가장 깊다.
도 1(d) 에서, 렌즈 (101) 는 이미지에서 오브젝트 (102) 를 캡처하기 위해 렌즈 구경 (A4) 및 초점 길이 (f2) 로 구성된다. 포커싱 거리는 L1' 이다. 도 1(e) 에서, 렌즈 (101) 는 이미지에서 오브젝트 (102) 를 캡처하기 위해 렌즈 구경 (A4) 및 초점 길이 (f2) 로 구성된다. 포커싱 거리는 L2' 이고, L2' > L1' 이다. 도 1(f) 에서, 렌즈 (101) 는 이미지에서 오브젝트 (102) 를 캡처하기 위해 렌즈 구경 (A4) 및 초점 길이 (f2) 로 구성된다. 포커싱 거리는 L3' 이고, L3' > L2' 이다. 도 1(d)-1(f) 로부터 알 수 있는 바와 같이, 포커스의 영역 (D1-D2) 은 포커싱 거리에 비례한다. 도 1(d)-1(f) 에 도시된 바와 같이, L1' < L2' < L3' 에 대해, 가장 최단 포커싱 거리 (L1') 에 대응하는 포커스의 영역 (D1-D2) 은 포커싱 거리 (L2') 에 대응하는 포커스의 영역 (D1-D2) 보다 더 얕고, 최장 포커싱 거리 (L3') 에 대응하는 포커스의 영역 (D1-D2) 은 도 1(d)-1(f) 에 도시된 포커스의 영역들 중에서 가장 깊다.
도 1(g) 에서, 렌즈 (101) 는 이미지에서 오브젝트 (102) 를 캡처하기 위해 렌즈 구경 (A5) 및 초점 길이 (f3) 로 구성된다. 포커싱 거리는 L1" 이다. 도 1(h) 에서, 렌즈 (101) 는 이미지에서 오브젝트 (102) 를 캡처하기 위해 렌즈 구경 (A5) 및 초점 길이 (f4) 로 구성된다. 포커싱 거리는 L1" 이고 렌즈 초점 길이 (f4) 은 렌즈 초점 길이 (f3) 보다 더 길다. 도 1(i) 에서, 렌즈 (101) 는 이미지에서 오브젝트 (102) 를 캡처하기 위해 렌즈 구경 (A5) 및 초점 길이 (f5) 로 구성된다. 포커싱 거리는 L1" 이고 렌즈 초점 길이 (f5) 은 렌즈 초점 길이 (f4) 보다 더 길다. 도 1(g)-1(i) 로부터 알 수 있는 바와 같이, 포커스의 영역 (D1-D2) 은 렌즈 초점 길이에 반비례한다. 도 1(g)-1(i) 에 도시된 바와 같이, f3 < f4 < f5 에 대해, 최단 초점 길이 (f3) 에 대응하는 포커스의 영역 (D1-D2) 은 도 1(g)-1(i) 에 도시된 포커스의 영역들 중에서 가장 깊고 최장 초점 길이에 대응하는 포커스의 영역 (D1-D2) 은 도 1(d)-1(f) 에 도시된 포커스의 영역들 중에서 가장 얕다.
도 2 는 일 실시형태에 따라 오토포커스 트리거 기능을 포함하는 이미징 디바이스 (200) 의 일 실시형태를 예시하는 블록도의 일 예이다. 이미징 디바이스 (200) 는 이미지 센서 (214), 렌즈 (210), 액추에이터 (212), 작업 메모리 (270), 저장부 (275), 디스플레이 (280) 및 입력 디바이스 (290) 에 동작가능하게 접속된 프로세서 (205) 를 포함할 수 있다. 선택적으로, 이미징 디바이스 (200) 는 하나 이상의 추가적인 렌즈들, 예를 들어 제 2 렌즈 (216), 제 2 액추에이터 (218) 및 제 2 이미지 센서 (222) 를 더 포함할 수 있다. 제 2 렌즈 (216) 및 그 연관된 컴포넌트들의 포함은 이미징 디바이스 (200) 의 기능을 개선하는 것을 지원할 수 있다. 예를 들어, 제 2 렌즈 (216) 는 렌즈 (210) 와 연계하여, 예를 들어 스테레오 디스패리티를 통해 이미징 디바이스 (200) 까지의 오브젝트의 위치 또는 거리를 결정하는 것을 지원할 수 있다. 제 2 렌즈를 포함하는 것 및/또는 제 2 렌즈를 이용하는 것 대신에, 이미징 디바이스 (200) 는 이미징 디바이스 (200) 까지의 오브젝트의 위치 또는 거리를 결정하는 것을 돕기 위해 광 이미터/검출기 (230) 를 선택적으로 포함할 수 있다.
추가로, 프로세서 (205) 는 메모리 (220) 에 접속된다. 메모리 (220) 는 이어서, 이미징 디바이스 (200) 의 기능들을 수행하기 위해 프로세스 (205) 를 구성하는 명령들을 정의하는 데이터 값들을 저장하는 수개의 모듈들을 저장할 수 있다. 메모리 (220) 는 오브젝트 추적 모듈 (240), 오토포커스 모듈 (260) 및 오퍼레이팅 시스템 (265) 를 포함할 수 있다. 도 2 는 다수의 독립적인 모듈들을 도시하지만, 도시된 임의의 모듈들은 개별적으로 또는 조합하여 서브모듈들로서 포함될 수 있음을 이해할 것이다. 메모리 (220) 는 거리 결정 및 모니터링 모듈 (224), 포커스 영역 결정 모듈 (226) 및 오토포커스 트리거 모듈 (228) 을 추가로 포함할 수 있다.
예시적인 실시형태에서, 광은 렌즈 (210) 및 사용되는 경우, 제 2 렌즈 (216) 에 입사하고 이미지 센서 (214) 및 사용되는 경우 제 2 이미지 센서 (222) 상에 포커싱된다. 일부 실시형태들에서, 이미지 센서 (214) 는 전하 결합 소자 (CCD) 를 이용한다. 일부 실시형태들에서, 이미지 센서 (214) 는 상보성 금속 산화물 반도체 (CMOS) 센서를 사용한다. 렌즈 (210) 는 액추에이터 (212) 에 커플링되고, 액추에이터 (212) 에 의해 이동된다. 액추에이터 (212) 는 오토포커스 검색 동작 동안 렌즈 (210) 를 일련의 하나 이상의 렌즈 움직임들로 이동시키도록 구성된다. 이미징 디바이스 (200) 가 하나 이상의 추가 렌즈들로 구현되는 경우, 전술한 유사한 기능들이 제 2 렌즈 (216), 제 2 액추에이터 (218) 및 제 2 이미징 센서 (222) 에 대해 구현될 수도 있다.
도 2 의 실시형태에 예시된 디스플레이 (280) 는 렌즈 (210) (및 사용되는 경우, 제 2 렌즈 (216)) 를 통해 캡처된 이미지들 및 프레임들을 디스플레이하도록 구성되며, 또한 이미징 디바이스 (200) 의 구성 기능들을 구현하는데 이용될 수도 있다.
여전히 도 2 의 실시형태를 참조하면, 작업 메모리 (270) 는 이미징 디바이스 (200) 의 동작 동안 동적으로 생성된 데이터를 저장하기 위해 프로세서 (205) 에 의해 이용될 수도 있다. 예를 들어, 메모리 (220)(후술함) 에 저장된 임의의 모듈들로부터의 명령들은 프로세서 (205) 에 의해 실행될 때 작업 메모리 (270) 에 저장될 수도 있다. 작업 메모리 (270) 는 프로세서 (205) 상에서 실행되는 프로그램들에 의해 이용되는 스택 또는 힙 (heap) 데이터와 같은 동적 런타임 데이터를 저장할 수도 있다. 저장부 (275) 는 이미징 디바이스 (200) 에 의해 생성된 데이터를 저장하는데 이용될 수 있다. 예를 들어, 렌즈 (210)(및 사용되는 경우, 제 2 렌즈 (216)) 를 통해 캡처된 이미지는 저장부 (275) 에 저장될 수 있다. 또한, 저장부 (275) 는 렌즈 파라미터들에 기초하여 포커스의 영역을 결정하는데 사용되는 정보를 포함하는 데이터베이스 또는 룩업 테이블과 같은 렌즈 특성 정보를 저장하는데 사용될 수 있다. 렌즈 특성은 예를 들어 렌즈 파라미터들의 세트, 이를 테면, 포커싱 거리, 렌즈 초점 길이, 및 렌즈 구경이 주어질 때 결정될 수 있는 렌즈 (210)(및 사용되는 경우, 제 2 렌즈 (216)) 의 브랜드, 제조자 및 다른 하드웨어 데이터를 포함할 수 있다. 저장부 (275) 는 예를 들어, 렌즈 파라미터들 및 대응하는 포커스의 영역을 갖는 렌즈 (210) (및 사용되는 경우, 제 2 렌즈 (216)) 에 대한 렌즈 특성들에 관련된 룩업 테이블을 포함할 수 있다.
메모리 (220) 는 컴퓨터 판독가능 매체로 간주될 수 있으며, 여러 모듈들을 저장할 수 있다. 모듈들은 프로세서 (205) 에 대한 명령들을 정의하는 데이터 값들을 저장한다. 이들 명령들은 이미징 디바이스 (200) 의 기능을 수행하도록 프로세서 (205) 를 구성한다. 예를 들어, 몇몇 양태들에서, 메모리 (220) 는 프로세서 (205) 로 하여금, 아래에 기술되고 도 6 과 연관되어 도시된 바와 같이 프로세스 (600) 또는 그 일부를 수행하게 하는 명령들을 저장하도록 구성될 수 있다. 도시된 실시형태에서, 메모리 (220) 는 거리 결정 및 모니터링 모듈 (224), 포커스 영역 결정 모듈 (226), 오토포커스 트리거 모듈 (228), 오브젝트 추적 모듈 (240), 오토포커스 모듈 (260) 및 오퍼레이팅 시스템 (265) 을 포함할 수 있다.
오퍼레이팅 시스템 (265) 은 이미징 디바이스 (200) 의 하드웨어 및 소프트웨어 리소스들을 관리하도록 프로세서 (205) 를 구성하는 명령들을 포함할 수 있다.
오브젝트 추적 모듈 (240) 의 명령들은 오브젝트 추적 능력을 제공하도록 프로세서 (205) 를 구성할 수 있다. 일부 실시형태들에서, 오브젝트는 디스플레이 (280) 를 중심으로 하여 이동하거나 렌즈 (210)(또는 사용되는 경우, 제 2 렌즈 (216)) 의 시야 (FOV) 내에서 움직일 때 추적될 수 있다. 일부 실시형태들에서, 추적 이미징 디바이스들은 본 개시 내용에 통합된다. 예를 들어, 미국특허 제 8,483,437 호 - 그 내용은 전체적으로 본원에 포함된다 - 는 트레이닝 이미지들을 이용하여 이미지들에서의 오브젝트들을 추적하는 피처들을 개시하며; 미국특허 출원 공개 제 2013/0258141 호 - 그 내용은 전체적으로 본원에 포함된다 - 는 비디오 프레임들에서의 오브젝트를 검출하고 추적하기 위한 그리고 긍정 오류들을 거부하기 위한 피처들을 개시하며; 미국특허 출원 공개 제 2014/0205141 호 - 그 내용은 전체적으로 본원에 포함된다 - 는 비디오 프레임들에서의 오브젝트를 추적하여 추적 결과를 생성하는 피처들을 개시하며; 미국특허 제 8,249,299 호 - 그 내용은 전체적으로 본원에 포함된다 - 는 비디오에서 오브젝트들을 식별 및 추적하기 위한 피처들을 개시한다. 오브젝트 추적 모듈 (240) 내의 명령들은 사용자가 선택한 오브젝트를 추적하는 하나의 수단을 나타낸다.
일부 실시형태들에서, 이미징 디바이스는 오브젝트의 다수의 이미지들 또는 프레임들을 캡처하도록 구성될 수도 있다. 그 후, 오브젝트는 추적 데이터를 제공하기 위해 이미징 디바이스의 추적 모듈을 통해 다중 프레임들을 통하여 추적될 수 있다. 추적 모듈은 패키지 추적, 레이저 추적 등과 같은 기술을 포함할 수 있다. 예를 들어, 추적 모듈은 Qualcomm Technologies, Inc. 가 개발한 Touch-to-Track®을 구현할 수 있다.
도 2 의 실시형태에 도시된 오토포커스 모듈 (260) 은 오토포커스를 달성하기 위해 렌즈 (210)(및 사용되는 경우, 제 2 렌즈 (216)) 를 제어하도록 프로세서 (205) 를 구성하는 명령들을 포함할 수 있다. 오토포커스 모듈 (260) 내의 명령들은 렌즈 (210) (및 사용되는 경우 제 2 렌즈 (216)) 에 대한 렌즈 포지션을 달성하도록 프로세서 (205) 를 구성할 수 있다. 일부 양태들에서, 오토포커스 모듈 (260) 내의 명령들은 이미지 센서 (214)(및 사용되는 경우 제 2 이미지 센서 (222)) 와 연계하여 렌즈 (210)(및 사용되는 경우 제 2 렌즈 (216)) 를 제어하여 이미지를 캡처하도록 프로세서 (205) 를 구성할 수도 있다. 따라서, 오토포커스 모듈 (260) 내의 명령들은 이미지 센서 (214) 및 렌즈 (210) (및 사용되는 경우, 제 2 이미지 센서 (222) 및 제 2 렌즈 (216)) 로 이미지를 캡처하기 위한 하나의 수단을 나타낼 수 있다.
오토포커스 동작이 트리거링될 때, 다양한 오토포커스 시스템들 및 기술들이 이미징 디바이스 (201) 의 하나 이상의 렌즈들 (204 및 206) 을 오토포커싱하는데 사용될 수도 있다. 많은 응용들에서, 오토포커싱은 다양한 유형의 액추에이터에 의해 이미징 디바이스에서 수행될 수도 있다. 이미징 디바이스는 포커싱을 가능하게 하기 위해 가동 범위 내에서 이동하는 렌즈들로 이미지 센서들에 장면들을 포커싱한다. 오토포커싱 이미징 디바이스들은 VCM (보이스 코일 모터), 압전소자 또는 MEMS (micromechanical system) 컴포넌트를 사용하여 렌즈들을 이동시킨다.
다양한 오토포커스 방법들이 최신 디지털 이미징 디바이스들에서 방향을 결정하고 기계적 움직임이 렌즈를 얼마나 멀리 이동시킬 것인지를 결정하는데 사용될 수 있다. 예를 들어, 더 높은 콘트라스트를 갖는 이미지들은 보다 선명한 포커스를 갖는 경향이 있기 때문에 일부 오토포커스 방법들은 최고 콘트라스트를 갖는 이미지를 제공하는 포커스 포지션을 구한다. 이는 상이한 렌즈 포지션들에서 포커스 값들이 비교되어 어느 이미지가 최고 컨트라스트를 갖는지를 결정하는 포커스 값 알고리즘으로 알려져 있을 수 있다. 오토포커스 방법의 다른 예는 오브젝트 깊이 추정에 기초하며, 알고리즘은 이미징 디바이스로부터의 타겟 오브젝트의 추정된 깊이 또는 위치에 기초하여 렌즈를 추정된 포지션으로 렌즈를 직접 이동시킨다. 추정에 대한 신뢰도에 기초하여, 최소 콘트라스트 기반 오토포커싱이 이용될 수 있다. 그러나, 최적의 렌즈 포지션 또는 최적의 포커스 포지션이 최적의 포커스에 대해 알려져 있지 않을 때, 이미징 디바이스가 콘트라스트 기반 또는 포커스 값, 오토포커스 방법을 사용한다. 최적의 렌즈 포지션은 최대 초점 값 또는 최고 콘트라스트 값을 가져오는 렌즈 포지션을 지칭한다.
하나 이상의 렌즈들 (204 및 206) 을 오토포커싱하기 위해 사용되는 시스템 또는 기술에 관계없이, 이들 시스템들 또는 기술들은 궁극적으로 렌즈 파라미터들, 예를 들어 포커싱 거리, 렌즈 초점 길이 및 렌즈 구경을 구성하여 오토포커스를 달성한다. 특정 실시형태들에서, 고정된 렌즈 초점 길이가 또한 사용될 수도 있다. 본원에 기술된 바와 같이, 렌즈 파라미터들 중 한 렌즈 파라미터로서 렌즈 구경을 지칭하는 것은 렌즈 또는 이미징 디바이스와 관련된 개구의 임의의 표시를 지칭할 수 있다. 전술한 바와 같이, 이들은 예를 들면, 물리적 구경, 물리적 구경 조리개, 유효 렌즈 구경, 입사 퍼필, f-수, 상대 구경 또는 일반적으로 이미징 디바이스의 구경과 관련된 다른 정의들 및 이미징 디바이스가 개구 또는 구경을 통하여 허용하는 광량을 포함할 수 있다.
일부 양태들에서, 오토포커스 모듈 (260) 에서의 명령들은 렌즈 포지션 정보를 결정할 수 있다. 렌즈 포지션 정보는 현재 렌즈 포지션, 목표 렌즈 포지션, 및 오토포커스 검색 동작 방향 결정을 포함할 수 있다. 일부 양태들에서, 오토포커스 모듈 (260) 에서의 명령들은 오토포커스 검색 동작을 초기화하기 위한 하나의 수단을 나타낼 수 있다. 몇몇 양태들에서, 오토포커스 모듈 (260) 내의 명령들은 오토포커스 검색 동작을 위한 렌즈 움직임의 크기 및/또는 방향을 결정하기 위한 하나의 수단을 나타낼 수 있다. 오토포커스 동작이 오토포커스 트리거 모듈 (228) 을 통해 트리거링될 때 그리고 오토포커스 모듈 (260)이 오토포커스 동작에 영향을 미치고 오토포커스 동작을 종결지을 때, 그 오토포커스 동작에 대응하는 렌즈 파라미터들이 결정될 수 있다. 렌즈 파라미터들은 포커싱 거리, 렌즈 초점 길이 및 렌즈 구경을 포함할 수 있다. 렌즈 파라미터들 정보는 포커스 영역 결정 모듈 (326) 에 통신될 수 있다.
거리 결정 및 모니터링 모듈 (224) 은 이미징 디바이스 (200) 로부터의 오브젝트의 거리를 결정하도록 프로세서 (205) 를 구성하는 명령들을 포함할 수 있다. 예를 들어, 거리 결정 및 모니터링 모듈 (224) 은 제 2 렌즈 (216) 가 사용될 때 스테레오 디스패리티를 사용하여 오브젝트의 거리를 측정하는 명령들을 포함할 수 있다. 오브젝트의 특징의 디스패리티, 예를 들어 오브젝트 상의 중심점의 디스패리티는 렌즈 (210) 및 제 2 렌즈 (216) 로부터 관찰된 수평 위치들의 차이로 정의될 수 있다. 예를 들어, 오브젝트 상의 중심점은 제 1 이미지 센서 (214) 상에 제 1 이미지를 형성할 수 있고, 이미지 센서 (218) 상에 제 2 이미지를 형성할 수 있다. 제 1 이미지와 제 2 이미지 사이의 수평 거리는 디스패리티로 정의될 수 있다. 스테레오 기준선은 렌즈 (210) 와 제 2 렌즈 (216) 를 분리시키는 거리로서 정의될 수 있다. 일부 구현들에서, 렌즈들 (210 및 216) 의 이 정보 및 초점 길이들을 알면, 거리 결정 및 모니터링 모듈 (224) 은 초점 길이에 스테레오 기준선을 곱하고 그 결과를 디스패리티로 나눔으로써 오브젝트로부터의 거리를 결정하도록 프로세서 (205) 를 구성할 수 있다.
거리 결정 및 모니터링 모듈 (224) 은 오브젝트 추적 모듈 (240) 과 통신하는 것에 의해 오브젝트까지 의 거리를 결정하도록 프로세서 (205) 를 구성하는 명령들을 포함할 수도 있다. 거리 결정 및 모니터링 모듈 (224) 은 오토포커스 모듈 (260) 과 통신하는 것에 의해 오브젝트까지의 거리를 결정하도록 프로세서 (205) 를 구성하는 명령들을 포함할 수 있다. 오브젝트 거리는 렌즈의 포지션의 함수일 수 있고, 렌즈의 포지션은 오토포커스 모듈 (260) 로부터 획득될 수 있다.
거리 결정 및 모니터링 모듈 (224) 은 광 펄스, 예를 들어 레이저 빔에 의해 전송된 광 펄스가 오브젝트로 진행하고 되돌아 진행하는데 걸리는 시간을 측정하는 것에 의해 오브젝트까지의 거리를 결정하도록 프로세서 (205) 를 구성하는 명령들을 포함할 수 있다. 걸린 시간의 측정 및 알려진 광 속도를 이용하여 오브젝트까지의 거리를 결정할 수 있다. 레이저 범위 검색 기술을 사용하는 다른 기술들도 사용할 수 있다. 거리 결정 및 모니터링 모듈 (224) 내의 명령들은 광 이미터/검출기 (230) 로 하여금, 광 이미터/검출기 (230) 가 광 신호 (또는 방사선) 를, 예를 들어 광 펄스 또는 레이저 빔을 이미징 디바이스 (200) 로부터 이미징될 오브젝트로 송신하게 하고, 오브젝트로부터 되반사되는 광 펄스 또는 레이저 빔을 검출하게 하고, 오브젝트까지의 광 펄스 또는 레이저 빔이 이미징 디바이스 (200) 로부터 이미징되고 이미징 디바이스 (200) 에 이미징될 오브젝트로부터 되반사되는 총 진행 시간을 결정하게 하도록 프로세서 (205) 를 구성할 수 있다. 오브젝트 거리는 총 진행 시간에 광의 속도를 곱하는 것에 의해 결정될 수도 있다. 광의 속도는 이미징 디바이스 (200) 및/또는 이미징될 오브젝트가 위치되는 환경 또는 매질에 관련될 수 있다.
포커스 영역 결정 모듈 (226) 은 현재 포커싱 거리, 렌즈 초점 길이 및 렌즈 구경에 대응하는 포커스의 영역을 결정하도록 프로세서 (205) 를 구성하는 명령들을 포함할 수 있다. 본원에서 설명의 목적을 위해 집합적으로, 주어진 렌즈에 대한 포커스의 영역과 포커싱 거리를 결정하는 파라미터들의 조합은, 렌즈 파라미터들로 지칭될 수 있다. 렌즈 파라미터들의 예는 포커싱 거리, 렌즈 초점 길이 및 렌즈 구경을 포함할 수 있다. 일부 렌즈 특징들은 또한 포커스의 영역을 결정하는 팩터이다. 이러한 특징들은, 예를 들어 렌즈 시스템 (210) 및 사용되는 경우 제 2 렌즈 (216) 에 대한 착락원의 직경을 포함한다.
도 3 은 이미징될 오브젝트 (302) 및 이미징 디바이스 (301) 를 예시하는 다이어그램 (300) 을 나타낸다. 이미징 디바이스 (301) 는 독립형 스틸 카메라 또는 비디오 카메라 내에서 모바일 폰, 태블릿 등과 같은 무선 통신 디바이스 내에서 구현될 수 있다. 도 2 의 실시형태와 관련하여 설명된 특징은 이미징 디바이스 (301) 를 구현하는데 이용될 수 있다. 이미징 디바이스 (301) 는 선택적으로 하나 이상의 이미지 포착 렌즈들, 예를 들어 렌즈 (304 및 306) 를 포함할 수 있다. 일부 실시형태들에서, 렌즈들 (304 및 306) 은 상이한 특징들을 가질 수 있다. 예를 들어, 렌즈 (304) 및 그 연관된 컴포넌트들은 고품질 및 해상도의 주 카메라를 구성할 수 있는 반면, 렌즈 (306) 및 그 연관된 컴포넌트들은 저품질 및 해상도의 보조 카메라일 수도 있다. 그러나, 동일하거나 유사한 렌즈 또는 카메라가 대안적으로 사용될 수 있다. 렌즈들 (304 및 306) 중 하나 이상은 이미징 디바이스 (301) 로부터의 포커싱 거리 (S1) 에서 초점 평면 상에 포커싱될 수 있다. 전술한 바와 같이, 렌즈 파라미터들의 주어진 세트 (예를 들어, 포커싱 거리, 렌즈 초점 길이 및 렌즈 구경) 에 대해, 오브젝트 (302) 가 이미징 디바이스 (301) 에 대해 적합하게 포커스 상태로 나타나는 경우 포커스의 영역 (D1-D2) 이 존재한다. 반대로, 동일한 렌즈 파라미터들에 대해, 오브젝트 (302) 가 포커스의 영역 (D1-D2) 밖에 있다면, 오브젝트 (302) 는 이미징 디바이스 (301) 에 대한 아웃 오브 포커스를 나타낸다. 위에 설명된 바와 같이 렌즈 파라미터들은 포커싱 거리, 렌즈 초점 길이 및 렌즈 구경을 포함할 수 있다. 이들 렌즈 파라미터들을 알면, 포커스의 영역 (D1-D2) 이 결정될 수 있다.
또한, 오브젝트로부터 이미징 디바이스 (301) 까지의 거리 (D) 를 결정할 수 있다. 이미징 디바이스 (301) 는 도 2 의 실시형태와 관련하여 위에서 설명된 바와 같이 거리 결정 및 모니터링 모듈 (224) 및 오브젝트 추적 모듈 (240) 을 포함할 수 있다. 따라서, 거리 (D) 는 오브젝트 (302) 를 추적하고 이미징 디바이스 (301) 로부터의 그 거리를 결정하는 것에 의해 결정될 수 있다. 이미징 디바이스 (301) 는 또한 예를 들어 오토포커스 모듈 (260) 과 통신하는 것에 의해 현재 포커스 영역을 결정하는 것에 관련된 파라미터들을 결정하도록 구성될 수 있다. 이들 파라미터는 예를 들어 렌즈 (201 및 204) 에 대한 포커싱 거리, 렌즈 초점 길이 및 렌즈 구경을 포함할 수 있다. 이미징 디바이스 (301) 는 또한 현재 포커싱 거리, 렌즈 초점 길이 및 렌즈 구경에 대응하는 포커스의 영역 (D1-D2) 을 결정하기 위한 포커스 영역 결정 모듈 (226) 을 포함하도록 구성될 수 있다. 결과적으로, 이미징 디바이스 (301) 는 포커싱 영역 (D1-D2) 과 관련하여 오브젝트 거리 (D) 를 모니터링하거나 결정할 수 있다. 오브젝트 거리 (D) 가 포커스의 영역 (D1-D2) 밖에 들어가도록 이미징 디바이스 (301) 및/또는 오브젝트 (302) 가 포지션을 변경하면, 이미징 디바이스 (301) 의 오토포커스 동작이 트리거링될 수 있다.
일부 실시형태들에서, 오브젝트 거리 (D) 가 예를 들어 이미징 디바이스 (301) 및/또는 오브젝트 (302) 의 서로에 대한 이동에 기인하여 포커스의 영역 (D1-D2) 의 밖에 들어갈 때 오브젝트 거리 (D) 가 여전히 변경될 수 있기 때문에 오토포커스 동작은 여전히 트리거링되지 않을 수도 있다. 이 시나리오에서, 오브젝트 거리 (D) 가 현재의 포커스의 영역 (D1-D2) 내로 다시 들어올 수 있고, 오토포커스 동작이 필요하지 않을 수 있도록, 최종 포지션에서 오브젝트 거리 (D) 가 안정화되는 것도 가능할 수도 있다. 대안적으로, 오브젝트 거리가 여전히 변화하는 경우, 오토포커스 동작을 트리거링하고, 오브젝트 거리 (D) 가 새롭게 획득된 포커스의 영역의 밖에 계속 들면 새로운 오토포커스 및 렌즈 포지션을 획득하는 것이 불필요할 수도 있다. 따라서, 일부 실시형태들에서, 포커스의 영역의 밖에 있는 오브젝트 거리 (D) 를 검출하는 것에 더하여, 오브젝트 거리가 안정화되었는지에 대한 추가 결정이 이루어질 수 있다. 이 시나리오에서, 예를 들어, 오브젝트 거리 (D) 가 더 모니터링될 수 있다. 지정된 기간 후에 거리 (D) 가 변하지 않았거나, 오브젝트 거리의 변화를 나타내는 다른 신호들이 검출되지 않으면, 이미징 디바이스 (301) 의 오토포커스 동작이 트리거될 수 있다. 지정된 기간은 메모리에 저장된 미리 결정된 양의 기간일 수 있다. 대안으로, 지정된 기간은 이미징 디바이스 (301) 에 의해 동적으로 결정될 수 있다.
도 2 및 도 3 을 참조하면, 위에 설명된 바와 같이, 이미징 디바이스 (301) 는 이미징 디바이스 (200) 의 피처들을 포함할 수 있다. 예를 들어, 렌즈 (304) 는 렌즈 (210) 로 구현될 수 있고, 렌즈 (306) 는 렌즈 (216) 로 구현될 수 있다. 그러나, 이미징 디바이스 (301) 는 대안적으로 단지 하나의 렌즈로 구현될 수 있다. 여전히 도 2 및 도 3 을 참조하면, 현재 포커싱 거리 (S1) 에 대한 정보는 오토포커스 모듈 (260) 로부터 획득될 수 있다. 부가적으로, 포커스 영역 결정 모듈 (226) 은 포커스의 영역 (D1-D2) 을 결정하도록 프로세서 (205) 를 구성하기 위해 렌즈 특징들 (또는 하드웨어) 정보를 포함하는 데이터베이스, 룩업 테이블 등과 인터페이스할 수 있다. 예를 들어, 포커스 영역 결정 모듈 (226) 은 렌즈 (210) 및 제 2 렌즈 (216) 의 현재 포지션 및 세트업과 관련되기 때문에 포커싱 거리, 렌즈 초점 길이 및 렌즈 구경 간의 관계에 대한 저장된 정보를 리턴할 수 있다. 포커스 영역 결정 모듈 (226) 은 렌즈 (210 및 216) 의 특징들에 고유한 프로세서 명령들을 저장할 수 있다. 이러한 프로세서 명령들은 포커싱 거리, 렌즈 초점 길이 및 렌즈 구경과 같은 현재의 렌즈 파라미터들을 입력으로서 받아들이고 대응하는 포커스의 영역 (D1-D2) 을 출력하도록 프로세서 (205) 를 구성할 수 있다.
오토포커스 트리거 모듈 (228) 은 이미징 디바이스 (200) 의 새로운 오토포커스 동작이 트리거링되어야 하는지의 여부를 결정하도록 프로세서 (205) 를 구성하는 명령들을 포함할 수 있다. 도 2 및 도 3 을 참조하면, 오토포커스 트리거 모듈 (228) 은 오브젝트 거리 (D) 를 포커스의 영역과 비교하도록 프로세서 (205) 를 구성하는 명령들을 포함할 수 있다. 오브젝트 거리 (D) 가 포커스의 영역의 밖에 들어가면, 프로세서 (205) 는 이미징 디바이스 (200) 의 새로운 오토포커싱 동작을 트리거링할 수 있다. 상술한 바와 같이, 일부 실시형태들에서, 오토포커스 트리거 모듈 (228) 은 오브젝트 거리 (D) 를 연속적으로 모니터링하도록 프로세서 (205) 를 구성하는 명령들을 포함할 수 있고, 오브젝트 거리 (D) 가 안정화되면, 예를 들어 오브젝트 거리 (D) 가 지정된 기간 동안 변경되지 않거나 또는 오브젝트 거리 (D) 가 지정된 수의 캡처된 이미지 프레임들 내에서 변경되지 않고 오브젝트 거리 (D) 의 변화를 나타내는 다른 신호도 검출되지 않으면, 프로세서 (205) 는 이미징 디바이스 (200) 의 새로운 오토포커스 동작을 트리거링할 수 있다. 이 시나리오에서, 오브젝트 거리 (D) 가 안정화되지 않으면, 예를 들어, 오브젝트 및/또는 이미징 디바이스 (301) 가 여전히 서로에 대해 이동하는 경우, 프로세서 (205) 는 이미징 디바이스 (200) 의 새로운 오토포커스 동작을 트리거링하지 않을 수도 있다. 일부 실시형태들에서, 지정된 기간은 메모리에 저장된 미리 결정된 양의 기간일 수 있다. 대안으로, 지정된 기간은 이미징 디바이스 (200) 에 의해 동적으로 결정될 수 있다. 이와 유사하게, 캡처된 이미지 프레임들의 지정된 수는 메모리에 저장된 미리정해진 수일 수도 있다. 대안적으로, 캡처된 이미지 프레임들의 지정된 수는 이미징 디바이스 (200) 에 의해 동적으로 결정될 수도 있다.
일부 실시형태들에서, 지정된 시간 또는 캡처된 이미지들의 수의 동적 결정은 오브젝트 (302) 의 유형, 오브젝트 (302) 의 이전에 결정된 움직임의 유형 또는 오브젝트 (302) 가 이미징되고 있는 장면의 결정에 기초하여 이루어질 수 있다. 예를 들어, 오브젝트 (302) 가 인물 사진을 촬영하는 휴먼 오브젝트인 것으로 결정되면, 지정된 시간은 오브젝트 (302) 가 움직이는 애완동물인 것으로 결정된 시나리오에 비해 더 짧은 시간일 수 있다. 다른 기준들은 또한 캡처된 이미지들의 지정된 시간 또는 지정된 수를 동적으로 결정하는데 사용될 수 있다.
도 4 는 이미징 디바이스로부터의 오브젝트의 거리 대 시간 경과에 따라 캡처된 이미지 프레임들 수의 일 예를 예시하는 그래프 (400) 이다. 도 4 및 도 3 을 참조하여, 일 실시형태에 따른 오토포커스 트리거 프로세스가 설명될 것이다. 그래프 (400) 에서, y 축 상에서, 이미징 디바이스 (301) 로부터의 오브젝트 (302) 의 거리는 센티미터 (cm) 의 단위로 도시된다. 그래프 (400) 에서, x 축 상에서, 연속 캡처된 이미지 프레임들의 수 또는 "프레임 번호" 가 도시된다. 예를 들면, 제 1 프레임으부터 제 6 프레임까지, 이미징 디바이스 (301) 로부터의 오브젝트 거리 (D) 는 약 20 cm 이다. 현재 렌즈 파라미터들에 대응하는 포커스의 영역 (D1-D2) 이 결정될 수 있다. 오브젝트 (302) 는 이미징 디바이스 (301) 에 대한 포지션이 변화함에 따라 추적된다. 포지션 (또는 오브젝트 거리) 에서의 변화는 이미징 디바이스 (301) 및/또는 오브젝트 (302) 가 서로에 대하여 포지션을 변경하는 것에 기인할 수 있다. 도 4 에 도시된 예에서, 프레임 번호 6 에서 시작하여, 이미징 디바이스 (201) 와 오브젝트 (202) 사이의 거리가 감소하고 있다. 예를 들어, 오브젝트 (202) 는 이미징 디바이스 (201) 에 더 가깝게 이동중에 있다. 또는, 대안적으로 이미징 디바이스 (301) 는 오브젝트 (302) 에 더 가깝게 이동되거나, 또는 이미징 디바이스 (201) 와 오브젝트 (202) 양쪽이 이동중일 수 있다. 점 (402) 근방에서, 오브젝트 거리 (D) 가 현재 포커스의 영역 (D1-D2) 밖에 있는 것으로 결정된다. 그러나, 오브젝트 거리 (D) 가 계속 변화함에 따라 새로운 오토포커스 동작은 트리거링되지 않는다. 오브젝트 거리 (D) 가 더 이상 변화하지 않는다고 결정될 때까지 오브젝트 거리 (D) 는 추가로 모니터링된다. 도 4 의 예에서, 오브젝트 거리 (D) 는 대략 프레임 번호 14 또는 점 (404) 에서 안정화되도록 결정된다. 따라서, 점 (404) 에서 또는 그 부근에서 새로운 오토포커스 동작이 트리거링될 수 있다.
도 5 는 도 2 의 이미징 디바이스 (200) 와 함께 사용될 수 있는 일부 실시형태들에 따른 오토포커스 트리거 프로세스 (500) 의 플로우차트도이다. 오토포커스 트리거 이벤트에 대한 모니터링 프로세스는 도 2 의 이미징 디바이스 (200) 의 다른 동작들의 백그라운드에서 언제든지 시작되거나 진행될 수 있다. 예를 들어 도 5 의 플로우차트에서, 2 개의 오토포커스 트리거 이벤트들 (520 및 570) 사이에 오토포커스 트리거 프로세스가 도시되어 있다. 도 2 및 도 5 를 참조하면, 프로세스 (500) 는 블록 (510) 에서 시작될 수 있다. 다음으로, 블록 (520) 에서, 초기 오토포커스 동작이 트리거링될 수 있고, 이미징 디바이스 (200) 의 하나 이상의 렌즈들 (210 및 216) 이 오토포커싱된다. 당업자는 후술되는 바와 같이 오토포커스 트리거 프로세스가 초기 오토포커스 동작을 트리거링하는 것으로 시작할 필요가 없고 블록 (520) 이 초기에 스킵될 수 있음을 쉽게 알 수 있다. 예를 들어, 하나 이상의 렌즈들 (210 및 216) 이 이전에 포커싱된 경우, 프로세스 (500) 는 블록 (530) 에서부터 시작될 수 있다. 도 2, 도 3 및 도 5 를 참조하면, 블록 (530) 에서, 오브젝트 거리 (D) 가 결정될 수 있는지의 여부가 확인된다. 오브젝트 거리 (D) 가 결정될 수 없다면, 프로세스 (500) 는 블록 (535) 으로 이동할 수 있고, 여기에서 오토포커스 동작을 트리거링하기 위한 다른 기준들이 존재할 수 있는지의 여부가 결정된다. 다른 기준들은 예를 들어, 캡처된 이미지 프레임과 하나 이상의 후속 캡처된 이미지 프레임들 간의 노출 변화가 존재할 수 있는지의 여부, 또는 캡처된 이미지 프레임과 하나 이상의 후속 캡처된 이미지 프레임들 간의 콘트라스트 차이의 손실이 존재할 수 있는지의 여부를 포함한다. 오토포커스를 트리거링하기 다른 기준들이 존재하면, 프로세스 (500) 는 블록 (520) 으로 리턴할 수도 있고 새로운 오토포커스 동작이 트리거링될 수 있고 렌즈 (210) 및 제 2 렌즈 (216)(사용되는 경우) 중 하나 이상이 오토포커싱될 수도 있다.
블록 (530) 에서 이미징 디바이스 (201) 가 오브젝트 거리 (D) 를 결정할 수 있다면, 프로세스 (500) 는 블록 (540) 으로 이동하여 이미징 디바이스 (201) 로부터 오브젝트 (202) 까지의 오브젝트 거리 (D) 가 결정될 수 있다. 수개의 기준들 및 구현 세부사항들은 오브젝트 거리 (D) 를 결정할 수 있는지의 여부와 관련될 수 있다. 예를 들어, 상술한 바와 같이 스테레오 디스패리티가 사용되는 경우, 오브젝트에서의 피처의 디스패리티가 결정될 수 있는지의 여부는 오브젝트 거리 (D) 가 결정될 수 있는지의 여부를 결정할 수 있다. 다른 예들에서, 상술한 바와 같이 레이저 범위 검색이 이용될 때, 광 펄스가 이미징 디바이스 (301) 로부터 오브젝트 (302) 까지로 진행하고 되돌아오는데 걸리는 시간이 결정될 수 있는지의 여부는 오브젝트 거리 (D) 가 결정될 수 있는지의 여부를 결정할 수 있다. 다른 실시형태들에서, 오브젝트 거리 (D) 가 결정될 수 있는지의 여부는 오브젝트 추적 모듈 (240) 이 오브젝트 (302) 를 추적할 수 있었는지의 여부와 관련하여 결정될 수 있다. 다른 파라미터들은 또한 이미징 디바이스 (301), 거리 결정 및 모니터링 모듈 (224) 및 오브젝트 추적 모듈 (240) 을 구현하는데 이용된 시스템들 및/또는 방법들에 따라 오브젝트 거리 (D) 가 결정될 수 있는지의 여부에 관련될 수 있다.
다음으로, 프로세스 (500) 는 렌즈 (210) 및/또는 제 2 렌즈 (216)(사용되는 경우) 의 렌즈 특징들 및 파라미터들에 기초하여 이미징 디바이스 (200) 가 포커스의 영역을 결정할 수 있는 블록 (545) 으로 이동한다. 전술한 바와 같이, 도 2 의 설명과 관련하여, 렌즈 특징들은 렌즈 하드웨어 데이터를 포함할 수 있고, 렌즈 파라미터들은 예를 들어 포커싱 거리, 렌즈 초점 길이 및 렌즈 구경을 포함할 수 있다. 다음으로, 프로세스 (500) 는 블록 (550) 으로 이동할 수 있고, 오브젝트 거리 (D) 가 포커스의 영역 (D1-D2) 내에 들어오는지의 여부가 결정될 수 있다. 만약 그렇다면, 프로세스 (500) 는 블록 (530) 으로 리턴할 수 있고, 오브젝트 거리 (D) 를 결정하고 모니터링하여 오브젝트 거리 (D) 가 포커스의 영역 (D1-D2) 내에 있는지의 여부를 모니터링할 수 있다. 프로세스 (500) 가 블록 (550) 으로부터 블록 (530) 으로 리턴될 때, 예를 들어, 오브젝트 거리가 포커스의 영역 (D1-D2) 내에 있을 때, 블록 (545) 은 렌즈 파라미터들이 동일하게 유지되기 때문에 선택적으로 스킵될 수도 있다고 포커스의 영역 (D1-D2) 의 재결정은 이전에 결정되었을 수 있는 동일한 포커스의 영역 (D1-D2) 을 산출할 것이다. 따라서, 프로세스 (500) 는 포커스의 영역 (D1-D2) 의 불필요한 재계산을 회피하는 것에 의해 이미징 디바이스 (200) 의 리소스들을 보존할 수 있다.
블록 (550) 에서, 오브젝트 거리 (D) 가 포커스의 영역 (D1-D2) 의 밖에 들어간다고 결정될 수 있으면, 프로세스 (500) 는 블록 (560) 으로 계속 진행될 수 있고, 여기에서 이미징 디바이스 (200) 에 대한 오브젝트 거리 (D) 가 안정적인지의 여부가 결정될 수 있다. 위에 설명된 바와 같이, 이미징 디바이스 (200) 의 구현에 따라 다양한 방식으로 오브젝트 안정성이 정의될 수 있다. 예를 들어, 오브젝트 거리 (D) 가 지정된 수보다 많은 캡처된 이미지 프레임들 내에서 변경되지 않으면, 거리 (D) 는 안정적인 것으로 간주될 수 있고, 프로세스 (500) 는 블록 (570) 으로 이동할 수 있으며, 여기에서 새로운 오토포커스 동작이 트리거링될 수 있고 렌즈 (210) 및/또는 제 2 렌즈 (216) (사용되는 경우) 가 오토포커싱될 수 있다. 한편, 오브젝트 거리 (D) 가 안정적이지 않으면, 예를 들어, 거리 (D) 가 하나 이상의 연속적인 캡처된 이미지 프레임들 사이에서 변경되면, 프로세스 (500) 는 블록 (530) 으로 리턴하여 포커스의 영역 (D1-D2) 과 관련하여 오브젝트 거리 (D) 를 결정하고 모니터링하는 것을 진행한다. 대안적으로, 일부 실시형태들에서, 블록 (550) 에서, 오브젝트 거리 (D) 가 포커스의 영역 (D1-D2) 의 밖에 들어간다고 결정될 수 있다면, 오브젝트 거리 안정성을 결정하는 블록 (560) 은 스킵될 수 있고 새로운 오토포커스 동작이 트리거링될 수 있다. 프로세스 (500) 는, 예를 들어, 이미징 디바이스들 (200) 의 이미지 캡처 기능이 디스에이블되거나 턴오프될 때 블록 (580) 에서 종료한다.
일부 실시형태들에서, 캡처된 이미지 프레임들의 지정된 수는 메모리에 저장된 미리정해진 수일 수도 있다. 대안적으로, 캡처된 이미지 프레임들의 지정된 수는 이미징 디바이스 (200) 에 의해 동적으로 결정될 수도 있다.
일부 실시형태들에서, 위에서 요약된 블록들을 실행하는 것에 더하여, 프로세스 (500) 는 또한 블록들 (585 및 590) 에 따라 오토포커스 트리거 프로세스를 병행적으로 실행할 수 있다. 일부 이미징 디바이스는 모바일 컴퓨팅 디바이스에 모션 검출기, 예를 들어, 가속도계 또는 자이로스코프를 포함할 수 있다. 종종 이미징 디바이스 (200) 의 현저한 움직임은 새로운 오토포커스 동작이 트리거되어야 하는 장면에서의 변화를 나타낼 수 있다. 결과적으로, 프로세스 (500) 는 모션 검출기로부터 신호를 받아들일 수 있고, 현저한 이미징 디바이스 움직임, 예를 들어 미리 정해진 임계값을 초과하는 움직임이 검출될 수 있으면, 프로세스 (500) 는 블록 (590) 에서 오토포커스 동작을 트리거링할 수 있다. 이미징 디바이스 (200) 의 현저한 움직임을 나타내는 신호가 검출될 수 없다면, 프로세스 (500) 는 블록 (585) 으로 리턴할 수 있어, 이미징 디바이스 (200) 의 모션 검출기로부터의 신호를 계속하여 모니터링할 수 있다.
설명된 바와 같이, 일부 실시형태들은 이미징 디바이스의 오토포커스 동작을 언제 트리거링할지를 결정하기 위해, 예를 들어 포커스의 영역과 같은 다이렉트 메트릭을 이용한다. 그 결과, 기술된 실시형태들은 개선된 오토포커스 트리거링 기능을 갖는다.
도 6 은 일 실시형태에 따른 오토포커스 동작을 트리거링하는 방법 (600) 을 예시하는 플로우차트이다. 방법은 메모리 컴포넌트에서, 제 1 렌즈의 렌즈 파라미터들, 및 렌즈 파라미터들에 대응하는 포커스의 영역들을 저장하는 것에 의해 블록 (610) 에서 시작한다. 다음으로, 방법은 제 1 시간 인스턴스에서 타겟 오브젝트 상에 제 1 렌즈를 포커싱하는 것에 의해 블록 (620) 으로 이동한다. 다음으로, 방법은 기간에 걸쳐 이미징 디바이스로부터 타겟 오브젝트까지의 거리들을 나타내는 정보를 수신하는 것에 의해 블록 (630) 으로 이동하며, 제 1 시간 인스턴스는 상기 기간에 포함된다. 그 다음, 방법은 제 1 시간 인스턴스에서 제 1 렌즈의 렌즈 파라미터들을 획득하는 것에 의해 블록 (640) 으로 이동한다. 그 다음, 방법은 제 1 시간 인스턴스에서의 거리 및 제 1 시간 인스턴스에서의 렌즈 파라미터들에 기초하여 포커스의 영역을 결정하는 것에 의해 블록 (650) 으로 이동한다. 다음으로, 방법은 타겟 오브젝트가 포커스의 영역의 밖에 있음을 타겟 오브젝트까지의 거리가 나타내고 타겟 오브젝트까지의 거리가 지정된 기간 동안 변경되지 않으면, 타겟 오브젝트 상에 재포커싱하도록 제 1 렌즈를 트리거링하는 것에 의해 블록 (660) 에서 종료한다.
본원에 개시된 실시형태들에 관련하여 설명된 다양한 예시적인 논리적 블록들, 모듈들, 회로들, 및 프로세스 단계들은 전자 하드웨어, 컴퓨터 소프트웨어, 또는 이들 양자의 조합들로 구현될 수도 있음을 당업자들은 또한 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 교환성을 명확하게 설명하기 위해, 다양한 예시적인 컴포넌트들, 블록들, 모듈들, 회로들, 및 단계들을 그들의 기능적 관점에서 일반적으로 위에서 설명되었다. 그러한 기능이 하드웨어 또는 소프트웨어로 구현되는지 여부는 특정 애플리케이션 및 전체 시스템에 부과되는 설계 제약들에 따라 달라진다. 당업자라면, 상기 상술한 기능성을 각각의 특정 애플리케이션에 대해 다양한 방식으로 구현할 수도 있지만, 이러한 구현 결정은 본 발명의 예시적인 실시형태들의 범위 또는 실시형태들의 양태들을 벗어나게 하는 것으로 이해되어서는 안된다. 일부분 또는 일부는 전체보다 적게 또는 전체와 동일하게 포함할 수도 있음을 당업자는 이해할 것이다. 예를 들어, 픽셀들의 수집의 일부분은 이러한 픽셀들의 하위 수집을 지칭할 수도 있다.
본원에서 개시된 실시형태들과 연계하여 설명된 여러가지 예증적인 논리 블록들, 모듈들, 및 회로들은 본원에서 개시된 기능들을 수행하도록 디자인된 범용 프로세서, 디지털 신호 프로세서 (DSP), 주문형 반도체 (ASIC), 필드 프로그래머블 게이트 어레이 (FPGA) 또는 다른 프로그래머블 로직 디바이스, 이산 게이트 또는 트랜지스터 로직, 이산 하드웨어 컴포넌트들, 또는 이들의 임의의 조합에 의해 구현되거나 수행될 수도 있다. 범용 프로세서는 마이크로프로세서일 수도 있지만, 다르게는, 상기 프로세서는 임의의 프로세서, 제어기, 마이크로컨트롤러, 또는 상태 머신일 수도 있다. 프로세서는 또한 컴퓨팅 디바이스들의 조합, 예를 들면, DSP 와 마이크로프로세서의 조합, 복수의 마이크로프로세서들, DSP 코어와 연계한 하나 이상의 마이크로프로세서들, 또는 임의의 다른 그러한 구성으로 구현될 수도 있다.
본원에서 개시된 구체예들과 연계하여 설명된 방법 또는 프로세스의 단계들은 하드웨어에서, 프로세서에 의해 실행되는 소프트웨어 모듈에서, 또는 이들 양자의 조합에서 직접적으로 구현될 수도 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터들, 하드 디스크, 이동식 디스크, CD-ROM, 또는 공지된 임의의 다른 형태의 저장 매체 내에 상주할 수도 있다. 예시적인 컴퓨터 판독가능 저장 매체는 프로세서에 커플링되어, 프로세가 컴퓨터 판독가능 저장 매체로부터 정보를 판독하거나 컴퓨터 판독가능 저장 매체에 정보를 기록할 수 있다. 대안에서, 저장 매체는 프로세서에 통합될 수도 있다. 프로세서와 저장 매체는 ASIC 내에 있을 수도 있다. ASIC 는 사용자 단말기, 카메라, 또는 다른 디바이스 내에 있을 수도 있다. 대안에서, 프로세서와 저장 매체는 사용자 단말기에서 개별 컴포넌트들로 있을 수도 있다.
표제들은 참조를 위해 본원에 포함되고 다양한 섹션들의 위치를 찾는 것을 돕고자 한다. 이러한 표제들은 그와 관련하여 설명된 개념들의 범위를 제한하고자 하지 않는다. 이러한 개념들은 전체 명세서에 걸쳐 적용가능성을 가질 수도 있다.
개시된 구현들의 이전 설명들은 임의의 당업자가 본원에 개시된 혁신들의 실시형태들을 실시하거나 이용하는 것을 가능하게 하도록 하기 위해 제공된다. 이러한 구현들에 대한 다양한 수정들이 당업자에게는 자명할 것이고, 본원에서 정의된 일반적인 원칙들은 본 개시의 정신 또는 범위를 벗어나지 않으면서 다른 구현들에 적용될 수도 있다. 현재 설명된 실시형태들은 본원에 도시된 구현들로 제한되도록 의도되지 않으며, 다만 본원에 개시된 원리들 및 신규의 특징들에 부합하는 가장 넓은 범위에 따르는 것이다.

Claims (30)

  1. 포커싱 시스템으로서,
    제 1 렌즈;
    상기 제 1 렌즈의 렌즈 파라미터들, 및 상기 렌즈 파라미터들에 대응하는 포커스의 영역들을 저장하도록 구성되는 메모리 컴포넌트; 및
    상기 메모리 및 상기 제 1 렌즈에 커플링된 프로세서를 포함하고,
    상기 프로세서는:
    제 1 시간 인스턴스에서 타겟 오브젝트 상에 상기 제 1 렌즈를 포커싱하고,
    기간에 걸쳐 이미징 디바이스로부터 상기 타겟 오브젝트까지의 거리들을 나타내는 정보를 수신하는 것으로서, 상기 제 1 시간 인스턴스는 상기 기간에 포함된, 상기 정보를 수신하고,
    상기 제 1 시간 인스턴스에서 상기 제 1 렌즈의 렌즈 파라미터들을 획득하고,
    상기 제 1 시간 인스턴스에서의 거리 및 상기 제 1 시간 인스턴스에서의 렌즈 파라미터들에 기초하여 포커스의 영역을 결정하고, 그리고
    상기 타겟 오브젝트가 상기 포커스의 영역의 밖에 있음을 상기 타겟 오브젝트까지의 거리가 나타내고 상기 타겟 오브젝트까지의 거리가 지정된 기간 동안 변경되지 않으면, 상기 타겟 오브젝트 상에 재포커싱하도록 상기 제 1 렌즈를 트리거링하도록 구성되는, 포커싱 시스템.
  2. 제 1 항에 있어서,
    상기 렌즈 파라미터들은 상기 제 1 렌즈의 구경 (aperture) 을 나타내는 정보 및 상기 제 1 시간 인스턴스에서의 상기 제 1 렌즈의 초점 길이를 나타내는 정보를 포함하는, 포커싱 시스템.
  3. 제 1 항에 있어서,
    상기 프로세서는 또한, 상기 포커스의 영역을 결정하기 위해 상기 제 1 렌즈의 렌즈 파라미터들을 취출하고 취출된 상기 렌즈 파라미터들을 이용하도록 상기 메모리 컴포넌트에 액세스하도록 구성되는, 포커싱 시스템.
  4. 제 1 항에 있어서,
    상기 메모리 컴포넌트는 렌즈 파라미터들 및 포커스의 연관된 영역들로 구성되고, 상기 프로세서는 또한, 상기 제 1 시간 인스턴스에서 상기 제 1 렌즈의 상기 렌즈 파라미터들과 연관된 포커스의 영역을 상기 메모리 컴포넌트로부터 취출하도록 구성되는, 포커싱 시스템.
  5. 제 1 항에 있어서,
    상기 지정된 기간은 미리 정해진 기간을 포함하는, 포커싱 시스템.
  6. 제 1 항에 있어서,
    상기 포커스의 영역은 상기 제 1 렌즈의 상기 렌즈 파라미터들과 연관된 필드의 깊이 내에서의 미리 정해진 거리인, 포커싱 시스템.
  7. 제 1 항에 있어서,
    상기 프로세서와 커플링된 범위 검색 시스템을 더 포함하고, 상기 범위 검색 시스템은 상기 이미징 디바이스로부터 상기 타겟 오브젝트까지의 거리를 나타내는 정보를 상기 프로세서에 전송하도록 구성되는, 포커싱 시스템.
  8. 제 7 항에 있어서,
    상기 범위 검색 시스템은 상기 제 1 렌즈 및 제 2 렌즈를 포함하고, 상기 범위 검색 시스템은 상기 제 1 렌즈를 이용하여 생성된 이미지와, 상기 제 2 렌즈를 이용하여 생성된 이미지 사이의 디스패리티에 기초하여 상기 이미징 디바이스로부터 상기 타겟 오브젝트까지의 거리를 나타내는 정보를 결정하도록 구성되는, 포커싱 시스템.
  9. 제 7 항에 있어서,
    상기 범위 검색 시스템은 광 이미터를 포함하고, 상기 범위 검색 시스템은 상기 광 이미터에 의해 방출되고 상기 타겟 오브젝트로부터 반사되는 광을 수신하는 것에 기초하여 상기 이미징 디바이스로부터 상기 타겟 오브젝트까지의 거리를 나타내는 정보를 결정하도록 구성되는, 포커싱 시스템.
  10. 포커싱 방법으로서,
    메모리 컴포넌트에서, 제 1 렌즈의 렌즈 파라미터들, 및 상기 렌즈 파라미터들에 대응하는 포커스의 영역들을 저장하는 단계;
    제 1 시간 인스턴스에서 타겟 오브젝트 상에 상기 제 1 렌즈를 포커싱하는 단계;
    기간에 걸쳐 이미징 디바이스로부터 상기 타겟 오브젝트까지의 거리들을 나타내는 정보를 수신하는 단계로서, 상기 제 1 시간 인스턴스는 상기 기간에 포함된, 상기 정보를 수신하는 단계;
    상기 제 1 시간 인스턴스에서 상기 제 1 렌즈의 렌즈 파라미터들을 획득하는 단계;
    상기 제 1 시간 인스턴스에서의 거리 및 상기 제 1 시간 인스턴스에서의 렌즈 파라미터들에 기초하여 포커스의 영역을 결정하는 단계; 및
    상기 타겟 오브젝트가 상기 포커스의 영역의 밖에 있음을 상기 타겟 오브젝트까지의 거리가 나타내고 상기 타겟 오브젝트까지의 거리가 지정된 기간 동안 변경되지 않으면, 상기 타겟 오브젝트 상에 재포커싱하도록 상기 제 1 렌즈를 트리거링하는 단계를 포함하는, 포커싱 방법.
  11. 제 10 항에 있어서,
    상기 렌즈 파라미터들은 상기 제 1 렌즈의 구경을 나타내는 정보 및 상기 제 1 시간 인스턴스에서의 상기 제 1 렌즈의 초점 길이를 나타내는 정보를 포함하는, 포커싱 방법.
  12. 제 10 항에 있어서,
    상기 포커스의 영역을 결정하기 위해 상기 제 1 렌즈의 렌즈 파라미터들을 취출하고 취출된 상기 렌즈 파라미터들을 이용하도록 상기 메모리 컴포넌트에 액세스하는 단계를 더 포함하는, 포커싱 방법.
  13. 제 10 항에 있어서,
    상기 지정된 기간은 미리 정해진 기간을 포함하는, 포커싱 방법.
  14. 제 10 항에 있어서,
    상기 포커스의 영역은 상기 제 1 렌즈의 상기 렌즈 파라미터들과 연관된 필드의 깊이 내에서의 미리 정해진 거리인, 포커싱 방법.
  15. 제 10 항에 있어서,
    상기 제 1 렌즈를 이용하여 생성된 이미지와, 제 2 렌즈를 이용하여 생성된 이미지 사이의 디스패리티에 기초하여 상기 이미징 디바이스로부터 상기 타겟 오브젝트까지의 거리를 나타내는 정보를 결정하는 단계를 더 포함하는, 포커싱 방법.
  16. 제 10 항에 있어서,
    상기 타겟 오브젝트로 광을 방출하고 상기 타겟 오브젝트로부터 반사된 광을 수신하는 것에 기초하여 상기 이미징 디바이스로부터 상기 타겟 오브젝트까지의 거리를 나타내는 정보를 결정하는 단계를 더 포함하는, 포커싱 방법.
  17. 시스템으로서,
    제 1 렌즈의 렌즈 파라미터들, 및 상기 렌즈 파라미터들에 대응하는 포커스의 영역들을 저장하기 위한 수단;
    제 1 시간 인스턴스에서 타겟 오브젝트 상에 상기 제 1 렌즈를 포커싱하기 위한 수단;
    기간에 걸쳐 이미징 디바이스로부터 상기 타겟 오브젝트까지의 거리들을 나타내는 정보를 수신하기 위한 수단으로서, 상기 제 1 시간 인스턴스는 상기 기간에 포함된, 상기 정보를 수신하기 위한 수단;
    상기 제 1 시간 인스턴스에서 상기 제 1 렌즈의 렌즈 파라미터들을 획득하기 위한 수단;
    상기 제 1 시간 인스턴스에서의 거리 및 상기 제 1 시간 인스턴스에서의 렌즈 파라미터들에 기초하여 포커스의 영역을 결정하기 위한 수단; 및
    상기 타겟 오브젝트가 상기 포커스의 영역의 밖에 있음을 상기 타겟 오브젝트까지의 거리가 나타내고 상기 타겟 오브젝트까지의 거리가 지정된 기간 동안 변경되지 않으면, 상기 타겟 오브젝트 상에 재포커싱하도록 상기 제 1 렌즈를 트리거링하기 위한 수단을 포함하는, 시스템.
  18. 제 17 항에 있어서,
    상기 렌즈 파라미터들은 상기 제 1 렌즈의 구경을 나타내는 정보 및 상기 제 1 시간 인스턴스에서의 상기 제 1 렌즈의 초점 길이를 나타내는 정보를 포함하는, 시스템.
  19. 제 17 항에 있어서,
    상기 포커스의 영역을 결정하기 위해 상기 제 1 렌즈의 렌즈 파라미터들을 취출하고 취출된 상기 렌즈 파라미터들을 이용하기 위한 수단을 더 포함하는, 시스템.
  20. 제 17 항에 있어서,
    상기 지정된 기간은 미리 정해진 기간을 포함하는, 시스템.
  21. 제 17 항에 있어서,
    상기 포커스의 영역은 상기 제 1 렌즈의 상기 렌즈 파라미터들과 연관된 필드의 깊이 내에서의 미리 정해진 거리인, 시스템.
  22. 제 17 항에 있어서,
    상기 제 1 렌즈를 이용하여 생성된 이미지와, 제 2 렌즈를 이용하여 생성된 이미지 사이의 디스패리티에 기초하여 상기 이미징 디바이스로부터 상기 타겟 오브젝트까지의 거리를 나타내는 정보를 결정하기 위한 수단을 더 포함하는, 시스템.
  23. 제 17 항에 있어서,
    상기 타겟 오브젝트로 광을 방출하고 상기 타겟 오브젝트로부터 반사된 광을 수신하는 것에 기초하여 상기 이미징 디바이스로부터 상기 타겟 오브젝트까지의 거리를 나타내는 정보를 결정하기 위한 수단을 더 포함하는, 시스템.
  24. 명령들을 저장한 비일시적 컴퓨터 판독가능 저장 매체로서,
    상기 명령들은 하나 이상의 컴퓨팅 디바이스들에 의해 실행될 때:
    메모리 컴포넌트에서, 제 1 렌즈의 렌즈 파라미터들, 및 상기 렌즈 파라미터들에 대응하는 포커스의 영역들을 저장하는 단계;
    제 1 시간 인스턴스에서 타겟 오브젝트 상에 상기 제 1 렌즈를 포커싱하는 단계;
    기간에 걸쳐 이미징 디바이스로부터 상기 타겟 오브젝트까지의 거리들을 나타내는 정보를 수신하는 단계로서, 상기 제 1 시간 인스턴스는 상기 기간에 포함된, 상기 정보를 수신하는 단계;
    상기 제 1 시간 인스턴스에서 상기 제 1 렌즈의 렌즈 파라미터들을 획득하는 단계;
    상기 제 1 시간 인스턴스에서의 거리 및 상기 제 1 시간 인스턴스에서의 렌즈 파라미터들에 기초하여 포커스의 영역을 결정하는 단계; 및
    상기 타겟 오브젝트가 상기 포커스의 영역의 밖에 있음을 상기 타겟 오브젝트까지의 거리가 나타내고 상기 타겟 오브젝트까지의 거리가 지정된 기간 동안 변경되지 않으면, 상기 타겟 오브젝트 상에 재포커싱하도록 상기 제 1 렌즈를 트리거링하는 단계를 포함하는 방법을 수행하게 하는, 명령들을 저장한 비일시적 컴퓨터 판독가능 저장 매체.
  25. 제 24 항에 있어서,
    상기 렌즈 파라미터들은 상기 제 1 렌즈의 구경을 나타내는 정보 및 상기 제 1 시간 인스턴스에서의 상기 제 1 렌즈의 초점 길이를 나타내는 정보를 포함하는, 명령들을 저장한 비일시적 컴퓨터 판독가능 저장 매체.
  26. 제 24 항에 있어서,
    상기 방법은 상기 포커스의 영역을 결정하기 위해 상기 제 1 렌즈의 렌즈 파라미터들을 취출하고 취출된 상기 렌즈 파라미터들을 이용하도록 상기 메모리 컴포넌트에 액세스하는 단계를 더 포함하는, 명령들을 저장한 비일시적 컴퓨터 판독가능 저장 매체.
  27. 제 24 항에 있어서,
    상기 지정된 기간은 미리 정해진 기간을 포함하는, 명령들을 저장한 비일시적 컴퓨터 판독가능 저장 매체.
  28. 제 24 항에 있어서,
    상기 포커스의 영역은 상기 제 1 렌즈의 상기 렌즈 파라미터들과 연관된 필드의 깊이 내에서의 미리 정해진 거리인, 명령들을 저장한 비일시적 컴퓨터 판독가능 저장 매체.
  29. 제 24 항에 있어서,
    상기 방법은 상기 제 1 렌즈를 이용하여 생성된 이미지와, 제 2 렌즈를 이용하여 생성된 이미지 사이의 디스패리티에 기초하여 상기 이미징 디바이스로부터 상기 타겟 오브젝트까지의 거리를 나타내는 정보를 결정하는 단계를 더 포함하는, 명령들을 저장한 비일시적 컴퓨터 판독가능 저장 매체.
  30. 제 24 항에 있어서,
    상기 타겟 오브젝트로 광을 방출하고 상기 타겟 오브젝트로부터 반사된 광을 수신하는 것에 기초하여 상기 이미징 디바이스로부터 상기 타겟 오브젝트까지의 거리를 나타내는 정보를 결정하는 단계를 더 포함하는, 명령들을 저장한 비일시적 컴퓨터 판독가능 저장 매체.
KR1020177037941A 2015-07-02 2016-06-10 오토포커스 트리거를 위한 시스템들 및 방법들 KR102299566B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/791,035 2015-07-02
US14/791,035 US9703175B2 (en) 2015-07-02 2015-07-02 Systems and methods for autofocus trigger
PCT/US2016/036891 WO2017003664A1 (en) 2015-07-02 2016-06-10 Systems and methods for autofocus trigger

Publications (2)

Publication Number Publication Date
KR20180026410A true KR20180026410A (ko) 2018-03-12
KR102299566B1 KR102299566B1 (ko) 2021-09-07

Family

ID=56204001

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177037941A KR102299566B1 (ko) 2015-07-02 2016-06-10 오토포커스 트리거를 위한 시스템들 및 방법들

Country Status (7)

Country Link
US (2) US9703175B2 (ko)
EP (1) EP3318054B1 (ko)
JP (1) JP6887960B2 (ko)
KR (1) KR102299566B1 (ko)
CN (1) CN107710735B (ko)
BR (1) BR112018000076A2 (ko)
WO (1) WO2017003664A1 (ko)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9703175B2 (en) 2015-07-02 2017-07-11 Qualcomm Incorporated Systems and methods for autofocus trigger
US20170171456A1 (en) * 2015-12-10 2017-06-15 Google Inc. Stereo Autofocus
KR102636272B1 (ko) 2016-07-26 2024-02-14 삼성전자주식회사 영상 촬상 장치 및 이를 포함하는 전자 시스템
US10284761B2 (en) 2016-11-17 2019-05-07 Motorola Mobility Llc Multi-camera capture of a high dynamic range image
US10250794B2 (en) 2017-01-04 2019-04-02 Motorola Mobility Llc Capturing an image using multi-camera automatic focus
US10169671B2 (en) 2017-02-17 2019-01-01 Motorola Mobility Llc Face detection with temperature and distance validation
US10250795B2 (en) * 2017-03-15 2019-04-02 Motorola Mobility Llc Identifying a focus point in a scene utilizing a plurality of cameras
JP2018169517A (ja) * 2017-03-30 2018-11-01 ソニーセミコンダクタソリューションズ株式会社 撮像装置、撮像モジュールおよび撮像装置の制御方法
US10951809B2 (en) * 2018-10-09 2021-03-16 The Boeing Company Adaptive camera control and calibration for dynamic focus
CN111521119B (zh) * 2020-04-24 2021-07-23 北京科技大学 一种铸坯厚度自适应在线图像采集方法
US11367220B1 (en) * 2020-08-27 2022-06-21 Edge 3 Technologies Localization of lens focus parameter estimation and subsequent camera calibration
CN113676719B (zh) * 2021-07-21 2023-11-14 北京中科慧眼科技有限公司 双目立体相机的对焦参数计算方法、系统和智能终端
EP4320472A1 (en) 2021-10-12 2024-02-14 Samsung Electronics Co., Ltd. Device and method for predicted autofocus on an object
CN115079369B (zh) * 2022-05-25 2023-12-26 北京都视科技有限公司 镜头模组的光学对焦方法、装置、存储介质以及镜头模组
USD981450S1 (en) 2022-10-26 2023-03-21 Meta Platforms, Inc. Display screen or portion thereof with a graphical user interface
USD981449S1 (en) 2022-10-26 2023-03-21 Meta Platforms, Inc. Display screen or portion thereof with an animated graphical user interface

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006208818A (ja) * 2005-01-28 2006-08-10 Sony Corp フォーカス制御装置、フォーカス制御方法
US20120113300A1 (en) * 2010-11-04 2012-05-10 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2013186293A (ja) * 2012-03-08 2013-09-19 Seiko Epson Corp 画像生成装置および画像表示方法
KR20150004397A (ko) * 2012-04-26 2015-01-12 더 트러스티스 오브 콜롬비아 유니버시티 인 더 시티 오브 뉴욕 이미지들 내에서의 대화형 리포커싱을 제공하기 위한 시스템들, 방법들, 및 매체들
US20150124157A1 (en) * 2013-11-01 2015-05-07 Canon Kabushiki Kaisha Focus adjustment apparatus, method for controlling focus adjustment apparatus, and storage medium
KR20180061021A (ko) * 2016-11-28 2018-06-07 톰슨 라이센싱 이미징 디바이스를 모델링하는 방법, 대응하는 컴퓨터 프로그램 제품 및 컴퓨터 판독가능 캐리어 매체

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4104113C2 (de) 1990-02-14 1996-05-23 Asahi Optical Co Ltd Kamera mit motorbetriebenem Zoomobjektiv
JPH0686142A (ja) * 1992-08-31 1994-03-25 Canon Inc 撮像装置
JP3206980B2 (ja) * 1992-09-11 2001-09-10 旭光学工業株式会社 自動焦点制御装置
US5864360A (en) * 1993-08-26 1999-01-26 Canon Kabushiki Kaisha Multi-eye image pick-up apparatus with immediate image pick-up
US6341012B1 (en) * 1999-11-01 2002-01-22 Fuji Photo Optical Co., Ltd. Rangefinder apparatus and rangefinding light-detecting device
JP2004354581A (ja) 2003-05-28 2004-12-16 Minolta Co Ltd 撮像装置
GB2407635B (en) * 2003-10-31 2006-07-12 Hewlett Packard Development Co Improvements in and relating to camera control
EP1638319B1 (en) * 2003-11-21 2007-05-30 Fujinon Corporation Autofocus system
JP4775930B2 (ja) 2004-02-20 2011-09-21 キヤノン株式会社 レンズ制御装置、撮像装置およびレンズ制御方法
JP2006129173A (ja) 2004-10-29 2006-05-18 Fuji Photo Film Co Ltd カメラシステム
US7853041B2 (en) 2005-01-07 2010-12-14 Gesturetek, Inc. Detecting and tracking objects in images
JP4407564B2 (ja) * 2005-04-15 2010-02-03 ソニー株式会社 オートフォーカス装置とオートフォーカス方法およびプログラム
US7676146B2 (en) 2007-03-09 2010-03-09 Eastman Kodak Company Camera using multiple lenses and image sensors to provide improved focusing capability
DE102008001451A1 (de) 2008-04-29 2009-11-05 Robert Bosch Gmbh Kamera und Verfahren zum Steuern einer Kamera
JP4535173B2 (ja) * 2008-06-26 2010-09-01 ソニー株式会社 撮像装置及びフォーカス制御方法並びにプログラム
US8094292B2 (en) * 2008-09-17 2012-01-10 Institut National De La Recherche Scientifique Cross-chirped interferometry system and method for light detection and ranging
JP5425554B2 (ja) * 2009-07-27 2014-02-26 富士フイルム株式会社 立体撮像装置及び立体撮像方法
US8249299B1 (en) 2009-08-17 2012-08-21 Adobe Systems Incorporated Systems and methods of tracking objects in video
US9267797B2 (en) * 2010-06-22 2016-02-23 Ricoh Company, Ltd. Range-finding device and imaging apparatus
JP5800498B2 (ja) * 2010-12-17 2015-10-28 キヤノン株式会社 自動焦点調整装置およびそれを有するレンズ装置
JP5762211B2 (ja) * 2011-08-11 2015-08-12 キヤノン株式会社 画像処理装置および画像処理方法、プログラム
JP6241791B2 (ja) * 2012-03-15 2017-12-06 パナソニックIpマネジメント株式会社 オートフォーカス装置及び撮像装置
US8836799B2 (en) 2012-03-30 2014-09-16 Qualcomm Incorporated Method to reject false positives detecting and tracking image objects
US8718459B2 (en) 2012-06-01 2014-05-06 Blackberry Limited Method and digital camera having improved autofocus
US9354486B2 (en) * 2012-06-07 2016-05-31 DigitalOptics Corporation MEMS MEMS fast focus camera module
US9852511B2 (en) 2013-01-22 2017-12-26 Qualcomm Incoporated Systems and methods for tracking and detecting a target object
JP6049518B2 (ja) 2013-03-27 2016-12-21 オリンパス株式会社 画像処理装置、内視鏡装置、プログラム及び画像処理装置の作動方法
JP6351234B2 (ja) * 2013-11-01 2018-07-04 キヤノン株式会社 自動焦点調節装置、自動焦点調節装置の制御方法、自動焦点調節装置の制御プログラムおよび記憶媒体
TWI515470B (zh) 2014-04-30 2016-01-01 聚晶半導體股份有限公司 使用多鏡頭的自動對焦系統及其方法
US9703175B2 (en) 2015-07-02 2017-07-11 Qualcomm Incorporated Systems and methods for autofocus trigger

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006208818A (ja) * 2005-01-28 2006-08-10 Sony Corp フォーカス制御装置、フォーカス制御方法
US20120113300A1 (en) * 2010-11-04 2012-05-10 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2013186293A (ja) * 2012-03-08 2013-09-19 Seiko Epson Corp 画像生成装置および画像表示方法
KR20150004397A (ko) * 2012-04-26 2015-01-12 더 트러스티스 오브 콜롬비아 유니버시티 인 더 시티 오브 뉴욕 이미지들 내에서의 대화형 리포커싱을 제공하기 위한 시스템들, 방법들, 및 매체들
US20150124157A1 (en) * 2013-11-01 2015-05-07 Canon Kabushiki Kaisha Focus adjustment apparatus, method for controlling focus adjustment apparatus, and storage medium
KR20180061021A (ko) * 2016-11-28 2018-06-07 톰슨 라이센싱 이미징 디바이스를 모델링하는 방법, 대응하는 컴퓨터 프로그램 제품 및 컴퓨터 판독가능 캐리어 매체

Also Published As

Publication number Publication date
JP2018525658A (ja) 2018-09-06
US10061182B2 (en) 2018-08-28
BR112018000076A2 (pt) 2018-08-28
EP3318054B1 (en) 2021-04-07
US20170277018A1 (en) 2017-09-28
US9703175B2 (en) 2017-07-11
CN107710735A (zh) 2018-02-16
KR102299566B1 (ko) 2021-09-07
JP6887960B2 (ja) 2021-06-16
WO2017003664A1 (en) 2017-01-05
US20170003573A1 (en) 2017-01-05
EP3318054A1 (en) 2018-05-09
CN107710735B (zh) 2021-01-29

Similar Documents

Publication Publication Date Title
US10061182B2 (en) Systems and methods for autofocus trigger
US10200620B2 (en) Zooming control apparatus, image capturing apparatus and control methods thereof
US11956536B2 (en) Methods and apparatus for defocus reduction using laser autofocus
US9998650B2 (en) Image processing apparatus and image pickup apparatus for adding blur in an image according to depth map
US8970770B2 (en) Continuous autofocus based on face detection and tracking
KR20190104216A (ko) 포커스 방법, 단말기 및 컴퓨터 판독 가능 저장 매체
JP2013044844A (ja) 画像処理装置および画像処理方法
US9247125B2 (en) Auxiliary light projection apparatus, flash apparatus, and photographing apparatus
JP5968379B2 (ja) 画像処理装置およびその制御方法
JP6139960B2 (ja) 撮像装置およびその制御方法
US20160227102A1 (en) Image capturing apparatus and control method thereof, and storage medium
US9854150B2 (en) Auto-focus control in a camera to prevent oscillation
JP5871196B2 (ja) 焦点調節装置、および、撮像装置
TW201642008A (zh) 影像擷取裝置及其動態對焦方法
JP6525710B2 (ja) 撮像装置及びその制御方法、並びにプログラム
JP2019083580A (ja) 画像処理装置、画像処理方法、プログラム
US10530985B2 (en) Image capturing apparatus, image capturing system, method of controlling image capturing apparatus, and non-transitory computer-readable storage medium

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant