KR20240010421A - 촬상 장치, 제어 방법, 및 컴퓨터 프로그램 - Google Patents

촬상 장치, 제어 방법, 및 컴퓨터 프로그램 Download PDF

Info

Publication number
KR20240010421A
KR20240010421A KR1020230090818A KR20230090818A KR20240010421A KR 20240010421 A KR20240010421 A KR 20240010421A KR 1020230090818 A KR1020230090818 A KR 1020230090818A KR 20230090818 A KR20230090818 A KR 20230090818A KR 20240010421 A KR20240010421 A KR 20240010421A
Authority
KR
South Korea
Prior art keywords
control
amount
image
unit
image sensor
Prior art date
Application number
KR1020230090818A
Other languages
English (en)
Inventor
히로아키 기무라
Original Assignee
캐논 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 캐논 가부시끼가이샤 filed Critical 캐논 가부시끼가이샤
Publication of KR20240010421A publication Critical patent/KR20240010421A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/671Focus control based on electronic image sensor signals in combination with active ranging signals, e.g. using light or sound signals emitted toward objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

촬상 장치는 촬상 광학계에 의해 형성된 피사체 이미지로부터 이미지 신호를 생성하기 위한 이미지 센서; 촬상 광학계의 주면에 대하여 이미지 센서를 틸팅하는 틸트 제어를 실행하도록 구성되는 틸트 제어 유닛; 이미지 센서에 포함된 위상차 검출 픽셀에 의해, 위상차 검출 픽셀의 위치에서의 피사체 이미지에 대한 디포커스 양을 도출하도록 구성되는 도출 유닛; 및 도출 유닛에 의해 디포커스 양을 도출함에 있어서 틸트 제어 유닛에 의한 틸트 제어를 실행하고, 도출 유닛에 의해, 틸트 제어를 실행하는 동안 획득된 피사체 이미지에 기초하여 디포커스 양을 도출하게끔 제어하도록 구성되는 제어 유닛을 포함한다.

Description

촬상 장치, 제어 방법, 및 컴퓨터 프로그램{IMAGE CAPTURING APPARATUS, CONTROL METHOD, AND COMPUTER PROGRAM}
본 발명은 일반적으로 촬상 장치, 제어 방법 및 컴퓨터 프로그램에 관한 것으로, 특히 촬상 장치에서의 포커스 제어 및 틸트 제어에 관한 것이다.
일부 경우들에서, 감시 카메라는 높은 장소에 설치되고, 도로를 지나가는 사람들을 감시하거나 자동차 또는 그것의 번호판을 캡처하기 위해 비스듬히 아래를 향하게 된다. 피사체(사람들, 자동차 또는 번호판)는 도로의 표면을 따라 위치되므로, 위에 설명된 상황에서 카메라의 포커스 평면은 피사체가 위치된 표면과 일치하지 않는다. 그 결과, 카메라에 의해 캡처되는 범위 내에서, 일부 영역에만 인 포커스(in focus)되고 나머지 영역은 흐려진다. 이러한 상황에서 인-포커스 영역(피사계 심도의 범위)을 넓히는 기술로서, 렌즈와 이미지 센서를 상대적으로 틸팅함으로써 이미지를 캡처하는 기술("틸트"라고 지칭됨)이 알려져 있다.
일본 특허공개공보 제2003-75716호(특허문헌 1)는 콘트라스트 평가 값에 기초하여 포커스 위치 및 틸트 제어량을 정하여 복수의 피사체에 포커스하는 기술을 개시한다. 일본 특허공개공보 제2001-116980호(특허문헌 2)는 포커스 위치를 한 단부로부터 다른 단부로 구동하고, 복수의 피사체 각각에 대한 콘트라스트 평가 값이 최대인 포커스 위치를 저장하는 방법을 설명한다.
그러나, 특허문헌 1 및 2 각각에 개시된 촬상 장치는 렌즈와 이미지 센서를 실제로 이동시켜 콘트라스트 평가 값을 도출하고, 틸트 각도와 포커스 위치를 획득한다. 따라서, 틸트 각도와 포커스 위치를 계산하는 데 시간이 걸린다. 추가로, 렌즈와 이미지 센서에 대해 불필요한 동작(예를 들어, 인-포커스 위치(in-focus position) 주위에서의 왕복 동작)이 수행되어, 획득된 비디오의 품질을 저하시킨다. 또한, 최근에 디스플레이 디바이스의 크기 및 비디오의 해상도(4K 또는 8K)가 증가되었으므로, 더 높은 품질의 비디오를 획득할 필요가 있다.
본 발명의 일 양태에 따르면, 촬상 장치(image capturing apparatus)는 촬상 광학계(imaging optical system)에 의해 형성된 피사체 이미지로부터 이미지 신호를 생성하기 위한 이미지 센서; 촬상 광학계의 주면(principal surface)에 대하여 이미지 센서를 틸팅하는 틸트 제어를 실행하도록 구성되는 틸트 제어 유닛; 이미지 센서에 포함된 위상차 검출 픽셀에 의해, 위상차 검출 픽셀의 위치에서의 피사체 이미지에 대한 디포커스 양을 도출하도록 구성되는 도출 유닛; 및 도출 유닛에 의해 디포커스 양을 도출함에 있어서 틸트 제어 유닛에 의한 틸트 제어를 실행하고, 도출 유닛에 의해, 틸트 제어를 실행하는 동안 획득된 피사체 이미지에 기초하여 디포커스 양을 도출하게끔 제어하도록 구성되는 제어 유닛을 포함한다.
본 발명은 고품질 비디오를 획득할 수 있게 한다.
본 발명의 또 다른 특징들은 (첨부된 도면들을 참조하여) 이하의 예시적인 실시예들의 설명으로부터 명백해질 것이다.
본 명세서에 포함되고 그 일부를 구성하는 첨부 도면들은 본 발명의 실시예들을 설명하고, 설명과 함께 본 발명의 원리들을 설명하는 역할을 한다.
도 1은 촬상 장치의 배열을 보여주는 블록도이다.
도 2는 이미지 센서를 형성하는 픽셀의 배열을 보여주는 도면이다.
도 3은 픽셀 시프트 양을 계산하는 방법을 설명하기 위한 그래프들을 보여준다.
도 4는 변환 계수(K)를 계산하는 방법을 설명하기 위한 도면이다.
도 5a 내지 도 5c는 틸트 이미징에서 포커스 평면을 설명하기 위한 도면들이다.
도 6은 포커스 및 틸트 각도의 제어를 설명하기 위한 도면이다.
도 7은 제1 실시예에 따른 제어를 설명하기 위한 흐름도이다.
도 8은 초기 틸팅을 수행할지 여부를 결정하기 위해 사용되는 결정 테이블의 예를 보여주는 테이블이다.
도 9는 이미지 센서가 틸팅된 경우의 픽셀 시프트 양을 설명하기 위한 도면이다.
도 10a 및 도 10b는 변환 계수의 보정 테이블들의 예들을 보여주는 테이블들이다.
도 11은 제2 실시예에 따른 제어를 설명하기 위한 흐름도이다.
이하에서는, 첨부된 도면들을 참조하여 실시예들이 상세하게 설명될 것이다. 이하의 실시예들은 청구된 발명의 범위를 제한하도록 의도되지 않음에 유의해야 한다. 실시예들에서는 복수의 특징이 설명되지만, 이러한 특징들 전부를 필요로 하는 발명에 한정되지 않고, 복수의 그러한 특징이 적절하게 조합될 수 있다. 또한, 첨부된 도면들에서, 동일하거나 유사한 구성들에 대해서는 동일한 참조 번호들이 부여되고, 그 중복되는 설명은 생략된다.
(제1 실시예)
본 발명에 따른 촬상 장치의 제1 실시예로서, 이미징 평면 상의 위상차 방법(on-imaging plane phase difference method)에 의한 자동 포커스(이미징 평면 상의 위상차 AF)을 이용하는 촬상 장치(100)가 이하에 예시될 것이다.
<개요>
이미징 평면 상의 위상차 AF와 틸트 제어를 조합하여 사용함으로써, 틸트 각도와 포커스 위치를 정확하게 획득할 수 있다. 특히, 이미징 평면 상의 위상차 AF를 이용하면, 렌즈를 움직이지 않고도 디포커스 양과 포커스 위치의 이동 방향을 계산할 수 있다. 또한, 틸트 제어가 실행되는 상태에서, 의사적으로(in a pseudo manner) 기선 길이(base-line length)를 증가시키는 레인징(ranging)이 수행되고, 그에 의해, 멀리 있는 피사체에 대한 레인징 정확도를 향상시킬 수 있다.
<장치 배열>
도 1은 촬상 장치(100)의 배열을 보여주는 블록도이다. 촬상 장치(100)는 줌 렌즈(101), 포커스 렌즈(102), 및 조리개 유닛(stop unit)(103)을 포함하는 촬상 광학계를 포함한다.
줌 렌즈(101)는 광축 방향으로 이동가능하고 촬상 광학계의 초점 길이를 변경하도록 구성된 렌즈이다. 포커스 렌즈(102)는 광축 방향으로 이동가능하고 포커스 제어를 수행하도록 구성된 렌즈이다. 조리개 유닛(103)은 조리개를 제어함으로써 광량을 조절한다.
촬상 광학계를 통과한 광은 밴드패스 필터(BPF)(104)와 컬러 필터(105)를 거쳐 이미지 센서(106)에 의해 수신된다. 밴드패스 필터(104)는 예를 들면 적외선(IR) 차단 필터이고, 촬상 광학계의 광 경로에 삽입/광 경로로부터 제거되도록 구성될 수 있다. 컬러 필터(105)는 예를 들어 Bayer 배열의 RGB 필터이다.
이미지 센서(106)는 CMOS 센서를 포함하고, 촬상 광학계를 통해 형성된 광학 이미지(피사체 이미지)를 광전 변환한다. 자동 이득 제어 유닛(automatic gain control unit)(AGC)(107)은 이미지 센서(106)로부터 출력되는 아날로그 신호(이미지 신호)에 대한 이득 조절을 수행한다. 아날로그-대-디지털(Analog-to-Digital)(A/D) 변환기(108)는 아날로그 신호를 디지털 신호(디지털 이미지 신호)로 변환한다.
카메라 신호 처리 유닛(109)은 디지털 이미지 신호에 대해 다양한 종류의 이미지 프로세스들을 수행하여 비디오 신호를 생성한다. 통신 유닛(110)은 감시 모니터 장치(111)와 같은 외부 장치와 통신가능하도록 구성된다. 예를 들어, 통신 유닛(110)은 유선 또는 무선 통신에 의해 촬상 장치(100)에 연결된 감시 모니터 장치(111)에 비디오 신호를 출력한다. 또한, 통신 유닛(110)은 외부 장치로부터 커맨드를 수신하고, 커맨드에 대응하는 제어 신호를 제어 유닛(115)에 출력한다.
레인징 정보 계산 유닛(112)은 각각의 타겟 피사체 영역에 대해 카메라 신호 처리 유닛(109)으로부터 RGB 픽셀 값들 또는 휘도 값들을 수신하고, 위상차에 기초하여 거리 정보를 계산한다. 더 구체적으로, 카메라 신호 처리 유닛(109)은 촬상 광학계의 한 쌍의 퓨필 영역(pupil region)을 통과한 광 빔들에 의해 형성되는 한 쌍의 이미지 데이터를 포커스 검출 데이터로서 생성한다. 다음으로, 레인징 정보 계산 유닛(112)은 한 쌍의 이미지 데이터 사이의 시프트 양에 기초하여 디포커스 양을 계산한다.
위에서 설명된 바와 같이, 레인징 정보 계산 유닛(112)은 전용 AF 센서를 사용하지 않고서, 이미지 센서(106)로부터의 출력에 기초하여 이미징 평면 상의 위상차 방법에 의해 레인징을 수행한다. 이미징 평면 상의 위상차 방법에 의한 레인징 정보 계산 유닛(112)의 레인징 정보 계산 동작의 상세에 대해서는 나중에 설명될 것이라는 점에 유의해야 한다. 또한, 레인징 정보 계산 유닛(112)은 특정 주파수의 콘트라스트에 관한 평가 값(콘트라스트 평가 값)을 구할 수 있고, 원래의 포커스 위치와 콘트라스트 평가 값이 피크를 나타내는 포커스 위치의 차에 기초하여 디포커스 양을 계산할 수 있다는 점에 유의해야 한다.
피사체 결정 유닛(113)은 카메라 신호 처리 유닛(109)으로부터 결과를 수신하고, 이미징 스크린에서 피사체를 검출한다. 또한, 피사체 결정 유닛(113)은 사용자에 의해 지정되거나 미리 설정된 피사체(예를 들어, 사람 또는 자동차)를 결정할 수 있다.
구동량 계산 유닛(114)은 레인징 정보 계산 유닛(112)으로부터의 레인징 정보, 및 피사체 결정 유닛(113)으로부터의 피사체 정보를 획득한다. 또한, 구동량 계산 유닛(114)은 획득된 레인징 정보 및 피사체 정보에 더하여 제어 유닛(115)으로부터의 틸트 각도 및 포커스 위치의 정보에 기초하여, 적절한 틸트 제어량(각도) 및 포커스 제어량(위치)의 제어량 계산을 수행한다.
제어 유닛(115)은 구동량 계산 유닛(114)에 의해 계산된 틸트 각도 및 포커스 위치에 기초하여 이미지 센서 구동 유닛(116) 및 포커스 구동 유닛(118)에 지시한다. 통신 유닛(110)으로부터의 지시에 따라, 제어 유닛(115)은 자동 포커스(AF) 또는 수동 포커스(MF)에 의한 포커스 제어, 줌 제어, 및 조리개 제어를 실행한다. 또한, 제어 유닛(115)은 이미지 센서 구동 유닛(116), 조리개 구동 유닛(117), 포커스 구동 유닛(118), 및 줌 구동 유닛(119)으로부터 현재 위치들(설정 값들)을 수신하고, 현재 위치들을 구동량 계산 유닛(114)에 출력한다.
메모리(120)는 제어 유닛(115)에 의해 실행되는 프로그램에 관한 데이터를 저장한다. 또한, 메모리(120)는 쉐이딩 보정 계수(나중에 설명됨)에 관한 데이터 및 변환 계수에 관한 데이터를 저장한다.
이미지 센서 구동 유닛(116)은 제어 유닛(115)으로부터 지시된 틸트 각도에 기초하여 촬상 광학계의 광축에 대한 이미지 센서(106)의 틸트(틸트 각도)를 제어한다. 이 예에서, 이미지 센서(106)는 이미지 센서(106)의 중심을 통과하고 이미지 센서(106)와 평행한 회전 축(틸트 축)을 중심으로 회전함으로써 틸팅하는 것으로 가정한다. 그러나, 본 발명은 이에 제한되지 않는다.
조리개 구동 유닛(117)은 제어 유닛(115)으로부터 지시된 f-넘버 설정 값에 기초하여 조리개 유닛(103)을 제어한다. 포커스 구동 유닛(118)은 제어 유닛(115)으로부터 지시된 포커스 위치 설정 값(디포커스 양)에 기초하여 포커스 렌즈(102)의 위치를 제어한다. 줌 구동 유닛(119)은 제어 유닛(115)으로부터 지시된 줌 설정 값에 기초하여 줌 렌즈(101)의 위치를 제어한다.
<레인징 정보의 계산>
도 2는 이미지 센서(106)를 형성하는 픽셀(201)의 배열을 보여주는 도면이다. 도 2는 픽셀(201)로서, 이미징 평면 상의 위상차 방법에 의해 사용되는 위상차 검출 픽셀의 예를 도시한다. 위상차 검출 픽셀은 도 2에 도시된 바와 같이 X 방향에 대해 두 부분(광전 변환기들(201a 및 201b))으로 분할된 픽셀이다. 여기서, 이미지 센서(106)의 이미징 표면을 형성하는 모든 픽셀은 모두 위상차 검출 픽셀들이지만 일부 픽셀들만이 위상차 검출 픽셀들로서 구성될 수 있는 것으로 가정한다.
이미지 센서(106)는 광전 변환기들(201a 및 201b) 중 하나의 광전 변환 신호, 및 광전 변환기들(201a 및 201b)의 광전 변환 신호들의 합을 개별적으로 출력하도록 구성된다. 2개의 광전 변환기 중 하나(예를 들어, 광전 변환기(201a))의 광전 변환 신호는 2개의 광전 변환 신호의 합으로부터 감산되고, 그에 의해 2개의 광전 변환기 중 다른 것(예를 들어, 광전 변환기(201b))의 광전 변환 신호에 대응하는 신호를 획득할 수 있게 된다는 점에 유의해야 한다. 이하의 설명은 레인징 정보 계산 유닛(112)이 각각의 픽셀로부터 광전 변환기(201a)의 광전 변환 신호와 2개의 광전 변환기의 광전 변환 신호들의 합을 판독하는 것으로 가정한다.
각각의 광전 변환기의 광전 변환 신호는 위상차 AF를 위한 포커스 검출 데이터로서 사용된다. 2개의 광전 변환 신호의 합은 통상의 캡처된 이미지 데이터로서 사용된다. 이러한 이미지 센서는 공지되어 있으므로 그것의 상세한 설명은 생략될 것임에 유의해야 한다.
레인징 정보 계산 유닛(112)은 레인징 정보(픽셀 시프트 양)로서, 광전 변환기(201a)의 광전 변환 신호(이하에서 "A 이미지"라고 지칭됨)와 광전 변환기(201b)의 광전 변환 신호(이하에서 "B 이미지"라고 지칭됨) 간의 상대적인 이미지 시프트 양을 상관도 계산을 통해 계산한다. 이것은 한 쌍의 이미지 신호(A 이미지와 B 이미지) 사이의 상관도로서 픽셀 시프트 양[픽셀(폭)]을 계산할 수 있다. 다음으로, 픽셀 시프트 양에 변환 계수를 곱하여 미리 결정된 영역의 디포커스 양[mm]으로 변환한다.
다음으로, 이미징 평면 상의 위상차 방법에 의한 레인징 정보 계산 동작이 더 상세하게 설명될 것이다. 이하의 레인징 정보 계산 동작은 레인징 정보 계산 유닛(112)에 의해 주로 실행된다.
먼저, 레인징 정보 계산 유닛(112)은 포커스 검출 위치를 설정한다. 후속하여, 레인징 정보 계산 유닛(112)은 포커스 검출 데이터를 판독한다. 즉, 설정된 포커스 검출 위치 내의 픽셀로부터 판독된 신호에 기초하여 A 이미지 및 B 이미지 각각의 신호가 생성된다. 후속하여, 레인징 정보 계산 유닛(112)은 A 이미지와 B 이미지 간의 상대적인 이미지 시프트 양을 상관도 계산에 의해 구함으로써 픽셀 시프트 양(P)을 구한다.
도 3은 상관도 계산(픽셀 시프트 양 계산) 방법을 설명하기 위한 그래프들을 도시한다. 도 3에서, 세로축은 신호 값을 나타내고 가로축은 픽셀(위치)을 나타낸다. 여기서 이미지 센서(106)의 포커스 검출 위치에 있는 픽셀(위상차 검출 픽셀)로부터 A 이미지 및 B 이미지의 신호들이 획득되는 것으로 가정한다.
카메라 신호 처리 유닛(109)은 먼저 노이즈를 줄이기 위해 A 이미지와 B 이미지 각각에 대해 디지털 필터 처리를 수행한다. 도 3은 필터 처리 후의 파형의 몇몇 예들을 보여준다.
도 3에 도시된 바와 같이, 레인징 정보 계산 유닛(112)은 A 이미지 신호 및 B 이미지 신호 중 하나를 시프트하거나 A 이미지 신호 및 B 이미지 신호 둘 다를 픽셀-시프트하는 동안, 각각의 시프트 위치에서 상관량(COR)을 계산한다. 이 때, 상관량(COR)은 A 이미지와 B 이미지를 중첩함으로써 획득된 면적, A 이미지의 면적으로부터 B 이미지의 면적을 감산함으로써 구해진 값, 상관도를 나타내는 계산 값, 또는 그와 유사한 것이지만, 이에 제한되지는 않는다. 이하에서는 상관량(COR)이 A 이미지와 B 이미지를 중첩함으로써 획득된 면적인 경우가 설명될 것이다.
A 이미지와 B 이미지가 서로 일치하는 경우, A 이미지와 B 이미지의 중첩 부분이 크기 때문에 상관도가 가장 높다(상관량(COR)이 가장 크다)(도 3의 위에서 세 번째 상태). 상관량(COR)이 최대값일 때의 시프트 양이 픽셀 시프트 양(P)이다. 후속하여, 디포커스 양(DEF)을 구하기 위해 픽셀 시프트 양(P)에 곱해지는 값으로서 변환 계수(K)가 구해진다.
도 4는 변환 계수(K)를 계산하는 방법을 설명하기 위한 도면이다. 도 4를 참조하면, Z축은 촬상 광학계의 광축 방향에 대응하고, Z=0은 이미지 센서(106)의 표면(이미징 표면)에 대응한다. Zep은 출사동 거리를 나타낸다.
퓨필 강도 분포들(PI_A 및 PI_B)은 Z=Zep에서의 A 이미지 및 B 이미지의 포커스 검출 광속의 광 빔들의 광량 분포들이다. 퓨필 강도 분포들(PI_A 및 PI_B)은 각각 광전 변환기들(201a 및 201b)로부터 출력된 신호들을 출사동 평면에 투영함으로써 획득된 이미지들이다.
퓨필 강도 분포들(PI_A 및 PI_B) 각각은 1차원 퓨필 강도 분포를 나타낸다. 이 경우, 퓨필 강도 분포들(PI_A 및 PI_B)의 무게 중심들 사이의 간격은 기준선 길이(BL)로서 설정된다. 이 때, 출사동 거리(Zep)와 기준선 길이(BL) 간의 비율에 기초하여, A 이미지와 B 이미지 간의 픽셀 시프트 양(P)에 대한 광축 방향의 변화량[mm]이 획득될 수 있다. 따라서, 변환 계수(K)는 다음에 의해 주어질 수 있다:
K = Zep/BL … (1)
다음으로, 레인징 정보 계산 유닛(112)은 디포커스 양(DEF)[mm]을 다음에 의해 계산한다:
DEF = P × K … (2)
포커스 검출 위치에 포커스할 때, 구동량 계산 유닛(114)은 디포커스 양(DEF)에 기초하여 포커스 렌즈(102)의 구동량(M)[mm]을 아래의 식 3에 의해 계산한다.
다음으로, 제어 유닛(115)은 포커스 렌즈(102)를 구동하도록 포커스 구동 유닛(118)을 제어한다.
M = DEF × FS … (3)
식 3에서, FS는 디포커스 양(DEF)[mm]을 렌즈 구동량[mm]으로 변환하기 위한 계수를 나타낸다.
제어 유닛(115)은 포커스 렌즈(102)를 구동량(M)만큼 광축 방향으로 구동하도록 포커스 구동 유닛(118)을 제어한다. 이는 포커스 검출 위치에 포커스된 (인-포커스(in-focus)) 이미지를 획득할 수 있다.
위에서 설명된 바와 같이, 구동량 계산 유닛(114)은 이미징 평면 상의 위상차 방법에 의해 획득된 레인징 정보에 기초하여 디포커스 양(DEF) 및 렌즈 구동량을 계산할 수 있다.
<틸트 제어>
도 5a 내지 도 5c는 틸트 이미징에서의 포커스 평면을 설명하기 위한 도면들이다. 도 5a는 촬상 광학계의 주면이 이미지 센서(106)에 평행한 상태를 도시한다. 이 예에서, 도 5a는 포커스가 포커스 거리(L)에 설정되고, 포커스 평면, 광학계의 주면 및 이미지 센서(106)가 서로 평행한 상태를 도시한다.
도 5b는 이미지 센서(106)가 도 5a에 도시된 상태로부터 틸트 각도 b만큼 회전되고 틸트 제어가 실행되는 상태를 도시한다. 틸트 제어가 실행되는 경우, 포커스 평면은 또한 Scheimpflug 원리에 기초하여 이미지 센서의 회전 축(틸트 축)에 대응하는 포커스 평면의 회전 축을 중심으로 회전한다. 이것은 주어진 평면(도 5b에 도시된 포커스 평면)에 대해 짧은 거리로부터 먼 거리까지의 모든 피사체에 포커스할 수 있다.
Scheimpflug 원리는 광학계의 주면과 이미지 센서(106)의 이미징 표면이 하나의 직선으로 교차하면, 포커스 평면도 동일한 직선 상에서 교차한다는 원리이다.
촬상 광학계의 초점 길이(f), 포커스 거리(L) 및 부각(inclination angle)(a)을 사용하여, Scheimpflug 원리에 기초하여 틸트 각도(b)가 다음에 의해 계산된다:
b = tan-1 (f/(L × tan a)) … (4)
도 5c는 피사체들 X 및 Y을 포함하는 장면을 도시한다. 도 5c에 도시된 두 사람 중, 촬상 장치(100)로부터 더 멀리에 있는 사람은 이하에서 피사체 X라고 지칭될 것이고, 촬상 장치(100)에 더 가까이에 있는 사람은 이하에서 피사체 Y라고 지칭될 것이다. 이 경우, 도 5c에 도시된 바와 같이, (피사체들 X 및 Y의 얼굴들 둘 다가 인 포커스(in focus)됨) 포커스 평면에 대한 제어를 실행하는 것이 바람직하다.
따라서, 도 5c를 도 5a 또는 도 5b와 비교하면 명백한 바와 같이, 틸트 제어뿐만 아니라 포커스 제어도 실행할 필요가 있다. 그러나, 사용자가 최적의 포커스 평면(즉, 최적의 틸트 각도 및 포커스 위치)을 수동으로 조절하는 것은 어렵다.
도 6은 포커스 및 틸트 각도의 제어를 설명하기 위한 도면이다. 촬상 장치(100)는 미리 결정된 이미징 범위를 캡처하기 위해 설치된다. 도 6에 예시된 이미징 범위는 도 5c와 마찬가지로 타겟 피사체들로서 피사체들 X 및 Y를 포함한다. 이하에서는 피사체에 따른 최적의 틸트 각도와 포커스 위치를 계산하는 예가 도 6을 참조하여 설명될 것이다.
초기 상태에서(예를 들어, 촬상 장치(100)의 기동 시에), 이미지 센서(106)의 틸트 각도와 포커스 렌즈(102)의 위치는 도 6의 상부 도면에 도시된 상태에 있다. x는 피사체 X에 포커스하기 위해 포커스 평면에서 필요한 보정량을 나타내고, y는 피사체 Y에 포커스하기 위해 포커스 평면에서 필요한 보정량을 나타낸다. 이미지 센서(106) 상에서의 틸트 축으로부터 피사체까지의 거리는 피사체 X에 대해 k1[um]으로 표현되고, 피사체 Y에 대해 k2[um]로 표현된다.
이 경우, α[°]가 피사체들 X 및 Y 둘 다에 포커스하기 위한 틸트 각도를 나타내고, β가 포커스 평면에서의 포커스 보정량을 나타내면, 아래의 식 5 및 6이 구해진다.
x - β = k1 × tan α+β … (5)
y = k2 × tan α-β … (6)
연립 방정식 (5) 및 (6)을 풀면, 틸트 각도(α) 및 포커스 보정량(β)은 각각 이하에 의해 주어진다:
α = tan-1((x + y)/(k1 + k2)) … (7)
β = ((k2 × x - k1 × y)/(k1 + k2)) … (8)
포커스 제어량은 포커스 보정량(β)을 포커스 렌즈(102)의 계수(FS)로 나눔으로써 간단히 계산될 수 있다. 그러나, 계수(FS)에 대응하는 고차 방정식 또는 다항식을 푸는 것에 의해 포커스 제어량을 정확하게 계산할 수 있다. 포커스 제어량은 다른 방법에 의해 계산될 수 있다.
위에서 설명된 식들로부터, 포커스 제어량(위치) 및 틸트 제어량(각도)을 계산하기 위해 이미지 센서(106) 상에서의 틸트 축으로부터 피사체까지의 거리(k1 또는 k2)를 정확하게 계산하는 것이 중요함이 이해된다. 즉, 거리(k1 또는 k2)가 부정확한 경우에는, 포커스 위치와 틸트 각도가 보정되더라도 피사체의 포커스가 약간 어긋난다.
<장치의 동작>
제1 실시예에서, 상황(광학 정보)에 따라, 틸트 제어가 실행된 상태에서 레인징을 수행함으로써 기선 길이가 증가되고, 그에 의해 멀리 있는 피사체에 대한 레인징 정확도를 향상시킨다.
도 7은 제1 실시예에 따른 제어를 설명하기 위한 흐름도이다. 이 처리는 통신 유닛(110)이 제어 유닛(115)에 레인징 커맨드를 송신할 때 시작된다(단계(S701)).
단계(S702)에서, 제어 유닛(115)은 레인징 동작을 시작하기 위해 구동량 계산 유닛(114)에 레인징 커맨드를 송신한다. 단계들(S702 내지 S709)에서의 디포커스 양의 계산은 2개의 포커스 검출 위치에서 수행되지만, 이하의 설명은 설명의 간략함을 위해 하나의 포커스 검출 위치에 주목한다는 점에 유의해야 한다.
단계(S703)에서, 레인징 정보 계산 유닛(112)은 이미지 센서(106)의 포커스 검출 위치에서 A 이미지 및 B 이미지의 신호들을 획득한다. 포커스 검출 위치는 피사체 결정 유닛(113)에 의해 피사체가 존재하는 위치 또는 미리 설정된 위치로서 결정된 위치일 수 있음에 유의해야 한다.
단계(S704)에서, 구동량 계산 유닛(114)은 제어 유닛(115)으로부터의 광학 정보를 이용하여 이미지 센서(106)가 틸팅된 상태에서 레인징을 수행할지를 결정한다. 광학 정보는 "렌즈의 초점 길이", "렌즈의 f-넘버", 및 "촬상 장치로부터 피사체까지의 거리(피사체 거리)" 중 적어도 하나의 정보를 포함한다. 이러한 결정 처리는 이 시점에서의 광학 정보를 획득할 수 있고, 적응적으로 결정을 하거나 준비된 테이블에 기초하여 결정을 할 수 있다. 초기 틸팅(레인징을 위한 이미지 센서(106)의 틸팅)이 필요한 경우, 프로세스는 단계(S705)로 진행하고; 그렇지 않으면, 프로세스는 단계(S709)로 진행한다.
도 8은 초기 틸팅을 수행할지 여부를 결정하기 위해 사용되는 결정 테이블의 예를 보여주는 테이블이다. 도 8은 피사계 심도가 상대적으로 작은 경우(초점 길이가 길고/거나 f-넘버가 작은 경우) 틸팅이 수행됨을 나타내는 테이블을 보여준다. 그러나, 도 8은 예시를 나타낼 뿐이며, 테이블 생성 방법에 대하여 다양한 수정들 및 변경들이 이루어질 수 있다.
단계(S705)에서, 구동량 계산 유닛(114)은 단계(S703)에서 획득된 신호들(A 이미지 및 B 이미지)의 시프트 방향들에 기초하여 틸트 방향을 정한다. 예를 들어, 도 6에 도시된 바와 같이, 캡처된 이미지의 상측 부분에 있는 피사체 X가 하측 부분에 있는 피사체 Y보다 더 멀리 위치되어 있고, 피사체들 X와 Y 사이에 포커스 표면이 존재하는 경우를 고찰하기로 한다. 이 경우, 피사체 X에 대한 신호는 무한대 측을 나타내는 방향으로 시프트되고, 피사체 Y에 대한 신호는 가까운 측을 나타내는 방향으로 시프트된다. 따라서, 이미지 센서(106)는 이러한 시프트들이 감소되는 방향으로 틸팅된다.
단계(S706)에서, 구동량 계산 유닛(114)은 위에서 설명된 광학 정보로부터 초기 틸트 각도를 계산한다. 또한, 초기 틸트 각도는 이미징 표면의 이동량이 피사계 심도(Fδ) 이내여서 블러가 이미지 센서를 틸팅하지 않은 경우와 동일하게 유지되는 각도인 것이 바람직하다는 점에 유의해야 한다. H가 이미지 센서(106)의 높이를 나타내는 경우, 이미징 표면의 이동량이 피사계 심도(Fδ)와 동일하게 되는 초기 틸트 각도(α0)는 다음에 의해 주어진다:
α0 = tan-1(H/2Fδ) … (9)
단계(S707)에서, 제어 유닛(115)은 단계(S706)에서 계산된 초기 틸트 각도(α0)에 따라 이미지 센서 구동 유닛(116)을 제어하여 이미지 센서(106)를 틸팅한다.
단계(S708)에서, 레인징 정보 계산 유닛(112)은 단계(S707)에서 이미지 센서(106)가 틸팅된 상태에서 이미지 센서(106)의 포커스 검출 위치에서의 A 이미지 및 B 이미지의 신호들을 획득한다.
단계(S709)에서, 구동량 계산 유닛(114)은 디포커스 양을 계산한다.
도 9는 이미지 센서가 틸팅된 경우에서의 픽셀 시프트 양을 설명하기 위한 도면이다. 도 9에서, 상측 도면은 이미지 센서(106)가 틸팅되지 않은 상태(틸팅 없음 상태)를 나타내고, 하측 도면은 이미지 센서(106)가 틸팅된 상태(틸팅 상태)를 나타낸다. 상측 도면 및 하측 도면 각각은 좌측으로부터, 촬상 광학계와 이미지 센서의 위치 관계, 이미지 센서(106)의 중심(틸트 축) 위치 c에서의 출사동, 및 A 이미지와 B 이미지의 신호 위치들을 예시적으로 보여준다. 출사동은 A 이미지의 퓨필 부분 영역과 B 이미지의 퓨필 부분 영역에 의한 위치 c에서의 픽셀(위상차 검출 픽셀)(201)의 출사동을 나타낸다는 점에 유의해야 한다.
이미지 센서(106)를 틸팅함으로써, "틸팅된 상태"의 출사동의 형상은 "틸팅 없음 상태"의 출사동(901)의 형상으로부터 변경되었다. 출사동(901)의 형상은 변경되었지만, A 이미지 신호와 B 이미지 신호의 강도들은 동일하게 유지된다. 그러나, 틸팅 없음 상태와 비교하여, 이미지 센서(106)가 틸팅된 상태에서는, 동일한 디포커스 양에 대해서도 광의 무게 중심이 변경되고, 픽셀 시프트 양(P)이 변경된다. 이는 이미지 센서(106)가 틸팅되어 기선 길이를 의사적으로 증가시키기 때문이다. 이러한 현상은 정확한 디포커스 양을 계산하는 것을 불가능하게 하므로, 이미지 센서(106)의 틸트 각도에 따라 변환 계수(K)를 변경하는 것이 바람직하다.
도 10a 및 도 10b는 변환 계수(K)의 보정 테이블들을 보여주는 테이블이다. 변환 계수(K)의 데이터는 도 10a 및 도 10b에 보여진 테이블들에 유지될 수 있거나, 변환 계수(K)는 계산에 의해 구해질 수 있다. 이미지 센서(106)가 틸팅되면 기선 길이가 의사적으로 증가하므로, 변환 계수(K)가 적절히 설정될 수 있다면, 이미지 센서(106)를 틸팅하지 않고서 레인징이 수행되는 경우에 비해 정확한 디포커스 양(DEF)을 계산하는 것이 가능하다.
도 10a 및 도 10b에서 변환 계수(K)는 포커스 위치, 포커스 검출 위치에서의 이미지 높이, 및 틸트 각도에 기초하여 정해진다는 점에 유의해야 한다. 그러나, 도 10a 및 도 10b는 예시를 나타낼 뿐이며, 테이블 생성 방법에 대해 다양한 수정들 및 변경들이 이루어질 수 있다.
준비된 테이블들을 이용하는 것을 대신하여, 계산에 의해 적응적으로 변환 계수(K)를 구하는 것도 가능하다. α가 틸트 각도를 나타내는 경우, 변환 계수(K)는 다음에 의해 주어질 수 있다:
K = (Zep/BL) × cosα … (10)
식 10으로부터 이해되는 바와 같이, 틸트 각도가 증가함에 따라 변환 계수(K)는 감소한다. 그러나, 식 10은 예시일 뿐이며, 계산 방법에 대해 다양한 수정들 및 변경들이 이루어질 수 있다.
단계(S709)에서, 레인징 정보 계산 유닛(112)은 픽셀 시프트 양(P)과 변환 계수(K)에 기초하여 디포커스 양(DEF)을 계산한다. 위에서 설명된 바와 같이, 사실, 2개의 포커스 검출 위치에 대응하는 2개의 디포커스 양(DEF1 및 DEF2)이 계산된다.
단계(S710)에서, 구동량 계산 유닛(114)은 단계(S709)에서 계산된 하나의 디포커스 양(DEF1 또는 DEF2)에 기초하여 후속 이미징에서의 포커스 구동량(d) 및 틸트 각도 구동량(θ)를 계산한다.
단계(S711)에서, 제어 유닛(115)은 단계(S710)에서 계산된 포커스 구동량(d) 및 틸트 각도 구동량(θ)에 따라 포커스 구동 유닛(118) 및 이미지 센서 구동 유닛(116)을 제어한다.
단계(S711)에서의 제어에 의해, 미리 결정된 이미징 범위 내에 존재하는 피사체가 인 포크스되고, 따라서, 단계(S712)에서 프로세스가 종료된다.
위에서 설명된 바와 같이, 제1 실시예에 따르면, 광학 정보에 따라 틸트 제어가 실행되는 상태에서 레인징이 수행된다. 이것은 의사적으로 기선 길이를 증가시킬 수 있고, 멀리 있는 피사체에 대한 레인징 정확도를 향상시킬 수 있다. 그 결과, 틸트 이미징에서 틸트 각도 및 포커스 위치를 더 정확하게 계산할 수 있다.
(제2 실시예)
상기 제1 실시예는 광학 정보에 따라 초기 틸트 각도, 및 초기 틸팅을 수행할지가 결정되는 형태를 설명하였다. 제2 실시예는 광학 정보에 더하여 디포커스 양에 따라, 초기 틸트 각도, 및 초기 틸팅을 수행할지가 결정되는 형태를 설명할 것이다.
<장치의 동작>
도 11은 제2 실시예에 따른 제어를 설명하기 위한 흐름도이다. 단계들(S1001 내지 S1103, S1113 내지 S1115, 및 S1107 내지 S1112)은 각각 제1 실시예(도 7)의 단계들(S701 내지 S703, S704 내지 S706, 및 S707 내지 S712)과 동일하며, 이에 대한 상세한 설명은 이하에서 생략될 것임에 유의해야 한다.
단계(S1104)에서, 구동량 계산 유닛(114)은 픽셀 시프트 양(P)이 미리 결정된 임계값(P0) 이상인지를 결정한다. 픽셀 시프트 양(P)이 P0 이상인 경우, 프로세스는 단계(S1105)로 진행하고; 그렇지 않으면, 프로세스는 단계(S1113)로 진행한다. 예를 들어, 이러한 결정 처리는 2개의 포커스 검출 위치 각각에 대해 수행되고, 적어도 하나의 포커스 검출 위치에서 픽셀 시프트 양(P)이 P0 이상인지가 결정된다.
단계(S1105)에서, 구동량 계산 유닛(114)은 틸트 방향을 정한다. 이 처리는 위에서 설명된 단계(S705)에서와 동일한 방법에 의해 단계(S1103)에서 획득된 신호들(A 이미지 및 B 이미지)의 시프트 방향들에 기초하여 틸트 방향을 정할 수 있지만, 미리 결정된 방향은 촬상 장치의 설치 상태에 기초하여 미리 정해질 수 있다(예를 들어, 도 5a 내지 도 5c에 도시된 바와 같이 비스듬히 아래 방향으로 이미지 캡처).
단계(S1106)에서, 구동량 계산 유닛(114)은 초기 틸트 각도(α0)를 결정한다. 이 경우, 단계(S1104)에서 픽셀 시프트 양(P)이 P0 이상인 것으로 결정되므로, 현재 시점에서 피사체가 많이 흐려짐을 알 수 있다. 따라서, 이미지 센서(106)가 크게 이동되더라도, 이는 이미지에 거의 영향을 주지 않는다(사용자에게 불편함을 야기하지 않음). 따라서, 구동량 계산 유닛(114)은 미리 결정된 각도 값(예를 들어, 이미지 센서(106)의 틸트 각도의 최대값 또는 그와 유사한 것)을 초기 틸트 각도(α0)로서 정한다. 또한, 미리 결정된 각도 값은 촬상 장치의 설치 상태(예를 들어, 도 5a 내지 도 5c에 도시된 바와 같이 비스듬히 아래 방향으로 이미지 캡처)에 기초하여 미리 정해질 수 있다. 그 후, 프로세스는 단계(S1107)로 진행한다.
위에서 설명된 바와 같이, 제2 실시예에 따르면, 픽셀 시프트 양(P)이 미리 결정된 임계값 이상인 경우, 이미지 센서(106)를 미리 결정된 각도 값만큼 틸팅하여 레인징을 수행한다. 이것은 제1 실시예와 마찬가지로 기선 길이를 의사적으로 증가시키고 멀리 있는 피사체에 대한 레인징 정확도를 향상시킬 수 있다. 또한, 예를 들어, 이미지 센서(106)의 틸트 각도의 최대값은 초기 틸트 각도(α0)로 설정되고, 기선 길이는 의사적으로 최대화되며, 그에 의해 제1 실시예와 비교하여 레인징 정확도를 더욱 향상시킬 수 있다.
다른 실시예들
본 발명의 실시예(들)는 또한 위에서 설명된 실시예(들) 중 하나 이상의 기능들을 수행하기 위해 저장 매체(더 완전하게는 '비-일시적 컴퓨터 판독가능 저장 매체'로도 지칭될 수 있음) 상에 기록된 컴퓨터 실행가능 명령어들(예를 들어, 하나 이상의 프로그램)을 판독 및 실행하고/거나 위에서 설명된 실시예(들) 중 하나 이상의 기능들을 수행하기 위한 하나 이상의 회로(예를 들어, 주문형 집적 회로(ASIC))를 포함하는 시스템 또는 장치의 컴퓨터에 의해, 및 예를 들어 위에서 설명된 실시예(들) 중 하나 이상의 기능들을 수행하기 위해 저장 매체로부터의 컴퓨터 실행가능 명령어들을 판독 및 실행하고/거나 위에서 설명된 실시예(들) 중 하나 이상의 기능들을 수행하기 위해 하나 이상의 회로를 제어함으로써 시스템 또는 장치의 컴퓨터에 의해 수행되는 방법에 의해 실현될 수 있다. 컴퓨터는 하나 이상의 프로세서(예를 들어, 중앙 처리 유닛(CPU), 마이크로 처리 유닛(MPU))를 포함할 수 있고, 컴퓨터 실행가능 명령어들을 판독하고 실행하기 위한 별개의 컴퓨터들 또는 별개의 프로세서들의 네트워크를 포함할 수 있다. 컴퓨터 실행가능 명령어들은 예를 들어 네트워크 또는 저장 매체로부터 컴퓨터에 제공될 수 있다. 저장 매체는 예를 들어 하드 디스크, 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 분산 컴퓨팅 시스템들의 저장소, 광 디스크(예컨대 컴팩트 디스크(CD), 디지털 다목적 디스크(DVD) 또는 블루레이 디스크(BD)™), 플래시 메모리 디바이스, 메모리 카드 및 그와 유사한 것 중 하나 이상을 포함할 수 있다.
(기타의 실시예)
본 발명은, 상기의 실시예의 하나 이상의 기능을 실현하는 프로그램을, 네트워크 또는 저장 매체를 개입하여 시스템 또는 장치에 공급하고, 그 시스템 또는 장치의 컴퓨터에 있어서 하나 이상의 프로세서가 프로그램을 판독하여 실행하는 처리에서도 실현가능하다.
또한, 하나 이상의 기능을 실현하는 회로(예를 들어, ASIC)에 의해서도 실행가능하다.
본 발명은 예시적인 실시예들을 참조하여 설명되었지만, 본 발명은 개시된 예시적인 실시예들에 제한되지 않는다는 것을 이해해야 한다. 이하의 청구항들의 범위는 그러한 모든 수정들, 및 등가의 구조들 및 기능들을 포괄하도록 가장 넓은 해석에 따라야 한다.

Claims (12)

  1. 촬상 장치(image capturing apparatus)로서,
    촬상 광학계(imaging optical system)에 의해 형성된 피사체 이미지로부터 이미지 신호를 생성하기 위한 이미지 센서;
    상기 촬상 광학계의 주면(principal surface)에 대하여 상기 이미지 센서를 틸팅하는 틸트 제어(tilt control)를 실행하도록 구성되는 틸트 제어 유닛;
    상기 이미지 센서에 포함된 위상차 검출 픽셀에 의해, 상기 위상차 검출 픽셀의 위치에서의 피사체 이미지에 대한 디포커스 양을 도출하도록 구성되는 도출 유닛; 및
    상기 도출 유닛에 의해 상기 디포커스 양을 도출 시에 상기 틸트 제어 유닛에 의한 틸트 제어를 실행하고, 상기 도출 유닛에 의해, 상기 틸트 제어를 실행하는 동안 획득된 피사체 이미지에 기초하여 디포커스 양을 도출하게끔 제어하도록 구성되는 제어 유닛
    을 포함하는, 촬상 장치.
  2. 제1항에 있어서,
    상기 위상차 검출 픽셀은 2개의 광전 변환기를 포함하고,
    상기 도출 유닛은:
    상기 2개의 광전 변환기로부터 각각 획득된 한 쌍의 신호 사이의 상관량에 기초하여 픽셀 시프트 양을 검출하도록 구성되는 검출 유닛, 및
    상기 검출 유닛에 의해 검출된 상기 픽셀 시프트 양에 변환 계수를 곱함으로써 상기 디포커스 양을 계산하도록 구성되는 계산 유닛
    을 포함하는, 촬상 장치.
  3. 제1항 또는 제2항에 있어서,
    상기 촬상 장치는 미리 결정된 이미지 범위를 캡처하도록 구성되고,
    상기 촬상 장치는 상기 틸트 제어를 실행하는 동안에 획득된 상기 피사체 이미지에 기초한 상기 디포커스 양에 기초하여, 후속하여 상기 미리 결정된 이미징 범위를 캡처할 때의 상기 촬상 광학계에서의 포커스 제어량, 및 상기 틸트 제어 유닛에 의한 틸트 제어량을 계산하도록 구성되는 제어량 계산 유닛을 더 포함하는, 촬상 장치.
  4. 제2항에 있어서,
    상기 촬상 광학계의 초점 길이, 상기 촬상 광학계의 f-넘버, 및 상기 촬상 장치로부터 피사체까지의 거리 정보들 중 적어도 하나의 정보를 획득하도록 구성되는 정보 획득 유닛; 및
    상기 정보 획득 유닛에 의해 획득된 정보에 기초하여, 상기 제어 유닛에 의한 제어를 실행할지의 여부를 결정하도록 구성되는 결정 유닛
    을 더 포함하는, 촬상 장치.
  5. 제4항에 있어서, 상기 결정 유닛은 미리 준비된 결정 테이블에 기초하여 결정을 수행하는, 촬상 장치.
  6. 제5항에 있어서, 상기 결정 테이블은 상기 촬상 광학계의 초점 길이와 상기 촬상 광학계의 f-넘버의 조합에 기초하여 설정되는, 촬상 장치.
  7. 제4항 내지 제6항 중 어느 한 항에 있어서, 상기 결정 유닛이 상기 제어 유닛에 의한 제어를 실행하기로 결정하는 경우, 상기 틸트 제어의 방향은 상기 한 쌍의 신호의 시프트 방향들에 기초하여 정해지고, 상기 틸트 제어의 제어량은 상기 정보 획득 유닛에 의해 획득된 정보에 기초하여 정해지는, 촬상 장치.
  8. 제2항에 있어서,
    상기 검출 유닛에 의해 검출된 상기 픽셀 시프트 양이 미리 결정된 임계값 이상인지의 여부에 기초하여, 상기 제어 유닛에 의한 제어를 실행할지를 결정하도록 구성되는 제2 결정 유닛
    을 더 포함하는, 촬상 장치.
  9. 제8항에 있어서, 상기 제2 결정 유닛이 상기 제어 유닛에 의한 제어를 실행하기로 결정한 경우, 상기 틸트 제어 유닛은 상기 이미지 센서의 틸트 각도의 최대값을 상기 틸트 제어의 제어량으로서 정하는, 촬상 장치.
  10. 제2항에 있어서, 상기 변환 계수는 출사동 거리(exit pupil distance)와 기선 길이(base-line length)의 비율의 값에, 상기 한 쌍의 신호를 획득할 때의 틸트 제어량에 기초하여 정해지는 보정 계수를 곱함으로써 계산되는, 촬상 장치.
  11. 촬상 장치를 위한 제어 방법으로서,
    상기 촬상 장치는:
    촬상 광학계에 의해 형성된 피사체 이미지로부터 이미지 신호를 생성하기 위한 이미지 센서로서, 틸트 제어에 의해 상기 촬상 광학계에 대해 틸팅가능하도록 구성된 이미지 센서, 및
    상기 이미지 센서에 포함된 위상차 검출 픽셀에 의해, 상기 위상차 검출 픽셀의 위치에서의 피사체 이미지에 대한 디포커스 양을 도출하도록 구성되는 도출 유닛
    을 포함하고, 상기 제어 방법은:
    상기 도출 유닛에 의해 상기 디포커스 양을 도출 시에 상기 틸트 제어를 실행하고, 상기 도출 유닛에 의해, 상기 틸트 제어를 실행하는 동안 획득된 피사체 이미지에 기초하여 디포커스 양을 도출하도록 제어하는 단계
    를 포함하는, 제어 방법.
  12. 컴퓨터로 하여금 촬상 장치를 위한 제어 방법을 실행하게 하기 위한, 컴퓨터 판독가능 기록 매체에 저장된 컴퓨터 프로그램으로서,
    상기 촬상 장치는 촬상 광학계에 의해 형성된 피사체 이미지로부터 이미지 신호를 생성하기 위한 이미지 센서로서, 틸트 제어에 의해 상기 촬상 광학계에 대해 틸팅가능하도록 구성된 이미지 센서, 및 상기 이미지 센서에 포함된 위상차 검출 픽셀에 의해, 상기 위상차 검출 픽셀의 위치에서의 피사체 이미지에 대한 디포커스 양을 도출하도록 구성되는 도출 유닛을 포함하고,
    상기 제어 방법은: 상기 도출 유닛에 의해 상기 디포커스 양을 도출함에 있어서 상기 틸트 제어를 실행하고, 상기 도출 유닛에 의해, 상기 틸트 제어를 실행하는 동안 획득된 피사체 이미지에 기초하여 디포커스 양을 도출하도록 제어하는 단계를 포함하는, 컴퓨터 판독가능 기록 매체에 저장된 컴퓨터 프로그램.
KR1020230090818A 2022-07-15 2023-07-13 촬상 장치, 제어 방법, 및 컴퓨터 프로그램 KR20240010421A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2022-114322 2022-07-15
JP2022114322A JP2024011953A (ja) 2022-07-15 2022-07-15 撮像装置およびその制御方法

Publications (1)

Publication Number Publication Date
KR20240010421A true KR20240010421A (ko) 2024-01-23

Family

ID=87245775

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230090818A KR20240010421A (ko) 2022-07-15 2023-07-13 촬상 장치, 제어 방법, 및 컴퓨터 프로그램

Country Status (5)

Country Link
US (1) US20240022822A1 (ko)
EP (1) EP4307699A1 (ko)
JP (1) JP2024011953A (ko)
KR (1) KR20240010421A (ko)
CN (1) CN117412170A (ko)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4081806B2 (ja) 1999-10-18 2008-04-30 富士フイルム株式会社 自動焦点カメラ及び撮影方法
JP2003075716A (ja) 2001-09-06 2003-03-12 Nikon Corp 撮像装置
US10341567B2 (en) * 2016-03-16 2019-07-02 Ricoh Imaging Company, Ltd. Photographing apparatus
JP7471799B2 (ja) * 2019-11-12 2024-04-22 キヤノン株式会社 制御装置、撮像装置、制御方法、および、プログラム

Also Published As

Publication number Publication date
CN117412170A (zh) 2024-01-16
EP4307699A1 (en) 2024-01-17
JP2024011953A (ja) 2024-01-25
US20240022822A1 (en) 2024-01-18

Similar Documents

Publication Publication Date Title
US11765461B2 (en) Control apparatus, imaging apparatus, and storage medium
US11381731B2 (en) Imaging apparatus, imaging control method, and storage medium
US11343432B2 (en) Imaging apparatus
JP7362360B2 (ja) 制御装置、撮像装置、レンズ装置、および、プログラム
KR102543478B1 (ko) 촬상 장치, 촬상 장치의 제어 방법, 프로그램 및 저장 매체
CN112866657B (zh) 控制装置、控制方法和存储介质
US11582394B2 (en) Control apparatus, control method, and storage medium for providing tilt control
US11722769B2 (en) Image pickup apparatus, control method, and storage medium
KR20240010421A (ko) 촬상 장치, 제어 방법, 및 컴퓨터 프로그램
US20220345633A1 (en) Image pickup apparatus, control method, and memory medium
JP5541671B2 (ja) 撮像装置及びフォーカス制御方法
US11722775B2 (en) Image pickup apparatus and controlling method thereof
JP7293309B2 (ja) 撮像装置、制御方法および記憶媒体
US20220272274A1 (en) Imaging device, storage medium, and method of controlling imaging device
JP6063347B2 (ja) 撮像装置およびバックフォーカス調整方法
JP2023027743A (ja) 撮像装置およびその制御方法
US9565353B2 (en) Image pickup apparatus, image pickup system, method of controlling image pickup apparatus, and non-transitory computer-readable storage medium