KR101968109B1 - 초점 조절장치, 그 제어방법, 및 촬상장치 - Google Patents

초점 조절장치, 그 제어방법, 및 촬상장치 Download PDF

Info

Publication number
KR101968109B1
KR101968109B1 KR1020150060191A KR20150060191A KR101968109B1 KR 101968109 B1 KR101968109 B1 KR 101968109B1 KR 1020150060191 A KR1020150060191 A KR 1020150060191A KR 20150060191 A KR20150060191 A KR 20150060191A KR 101968109 B1 KR101968109 B1 KR 101968109B1
Authority
KR
South Korea
Prior art keywords
focus detection
information
correction value
focus
mtf
Prior art date
Application number
KR1020150060191A
Other languages
English (en)
Other versions
KR20150126291A (ko
Inventor
유미 와타나베
히데유키 하마노
Original Assignee
캐논 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 캐논 가부시끼가이샤 filed Critical 캐논 가부시끼가이샤
Publication of KR20150126291A publication Critical patent/KR20150126291A/ko
Application granted granted Critical
Publication of KR101968109B1 publication Critical patent/KR101968109B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/09Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification adapted for automatic focusing or varying magnification
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/282Autofocusing of zoom lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/365Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals by analysis of the spatial frequency components of the image
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/12Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
    • G03B17/14Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets interchangeably
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • H04N5/23212
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)
  • Structure And Mechanism Of Cameras (AREA)

Abstract

초점 조절장치는, 촬영 광학계의 비점수차, 색수차, 및 구면수차 중의 적어도 한 개에 관한 수차정보와, 자동 초점 검출에 관한 초점 검출 정보로부터, 자동 초점 검출의 결과를 보정하기 위한 보정값을 취득한다. 또한, 초점 조절장치는, 보정값에 의해 보정된 자동 초점 검출의 결과에 의거하여 촬영 광학계가 갖는 포커싱 렌즈의 위치를 제어한다. 적어도 촬영 화상의 초점상태를 고려해서 자동 초점 검출의 결과를 보정함으로써, 광학계의 수차에 의한 초점 검출 오차를 정밀하게 보정할 수 있다.

Description

초점 조절장치, 그 제어방법, 및 촬상장치{FOCUS ADJUSTMENT DEVICE, METHOD FOR CONTROLLING THE SAME, AND IMAGE CAPTURE APPARATUS}
본 발명은 초점 조절장치, 그 초점 조절장치의 제어방법, 및 촬상장치에 관한 것이다.
촬상장치의 자동 초점 검출(AF) 방식으로서, 콘트라스트 AF 방식과 위상차 AF 방식이 알려져 있다. 콘트라스트 AF 방식도 위상차 AF 방식도 비디오 카메라 및 디지털 스틸 카메라에서 종종 사용되는 AF 방식이며, 이들 AF 방식의 몇몇에서는, 촬상소자가 초점 검출용 센서로서 사용된다.
이들의 AF 방식에서는, 광학상을 이용해서 초점 검출을 행하기 때문에, 광학상을 결상하는 광학계의 수차가 초점 검출 결과에 오차를 일으키는 경우가 있다. 이러한 종류의 오차를 저감하기 위한 방법이 제안되어 있다.
일본국 특허 제5087077호(문헌 1)에는, AF 프레임, 초점 거리, AF 평가 주파수, 피사체까지의 거리의 각각에 대해서, 복수의 대표값의 조합을 규정한 기준 보정 데이터를 준비하고, 실제의 조건에 따라 보간을 행해서 취득한 보정 데이터를 이용해서 초점 검출 결과를 보정하는 방법이 개시되어 있다.
그렇지만, 카메라 본체에 고유한 AF 평가 주파수에 적합한 보정값을 사용해서 초점 검출 결과를 보정하는 문헌 1의 방법에서는, 초점 검출 오차의 보정을 충분하게 행할 수 없다고 하는 문제가 있다. 초점 검출 오차는, 본래, 촬영된 화상에 대해서 가장 양호하다고 관찰자가 느끼는 초점 상태와, 초점 검출 결과가 나타내는 초점 상태와의 차이다. 그렇지만, 문헌 1에 기재된 방법에서는, 촬영된 화상의 초점 상태에 대해서 고려되지 않고 있다. 또한, 초점 검출 오차의 요인은 다양하며, 각 요인의 주파수에 따른 초점 검출 오차를 고려해야 한다. 그렇지만, 이 점에 관해서도 문헌 1에서는 고려되지 않고 있다.
본 발명은, 적어도 촬영 화상의 초점 상태를 고려해서 초점 검출 결과를 보정함으로써, 광학계의 수차에 의한 초점 검출 오차를 정밀하게 보정가능하고, 종래기술의 문제점의 1개 이상을 개선하는 초점 조절 장치, 그 제어 방법, 및 촬상장치를 제공한다.
본 발명의 일 국면에 의하면, 위상차 검출 방식 및 콘트라스트 검출 방식 중의 적어도 하나에 의한 자동 초점 검출을 실행할 수 있는 초점 조절장치가 제공되고, 상기 장치는 촬영 광학계의 비점수차, 색수차, 및 구면수차 중의 적어도 1개와 관련되는 수차정보와, 상기 자동 초점 검출과 관련되는 초점 검출 정보로부터, 상기 자동 초점 검출의 결과를 보정하기 위한 보정값을 취득하는 취득수단과, 상기 보정값에 의해 보정된 상기 자동 초점 검출의 결과에 의거하여 상기 촬영 광학계가 갖는 포커싱 렌즈의 위치를 제어하는 제어수단을 구비한다.
본 발명의 또 다른 국면에 의하면, 위상차 검출 방식 및 콘트라스트 검출 방식 중의 적어도 하나에 의한 자동 초점 검출을 실행할 수 있는 초점 조절장치의 제어방법이 제공되고, 상기 방법은 촬영 광학계의 비점수차, 색수차, 및 구면수차 중의 적어도 하나에 관한 수차정보와, 상기 자동 초점 검출에 관한 초점 검출 정보로부터, 상기 자동 초점 검출의 결과를 보정하기 위한 보정값을 취득하는 취득단계와, 상기 보정값에 의해 보정된 상기 자동 초점 검출의 결과에 의거하여, 상기 촬영 광학계가 갖는 포커싱 렌즈의 위치를 제어하는 제어단계를 포함한다.
본 발명의 추가 국면에 의하면, 본 발명에 따른 초점 조절장치와, 카메라 유닛과, 상기 촬영 광학계를 포함하고 상기 카메라 유닛으로부터 착탈가능한 렌즈 유닛을 구비하는 촬상장치가 제공되고, 상기 취득수단은 상기 카메라 유닛에 설치되어 있다.
본 발명의 또 다른 국면에 의하면, 본 발명에 따른 초점 조절장치와, 카메라 유닛과, 상기 촬영 광학계를 포함하고 상기 카메라 유닛으로부터 착탈가능한 렌즈 유닛을 구비하는 촬상장치가 제공되고, 상기 취득수단은 상기 렌즈 유닛에 설치되어 있다.
본 발명의 추가 특징들은 첨부도면을 참조하면서 이하의 예시적인 실시예의 설명으로부터 밝혀질 것이다
도 1a는, 실시예에 있어서의 AF 동작을 나타내는 플로차트이다.
도 1b는, 실시예에 있어서의 AF 동작을 나타내는 플로차트이다.
도 2는, 실시예에 따른 촬상장치의 일례로서의 디지털 카메라의 블럭도이다.
도 3a∼도 3b는, 실시예에 있어서의 촬상소자의 구성 예를 도시한 도면이다.
도 4a∼도 4b는, 실시예에 있어서의 광전 변환 영역과 사출 동공과의 관계를 도시한 도면이다.
도 5는, 도 2의 TVAF부(130)의 블럭도이다.
도 6은, 실시예에 있어서의 초점 검출 영역의 예를 나타내는 도면이다.
도 7은, 실시예에 있어서의 종횡 BP 보정값(BP1) 산출 처리의 플로차트이다.
도 8a∼도 8b는, 실시예에 있어서의 종횡 BP 보정값 산출 처리를 설명하기 위한 도면이다.
도 9a∼도 9c는, 실시예에 있어서의 색 BP 보정값(BP2) 산출 처리를 설명하기 위한 도면이다.
도 10a∼도 10c는, 제1 실시예에 있어서의 공간 주파수 BP 보정값(BP3) 산출 처리를 설명하기 위한 도면이다.
도 11a∼도 11f는, 실시예에 있어서의 각종 공간 주파수 특성을 도시한 도면이다.
도 12는, 제2 실시예에 있어서의 공간 주파수 BP 보정값(BP3) 산출 처리를 설명하기 위한 도면이다.
도 13은, 제3 실시예에 있어서의 공간 주파수 BP 보정값(BP3) 산출 처리를 설명하기 위한 플로차트이다.
도 14는, 제4 실시예에 있어서의 AF 동작을 나타내는 플로차트이다.
도 15는, 제4 실시예에 있어서의 BP 보정값(BP) 산출 처리를 설명하기 위한 도면이다.
도 16a∼도 16c는, 제4 실시예에 있어서의 BP 보정값(BP) 산출 처리를 설명하기 위한 도면이다.
도 17은, 제4 실시예에 있어서의 BP 보정값(BP) 산출 처리의 변형 예를 설명하기 위한 도면이다.
도 18은, 제5 실시예에 있어서의 BP 보정값(BP) 산출 처리를 설명하기 위한 도면이다.
도 19a∼도 19c는, 제5 실시예에 있어서의 한계 대역 처리를 설명하기 위한 도면이다.
이하, 본 발명의 바람직한 실시예를 첨부도면에 따라 상세히 설명한다. 이들 실시예는 본 발명의 이해 및 설명을 쉽게 하기 위한 구체적 구성을 갖지만, 본 발명은 그러한 특정한 구성에 한정되지 않는다. 예를 들면, 이하에서는 본 발명에 따른 초점 조절 장치 및 그 제어 방법을 촬상장치, 구체적으로는 렌즈 교환가능한 일안 레플렉스 타입의 디지털 카메라에 적용한 실시예에 관하여 설명하지만, 본 발명은 렌즈 교환할 수 없는 타입의 디지털 카메라와, 비디오 카메라에 대해서도 적용가능하다. 또한, 본 발명은 카메라를 구비한 임의의 전자기기, 예를 들면 휴대 전화기, PC(랩탑, 타블렛, 데스크탑 PC 등), 게임기 등으로 실현할 수도 있다. 한층 더, 광학계의 초점 조절을 행하는 임의의 기기에 있어서 실현할 수도 있다.
(제1 실시예)
(촬상장치의 구성의 설명 - 렌즈 유닛)
도 2는, 실시예에 따른 촬상장치의 일례로서 디지털 카메라의 기능 구성 예를 나타내는 블럭도다. 본 실시예에 따른 디지털 카메라는 렌즈 교환식 일안 레플렉스 카메라이며, 렌즈 유닛(100)과 카메라 본체(120)를 갖는다. 렌즈 유닛(100)은 도 2의 중심에 있는 점선으로 나타낸 마운트 M을 통해서 카메라 본체(120)에 장착된다.
렌즈 유닛(100)은, 광학계(제1 렌즈군(101), 조리개(102), 제2 렌즈군(103), 포커싱 렌즈군(이하, 간단히 "포커싱 렌즈"라고 한다) 104) 및, 구동/제어계를 갖는다. 이렇게, 렌즈 유닛(100)은, 포커싱 렌즈(104)를 포함하고, 피사체의 광학상을 형성하는 촬영 렌즈다.
제1 렌즈군(101)은 렌즈 유닛(100)의 선단에 배치되고, 광축 방향 OA로 이동할 수 있게 유지된다. 조리개(102)는, 촬영시의 광량을 조절하는 기능을 가지며, 또한, 정지 화상 촬영 시에는 노출 시간을 제어하는 메카니컬 셔터(mechanical shutter)로서도 기능하다. 조리개(102) 및 제2 렌즈군(103)은 일체로 광축 방향 OA로 이동가능하고, 제1 렌즈군(101)과 연동해서 이동함으로써 줌 기능을 실현한다. 포커싱 렌즈(104)도 광축 방향 OA로 이동가능하고, 포커싱 렌즈(104)의 위치에 따라 렌즈 유닛(100)이 포커싱하는 피사체 거리(in-focus distance or focused distance)가 변화된다. 포커싱 렌즈(104)의 광축 방향 OA에 있어서의 위치를 제어함으로써, 렌즈 유닛(100)의 인-포커스(in-focus) 거리를 조절하는 초점 조절을 행한다.
구동/제어계는, 줌 액추에이터(111), 조리개 액추에이터(112), 포커스 액추에이터(113), 줌 구동회로(114), 조리개 구동회로(115), 포커스 구동회로(116), 렌즈 MPU(117), 및 렌즈 메모리(118)를 갖는다.
줌 구동회로(114)는, 줌 액추에이터(111)를 사용해서 제1 렌즈군(101) 및 제3 렌즈군(103)을 광축 방향 OA로 구동하고, 렌즈 유닛(100)의 광학계의 화각(angle of view)을 제어한다. 조리개 구동회로(115)는, 조리개 액추에이터(112)를 사용해서 조리개(102)를 구동하고, 조리개(102)의 개구경 및 개폐 동작을 제어한다. 포커스 구동회로(116)는 포커스 액추에이터(113)를 사용해서 포커싱 렌즈(104)를 광축 방향 OA로 구동하고, 렌즈 유닛(100)의 광학계의 인-포커스 거리를 제어한다. 또한, 포커스 구동회로(116)는, 포커스 액추에이터(113)를 사용해서 포커싱 렌즈(104)의 현재 위치를 검출한다.
렌즈 MPU(프로세서)(117)는, 렌즈 유닛(100)과 관련된 모든 연산 및 제어를 행하고, 줌 구동회로(114), 조리개 구동회로(115), 및 포커스 구동회로(116)를 제어한다. 또한, 렌즈 MPU(117)는, 마운트 M을 통해서 카메라 MPU(125)에 접속되고, 코멘드나 데이터를 통신한다. 예를 들면, 렌즈 MPU(117)는 포커싱 렌즈(104)의 위치를 검출하고, 카메라 MPU(125)로부터의 요구에 따라 렌즈 위치 정보를 카메라 CPU(125)에 통지한다. 이 렌즈 위치 정보는, 포커싱 렌즈(104)의 광축 방향 OA에 있어서의 위치와, 광학계가 이동하고 있지 않은 상태의 사출 동공의 광축 방향 OA에 있어서의 위치 및 직경과, 사출 동공의 광속을 제한하는 렌즈 프레임의 광축 방향 OA에 있어서의 위치 및 직경 등의 정보를 포함한다. 또, 렌즈 MPU(117)는, 카메라 MPU(125)로부터의 요구에 따라, 줌 구동회로(114), 조리개 구동회로(115), 및 포커스 구동회로(116)를 제어한다. 렌즈 메모리(118)에는 자동 초점 검출에 필요한 광학정보가 미리 기억되어 있다. 카메라 MPU(125)는 카메라 MPU(125)에 내장된 불휘발성 메모리나 렌즈 메모리(118)에 기억되어 있는 프로그램을 실행함으로써 렌즈 유닛(100)의 동작을 제어한다.
(촬상장치의 구성의 설명 - 카메라 본체)
카메라 본체(120)는, 광학계(광학 로우패스 필터(121) 및 촬상소자(122))와, 구동/제어계를 갖는다. 렌즈 유닛(100)의 제1 렌즈군(101), 조리개(102), 제2 렌즈군(103), 포커싱 렌즈(104)와, 카메라 본체(120)의 광학 로우패스 필터(121)는 촬영 광학계를 구성한다.
광학 로우패스 필터(121)는, 촬영 화상의 가짜 색이나 모아레(moire)를 경감한다. 촬상소자(122)는 CMOS 이미지 센서와 주변회로로 구성되고, 횡방향으로 배치된 m화소와, 종방향으로 배치된 n화소(n, m은 2이상의 정수)를 갖는다. 본 실시예의 촬상소자(122)는, 동공 분할 기능을 갖고, 화상 데이터를 사용한 위상차 AF가 가능하다. 화상처리회로(124)는, 촬상소자(122)가 출력하는 화상 데이터로부터, 위상차 AF용의 데이터와, 표시, 기록, 및 콘트라스트 AF(TVAF)용의 화상 데이터를 생성한다.
구동/제어계는, 센서 구동회로(123), 화상처리회로(124), 카메라 MPU(125), 표시기(126), 조작 스위치군(127), 메모리(128), 위상차 AF부(129), 및 TVAF부(130)를 갖는다.
센서 구동회로(123)는, 촬상소자(122)의 동작을 제어하는 동시에, 취득한 상 신호를 A/D 변환하고, 변환한 상 신호를 카메라 MPU(125)에 송신한다. 화상처리회로(124)는, 촬상소자(122)가 취득한 화상 데이터에 대하여, 예를 들면
Figure 112015041648003-pat00001
변환, 화이트 밸런스 조정 처리, 색 보간 처리, 압축 부호화 처리 등, 디지털 카메라에서 행해지는 일반적인 화상처리를 행한다. 또한, 화상처리회로(124)는 위상차 AF용의 신호도 생성한다.
카메라 MPU(프로세서)(125)는, 카메라 본체(120)와 관련되는 모든 연산, 제어를 행하고, 센서 구동회로(123), 화상처리회로(124), 표시기(126), 조작 스위치군(127), 메모리(128), 위상차 AF부(129), 및 TVAF부(130)를 제어한다. 카메라 MPU(125)는 마운트 M의 신호선을 통해서 렌즈 MPU(117)과 접속되고, 렌즈 MPU(117)과 코멘드나 데이터를 통신한다. 카메라 MPU(125)는 렌즈 MPU(117)에 대하여, 렌즈 위치의 취득 요구, 소정의 구동량에서의 조리개, 포커싱 렌즈, 혹은 줌 구동 요구나, 렌즈 유닛(100)에 고유한 광학정보의 취득 요구 등을 발행한다. 카메라 MPU(125)에는, 카메라 동작을 제어하는 프로그램을 기억하는 ROM(125a), 변수를 기억하는 RAM(125b), 각종 파라미터를 기억하는 EEPROM(125c)이 내장되어 있다.
표시기(126)는 LCD 등으로 구성되고, 카메라의 촬영 모드에 관한 정보, 촬영 전의 프리뷰 화상, 촬영 후의 확인용 화상, 초점 검출시의 인-포커스 상태 표시 화상 등을 표시한다. 조작 스위치군(127)은, 전원 스위치, 릴리즈(release)(촬영 트리) 스위치, 줌 조작 스위치, 촬영 모드 선택 스위치 등으로 구성된다. 메모리(128)는, 착탈가능한 플래시 메모리이며, 취득된 화상을 기록한다.
위상차 AF부(129)는, 화상처리회로(124)에 의해 취득된 초점 검출용 데이터를 사용해서, 위상차 검출 방식으로 초점 검출 처리를 행한다. 더 구체적으로는, 화상처리회로(124)가, 촬영 광학계의 한 쌍의 동공영역을 통과하는 광속으로 형성되는 한 쌍의 화상의 데이터를 초점 검출용 데이터로서 생성하고, 위상차 AF부(129)는 이 한 쌍의 화상 데이터의 시프트량에 의거하여 초점 시프트량을 검출한다. 이렇게, 본 실시예의 위상차 AF부(129)는, 전용의 AF 센서를 사용하지 않고, 촬상소자(122)의 출력에 근거하는 위상차 AF(촬영면 위상차 AF)을 행한다. 위상차 AF부(129)의 동작에 관해서는 나중에 상세하게 설명한다.
TVAF부(130)는, 화상처리회로(124)에 의해서 생성된 TVAF용 평가값(화상 데이터의 콘트라스트 정보)에 의거하여 콘트라스트 검출방식에 의한 초점 검출 처리를 행한다. 콘트라스트 검출방식에 의한 초점 검출 처리에서는, 포커싱 렌즈(104)를 이동시켜서 평가값이 피크가 되는 포커싱 렌즈 위치를 인-포커스 위치로서 검출한다.
이렇게, 본 실시예의 디지털 카메라는 위상차 AF와 TVAF의 양쪽을 실행할 수 있고, 상황에 따라 선택적으로 사용하거나, 조합하여 사용하거나 할 수 있다.
(초점 검출 동작의 설명:위상차 AF)
이하, 위상차 AF부(129) 및 TVAF부(130)의 동작에 대해서 한층 더 설명한다.
우선, 위상차 AF부(129)의 동작에 관하여 설명한다.
도 3a는 본 실시예에 있어서의 촬상소자(122)의 화소 배열을 나타낸 도면이며, 2차원 C-MOS 에어리어 센서의 종방향(Y방향) 6행과 횡방향(X방향) 8열의 범위를, 렌즈 유닛(100)측으로부터 관찰한 상태를 나타낸다. 촬상소자(122)에는 베이어 패턴 컬러 필터가 설치되고, 홀수 행의 화소에는, 왼쪽에서 순차적으로 녹색(G)과 빨간색(R)의 컬러 필터가 교대로 배치되며, 짝수 행의 화소에는, 왼쪽에서 순차적으로 파란색(B)과 녹색(G)의 컬러 필터가 교대로 배치되어 있다. 화소 211에 있어서, 동그라미 211i는 온 칩 마이크로렌즈를 나타내고, 온 칩 마이크로렌즈의 내측에 배치된 복수의 직사각형 211a, 211b은 각각 광전 변환부다.
본 실시예에 있어서의 촬상소자(122)에서, 모든 화소의 광전 변환부가 X방향으로 2개의 부분으로 분할되고, 개개의 광전 변환부의 광전 변환 신호와, 광전변환 신호의 합이 독립적으로 판독 가능이다. 또한, 광전 변환 신호의 합으로부터 하나의 광전 변환부의 광전 변환 신호를 감산함으로써, 다른 광전 변환부의 광전변환 신호에 해당하는 신호를 얻을 수 있다. 개개의 광전 변환부의 광전 변환 신호는 위상차 AF용의 데이터로서 사용되거나, 3D(3-Dimensional) 화상을 구성하는 시차(parallax) 화상의 생성에 사용될 수도 있다. 또한, 광전 변환 신호의 합은, 일반적인 촬영 화상 데이터로서 사용될 수 있다.
여기에서, 위상차 AF를 행할 경우의 화소 신호에 관하여 설명한다. 후술하는 바와 같이, 본 실시예에 있어서는, 도 3a의 마이크로렌즈 211i와, 분할된 광전 변환부 211a, 211b는, 촬영 광학계의 사출 광속을 동공 분할한다. 그리고, 동일의 화소 행에 배치된 소정 범위 내의 복수의 화소(211)에 대해서, 광전 변환부 211a의 출력을 결합시켜서 편성한 것을 AF용 A상이라고 하고, 광전 변환부 211b의 출력을 결합시켜서 편성한 것을 AF용 B상이라고 한다. 광전 변환부 211a, 211b의 출력은, 컬러 필터의 단위 배열에 포함되는 녹색, 빨간색, 파란색, 녹색의 출력을 가산해서 산출한 의사 휘도(Y) 신호를 사용한다. 단, 빨간색, 파란색, 녹색의 색마다, AF용 A상, B상을 편성해도 된다. 이렇게 생성한 AF용 A상과 B상의 상대적인 상 시프트량을 상관 연산에 의해 검출함으로써, 소정영역의 초점 시프트량(디포커스량)을 검출할 수 있다. 본 실시예에서는, 각 화소에서의 하나의 광전 변환부의 출력과 그 화소에서의 모든 광전 변환부의 출력의 합을 촬상소자(122)로부터 판독한다. 예를 들면, 광전 변환부 211a의 출력과 광전 변환부 211a, 211b의 출력의 합이 판독될 경우, 광전 변환부 211b의 출력은 그 합으로부터 광전 변환부 211a의 출력을 감산함으로써 취득된다. 이에 따라, AF용 A상과 B상의 양쪽을 얻을 수 있어, 위상차 AF가 실현된다. 이러한 종류의 촬상소자는, 일본국 공개특허공보 특개2004-134867호에 나타나 있는 바와 같이, 공지되어 있기 때문에, 더 이상의 상세에 관한 설명은 생략한다.
도 3b는 본 실시예의 촬상소자(122)의 판독 회로의 구성 예를 나타낸 도다. 참조번호 151은 수평 주사 회로, 참조번호 153은 수직 주사 회로다. 그리고, 각 화소의 경계부에는, 수평 주사 라인 152a 및 152b과, 수직 주사 라인 154a 및 154b이 배치되고, 각 광전 변환부의 신호는 이들 주사 라인을 통해서 외부에 판독된다.
또한, 본 실시예의 촬상소자는 상기의 각 화소의 판독 방법에 더해, 이하의 2종류의 판독 모드를 갖는다. 제1 판독 모드는 "전체 화소 판독 모드"라고 칭하고, 고선명 정지 화상을 촬상하기 위한 모드다. 이 경우에는, 전체 화소의 신호가 판독된다.
제2 판독 모드는 솎음(thinning) 판독 모드라고 칭하고, 동영상 기록 혹은 프리뷰 화상의 표시만을 행하기 위한 모드다. 이 경우에 필요한 화소수는 전체 화소보다도 적기 때문에, X방향 및 Y방향으로 소정의 비율로 솎아낸 후에 남은 화소군 내의 화소만 판독한다. 또한, 고속으로 판독할 필요가 있는 경우에도, 마찬가지로 솎음 판독 모드를 사용한다. X방향으로 화소를 솎아낼 때는, 신호의 가산을 행해 S/N비를 개선하고, Y방향으로 화소를 솎아낼 때는, 솎아낸 행의 신호 출력을 무시한다. 위상차 AF 및 콘트라스트 AF도, 통상, 제2 판독 모드에서 판독된 신호에 근거해서 행해진다.
도 4a∼도 4b는, 본 실시예의 촬상장치에 있어서, 촬영 광학계의 사출 동공면과, 0의 상 높이, 즉 상면(image surface) 중앙 근방에 배치된 촬상소자의 광전 변환부와의 공역 관계를 나타내는 도면이다. 촬상소자 내의 광전 변환부와 촬영 광학계의 사출 동공면은, 온 칩 마이크로렌즈를 통해서 공역관계가 되도록 설계된다. 일반적으로, 촬영 광학계의 사출 동공은, 광량 조절용의 홍채 조리개가 위치되는 면과 거의 일치한다. 한편, 본 실시예의 촬영 광학계는 배율 변경 기능을 갖는 줌 렌즈이다. 광학 타입에 따라, 배율 변경 조작을 행하면, 사출 동공의 상면으로부터의 거리나 크기가 변화된다. 도 4a∼도 4b는, 렌즈 유닛(100)의 초점 거리가 광각단(wide-angle end)과 망원단(telephoto end)과의 중앙에 있는 상태를 나타낸다. 이 상태에 있어서의 사출 동공거리 Zep을 표준값이라고 하고, 온 칩 마이크로렌즈의 형상과 상 높이(X, Y 좌표)에 적합한 편심 파라미터의 최적 설계를 달성한다.
도 4a에 있어서, 참조번호 101은 제1 렌즈군, 참조번호 101b은 제1 렌즈군을 유지하는 경통 부재, 참조번호 105는 제3 렌즈군, 참조번호 104b은 포커싱 렌즈(104)를 유지하는 경통 부재다. 참조번호 102는 조리개, 참조번호 102a는 조리개 개방시의 개구경을 규정하는 개구판, 참조번호 102b은 조리개가 좁아질 때의 개구경을 조절하기 위한 조리개 날개다. 또한, 촬영 광학계를 통과하는 광속의 제한 부 재로서 작용하는 참조번호 101b, 102a, 102b, 및 104b는, 상면으로부터 관찰했을 경우의 광학적인 허상을 나타낸다. 또한, 조리개(102) 근방에 있어서의 합성 개구를 렌즈의 사출 동공이라고 정의하고, 전술한 바와 같이, 상면으로부터의 거리를 Zep라고 한다.
화소 211은 상면 중앙 근방에 배치되고, 본 실시예에서는 "중앙 화소"라고 부른다. 중앙 화소 211은, 최하층으로부터, 광전 변환부 211a, 211b, 배선층 211e∼211g, 컬러 필터 211h, 및 온 칩 마이크로렌즈 211i로 구성된다. 2개의 광전 변환부는 온 칩 마이크로렌즈 211i에 의해 촬영 광학계의 사출 동공면에 투영된다. 바꾸어 말하면, 촬영 광학계의 사출 동공이, 온 칩 마이크로렌즈 211i을 통해서 광전 변환부의 표면에 투영된다.
도 4b는, 촬영 광학계의 사출 동공면상에 있어서의, 광전 변환부의 투영 상을 나타낸 것으로, 광전 변환부 211a 및 211b에 대한 투영 상은 각각 EP1a 및 EP 1b로 나타낸다. 또, 본 실시예에서는, 촬상소자는, 2개의 광전 변환부 211a와 211b 중의 어느 하나의 출력과, 양쪽 광전 변환부의 출력들의 합의 출력을 얻을 수 있는 화소를 갖고 있다. 양쪽 광전 변환부로부터의 출력들의 합의 출력은, 촬영 광학계의 거의 전 동공영역인 투영 상 EP1a, EP1b의 양쪽 영역을 통과한 광속을 광전 변환함으로써 취득된다.
도 4a에서, 촬영 광학계를 통과하는 광속의 가장 바깥쪽 부분을 부호 L로 나타내면, 광속 L은, 조리개의 개구판 102a로 규제되고, 촬영 광학계에서의 투영 상 EP1a 및 EP1b에서 비네팅(vignetting)이 거의 발생하지 않는다. 도 4b에서는, 도 4a의 광속 L을, TL로 나타낸다. TL로 나타낸 동그라미 내부에, 광전 변환부의 투영 상 EP1a, EP1b의 대부분이 포함되어 있는 것부터도, 비네팅이 거의 발생하지 않는 것을 안다. 광속 L은, 조리개의 개구판 102a으로만 제한되기 때문에, TL은, 102a로 교체될 있다. 이때, 상면 중앙에서는 각 투영 상 EP1a 및 EP1b의 비네팅 상태는 광축에 대하여 대칭이 되고, 각 광전 변환부 211a 및 211b가 수광하는 광량은 서로 같다.
위상차 AF를 행할 경우, 카메라 MPU(125)는 촬상소자(122)로부터 전술한 2종류의 출력을 판독하도록 센서 구동회로(123)를 제어한다. 카메라 MPU(125)는 화상처리회로(124)에 초점 검출 영역에 관한 정보를 주고, 초점 검출 영역 내에 포함되는 화소의 출력으로부터, AF용 A상 및 B상의 데이터를 생성해서 위상차 AF부(129)에 공급하도록 화상처리회로(124)에 명령한다. 화상처리회로(124)는 이 명령에 따라 AF용 A상 및 B상의 데이터를 생성해서 위상차 AF부(129)에 출력한다. 화상처리회로(124)는 또한 TVAF부(130)에 대하여 RAW 화상 데이터를 공급한다.
상기 설명한 바와 같이, 촬상소자(122)는 위상차 AF 및 콘트라스트 AF의 양쪽에 대해서, 초점 검출장치의 일부를 구성하고 있다.
또한, 여기에서는 일례로서 수평방향으로 사출 동공을 2개의 부분으로 분할하는 구성을 설명했지만, 촬상소자 일부의 화소는 수직방향으로 사출 동공를 2개의 부분으로 분할하는 구성을 가져도 된다. 수평 및 수직의 양방향으로 사출 동공을 분할하는 구성도 가능하다. 수직방향으로 사출 동공를 분할하는 화소를 설치함으로써, 피사체의 수평방향의 콘트라스트와 수직방향의 콘트라스트를 처리할 수 있는 위상차 AF가 가능해 진다.
(초점 검출 동작의 설명:콘트라스트 AF)
다음에, 도 5를 참조하여, 콘트라스트 AF(TVAF)에 관하여 설명한다. 콘트러스트 AF는, 카메라 MPU(125)와 TVAF부(130)가 서로 연계해서 포커싱 렌즈의 구동과 평가값의 산출을 반복함으로써 실현된다.
화상처리회로(124)로부터 RAW 화상 데이터가 TVAF부(130)에 입력되면, AF 평가용 신호 처리 회로(401)는, 베이어 패턴 신호로부터의 녹색(G) 신호를 추출하고, 저휘도 성분을 강조해서 고휘도 성분을 억제하는 감마 보정처리를 실행한다. 본 실시예에서는, TVAF를 녹색(G) 신호를 이용해서 행할 경우를 설명하지만, 빨간색(R), 파란색(B), 녹색(G)의 모든 신호를 사용해도 된다. 또한, RGB 모든 색을 사용해서 휘도(Y) 신호를 생성해도 된다. AF 평가용 신호 처리 회로(401)로 생성되는 출력 신호는, 사용되는 신호의 종류에 관계없이 이후의 설명에서는, "휘도신호 Y"라고 부른다.
또한, 카메라 MPU(125)로 영역 설정 회로(413)에 초점 검출 영역이 설정되어 있는 것으로 한다. 영역 설정 회로(413)는, 설정된 영역 내의 신호를 선택하기 위한 게이트 신호를 생성한다. 게이트 신호는, 라인 피크 검출회로(402), 수평 적분회로(403), 라인 최소값 검출회로(404), 라인 피크 검출회로(409), 수직 적분회로 406, 410, 및 수직 피크 검출회로 405, 407, 411에 입력된다. 또한, 각 초점 평가값이 초점 검출 영역 내의 휘도신호 Y로 생성되도록 휘도신호 Y가 각 회로에 입력하는 타이밍이 제어된다. 또한, 영역 설정 회로(413)에는, 초점 검출 영역에 따라 복수개 영역이 설정가능하다.
이하, Y 피크 평가값의 산출 방법에 관하여 설명한다. 감마 보정된 휘도신호 Y는 라인 피크 검출회로(402)에 입력되고, 영역설정 회로(413)에서 설정된 초점 검출 영역 내에서 수평 라인 마다의 Y라인 피크값이 취득된다. 라인 피크 검출회로(402)의 출력의 피크는 수직 피크 검출회로(405)에 의해서 초점 검출 영역 내에서 수직방향으로 홀드되고, Y 피크 평가값이 생성된다. Y 피크 평가값은, 고휘도 피사체 및 저휘도 피사체의 판정에 유효한 지표다.
이하, Y 적분 평가값의 산출 방법에 관하여 설명한다. 감마 보정된 휘도신호 Y는, 수평 적분회로(403)에 입력되고, 초점 검출 영역 내에서 수평 라인마다 Y의 적분값이 취득된다. 또한, 수평 적분회로(403)의 출력은 수직 적분회로(406)에 의해서 초점 검출 영역 내에서 수직방향으로 적분되고, Y 적분 평가값이 생성된다. Y 적분 평가값은, 초점 검출 영역 전체의 밝기를 판단하는 지표로서 사용될 수 있다.
Max-Min 평가값의 산출 방법에 관하여 설명한다. 감마 보정된 휘도신호 Y는, 라인 피크 검출회로(402)에 입력되고, 초점 검출 영역 내에서 수평 라인마다의 Y라인 피크값이 취득된다. 또한, 감마 보정된 휘도신호 Y는, 라인 최소값 검출회로(404)에 입력되고, 초점 검출 영역 내에서 수평 라인마다 Y의 최소값이 검출된다. 검출된 수평 라인마다의 Y의 라인 피크값 및 최소값은 감산기에 입력되고, (라인 피크값 - 최소값) 수직 피크 검출회로(407)에 입력된다. 수직 피크 검출회로(407)는 초점 검출 영역 내에서 수직방향으로 피크를 홀드하고, Max - Min 평가값을 생성한다. Max - Min 평가값은, 저콘트라스트 및 고콘트라스트의 판정에 유효한 지표다.
영역 피크 평가값의 산출 방법에 관하여 설명한다. 감마 보정된 휘도신호 Y가 BPF 408을 통과시킴으로써, 특정한 주파수 성분이 추출되고 초점 신호가 생성된다. 이 초점 신호는 라인 피크 검출회로(409)에 입력되고, 초점 검출 영역 내에서 수평 라인마다의 라인 피크값이 취득된다. 라인 피크값은, 수직 피크 검출회로(411)에 의해 초점 검출 영역 내에서 피크로서 홀드되고, 영역 피크 평가값이 생성된다. 영역 피크 평가값은, 초점 검출 영역 내에서 피사체가 이동해도 변화가 적으므로, 인-포커스 상태로부터 다시 인-포커스점을 발견하는 처리로 이행할 것인지 아닌지를 판정하는 재기동 판정에 유효한 지표다.
이하, 전체 라인 적분 평가값의 산출 방법에 관하여 설명한다. 영역 피크 평가값과 마찬가지로, 라인 피크 검출회로(409)는, 초점 검출 영역 내에서 수평 라인마다의 라인 피크값를 취득한다. 다음에, 라인 피크 검출회로(409)는 라인 피크값를 수직 적분회로(410)에 입력하고, 초점 검출 영역 내에서 수직방향으로 전 수평 주사 라인 수에 대해서 라인 피크값을 적분해서 전 라인 적분 평가값을 생성한다. 고주파 전 라인 적분 평가값은, 적분의 효과로 인해 다이나믹 레인지가 넓고, 감도가 높으므로, 주요한 AF 평가값이다. 따라서, 본 실시예에서는, 간단히 "초점 평가값"이라고 기재한 경우에는, 전 라인 적분 평가값을 의미한다.
카메라 MPU(125)의 AF 제어부(151)는 전술한 각각의 초점 평가값을 취득하고, 렌즈 MPU(117)을 통해서 포커싱 렌즈(104)를 광축 방향을 따라 소정방향으로 소정량 이동시킨다. 그 다음, AF 제어부(151)는 새롭게 취득된 화상 데이터에 의거하여 전술한 각종의 평가값을 산출하고, 전 라인 적분 평가값이 가장 큰 포커싱 렌즈 위치를 검출한다.
본 실시예에서는, 각종의 AF용 평가값을 수평 라인 방향 및 수직 라인 방향으로 산출한다. 이에 따라, 직교하는 2방향, 즉 수평방향 및 수직방향의 피사체의 콘트라스트 정보에 대하여 초점 검출을 행할 수 있다.
(초점 검출 영역의 설명)
도 6은, 촬영 범위 내에 있어서의 초점 검출 영역의 예를 나타내는 도면이다. 전술한 바와 같이, 위상차 AF 및 콘트라스트 AF의 모두가, 초점 검출 영역에 포함되는 화소로부터 취득된 신호에 근거해서 행해진다. 도 6에 있어서, 점선으로 나타낸 큰 직사각형은 촬상소자(122)의 화소가 형성된 촬영 범위(217)를 나타낸다. 촬영 범위(217)에는 위상차 AF용의 초점 검출 영역 218ah, 218bh, 218ch가 설정되어 있다. 본 실시예에서는, 위상차 AF용의 초점 검출 영역 218ah, 218bh, 218ch를 촬영 범위(217)의 중앙부와 좌우 2개소의 합계 3개소에 설정하고 있다. 또, TVAF용의 초점 검출 영역 219a, 219b, 219c가, 위상차 AF용의 초점 검출 영역 218ah, 218bh, 218ch을 각각 둘러싸도록 설정되어 있다. 또한, 도 6은 초점 검출 영역의 설정 예를 나타내며, 초점 검출 영역의 수, 위치 및 크기는 도 6에 도시한 것에 한정되지 않는다.
(초점 검출 처리의 흐름의 설명)
다음에, 도 1a 및 1b을 참조하여, 본 실시예에 따른 디지털 카메라에 있어서의 자동 초점 검출(AF) 동작에 관하여 설명한다.
우선, AF 처리의 개요를 설명하고, 그 후에 상세한 설명을 행한다. 본 실시예에서, 카메라 MPU(125)는 우선, 초점 검출 영역 218ah, 218bh, 218ch의 각각에 대해서, 위상차 AF를 적용해서 각 초점 검출 영역의 초점 시프트량(디포커스량)과, 디포커스량의 신뢰성을 취득한다. 초점 검출 영역 218ah, 218bh, 218ch의 모두에서 소정의 신뢰성을 갖는 디포커스량을 취득하면, 카메라 MPU(125)는 디포커스량에 의거하여, 가장 가까운 피사체의 인-포커스 위치에 포커싱 렌즈(104)를 이동시킨다.
한편, 소정의 신뢰성을 갖는 디포커스량이 초점 검출 영역의 어느 것으로부터도 취득되지 않는 경우, 카메라 MPU(125)는, 소정의 신뢰성을 갖는 디포커스량이 취득되지 않는 초점 검출 영역을 포함하는 콘트라스트 AF용의 초점 검출 영역에 대해서 초점 평가값을 취득한다. 카메라 MPU(125)는, 초점 평가값의 변화와 포커싱 렌즈(104)의 위치와의 관계에 의거하여, 위상차 AF로 취득된 디포커스량에 대응하는 피사체 거리에 대하여 가장 가까운 측에 피사체가 존재하는지를 판정한다. 그리고, 보다 가까운 측에 피사체가 존재한다고 판정되었을 경우, 카메라 MPU(125)는, 초점 평가값의 변화에 근거하는 방향으로 포커싱 렌즈(104)를 구동한다.
또한, 이전에 초점 평가값이 취득되지 않은 경우에는, 초점 평가값의 변화량을 취득할 수 없다. 그 경우, 카메라 MPU(125)는, 미리 결정된 디포커스량보다 크고, 소정의 신뢰성을 갖는 디포커스량이 취득되었던 초점 검출 영역이 존재할 경우에는, 그 초점 검출 영역 중의 가장 가까운 피사체에 초점을 맞추도록 포커싱 렌즈(104)를 구동한다. 소정의 신뢰성을 갖는 디포커스량이 취득되지 않는 경우에는, 또, 미리 결정된 디포커스량보다 큰 디포커스량이 취득되지 않는 경우에는, 카메라 MPU(125)는 디포커스량에 관계없는 소정량 포커싱 렌즈(104)를 구동시킨다. 이것은, 작은 디포커스량에 의거하여 포커싱 렌즈(104)를 구동했을 경우, 다음 초점 검출시에 초점 평가값의 변화를 검출하는 것이 어려울 가능성이 높기 때문이다.
어느 것인가의 방법에 의해 초점 검출을 끝내면, 카메라 MPU(125)는 각종의 보정값을 산출하고, 초점 검출 결과를 보정한다. 그리고, 카메라 MPU(125)는 보정 후의 초점 검출 결과에 의거하여 포커싱 렌즈(104)를 구동한다.
이하, 전술한 AF 처리의 상세를, 도 1a 및 도 1b에 나타낸 플로차트를 사용하여 설명한다. 이하의 AF 처리 동작은, 다른 주체가 그 동작을 수행한다고 명기되어 있는 경우를 제외하고, 카메라 MPU(125)가 주체가 되어서 실행된다. 또한, 카메라 MPU(125)가 렌즈 MPU(117)에 코멘드 등을 송신함으로써 렌즈 유닛(100)의 구동이나 제어를 행하는 경우, 설명을 간결하게 하기 위해서, 동작 주체를 카메라 MPU(125)로 해서 기재하는 경우가 있다.
스텝 S1에서, 카메라 MPU(125)는 초점 검출 영역을 설정한다. 여기에서는, 위상차 AF용 및 콘트라스트 AF용에 대해서, 도 6에 나타낸 것과 같은 3의 초점 검출 영역이 설정되는 것으로 한다.
스텝 S2에 있어서, 카메라 MPU(125)는, RAM(125b) 내의 판정 플래그를 1로 설정한다.
스텝 S3에서, 카메라 MPU(125)는, 촬상소자(122)를 노광해서 상 신호를 판독하며, 화상처리회로(124)에 위상차 AF용의 초점 검출 영역 218ah, 218bh, 218ch 내의 화상 데이터에 근거하는 위상차 AF용의 상신호를 생성시킨다. 또한 카메라 MPU(125)는, 화상처리회로(124)에게 화상처리회로(124)가 생성한 RAW 화상 데이터를 TVAF부(130)에 공급시켜, TVAF부(130)에게 TVAF용의 초점 검출 영역 219a, 219b, 219c 내의 화소 데이터에 근거하는 평가값을 산출시킨다. 또한, 위상차 AF용의 상 신호를 생성하기 전에, 화상처리회로(124)에 있어서 촬영 렌즈의 렌즈 프레임 등에 의한 광속의 비네팅(vignetting)에 의한 사출 동공의 비대칭성을 보정하는 처리(일본국 공개특허공보 특개2010-117679호 참조)를 적용해도 된다. TVAF 부(130)가 산출한 초점 평가값은, 카메라 MPU(125) 내의 RAM(125b)에 기억된다.
스텝 S4에 있어서, 카메라 MPU(125)는, 신뢰성이 있는 초점 평가값의 피크(극대치)가 검출되었는지 아닌지를 판정한다. 신뢰성이 있는 피크가 검출되었을 경우, 카메라 MPU(125)는, 초점 검출 처리를 종료하는 순으로 처리를 스텝 S20로 진행시킨다. 또한, 초점 평가값의 피크의 신뢰성의 산출 방법에 제한은 없지만, 예를 들면 일본국 공개특허공보 특개2010-78810호의 도 10a 내지 도 13을 이용해서 설명한 방법을 이용해도 된다. 구체적으로는, 검출된 피크가 곡선의 정점을 나타내는지 아닌지를, 초점 평가값의 최대값과 최소값 간의 차, 일정값(SlopeThr)이상의 기울기로 경사져 있는 부분의 길이, 및 경사져 있는 부분의 경사를 각각의 임계값과 비교해서 판단한다. 모든 임계값 조건이 충족되면, 피크는 신뢰성이 있다고 판정할 수 있다.
본 실시예에서는, 위상차 AF와 콘트라스트 AF를 병용하고 있다. 그 때문에, 동일한 초점 검출 영역이나 다른 초점 검출 영역에서, 보다 가까운 측의 피사체의 존재가 확인되었을 경우에는, 신뢰성이 있는 초점 평가값 피크가 검출되었을 때에도, 초점 검출을 종료하지 않고 처리를 스텝 S5로 진행시켜도 된다. 다만, 이 경우, 신뢰성이 있는 초점 평가값 피크에 대응하는 포커싱 렌즈(104)의 위치를 기억해 두고, 스텝 S5 이후의 처리에서 신뢰성이 있는 초점 검출 결과가 취득되지 않은 경우에, 기억한 포커싱 렌즈(104)의 위치를 초점 검출 결과로서 사용한다.
스텝 S5에 있어서, 위상차 AF부(129)는, 초점 검출 영역 218ch, 218ah, 218bh마다, 화상처리회로(124)로부터 공급된 한 쌍의 상 신호 사이의 시프트량(위상차)을 산출하고, 위상차를 미리 기억되어 있는 환산 계수를 사용해서 디포커스량으로 변환한다. 여기에서는, 산출된 디포커스량의 신뢰성도 판정하고, 소정의 신뢰성을 갖는다고 판정된 초점 검출 영역의 디포커스량만을, 이후의 AF 처리에 사용한다. 렌즈 프레임 등에 의한 비네팅의 영향에 의해, 디포커스량이 커짐에 따라, 한 쌍의 상 신호 사이에서 검출되는 위상차는, 보다 많은 오차를 포함하게 된다. 그 때문에, 취득된 디포커스량이 임계값보다 클 경우, 한 쌍의 상 신호의 형상 간의 일치도가 낮을 경우, 혹은 상 신호의 콘트라스트가 낮을 경우에는, 취득된 디포커스량은 소정의 신뢰성을 가지고 있지 않다(즉, 신뢰성이 낮다)고 판정할 수 있다. 이하, 취득된 디포커스량이 소정의 신뢰성을 갖는다고 판정되었을 경우를 "디포커스량을 산출할 수 있다"라고 표현한다. 또한, 디포커스량이 어떠한 이유로 산출할 수 없을 경우나, 디포커스량의 신뢰성이 낮다고 판정되었을 경우를 "디포커스량을 산출할 수 없다"라고 표현한다.
스텝 S6에서, 카메라 MPU(125)는, 스텝 S1에서 설정한 위상차 AF용의 초점 검출 영역 218ah, 218bh, 218ch의 모두에서 디포커스량을 산출할 수 있는지 아닌지를 조사한다. 모든 초점 검출 영역에서 디포커스량을 산출할 수 있는 경우, 카메라MPU(125)는 처리를 스텝 S20로 진행시키고, 산출된 디포커스량 중에서, 가장 가까운 측에 있는 피사체를 나타내는 디포커스량이 산출된 초점 검출 영역에 대하여, 종횡 BP 보정값(BP1)을 산출한다. 여기에서, 가장 가까운 측의 피사체를 선택하는 이유는, 일반적으로, 촬영자가 초점을 맞추고 싶은 피사체가, 좀더 가까운 측에 존재하는 경우가 많기 때문이다. 또한, 종횡 BP 보정값(BP1)은, 수평방향의 피사체의 콘트라스트에 대하여 초점 검출을 행했을 경우의 초점 검출 결과와, 수직방향의 피사체의 콘트라스트에 대하여 초점 검출을 행했을 경우의 초점 검출 결과의 차를 보정하는 값이다.
일반적인 피사체는, 수평방향 및 수직방향 양쪽으로 콘트라스트를 갖고 있고, 촬영된 화상의 초점 상태의 평가도, 수평방향 및 수직방향의 양방향의 콘트라스트를 감안해서 이루어진다. 한편, 상기의 위상차 검출 방식의 AF와 같이 수평방향으로만의 초점 검출을 행할 경우, 수평방향의 초점 검출 결과와 촬영 화상의 수평방향 및 수직방향의 양방향의 초점 상태 사이에 오차가 발생한다. 이 오차는, 촬영 광학계의 비점수차 등에 의해 발생한다. 종횡 BP 보정값(BP1)은, 이 오차를 보정하기 위한 보정값이며, 선택된 초점 검출 영역, 포커싱 렌즈(104)의 위치, 줌 상태를 나타내는 제1 렌즈군(101)의 위치 등을 고려해서 산출된다. 산출 방법의 상세에 관해서는 후술한다.
스텝 S21에서, 카메라 MPU(125)는, 스텝 S20에서 보정값 산출 대상이 되는 초점 검출 영역에 대하여, 수직방향 혹은 수평방향의 콘트라스트 정보를 사용하여, 색 BP 보정값(BP2)을 산출한다. 색 BP 보정값(BP2)은, 촬영 광학계의 색수차에 의해 발생하고, 초점 검출에 사용하는 신호의 색 밸런스와 촬영 화상 혹은 현상된 화상에 사용하는 신호의 색 밸런스와의 차에 의해 생긴다. 예를 들면, 본 실시예의 콘트라스트 AF에서는, 초점 평가값을 녹색(G)의 컬러 필터를 갖는 화소(녹색 화소)의 출력에 의거하여 생성되기 때문에, 주로 녹색의 파장의 인-포커스 위치를 검출한다. 그러나, 촬영 화상은, RGB 전 색을 사용해서 생성되기 때문에, 빨간색(R)이나 파란색(B)의 인-포커스 위치가 녹색(G)과 다른 경우(즉, 축의 색수차가 존재할 경우), 초점 평가값에 의거한 초점 검출 결과로부터의 시프트(오차)가 발생한다. 이 오차를 보정하기 위한 보정값이, 색 BP 보정값(BP2)이다. 색 BP 보정값(BP2)의 산출 방법의 상세한 것은, 후술한다.
스텝 S22에서 카메라 MPU(125)는, 보정 대상의 초점 검출 영역에 대하여, 수직방향 혹은 수평방향으로 녹색 신호 혹은 휘도신호 Y의 콘트라스트 정보를 사용하여, 특정한 공간 주파수 BP 보정값(BP3)을 산출한다. 공간 주파수 BP 보정값(BP3)은, 촬영 광학계의 구면수차에 의해 주로 발생하고, 초점 검출에 사용하는 신호의 평가 주파수(대역)와 촬영 화상을 감상할 때의 평가 주파수(대역)와의 차에 의해 발생한다. 전술한 바와 같이, 초점 검출시의 화상 신호가 제2 모드에서 촬상소자로부터 판독되기 때문에, 출력 신호가 가산 및 솎아내졌다. 그 때문에, 제1 판독 모드에서 판독된 전체 화소의 신호를 사용해서 생성되는 촬영 화상와 비교해서, 초점 검출에 사용하는 출력 신호는 더 낮은 평가 대역을 갖는다. 그 평가 대역의 차에 의해 발생하는 초점 검출의 변화(shift)를 보정하는 것이 공간 주파수 BP 보정값(BP3)이다. 공간 주파수 BP 보정값(BP3)의 산출 방법의 상세한 것은, 후술한다.
스텝 S23에서, 카메라 MPU(125)는, 산출된 3개의 보정값(BP1, BP2, BP3)을 사용해서 이하의 식(1)에 따라 초점 검출 결과 DEF_B을 보정하고, 보정 후의 초점 검출 결과 DEF_A를 산출한다.
DEF_A=DEF_B+BP1+BP2+BP3 (1)
본 실시예에서는, 초점 검출 결과를 보정하기 위한 보정값을 3단계로 나누어, "종횡"(S20), "색"(S21), 및 "공간 주파수"(S22)의 순서로 계산한다.
우선, 촬영 화상의 감상시의 평가에 종횡 양방향의 콘트라스트 정보를 사용하는 것에 대해, 초점 검출에 1방향의 콘트라스트 정보를 사용하는 것에 기인하는 오차를, 종횡 BP 보정값(BP1)으로서 산출한다.
다음에, 종횡 BP의 영향을 분리해서, 1방향의 콘트라스트 정보에 있어서, 촬영 화상에 사용하는 신호의 색과 초점 검출시에 사용하는 신호의 색 사이의 인-포커스 위치의 차를, 색 BP 보정값(BP2)으로서 산출한다.
또한, 1방향의 콘트라스트 정보에서, 녹색 혹은 휘도신호 등의 특정한 색에 관해서 촬영 화상의 감상시와 초점 검출시의 평가 대역의 차에 의해 발생하는 인-포커스 위치의 차를 공간 주파수 BP 보정값(BP3)으로서 산출한다.
이렇게, 3종류의 오차를 개별적으로 산출함으로써, 연산량의 저감, 렌즈 혹은 카메라에 기억하는 데이터의 용량의 저감을 달성하고 있다.
스텝 S24에서, 카메라 MPU(125)는, 렌즈 MPU(117)를 통해서 포커싱 렌즈(104)를, 식(1)로 산출된 보정 후의 디포커스량 DEF_A에 의거하여 구동한다.
스텝 S25에서, 카메라 MPU(125)는, 포커싱 렌즈(104)의 구동에 사용한 디포커스량을 산출한 초점 검출 영역을 나타내는 표시(AF 프레임 표시)를 제공하여, 표시기(126)에서 예를 들면 라이브 뷰(live view) 화상에 중첩시켜서, AF 처리를 종료한다.
한편, 스텝 S6에서, 디포커스량을 산출할 수 없었던 초점 검출 영역이 존재했을 경우, 카메라 MPU(125)는 처리를 도 1b의 스텝 S7로 진행시킨다. 스텝 S7에서, 카메라 MPU(125)는, 판정 플래그가 1인지 아닌지의 여부를 판정한다. 판정 플래그가 1인 것은, AF 동작이 시작되고나서 포커싱 렌즈의 구동이 한 번도 행해지지 않은 경우다. 포커싱 렌즈의 구동이 행해졌으면, 판정 플래그는 0이 된다. 판정 플래그가 1인 경우, 카메라 MPU(125)는, 처리를 스텝 S8로 진행시킨다.
스텝 S8에서, 카메라 MPU(125)가 모든 초점 검출 영역에서 디포커스량을 산출할 수 없는 경우, 또는, 산출된 디포커스량 중, 가장 가까운 측의 피사체의 존재를 나타내는 디포커스량이 소정의 임계값 A 이하인 경우에, 카메라 MPU(125)는 처리를 스텝 S9로 진행시킨다. 스텝 S9에서, 카메라 MPU(125)는, 좀더 가까운 측으로 미리 결정된 양, 포커싱 렌즈를 구동한다.
여기에서, 스텝 S8의 결과가 Yes인 경우에, 소정량 렌즈를 구동하는 이유를 설명한다. 우선, 복수의 초점 검출 영역 중의 어느 것인가의 영역에서, 디포커스량을 산출할 수 없는 경우란, 현시점에서 초점 맞춤을 행해야 하는 피사체가 발견되지 않은 경우다. 그 때문에, 초점 맞춤을 행할 수 없다고 판단하기 전에, 초점 맞춤을 행해야 하는 피사체의 존재를 확인하기 위해서, 모든 초점 검출 영역에 대하여 소장량의 렌즈 구동을 행하여, 후술하는 초점 평가값의 변화를 판정할 수 있다. 또한, 산출된 디포커스량 중에서 가장 가까운 측의 피사체의 존재를 나타내는 디포커스량이 소정의 임계값 A 이하인 경우란, 현시점에서 거의 인-포커스 상태의 초점 검출 영역이 존재하는 경우다. 이러한 상황에서는, 디포커스량을 산출할 수 없었던 초점 검출 영역에서 보다 가까운 측에, 현시점에서는 검출되지 않은 피사체가 추가로 존재할 가능성을 확인하기 위해서, 소정량의 렌즈 구동을 행하여, 후술하는 초점 평가값의 변화를 판정할 수 있다.
또한, 스텝 S9에서 포커싱 렌즈를 구동하는 소정량은, 촬영 광학계의 F값이나 렌즈 구동량에 대한 촬영면 위에서의 초점 이동량의 민감도를 감안해서 결정되면 된다.
한편, 스텝 S8의 결과가 No인 경우, 즉, 산출된 디포커스량 중에서 가장 가까운 측의 피사체의 존재를 나타내는 디포커스량이 소정의 임계값 A보다 큰 경우에는, 처리가 스텝 S10로 진행된다. 이 경우에는, 디포커스량을 산출할 수 있었던 초점 검출 영역은 존재하지만, 이 초점 검출 영역은 인-포커스 상태에서는 존재하지 않는다. 그 때문에, 스텝 S10에서, 카메라 MPU(125)는, 산출된 디포커스량 중에서 가장 가까운 측의 피사체의 존재를 나타내는 디포커스량에 근거하여, 렌즈 구동을 행한다.
스텝 S9 혹은 스텝 S10에서 렌즈 구동을 행한 후, 카메라 MPU(125)는 처리를 스텝 S11로 진행시키고, 판정 플래그를 0으로 설정하고, 도 1a의 스텝 S3로 처리를 되돌린다.
스텝 S7에서, 판정 플래그가 1이 아닌(즉, 판정 플래그가 0인) 경우, 카메라 MPU(125)는 처리를 스텝 S12로 진행시킨다. 스텝 S12에서, 카메라 MPU(125)는, 디포커스량을 산출할 수 없었던 초점 검출 영역에 대응한 TVAF용의 초점 검출 영역의 초점 평가값이, 렌즈 구동 전후에서 소정의 임계값 B 이상 변화했는지 아닌지를 판단한다. 초점 평가값이 증가하는 경우도 감소하는 경우도 있지만, 스텝 S12에서는 초점 평가값의 변화량의 절대값이 소정의 임계값 B 이상인지 아닌지를 판단한다.
여기에서, 초점 평가값의 변화량의 절대값이 소정의 임계값 B 이상인 경우란, 디포커스량을 산출할 수 없지만, 초점 평가값의 증감에 의거해, 피사체의 흐릿한(blurred) 상태의 변화를 검출할 수 있다는 것을 의미한다. 그 때문에, 본 실시예에서는, 위상차 AF에 의한 디포커스량을 검출할 수 없는 경우에도, 초점 평가값의 증감에 의거하여 피사체의 존재를 판정하고, AF 처리를 계속한다. 이에 따라, 디포커스량이 크고, 위상차 AF로는 검출할 수 없는 피사체에 대하여, 초점 조절을 행할 수 있다.
여기에서, 판정에 사용하는 소정의 임계값 B는, 렌즈 구동량에 따라 변경된다. 렌즈 구동량이 큰 경우에는, 렌즈 구동량이 작은 경우보다도 임계값 B로서 큰 값을 설정한다.
이것은, 피사체가 존재할 경우에는, 렌즈 구동량의 증가에 따라, 초점 평가값의 변화량도 증가하기 때문이다. 렌즈 구동량마다의 임계값 B는, EEPROM(125c)에 기억되어 있다.
초점 평가값의 변화량의 절대값이 임계값 B 이상인 경우, 카메라 MPU(125)는 처리를 스텝 S13로 진행시키고, 초점 평가값의 변화량이 임계값 B 이상인 초점 검출 영역이, 무한원측 피사체의 존재를 나타내는 초점 검출 영역만인지 아닌지의 여부를 판정한다. 초점 검출 영역이 무한원측 피사체의 존재를 나타낼 경우란, 렌즈 구동의 구동 방향이 좀더 가까운 방향일 때는 초점 평가값이 감소했을 경우이고, 또는, 렌즈 구동의 구동방향이 무한원 방향일 때는 초점 평가값이 증가했을 경우다.
초점 평가값의 변화량이 임계값 B 이상인 초점 검출 영역이, 무한원측 피사체의 존재를 나타내는 초점 검출 영역만이 아닌 경우, 카메라 MPU(125)는 처리를 스텝 S14로 진행시키고, 좀더 가까운 측을 향해서 소정량의 렌즈 구동을 행한다. 이것은, 초점 평가값의 변화량이 임계값 B 이상인 초점 검출 영역 내에, 좀더 가까운 측 피사체의 존재를 나타내는 초점 검출 영역이 포함되어 있기 때문이다. 또한, 좀더 가까운 측 피사체를 우선하는 이유는 상기 설명한 것과 같다는 점에 유념한다.
한편, 스텝 S13에 있어서, 초점 평가값의 변화량이 임계값 B 이상인 초점 검출 영역이, 무한원측 피사체의 존재를 나타내는 초점 검출 영역만인 경우, 카메라 MPU(125)는 처리를 스텝 S15로 진행시킨다. 스텝 S15에서, 카메라 MPU(125)는, 디포커스량을 산출할 수 있는 초점 검출 영역이 존재하는지 아닌지를 판정한다. 디포커스량을 산출할 수 있는 초점 검출 영역이 존재할 경우(S15에서 Yes)에는, 초점 평가값에 의거한 무한원측 피사체의 존재보다도, 위상차 AF의 결과를 우선하기 때문에, 카메라 MPU(125)는, 처리를 도 1a의 스텝 S20로 진행시킨다.
디포커스량을 산출할 수 있는 초점 검출 영역이 존재하지 않을 경우(S15에서 No)에는, 피사체의 존재를 나타내는 정보는, 초점 평가값의 변화뿐이다. 그 때문에, 카메라 MPU(125)는, 초점 평가값의 변화에 의거하여 스텝 S16에서 무한원측으로 소정량의 렌즈 구동을 행하고, 처리를 도 1a의 스텝 S3로 되돌린다.
스텝 S14 및 스텝 S16에서 행하는 렌즈 구동의 소정량은, 위상차 AF로 검출가능한 디포커스량을 감안해서 결정되면 된다. 피사체에 의존해 검출가능한 디포커스량은 다르지만, 초점 검출 불가능한 상태로부터의 렌즈 구동 시에 피사체를 검출할 수 없이 통과시키는 것을 방지하도록 렌즈 구동량을 미리 설정해 둔다.
초점 평가값의 변화량의 절대값이 소정의 임계값 B 미만인 경우(S12에서 No), 카메라 MPU(125)는 처리를 스텝 S17로 진행시키고, 디포커스량을 산출할 수 있는 초점 검출 영역의 유무를 판정한다. 디포커스량을 산출할 수 있는 초점 검출 영역이 없는 경우, 카메라 MPU(125)는, 처리를 스텝 S18로 진행시키고, 미리 정해진 고정점으로 렌즈를 구동한 후, 한층 더 처리를 스텝 S19로 진행시키고, 표시기(126)에 비초점(no-focus) 상태를 나타내는 표시를 행해서 AF 처리를 종료한다. 이것은, 디포커스량을 산출할 수 있는 초점 검출 영역이 없고, 렌즈 구동의 전후에서 초점 평가값의 변화가 있는 초점 검출 영역도 없는 경우다. 이러한 경우, 피사체의 존재를 나타내는 정보가 전혀 없기 때문에, 카메라 MPU(125)는 초점을 맞추는 것을 행할 수 없다고 판정하고 AF 처리를 종료한다.
한편, 스텝 S17에서, 디포커스량을 산출할 수 있는 초점 검출 영역이 존재하는 경우, 카메라 MPU(125)는 처리를 도 1a의 스텝 S20로 진행시키고, 검출된 디포커스량의 보정을 행하고(S20∼S23), 스텝 S24에서 인-포커스 위치로 포커싱 렌즈(104)를 구동한다. 그 후에, 카메라 MPU(125)는 스텝 S25에서 표시기(126)에 인-포커스 상태를 나타내는 표시를 행하고, AF 처리를 종료한다.
(종횡 BP 보정값의 산출 방법)
다음에, 도 7 내지 도 8b을 참조하여, 도 1a의 스텝 S20에서 행하는 종횡 BP 보정값(BP1)의 산출 방법에 관하여 설명한다. 도 7은, 종횡 BP 보정값(BP1)의 산출 처리의 상세를 나타내는 플로차트다.
스텝 S100에서, 카메라 MPU(125)는 종횡 BP 보정 정보를 취득한다. 종횡 BP 보정 정보는, 수평방향(제1의 방향)의 인-포커스 위치와 수직방향(제2의 방향)의 인-포커스 위치와의 차분 정보다. 본 실시예에 있어서, 종횡 BP 보정 정보는 렌즈 유닛(100)의 렌즈 메모리(118)에 미리 기억되고, 카메라 MPU(125)는, 렌즈 MPU(117)로부터 요구해서 종횡 BP 보정 정보를 취득한다. 그러나, 카메라 RAM(125b)의 비휘발성 영역에는, 종횡 BP 보정 정보가 렌즈 유닛의 식별 정보와 관련하여 기억되어 있어도 된다.
도 8a는, 종횡 BP 보정 정보의 예를 나타낸다. 여기에서는, 도 6의 중앙의 초점 검출 영역 219a 및 218ah에 대응한 종횡 BP 보정 정보의 예를 나타내지만, 다른 초점 검출 영역 219c, 218ch 및 219b, 218bh에 대응하는 종횡 BP 보정 정보도 기억하고 있다. 다만, 촬영 광학계의 광축을 대하여 대칭적인 위치에 존재하는 초점 검출 영역의 초점 검출 보정값은, 설계상 서로 같다. 본 실시예에 있어서, 초점 검출 영역 219c, 218ch와 초점 검출 영역 219b, 218bh는 각각 이러한 비대칭의 관계를 충족시키기 때문에, 각 쌍의 초점 검출 영역 중의 하나의 종횡 BP 보정 정보를 기억해도 된다. 또한, 초점 검출 영역의 위치에 의존해 보정값이 크게 변화하지 않을 경우에는, 보정값을 공통의 값으로서 기억해도 된다.
도 8a에 나타낸 예에서는, 촬영 광학계의 줌 위치(화각)와 포커싱 렌즈 위치(인-포커스 거리)의 각각을 8개의 존으로 분할하고, 존마다 초점 검출 보정값 BP111∼BP188을 기억한다. 분할 존의 수가 많을수록, 촬영 광학계의 제1 렌즈군(101)의 위치 및 포커싱 렌즈(104)의 위치에 적합한 좀더 정밀한 보정값을 취득할 수 있다. 또한, 종횡 BP 보정 정보는, 콘트라스트 AF 및 위상차 AF의 양쪽에 사용될 수 있다.
스텝 S100에서, 카메라 MPU(125)는, 보정 대상의 초점 검출 결과에 적합한 줌 위치 및 포커싱 렌즈 위치에 대응한 보정값을 취득한다.
스텝 S101에서, 카메라 MPU(125)는, 보정 대상의 초점 검출 영역에 있어서, 수평방향 및 수직방향의 양방향에 대해서도 신뢰성이 있는 초점 검출 결과를 취득할 수 있었는지 여부를 판정한다. 초점 검출 결과의 신뢰성의 판정의 방법은, 위상차 AF에 관해서도 콘트라스트 AF에 관해서도 상기 설명한 것과 같다. 본 실시예에서의 위상차 AF에서는 수평방향의 초점 검출만 행해지기 때문에, 수평방향 및 수직방향의 양방향에 대한 신뢰성이 있는 초점 검출 결과를 콘트라스트 AF로 취득한다. 그 때문에, 종횡 BP 보정값에 관한 이후의 설명은, 콘트라스트 AF를 상정하지만, 위상차 AF에 의한 초점 검출을 수평 및 수직의 양방향에서 행하는 경우에도, 같은 처리를 행하면 된다. 스텝 S101에서, 수평방향 및 수직방향의 양쪽의 초점 검출 결과도 신뢰성이 있다고 판정되었을 경우, 카메라 MPU(125)는, 처리를 스텝 S102로 진행시킨다.
스텝 S102에서, 카메라 MPU(125)는, 수평방향의 초점 검출 결과와 수직방향의 초점 검출 결과의 차가, 적절한지 아닌지를 판정한다. 이것은, 먼 거리의 피사체와 가까운 거리의 피사체가 초점 검출 영역 내에 포함되어 있을 때에 발생하는 먼 피사체와 가까운 피사체 간의 초점의 어긋남(shifting)의 문제를 처리하기 위해서 행해지는 처리다. 예를 들면, 먼 피사체가 수평방향의 콘트라스트를 갖고, 가까운 피사체가 수직방향의 콘트라스트를 갖는 경우, 촬영 광학계의 비점수차 등에 의해 발생하는 오차보다도 절대값이 크거나, 초점 검출 결과가 반대의 부호를 갖는 경우가 있다. 카메라 MPU(125)는, 수평방향의 초점 검출 결과와 수직방향의 초점 검출 결과와의 차가 미리 결정된 판정값 C보다 큰 경우에는, 그 차가 적당하지 않다(즉, 초점의 어긋남이 발생했다)고 판정한다. 그리고, 카메라 MPU(125)는, 좀더 가까운 측의 초점 검출 결과를 나타내는 방향으로서 수평방향 혹은 수직방향을 선택하고, 처리를 스텝 S104로 진행시킨다. 또한, 판정값 C는, 상기의 이유로, 수차 등에 의해 발생하는 차를 상당히 초과하는 값이 되도록 독특하게 결정되어도 되고, 스텝 S100에서 취득된 보정 정보를 사용해서 설정되어도 된다.
스텝 S102에서 수평방향의 초점 검출 결과와 수직방향의 초점 검출 결과의 차가 적합하다고 판정되었을 경우, 카메라 MPU(125)는, 처리를 스텝 S106로 진행시킨다.
한편, 스텝 S101에서, 수평방향 혹은 수직방향의 어느 한 방향의 초점 검출 결과만이 신뢰성이 있는 경우나, 스텝 S102에서, 수평방향 및 수직방향 중의 한 방향만이 선택되었을 경우, 카메라 MPU(125)는 처리를 스텝 S104로 진행시킨다. 스텝 S104에서, 카메라 MPU(125)는 초점 검출 결과의 방향을 선택한다. 카메라 MPU(125)는 신뢰성이 있는 초점 검출 결과를 산출하는 방향이나, 초점의 어긋남에 관한 판정으로, 보다 가까운 측에 있는 피사체에 대응한 초점 검출 결과를 산출하는 방향을 선택한다.
다음에, 카메라 MPU(125)는, 스텝 S105에서, 수평방향 및 수직방향의 가중(weighting)이 가능한지 아닌지의 여부를 판정한다. 스텝 S105가 실행될 경우, 초점 평가값의 신뢰성과 초점의 어긋남의 관점에서, 수평방향 및 수직방향의 양방향에 대하여 신뢰성이 있는 초점 검출 결과를 취득할 수 없지만, 종횡 BP 보정값을 산출하기 위한 판정을 다시 행한다. 이 이유를, 도 8b을 사용하여, 이하에 상세하게 설명한다.
도 8b는, 선택된 초점 검출 영역의 포커싱 렌즈(104)의 위치와 초점 평가값과의 관계 예를 도시한 도면이다. 도 8b 중의 곡선 E_h 및 E_v는, 콘트라스트 AF에 의해서 검출된 수평방향의 초점 평가값과 수직방향의 초점 평가값의 변화를 나타낸다. 또, 부호 LP1, LP2, LP3은, 각각 포커싱 렌즈 위치를 나타낸다. 도 8b는, 수평방향의 초점 평가값 E_h로부터 신뢰성이 있는 초점 검출 결과로서 LP3가 취득되고, 수직방향의 초점 평가값 E_v로부터 신뢰성이 있는 초점 검출 결과로서 LP1이 취득되는 경우를 나타낸다. LP1과 LP3가 상당히 다르기 때문에 초점의 어긋남이 발생했다고 판정되고, 좀더 가까운 측에 있는 초점 검출 결과인 수평방향의 초점 검출 결과 LP3이 스텝 S104에서 선택된다.
이러한 상황에서, 스텝 S105에서, 카메라 MPU(125)는, 선택된 수평방향의 초점 검출 결과 LP3 근방에, 수직방향의 초점 검출 결과가 존재하는지 아닌지를 판정한다. 도 8b와 같은 상황에서 LP2이 존재하기 때문에, 카메라 MPU(125)는, 수평, 수직방향의 가중이 가능하다고 판정하고, 처리를 스텝 S106로 진행시키고, 초점 검출 결과 LP3의 보정값을, 초점 검출 결과 LP2의 영향을 고려해서 산출한다.
스텝 S100에 있어서, 종횡 BP 보정 정보로서 도 8a의 1요소인 BP1_B을 취득했고, 도 8b의 LP3에 있어서의 수평방향의 초점 평가값이 E_hp이고, LP2에 있어서의 수직방향의 초점 평가값이 E_vp이라고 가정한다. 이 경우, 스텝 S106에서, 카메라 MPU(125)는, 초점 평가값의 합계에 대한, 보정하는 방향과 직교하는 방향에 있어서의 초점 평가값의 비에 근거하여, 종횡 BP 보정값 BP1을 이하의 식(2)에 따라 산출한다.
BP1=BP1_B×E_vp/(E_vp+E_hp)×(+1) (2)
본 실시예에서는 수평방향의 초점 검출 결과에 대한 보정값을 산출하기 때문에, 식(2)을 사용해서 보정값 BP1을 산출하지만, 수직방향의 초점 검출 결과를 보정하는 경우에는, 이하의 식(3)을 이용해서 산출할 수 있다.
BP1=BP1_B×E_hp/(E_vp+E_hp)×(-1) (3)
스텝 S102에서 수평방향의 초점 검출 결과와 수직방향의 초점 검출 결과와의 차가 적당하다고 판정되었을 경우, 좀더 가까운 측의 초점 검출 결과가 수평방향의 검출 결과이면 식(2)을 이용해서, 혹은 수직방향의 검출 결과이면 식(3)을 이용해서 보정값 BP1을 산출한다.
식(2) 및 식(3)으로부터 자명한 것처럼, 초점 평가값이 크다는 것을 나타내는 정보에 근거해서, 피사체에 포함되는 콘트라스트 정보가 많다고 판정하고, 종횡 BP 보정값(BP1)을 산출한다. 전술한 바와 같이, 종횡 BP 보정 정보는,
(수직방향으로만 콘트라스트 정보를 갖는 피사체의 초점 검출 위치)-(수평방향으로만 콘트라스트 정보를 갖는 피사체의 초점 검출 위치)이다. 그 때문에, 수평방향의 초점 검출 결과를 보정하는 보정값 BP1과 수직방향의 초점 검출 결과를 보정하는 보정값 BP1은 반대의 부호를 갖는다. 스텝 S106의 처리를 종료하면, 카메라 MPU(125)는, 종횡 BP 보정값 산출 처리를 종료한다.
한편, 선택되어 있는 수평방향의 초점 검출 결과 LP3 근방에, 수직방향의 초점 검출 결과가 존재하지 않다고 스텝 S105에서 판정되었을 경우, 카메라 MPU(125)는 처리를 스텝 S103로 진행시킨다. 스텝 S103에서, 카메라 MPU(125)는, 피사체가 대개 1방향으로만 콘트라스트 정보를 포함하고 있다고 판단하기 때문에, BP1=0이라고 설정하고, 종횡 BP 보정값 산출 처리를 종료한다.
이렇게, 본 실시예에서는, 다른 방향에 있어서의 피사체의 콘트라스트 정보 에 따라 보정값을 산출하기 때문에, 피사체의 패턴에 따라 정밀하게 보정값을 산출할 수 있다. 또한, 도 8b에서는, 피사체 사이에 초점의 어긋남이 발생한 경우에 관하여 설명했지만, 수평방향과 수직방향의 각각에서 1개씩 극대치가 검출되고, 초점 검출 결과 중의 하나가 신뢰성이 없을 경우도, 같은 사고방식으로 보정값을 산출한다.
다만, 스텝 S106에서의 보정값 산출 방법은 이것에 한정되지 않는다. 예를 들면, 본 실시예의 위상차 AF와 같이, 수평방향으로만 초점 검출을 행할 수 있는 경우에는, 피사체의 수평방향의 콘트라스트의 정보량이 수직방향의 콘트라스트의 정보량과 같다고 가정하고, 보정값을 산출해도 된다. 그 경우에는, 상기의 식(2) 및 식(3)에 E_hp=E_vp=1을 대입함으로써 보정값을 산출할 수 있다. 이러한 처리를 행함으로써, 보정 정밀도가 낮아지지만, 보정값 연산의 부하를 감소시킬 수 있다.
상기에서는, 콘트라스트 AF의 초점 검출 결과에 대하여 설명했지만, 위상차 AF에 의한 초점 검출 결과에 대해서도 같은 처리를 행하는 것이 가능하다. 보정값 산출시의 가중의 계수로서, 위상차 AF의 상관 연산으로 산출되는 상관량의 변화량을 사용하면 된다. 이 경우, 피사체의 명암차가 큰 경우, 명암차가 있는 에지의 수가 많은 경우 등, 피사체의 콘트라스트 정보량이 많으면 많을수록, 상관량의 변화량도 커지는 것을 이용하고 있다. 비슷한 관계가 취득되는 한은, 평가값은, 상관량의 변화량에 한정되지 않고, 여러 가지 평가값일 수도 있다.
이렇게, 종횡 BP 보정값을 사용해서 초점 검출 결과를 보정함으로써, 피사체의 방향마다의 콘트라스트 정보량에 관계없이, 정밀한 초점 검출을 행할 수 있다. 또한, 수평방향, 수직방향의 보정값을 도 8a에 나타나 있는 바와 같은 공통의 보정 정보를 사용해서 산출하기 때문에, 방향마다 각각의 보정값을 기억하는 경우에 비하여 보정 정보의 기억 용량을 저감할 수 있다.
방향마다의 초점 검출 결과가 상당히 다른 경우에는, 이들 초점 검출 결과를 사용하여 종횡 BP 보정값을 산출하지 않는 것에 의해, 초점의 어긋남의 영향을 저감할 수 있다. 한층 더, 초점의 어긋남이 상정될 경우에 있어서도, 방향마다의 초점 평가값의 대소에 의거해 보정값의 가중을 행함으로써, 보다 정밀한 보정을 행할 수 있다.
(색 BP 보정값의 산출 방법)
다음에, 도 9a 내지 도 9c을 사용하여, 도 1a의 스텝 S21에서 행하는 색 BP 보정값(BP2)의 산출 방법에 관하여 설명한다. 도 9a는, 색 BP 보정값(BP2)의 산출 처리의 상세를 나타내는 플로차트다.
스텝 S200에서, 카메라 MPU(125)는 색 BP 보정 정보를 취득한다. 색 BP 보정 정보는, 녹색(G)의 신호를 사용해서 검출되는 인-포커스 위치와 다른 색(빨간색(R), 파란색(B))의 신호를 사용해서 검출되는 인-포커스 위치와의 차분 정보다. 본 실시예에 있어서, 색 BP 보정 정보는 렌즈 유닛(100)의 렌즈 메모리(118)에 미리 기억되고, 카메라 MPU(125)는, 렌즈 MPU(117)로부터 요구해서 색 BP 보정 정보를 취득한다. 그렇지만, 색 BP 보정 정보는 카메라 RAM(125b)의 비휘발성 영역에 기억되어 있어도 된다.
분할 존의 수가 많을수록, 촬영 광학계의 제1 렌즈군(101)의 위치 및 포커싱 렌즈(104)의 위치에 적합한 보다 정밀한 보정값을 취득할 수 있다. 또한, 색 BP 보정 정보는, 콘트라스트 AF 및 위상차 AF의 양쪽에 사용될 수 있다.
스텝 S200에서, 카메라 MPU(125)는, 보정대상의 초점 검출 결과에 적합한 줌 위치 및 포커싱 렌즈 위치에 대응한 보정값을 취득한다.
스텝 S201에서, 카메라 MPU(125)는, 색 BP 보정값을 산출한다. 스텝 S200에서, 도 9b의 1요소로서 BP_R을 취득했고, 도 9c의 1요소로서 BP_B을 취득했을 경우, 카메라 MPU(125)는, 색 BP 보정값 BP2을 이하의 식(4)에 따라 산출한다.
BP2=K_R×BP_R+K_B×BP_B (4)
여기에서, K_R 및 K_B은, 각색의 보정 정보에 대한 계수다. 이들 계수는 피사체에 포함되는 녹색(G) 정보에 대한 빨간색(R) 및 파란색(B)의 정보의 대소관계와 상관이 있는 값이며, 빨간색을 많이 포함하는 피사체에 대해서는, K_R가 보다 큰 값을 취하고, 파란색을 많이 포함하는 피사체에 대해서는, K_B이 보다 큰 값을 취한다. 녹색을 많이 포함하는 피사체에 대해서, K_R, K_B가 작은 값을 취한다. K_R, K_B은, 피사체의 대표적인 분광 정보에 근거하여, 미리 설정되어도 된다. 피사체의 분광 정보를 검출할 수 있을 경우에는, 피사체의 분광 정보에 따라 K_R, K_B을 설정하면 된다. 스텝 S202에서, 색 BP 보정값의 산출을 종료하면, 카메라 MPU(125)는, 색 BP 보정값 산출 처리를 종료한다.
또한, 본 실시예에서는, 보정값을 도 8a 및 도 9a∼도 9c과 같이 초점 검출 영역마다 테이블 형식으로 기억하지만, 보정값의 기억 방법은, 이것에 한정되지 않는다. 예를 들면, 촬상소자와 촬영 광학계의 광축과의 교점을 원점이라고 하고 촬상장치의 수평방향 및 수직방향을 X축 및 Y축이라고 한 좌표계를 설정하고, 초점 검출 영역의 중심좌표에 있어서의 보정값을, X와 Y의 함수를 이용해서 취득하는 구성을 이용해도 된다. 이 경우, 초점 검출 보정값으로서 기억해야 하는 정보량을 삭감할 수 있다.
또한, 본 실시예에서는, 종횡 BP 보정 정보나 색 BP 보정 정보를 사용해서 산출을 행하는 초점 검출에 사용하는 보정값을, 피사체의 패턴이 가지고 있는 공간 주파수 정보에 보정값이 의존하지 않는 것으로 해서 산출한다. 그 때문에, 기억해야 하는 보정정보의 양을 증가시키지 않고 정밀한 보정을 행할 수 있다. 그렇지만, 보정값의 산출 방법은, 이것에 한정되는 것은 아니다. 후술하는 공간 주파수 BP 보정값의 산출 방법과 마찬가지로, 공간 주파수마다의 종횡 BP 보정 정보나 색 BP 보정 정보를 사용하여, 피사체의 공간 주파수 성분에 따라 보정값을 산출해도 된다.
(공간 주파수 BP 보정값의 산출 방법)
다음에, 도 10a 내지 도 10c을 사용하여, 도 1a의 스텝 S22에서 행하는 공간 주파수 BP 보정값(BP3)의 산출 방법에 관하여 설명한다. 도 10a는, 공간 주파수 BP 보정값(BP3)의 산출 처리의 상세를 나타내는 플로차트다.
스텝 S300에서, 카메라 MPU(125)는 공간 주파수 BP 보정 정보를 취득한다. 공간 주파수 BP 보정 정보는, 피사체의 공간 주파수마다의 촬영 광학계의 결상 위치에 관한 정보다. 본 실시예에 있어서, 공간 주파수 BP 보정 정보는 렌즈 유닛(100)의 렌즈 메모리(118)에 미리 기억되어 있고, 카메라 MPU(125)는, 렌즈 MPU(117)로부터 요구해서 보정 정보를 취득한다. 그렇지만, 공간 주파수 BP 보정 정보는 카메라 RAM(125b)의 불휘발성 영역에 기억되어 있어도 된다.
촬영 광학계의 디포커스 MTF(Modulation Transfer Function)을 도시한 도 10b을 사용하여, 공간 주파수 BP 보정 정보의 예를 설명한다. 도 10b의 횡축은 포커싱 렌즈(104)의 위치를, 종축은 MTF의 강도를 나타낸다. 도 10b에 도시되어 있는 4종의 곡선은, 공간 주파수마다의 MTF 곡선이고, MTF1, MTF2, MTF3, MTF4의 순으로, 공간 주파수가 낮은 쪽에서 높은 쪽으로 변화되었을 경우를 나타낸다. 공간 주파수 F1(lp/mm)의 MTF 곡선이 MTF1에 대응하고, 마찬가지로, 공간 주파수 F2, F3, F4(lp/mm)이 각각 MTF2, MTF3, MTF4에 대응한다. 또한, LP4, LP5, LP6, LP7은, 각 디포커스 MTF 곡선의 극대치에 대응하는 포커싱 렌즈(104)의 위치를 나타낸다. 또한, 기억되어 있는 공간 주파수 BP 보정 정보는 도 10b의 곡선을 이산적으로 샘플링함으로써 취득된다. 일례로서, 본 실시예에서는, 1개의 MTF 곡선에 대하여 10개의 포커싱 렌즈 위치에 대한 MTF 데이터가 샘플링되고, 예를 들면 MTF1에 대해서는, MTF1(n)(1≤n≤10)로서 10세트의 데이터를 기억하고 있다.
종횡 BP 보정 정보와 색 BP 보정 정보와 같이, 초점 검출 영역의 위치마다 촬영 광학계의 줌 위치(화각)와 포커싱 렌즈 위치(인-포커스 거리)를 8개의 존으로 분할하고, 공간 주파수 BP 보정 정보를 존마다 기억한다. 분할 존의 수가 많을수록 촬영 광학계의 제1 렌즈군(101)의 위치 및 포커싱 렌즈(104)의 위치에 적합한 보다 정밀한 보정값을 취득할 수 있다. 또한, 공간 주파수 BP 보정 정보는, 콘트라스트 AF 및 위상차 AF의 양쪽에 사용될 수 있다.
스텝 S300에서, 카메라 MPU(125)는, 보정대상의 초점 검출 결과에 적합한 줌 위치와 포커싱 렌즈 위치에 대응한 보정값을 취득한다.
스텝 S301에서, 카메라 MPU(125)는, 보정대상의 초점 검출 영역에 있어서, 콘트라스트 AF와 위상차 AF를 행할 때에 사용되는 신호의 대역을 산출한다. 본 실시예에서, 카메라 MPU(125)는, 피사체, 촬영 광학계, 촬상소자의 샘플링 주파수, 및 평가에 사용하는 디지털 필터의 영향을 감안하면서, AF 평가 대역을 산출한다. AF 평가 대역의 산출 방법은, 후술한다.
다음에, 스텝 S302에서, 카메라 MPU(125)는, 촬영 화상에 사용하는 신호의 대역을 산출한다. 스텝 S302의 AF 평가 대역의 산출과 마찬가지로, 카메라 MPU(125)는, 피사체, 촬영 광학계, 촬상소자의 주파수 특성, 및 촬영 화상을 감상하는 사람의 평가 대역의 영향을 감안하면서 촬영 화상 평가 대역을 산출한다.
도 11a∼도 11f를 이용하여, 스텝 S301 및 S302에서 행하는 AF 평가 대역(제2의 평가 대역) 및 촬영 화상 평가 대역(제1의 평가 대역)의 산출에 관하여 설명한다. 도 11a∼도 11f는, 공간 주파수마다의 강도를 나타내고, 횡축은 공간 주파수, 종축은 강도를 나타낸다.
도 11a는, 피사체의 공간 주파수 특성(I)을 나타낸다. 횡축 위의 F1, F2, F3, F4은, 도 10b의 MTF 곡선(MTF1 내지 MTF4)에 대응한 공간 주파수다. 또한, Nq는, 촬상소자(122)의 화소 피치에 의해 결정되는 Nyquist 주파수를 나타낸다. F1∼F4과 Nq는, 이후에 설명하는 도 11b 내지 도 11f에도 마찬가지로 도시되어 있다. 본 실시예에서는, 피사체의 공간 주파수 특성(I)으로서, 미리 기억된 대표값을 사용한다. 도 11a에서는, 피사체의 공간 주파수 특성(I)은 연속한 곡선으로 도시되어 있고, 공간 주파수 F1, F2, F3, F4에 대응한 이산값 I(n)(1≤n≤4)을 갖는다.
또한, 본 실시예에서는 피사체의 공간 주파수 특성으로서 미리 기억된 대표값을 사용했지만, 초점 검출을 행하는 피사체에 따라, 사용하는 피사체의 공간 주파수 특성을 변경해도 된다. 촬영한 화상 신호에 FFT 처리 등을 적용함으로써, 피사체의 공간 주파수 정보(파워 스펙트럼)를 얻을 수 있다. 이 경우, 연산 처리량이 증가하지만, 실제로 초점 검출을 행하는 피사체에 적합한 보정값을 산출할 수 있기 때문에, 정밀한 초점 검출이 가능해진다. 보다 간이적으로, 피사체의 콘트라스트 정보의 대소에 의존해서, 미리 기억된 여러 종류의 공간 주파수 특성을 적당히 이용해도 된다.
도 11b는, 촬영 광학계의 공간 주파수 특성(O)을 나타낸다. 이 정보는, 렌즈 MPU(117)을 통해서 취득되어도 되고, 혹은 카메라 내의 RAM(125b)에 기억되어 있어도 된다. 기억된 정보는, 디포커스 상태마다의 공간 주파수 특성이어도 되고, 혹은 인-포커스 상태의 공간 주파수 특성만이어도 된다. 공간 주파수 BP 보정값은 인-포커스 위치 근방에서 산출되기 때문에, 인-포커스 상태의 공간 주파수 특성을 이용해서, 정밀한 보정을 행할 수 있다. 다만, 연산 부하는 증가하지만, 디포커스 상태마다의 공간 주파수 특성을 사용하여 보다 정밀한 초점 조절을 행할 수 있다. 사용해야 하는 디포커스 상태의 공간 주파수 특성은, 위상차 AF에 의해 취득된 디포커스량을 사용해서 선택되면 된다.
도 11b에서 촬영 광학계의 공간 주파수 특성(O)은 연속한 곡선으로 도시되어 있지만, 공간 주파수 F1, F2, F3, F4에 대응한 이산값 O(n)(1≤n≤4)을 갖는다.
도 11c는, 광학 로우패스 필터(121)의 공간 주파수 특성(L)을 나타낸다. 이 정보는, 카메라 내의 RAM(125b)에 기억되어 있다. 도 11c에서는, 광학 로우패스 필터(121)의 공간 주파수 특성(L)은, 연속한 곡선으로 도시되어 있지만, 공간 주파수 F1, F2, F3, F4에 대응한 이산값 L(n)(1≤n≤4)을 갖는다.
도 11d는, 신호 생성 시의 공간 주파수 특성(M1, M2)을 나타낸다. 상기 설명한 바와 같이, 본 실시예의 촬상소자는 2종류의 판독 모드를 갖는다. 제1의 판독 모드, 즉 전체 화소 판독 모드에서는, M1으로 도시되어 있는 바와 같이, 신호 생성시에 공간 주파수 특성이 변하지 않는다. 한편, 제2의 판독 모드, 즉 솎아냄 판독 모드에서는, M2로 도시한 바와 같이, 신호 생성시에 공간 주파수 특성이 변한다. 전술한 바와 같이, X방향으로 솎아낼 때에는 신호의 가산을 행해서 S/N비를 개선하기 때문에, 가산에 의한 로우패스 효과가 발생한다. 도 11d의 M2은, 제2의 판독 모드에서의 신호 생성시의 공간 주파수 특성을 나타낸다. 여기에서는, 솎아냄의 영향은 고려하지 않고, 가산에 의한 로우패스 효과를 나타낸다.
도 11d에서는, 신호 생성 시의 공간 주파수 특성(M1, M2)이 연속한 곡선으로 도시되어 있지만, 공간 주파수 F1, F2, F3, F4에 대응한 이산값 M1(n),M2(n)(1≤n≤4)을 갖는다.
도 11e는, 촬영 화상을 감상할 때의 공간 주파수마다의 감도를 나타내는 공간 주파수 특성(D1)과 AF 평가 신호의 처리시에 사용하는 디지털 필터의 공간 주파수 특성(D2)을 나타낸다. 촬영 화상을 감상할 때의 공간 주파수마다의 감도는, 화상을 감상하는 사람의 개인차, 화상 사이즈, 화상을 감상할 때의 거리, 밝기 등의 화상 감상 환경 등에 의해 영향을 받는다. 본 실시예에서는, 대표적인 값으로서, 감상시의 공간 주파수마다의 감도를 설정하고, 기억하고 있다.
한편, 제2의 판독 모드에서는, 솎아냄의 영향으로 인해 신호의 주파수 성분의 폴딩(folding) 노이즈(aliasing)이 발생한다. 그 영향을 감안하여, 디지털 필터의 공간 주파수 특성을 D2로 나타낸다.
도 11e에서는, 감상시의 공간 주파수 특성(D1)과 디지털 필터의 공간 주파수 특성(D2)은, 연속한 곡선으로 도시되어 있지만, 공간 주파수 F1, F2, F3, F 4에 대응한 이산값 D1(n), D2(n)(1≤n≤4)을 갖는다.
이상과 같이, 다양한 종류의 정보를, 카메라 혹은 렌즈 중 어느 하나에 기억해 두는 것에 의해, 카메라 MPU(125)는 촬영 화상의 평가 대역 W1 및 AF 평가 대역W2을 이하의 식(5) 및 (6)에 의거하여 산출한다.
W1(n)=I(n)×O(n)×L(n)×M1(n)×D1(n)(1≤n≤4) (5)
W2(n)=I(n)×O(n)×L(n)×M2(n)×D2(n)(1≤n≤4) (6)
도 11f는, 촬영 화상의 평가 대역 W1(제1의 평가 대역)과 AF 평가 대역 W2(제2의 평가 대역)을 나타낸다. 식(5) 및 식(6)과 같이 계산을 함으로써, 촬영 화상의 인-포커스 상태를 결정하는 인자가, 각 공간 주파수에 대하여 가지는 영향의 정도를 정량화할 수 있다. 마찬가지로, 초점 검출 결과의 오차가, 각 공간 주파수에 대하여 가지는 영향의 정도를 정량화할 수 있다.
또한, 카메라 내에 기억하는 정보는, 사전에 계산된 W1 및 W2이어도 된다. 전술한 바와 같이, 보정시마다 계산을 행함으로써, AF 평가 시에 사용하는 디지털 필터 등을 변경했을 때에, 유연하게 이 변경에 대응해서 보정값을 산출할 수 있다. 한편, W1 및 W2을 사전에 기억해 두면, 식(5) 및 식(6)의 계산 및 각종 데이터의 기억 용량을 삭감할 수 있다.
또한, 모든 계산을 사전에 끝낼 필요는 없기 때문에, 예를 들면 촬영 광학계와 피사체의 공간 주파수 특성만은 미리 계산하고, 카메라 내에 기억함으로써, 데이터의 기억 용량 및 연산량을 저감한다.
도 11a∼도 11f는, 설명을 간소하게 하기 위해서, 4개의 공간 주파수(F1∼ F4)에 대응하는 이산 값을 이용하여 설명했다. 그러나, 데이터를 보유하는 공간 주파수의 수가 많을수록, 촬영 화상 및 AF 평가 대역의 공간 주파수 특성을 보다 정확하게 재현할 수 있고, 정밀하게 보정값을 산출할 수 있다. 한편, 가중을 행하는 공간 주파수의 수를 적게 함으로써, 연산량을 저감할 수 있다. 촬영 화상의 평가 대역을 대표하는 1개의 공간 주파수와 AF 평가 대역의 공간 주파수를 대표하는 1개의 공간 주파수를 유지하면서 이후의 연산을 행해도 된다.
도 10a로 되돌아가서, 스텝 S303에서, 카메라 MPU(125)는, 공간 주파수 BP 보정값(BP3)을 산출한다. 공간 주파수 BP 보정값을 산출할 때, 카메라 MPU(125)는, 우선, 촬영 화상의 디포커스 MTF(C1)와 초점 검출 신호의 디포커스 MTF(C2)을 산출한다. C1, C2은, 스텝 S300에서 얻은 디포커스 MTF 정보와, 스텝 S301 및 S302에서 얻은 평가 대역 W1, W2을 이용해서 이하의 식(7)에 따라 산출된다.
C1(n)=MTF1(n)×W1(1)+MTF2(n)×W1(2)+MTF3(n)×W1(3)+MTF4(n)×W1(4) (7)
C2(n)=MTF1(n)×W2(1)+MTF2(n)×W2(2)+MTF3(n)×W2(3)+MTF4(n)×W2(4) (8)
이렇게, 도 10b에 나타낸 공간 주파수마다의 디포커스 MTF 정보를, 스텝 S301 및 S302에서 산출한 촬영 화상 및 AF의 평가 대역의 가중에 의거하여 가산하고, 촬영 화상의 디포커스 MTF(C1)와 AF의 디포커스 MTF(C2)을 얻는다. 도 10c는, 취득된 2개의 디포커스 MTF인 C1, C2을 나타낸다. 횡축은 포커싱 렌즈(104)의 위치를 나타내고, 종축은, 공간 주파수마다 가중 가산을 행해서 얻은 MTF 값을 나타낸다. 카메라 MPU(125)는, 각각의 MTF 곡선의 극대치 위치를 검출한다. 곡선 C1의 극대치에 대응하는 포커싱 렌즈(104)의 위치로서 P_img(제1의 결상 위치)가 검출된다. 곡선 C2의 극대치에 대응하는 포커싱 렌즈(104)의 위치로서 P_AF(제2의 결상 위치)가 검출된다.
스텝 S303에서, 카메라 MPU(125)는, 공간 주파수 BP 보정값(BP3)을 이하의 식(9)을 이용해서 산출한다.
BP3=P_AF-P_img (9)
식(9)에 의해, 촬영 화상의 인-포커스 위치와 AF로 검출되는 인-포커스 위치와의 사이에서 발생할 가능성이 있는 오차를 보정하기 위한 보정값을 산출할 수 있다.
상기 설명한 바와 같이, 촬영 화상의 인-포커스 위치는, 피사체, 촬영 광학계, 및 광학 로우패스 필터의 공간 주파수 특성, 신호 생성시의 공간 주파수 특성, 감상시의 주파수마다의 감도를 나타내는 공간 주파수 특성, 촬영 화상에 대해 실행되는 화상처리 등에 의존해 변화된다. 본 실시예에서는, 촬영 화상의 생성 과정으로 거슬러 올라서 공간 주파수 특성을 산출함으로써, 정밀하게 촬영 화상의 인-포커스 위치를 산출할 수 있다. 예를 들면, 촬영 화상의 기록 사이즈, 화상처리에서 행해지는 초해상 처리, 샤프니스 등에 따라, 촬영 화상의 인-포커스 위치를 변경한다. 또한, 촬영 화상의 기록 후에, 어느 정도의 화상 사이즈나 확대율을 감상하고, 화상을 감상할 때의 감상 거리 등은, 감상자의 평가 대역에 영향을 준다. 화상 사이즈가 커질수록, 또 감상 거리가 짧아질수록, 감상자의 평가 대역의 고주파 성분에 더 무게를 둔 특성을 설정함으로써 촬영 화상의 인-포커스 위치도 변경된다.
한편, AF가 검출한 인-포커스 위치도 마찬가지로, 피사체, 촬영 광학계, 및 광학 로우패스 필터의 공간 주파수 특성, 신호 생성시의 공간 주파수 특성, AF 평가에 사용하는 디지털 필터 공간 주파수 특성 등에 의존해 변화된다. 본 실시예에서는, AF에 사용하는 신호를 생성하는 과정으로 거슬러 올라가서 공간 주파수 특성을 산출함으로써, 정밀하게 AF가 검출하는 인-포커스 위치를 산출할 수 있다. 예를 들면, 제1의 판독 모드에서 AF를 행할 때에도 유연하게 대응할 수 있다. 그 경우에는, 신호 생성시의 공간 주파수 특성을, 제1의 판독 모드에 대응한 특성으로 변경하여, 가중 계수를 산출하면 된다.
또한, 본 실시예에서 설명한 촬상장치는, 렌즈 교환식 일안 레플렉스 카메라이기 때문에, 렌즈 유닛(100)의 교환이 가능하다. 렌즈 유닛(100)이 교환되었을 경우, 렌즈 MPU(117)는 각 공간 주파수에 대응한 디포커스 MTF 정보를, 카메라 본체(120)에 송신한다. 그리고, 카메라 MPU(125)는, 촬영 화상의 인-포커스 위치와 AF가 검출한 인-포커스 위치를 산출하므로, 교환가능한 렌즈마다 정밀하게 보정값을 산출할 수 있다. 렌즈 유닛(100)은, 디포커스 MTF 정보뿐만 아니라, 촬영 광학계의 공간 주파수 특성 등의 정보도 카메라 본체(120)에 송신해도 된다. 이 정보의 활용 방법은, 상기 설명한 바와 같다.
마찬가지로, 카메라 본체(120)를 교환했을 경우에는, 화소 피치, 광학 로우패스 필터의 특성 등이 변하는 경우가 있다. 상기 설명한 바와 같이, 그러한 경우에도, 카메라 본체(120)의 특성에 적합한 보정값이 산출되기 때문에, 정밀하게 보정을 행할 수 있다.
상기의 설명에서는, 보정값의 계산을 카메라 MPU(125)로 행했지만, 렌즈 MP U(117)로 산출을 행해도 된다. 그 경우에는, 카메라 MPU(125)가 렌즈 MPU(117)로, 도 11a∼도 11f를 이용하여 설명한 각종 정보를 송신하고, 렌즈 MPU(117)가 디포커스 MTF 정보 등을 이용해서 보정값을 산출하는 구성을 채용해도 된다. 이 경우, 도 1a의 스텝 S24에서, 렌즈 MPU(117)가 카메라 MPU(125)로부터 송신된 인-포커스 위치를 보정하고, 렌즈를 구동하면 된다.
본 실시예에서는, 초점 검출에 사용하는 신호의 특성(종횡, 색, 공간 주파수 대역)에 착안하여, AF용의 보정값을 산출하고 있다. 그 때문에, AF 방식에 관계없이, 같은 방법으로, 보정값의 산출을 행할 수 있다. AF 방식마다, 보정방법과 보정에 사용하는 데이터를 유지할 필요가 없기 때문에, 데이터의 기억 용량 및 연산 부하를 줄일 수 있다.
(제2 실시예)
다음에, 본 발명의 제2 실시예에 관하여 설명한다. 제1 실시예와의 중요 차이는, 공간 주파수 BP 보정값의 산출 방법이 다른 점이다. 제1 실시예에서는, 촬영 광학계의 공간 주파수마다의 특성을 의미하는 값으로서 디포커스 MTF 정보를 사용했다. 그렇지만, 디포커스 MTF 정보의 데이터량이 많아, 기억 용량 및 연산 부하가 커진다. 이 때문에, 제2 실시예에서는, 디포커스 MTF의 극대치 정보를 이용해서 공간 주파수 BP 보정값을 산출한다. 이에 따라, 렌즈 메모리(118) 혹은 RAM(125b)의 용량의 절약, 렌즈와 카메라 간의 통신량의 저감, 및 카메라 MPU(125)로 행하는 연산 부하의 저감 등이 실현 가능하다.
또한, 촬상장치의 블럭도(도 2), 초점 검출 방식의 설명도(도 3a 내지 5), 초점 검출 영역의 설명도(도 6), 초점 검출 처리 및 각종 BP 보정값 산출 처리의 플로차트(도 1a, 1b, 7, 9a)는 본 실시예에서도 유용하다. 또한, 공간 주파수 BP 보정값 산출 처리의 플로차트(도 10a) 및 각 평가 대역의 설명도(도 11a∼도 11f)에 관해서도 유용하다.
본 실시예에 있어서의 공간 주파수 BP 보정값(BP3)의 산출 방법을, 도 12을 이용하여 설명한다.
스텝 S300에서, 카메라 MPU(125)는 공간 주파수 BP 보정 정보를 취득한다.
도 12는, 촬영 광학계의 특성인 공간 주파수마다 디포커스 MTF가 극대치를 나타내는 포커싱 렌즈(104)의 위치를 나타낸다. 도 10b에 나타낸 이산적인 공간 주파수 F1∼F4에 대해서, 디포커스 MTF가 피크(극대치)에 도달하는 포커싱 렌즈 위치LP4, LP5, LP6, LP7이 종축을 따라 표시되어 있다. 본 실시예에서는, 이 LP4∼LP7을, MTF_P(n)(1≤n≤4)로서 렌즈 메모리(118) 또는 RAM(125b)에 기억한다. 기억되어 있는 정보가 초점 검출 영역의 위치, 줌 위치, 및 포커싱 렌즈 위치와 관련되어 있는 것은, 제1 실시예와 같다.
제2 실시예에서는, 도 10a에 나타낸 공간 주파수 BP 보정값 처리의 스텝 S300에서, 카메라 MPU(125)는, 보정대상의 초점 검출 결과에 적합한 줌 위치 및 포커싱 렌즈 위치에 대응한 보정값을 취득한다.
스텝 S301 및 S302에서, 카메라 MPU(125)는, 제1 실시예와 같은 처리를 행한다.
스텝 S303에서, 카메라 MPU(125)는, 공간 주파수 BP 보정값(BP3)을 산출한다. 공간 주파수 BP 보정값을 산출할 때, 카메라 MPU(125)는 우선, 촬영 화상의 인-포커스 위치(P_img)와 AF가 검출한 인-포커스 위치(P_AF)를, 이하의 식(10) 및 (11)에 따라 산출한다. 산출에는, 스텝 S300에서 얻은 디포커스 MTF 정보 MTF_P(n)과, 스텝 S301 및 S302에서 얻은 평가 대역 W1, W2을 사용한다.
P_img=MTF_P(1)×W1(1)+MTF_P(2)×W1(2)+MTF_P(3)×W1(3)+MTF_P(4)×W1(4) (10)
P_AF=MTF_P(1)×W2(1)+MTF_P(2)×W2(2)+MTF_P(3)×W2(3)+MTF_P(4)×W2(4) (11)
즉, 도 12에 나타낸 공간 주파수마다의 디포커스 MTF의 극대치 정보 MTF_P(n)을, 스텝 S301 및 S302에서 산출한 촬영 화상 및 AF의 평가 대역 W1, W2를 이용해서 가중 가산한다. 그것에 의하여, 촬영 화상의 인-포커스 위치(P_img)와 AF가 검출한 인-포커스 위치(P_AF)를 산출한다.
다음에, 카메라 MPU(125)는, 공간 주파수 BP 보정값(BP3)을, 제1 실시예와 마찬가지로, 이하의 식(9)을 이용해서 산출한다.
BP3=P_AF-P_img (9)
본 실시예에서는, 공간 주파수 BP 보정값을 좀더 간편하게 산출할 수 있다. 본 실시예에서는 공간 주파수 BP 보정값의 정밀도는 제1 실시예보다 약간 낮지만, 공간 주파수 BP 보정값을 산출하기 위해서 기억해 둔 정보량의 저감, 렌즈와 카메라 간의 통신량의 저감, 카메라 MPU(125)가 행하는 연산 부하의 저감이 실현되는 것이 가능하다.
(제3 실시예)
다음에, 본 발명의 제3 실시예에 관하여 설명한다. 본 실시예에서도, 공간 주파수 BP 보정값의 산출 방법이 상기의 실시예와 다르다. 본 실시예에서는, 공간 주파수 BP 보정값을, 산출할 필요성이 없는 경우에는 산출하지 않음으로써, 공간 주파수 BP 보정값의 정밀도를 저하시키지 않고, 렌즈와 카메라 간의 통신량을 저감하고 또 카메라 MPU(125)가 행한 연산 부하를 저감한다.
또한, 촬상장치의 블럭도(도 2), 각 초점 검출 방식의 설명도(도 3a∼도 5), 초점 검출 영역의 설명도(도 6), 및 초점 검출 처리 및 각종 BP 보정값 산출 처리의 플로차트(도 1a, 도 1b, 도 7, 도 9a)는, 본 실시예에 있어서도 유용하다. 또한, 공간 주파수 BP 보정값 산출 처리에 관한 도면(도 10b∼도 10c)에 관해서도 유용하다.
본 실시예에 있어서의 공간 주파수 BP 보정값(BP3)의 산출 방법을, 도 13의 플로차트를 이용하여 설명한다. 도 13에 있어서, 도 10a의 처리는 같은 처리는 같은 참조 번호를 부착해서 중복하는 설명을 생략한다.
스텝 S3000에서, 카메라 MPU(125)는, 공간 주파수 BP 보정값을 산출할 필요가 있는지 아닌지를 판정한다. 제1 실시예의 설명으로부터 알 수 있는 것처럼, 촬영 화상의 평가 대역 W1과 AF 평가 대역 W2이 더 비슷할수록, 공간 주파수 BP 보정값은 더 작아진다. 그 때문에, 본 실시예에서는, 2개의 평가 대역 간의 차가 공간 주파수 BP 보정값을 산출할 필요가 없는 정도로 작다고 판정될 경우에는, 보정값의 산출을 생략한다.
구체적으로는, 2개의 평가 대역 간의 차가 충분히 작다는 조건을 충족시킬 경우에, 보정값의 산출을 생략한다. 예를 들면, AF에 사용하는 신호도 제1의 모드에서 판독된 신호일 경우에는, 촬영 화상의 평가 대역이 AF 평가 대역와 같다. 한층 더, 촬영 화상을 감상할 때의 공간 주파수마다의 감도를 나타내는 공간 주파수 특성과 유사한 공간 주파수 특성을 갖는 디지털 필터를, AF 평가 신호의 처리시에 사용할 경우에는, 감상시의 공간 주파수 특성이 디지털 필터의 공간 주파수 특성과 같다. 이러한 상황은, 표시기(126)에 표시되는 화상을 확대해서 표시할 경우 등에 발생한다.
마찬가지로, 촬영 화상이 제2 판독 모드에서 판독된 신호를 이용해서 생성될 경우에도 촬영 화상의 평가 대역이 AF 평가 대역과 같다는 것이 상정된다. 이러한 상황은, 촬영 화상의 기록 화상의 사이즈를 작게 설정한 경우 등에 발생한다.
스텝 S3000에서, 카메라 MPU(125)는, 이러한 미리 정해진 조건 중 어느 하나가 충족되었을 경우에, 보정값의 산출이 불필요하다고 판정하고, 처리를 스텝 S3001로 진행시킨다.
스텝 S3001에서, 카메라 MPU(125)는, 보정값을 산출하지 않기 때문에, BP3에 0을 대입하고, 공간 주파수 BP 보정값(BP3)의 산출 처리를 종료한다.
한편, 스텝 S3000에서, 보정값의 산출이 필요하다고 판정되었을 경우, 카메라 MPU(125)는, 스텝 S300∼S303을 제1 실시예(또는 제2 실시예)와 같이 수행한다.
이렇게, 본 실시예에서는 공간 주파수 BP 보정값의 산출이 불필요하다고 판정되었을 경우에는 보정값의 산출을 생략하므로, 보정값을 산출하기 위해서 기억해 둔 데이터량은 감소될 수 없지만, 보정값 산출시의 데이터 통신량과 연산 부하를 감소킬 수 있다. 또한, 본 실시예는 제2 실시예와 조합하는 것도 가능하고, 그 경우에는, 보정값을 산출하기 위해서 기억해 둔 데이터량의 감소는 물론이고, 보정값 산출시의 데이터 통신량과 연산 부하를 한층 더 감소시킬 수 있다는 점에 유념한다.
본 실시예에서는 공간 주파수 BP 보정값의 생략에 관하여 설명했지만, 종횡 BP 보정값 및 색 BP 보정값에 관해서도 이들 보정값이 불필요하다고 판정되면 생략할 수 있다. 예를 들면, 초점 검출을 수직방향 및 수평방향의 양쪽의 콘트라스트를 고려해서 행하는 경우에는, 종횡 BP 보정값의 산출을 생략해도 된다. 또한, 촬영 화상에 사용하는 색 신호가, 초점 검출에 사용하는 색 신호와 같은 경우에는, 색 BP 보정값의 산출을 생략해도 된다.
(제4 실시예)
다음에, 본 발명의 제4 실시예에 관하여 설명한다. 본 실시예는, 주로 각종 BP 보정값의 산출 방법이 제1 실시예와 다르다. 본 실시예에서는, 종횡 BP 보정값, 색 BP 보정값, 및 공간 주파수 BP 보정값을, 다른 보정값으로서 산출한다. 그렇지만, 종횡 BP 보정값 및 색 BP 보정값도 공간 주파수에 의존하기 때문에, 제4 실시예에서는 종횡 BP 보정값 및 색 BP 보정값에 관해서도 공간 주파수를 고려해서 산출한다. 이에 따라, 렌즈 메모리(118) 혹은 RAM(125b)에 필요한 용량은 증가하지만, 보다 정밀하게 보정값을 산출할 수 있다. 또한, BP 보정값의 연산 순서, 일시 기억된 계수의 정보 등을 변경함으로써, 연산량의 감소를 달성할 수 있다.
또한, 촬상장치의 블럭도(도 2), 각 초점 검출 방식의 설명도(도 3a∼도 5), 초점 검출 영역의 설명도(도 6), 및 각 평가 대역의 설명도(도 11a∼도 11f)는, 본 실시예에 있어서도 공통이기 때문에, 이하의 설명에 유용하다는 점에 유념한다.
본 실시예에 있어서의 BP 보정값(BP)의 산출 방법을, 도 14∼도 17을 이용하여 설명한다.
도 14에 있어서, 제1 실시예에 있어서의 초점 검출 처리와 같은 처리를 행하는 것에 관해서는, 도 1a와 같은 참조 번호를 부착하고 있다. 도 14는, 스텝 S20∼S22이 스텝 S400로 교체되고, 스텝 S23이 스텝 S401로 교체된다는 점에 도 1a와 다르다. 스텝 S400에서, 카메라 MPU(125)는, 방향(종횡), 색, 공간 주파수 등, 각종 오차 요인을 정리해서 보정하기 위한 BP 보정값(BP)을 산출한다.
스텝 S401에서, 카메라 MPU(125)는, 산출된 BP 보정값(BP)을 이용해서 이하의 식(12)에 따라 초점 검출 결과 DEF_B을 보정하고, 보정 후의 초점 검출 결과 DEF_A를 산출한다.
DEF_A=DEF_B+BP (12)
본 실시예에서는, R(빨간색), G(녹색), 및 B(파란색)의 3색과, 수직 및 수평 방향의 2방향을 조합한 6종의 공간 주파수의 디포커스 MTF의 극대치를 나타내는 포커싱 렌즈(104) 위치의 정보를 이용해서 BP 보정값을 산출한다. 이에 따라, 색 및 방향(종횡)에 관해서도, 공간 주파수의 의존성을 고려할 수 있어, 보다 정밀한 BP 보정값을 산출할 수 있고, 보정 정밀도를 향상시킬 수 있다.
도 15는, 도 14의 스텝 S400에 있어서의 BP 보정값 산출 처리의 상세를 나타내는 플로차트다.
스텝 S500에서, 카메라 MPU(125)는, BP 보정값의 산출에 필요한 파라미터(산출 조건)를 취득한다. BP 보정값은, 제1 실시예에서 설명한 바와 같이, 포커싱 렌즈(104)의 위치, 줌 상태를 나타내는 제1 렌즈군(101)의 위치, 및 초점 검출 영역의 위치 등, 촬영 광학계의 변화와 초점 검출 광학계의 변화에 따라 변화된다. 그 때문에, 카메라 MPU(125)는, 스텝 S500에서, 예를 들면 포커싱 렌즈(104)의 위치, 줌 상태를 나타내는 제1 렌즈군(101)의 위치, 및 초점 검출 영역의 위치의 정보를 취득한다. 한층 더, 카메라 MPU(125)는, 스텝 S500에 있어서, 초점 검출에 사용하는 신호와 촬영 화상에 사용하는 신호의 색 및 평가 방향에 관한 설정 정보를 취득한다.
도 16a는, 색 및 평가 방향에 관한 설정 정보의 예를 나타낸다. 이 설정 정보는, 초점 상태를 평가하는 콘트라스트의 방향(수평, 수직)과 색(빨간색, 녹색, 파란색)의 각 조합에 대한, 가중의 정보를 나타내는 정보다. 초점 검출용 설정 정보는, 촬영 화상용 설정 정보와 다르다. 예를 들면, 수평방향에서 녹색 신호를 이용한 콘트라스트 AF의 결과를 보정할 경우, 초점 검출용의 설정 정보를, 아래와 같이 정의할 수 있다.
K_AF_RH=0
K_AF_GH=1
K_AF_BH=0
K_AF_RV=0
K_AF_GV=0
K_AF_BV=0
이러한 설정 정보에 의해, 초점 검출용의 신호의 디포커스 MTF 피크의 정보는, 수평방향의 녹색 신호의 특성과 같다는 것을 나타낼 수 있다.
한편, 촬영 화상용의 설정 정보를 아래와 같이 정의할 수 있다.
K_IMG_RH=0.15
K_IMG_GH=0.29
K_IMG_BH=0.06
K_IMG_RV=0.15
K_IMG_GV=0.29
K_IMG_BV=0.06
이들은, RGB의 신호를 Y신호와 같게 변환하기 위한 가중을 행하고, 촬영 화상을 Y신호에 의거해서 평가하며, 수평방향 콘트라스트 및 수직방향 콘트라스트 양쪽을 동등하게 평가하는 것을 상정해서 설정된 값이다. 다만, 설정 값, 설정 값의 종류 등은, 이것에 한정되지 않는다.
스텝 S501에서, 카메라 MPU(125)는, 후술하는 피크 계수가 변경되었는지 아닌지를 판정한다. 이 판정은, 사전에 행해진 BP 보정값 산출과 이번의 BP 보정값 산출에 있어서의 각종 조건이 동일한 경우에, 피크 계수의 재산출을 생략하기 위해서 행해진다. 본 실시예에서, 카메라 MPU(125)는, 초점 검출용과 촬영 화상용의 색 및 평가 방향에 관한 설정 정보(도 16a)와 초점 검출 영역의 위치에 변경이 없으면, 피크 계수에 변경 없다고 판정하고, 스텝 S502 내지 스텝 S504을 스킵해서, 처리를 스텝 S505로 진행시킨다.
스텝 S501에서, 처음으로 피크 계수를 산출할 경우 혹은 피크 계수가 변경되었다고 판정되었을 경우, 카메라 MPU(125)는 처리를 스텝 S502로 진행시키고, BP 보정 정보를 취득한다. BP 보정 정보는, 피사체의 공간 주파수마다의 촬영 광학계의 결상위치에 관한 정보다. 전술한 3색과 2방향의 6종의 조합의 각각은, 공간 주파수 f와 촬상소자 위의 초점 검출 영역의 위치(x, y)를 변수로 한 이하의 식(13)으로 표현된다.
MTF_P_RH(f, x, y)=(rh(0)× x + rh(1)× y + rh(2))×f2 +(rh(3)× x + rh(4)× y + rh(5))× f + (rh(6)× x + rh(7)× y + rh(8)) (13)
또한, 식(13)은, 빨간색(R) 신호에 대해서 수평(H)방향에 대응한 공간 주파수마다의 디포커스 MTF가 극대치를 나타내는 포커싱 렌즈(104)의 위치의 정보 MTF_RH의 식이지만, 다른 조합에 관해서도 같은 식으로 나타낸다는 점에 유념한다. 또한, 본 실시예에 있어서, rh(n)(0≤n≤8)은, 렌즈 유닛(100)의 렌즈 메모리(118)에 미리 기억되어 있고, 카메라 MPU(125)는, 렌즈 MPU(117)로부터 요구해서 rh(n)(0≤n≤8)을 취득한다. 그렇지만, rh(n)(0≤n≤8)은 카메라 RAM(125b)의 비휘발성 영역에 기억되어 있어도 된다.
"빨간색과 수직"(MTF_P_RV), "녹색과 수평"(MTF_P_GH), "녹색과 수직"(MTF_GV), "파란색과 수평"(MTF_P_BH), "파란색과 수직"(MTF_P_BV)의 각 조합에 있어서의 계수(rv, gh, gv, bh, bv)도 마찬가지로 기억 및 취득될 수 있다.
다음에, 스텝 S503에서, 카메라 MPU(125)는, 취득된 BP 보정 정보에 대하여, 초점 검출 영역의 위치, 평가 신호의 색, 및 콘트라스트 방향에 관한 가중을 행한다. 우선, 카메라 MPU(125)는, BP 보정값을 산출할 때의 초점 검출 영역의 위치에 관한 정보를 이용해서 BP 보정 정보를 계산한다.
구체적으로는, 식(13)의 x, y에 초점 검출 영역의 위치 정보를 대입한다. 이 계산에 의하여, 식 (13)은, 이하의 식(14)의 형식으로 표현된다.
MTF_P_RHF=Arh × f2 + Brh × f + Crh (14)
카메라 MPU(125)는, MTF_P_RVF, MTF_P_GHF, MTF_P_GVF, MTF_P_BHF, MTF_P_BVF에 관해서도 마찬가지로 계산한다. 이들은, 디포커스 MTF 중간 정보에 해당한다.
도 16b는, 스텝 S503에서 초점 검출 영역의 위치 정보를 대입한 후의 BP 보정 정보의 예를 나타내고, 여기서, 횡축은 공간 주파수이고, 종축은 디포커스 MTF가 극대치를 나타내는 포커싱 렌즈(104)의 위치(피크 위치)이다. 도 16b에 나타낸 바와 같이, 색수차가 큰 경우에는, 색마다의 곡선이 서로 분리되고, 종횡 차가 큰 경우에는, 도 16b의 수평방향과 수직방향의 곡선이 서로 분리된다. 이렇게, 본 실시예에서는, 색(RGB)과 평가 방향(H와 V)과의 각 조합은, 각 공간 주파수에 대응한 디포커스 MTF 정보를 갖는다. 이에 따라, 정밀하게 BP 보정값을 산출할 수 있다.
다음에, 카메라 MPU(125)는, 스텝 S500에서 취득된 설정 정보를 구성하는 12개의 계수(도 16a)를, BP 보정 정보를 사용해서 가중한다. 이에 따라, 설정 정보가, 초점 검출 및 촬영에서 평가된 색 및 방향에 관해서 가중된다. 구체적으로는, 카메라 MPU(125)는, 초점 검출용의 공간 주파수 특성 MTF_P_AFF와 촬영 화상용의 공간 주파수 특성 MTF_P_IMGF를, 식(15) 및 (16)을 사용해서 산출한다.
MTF_P_AFF=
K_AF_RH×MTF_P_RHF
+K_AF_RV×MTF_P_RVF
+K_AF_GH×MTF_P_GHF
+K_AF_GV×MTF_P_GVF
+K_AF_BH×MTF_P_BHF
+K_AF_BV×MTF_P_BVF (15)
MTF_P_IMGF=
K_IMG_RH×MTF_P_RHF
+K_IMG_RV×MTF_P_RVF
+K_IMG_GH×MTF_P_GHF
+K_IMG_GV×MTF_P_GVF
+K_IMG_BH×MTF_P_BHF
+K_IMG_BV×MTF_P_BVF (16)
도 16c는, MTF_P_AFF와 MTF_P_IMGF의 예를, 도 16b와 같은 형식으로 나타낸다. 본 실시예에서는, 이와 같이, 초점 검출 영역의 위치와 평가된 색 및 방향에 관한 변수를, 공간 주파수의 변수에 관한 계산보다 전에 계산한다. 계산의 결과, MTF_P_AFF와 MTF_P_IMGF는, 이하의 식(17) 및 (18)의 형식으로 표현된다.
MTF_P_AFF = Aaf×f2+Baf×f+Caf (17)
MTF_P_IMGF = Aimg×f2+Bimg×f+Cimg (18)
도 16c는, 이산적인 공간 주파수 F1 내지 F4을 식(17)에 대입해서 취득된 디포커스 MTF가 피크(극대치)에 도달하는 포커싱 렌즈 위치(피크 위치) LP4_AF, LP5_AF, LP6_AF, LP7_AF를 종축에 나타낸다.
스텝 S504에서, 카메라 MPU(125)는, 이 LP4_AF∼LP7_AF를, 피크 계수 MTF_P_AF(n)(1≤n≤4)로서 렌즈 메모리(118) 또는 RAM(125b)에 기억한다. 카메라 MPU(125)는 또한 LP4_Img∼LP7_Img을, 피크 계수 MTF_P_Img(n)(1≤n≤4)로서 렌즈 메모리(118) 또는 RAM(125b)에 기억하고, 처리를 스텝 S505로 진행시킨다.
다음에, 스텝 S505에서, 카메라 MPU(125)는, 초점 검출용 혹은 촬영 화상용의 신호의 평가 대역이 변경되었는지 아닌지를 판정하고, 평가 대역이 변경되지 않은 경우에, 카메라 MPU(125)는 처리를 스텝 S507로 진행시키고, BP 보정값을 산출한다. BP 보정값을 산출할 때, 카메라 MPU(125)는 우선 촬영 화상의 인-포커스 위치(P_img)와 AF가 검출한 인-포커스 위치(P_AF)를, 제2 실시예와 같이, 이하의 식(19) 및 (20)에 따라 산출한다. 산출에는, 제1 실시예의 스텝 S301 및 S302에서 얻은 평가 대역 W1, W2을 사용한다.
P_img=MTF_P_Img(1)×W1(1)+MTF_P_Img(2)×W1(2)+MTF_P_Img(3)×W1(3)+MTF_P_Img(4)×W1(4) (19)
P_AF=MTF_P_AF(1)×W2(1)+MTF_P_AF(2)×W2(2)+MTF_P_AF(3)×W2(3)+MTF_P_AF(4)×W2(4) (20)
즉, 카메라 MPU(125)는, 도 16c에 나타낸 공간 주파수마다의 디포커스 MTF의 극대치 정보를, 제1 실시예의 스텝 S301 및 S302에서 산출한 촬영 화상 및 AF의 평가 대역 W1, W2을 이용해서 가중 가산한다. 그것에 의해, 촬영 화상의 인-포커스 위치(P_img)와 AF가 검출한 인-포커스 위치(P_AF)를 산출한다.
다음에, 카메라 MPU(125)는, BP 보정값(BP)을, 제1 실시예와 같이, 이하의 식(21)에 의해 산출한다.
BP=P_AF-P_img (21)
한편, 스텝 S505에서 평가 대역이 변경되었다고 판정되었을 경우, 카메라 MPU(125)는 처리를 스텝 S506로 진행시키고, 평가 대역 정보를 취득한다. 평가 대역 정보는, 제1 실시예의 촬영 화상의 평가 대역 W1 및 AF 평가 대역 W2에 대응하고, 초점 검출 및 촬영 화상의 설정과 상황에 따라, 도 11a∼도 11f에서 설명한 사고방식에 따라 산출될 수 있다. 스텝 S506에서, 평가 대역 정보의 취득을 종료하면, 카메라 MPU(125)는 스텝 S507로 처리를 진행시키고, 상기 설명한 바와 같이, BP 보정값을 산출한다.
본 실시예에서는, 초점 검출 영역의 위치, 평가 신호의 색, 및 콘트라스트 방향에 관한 처리를, 평가 대역에 관한 처리보다도 먼저 실행한다. 이것은, 촬영자가 초점 검출 영역의 위치를 설정에 의해 결정하는 경우, 초점 검출 영역의 위치와 평가된 색 및 방향에 관한 정보가 변경되는 빈도가 낮기 때문이다. 한편, 신호의 평가 대역은, 제1 실시예의 도 11a∼도 11f를 이용해서 설명한 것처럼, 촬상소자의 판독 시작 모드, AF 평가 신호의 디지털 필터 등에 의해 변경되는 빈도가 높다. 예를 들면, 신호 S/N비가 저하하는 저조도 환경에서는, 디지털 필터의 대역을 저대역으로 변경하는 것이 고려된다. 본 실시예에서는, 이러한 경우에, 변경의 빈도가 낮은 계수(피크 계수)를 산출한 후에 산출한 계수를 기억하고, 변경의 빈도가 높은 계수(평가 대역)만을 필요에 따라 계산함으로써, BP 보정값을 산출한다. 이에 따라, 촬영자가 초점 검출 영역의 위치를 설정하는 경우 등에는, 연산량을 저감할 수 있다.
(변형 예)
한편, 복수의 초점 검출 영역의 위치에 대응하는 BP 보정값을 산출하는 경우도 고려된다. 예를 들면, 초점 검출시에, 복수의 초점 검출 영역을 사용한 초점 검출을 행하는 경우나, 디포커스 맵을 작성하기 위해서, 촬영 범위 내의 복수의 디포커스량을 취득하고 싶은 경우 등이 고려된다.
이러한 경우에는, 평가 신호의 색, 콘트라스트의 방향, 및 평가 대역에 관한 계산을 먼저 행하고, 초점 검출 영역의 위치에 관한 계산을, 초점 검출 영역의 위치 정보만을 변경하면서 행함으로써, 연산량을 저감할 수 있다.
도 17은, 도 14의 스텝 S400에 있어서의 BP 보정값 산출 처리의 다른 예를 나타내는 플로차트다. 도 15와 같은 처리를 행하는 처리에 대해서는, 같은 참조 번호를 부착하고, 중복하는 설명은 생략한다.
스텝 S601에서, 카메라 MPU(125)는, 후술하는 BP 계수가 변경되었는지 아닌지를 판정한다. 이 판정은, 사전에 행해진 BP 보정값의 산출과 이번의 BP 보정값의 산출에 있어서의 각종 조건이 동일한 경우, BP 계수의 재산출을 생략하기 위해서 행해진다. 본 실시예에서, 카메라 MPU(125)는, 초점 검출용과 촬영 화상용의 색과 평가 방향에 관한 설정 정보(도 16a) 및 평가 대역에 관한 정보(평가 대역 W1, W2)에 변경이 없으면, BP 계수가 변경되지 않았다고 판정하고, 스텝 S605로 처리를 스킵한다.
스텝 S501에서, 처음으로 BP 계수를 산출한 경우 혹은 BP 계수가 변경되었다고 판정되었을 경우, 카메라 MPU(125)는 처리를 스텝 S502로 진행시키고, 제4 실시예와 같이 BP 보정 정보를 취득하고, 처리를 스텝 S603로 진행시킨다.
스텝 S603에서, 카메라 MPU(125)는, 식(14) 및 식(16)을 이용하여 설명한 것 같이, 6종류의 디포커스 MTF의 피크 정보에 관해서, 평가 신호의 색 및 콘트라스트 방향에 관한 가중을 행한다. 다만, 스텝 S503과 달리, 식(14)에는 초점 검출 영역의 위치 정보가 대입되지 않는다. 따라서, MTF_P_RH(f, x, y), MTF_P_RV(f, x, y), MTF_P_GH(f, x, y), MTF_P_GV(f, x, y), MTF_P_BH(f, x, y), 및 MTF_P_BV(f, x, y)을 취득한다.
그리고, 카메라 MPU(125)는, 스텝 S500에서 취득된 설정 정보를 구성하는 12개의 계수(도 16a)를, 상기 BP 보정 정보를 이용해서 가중한다. 구체적으로는, 카메라 MPU(125)는, 초점 검출용의 공간 주파수 특성 MTF_P_AF(f, x, y)와 촬영 화상용의 공간 주파수 특성 MTF_P_IMG(f, x, y)을, 식(22) 및 (23)을 이용해서 산출한다.
MTF_P_AF(f, x, y)=
K_AF_RH×MTF_P_RH(f, x, y)
+K_AF_RV×MTF_P_RV(f, x, y)
+K_AF_GH×MTF_P_GH(f, x, y)
+K_AF_GV×MTF_P_GV(f, x, y)
+K_AF_BH×MTF_P_BH(f, x, y)
+K_AF_BV×MTF_P_BV(f, x, y) (22)
MTF_P_IMG(f, x, y)=
K_IMG_RH×MTF_P_RH(f, x, y)
+K_IMG_RV×MTF_P_RV(f, x, y)
+K_IMG_GH×MTF_P_GH(f, x, y)
+K_IMG_GV×MTF_P_GV(f, x, y)
+K_IMG_BH×MTF_P_BH(f, x, y)
+K_IMG_BV×MTF_P_BV(f, x, y) (23)
한층 더, 카메라 MPU(125)는, 식(19) 및 (20)와 같이, 제1 5실시예의 스텝 S301 및 S302에서 얻은 평가 대역 W1, W2을 이용해서 평가 대역의 가중을 행한다.이에 따라, 촬영 화상의 인-포커스 위치(P_img)와, AF가 검출한 인-포커스 위치(P_AF)가, 초점 검출 영역의 위치(x, y)를 변수로 한 함수로서, 식(24) 및 (25)에 의해서 취득된다.
P_img(x, y)=MTF_P_Img(F1, x, y)×W1(1)
+MTF_P_Img(F2, x, y)×W1(2)
+MTF_P_Img(F3, x, y)×W1(3)
+MTF_P_Img(F4, x, y)×W1(4) (24)
P_AF(x, y)=MTF_P_AF(F1, x, y)×W2(1)
+MTF_P_AF(F2, x, y)×W2(2)
+MTF_P_AF(F3, x, y)×W2(3)
+MTF_P_AF(F4, x, y)×W2(4) (25)
스텝 S604에서, 카메라 MPU(125)는, 식(24) 및 (25)을 구성하는 계수를, BP 계수로서 렌즈 메모리(118) 또는 RAM(125b)에 기억한다.
다음에, 스텝 S605에서, 카메라 MPU(125)는, 초점 검출 영역의 위치가 변경되었는지 아닌지를 판정하고, 변경이 없을 경우에는 처리를 직접 스텝 S607로 진행시키고, 변경이 있을 경우에는, 카메라 MPU(125)는, 스텝 S606에서 초점 검출 영역의 위치 정보를 취득하고나서 처리를 스텝 S607로 진행시킨다.
스텝 S607에서, 카메라 MPU(125)는, BP 보정값의 산출을 행하는 초점 검출 영역의 위치(x1, y1)를 식(24) 및 (25)에 대입하고, 이하의 식(26)에 따라 BP 보정값(BP)을 산출한다.
BP=P_AF(x1, y1)-P_img(x1, y1) (26)
이렇게 구성함으로써, 복수의 초점 검출 영역의 위치에 대응하는 BP 보정값을 산출하는 경우에 적합한 연산량의 저감을 행할 수 있다.
또한, 상기 연산 처리의 내용은, 상황에 따라 바뀌어도 된다. 예를 들면, 초점 검출에 사용하는 초점 검출 영역이 1개인 경우에는 도 15에 나타나 있는 바와 같이 처리를 행하고, 복수의 초점 검출 영역을 사용하는 경우에는, 도 17에 나타나 있는 바와 같이 처리을 행해도 된다.
이상과 같이 구성함으로써, 색과 종횡 BP의 공간 주파수를 고려하면서, BP 보정값을 산출할 수 있어, 보다 정밀하게 보정을 행할 수 있다.
(제5 실시예)
다음에, 본 발명의 제5 실시예에 관하여 설명한다. 본 실시예는 BP 보정값의 산출 방법이 제4 실시예와 다르다. 제4 실시예에서는, 촬영 광학계로부터 취득된 BP 보정 정보의 평가 대역의 범위가, AF 평가 대역 및 촬영 화상의 평가 대역의 범위와 같다는 전제로 BP 보정값을 산출한다. 그렇지만, 촬상소자의 화소 피치의 미세화에 따라, 평가 대역의 범위를 고주파 대역측으로 확장한다. 또한, 촬영 광학계의 고정밀화에 따라, BP 보정 정보로서 보유된 평가 대역의 범위도 고주파 대역측으로 확장된다.
본 실시예에서는, 정밀하게 BP 보정값을 산출하기 위해서, 촬상장치와 촬영 광학계의 각각에 한계 대역 정보를 제공하고, 각각의 대소 관계에 따라, 보정값 산출 처리를 바꾼다. 한계 대역 정보를 이용해서 평가 대역을 조정함으로써, 신구(new and old)의 촬상장치와 촬영 광학계의 조합에 관계없이, 정밀하게 BP 보정값을 산출할 수 있다.
또한, 촬상장치의 블럭도(도 2), 각 초점 검출 방식의 설명도(도 3a∼5), 초점 검출 영역의 설명도(도 6), 각 평가 대역의 설명도(도 11a∼도 11f), 초점 검출 처리(도 14)는, 본 실시예에 있어서도 공통이기 때문에, 이하의 설명에 유용하다는 점에 유념한다.
본 실시예에 있어서의 BP 보정값(BP)의 산출방법을, 도 18 및 도 19a∼도 19c을 이용하여 설명한다.
도 18에 있어서, 제4 실시예에 있어서의 초점 검출 처리와 같은 처리를 행하는 스텝에 대해서는, 도 15와 같은 참조 번호를 부착한다. 본 실시예는, BP 보정값 산출 처리(S507) 전에, 처리가 한계 대역 처리(S700)의 스텝을 포함한다는 점에서 다르다. 한계 대역 처리에서는, 촬상장치의 평가 대역의 고주파측의 한계값(카메라 한계 대역)과, 촬영 광학계의 평가 대역의 고주파측의 한계값(렌즈 한계 대역)과의 대소 관계를 판정한다. 그리고, 대소 관계에 따라, 식(15) 및 (16)으로 나타낸 MTF_P_AFF와 MTF_P_IMGF의 이산화 처리를 바꾼다.
이하, 도 18의 스텝 S700에서 행하는 한계 대역 처리의 상세에 대해서, 도 19a을 이용하여 설명한다.
스텝 S701에서, 카메라 MPU(125)는, 한계 대역 정보를 취득한다. 여기에서, 카메라 MPU(125)는, 카메라 한계 대역 정보를 ROM(125a)로부터 취득하고, 렌즈 한계 대역 정보를 렌즈 메모리(118)로부터 취득한다. 카메라 한계 대역은, 주로 촬상소자의 화소 피치로 결정되는 Nyquist 주파수에 의거하여 설정된다. 한편, 렌즈 한계 대역으로서는, 촬영 광학계의 MTF의 응답이 임계값 이상이 되는 대역의 한계값이나, 측정 데이터의 신뢰성이 있는 대역의 한계값 등이 설정된다.
다음에, 스텝 S702에서, 카메라 MPU(125)는, 카메라 한계 대역과 렌즈 한계대역의 대소를 비교한다. 카메라 MPU(125)는, 카메라 한계 대역이 렌즈 한계 대역보다도 큰(즉, 한계 주파수가 높은) 경우에는, 처리를 스텝 S703로 진행시키고, 카메라 한계 대역이 렌즈 한계 대역 이하인 경우에는, 카메라 MPU(125)는 한계 대역 처리를 종료한다.
스텝 S703에서, 카메라 MPU(125)는, 피크 계수를 가공한다. 피크 계수의 가공 예를, 도 19b를 이용해서 설명한다. 도 19b는, 제4 실시예의 도 16c에 나타낸 MTF_P_AFF와 MTF_P_IMGF를 나타낸다. 여기에서, 렌즈 한계 대역은 F4라고 하고, 카메라 한계 대역은 F6이라고 한다. Nq은, 촬상소자(122)의 화소 피치에 의해 결정되는 Nyquist 주파수이며, 카메라 한계 대역은 Nq보다도 낮게 설정된다.
MTF_P_AFF은 BP 보정 정보와, 초점 검출 영역의 위치 및 평가 신호의 색과 평가 방향의 정보로부터 산출된다. 도 19b는, 이산적인 공간 주파수 F1∼F4를, 식(17)에 대입해서 취득된 디포커스 MTF가 피크(극대치)가 되는 포커싱 렌즈 위치(피크 위치) LP4_AF, LP5_AF, LP6_AF, LP7_AF를 종축에 나타낸다.
렌즈 한계 대역은 F4이기 때문에, F4보다 높은 공간 주파수에 대해서, 식(17)에 의해 산출되는 피크 위치의 정밀도는 보증되지 않는다. 그 때문에, 본 실시예에서는, 공간 주파수 F5, F6에 각각 대응하는 피크 위치 LP8_AF, LP9_AF를, F4 이하의 공간 주파수에 대응하는 피크 위치의 정보로부터 산출한다. 간단히, 도 19b에 나타나 있는 바와 같이, 공간 주파수 F4에 있어서의 피크값 LP7_AF를, 공간 주파수 F5, F6에 대응하는 피크 위치 LP8_AF, LP9_AF로서도 사용하는 것이 고려된다. 보다 정밀한 산출의 경우에는, 피크 위치 LP8_AF, LP9_AF는, F4이하의 공간 주파수에 대응하는 복수의 피크 위치 정보(LP4_AF, LP5_AF, LP6_AF, LP7_AF)를 이용해서, 외삽(extrapolation) 계산에 의해 취득되어도 된다.
MTF_P_IMGF에 관해서도, 마찬가지로 처리를 행함으로써, 공간 주파수 F5, F6에 대응하는 피크 위치 LP8_Img, LP9_Img을 산출한다. 도 19b는, 공간 주파수 F4에 있어서의 피크값 LP7_Img을, 공간 주파수 F5, F6에 대응하는 피크 위치 LP8_Img, LP9_Img로서도 사용하는 예를 나타낸다.
스텝 S703에서, 카메라 MPU(125)는, 피크 계수로서, LP4_AF∼LP7_AF, LP8_AF, 및 LP9_AF를, MTF_P_AF(n)(1≤n≤6)로서 렌즈 메모리(118) 또는 RAM(125b)에 기억한다. 마찬가지로, 카메라 MPU(125)는, LP4_Img∼LP7_Img, LP8_Img, 및 LP 9_Img을, MTF_P_Img(n)(1≤n≤6)로서 렌즈 메모리(118) 또는 RAM(125b)에 기억하고, 한계 대역 처리를 종료한다.
또한, 카메라 MPU(125)는, AF 평가 대역 및 촬영 화상 평가 대역으로서, 카메라 한계 대역인 공간 주파수 F6 이하의 정보를 이용해서, 식(19)∼(21)과 같이 BP 보정값을 산출한다.
상술한 바와 같이, 스텝 S702에서, 카메라 한계 대역이 렌즈 한계 대역 이하인 경우, 스텝 S703에서 피크 계수의 가공 처리를 행하지 않고 한계 대역 처리를 종료한다. 이하, 피크 계수의 가공 처리를 생략해도 되는 이유에 대해서, 도 19c을 이용하여 설명한다. 도 19c는, 카메라 한계 대역이 렌즈 한계 대역 이하인 경우의 MTF_P_AFF와 MTF_P_IMGF의 예를, 도 19b와 같은 대역에 대해서 나타낸다. 여기에서는, 카메라 한계 대역을 F4라고 하고, 렌즈 한계 대역을 F6이라고 한다. 상술한 바와 같이, 카메라 한계 대역은 Nyquist 주파수 Nq보다 낮게 설정된다.
피크 계수의 가공 처리를 생략할 경우, 카메라 한계 대역이 렌즈 한계 대역 이하이기 때문에, 촬영 광학계에 관한 피크 위치의 정보가, 평가 범위에 관해서 과잉으로 존재한다. 한편, 도 11a∼도 11f을 이용하여 설명한 AF 평가 대역 및 촬영 화상 평가 대역은, 카메라 한계 대역 이하의 대역에서 산출된다. 본 실시예에서는, 카메라 한계 대역이 렌즈 한계 대역 이하인 경우에는, 카메라 한계 대역보다 높은 공간 주파수에 대응하는 피크 위치의 정보를 이용하지 않고 BP 보정값을 산출한다. 카메라 한계 대역은, 촬상소자의 화소 피치로 정해진 Nyquist 주파수 Nq보다 낮게 설정되어 있기 때문에, 카메라 한계 대역 이상의 대역에 관한 정보는, 화소에 의한 샘플링에서 빠지게 된다. 그 때문에, 이러한 처리를 행해도, BP 보정값의 산출 정밀도는 유지된다.
본 실시예에서는 제4 실시예에 근거하는 피크 위치(디포커스 MTF가 피크가 되는 포커싱 렌즈 위치)의 정보를 사용했을 경우에 관하여 설명했지만, 촬영 광학계의 수차정보는, 이것에 한정되는 것은 아니다. 예를 들면, 제1 실시예에서 설명한 디포커스 MTF 정보를 이용해서, 대응 범위 외의 디포커스 MTF 형상을 산출해도 된다.
이상과 같이, 본 실시예에서는, 카메라 한계 대역이 렌즈 한계 대역보다도 높을 경우, 자동 초점 검출용 및 촬영 화상용의 공간 주파수 특성을 나타내는 이산적인 주파수의 수를, 카메라 한계 대역에 따라 증가시킨다. 그 때문에, 촬상장치와 촬영 광학계의 조합에 관계없이, 정밀하게 BP 보정값을 산출할 수 있다.
(그 밖의 실시예)
본 발명의 추가 실시 예들은, 상술한 실시 예(들) 중의 하나 또는 그 이상의 기능을 행하도록 기억매체(예를 들면, 비일시 컴퓨터 판독가능한 기억매체) 상에 기록된 컴퓨터 실행가능한 명령들을 판독 및 실행하는 시스템 또는 장치의 컴퓨터에 의해서 실현될 수 있고, 또 예를 들면, 상술한 실시예(들) 중의 하나 또는 그 이상의 기능을 행하도록 기억매체로부터 컴퓨터 실행가능한 명령들을 판독 및 실행함으로써 시스템 또는 장치의 컴퓨터에 의해 행해지는 방법에 의해서도 실현될 수 있다. 이 컴퓨터는 CPU(Central Processing Unit), MPU(Micro Processing Unit), 또는 다른 회로 중 하나 또는 그 이상을 구비할 수도 있고, 독립된 컴퓨터 또는 독립된 컴퓨터 프로세서의 네트워크를 포함할 수도 있다. 이 컴퓨터 실행가능한 명령들은 예를 들면, 네트워크 또는 기억매체로부터 컴퓨터에 제공될 수도 있다. 이 기억매체는 예를 들면, 하드 디스크, RAM(random-access memory), ROM(read only memory), 분산 컴퓨팅 시스템의 스토리지, 광디스크(컴팩트 디스크(CD), DVD(digital versatile disc), Blue-ray Disc(BD)TM 등), 플래시 메모리 디바이스, 메모리 카드 중 어느 하나 또는 그 이상을 포함할 수도 있다.
본 발명은 예시적인 실시 예를 참조하면서 설명되었지만, 본 발명은 이 개시된 예시적인 실시 예에 한정되는 것이 아니라는 것이 이해될 것이다. 이하의 특허청구범위의 범주는 모든 변형 및 균등구조 및 기능을 포함하도록 가장 넓게 해석되어야 할 것이다.

Claims (23)

  1. 위상차 검출 방식 및 콘트라스트 검출 방식 중의 적어도 한 개에 의한 자동 초점 검출을 실행할 수 있는 초점 조절장치로서,
    (ⅰ) 상기 자동 초점 검출에 사용하는 초점 검출 신호의 평가 대역인 제1 정보, (ⅱ) 촬영 화상의 평가 대역인 제2 정보, 및 (ⅲ) 촬영 광학계의 비점수차, 색수차, 및 구면수차 중의 적어도 한 개와 관련되는 수차정보를 이용한 산출을 통해 상기 자동 초점 검출의 초점 검출 결과를 보정하기 위한 보정값을 취득하는 취득수단과,
    상기 보정값을 이용해서 보정된 상기 자동 초점 검출의 초점 검출 결과에 의거하여 상기 촬영 광학계가 갖는 포커싱 렌즈의 위치를 제어하는 제어수단을 구비하는, 초점 조절장치.
  2. 제 1 항에 있어서,
    상기 취득수단은, 상기 자동 초점 검출에 사용하는 상기 초점 검출 신호와 상기 촬영 화상의 감상시의 기록 화상 신호 간의 초점 상태의 차를 상기 보정값으로서 취득하는, 초점 조절장치.
  3. 제 1 항에 있어서,
    상기 촬영 광학계가 줌 렌즈이며, 상기 취득수단이, 상기 촬영 광학계의 화각과 포커싱 렌즈 위치의 복수의 조합에 대하여 미리 기억된 상기 수차정보를 이용해서 상기 보정값을 취득하는, 초점 조절장치.
  4. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    상기 취득수단은, 상기 비점수차에 관한 수차정보를 취득하고, 상기 자동 초점 검출에 있어서의 초점 검출 방향에 의한 초점 상태의 차를 보정하기 위한 제1 보정값을 취득하는, 초점 조절장치.
  5. 제 4 항에 있어서,
    상기 자동 초점 검출에서 직교하는 2방향으로 초점 검출을 행하고, 상기 취득수단이, 초점 검출 결과의 합계에 대한 하나의 초점 검출 결과의 비율과, 상기 비점수차에 관한 정보를 이용해서, 상기 제1 보정값을 취득하는, 초점 조절장치.
  6. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    상기 취득수단은, 상기 색수차에 관한 수차정보를 취득하고, 상기 자동 초점 검출에 사용하는 신호의 색 밸런스와, 촬영 화상에 포함되는 신호의 색 밸런스를 각각, 상기 제1 및 제2 정보로 하여, 제2 보정값을 취득하는, 초점 조절장치.
  7. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    상기 취득수단은, 상기 구면수차에 관한 수차정보를 취득하고, 상기 자동 초점 검출에 사용하는 신호의 평가 주파수와 촬영 화상을 감상할 때의 평가 주파수를 각각, 상기 제1 및 제2 정보로 하여, 제3 보정값을 취득하는, 초점 조절장치.
  8. 제 7 항에 있어서,
    상기 취득수단은, 다른 복수의 공간 주파수에 대하여 MTF의 극대치에 대응하는 복수의 포커싱 렌즈 위치를, 자동 초점 검출의 평가 대역의 가중으로 가산하여 얻은 디포커스 MTF의 극대치에 대응하는 포커싱 렌즈 위치와, 상기 복수의 포커싱 렌즈 위치를, 촬영 화상을 감상할 때의 평가 대역의 가중으로 가산해서 얻은 디포커스 MTF의 극대치에 대응하는 포커싱 렌즈 위치를 상기 구면수차에 관한 수차정보로서 이용하는, 초점 조절장치.
  9. 제 8 항에 있어서,
    상기 취득수단은, 다른 복수의 공간 주파수에 대하여 디포커스 MTF가 극대치가 되는 미리 기억된 복수의 포커싱 렌즈 위치를, 자동 초점 검출의 평가 대역의 가중으로 가산해서 얻은 포커싱 렌즈 위치와, 미리 기억된 상기 복수의 포커싱 렌즈 위치를, 촬영 화상을 감상할 때의 평가 대역의 가중으로 가산해서 얻은 포커싱 렌즈 위치와의 차를, 상기 제3 보정값으로서 취득하는, 초점 조절장치.
  10. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    상기 취득수단은 상기 보정값이 취득되지 않는 미리 정해진 조건이 충족될 경우에는, 상기 보정값을 취득하지 않는, 초점 조절장치.
  11. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    상기 자동 초점 검출에 있어서의 초점 검출 방향에 의거한 초점 상태를 상기 제1 정보로 하여, 상기 비점수차에 관한 수차정보를 취득함으로써 얻은 제1 보정값과,
    상기 자동 초점 검출에 사용하는 신호의 색 밸런스와, 촬영 화상에 포함되는 신호의 색 밸런스와의 차에 의해, 상기 색수차에 의해 생성된 초점 상태의 차를 보정하기 위한 제2 보정값을
    미리 기억하는 기억수단을 더 구비하고,
    상기 취득수단은, 구면수차정보를 취득하고, 상기 자동 초점 검출에 사용하는 신호의 평가 주파수와 촬영 화상을 감상할 때의 평가 주파수를 각각, 상기 제1 및 제2 정보로 하여, 상기 초점 상태의 차를 보정하기 위한 제3 보정값을 취득하고, 상기 제1 보정값 및 상기 제2 보정값과 상기 제3 보정값을 가산함으로써 보정값을 취득하는, 초점 조절장치.
  12. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    상기 취득수단은, 상기 비점수차에 관한 수차정보를 취득하고, 상기 자동 초점 검출에 있어서의 초점 검출 방향에 의거한 초점 상태를 상기 제1 정보로 하여 취득된 제1 보정값을, 특정의 방향에 대해서만 취득하고,
    상기 취득수단은 다음에 상기 색수차에 관한 수차정보를 취득하고, 상기 자동 초점 검출에 사용하는 신호의 색 밸런스와 촬영 화상에 포함되는 신호의 색 밸런스를 각각, 상기 제1 및 제2 정보로 하여, 보정을 행하기 위한 제2 보정값을, 특정의 방향에 대해서만 취득하고,
    상기 취득수단은, 상기 구면수차에 관한 수차정보를 더 취득하고, 상기 자동 초점 검출에 사용하는 신호의 평가 주파수와 촬영 화상을 감상할 때의 평가 주파수를 각각, 상기 제1 및 제2 정보로 하여, 보정을 행하기 위한 제3 보정값을, 특정의 방향 및 색에 대해서만 취득하는, 초점 조절장치.
  13. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    상기 취득수단은, 상기 촬영 광학계의 비점수차, 색수차, 및 구면수차 중의 적어도 2개에 관한 정보를, 다른 복수의 공간 주파수에 대한 MTF의 극대치에 대응하는 복수의 포커싱 렌즈 위치의 정보로서 갖고,
    상기 취득수단은, 다른 복수의 공간 주파수에 대한 MTF의 극대치에 대응하는 복수의 포커싱 렌즈 위치를, 자동 초점 검출의 평가 대역의 가중으로 가산해서 얻은 디포커스 MTF의 극대치에 대응하는 포커싱 렌즈 위치와, 상기 복수의 포커싱 렌즈 위치를, 촬영 화상을 감상할 때의 평가 대역의 가중으로 가산해서 얻은 디포커스 MTF의 극대치에 대응하는 포커싱 렌즈 위치와의 차를, 보정값으로서 취득하는, 초점 조절장치.
  14. 제 13 항에 있어서,
    상기 다른 복수의 공간 주파수에 대한 MTF의 극대치에 대응하는 복수의 포커싱 렌즈 위치의 정보는, 제1 파라미터와 제2 파라미터를 변수로 하는 함수로서 정의되고,
    상기 초점 조절장치는, 상기 다른 복수의 공간 주파수에 대한 MTF의 극대치에 대응하는 복수의 포커싱 렌즈 위치의 정보와 상기 제1 파라미터를 이용하여, 디포커스 MTF 중간정보를 기억하는 기억수단을 더 구비하고,
    상기 취득수단은, 상기 디포커스 MTF 중간정보와 상기 제2 파라미터를 이용하여, 상기 보정값을 취득하는, 초점 조절장치.
  15. 제 14 항에 있어서,
    상기 제1 파라미터는, 색수차, 비점수차, 및 상기 자동 초점 검출을 행하는 영역의 위치에 대응하는 변수이며,
    상기 제2 파라미터는, 구면수차에 대응하는 변수인, 초점 조절장치.
  16. 제 14 항에 있어서,
    상기 제1 파라미터는, 색수차, 비점수차, 및 구면수차에 대응하는 변수이며,
    상기 제2 파라미터는, 상기 자동 초점 검출을 행하는 영역의 위치에 대응하는 변수인, 초점 조절장치.
  17. 제 14 항에 있어서,
    상기 제1 파라미터와 상기 제2 파라미터를, 상기 자동 초점 검출을 행하는 상황에 따라 변경하는, 초점 조절장치.
  18. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    상기 촬영 광학계의 비점수차, 색수차, 및 구면수차 중 적어도 한 개에 대응하는 제1 대역의 정보와, 상기 제1 대역의 정보에 대응하는 수차정보를 기억하는 제1 기억수단과,
    상기 자동 초점 검출에 사용하는 신호의 평가 대역에 대응하는 제2 대역의 정보를 갖는 제2 기억수단과,
    상기 제2 대역 내에는 있고 상기 제1 대역 내에는 포함되어 있지 않은 대역에 대응하는 수차정보를, 상기 제1 대역의 정보와, 상기 제1 대역의 정보에 대응하는 수차정보를 이용해서 취득하는 가공수단을 더 구비하는, 초점 조절장치.
  19. 위상차 검출 방식과 콘트라스트 검출 방식 중의 적어도 하나에 의한 자동 초점 검출을 실행할 수 있는 초점 조절장치의 제어방법으로서,
    (ⅰ) 상기 자동 초점 검출에 사용하는 초점 검출 신호의 평가 대역인 제1 정보, (ⅱ) 촬영 화상의 평가 대역인 제2 정보, 및 (ⅲ) 촬영 광학계의 비점수차, 색수차, 및 구면수차 중의 적어도 한 개와 관련되는 수차정보를 이용한 산출을 통해 상기 자동 초점 검출의 초점 검출 결과를 보정하기 위한 보정값을 취득하는 취득단계와,
    상기 보정값에 의해 보정된 상기 자동 초점 검출의 초점 검출 결과에 의거하여, 상기 촬영 광학계가 갖는 포커싱 렌즈의 위치를 제어하는 제어단계를 포함하는, 초점 조절장치의 제어방법.
  20. 청구항 1 내지 3 중의 어느 한 항에 따른 초점 조절장치와,
    카메라 유닛과,
    상기 촬영 광학계를 포함하고, 상기 카메라 유닛으로부터 착탈 가능한 렌즈 유닛을 구비하고,
    상기 취득수단은 상기 카메라 유닛에 설치되는, 촬상장치.
  21. 제 20 항에 있어서,
    상기 카메라 유닛은, 상기 렌즈 유닛으로부터 상기 수차정보를 취득하며, 또 상기 보정값을 취득하는, 촬상장치.
  22. 청구항 1 내지 3 중의 어느 한 항에 따른 초점 조절장치와,
    카메라 유닛과,
    상기 촬영 광학계를 포함하고, 상기 카메라 유닛으로부터 착탈가능한 렌즈 유닛을 구비하고,
    상기 취득수단은 상기 렌즈 유닛에 설치되는, 촬상장치.
  23. 제 22 항에 있어서,
    상기 렌즈 유닛은, 상기 카메라 유닛으로부터 상기 제1 및 제2 정보를 취득하고, 또 상기 보정값을 취득하는, 촬상장치.
KR1020150060191A 2014-05-01 2015-04-29 초점 조절장치, 그 제어방법, 및 촬상장치 KR101968109B1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JPJP-P-2014-094877 2014-05-01
JP2014094877 2014-05-01
JPJP-P-2014-169803 2014-08-22
JP2014169803A JP6313685B2 (ja) 2014-05-01 2014-08-22 撮像装置およびその制御方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020190002151A Division KR102053305B1 (ko) 2014-05-01 2019-01-08 촬영 광학계

Publications (2)

Publication Number Publication Date
KR20150126291A KR20150126291A (ko) 2015-11-11
KR101968109B1 true KR101968109B1 (ko) 2019-04-11

Family

ID=52997271

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020150060191A KR101968109B1 (ko) 2014-05-01 2015-04-29 초점 조절장치, 그 제어방법, 및 촬상장치
KR1020190002151A KR102053305B1 (ko) 2014-05-01 2019-01-08 촬영 광학계
KR1020190158376A KR102159544B1 (ko) 2014-05-01 2019-12-02 초점 검출장치, 초점 검출방법, 및 렌즈유닛

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020190002151A KR102053305B1 (ko) 2014-05-01 2019-01-08 촬영 광학계
KR1020190158376A KR102159544B1 (ko) 2014-05-01 2019-12-02 초점 검출장치, 초점 검출방법, 및 렌즈유닛

Country Status (5)

Country Link
US (3) US10025162B2 (ko)
EP (3) EP2940987B1 (ko)
JP (1) JP6313685B2 (ko)
KR (3) KR101968109B1 (ko)
CN (3) CN105049702B (ko)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6478457B2 (ja) * 2014-01-23 2019-03-06 キヤノン株式会社 焦点調節装置及び焦点調節方法
JP6313685B2 (ja) 2014-05-01 2018-04-18 キヤノン株式会社 撮像装置およびその制御方法
JP6298362B2 (ja) * 2014-06-02 2018-03-20 キヤノン株式会社 撮像装置及びその制御方法、及び撮像システム
JP6478496B2 (ja) * 2014-07-03 2019-03-06 キヤノン株式会社 撮像装置およびその制御方法
JP6543916B2 (ja) 2014-11-07 2019-07-17 株式会社ニコン 交換レンズおよび撮像装置
JP6474693B2 (ja) * 2015-06-19 2019-02-27 オリンパス株式会社 焦点検出装置、焦点検出方法、および記録媒体
JP2017126035A (ja) * 2016-01-15 2017-07-20 キヤノン株式会社 撮像装置、制御方法、プログラム及び記憶媒体
JP6486288B2 (ja) 2016-02-09 2019-03-20 キヤノン株式会社 撮像装置、制御方法、プログラム、記憶媒体
JP6685769B2 (ja) * 2016-02-26 2020-04-22 キヤノン株式会社 情報処理装置、撮像装置及び情報処理方法
JP6682310B2 (ja) 2016-03-18 2020-04-15 キヤノン株式会社 焦点検出装置および方法、および撮像装置
JP2017194558A (ja) * 2016-04-20 2017-10-26 オリンパス株式会社 撮像装置および撮像方法
JP6464118B2 (ja) * 2016-06-27 2019-02-06 キヤノン株式会社 焦点検出装置および方法、撮像装置、およびレンズユニット
CN112631086A (zh) * 2016-07-11 2021-04-09 Asml荷兰有限公司 用于确定性能参数的指纹的方法和设备
JP6890937B2 (ja) * 2016-08-01 2021-06-18 キヤノン株式会社 焦点検出装置、撮像装置、および焦点検出方法
US10326925B2 (en) * 2016-08-10 2019-06-18 Canon Kabushiki Kaisha Control apparatus for performing focus detection, image capturing apparatus, control method, and non-transitory computer-readable storage medium
JP6548626B2 (ja) * 2016-11-18 2019-07-24 キヤノン株式会社 撮像装置、撮像装置の制御方法およびフォーカス制御プログラム
US10326926B2 (en) * 2017-01-13 2019-06-18 Canon Kabushiki Kaisha Focus detection apparatus and method, and image capturing apparatus
JP6942480B2 (ja) * 2017-02-14 2021-09-29 キヤノン株式会社 焦点検出装置、焦点検出方法、および焦点検出プログラム
CN106896466B (zh) * 2017-04-20 2019-07-09 成都市极米科技有限公司 自动调焦方法、装置及投影仪
JP6987524B2 (ja) * 2017-04-24 2022-01-05 キヤノン株式会社 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体
JP7009091B2 (ja) * 2017-06-20 2022-01-25 キヤノン株式会社 距離情報生成装置、撮像装置、距離情報生成方法、およびプログラム
JP6906755B2 (ja) * 2017-11-07 2021-07-21 村田機械株式会社 レーザ加工機及び焦点調整方法
US11133339B2 (en) * 2018-04-16 2021-09-28 Canon Kabushiki Kaisha Image sensor, image capturing apparatus and image processing apparatus
JP7052550B2 (ja) * 2018-05-17 2022-04-12 オムロン株式会社 画像センサ
JP7191552B2 (ja) * 2018-05-30 2022-12-19 キヤノン株式会社 制御装置、撮像装置、プログラム、および、記憶媒体
JP2019219499A (ja) * 2018-06-19 2019-12-26 キヤノン株式会社 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体
JP7199169B2 (ja) * 2018-07-05 2023-01-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US11195257B2 (en) * 2018-08-24 2021-12-07 Canon Kabushiki Kaisha Image processing method, image processing apparatus, imaging apparatus, lens apparatus, storage medium, and image processing system
JP6746857B2 (ja) * 2019-01-31 2020-08-26 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 画像処理装置、撮像装置、無人航空機、画像処理方法、及びプログラム
CN109743569B (zh) * 2019-02-26 2020-04-10 深圳中天云创科技有限公司 一种摄像头调焦方法及装置
US10567749B1 (en) * 2019-05-03 2020-02-18 Zf Active Safety And Electronics Us Llc Modulation transfer function evaluation for red/clear filtered optical devices
US10825163B1 (en) * 2019-06-13 2020-11-03 Viavi Solutions Inc. Automatically executing a test to inspect an end face of an optical fiber when an image is in focus
JP7379083B2 (ja) * 2019-10-24 2023-11-14 キヤノン株式会社 制御装置、撮像装置、制御方法、および、プログラム
JP7471799B2 (ja) * 2019-11-12 2024-04-22 キヤノン株式会社 制御装置、撮像装置、制御方法、および、プログラム
US20220159191A1 (en) * 2020-11-18 2022-05-19 Canon Kabushiki Kaisha Image pickup apparatus
JP2022133983A (ja) 2021-03-02 2022-09-14 キヤノン株式会社 撮像装置、コンピュータプログラム、及び撮像方法
TWI774418B (zh) * 2021-06-11 2022-08-11 大陸商廣州立景創新科技有限公司 相機模組、對焦調整系統及對焦方法
CN113677981B (zh) * 2021-07-06 2024-04-30 香港应用科技研究院有限公司 柔性显示器检查系统
US11815466B2 (en) * 2021-07-06 2023-11-14 Hong Kong Applied Science and Technology Research Institute Company Limited Flexible display inspection system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000266988A (ja) * 1999-03-16 2000-09-29 Olympus Optical Co Ltd 電子カメラ
JP5087077B2 (ja) * 2007-08-29 2012-11-28 パナソニック株式会社 オートフォーカス機能を有する交換レンズカメラシステム

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0672972B2 (ja) 1986-02-17 1994-09-14 ミノルタカメラ株式会社 焦点検出装置
JPS63107990A (ja) 1986-05-14 1988-05-12 Nippon Shinyaku Co Ltd キノリンカルボン酸誘導体
JPH07181369A (ja) * 1993-12-24 1995-07-21 Nikon Corp 自動焦点調節カメラおよびカメラの自動焦点調節方法
JPH117679A (ja) 1997-06-18 1999-01-12 Kao Corp 磁気テープ駆動装置
JPH11258493A (ja) * 1998-03-12 1999-09-24 Canon Inc 焦点検出装置
US6813442B2 (en) * 2000-06-08 2004-11-02 Canon Kabushiki Kaisha Autofocus system and camera system
JP3841152B2 (ja) * 2001-09-05 2006-11-01 コニカミノルタフォトイメージング株式会社 交換レンズ、デジタルカメラカメラ、および画像処理方法
JP3876724B2 (ja) 2002-02-18 2007-02-07 コニカミノルタフォトイメージング株式会社 カメラシステムおよび撮影レンズ
JP2004134867A (ja) 2002-10-08 2004-04-30 Canon Inc 固体撮像装置、その駆動方法、及び撮像システム
JP4532849B2 (ja) * 2003-05-20 2010-08-25 キヤノン株式会社 自動合焦装置
US7260322B2 (en) * 2004-01-21 2007-08-21 Olympus Corporation Changeable-lens camera, camera system, and focus detection device
JP2006071829A (ja) * 2004-08-31 2006-03-16 Fuji Photo Film Co Ltd 画像読取装置及び合焦制御方法
JP2006098771A (ja) * 2004-09-29 2006-04-13 Canon Inc 焦点検出装置、撮像装置、撮像システム及びレンズユニット
JP2006171470A (ja) * 2004-12-16 2006-06-29 Canon Inc 撮影装置
JP4522249B2 (ja) * 2004-12-17 2010-08-11 キヤノン株式会社 撮像装置
JP2007033653A (ja) 2005-07-25 2007-02-08 Canon Inc 焦点検出装置及びそれを用いた撮像装置
US7929046B2 (en) * 2006-02-08 2011-04-19 Canon Kabushiki Kaisha Image-pickup apparatus, lens apparatus and image-pickup system having combination identification function
JP2007310009A (ja) * 2006-05-16 2007-11-29 Olympus Imaging Corp デジタルカメラ及びカメラシステム
JP4332814B2 (ja) * 2007-01-15 2009-09-16 ソニー株式会社 撮像装置
JP5159361B2 (ja) * 2007-03-30 2013-03-06 キヤノン株式会社 交換レンズ
CN101809994B (zh) * 2007-08-10 2012-11-14 佳能株式会社 摄像设备及其控制方法
JP5029274B2 (ja) * 2007-10-10 2012-09-19 株式会社ニコン 撮像装置
JP5106143B2 (ja) 2008-01-21 2012-12-26 キヤノン株式会社 自動焦点調整装置及びその自動焦点調整方法
JP5317562B2 (ja) * 2008-07-17 2013-10-16 キヤノン株式会社 位相差検出装置、撮像装置、位相差検出方法、位相差検出プログラム
JP5153542B2 (ja) 2008-09-25 2013-02-27 キヤノン株式会社 自動焦点調節装置および焦点調節方法
US8704907B2 (en) * 2008-10-30 2014-04-22 Panasonic Corporation Camera body and camera system with interchangeable lens for performing image data correction
JP5237059B2 (ja) 2008-11-14 2013-07-17 キヤノン株式会社 焦点検出装置及び方法、及び撮像装置
KR20100077878A (ko) * 2008-12-29 2010-07-08 삼성전자주식회사 초점검출장치 및 이를 구비하는 촬상장치
JP5230564B2 (ja) 2009-08-14 2013-07-10 キヤノン株式会社 レンズ装置および撮影システム
JP5441612B2 (ja) * 2009-10-23 2014-03-12 キヤノン株式会社 自動焦点調節装置および撮像装置
KR101579737B1 (ko) * 2010-01-05 2015-12-23 삼성전자주식회사 자동초점 조절 장치 및 카메라 시스템
JP5537186B2 (ja) * 2010-02-24 2014-07-02 オリンパスイメージング株式会社 アタッチメントレンズ装置及びそれを備えた撮像装置
JP5609270B2 (ja) * 2010-05-28 2014-10-22 ソニー株式会社 撮像装置、撮像システム、撮像装置の制御方法およびプログラム
JP5577939B2 (ja) * 2010-08-20 2014-08-27 ソニー株式会社 撮像装置、収差補正方法、および、プログラム
US9030597B2 (en) * 2010-09-30 2015-05-12 Nikon Corporation Interchangeable lens and camera body
JP2012128298A (ja) * 2010-12-17 2012-07-05 Samsung Electronics Co Ltd 撮像装置及び撮像方法
JP5808124B2 (ja) * 2011-03-24 2015-11-10 キヤノン株式会社 焦点検出装置及びその制御方法並びに焦点検出装置を有する撮像装置
JP5956782B2 (ja) * 2011-05-26 2016-07-27 キヤノン株式会社 撮像素子及び撮像装置
JP5889010B2 (ja) * 2012-01-31 2016-03-22 キヤノン株式会社 撮像装置およびその制御方法
EP2858342A4 (en) * 2012-05-28 2016-04-06 Nikon Corp IMAGING DEVICE
JP2014029353A (ja) * 2012-07-31 2014-02-13 Sony Corp 焦点調整装置および焦点調整方法
JP6099904B2 (ja) * 2012-09-03 2017-03-22 キヤノン株式会社 撮像装置
JP2014048620A (ja) * 2012-09-04 2014-03-17 Canon Inc 焦点調節装置、その制御方法、および制御プログラム
US10079968B2 (en) * 2012-12-01 2018-09-18 Qualcomm Incorporated Camera having additional functionality based on connectivity with a host device
JP5620522B2 (ja) * 2013-01-07 2014-11-05 オリンパスイメージング株式会社 撮像装置及び撮像方法
JP6478457B2 (ja) * 2014-01-23 2019-03-06 キヤノン株式会社 焦点調節装置及び焦点調節方法
JP6313685B2 (ja) 2014-05-01 2018-04-18 キヤノン株式会社 撮像装置およびその制御方法
JP6478534B2 (ja) * 2014-09-09 2019-03-06 キヤノン株式会社 フォーカス制御装置、撮像装置、交換レンズ、フォーカス制御方法およびフォーカス制御プログラム
EP3018516B1 (en) * 2014-11-05 2019-06-19 Canon Kabushiki Kaisha Image capturing apparatus and method for controlling image capturing apparatus
JP6487678B2 (ja) * 2014-11-21 2019-03-20 キヤノン株式会社 焦点検出装置及びその制御方法
JP6395790B2 (ja) * 2016-11-18 2018-09-26 キヤノン株式会社 撮像装置、撮像装置の制御方法およびフォーカス制御プログラム
JP7052550B2 (ja) * 2018-05-17 2022-04-12 オムロン株式会社 画像センサ
JP7303668B2 (ja) * 2019-06-05 2023-07-05 キヤノン株式会社 撮像装置及びその制御方法、カメラシステム、プログラム、記憶媒体
US20220159191A1 (en) * 2020-11-18 2022-05-19 Canon Kabushiki Kaisha Image pickup apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000266988A (ja) * 1999-03-16 2000-09-29 Olympus Optical Co Ltd 電子カメラ
JP5087077B2 (ja) * 2007-08-29 2012-11-28 パナソニック株式会社 オートフォーカス機能を有する交換レンズカメラシステム

Also Published As

Publication number Publication date
CN105049702A (zh) 2015-11-11
CN105049702B (zh) 2019-08-30
KR102053305B1 (ko) 2019-12-06
EP3691251A1 (en) 2020-08-05
US20180299748A1 (en) 2018-10-18
CN110545374B (zh) 2021-11-02
CN110542977B (zh) 2021-11-02
KR20150126291A (ko) 2015-11-11
EP2940987B1 (en) 2020-06-10
JP6313685B2 (ja) 2018-04-18
CN110542977A (zh) 2019-12-06
US20150316833A1 (en) 2015-11-05
CN110545374A (zh) 2019-12-06
KR102159544B1 (ko) 2020-09-24
KR20190006198A (ko) 2019-01-17
US11099459B2 (en) 2021-08-24
EP2940987A1 (en) 2015-11-04
EP3462726A1 (en) 2019-04-03
KR20190135984A (ko) 2019-12-09
EP3691251B1 (en) 2023-11-01
EP3462726B1 (en) 2022-03-02
US11822211B2 (en) 2023-11-21
JP2015222411A (ja) 2015-12-10
US10025162B2 (en) 2018-07-17
US20210333690A1 (en) 2021-10-28

Similar Documents

Publication Publication Date Title
KR102159544B1 (ko) 초점 검출장치, 초점 검출방법, 및 렌즈유닛
JP6478457B2 (ja) 焦点調節装置及び焦点調節方法
EP3018516B1 (en) Image capturing apparatus and method for controlling image capturing apparatus
JP6478496B2 (ja) 撮像装置およびその制御方法
JP6429546B2 (ja) 撮像装置、制御方法、プログラム、および、記憶媒体
JP6464118B2 (ja) 焦点検出装置および方法、撮像装置、およびレンズユニット
JP2017173374A (ja) 焦点検出装置および方法、および撮像装置
JP6484004B2 (ja) 撮像装置およびその制御方法、および撮影光学系およびその制御方法
JP6484003B2 (ja) 撮像装置およびその制御方法、および撮影光学系
JP6744933B2 (ja) レンズ部およびその制御方法
JP6686239B1 (ja) レンズ部、送信装置、及び受信装置
JP6686191B2 (ja) 焦点検出装置、撮像装置、及び焦点検出方法
JP6415054B2 (ja) 撮像装置及び撮像方法

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E90F Notification of reason for final refusal
E601 Decision to refuse application
A107 Divisional application of patent
AMND Amendment
X701 Decision to grant (after re-examination)