JP2015152749A - Imaging device and control method of the same - Google Patents

Imaging device and control method of the same Download PDF

Info

Publication number
JP2015152749A
JP2015152749A JP2014026000A JP2014026000A JP2015152749A JP 2015152749 A JP2015152749 A JP 2015152749A JP 2014026000 A JP2014026000 A JP 2014026000A JP 2014026000 A JP2014026000 A JP 2014026000A JP 2015152749 A JP2015152749 A JP 2015152749A
Authority
JP
Japan
Prior art keywords
focus detection
focus
image
detection means
magnification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014026000A
Other languages
Japanese (ja)
Inventor
木村 哲哉
Tetsuya Kimura
哲哉 木村
藤永 伸広
Nobuhiro Fujinaga
伸広 藤永
京 仲本
Kyo Nakamoto
京 仲本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014026000A priority Critical patent/JP2015152749A/en
Publication of JP2015152749A publication Critical patent/JP2015152749A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device that enables reduction of a fall in definition quality of a photographing image due to a change in magnification without taking time for a focus detection.SOLUTION: A photographing optical system including a focus lens performing a focus adjustment by a movement comprises: first focus detection means that is configured to perform a focus detection by a contrast AF having a wobbling mode causing the focus lens to move toward an in-focus direction to detect an in-focus position; second focus detection means that is configured to perform the focus detection by a focus detection pixel discretely arranged in an image pickup element. When a change in magnification of the photographing optical system due to the wobbling action of the first focus detection means is smaller than a prescribed range, a focus detection is performed by the first focus detection means, and when the change in magnification of the photographing optical system due to the wobbling action of the first focus detection means is larger than the prescribed range, the focus detection is performed by the second focus detection means.

Description

本発明は、被写体を撮像する撮像装置に関し、特に撮像素子において位相差検出方式とコントラスト検出方式とのハイブリッドAFが可能な撮像装置に関するものである。   The present invention relates to an image pickup apparatus that picks up an image of a subject, and more particularly to an image pickup apparatus capable of hybrid AF of a phase difference detection method and a contrast detection method in an image pickup element.

撮像素子においてコントラスト検出方式によるフォーカス制御(以後、第一のAF方式と称する)と位相差検出方式によるフォーカス制御(以後、第二のAF方式と称する)とのハイブリッドAFが可能な撮像装置に関して、特許文献1に開示されているような技術が提示されている。特許文献1で開示されている内容によれば、撮影レンズの絞りを絞ることにより第二のAF方式を行うための焦点検出用画素の瞳がけられ正常な焦点検出が困難となるため、ウォブリング対応レンズを装着し、かつ、撮影レンズを絞った場合には第一のAF方式を用いたウォブリングによる焦点検出動作を行うことで、合焦精度の向上を図ると記載されている。   Regarding an imaging apparatus capable of hybrid AF of focus control by a contrast detection method (hereinafter referred to as a first AF method) and focus control by a phase difference detection method (hereinafter referred to as a second AF method) in an image sensor. A technique as disclosed in Patent Document 1 is proposed. According to the contents disclosed in Patent Document 1, since the pupil of the focus detection pixel for performing the second AF method is focused by narrowing the aperture of the photographing lens, it is difficult to perform normal focus detection. It is described that when the lens is mounted and the photographing lens is narrowed down, focusing accuracy is improved by performing a focus detection operation by wobbling using the first AF method.

また、ウォブリング動作を行った際の制御に関して特許文献2に開示されているような技術が提案されている。特許文献2では、第一のAF方式を用いたウォブリングによる焦点検出動作に伴う倍率変動に起因する撮影画像の品質低下防止の方法として、必要ウォブリング幅での倍率変動が大きく、撮影画像の品位が低下する場合、ウォブリング幅を制限し、サンプリング数を増やすことで撮影画像の品位向上の方法が開示されている。   Further, a technique as disclosed in Patent Document 2 has been proposed regarding control when a wobbling operation is performed. In Patent Document 2, as a method for preventing deterioration in the quality of a photographed image due to the magnification fluctuation caused by the focus detection operation by wobbling using the first AF method, the magnification fluctuation in the required wobbling width is large, and the quality of the photographed image is high. A method for improving the quality of a captured image by limiting the wobbling width and increasing the number of samplings is disclosed.

特開2012−118154号公報JP2012-118154A 特開2008−170508号公報JP 2008-170508 A

しかし、上述の特許文献1に開示された従来技術では、絞りを絞り込むことにより、被写界深度が深くなり、コントラスト差が出づらくなることにより、狭いウォブリング範囲でのコントラスト検出が困難となり、焦点検出に必要なウォブリング幅が動画像撮影時にウォブリング動作に伴う、倍率変動に起因する撮影画像の品質低下が生じる可能性があった。また、特許文献2にて開示された技術では、倍率変動に起因する撮影画像の品質低下は改善できるが、焦点検出に時間がかかってしまう。   However, in the prior art disclosed in Patent Document 1 described above, by narrowing down the aperture, the depth of field becomes deeper and the contrast difference becomes difficult to occur, so that it is difficult to detect contrast in a narrow wobbling range. There is a possibility that the wobbling width necessary for the detection may deteriorate the quality of the photographed image due to the magnification fluctuation accompanying the wobbling operation during moving image photographing. In addition, with the technique disclosed in Patent Document 2, it is possible to improve the deterioration of the quality of the captured image due to the magnification variation, but it takes time to detect the focus.

そこで、本発明の目的は、焦点検出に時間をかけずに、倍率変動による撮影画像の品位低下を低減することを可能にした撮像装置を提供することである。   SUMMARY OF THE INVENTION An object of the present invention is to provide an imaging apparatus that can reduce deterioration in quality of a captured image due to magnification fluctuations without taking time for focus detection.

上記目的を達成するために、本発明は、撮影光学系で撮像素子上に被写体を結像させて前記被写体を表す画像を生成する撮像装置において、前記撮影光学系が、移動によりピント調整を行うフォーカスレンズを含むものであって、前記フォーカスレンズを移動させながら前記撮像素子で得られた画像のコントラストを検知して合焦位置の検出を行い、ウォブリング動作を行って合焦の方向を認識しながら、前記フォーカスレンズを合焦方向へと移動させ合焦位置を検出するウォブリングモードを有するコントラストAFによる第一の焦点検出手段と、前記撮像素子に離散的に配置された焦点検出画素による第二の焦点検出手段とを備え、前記第一の焦点検出手段のウォブリング動作による、前記撮影光学系の倍率変動が所定範囲より小さい場合には、前記第一の焦点検出手段による焦点検出を、前記撮影光学系の倍率変動が所定範囲より大きい場合には、前記第二の焦点検出手段による焦点検出を行うことを特徴とする。   In order to achieve the above object, according to the present invention, in an imaging apparatus that forms an image of a subject on an imaging element by the imaging optical system to generate an image representing the subject, the imaging optical system performs focus adjustment by movement. It includes a focus lens, detects the focus position by detecting the contrast of the image obtained by the image sensor while moving the focus lens, and performs the wobbling operation to recognize the focus direction. However, the first focus detecting means by contrast AF having a wobbling mode for detecting the in-focus position by moving the focus lens in the in-focus direction, and the second by the focus detection pixels discretely arranged on the image sensor. When the magnification fluctuation of the photographing optical system is smaller than a predetermined range due to the wobbling operation of the first focus detection means. , The focus detection by the first focus detection unit, wherein when the change in magnification of the photographing optical system is greater than the predetermined range, and performs the focus detection by the second focus detection unit.

また、前記撮影光学系の絞り、倍率変動情報により、ウォブリング動作に伴う倍率変動量を算出することを特徴とする。   Further, the magnification variation amount accompanying the wobbling operation is calculated from the aperture and magnification variation information of the photographing optical system.

また、前記第二の焦点検出手段による焦点検出精度を判定し、前記第二の焦点検出方法精度が所定値以上の場合は、前記第二の焦点検出手段による焦点検出を、精度が所定値以下である場合は、前記第一の焦点検出手段による焦点検出を行うことを特徴とする請求項1の撮像装置。   Further, the focus detection accuracy by the second focus detection unit is determined, and when the second focus detection method accuracy is equal to or higher than a predetermined value, the focus detection by the second focus detection unit is performed with an accuracy of a predetermined value or less. In this case, the focus detection by the first focus detection means is performed.

また、前記第二の焦点検出手段による焦点検出精度を判定し、前記第二の焦点検出方法精度が所定値以上の場合は、前記第二の焦点検出手段による焦点検出を、精度が所定値以下である場合は、警告表示を行うことを特徴とする。   Further, the focus detection accuracy by the second focus detection unit is determined, and when the second focus detection method accuracy is equal to or higher than a predetermined value, the focus detection by the second focus detection unit is performed with an accuracy of a predetermined value or less. In such a case, a warning is displayed.

本発明によれば、撮像素子にて位相差検出方式とコントラスト検出方式とのハイブリッドAFが可能な撮像装置おいて、第一のAF方式、第二のAF方式を使い分けることで、撮影画像の品位低下を低減可能な撮像装置の提供することができる。   According to the present invention, in an imaging apparatus capable of hybrid AF of a phase difference detection method and a contrast detection method with an image sensor, the quality of a captured image is improved by using the first AF method and the second AF method separately. An imaging device capable of reducing the decrease can be provided.

また、撮影光学系の絞り、倍率変動情報からウォブリング動作に伴う倍率変動を事前に算出することができる。   Further, it is possible to calculate in advance the magnification fluctuation associated with the wobbling operation from the aperture and magnification fluctuation information of the photographing optical system.

また、第二のAF方式精度がNGの場合、ピントを合わせることを優先させ、第一のAF方式で焦点検出が可能となる。   Further, when the second AF method accuracy is NG, priority is given to focusing, and focus detection can be performed by the first AF method.

また、第二のAF方式精度がNGの場合、ユーザーに警告を行うことで、ユーザーに認識させることが可能である。   When the second AF method accuracy is NG, it is possible to make the user recognize by giving a warning to the user.

本発明の実施形態に係る、撮像装置の構成を示す概略図Schematic which shows the structure of the imaging device based on embodiment of this invention 本発明の実施形態に係る、ライブビュー時の撮像装置の構成を示す概略図Schematic which shows the structure of the imaging device at the time of live view based on embodiment of this invention 本発明の実施形態に係る、撮像装置の電気的な構成を示すブロック図The block diagram which shows the electrical constitution of the imaging device based on embodiment of this invention 撮像素子群と焦点検出画素群の画素配列の一例を示す図The figure which shows an example of the pixel arrangement | sequence of an image pick-up element group and a focus detection pixel group ピントずれによる像の位相ずれを説明するための模式図Schematic diagram for explaining image phase shift due to focus shift 本発明の実施形態に係る、焦点検出のフローチャートFlowchart of focus detection according to an embodiment of the present invention 撮影レンズのフォーカスによる倍率変動の一例を示す図The figure which shows an example of the magnification fluctuation by the focus of a taking lens

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

[実施例1]
図1、図2は本発明の実施の形態に係る、撮像装置の構成を示す概略図である。図1において、100は撮像装置本体である。101はCPUであり、撮像装置100の制御を行っている。102は交換可能な撮影レンズ本体であり、内部に焦点調整時に光軸方向に移動させるフォーカスレンズ103、ズーム時に光軸方向に移動させる不示図のズームレンズ、絞り104、レンズIDなどのレンズ情報を記憶し、撮像装置100のCPU101の指令に基づきフォーカスレンズ103および絞り104を制御するレンズCPU105を有する。106はCMOS(ComplementaryMetal Oxide Semiconductor)からなる撮像素子であり、RGB各カラーフィルタが受光面上に設けられ撮像用の像信号取得に用いられる画素からなる撮像画素群107aを有する。
[Example 1]
1 and 2 are schematic diagrams showing the configuration of an imaging apparatus according to an embodiment of the present invention. In FIG. 1, reference numeral 100 denotes an imaging apparatus main body. Reference numeral 101 denotes a CPU which controls the imaging apparatus 100. Reference numeral 102 denotes an interchangeable photographic lens body, which has a focus lens 103 that moves in the optical axis direction during focus adjustment, a zoom lens (not shown) that moves in the optical axis direction during zooming, lens information such as a diaphragm 104 and a lens ID. And a lens CPU 105 that controls the focus lens 103 and the diaphragm 104 based on a command from the CPU 101 of the imaging apparatus 100. Reference numeral 106 denotes an imaging element made of CMOS (Complementary Metal Oxide Semiconductor), and has an imaging pixel group 107a made up of pixels used for acquiring image signals for imaging, with RGB color filters provided on the light receiving surface.

さらに、撮像素子106は、焦点検出に用いる互いに光学構成が光軸対象に構成された一対の位相差センサであり、複数組みの位相差センサからなり複数の焦点検出領域に存在する焦点検出画素群107bを有する。109はメインミラーであり、半透過ミラーとして構成されている。112はフォーカシングスクリーンであり、撮影レンズ102を透過した被写体像が結像される撮像素子106の結像面と等価の結像面に配置されている。117は被写体光路であり、撮影レンズ102を通過した光束は、メインミラー109で反射され、フォーカシングスクリーン112に一次結像される。   Further, the image sensor 106 is a pair of phase difference sensors whose optical configurations are used for focus detection and whose optical axes are targets, and includes a plurality of sets of phase difference sensors and a focus detection pixel group existing in a plurality of focus detection areas. 107b. Reference numeral 109 denotes a main mirror, which is configured as a semi-transmissive mirror. Reference numeral 112 denotes a focusing screen, which is disposed on an imaging plane equivalent to the imaging plane of the image sensor 106 on which the subject image transmitted through the photographing lens 102 is formed. Reference numeral 117 denotes a subject optical path, and the light beam that has passed through the photographing lens 102 is reflected by the main mirror 109 and is primarily imaged on the focusing screen 112.

ペンタプリズム113は、被写体光路117を変更するもので、フォーカシングスクリーン112に結像した被写体像を正立正像に補正する。接眼レンズ114は、撮影者115がフォーカシングスクリーン112に結像した被写体像を観察できるようになっている。110はサブミラーであり、ハーフミラーであるメインミラー109を通過した被写体光束は、サブミラー110によって焦点検出装置111に導かれ、焦点検出装置111によって周知の位相差検出方式の焦点検出動作が行われる。   The pentaprism 113 changes the subject optical path 117 and corrects the subject image formed on the focusing screen 112 to an erect image. The eyepiece 114 allows the photographer 115 to observe the subject image formed on the focusing screen 112. Reference numeral 110 denotes a sub mirror, and the subject light flux that has passed through the main mirror 109, which is a half mirror, is guided to the focus detection device 111 by the sub mirror 110, and the focus detection operation of a known phase difference detection method is performed by the focus detection device 111.

図2は、メインミラー109およびサブミラー110が、撮影レンズ102を通過した被写体光路117より退避した図である。撮影を行う際に撮影者115が不図示のレリーズスイッチを押す、または撮像装置100を操作しライブビュー状態とする設定を行うと、メインミラー109は、ファインダ観察位置から撮影レンズ102を通る被写体光束の被写体光路117外に搖動退避し、撮影レンズ102からの被写体像を撮像素子106に露光可能な状態になる。   FIG. 2 is a diagram in which the main mirror 109 and the sub mirror 110 are retracted from the subject optical path 117 that has passed through the photographing lens 102. When the photographer 115 presses a release switch (not shown) or sets the live view state by operating the imaging apparatus 100 when shooting, the main mirror 109 causes the subject light flux passing through the shooting lens 102 from the viewfinder observation position. Is automatically retracted out of the subject optical path 117, and the subject image from the photographing lens 102 can be exposed to the image sensor 106.

フォーカルプレーンシャッター(以後シャッターと称する)108は、通電により先幕を開放するマグネットMG−1と、通電によりシャッター108の後幕を閉じるマグネットMG−2を備えている。撮影レンズ102によって集光された被写体光束は、シャッター108の先幕走行後、後幕が走行し始めるまでの時間を制御することで、光量制御がなされ、撮像素子106によって被写体像として光電変換処理される。光電変換処理後の画像データは記録媒体に記録され、外部表示装置116に画像として表示される。また、外部表示装置116は、撮像装置100がライブビュー状態であるときは、撮像素子106に露光されている被写体の画像をリアルタイムで表示している。   The focal plane shutter (hereinafter referred to as shutter) 108 includes a magnet MG-1 that opens the front curtain when energized, and a magnet MG-2 that closes the rear curtain of the shutter 108 when energized. The light flux of the subject focused by the photographing lens 102 is controlled by controlling the amount of time until the rear curtain starts running after the front curtain of the shutter 108 has run, and the image sensor 106 performs photoelectric conversion processing as a subject image. Is done. The image data after the photoelectric conversion process is recorded on a recording medium and displayed as an image on the external display device 116. The external display device 116 displays the image of the subject exposed to the image sensor 106 in real time when the imaging device 100 is in the live view state.

図3は、本発明の実施形態に係る、撮像装置の電気的な構成を示すブロック図である。図3において、瞳分割光学系301は、焦点検出画素群107bの一対をなす各位相差センサに対して瞳が対象に分割したように光線が入射するよう入射光線を制限している。さらに、撮像装置100は、焦点検出画素群107bにおける互いに光学構成が光軸対称に構成された2種類の位相差センサの各画素列の像ずれ量から焦点を検出する焦点検出部302を有する。さらに、撮像装置100は撮像画素群107aのうち焦点検出画素群107bの近傍に位置する複数の画素からなる像信号の高周波成分の強度を検出する空間周波数検出部303を有する。   FIG. 3 is a block diagram showing an electrical configuration of the imaging apparatus according to the embodiment of the present invention. In FIG. 3, the pupil division optical system 301 restricts the incident light beam so that the light beam is incident on each phase difference sensor forming a pair of focus detection pixel groups 107 b so that the pupil is divided into the target. Furthermore, the imaging apparatus 100 includes a focus detection unit 302 that detects a focus from the image shift amount of each pixel column of two types of phase difference sensors whose optical configurations are symmetrical with respect to the optical axis in the focus detection pixel group 107b. Furthermore, the imaging apparatus 100 includes a spatial frequency detection unit 303 that detects the intensity of a high-frequency component of an image signal including a plurality of pixels located in the vicinity of the focus detection pixel group 107b in the imaging pixel group 107a.

さらに、撮像装置100は、焦点検出画素群107bを用いて焦点検出結果に基づいて後述の画素補間部310で補間処理を行うか、空間周波数検出部303を用いて高周波成分の強度に基づいて画素補間部310で補間処理を行うかを選択する判定切替部304を有する。さらに焦点検出画素群107bは不示図の遮光層により視野が制限されており、また、光線入射面にカラーフィルタを設けない。したがって、焦点検出画素群107bの像信号のレベルは撮像画素群107aのうち焦点検出画素群107bの近傍に位置する複数の画素(以下、近傍画素群と称する)からなる像信号のレベルと異なってしまう。   Further, the imaging apparatus 100 performs interpolation processing by a pixel interpolation unit 310 (to be described later) based on the focus detection result using the focus detection pixel group 107b, or uses the spatial frequency detection unit 303 to perform pixel processing based on the intensity of the high frequency component. A determination switching unit 304 is provided for selecting whether the interpolation unit 310 performs the interpolation process. Furthermore, the field of view of the focus detection pixel group 107b is limited by a light shielding layer (not shown), and no color filter is provided on the light incident surface. Therefore, the level of the image signal of the focus detection pixel group 107b is different from the level of the image signal composed of a plurality of pixels (hereinafter referred to as the vicinity pixel group) located in the vicinity of the focus detection pixel group 107b in the imaging pixel group 107a. End up.

そのため、撮像装置100は、焦点検出画素群107bの像信号を近傍画素群の像信号のレベルに近づけるため、焦点検出画素群107bのゲインを調整するゲイン調整部305を有する。さらに、撮像装置100は判定切替部304の判定に基づいて、焦点検出画素群107bの位相差センサの位置に相当する画像データを、撮像素子106から得られた撮像画素群107aの像信号に基づいて補間演算で生成する画素補間部310を有する。さらに、撮像装置100は、撮像画素群107aから出力される像信号にガンマ補正、ホワイトバランス調整、リサンプリング、所定の画像圧縮符号化を行う画像処理部306を有する。   Therefore, the imaging apparatus 100 includes a gain adjustment unit 305 that adjusts the gain of the focus detection pixel group 107b in order to bring the image signal of the focus detection pixel group 107b closer to the level of the image signal of the neighboring pixel group. Further, based on the determination of the determination switching unit 304, the imaging apparatus 100 obtains image data corresponding to the position of the phase difference sensor of the focus detection pixel group 107b based on the image signal of the imaging pixel group 107a obtained from the imaging element 106. A pixel interpolation unit 310 that generates by interpolation calculation. Furthermore, the imaging apparatus 100 includes an image processing unit 306 that performs gamma correction, white balance adjustment, resampling, and predetermined image compression encoding on the image signal output from the imaging pixel group 107a.

さらに、撮像装置100は、画像処理部306から出力された画像データを外部表示装置116に表示する制御を行う表示制御部309と記録する記録部307を有し、撮影者115の各種操作入力を受け付ける操作部308とを有する。また、焦点検出装置制御部311は、撮影者115の操作部308を介した操作を受け、CPU101の指令に応じ、焦点検出装置111を制御し、周知の位相差検出方式の焦点検出動作を行う。ミラー制御部312は、撮影者115の操作部308を介した操作を受け、CPU101の指令に応じた、メインミラー109およびサブミラー110の動作制御を行う。シャッター制御部313は、撮影者115の操作部308を介した操作を受け、CPU101の指令に応じたシャッター108の動作制御を行う。   Furthermore, the imaging apparatus 100 includes a display control unit 309 that performs control to display the image data output from the image processing unit 306 on the external display device 116 and a recording unit 307 that records the operation data of the photographer 115. And an operation unit 308 for receiving. In addition, the focus detection device control unit 311 receives an operation via the operation unit 308 of the photographer 115 and controls the focus detection device 111 according to a command from the CPU 101 to perform a focus detection operation of a known phase difference detection method. . The mirror control unit 312 receives an operation via the operation unit 308 of the photographer 115 and performs operation control of the main mirror 109 and the sub mirror 110 in accordance with a command from the CPU 101. The shutter control unit 313 receives an operation via the operation unit 308 of the photographer 115 and controls the operation of the shutter 108 in accordance with a command from the CPU 101.

図4は、撮像画素群107aと焦点検出画素群107bの配列を示す図である。図4において、焦点検出画素群107bにおける一対の位相差センサの一方をS1、他方をS2と示している。また、焦点検出画素群107bに該当する画素を、網線処理で強調している。S1が離散的に挿入された画素列と、一定間隔を空けてS2が離散的に挿入された画素列の組で、1つの測距点を成す。図4では上部に第一の測距点、下部に第二の測距点が図示されている。焦点検出部302は、各測距点に対して、個別に焦点検出を行う。   FIG. 4 is a diagram illustrating an arrangement of the imaging pixel group 107a and the focus detection pixel group 107b. In FIG. 4, one of the pair of phase difference sensors in the focus detection pixel group 107b is indicated as S1, and the other as S2. Further, the pixels corresponding to the focus detection pixel group 107b are emphasized by the net line processing. A pair of pixel rows in which S1 is discretely inserted and a pixel row in which S2 is discretely inserted at a predetermined interval form one distance measuring point. In FIG. 4, the first distance measuring point is shown in the upper part and the second distance measuring point is shown in the lower part. The focus detection unit 302 performs focus detection individually for each distance measuring point.

図5はピントずれによる像の位相ずれを説明するための模式図である。図5において、S1とS2を抽象的に近づけてA、Bの点で示している。また、わかりやすくするために撮像のためのRGB各画素の図示を省略してあたかも位相差センサが並んでいるように示している。被写体の特定点からの光は、Aに対応する瞳を通って該当のAに入る光線束(ΦLa)と、Bに対応する瞳を通って該当のBに入る光線束(ΦLb)に分けられ、Aに入る光線束によって位相差センサに結像された像をA像、Bに入る光線束によって位相差センサに結像された像をB像と称する。   FIG. 5 is a schematic diagram for explaining image phase shift due to focus shift. In FIG. 5, S1 and S2 are abstractly brought close to each other and indicated by points A and B. For the sake of simplicity, illustration of RGB pixels for imaging is omitted, and it is shown as if phase difference sensors are arranged. The light from a specific point of the subject is divided into a light beam (ΦLa) that enters the corresponding A through the pupil corresponding to A and a light beam (ΦLb) that enters the corresponding B through the pupil corresponding to B. , The image formed on the phase difference sensor by the light beam entering A is called an A image, and the image formed on the phase difference sensor by the light beam entering B is called a B image.

この2つの光束は、同じ1点からのものなので、撮像光学系のピントが撮像素子面上にあれば、同一マイクロレンズで括られる1点に到達する(a)。しかし、例えばx手前にピントがあれば、光線の入射角θの変化だけたがいにずれる(b)。また、xだけ奥にピントがあれば、逆方向にずれる。   Since these two light fluxes are from the same point, if the focus of the image pickup optical system is on the image pickup element surface, it reaches one point bundled by the same microlens (a). However, for example, if the focus is in front of x, only the change in the incident angle θ of the light beam is displaced (b). Moreover, if there is a focus in the back by x, it will shift in the reverse direction.

図6は、本実施形態に係る、撮像面でのオートフォーカス動作を示すフローチャートである。まず、本実施形態において、撮像面でのオートフォーカスの方式は二通りあり、うち、フォーカスレンズ103を光軸方向に微小駆動(ウォブリング)させながら、撮像素子106内の撮像画素群107aの信号から得られるコントラスト評価値に基づいて、コントラストによる焦点検出を行う方式を第一のAF方式、撮像素子106内に離散的に配置されたた焦点検出画素群107bからの信号を検出し、一対の被写体像を、焦点検出画素群107bで光電変換すると、一対の像信号が得られる。この一対の像信号のそれぞれを、以下、A像およびB像という。このA像、B像の相関を取ることによって、撮像面での位相差AFを行う方式を第二のAF方式とする。   FIG. 6 is a flowchart showing an autofocus operation on the imaging surface according to the present embodiment. First, in the present embodiment, there are two types of autofocus methods on the imaging surface. Among them, the focus lens 103 is finely driven (wobbled) in the optical axis direction, and the signal from the imaging pixel group 107a in the imaging element 106 is used. Based on the obtained contrast evaluation value, the first AF method is used for focus detection based on contrast, and signals from the focus detection pixel group 107b discretely arranged in the image sensor 106 are detected, and a pair of subjects is detected. When an image is photoelectrically converted by the focus detection pixel group 107b, a pair of image signals is obtained. Each of the pair of image signals is hereinafter referred to as an A image and a B image. A method of performing phase difference AF on the imaging surface by taking a correlation between the A image and the B image is a second AF method.

図6において撮影者115のAF開始動作(例えばライブビュー動作の開始)に伴い、撮像装置100にて撮像動作を開始。S101にて撮像装置100の撮影条件、例えばISO感度、絞り値などを確認する。その後、S102にて、撮影レンズ102の情報を取得する。ここで、撮影レンズ102は、レンズCPU105にて、レンズ名・焦点距離などの情報を示すレンズID、および各フォーカス位置、ズーム位置における倍率の情報を有しており、それらの情報をS102にて取得する。S103にて、第一のAF方式を行う際に、S101、S102にて取得した情報と撮像情報から、コントラスト評価値を取得し、ウォブリング動作を行うために必要なフォーカスレンズ103の光軸方向へのデフォーカス量(ウォブリング幅)を算出する。まず、撮影レンズ102のFナンバーをF、そのときの撮像素子106上における許容錯乱円径をδと定義すると、ウォブリング幅Wは次式で表すことができる。   In FIG. 6, the imaging apparatus 100 starts the imaging operation in accordance with the AF start operation of the photographer 115 (for example, start of the live view operation). In S101, the imaging conditions of the imaging apparatus 100, such as ISO sensitivity and aperture value, are confirmed. Thereafter, in S102, information on the photographing lens 102 is acquired. Here, the photographic lens 102 has a lens ID indicating information such as a lens name and a focal length, and information on magnification at each focus position and zoom position in the lens CPU 105, and the information is obtained in S102. get. In S103, when performing the first AF method, the contrast evaluation value is acquired from the information acquired in S101 and S102 and the imaging information, and the focus lens 103 is required to perform the wobbling operation in the optical axis direction. The defocus amount (wobbling width) is calculated. First, if the F number of the photographing lens 102 is F and the allowable circle of confusion on the image sensor 106 is defined as δ, the wobbling width W can be expressed by the following equation.

ここで、kは振幅の大きさを決める係数で、1/4や1/3など1以下の数値が用いられることが多い。つまり、係数kおよび許容錯乱円径δは撮像装置100にて決定されるため、ウォブリング幅は撮影レンズ102の現在のFナンバー情報を取得することで算出することができる。S101、S102にて取得した情報を基に、CPU101にてウォブリング幅の計算を行う。   Here, k is a coefficient that determines the magnitude of the amplitude, and a numerical value of 1 or less such as 1/4 or 1/3 is often used. That is, since the coefficient k and the allowable confusion circle diameter δ are determined by the imaging apparatus 100, the wobbling width can be calculated by acquiring the current F number information of the photographing lens 102. Based on the information acquired in S101 and S102, the CPU 101 calculates the wobbling width.

続いて、S104では、S103にて求めたデフォーカス量と、S102のレンズ情報を用いて、ウォブリング動作に伴う倍率変動量を算出する。倍率変動量の算出に関して、図7を用いて説明する。図7は、撮影レンズ102のフォーカス位置の変化に対する、倍率変動の量を表したグラフである。図7(a)において、実線はある撮影レンズ102があるズームポジションに設定されているときの、フォーカス位置の変化による倍率変動を表しており、レンズCPU105に関数として記憶されており、本実施形態では線形関数であるが、曲線関数であってもよい。破線は、主被写体のピントのピーク位置である。破線矢印はS103にて算出したウォブリング動作に必要なデフォーカス量である。実線矢印はデフォーカス量分だけフォーカスレンズ103を移動させた際の、倍率の変化量である。   Subsequently, in S104, using the defocus amount obtained in S103 and the lens information in S102, a magnification variation amount associated with the wobbling operation is calculated. The calculation of the magnification fluctuation amount will be described with reference to FIG. FIG. 7 is a graph showing the amount of magnification variation with respect to the change in the focus position of the photographic lens 102. In FIG. 7A, a solid line represents a change in magnification due to a change in the focus position when a certain photographing lens 102 is set to a certain zoom position, and is stored as a function in the lens CPU 105. Then, although it is a linear function, it may be a curve function. A broken line is a focus peak position of the main subject. The broken line arrow is the defocus amount necessary for the wobbling operation calculated in S103. A solid line arrow indicates the amount of change in magnification when the focus lens 103 is moved by the defocus amount.

図7(b)は図7(a)とは同じ撮影レンズ102で、図7(a)からズームポジションが変化した際の撮影レンズ102のフォーカス位置の変化に対する、倍率変動の量を表したグラフである。図7(b)は、図7(a)と同様のデフォーカス量分だけフォーカスレンズ103を移動させた際の、倍率の変化量が図7(a)に対して少ない。このようにズームレンズの場合は、複数のズームポジションに対して、複数の倍率変動を表した関数を、単焦点レンズの場合は、ひとつの倍率変動を表した関数を倍率変動情報としてレンズCPU105に記憶されており、CPU101にて倍率の変動量を算出する。   FIG. 7B is a graph showing the amount of magnification variation with respect to a change in the focus position of the photographing lens 102 when the zoom position is changed from FIG. 7A with the same photographing lens 102 as FIG. 7A. It is. In FIG. 7B, the amount of change in magnification when the focus lens 103 is moved by the same defocus amount as in FIG. 7A is smaller than that in FIG. 7A. In this way, in the case of a zoom lens, a function representing a plurality of magnification fluctuations for a plurality of zoom positions, and in the case of a single focus lens, a function representing a single magnification fluctuation is given to the lens CPU 105 as magnification fluctuation information. The CPU 101 calculates the fluctuation amount of the magnification.

S105では、S104にて算出したウォブリング動作時に生じる倍率変動量が、所定値と比較する。ここで、所定値とは使用している撮像装置100にて、ウォブリング動作に伴う倍率変動が目立たない範囲での倍率変動量であり、任意の数値を撮像装置100内のCPU101にあらかじめ記憶させている。S105にて倍率変動量が所定値以下、つまりウォブリング動作を行っても倍率変動による撮影画像の品質が低下しないと判断された場合は、S109にて第一のAF方式を採用し、被写体に対して合焦させる。   In S105, the magnification fluctuation amount generated during the wobbling operation calculated in S104 is compared with a predetermined value. Here, the predetermined value is a magnification fluctuation amount in a range in which the magnification fluctuation due to the wobbling operation is not conspicuous in the imaging apparatus 100 being used, and an arbitrary numerical value is stored in the CPU 101 in the imaging apparatus 100 in advance. Yes. If it is determined in S105 that the amount of magnification variation is equal to or less than a predetermined value, that is, it is determined that the quality of the photographed image due to the variation in magnification does not deteriorate even if a wobbling operation is performed, the first AF method is adopted in S109 to To focus.

一方、S105にて倍率変動量が所定値以上、つまりウォブリング動作を行うと倍率変動による撮影画像の品質低下がおこる恐れがある場合は、S106へと進む。S106では第二のAF方式を行った際の、AF精度の確認を行う。精度の確認方法に関して、本実施例では、一対の像信号に関する情報を用いて求められる、信頼度を示す評価値として、特開2007−052072号公報にて開示されているSレベル(SELECTLEVEL)値SLを用いる。Sレベル値SLは、一対の像信号に関する情報として、該一対の像信号の一致度U、エッジの数(相関変化量ΔV)、シャープネスSHおよび明暗比PBDとをパラメータとする値であり、以下の式のように表される。   On the other hand, if the magnification fluctuation amount is greater than or equal to the predetermined value in S105, that is, if the wobbling operation is performed, there is a possibility that the quality of the photographed image is deteriorated due to the magnification fluctuation, the process proceeds to S106. In S106, the AF accuracy is confirmed when the second AF method is performed. With respect to the accuracy confirmation method, in this embodiment, an S level (SELECTLEVEL) value disclosed in Japanese Patent Application Laid-Open No. 2007-052072 is used as an evaluation value indicating reliability, which is obtained using information on a pair of image signals. SL is used. The S level value SL is a value using, as parameters, a matching degree U, a number of edges (correlation change ΔV), a sharpness SH, and a light / dark ratio PBD as a pair of image signals. It is expressed as

なお、一対の像信号に関する情報とは、必ずしも一対の像信号の双方に関する情報でなくてもよく、いずれか一方の像信号に関する情報であってもよい。また、一致度U、相関変化量ΔV、シャープネスSHおよび明暗比PBDについては、一対の像信号から得られる情報と言い換えてもよい。   Note that the information related to the pair of image signals may not necessarily be information related to both of the pair of image signals, and may be information related to any one of the image signals. Further, the degree of coincidence U, the correlation change amount ΔV, the sharpness SH, and the contrast ratio PBD may be paraphrased as information obtained from a pair of image signals.

ここで、一致度Uは、その値が小さいほど信頼度が高い。相関変化量ΔVは、その値が大きいほど信頼度が高い。また、シャープネスSHは、その値が大きいほど信頼度が高い。明暗比PBDは、その値が大きいほど信頼度が高い。このため、一致度Uを分子とし、相関変化量ΔV、シャープネスSHおよび明暗比PBDの積を分母とすることで、各パラメータにて信頼度が高い場合にSレベル値SLが小さくなるように定義している。   Here, the degree of coincidence U is higher in reliability as the value is smaller. The larger the value of the correlation change amount ΔV, the higher the reliability. The sharpness SH is more reliable as the value thereof is larger. The greater the value of the light / dark ratio PBD, the higher the reliability. Therefore, by defining the degree of coincidence U as the numerator and the product of the correlation change amount ΔV, the sharpness SH, and the light / dark ratio PBD as the denominator, the S level value SL is defined to be small when the reliability is high for each parameter. doing.

一致度Uについて説明する。一対の被写体像を、焦点検出画素群107bで光電変換すると、一対の像信号が得られる。この一対の像信号のそれぞれを、以下、A像およびB像という。ここでは、一致度の説明を分かりやすくするため、A像とB像のどちらかにゴースト光等の不要光が入射し、A像とB像が互いに同じ形状にならなかった場合について説明する。そして、A像とB像は形状が異なるため、合焦状態でも一致しない部分が生じる。この一致しない部分の面積を、一致度として定義する。   The coincidence degree U will be described. When a pair of subject images is photoelectrically converted by the focus detection pixel group 107b, a pair of image signals is obtained. Each of the pair of image signals is hereinafter referred to as an A image and a B image. Here, for easy understanding of the degree of coincidence, a case where unnecessary light such as ghost light is incident on one of the A and B images and the A and B images do not have the same shape will be described. Since the A image and the B image have different shapes, a portion that does not match even in a focused state is generated. The area of this non-matching part is defined as the matching degree.

焦点検出画素群107bの受光素子の数をNとし、合焦時のA像とB像のi番目の画素の出力をa[i],b[i]すると、一致度Uは下記のように表せる。   When the number of light receiving elements in the focus detection pixel group 107b is N, and the outputs of the i-th pixel of the A image and the B image at the time of focusing are a [i] and b [i], the matching degree U is as follows: I can express.

式(1)に示すように、A像とB像の画素出力差の絶対和を一致度Uと定義することで、A像とB像の一致度合いを的確に表現することができる。A像とB像の一致度が低い場合には一致度Uは大きくなり、A像とB像の一致度が高い場合には、一致度Uは小さくなる。   As shown in Expression (1), the degree of coincidence between the A image and the B image can be accurately expressed by defining the absolute sum of the pixel output differences between the A image and the B image as the coincidence degree U. When the coincidence between the A image and the B image is low, the coincidence U increases, and when the coincidence between the A image and the B image is high, the coincidence U decreases.

次に、エッジの数、すなわち相関変化量ΔVについて説明する。エッジの数を示すパラメータとして、相関演算において算出される相関変化量を用いる。合焦状態でのA像とB像の相関量に対する合焦状態から1画素ずつずらした状態でのA像とB像の相関量の変化量が相関変化量に相当する。合焦状態でのA像およびB像の相関量をV1とし、合焦状態から1画素ずつずらした状態でのA像およびB像の相関量をV2とすると、相関変化量ΔVは以下のように求められる。   Next, the number of edges, that is, the correlation change amount ΔV will be described. The correlation change amount calculated in the correlation calculation is used as a parameter indicating the number of edges. The amount of change in the correlation amount between the A image and the B image in a state shifted by one pixel from the in-focus state with respect to the correlation amount between the A image and the B image in the focused state corresponds to the correlation change amount. When the correlation amount between the A image and the B image in the focused state is V1, and the correlation amount between the A image and the B image in the state shifted by one pixel from the focused state is V2, the correlation change amount ΔV is as follows: Is required.

相関変化量ΔVは、合焦状態から1画素分ずれることで、A像とB像のエッジが一致した状態からずれた状態に移行したことにより生じる一致しない部分の面積である。このため、A像とB像のエッジの数が増えると、ずれたことにより生じる一致しない部分の面積も増える。このことから相関変化量ΔVはエッジの数を表すパラメータとして適切であることが分かる。なお、ずらし量は、1画素より多くてもよい。   The correlation change amount ΔV is an area of a non-matching portion generated by shifting from a state where the edges of the A image and the B image are shifted from a state where they are shifted by one pixel from the focused state. For this reason, when the number of edges of the A image and the B image increases, the area of the non-matching portion caused by the deviation also increases. From this, it is understood that the correlation change amount ΔV is appropriate as a parameter representing the number of edges. Note that the shift amount may be larger than one pixel.

次に、シャープネスSHについて説明する。本実施例でいうシャープネスとは、A像とB像の信号値があるボトム値からピーク値に変化するときに、急峻に値が変わるか徐々に値が変わるかを表す。本実施例では、シャープネスをA像とB像から得られる1次コントラスト評価値C1と2次コントラスト評価値C2の比とする。1次コントラスト評価値とは、A像とB像における隣接画素の出力差の絶対値の和とし、2次コントラスト評価値とは、A像とB像における隣接画素の出力差の二乗和とする。焦点検出画素群107bの画素列の数をNとし、合焦状態でのA像とB像のi番目の画素出力をa[i],b[i]とすると、1次コントラスト評価値C1および2次コントラスト評価値C2は以下のように表せる。MAXは、{}内の2つのうち大きい方の意味である。   Next, the sharpness SH will be described. The sharpness referred to in the present embodiment represents whether the value changes sharply or gradually when the signal values of the A and B images change from a certain bottom value to a peak value. In the present embodiment, the sharpness is a ratio between the primary contrast evaluation value C1 and the secondary contrast evaluation value C2 obtained from the A image and the B image. The primary contrast evaluation value is the sum of absolute values of output differences between adjacent pixels in the A and B images, and the secondary contrast evaluation value is the sum of squares of output differences between adjacent pixels in the A and B images. . When the number of pixel columns of the focus detection pixel group 107b is N and the i-th pixel outputs of the A and B images in the focused state are a [i] and b [i], the primary contrast evaluation value C1 and The secondary contrast evaluation value C2 can be expressed as follows. MAX means the larger of the two in {}.

1次コントラスト評価値C1は、隣接画素の出力差の絶対和であるため、信号波形のエッジ部分から得られる1次コントラスト評価値C1は、エッジ部の階調変化が急峻であってもなだらかであっても、エッジ部のピーク値とボトム値が同じであれば同じとなる。例えば、半分が白、半分が黒、境界線で白と黒が接しているような被写体から得られる1次コントラスト評価値C1と、一方端が白、他方端が黒、白端から黒端にかけてなだらかに色味が変化するような被写体から得られる1次コントラスト評価値C1とは同じである。   Since the primary contrast evaluation value C1 is an absolute sum of output differences between adjacent pixels, the primary contrast evaluation value C1 obtained from the edge portion of the signal waveform is gentle even if the gradation change of the edge portion is steep. Even if it exists, it will be the same if the peak value and the bottom value of the edge part are the same. For example, the primary contrast evaluation value C1 obtained from a subject in which half is white, half is black, and white and black are in contact with the boundary line, is white at one end, black at the other end, and from the white end to the black end. This is the same as the primary contrast evaluation value C1 obtained from a subject whose color changes gently.

一方、2次コントラスト評価値C2は、隣接画素の出力差の二乗和であるため、階調変化が急峻なエッジ部から得られるものは、階調変化がなだらかなエッジ部から得られるものよりも大きくなる。これは式(6)からも明らかである。このため、2次コントラスト評価値C2に基づいてエッジ部の階調変化の大きさを推定することは適切である。被写体像のシャープネスをSHとすると、シャープネスSHは、1次コントラスト評価値C1、2次コントラスト評価値C2の比として以下のように表せる。   On the other hand, since the secondary contrast evaluation value C2 is the sum of squares of the output differences of adjacent pixels, what is obtained from the edge portion where the gradation change is steep is more than that obtained from the edge portion where the gradation change is gentle. growing. This is also clear from equation (6). For this reason, it is appropriate to estimate the magnitude of the gradation change of the edge portion based on the secondary contrast evaluation value C2. When the sharpness of the subject image is SH, the sharpness SH can be expressed as a ratio of the primary contrast evaluation value C1 and the secondary contrast evaluation value C2 as follows.

ここで、2次コントラスト評価値C2でシャープネスSHを表現せず、1次コントラスト評価値C1で割った値とするのは、エッジの数の影響を除去するためである。例えば、半分が白、半分が黒、境界線で白と黒が接しているような被写体から得られる2次コントラスト評価値をC2_1、両端が黒、中央が白、白と黒が2つの境界線で接しているような被写体から得られる2次コントラスト評価値をC2_2とする。   Here, the reason why the sharpness SH is not expressed by the secondary contrast evaluation value C2 and is divided by the primary contrast evaluation value C1 is to remove the influence of the number of edges. For example, C2_1 is a secondary contrast evaluation value obtained from a subject in which half is white, half is black, and white and black are bordered by a boundary line, both ends are black, the center is white, and white and black are two boundary lines. Let C2_2 be the secondary contrast evaluation value obtained from the subject that is in contact with.

シャープネスとは、A像とB像があるボトム値からピーク値に変化するときに、急峻に値が変わるか、徐々に値が変わっていくかを表しているものであるため、エッジの数が1本であろうと2本であろうと、同じ値になるべきである。今、2次コントラスト評価値C2_1と2次コントラスト評価値C2_2との間には以下の関係が成り立つ。   Sharpness represents whether the value changes sharply or gradually when the A image and B image change from a certain bottom value to a peak value. Whether it is one or two, it should be the same value. Now, the following relationship is established between the secondary contrast evaluation value C2_1 and the secondary contrast evaluation value C2_2.

式(8)に示すように、2次コントラスト評価値C2は、エッジの数が増えると、その分だけ増えてしまう。そのため、2次コントラスト評価値C2だけでシャープネスを表現するのは不適切である。そこでエッジの数の影響をなくすため、1次コントラスト評価値C1で割って正規化する。半分が白、半分が黒、境界線で白と黒が接しているような被写体から得られる1次コントラスト評価値をC1_1、両端が黒、中央が白で白と黒が2つの境界線で接しているような被写体から得られる1次コントラスト評価値をC1_2とすると、次の関係が成り立つ。   As shown in Expression (8), the secondary contrast evaluation value C2 increases as the number of edges increases. Therefore, it is inappropriate to express the sharpness only by the secondary contrast evaluation value C2. Therefore, in order to eliminate the influence of the number of edges, normalization is performed by dividing by the primary contrast evaluation value C1. C1_1 is a primary contrast evaluation value obtained from a subject in which half is white, half is black, and white and black meet at the boundary, black at both ends, white at the center, and white and black meet at two boundaries If the primary contrast evaluation value obtained from such a subject is C1_2, the following relationship is established.

また、半分が白、半分が黒で境界線で白と黒が接しているような被写体から得られるシャープネスをSH_1、両端が黒、中央が白、白と黒が2つの境界線で接しているような被写体から得られるシャープネスをSH_2とすると、以下の通り表せる。   In addition, the sharpness obtained from a subject in which half is white, half is black, and white and black are in contact with the boundary line is SH_1, both ends are black, the center is white, and white and black are in contact with two boundary lines. When the sharpness obtained from such a subject is SH_2, it can be expressed as follows.

式(11)に式(8)と式(9)を代入すると、SH_2は以下の通り表せる。   When Expression (8) and Expression (9) are substituted into Expression (11), SH_2 can be expressed as follows.

式(12)から、半分が白、半分が黒で境界線で白と黒が接しているような被写体から得られるシャープネスSH_1と、両端が黒、中央が白で白と黒が2つの境界線で接しているような被写体から得られるシャープネスSH_2は、同じであることがわかる。同様に考えることで、エッジの数がいくつ増えても、シャープネスSHの値は変わらないことが分かる。   From equation (12), sharpness SH_1 obtained from a subject in which half is white, half is black, and white and black are in contact with the border, and two borders are black at both ends, white at the center, and white and black It can be seen that the sharpness SH_2 obtained from the subject in contact with is the same. From the same consideration, it can be seen that the value of the sharpness SH does not change no matter how many edges are added.

以上のことから、1次コントラスト評価値と2次コントラスト評価値の比をシャープネスとすることで、被写体像のシャープネスを的確に表現することができる。   From the above, the sharpness of the subject image can be accurately expressed by setting the ratio between the primary contrast evaluation value and the secondary contrast evaluation value as sharpness.

次に、明暗比PBDについて説明する。本実施例にいう明暗比PBDとは、被写体像の濃淡がはっきりしているかどうかを表すパラメータである。具体的には、被写体像(信号値)のボトム値からピーク値までの高さが、センサ出力のダーク値からピーク値までの高さに比べてどれだけの大きさになっているかを表している。   Next, the light / dark ratio PBD will be described. The brightness / darkness ratio PBD referred to in the present embodiment is a parameter indicating whether the density of the subject image is clear. Specifically, it indicates how much the height from the bottom value to the peak value of the subject image (signal value) is larger than the height from the dark value to the peak value of the sensor output. Yes.

合焦状態でのA像のダーク値、ボトム値、ピーク値をそれぞれ、DARK_A,BOTTOM_A,PEAK_Aとし、B像のダーク値、ボトム値、ピーク値をDARK_B,BOTTOM_B,PEAK_Bとする。この場合、A像から得られる明暗比PBD_Aと、B像から得られる明暗比PBD_Bは下記の通りに表せる。   The dark value, bottom value, and peak value of the A image in the focused state are DARK_A, BOTTOM_A, and PEAK_A, respectively, and the dark value, bottom value, and peak value of the B image are DARK_B, BOTTOM_B, and PEAK_B. In this case, the light / dark ratio PBD_A obtained from the A image and the light / dark ratio PBD_B obtained from the B image can be expressed as follows.

上記のようにA像とB像それぞれから得られた明暗比のうち、大きい方を明暗比PBDとして定義する。   Of the light / dark ratios obtained from the A and B images as described above, the larger one is defined as the light / dark ratio PBD.

式(15)に示した明暗比PBDにより、被写体像のボトム値からピーク値までの高さが、センサ出力のダーク値からピーク値までの高さに比べて、どれだけの大きさになっているかを表現することができる。式(15)から分かるように、明暗比PBDは0以上1以下の数字となる。明暗比PBDが1に近い場合は、被写体像のボトム値からピーク値までの高さとセンサ出力のダーク値からピーク値までの高さがほぼ同じであることを意味する。この場合は、濃淡のはっきりした被写体像であると判定する。   According to the light / dark ratio PBD shown in Expression (15), the height from the bottom value to the peak value of the subject image becomes larger than the height from the dark value to the peak value of the sensor output. Can be expressed. As can be seen from Equation (15), the light / dark ratio PBD is a number between 0 and 1. When the light / dark ratio PBD is close to 1, it means that the height from the bottom value to the peak value of the subject image is substantially the same as the height from the dark value to the peak value of the sensor output. In this case, it is determined that the subject image is clear.

逆に、明暗比が0に近い場合は、ボトム値からピーク値までの高さがダーク値からピーク値までの高さに比べて非常に小さいことを意味する。この場合は、濃淡がはっきりしない被写体であると判定する。   On the contrary, when the contrast ratio is close to 0, it means that the height from the bottom value to the peak value is very small compared to the height from the dark value to the peak value. In this case, it is determined that the subject is not clear.

以上のように、被写体像のダーク値、ボトム値、ピーク値に基づいて算出した明暗比PBDを用いることで、被写体像が濃淡のはっきりしたものであるかどうかを的確に判定できる。   As described above, by using the light / dark ratio PBD calculated based on the dark value, the bottom value, and the peak value of the subject image, it can be accurately determined whether or not the subject image is clear.

本実施例では、上述したSレベル値SLを信頼度の評価値として用いることで、位相差AFの精度を判定することができる。つまり、Sレベル値SLを用いて信頼度が高いと判定されれば、そのときの被写体は第二のAF方式を用いても、精度の高い合焦状態が得られるはずである。したがって、Sレベル値SLを第二のAF方式の精度判定の値として使用することにより、第二のAF方式のAF精度の判定を行うこととする。   In the present embodiment, the accuracy of the phase difference AF can be determined by using the above-described S level value SL as the reliability evaluation value. That is, if it is determined that the reliability is high using the S level value SL, the subject at that time should be able to obtain a highly accurate in-focus state even if the second AF method is used. Therefore, by using the S level value SL as the accuracy determination value of the second AF method, the AF accuracy of the second AF method is determined.

S107では、S106での第二のAF方式の精度確認の結果を受け、精度つまり、Sレベル値SLが所定値以上であるかを判定する。ここでの所定値とは、主被写体がボケない範囲でのAF精度のことであり、任意の数値を撮像装置100内のCPU101にあらかじめ記憶させ、比較を行う。S107にて、第二のAF方式の精度が所定値以内、つまり主被写体に精度よく合焦可能であると判断された場合、S107にて第二の位相差AFの動作を開始し、被写体へと焦点を合わせる。S107にて第二のAF方式の精度が所定値以下、つまり主被写体に合焦精度が出ない可能性ありと判断された場合、焦点検出をさせることを優先させ、S109にてS103で算出した、ウォブリングに必要なデフォーカス量にて第一のAF方式での合焦動作を開始し、合焦を行う。   In S107, the result of the accuracy check of the second AF method in S106 is received, and it is determined whether the accuracy, that is, the S level value SL is equal to or greater than a predetermined value. The predetermined value here is AF accuracy in a range where the main subject is not blurred, and an arbitrary numerical value is stored in advance in the CPU 101 in the imaging apparatus 100 and compared. If it is determined in S107 that the accuracy of the second AF method is within a predetermined value, that is, it is possible to focus on the main subject with high accuracy, the operation of the second phase difference AF is started in S107, and the subject is moved to the subject. And focus on. If it is determined in S107 that the accuracy of the second AF method is equal to or lower than a predetermined value, that is, the main subject may not be in focus, priority is given to focus detection, and the calculation in S103 is performed in S109. The focusing operation in the first AF method is started with the defocus amount necessary for wobbling, and focusing is performed.

なお、本実施形態では、図6のフローチャートS105にて倍率変動量が大きく、かつS107にて第二のAF方式精度がNGとなった場合、第一のAF方式にて合焦させることを優先させるようなフローとなっているが、ユーザーに対し警告をおこなってもよい。   In the present embodiment, when the amount of magnification fluctuation is large in the flowchart S105 of FIG. 6 and the accuracy of the second AF method becomes NG in S107, priority is given to focusing with the first AF method. However, the user may be warned.

本実施形態では、撮像面でのAFを行う際に、フォーカス駆動時の倍率変動を算出し、倍率変動が小さい際は、ウォブリング動作を行うことで、ピントの合った良好な画像の取得が可能であり、倍率変動が大きいときには、撮像面位相差AFを使用することで、ピントが合い、かつスピーディに合焦動作を行うことが可能となる。   In this embodiment, when AF on the imaging surface is performed, the magnification fluctuation at the time of focus drive is calculated, and when the magnification fluctuation is small, a good image in focus can be acquired by performing a wobbling operation. When the magnification fluctuation is large, the imaging surface phase difference AF is used, and it is possible to focus and perform the focusing operation speedily.

100 撮像装置
101 CPU
102 撮影レンズ
103 フォーカスレンズ
105 レンズCPU
106 撮像素子
107a 撮像画素群
107b 焦点検出画素群
302 焦点検出部
100 Imaging device 101 CPU
102 Shooting Lens 103 Focus Lens 105 Lens CPU
106 Imaging element 107a Imaging pixel group 107b Focus detection pixel group 302 Focus detection unit

Claims (4)

撮影光学系(102)で撮像素子(106)上に被写体を結像させて前記被写体を表す画像を生成する撮像装置(100)において、前記撮影光学系(102)が、移動によりピント調整を行うフォーカスレンズ(103)を含むものであって、前記フォーカスレンズ(103)を移動させながら前記撮像素子(106)で得られた画像のコントラストを検知して合焦位置の検出を行い、ウォブリング動作を行って合焦の方向を認識しながら、前記フォーカスレンズ(103)を合焦方向へと移動させ合焦位置を検出するウォブリングモードを有するコントラストAFによる第一の焦点検出手段と、前記撮像素子に離散的に配置された焦点検出画素による第二の焦点検出手段とを備え、
前記第一の焦点検出手段のウォブリング動作による、前記撮影光学系の倍率変動が所定範囲より小さい場合には、前記第一の焦点検出手段による焦点検出を、前記撮影光学系の倍率変動が所定範囲より大きい場合には、前記第二の焦点検出手段による焦点検出を行うことを特徴とする撮像装置。
In the imaging apparatus (100) that forms an image of a subject on the imaging element (106) by the imaging optical system (102) and generates an image representing the subject, the imaging optical system (102) performs focus adjustment by movement. A focus lens (103) is included, the focus position is detected by detecting the contrast of the image obtained by the image sensor (106) while moving the focus lens (103), and the wobbling operation is performed. A first focus detection means using contrast AF having a wobbling mode for detecting the in-focus position by moving the focus lens (103) in the in-focus direction while recognizing the in-focus direction; Second focus detection means by discretely arranged focus detection pixels,
When the magnification variation of the photographing optical system due to the wobbling operation of the first focus detection unit is smaller than a predetermined range, the focus detection by the first focus detection unit is performed, and the magnification variation of the photographing optical system is within the predetermined range. If larger, an imaging apparatus that performs focus detection by the second focus detection means.
前記撮影光学系(102)の絞り(104)、倍率変動情報により、ウォブリング動作に伴う倍率変動量を算出することを特徴とする請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, wherein a magnification fluctuation amount associated with a wobbling operation is calculated from an aperture (104) and magnification fluctuation information of the photographing optical system (102). 前記第二の焦点検出手段による焦点検出精度を判定し、前記第二の焦点検出方法精度が所定値以上の場合は、前記第二の焦点検出手段による焦点検出を、精度が所定値以下である場合は、前記第一の焦点検出手段による焦点検出を行うことを特徴とする請求項1に記載の撮像装置。 The focus detection accuracy by the second focus detection means is determined, and when the accuracy of the second focus detection method is equal to or greater than a predetermined value, the accuracy of focus detection by the second focus detection means is less than a predetermined value. The imaging apparatus according to claim 1, wherein focus detection is performed by the first focus detection unit. 前記第二の焦点検出手段による焦点検出精度を判定し、前記第二の焦点検出方法精度が所定値以上の場合は、前記第二の焦点検出手段による焦点検出を、精度が所定値以下である場合は、警告表示を行うことを特徴とする請求項1に記載の撮像装置。 The focus detection accuracy by the second focus detection means is determined, and when the accuracy of the second focus detection method is equal to or greater than a predetermined value, the accuracy of focus detection by the second focus detection means is less than a predetermined value. The imaging apparatus according to claim 1, wherein a warning display is performed.
JP2014026000A 2014-02-14 2014-02-14 Imaging device and control method of the same Pending JP2015152749A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014026000A JP2015152749A (en) 2014-02-14 2014-02-14 Imaging device and control method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014026000A JP2015152749A (en) 2014-02-14 2014-02-14 Imaging device and control method of the same

Publications (1)

Publication Number Publication Date
JP2015152749A true JP2015152749A (en) 2015-08-24

Family

ID=53895068

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014026000A Pending JP2015152749A (en) 2014-02-14 2014-02-14 Imaging device and control method of the same

Country Status (1)

Country Link
JP (1) JP2015152749A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017219855A (en) * 2017-08-03 2017-12-14 株式会社ニコン Imaging device
JP2018031916A (en) * 2016-08-25 2018-03-01 キヤノン株式会社 Focus adjustment device, its control method, and program
JP2018056703A (en) * 2016-09-27 2018-04-05 キヤノン株式会社 Imaging device and imaging apparatus
CN112235503A (en) * 2019-07-15 2021-01-15 北京字节跳动网络技术有限公司 Focusing test method and device, computer equipment and storage medium
WO2022000258A1 (en) * 2020-06-30 2022-01-06 深圳市大疆创新科技有限公司 Focusing method and apparatus, electronic device, and computer readable medium

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018031916A (en) * 2016-08-25 2018-03-01 キヤノン株式会社 Focus adjustment device, its control method, and program
JP2018056703A (en) * 2016-09-27 2018-04-05 キヤノン株式会社 Imaging device and imaging apparatus
US11356595B2 (en) 2016-09-27 2022-06-07 Canon Kabushiki Kaisha Image sensor and imaging apparatus for outputting image data by discriminating whether to add a result of AF calculation to a captured image data
JP2017219855A (en) * 2017-08-03 2017-12-14 株式会社ニコン Imaging device
CN112235503A (en) * 2019-07-15 2021-01-15 北京字节跳动网络技术有限公司 Focusing test method and device, computer equipment and storage medium
WO2022000258A1 (en) * 2020-06-30 2022-01-06 深圳市大疆创新科技有限公司 Focusing method and apparatus, electronic device, and computer readable medium

Similar Documents

Publication Publication Date Title
JP5183715B2 (en) Image processing apparatus and image processing method
JP5618712B2 (en) Automatic focusing device and imaging device
US20120300116A1 (en) Image pickup apparatus and control method therefor
JP2009175528A (en) Focus-adjusting apparatus and imaging apparatus
JP5366643B2 (en) Imaging device
JP5896763B2 (en) Optical instrument and method for autofocusing
US9060119B2 (en) Image capturing apparatus and control method for image capturing apparatus
JP2012234152A (en) Imaging apparatus and control method thereof
JP2015152749A (en) Imaging device and control method of the same
JP5963552B2 (en) Imaging device
JP6381434B2 (en) FOCUS CONTROL DEVICE, OPTICAL DEVICE, AND FOCUS CONTROL METHOD
JP2010109923A (en) Imaging apparatus
JP6501536B2 (en) Imaging device, control method therefor, program, storage medium
JP6346484B2 (en) Image processing apparatus and control method thereof
JP2013186293A (en) Image generation device and image display method
US9924089B2 (en) Image capturing apparatus, method of displaying image, and storage medium storing program
JP2018180135A (en) Imaging device
JP6501512B2 (en) Focus control apparatus, focus control method and focus control program
JP2012118154A (en) Imaging device
JP5590850B2 (en) Imaging device and focus control method of imaging device
JP5018932B2 (en) Imaging device
JP6530610B2 (en) Focusing device, imaging device, control method of focusing device, and program
JP5352003B2 (en) Image processing apparatus and image processing method
JP6005955B2 (en) Photometric device and imaging device
JP2016114721A (en) Imaging apparatus and method of controlling the same