JP7282598B2 - Control device, imaging device, control method, and program - Google Patents

Control device, imaging device, control method, and program Download PDF

Info

Publication number
JP7282598B2
JP7282598B2 JP2019100586A JP2019100586A JP7282598B2 JP 7282598 B2 JP7282598 B2 JP 7282598B2 JP 2019100586 A JP2019100586 A JP 2019100586A JP 2019100586 A JP2019100586 A JP 2019100586A JP 7282598 B2 JP7282598 B2 JP 7282598B2
Authority
JP
Japan
Prior art keywords
image blur
focus detection
blur correction
image
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019100586A
Other languages
Japanese (ja)
Other versions
JP2020194123A (en
Inventor
彰宏 西尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019100586A priority Critical patent/JP7282598B2/en
Publication of JP2020194123A publication Critical patent/JP2020194123A/en
Application granted granted Critical
Publication of JP7282598B2 publication Critical patent/JP7282598B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、位相差検出方式の焦点検出を行う撮像装置に関する。 The present invention relates to an imaging apparatus that performs focus detection using a phase difference detection method.

近年、手持ち撮影における像ブレを低減させるため、像ブレ補正部材を用いて、像ブレに応じて像ブレ補正部材の移動制御を行うことで像ブレ補正をして高品位画像を取得する撮像装置が知られている。また、ライブビュー撮影において、合焦速度の高速化のため、撮像素子の撮像面に焦点検出画素を配置して位相差検出方式の焦点検出を行うことが可能な撮像装置が提案されている。このような撮像装置では、相関演算で得られる像ズレ量をフォーカス移動量に換算するための基線長情報に正確性が求められる。しかしながら、像ブレ補正部材の移動が原因で被写体の焦点状態が変化していないにも関わらず、像ズレ量が変化する場合がある。 In recent years, in order to reduce image blurring in hand-held shooting, an imaging device acquires a high-quality image by using an image blurring correction member and controlling the movement of the image blurring correction member according to the image blurring. It has been known. Also, in order to increase the focusing speed in live view photography, an imaging apparatus has been proposed that is capable of phase-difference detection type focus detection by arranging focus detection pixels on the imaging surface of an imaging element. In such an imaging apparatus, accuracy is required for base line length information for converting the amount of image shift obtained by correlation calculation into the amount of focus movement. However, due to the movement of the image blur correction member, the image shift amount may change even though the focus state of the subject does not change.

特許文献1には、像ズレ量情報を用いてフォーカスを行うためにデフォーカス量に変化させる基線長情報を補正し、正確なフォーカス駆動量を得る焦点調節方法が開示されている。 Japanese Unexamined Patent Application Publication No. 2002-100001 discloses a focus adjustment method that obtains an accurate focus driving amount by correcting base line length information that is changed to a defocus amount for focusing using image shift amount information.

特許第6210824号公報Japanese Patent No. 6210824

しかしながら、特許文献1のように基線長情報の補正をリアルタイムに行うと、信号処理の負荷が増大する。また、情報伝達の遅延が発生すると、正確な補正ができないため、フォーカス駆動に誤動作を生じる可能性がある。また、像ブレ補正部材の移動量が大きい状態では、補正後の基線長が短くなり過ぎ、正確なフォーカス駆動量を得るのが困難となる場合がある。 However, if the baseline length information is corrected in real time as in Patent Document 1, the load of signal processing increases. Further, if a delay in information transmission occurs, accurate correction cannot be performed, so there is a possibility that malfunction may occur in focus driving. In addition, when the amount of movement of the image blur correction member is large, the length of the base line after correction becomes too short, which may make it difficult to obtain an accurate focus drive amount.

そこで本発明は、簡素な構成で、像ブレ補正の際のフォーカス駆動量の誤差を低減して合焦速度の低下を抑制することが可能な制御装置、撮像装置、制御方法、および、プログラムを提供することを目的とする。 Accordingly, the present invention provides a control device, an imaging device, a control method, and a program capable of suppressing a decrease in focusing speed by reducing errors in the amount of focus driving during image blur correction with a simple configuration. intended to provide

本発明の一側面としての制御装置は、撮像光学系の第1の瞳領域を通過した光束から得られる第1の像信号と、前記撮像光学系の第2の瞳領域を通過した光束から得られる第2の像信号との相関量に基づいて焦点検出を行う焦点検出手段と、前記焦点検出の結果に基づいて、合焦制御を行うためのフォーカス駆動量を算出する算出手段と、像ブレ補正部材の移動により像ブレ補正を行う補正手段と、前記像ブレ補正部材の前記移動による合焦精度の変化に関する情報を取得する取得手段とを有し、前記補正手段は、前記情報を用いて前記像ブレ補正部材の移動制御を行い、前記算出手段は、前記像ブレ補正部材の移動制御後の前記焦点検出の結果に基づいて、前記フォーカス駆動量を算出し、前記情報は、前記焦点検出の結果に基づいて取得された被写体の像ボケ量情報を含む
A control device as one aspect of the present invention provides a first image signal obtained from a light flux that has passed through a first pupil region of an imaging optical system, and a light flux that has passed through a second pupil region of the imaging optical system. focus detection means for performing focus detection based on the amount of correlation with a second image signal obtained; calculation means for calculating a focus drive amount for performing focus control based on the result of the focus detection; Correcting means for correcting image blur by moving a correcting member; and Acquiring means for acquiring information about changes in focusing accuracy due to the movement of the image blur correcting member, wherein the correcting means uses the information. The movement of the image blur correction member is controlled, the calculation means calculates the focus drive amount based on the result of the focus detection after the movement control of the image blur correction member , and the information is the focus detection. contains image blur amount information of the subject acquired based on the result of .

本発明の他の目的及び特徴は、以下の実施形態において説明される。 Other objects and features of the invention are described in the following embodiments.

本発明によれば、簡素な構成で、像ブレ補正の際のフォーカス駆動量の誤差を低減して合焦速度の低下を抑制することが可能な制御装置、撮像装置、制御方法、および、プログラムを提供することができる。 According to the present invention, a control device, an imaging device, a control method, and a program capable of suppressing a decrease in focusing speed by reducing errors in the amount of focus driving during image blur correction with a simple configuration. can be provided.

本実施形態における撮像装置のブロック図である。1 is a block diagram of an imaging device according to this embodiment; FIG. 本実施形態における撮像素子の画素配列図である。FIG. 2 is a pixel array diagram of an imaging device according to the present embodiment; 本実施形態における変形例としての撮像素子の画素配列図である。It is a pixel arrangement diagram of an imaging device as a modification of the present embodiment. 本実施形態における別の変形例としての撮像素子の画素配列図である。FIG. 10 is a pixel array diagram of an imaging device as another modified example of the present embodiment; 本実施形態における焦点検出画素の受光角度と出力信号強度との関係を示す特性グラフである。4 is a characteristic graph showing the relationship between the light-receiving angle of the focus detection pixels and the output signal intensity in the embodiment; 本実施形態における1対の焦点検出用画素群の電気信号状態と焦点検出画素の受光角度範囲の像ズレ位置との関係を示す図である。4 is a diagram showing the relationship between the electrical signal state of a pair of focus detection pixel groups and the image shift position in the light receiving angle range of the focus detection pixels in the embodiment; FIG. 本実施形態における補正レンズ移動方式の像ブレ補正を行う撮像装置の説明図である。FIG. 2 is an explanatory diagram of an imaging apparatus that performs image blur correction using a correction lens movement method according to the present embodiment; 図7(A)~(C)の各状態に対応する像高HGTの焦点検出画素へ入射する射出瞳の分割形状と一対の像ズレ信号における像ズレ量を示す図である。7A to 7C are diagrams showing the divided shape of the exit pupil for incident light on the focus detection pixel at the image height HGT and the amount of image shift in a pair of image shift signals corresponding to each state of FIGS. 7A to 7C; FIG. 本実施形態における撮像素子移動方式の像ブレ補正を行う撮像装置の説明図である。FIG. 2 is an explanatory diagram of an image pickup apparatus that performs image blur correction by moving an image pickup element according to the present embodiment; 図9(A)の状態における各像高の焦点検出画素の受光状態の説明図である。FIG. 10 is an explanatory diagram of light receiving states of focus detection pixels at respective image heights in the state of FIG. 9A; 図9(B)の状態における各像高の焦点検出画素の受光状態の説明図である。FIG. 10 is an explanatory diagram of light receiving states of focus detection pixels at respective image heights in the state of FIG. 9B; 本実施形態における像ブレ補正後の焦点検出画素の受光角度と出力信号強度との関係を示す特性グラフである。4 is a characteristic graph showing the relationship between the light-receiving angle of the focus detection pixel and the output signal intensity after image blur correction in the embodiment. 本実施形態における撮像素子の移動に伴う焦点検出画素へ入射する射出瞳の分割形状と一対の像ズレ信号における像ズレ量を示す図である。FIG. 10 is a diagram showing the divided shape of the exit pupil incident on the focus detection pixel and the amount of image shift in a pair of image shift signals as the imaging device moves according to the present embodiment. 本実施形態における像ボケ量と像ブレ補正部材位置を異ならせて、基線長情報が誤差を生じた際のデフォーカス遷移状態を比較したグラフである。7 is a graph comparing defocus transition states when an error occurs in base line length information by varying the amount of image blur and the position of the image blur correction member in the present embodiment. 本実施形態における制御方法を示すフローチャートである。4 is a flow chart showing a control method in this embodiment. 本実施形態における制御方法を示すフローチャートである。4 is a flow chart showing a control method in this embodiment.

以下、本発明の実施形態について、図面を参照しながら詳細に説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

まず、図1を参照して、本実施形態における撮像装置の構成について説明する。図1は、撮像装置100のブロック図である。撮像装置100は、レンズユニット(撮像光学系)101を有する。ただし本発明は、レンズユニットと一体的に構成された撮像装置に限定されるものではなく、カメラ本体と、カメラ本体に着脱可能なレンズユニット(交換レンズ)とを備えて構成される撮像装置にも適用可能である。なお図1では、構成が煩雑になるため、露出調整手段、表示手段、操作部材等の本実施形態との関わりが浅い箇所に関しては省略している。 First, referring to FIG. 1, the configuration of the imaging apparatus according to this embodiment will be described. FIG. 1 is a block diagram of an imaging device 100. As shown in FIG. The imaging device 100 has a lens unit (imaging optical system) 101 . However, the present invention is not limited to an imaging device that is integrally configured with a lens unit, but is applicable to an imaging device that includes a camera body and a lens unit (interchangeable lens) detachable from the camera body. is also applicable. In FIG. 1, since the configuration becomes complicated, the parts such as the exposure adjusting means, the display means, the operation members, etc., which are not closely related to the present embodiment, are omitted.

撮像装置100は、大まかに、レンズユニット部分、撮像画像を取得する部分、像ブレ補正部材の駆動部分、光学情報と像ブレ補正部材の位置情報とに基づいて像ブレ補正量を制御する部分、焦点検出部分からの情報に基づいて合焦フォーカス駆動を行う部分を含む。なお、像ブレ補正部材の位置を現在の像ブレ補正部材の位置情報を用いずに無条件に移動制御を行う場合、像ブレ補正部材の位置情報の必要は無い。 The image pickup apparatus 100 roughly includes a lens unit portion, a portion for acquiring a captured image, a portion for driving an image blur correction member, a portion for controlling an image blur correction amount based on optical information and position information of the image blur correction member, It includes a portion that performs focus driving based on information from the focus detection portion. In the case where the position of the image blur correction member is unconditionally controlled without using the current position information of the image blur correction member, there is no need for the position information of the image blur correction member.

像ブレ補正方式としては、一般的に、撮像光学系の全体または一部のレンズ群を偏心させることで像ブレ補正を行う補正レンズ群移動方式、または、撮像素子をブレに応じて移動させることで像ブレ補正を行う撮像素子移動補正方式がある。図1では、一例として撮像素子移動補正方式を示しているが、補正レンズ群移動方式においても後述の像ブレ補正部材の移動量を制御する方法が適用可能である。なお、補正レンズ群移動方式を採用する場合、図1の撮像素子駆動手段114を撮像素子104の代わりにレンズユニット101を構成するレンズ群の全体または一部を駆動させるようにすればよい。その際、撮像素子位置検出手段115を、撮像素子104の移動量検出の代わりに、移動する補正レンズ群の移動量を検出させることで対応可能である。 Image blur correction methods generally include a correction lens group movement method that corrects image blur by decentering all or part of the lens group of the imaging optical system, or a method that moves the image sensor according to blur. There is an image pickup device movement correction method that corrects image blurring by using . FIG. 1 shows an image sensor movement correction method as an example, but a method of controlling the movement amount of an image blur correction member, which will be described later, can also be applied to the correction lens group movement method. When the correction lens group moving method is employed, the image sensor driving means 114 in FIG. In this case, instead of detecting the movement amount of the image pickup element 104, the image pickup element position detection means 115 can detect the movement amount of the moving correction lens group.

次に、撮像信号の流れに関して説明する。レンズユニット101は、露出を調整するための光彩絞り102、および、光軸OAに沿った方向(光軸)に移動して結像位置を変化させるフォーカスレンズ群103を有する。レンズユニット(撮像光学系)101を介して形成された被写体像(光学像)は、撮像素子104に結像される。撮像素子104は、CMOSセンサとその周辺回路とで構成された光電変換素子である。撮像素子104は、横方向にM画素、縦方向にN画素の受光ピクセルが正方配置され、ベイヤー配列の原色カラーモザイクフィルタがオンチップで形成された、2次元単板カラーセンサである。後述のように、撮像素子104には、複数の撮像画素中に焦点検出画素が配置されている。このような構成により、撮像素子104は、撮像光学系の第1の瞳領域を通過した光束から得られる第1の像信号と、撮像光学系の第2の瞳領域を通過した光束から得られる第2の像信号を出力する。 Next, the flow of imaging signals will be described. The lens unit 101 has an iris diaphragm 102 for adjusting exposure, and a focus lens group 103 that moves along the optical axis OA (optical axis) to change the imaging position. A subject image (optical image) formed via a lens unit (imaging optical system) 101 is formed on an image sensor 104 . The imaging element 104 is a photoelectric conversion element configured by a CMOS sensor and its peripheral circuits. The image sensor 104 is a two-dimensional single-plate color sensor in which light-receiving pixels of M pixels in the horizontal direction and N pixels in the vertical direction are arranged in a square, and a Bayer array primary color mosaic filter is formed on-chip. As will be described later, the imaging element 104 has focus detection pixels arranged among a plurality of imaging pixels. With such a configuration, the image sensor 104 obtains the first image signal obtained from the light flux that has passed through the first pupil region of the imaging optical system and the light flux that has passed through the second pupil region of the imaging optical system. A second image signal is output.

撮像素子104が被写体像を受光すると、撮像素子駆動手段(不図示)にて撮像素子104の光電変換処理を行い、撮像素子104は信号を出力する。画像信号抽出手段105は、撮像素子104から出力された信号を整形し、不要信号を除去して画像信号を抽出する。記録用画像生成手段120は、画像信号抽出手段105から取得した画像信号に基づいて記録用画像(観賞用画像信号)を生成する。画像信号記録手段121は、記録用画像生成手段120により生成された記録用画像(観賞用画像信号)を記録する。焦点検出範囲決定手段110は、画像信号抽出手段105から得られる撮像画素上の焦点検出信号に基づいて、焦点検出を行う領域を決定する。そして焦点検出範囲決定手段110は、焦点検出信号の抽出を行う撮像素子104の座標情報(画素位置情報)を、合焦精度変化情報取得手段107に伝達する。なお、焦点検出を行う領域の選択は、ユーザが任意に行っても、撮像装置100が自動的に選択するようにしてもよい。 When the image pickup device 104 receives a subject image, an image pickup device drive unit (not shown) performs photoelectric conversion processing of the image pickup device 104, and the image pickup device 104 outputs a signal. The image signal extraction means 105 shapes the signal output from the image sensor 104, removes unnecessary signals, and extracts the image signal. The recording image generation means 120 generates a recording image (ornamental image signal) based on the image signal acquired from the image signal extraction means 105 . The image signal recording means 121 records the recording image (ornamental image signal) generated by the recording image generating means 120 . The focus detection range determination means 110 determines the area for focus detection based on the focus detection signals on the imaging pixels obtained from the image signal extraction means 105 . Then, the focus detection range determining means 110 transmits the coordinate information (pixel position information) of the image sensor 104 from which the focus detection signal is extracted to the focus accuracy change information acquisition means 107 . Note that the selection of the area for focus detection may be made arbitrarily by the user, or may be automatically selected by the imaging apparatus 100 .

焦点検出領域が決定されると、相関信号抽出手段111は、焦点検出領域における相関信号を抽出する。相関演算手段116は、相関信号抽出手段111により抽出された一対の相関信号に基づいて位相差情報(像ズレ量または像ズレ量情報)を検出する。相関演算手段116により検出された像ズレ量は、像ボケ量検出手段106に伝達される。像ボケ量検出手段106は、像ズレ量(焦点検出の結果)から焦点検出領域での被写体の像ボケ量を判定する。 After the focus detection area is determined, the correlation signal extraction means 111 extracts the correlation signal in the focus detection area. Correlation calculation means 116 detects phase difference information (image shift amount or image shift amount information) based on the pair of correlation signals extracted by correlation signal extraction means 111 . The image shift amount detected by the correlation calculation means 116 is transmitted to the image blur amount detection means 106 . Image blur amount detection means 106 determines the amount of image blur of the object in the focus detection area from the amount of image shift (result of focus detection).

合焦精度変化情報取得手段107は、合焦精度変化情報を用いて、すなわち、焦点検出領域の座標情報と、像ボケ量情報と、入射瞳情報と、射出瞳情報とを用いて、焦点検出結果から得られるデフォーカス情報が正確であるか否かを判定する。焦点検出領域の座標情報は、撮像素子104における焦点検出領域の座標情報であり、像ボケ量情報は、焦点検出を行うために用いられる情報である。入射瞳位置情報は、撮像素子受光瞳情報108から伝達された、撮像装置100の特性に関わる撮像素子104が設定している情報である。射出瞳情報は、撮像光学系射出瞳情報109から伝達される焦点検出状態における撮像光学系の射出瞳情報である。 Focusing accuracy change information acquisition means 107 uses the focusing accuracy change information, that is, the coordinate information of the focus detection area, the image blur amount information, the entrance pupil information, and the exit pupil information to perform focus detection. It is determined whether the defocus information obtained from the result is accurate. The coordinate information of the focus detection area is the coordinate information of the focus detection area in the image sensor 104, and the image blur amount information is information used for focus detection. The entrance pupil position information is information set by the imaging device 104 related to the characteristics of the imaging device 100 and transmitted from the imaging device light receiving pupil information 108 . The exit pupil information is the exit pupil information of the imaging optical system in the focus detection state transmitted from the imaging optical system exit pupil information 109 .

本実施形態では、後述のように、予めデフォーカス情報の算出の際に誤差を生じさせる要因とその要因量に対して重み付けを設定する。そして合焦精度変化情報取得手段107は、焦点検出の際に、設定された重み付け量を取得する。像ブレ補正部材駆動量決定手段112は、合焦精度変化情報を用いて、像ブレ補正部材(本実施形態では撮像素子104)の駆動量を制御する。すなわち像ブレ補正部材駆動量決定手段112は、合焦速度の低下を低減させるための像ブレ補正部材の駆動範囲量を決定する。像ブレ補正部材駆動量決定手段112は、同時に、撮像素子位置検出手段115から焦点検出の際における撮像素子104の駆動量情報を取得する。 In the present embodiment, as will be described later, weights are set in advance for factors that cause errors when calculating defocus information and the amounts of the factors. Then, the focus accuracy change information acquisition unit 107 acquires the set weighting amount during focus detection. The image blur correction member drive amount determination unit 112 controls the drive amount of the image blur correction member (the image sensor 104 in this embodiment) using the focus accuracy change information. That is, the image blur correction member drive amount determination unit 112 determines the drive range amount of the image blur correction member for reducing the decrease in focusing speed. At the same time, the image blur correction member driving amount determining means 112 acquires the driving amount information of the image sensor 104 during focus detection from the image sensor position detecting means 115 .

撮像素子駆動手段114は、像ブレ補正部材駆動量決定手段112により決定された駆動量情報に基づいて、すなわち撮像素子104の駆動量と補正を行う駆動量から制御を行う駆動量を決定して得られる駆動量を用いて、撮像素子104の駆動量を制御する。相関信号抽出手段111は、駆動量が補正された撮像素子104から再び得られる焦点検出用の相関信号に基づいて、焦点検出領域の信号を抽出する。そして相関演算手段116は、得られた相関信号を用いて像ズレ量を算出する。 The imaging element driving means 114 determines the driving amount for control based on the driving amount information determined by the image blur correction member driving amount determining means 112, that is, based on the driving amount of the imaging element 104 and the driving amount for correction. The drive amount of the imaging element 104 is controlled using the obtained drive amount. The correlation signal extracting means 111 extracts the signal of the focus detection area based on the correlation signal for focus detection reobtained from the image sensor 104 whose drive amount has been corrected. Correlation calculation means 116 then calculates the amount of image shift using the obtained correlation signal.

フォーカス駆動量算出手段117は、得られた像ズレ量から焦点検出状態に則した基線長情報119を用いて、像ズレ量をデフォーカス情報に変換する。そしてフォーカス駆動量算出手段117は、デフォーカス情報からフォーカスレンズ群103の合焦駆動量を算出し、合焦駆動量をフォーカス駆動手段118に伝達する。フォーカス駆動手段118は、合焦駆動量に基づいて、フォーカスレンズ群103をフォーカス駆動させて合焦状態にする。 The focus drive amount calculation means 117 converts the image shift amount into defocus information using the base line length information 119 suitable for the focus detection state from the obtained image shift amount. The focus drive amount calculation means 117 calculates the focus drive amount of the focus lens group 103 from the defocus information, and transmits the focus drive amount to the focus drive means 118 . The focus drive unit 118 drives the focus lens group 103 based on the focus drive amount to bring it into focus.

以上が本実施形態の撮像装置100における焦点検出画素信号を用いて像ブレ補正部材の移動量を制御した後に再び焦点検出画素信号を用いて焦点検出結果からフォーカス駆動を行い合焦動作を終えるまで各処理の説明である。以上の構成により、像ブレ補正の際の像ブレ補正部材の移動に伴う合焦精度低下によるフォーカス速度低減を防止した合焦動作を行うことができる。 After controlling the amount of movement of the image blur correction member using the focus detection pixel signal in the imaging apparatus 100 of the present embodiment, focus driving is performed based on the result of focus detection using the focus detection pixel signal again, and the focusing operation is completed. Description of each process. With the configuration described above, it is possible to perform a focusing operation that prevents a decrease in focus speed due to a decrease in focusing precision that accompanies movement of the image blur correction member during image blur correction.

次に、図2乃至図4を参照して、撮像素子104に用いられる焦点検出用画素の構成と受光特性について説明する。図2は、撮像素子104(104a)の画素配列図である。図2において、画素200は、撮像画像を形成するための複数の画素(画素群)である。画素201~204は、複数配列された画素200の内部において、遮光構造が配された焦点検出用の複数の画素(焦点検出画素群)である。 Next, the configuration and light receiving characteristics of the focus detection pixels used in the image sensor 104 will be described with reference to FIGS. 2 to 4. FIG. FIG. 2 is a pixel array diagram of the image sensor 104 (104a). In FIG. 2, pixels 200 are a plurality of pixels (pixel group) for forming a captured image. Pixels 201 to 204 are a plurality of pixels for focus detection (focus detection pixel group) provided with a light shielding structure inside the plurality of pixels 200 arranged.

図2において、Y方向に一列に配置された画素201、202は、光電変換信号波形を位相差検出用の相関演算用信号として一対の画素信号の位相差情報として用いてY方向の縦縞パターン形状の被写体の焦点位置を検出するために用いられる。また、X方向の横縞パターン形状の被写体に対しては、図2中のX方向に一列に配置された画素203、204を用いて前述のような出力信号波形にて相関演算を行い被写体の焦点位置を検出する。 In FIG. 2, pixels 201 and 202 arranged in a row in the Y direction are used as phase difference information of a pair of pixel signals as a correlation calculation signal for phase difference detection to obtain a vertical stripe pattern shape in the Y direction. is used to detect the focal position of the subject. For an object having a horizontal stripe pattern in the X direction, pixels 203 and 204 arranged in a row in the X direction in FIG. Detect location.

図3は、変形例としての撮像素子104(104b)の画素配列図である。図3の配列では、一つのマイクロレンズに対し2つの光電変換部を配置している。ここで、上下方向をY方向、左右方向をX方向とする。図3において、画素301は、Y方向の縦縞パターンの被写体の焦点検出をX方向に並んだ光電変換部302、303の各光電変換信号を一対の画素信号の位相差情報として相関演算を行うために用いられる。画素300は、X方向の横縞パターンの被写体の焦点検出をY方向に並んだ光電変換部304、305の各光電変換信号を一対の画素信号の位相差情報として相関演算を行うために用いられる。画素300、301からの信号を撮影画像信号(撮像信号)として用いる際には、光電変換部302、303の電気信号および光電変換部304、305の電気信号をそれぞれ加算すればよい。 FIG. 3 is a pixel array diagram of the image sensor 104 (104b) as a modified example. In the arrangement of FIG. 3, two photoelectric conversion units are arranged for one microlens. Here, the vertical direction is the Y direction, and the horizontal direction is the X direction. In FIG. 3, a pixel 301 performs correlation calculation using photoelectric conversion signals of photoelectric conversion units 302 and 303 arranged in the X direction for focus detection of an object with a vertical stripe pattern in the Y direction as phase difference information of a pair of pixel signals. used for The pixel 300 is used to detect the focus of an object with a horizontal stripe pattern in the X direction and perform correlation calculation using the photoelectric conversion signals of the photoelectric conversion units 304 and 305 arranged in the Y direction as phase difference information of a pair of pixel signals. When signals from the pixels 300 and 301 are used as captured image signals (image pickup signals), the electric signals of the photoelectric conversion units 302 and 303 and the electric signals of the photoelectric conversion units 304 and 305 are added.

図4は、別の変形例としての撮像素子104(104c)の画素配列図である。図4の配列では、一つのマイクロレンズに対し4つの光電変換部を配置している。4つの光電変換部の電気信号加算方式を変えることにより、図3に関して説明を行ったような画素特性を得ることができる。ここで、上下方向をY方向、左右方向をX方向とする。図4において、画素400は、X方向の横縞パターンの被写体の焦点検出する際、X方向に並んだ光電変換部401、402と光電変換部403、404の光電変換信号を加算し、2列の光電変換信号波形を一対の画素信号の位相差情報として相関演算に用いられる。また、Y方向の縦縞パターンの被写体の焦点検出を行う際、Y方向に並んだ光電変換部401、403と光電変換部402と404の光電変換信号を加算し、2列の光電変換信号波形を一対の画素信号の位相差情報として相関演算に用いられる。 FIG. 4 is a pixel array diagram of the image sensor 104 (104c) as another modification. In the arrangement of FIG. 4, four photoelectric conversion units are arranged for one microlens. Pixel characteristics such as those described with reference to FIG. 3 can be obtained by changing the electric signal addition method of the four photoelectric conversion units. Here, the vertical direction is the Y direction, and the horizontal direction is the X direction. In FIG. 4, a pixel 400 adds photoelectric conversion signals from photoelectric conversion units 401 and 402 and photoelectric conversion units 403 and 404 arranged in the X direction when performing focus detection on an object with a horizontal stripe pattern in the X direction, and outputs two columns of pixels. A photoelectric conversion signal waveform is used for correlation calculation as phase difference information between a pair of pixel signals. Further, when performing focus detection on an object with a vertical striped pattern in the Y direction, the photoelectric conversion signals of the photoelectric conversion units 401 and 403 and the photoelectric conversion units 402 and 404 arranged in the Y direction are added, and two columns of photoelectric conversion signal waveforms are obtained. It is used for correlation calculation as phase difference information of a pair of pixel signals.

なお、図4の構成における焦点検出のための2通りの加算方法は、撮像素子104上にブロックに分けて加算方法を変えてもよく、千鳥配列的に互い違いに加算を変えることで、図3で示される構成と等価な画素配列構造を達成することもできる。この際、縦縞パターンと横縞パターン被写体を同時に評価するため、焦点検出に際して被写体パターン方向依存を低減する(好ましくは除去する)ことができる。また加算方法は、撮影状態に応じて、または、時系列的に全画素において切り替えを行ってもよい。この際、同パターン方向の被写体を焦点検出する焦点検出用画素が密な状態になるため、焦点検出用画素が疎な場合に生ずる細い線分を有する被写体が合焦近傍において被写体検出が行えなくなるという問題を回避することができる。なお、図4の構成において、撮影画像用の信号として用いる際には、光電変換部401~404の電気信号を加算すればよい。 Note that the two addition methods for focus detection in the configuration of FIG. 4 may be divided into blocks on the image sensor 104 and the addition method may be changed. It is also possible to achieve a pixel array structure equivalent to the structure shown in . At this time, since the vertical stripe pattern and the horizontal stripe pattern subject are evaluated simultaneously, subject pattern direction dependence can be reduced (preferably eliminated) in focus detection. Also, the addition method may be switched for all pixels in accordance with the photographing state or chronologically. At this time, since the pixels for focus detection for detecting the focus of the subject in the same pattern direction are dense, it is impossible to detect the subject in the vicinity of the in-focus state if the subject has thin line segments that occur when the pixels for focus detection are sparse. problem can be avoided. In the configuration of FIG. 4, when using the signal for a captured image, the electrical signals of the photoelectric conversion units 401 to 404 may be added.

このような撮像素子104の構造を用いることで、従来の位相差焦点検出方式のように撮像光学系を介した被写体像の一部を焦点検出専用の光学系に分離する必要がない。このため、リアルタイムに撮像素子104が受光して画像記録を行う被写体像を監視しながらライブビュー撮影を行うことができる。その結果、従来の動画撮影においては被写体光線の分割機構無しでは行うことができなかった位相差検出方式の焦点検出手段を実現することが可能となる。 By using such a structure of the image sensor 104, there is no need to separate a part of the subject image via the imaging optical system into an optical system dedicated to focus detection, unlike the conventional phase difference focus detection method. Therefore, it is possible to perform live view shooting while monitoring the subject image that is received by the image sensor 104 and recorded in real time. As a result, it is possible to implement a phase-difference detection type focus detection means that could not be performed without a subject beam splitting mechanism in conventional moving image photography.

次に、図5を参照して、焦点検出画素の受光角度と信号出力特性との関係について説明する。図5は、個々の焦点検出画素の受光角度と信号強度との関係を示す特性グラフである。図5において、横軸は焦点検出画素の受光角度(度)、縦軸は受光角度に対する信号強度比を示している。以後、この特性を画素瞳強度分布と呼称する。ここで、図5中のEA、EB曲線は、前述の一対の焦点検出画素のそれぞれの受光角度に対する信号強度特性である。Eは、信号強度特性EA、EBが加算されて得られる撮像信号の強度特性である。個々の焦点検出画素が受光する角度範囲での信号強度の積分値が画素信号量となり、このような特性を有する焦点検出画素信号を相関方向に走査して一対の相関信号を取得するため、相関信号形状はこの画素瞳強度分布での受光角度範囲に関係がある。そして後述のように、受光角度範囲は、撮像光学系の射出瞳位置と射出瞳径の状態とにより変化する。 Next, the relationship between the light receiving angle of the focus detection pixels and the signal output characteristics will be described with reference to FIG. FIG. 5 is a characteristic graph showing the relationship between the light receiving angle of each focus detection pixel and the signal intensity. In FIG. 5, the horizontal axis indicates the light receiving angle (degrees) of the focus detection pixel, and the vertical axis indicates the signal intensity ratio with respect to the light receiving angle. Hereinafter, this characteristic will be referred to as pixel pupil intensity distribution. Here, the EA and EB curves in FIG. 5 are signal intensity characteristics with respect to respective light receiving angles of the aforementioned pair of focus detection pixels. E is the intensity characteristic of the imaging signal obtained by adding the signal intensity characteristics EA and EB. The pixel signal amount is the integrated value of the signal intensity in the angle range where each focus detection pixel receives light. The signal shape is related to the light-receiving angle range in this pixel pupil intensity distribution. As will be described later, the light receiving angle range changes depending on the exit pupil position and exit pupil diameter of the imaging optical system.

位相差検出方式の焦点検出方式では、前述のような画素構造の一対の焦点検出画素群の相関信号(以下、A像、B像と呼称する)であるA像信号波形とB像信号波形とを用いて、最も信号相関が得られる相関量を求める。ここでA像信号波形とB像信号波形がずれている状態を像ズレが起きているとしてその相関量を以後は像ズレ量と呼ぶ。ここで、A像信号は画素瞳強度分布図の信号強度特性EA、B像信号は信号強度特性EBが積分された焦点検出画素信号をX方向(相関方向)に走査して得られたものである。 In the focus detection method of the phase difference detection method, an A image signal waveform and a B image signal waveform, which are correlation signals (hereinafter referred to as A image and B image) of a pair of focus detection pixel groups having the pixel structure as described above, are used. is used to determine the amount of correlation that yields the highest signal correlation. Here, the state in which the A image signal waveform and the B image signal waveform are deviated is assumed to be an image deviation, and the correlation amount is hereinafter referred to as an image deviation amount. Here, the A image signal is obtained by scanning the signal intensity characteristic EA of the pixel pupil intensity distribution diagram, and the B image signal is obtained by scanning the focus detection pixel signal integrated with the signal intensity characteristic EB in the X direction (correlation direction). be.

像ズレ量の求め方は、信号波形の相対位置をずらして互いの波形を重ね合わせて、波形の差異部分の面積量がもっとも小さくなる状態までの像ズレ量で定義されることが多い。また簡略的には、A像信号およびB像信号の各々の重心位置を求め、その重心間の距離を像ズレ量とする方法もある。以降、説明を容易にするため、重心位置間距離を像ズレ量として説明を行う。 The amount of image shift is often defined by shifting the relative position of the signal waveforms, superimposing the waveforms, and defining the amount of image shift until the amount of area of the difference portion of the waveforms is minimized. A simpler method is to obtain the respective barycenter positions of the A image signal and the B image signal, and use the distance between the barycenters as the amount of image shift. Hereinafter, in order to facilitate the explanation, the distance between the center-of-gravity positions is assumed to be the amount of image shift.

像ズレ量から具体的なデフォーカス状態を換算するには、基線長情報を用いて像ズレ量からデフォーカス量を算出することが一般的である。デフォーカス量を算出する際には、瞳位置における像ズレ量から図2乃至図4の説明で述べたような位相差の焦点検出撮像素子群の対となる焦点検出画素の瞳分離幅を基線長情報として撮像装置100に記憶しておく必要がある。このとき、合焦状態では、瞳位置の像ズレ量は基線長と略一致している。一方、合焦から外れた状態において、像ズレ量はデフォーカス量に略比例した変化を生ずるものである。このため、デフォーカス量は、像ズレ量から基線長を除算することで求められる。 In order to convert the image shift amount into a specific defocus state, it is common to calculate the defocus amount from the image shift amount using base line length information. When calculating the defocus amount, the pupil separation width of the focus detection pixels paired with the phase difference focus detection image sensor group as described in the explanation of FIGS. It must be stored in the imaging device 100 as long information. At this time, in the in-focus state, the image shift amount at the pupil position substantially matches the baseline length. On the other hand, in an out-of-focus state, the amount of image shift changes substantially in proportion to the amount of defocus. Therefore, the defocus amount is obtained by dividing the base line length from the image shift amount.

次に、図6を参照して、前述の内容に関して説明する。図6は、デフォーカス変化による相関をとる1対の焦点検出用画素群の電気信号状態と焦点検出画素の受光角度範囲の像ズレ位置との関係を示す図である。図6において、Pは撮像光学系の射出瞳位置、POは射出瞳距離を示す。A、B、Cは焦点位置を示し、Bは撮像素子104の位置(合焦位置)に相当する。Aはいわゆる前ピン状態であり、そのときのデフォーカス量はDEF1(マイナス値)である。Cはいわゆる後ピン状態であり、そのときのデフォーカス量はDEF2(プラス値)である。 Next, with reference to FIG. 6, the above contents will be described. FIG. 6 is a diagram showing the relationship between the electrical signal state of a pair of focus detection pixel groups and the image shift position in the light receiving angle range of the focus detection pixels, which are correlated by defocus changes. In FIG. 6, P indicates the exit pupil position of the imaging optical system, and PO indicates the exit pupil distance. A, B, and C indicate focal positions, and B corresponds to the position of the image sensor 104 (focus position). A is a so-called front focus state, and the defocus amount at that time is DEF1 (negative value). C is a so-called rear focus state, and the defocus amount at that time is DEF2 (plus value).

以下に述べる焦点検出信号(相関信号)は、図2乃至図4を参照して説明したような焦点検出手段を有する撮像画素構造から得られるものである。射出瞳位置Pは、合焦位置Bからの距離(射出瞳距離PO)に相当する位置である。ZAは、前ピン状態である焦点位置Aにおいて、焦点検出画素群の光電変換信号である一対の画素信号の位相差情報から相関を得る際に必要とする像ズレ量である。ZBは、合焦状態である合焦位置Bにおける像ズレ量であり、合焦が行われているため2つの焦点検出信号の波形は重なっており像ズレが実質的に発生していない状態である。ZCは後ピン状態である焦点位置Cにおける像ズレ量であり、像ズレ量ZAに対して2つの相関信号位置が入れ替わった状態になっている。 The focus detection signal (correlation signal) described below is obtained from the imaging pixel structure having the focus detection means as described with reference to FIGS. The exit pupil position P is a position corresponding to the distance from the in-focus position B (exit pupil distance PO). ZA is an image shift amount required to obtain correlation from phase difference information of a pair of pixel signals, which are photoelectric conversion signals of the focus detection pixel group, at the focus position A, which is the front focus state. ZB is the amount of image shift at the in-focus position B, which is the in-focus state. be. ZC is the amount of image shift at the focal position C, which is the rear focus state, and the two correlation signal positions are interchanged with respect to the amount of image shift ZA.

図6中のR1、R2は、焦点検出画素から撮像光学系の射出瞳距離Pの平面に一対の焦点検出画素の受光角度に対する焦点検出画素の信号強度特性を逆投影したものである。そして、R1、R2のそれぞれの信号強度分布からの重心位置をそれぞれ求め、その重心の隔たり量を基線長Lとする。基線長Lは、撮像光学系の絞り値情報および射出瞳距離POによって射出瞳径が変化するため、撮像光学系の絞り値情報と射出瞳距離POとによって決定される。 R1 and R2 in FIG. 6 are obtained by back-projecting the signal intensity characteristics of a pair of focus detection pixels with respect to the light receiving angle of the focus detection pixels onto the plane of the exit pupil distance P of the imaging optical system from the focus detection pixels. Then, the position of the center of gravity of each of R1 and R2 is determined from the signal intensity distribution, and the distance between the centers of gravity is defined as the baseline length L. The baseline length L is determined by the aperture value information and the exit pupil distance PO of the imaging optical system, since the exit pupil diameter changes depending on the aperture value information and the exit pupil distance PO of the imaging optical system.

以上をまとめると、基線長L、射出瞳距離PO、および、像ズレ量ZA、ZCは、
L:PO=ZA:DEF1
L:PO=ZC:DEF2
の関係がある。このためデフォーカス量は、
DEF1=ZA・PO/L ・・・ (A)
DEF2=ZC・PO/L ・・・ (B)
により求められる。
In summary, the baseline length L, the exit pupil distance PO, and the image shift amounts ZA and ZC are
L: PO=ZA: DEF1
L: PO=ZC: DEF2
There is a relationship Therefore, the defocus amount is
DEF1=ZA・PO/L (A)
DEF2=ZC・PO/L (B)
required by

基線長Lは、撮像装置100に用いられる焦点検出画素の受光角による信号出力特性を用いることで算出される。本実施形態では、予め任意の絞り値情報で得られる円形開口と射出瞳距離POを設定した仮想的撮像光学系を用いて瞳位置で対となる分離領域にてそれぞれの重心位置計算を行い、2つの重心位置の隔たり量を基線長L(基線長情報119)として取得する。基線長Lは、撮像装置100における焦点検出画素の受光角に対する出力信号強度が既知であれば、予め撮像光学系の絞り値情報および射出瞳距離POの値に対する基線長Lの関係を近似式の係数や2次元配列的に保持することができる。そして、図1に示される基線長情報119を撮像装置100に記憶し、像ズレ量からデフォーカス量を算出して合焦を行う。なお、実際にステッピングモータ等でフォーカス駆動を行う際には、取得されたデフォーカス量から合焦を行う為のフォーカス駆動に必要なパルス数を換算するような定数を用いればよい。しかしながら、像ブレ補正を行う際には、移動を行う像ブレ補正部材の影響により、焦点状態が変化していないにも関わらず像ズレ量が変化する現象が生じる。以下、その現象に関して説明する。 The base line length L is calculated by using the signal output characteristics according to the light receiving angle of the focus detection pixels used in the imaging device 100 . In the present embodiment, a virtual imaging optical system in which a circular aperture obtained with arbitrary aperture value information and an exit pupil distance PO are set in advance is used to calculate the center-of-gravity position of each of the separate regions paired at the pupil position, The distance between the two center-of-gravity positions is acquired as the baseline length L (base-line length information 119). If the output signal intensity with respect to the light receiving angle of the focus detection pixel in the imaging device 100 is known, the baseline length L can be obtained by using an approximation formula that expresses the relationship of the baseline length L with respect to the value of the aperture value information of the imaging optical system and the value of the exit pupil distance PO in advance. It can be stored as a coefficient or a two-dimensional array. Then, the base line length information 119 shown in FIG. 1 is stored in the imaging apparatus 100, the defocus amount is calculated from the image shift amount, and focusing is performed. When actually performing focus driving with a stepping motor or the like, a constant may be used that converts the number of pulses required for focus driving for focusing from the obtained defocus amount. However, when performing image blur correction, due to the influence of the moving image blur correction member, a phenomenon occurs in which the image shift amount changes even though the focus state does not change. This phenomenon will be described below.

近年の撮像装置では、像ブレ補正部材を移動させて像ブレを補正するような像ブレ補正手段として、以下のようなものがある。 2. Description of the Related Art In recent imaging apparatuses, there are the following image blur correction means for correcting image blur by moving an image blur correction member.

(1)撮像光学系の全体または一部の像ブレ補正レンズ群を偏心移動させることにより結像位置を変化させる光学防振方式(以下、補正レンズ移動方式と呼ぶ)。 (1) An optical image stabilizing method (hereinafter referred to as a correction lens movement method) in which the imaging position is changed by decentering the image blur correction lens group of the whole or a part of the imaging optical system.

(2)撮像素子を像ブレ補正が行われるように移動を行う方式(以下、撮像素子移動方式と呼ぶ)。 (2) A method of moving an image pickup device so as to correct image blurring (hereinafter referred to as an image pickup device movement method).

(1)に関する像ズレ量変化は、主に像ブレ補正レンズ群の偏心による光学ケラレによる影響が原因となる。(2)に関する像ズレ量変化は、撮像光学系の射出瞳位置から撮像素子に入射される入射光束の主光線角度条件により設定されているマイクロレンズの撮影光軸側シフト配置が撮像素子の移動によりズレを生じることが原因となる。以下、上記の原因で像ズレ量が変化することについて詳述する。 The change in the amount of image shift related to (1) is mainly caused by the influence of optical vignetting due to decentering of the image blur correction lens group. The change in the amount of image shift related to (2) is determined by the shift arrangement of the microlenses on the imaging optical axis side, which is set according to the principal ray angle condition of the incident light beam entering the imaging device from the exit pupil position of the imaging optical system. This is the cause of the deviation. In the following, the change in the image shift amount due to the above causes will be described in detail.

まず、(1)の補正レンズ移動方式において像ズレ量が変化する現象に関して説明する。光線ケラレ状態(光線ケラレ情報)は、撮像光学系を構成するレンズ外径や遮光部材の有効径及びその配置状態により様々な状態になり得る。また、像ブレ補正レンズ群が補正移動を行うと、そのレンズ群の光線有効部が変動して光線ケラレを増大させる現象が生じる。補正レンズ群移動での光線ケラレを防止するためには補正レンズ群のレンズ群の外径をレンズ群移動時にも光線ケラレが発生しないような余裕ある寸法にすることが考えられる。しかしながら、補正レンズ群の外径を大型化すると、補正レンズ群とそれの保持部材の大型化及び駆動部材の重量増大を招く。このため、補正レンズ群を駆動するアクチュエータの大型化と消費電力が増大する。以上の理由で、像ブレ補正の際に光線ケラレが生じても、撮像光学系の小型化と像ブレ補正のメリットをより重視するため、補正レンズ群の外径を基準状態(像ブレ補正しない状態)で決定することが多い。 First, the phenomenon that the amount of image deviation changes in the correction lens moving method of (1) will be described. The light beam vignetting state (light beam vignetting information) can be in various states depending on the outer diameter of the lens constituting the imaging optical system, the effective diameter of the light shielding member, and the arrangement thereof. Further, when the image blur correction lens group performs correction movement, a phenomenon occurs in which the light effective portion of the lens group fluctuates and the light beam vignetting increases. In order to prevent ray vignetting during movement of the correction lens group, it is conceivable to set the outer diameter of the lens group of the correction lens group to a dimension that is large enough to prevent ray vignetting even when the lens group is moved. However, if the outer diameter of the correcting lens group is increased, the size of the correcting lens group and its holding member is increased, and the weight of the driving member is increased. As a result, the size and power consumption of the actuator for driving the correction lens group increase. For the above reasons, even if vignetting occurs during image blur correction, the outer diameter of the correction lens group is set to the standard state (without image state) is often determined.

図7は、補正レンズ移動方式の像ブレ補正を行う撮像光学系の説明図である。図7(A)、(B)、(C)の各々は、撮像光学系の光路図、および、撮像光学系の瞳位置(絞り位置)における像高HGTで示される軸外光線の通過範囲を示している。図7において、POは、結像面IPから射出瞳面までの距離(射出瞳距離)、SPは虹彩絞り、EPOは射出瞳範囲を示す。URは、図7における光線束の上側の光線(以後上線と呼ぶ)BRは光線束の下側の光線(以後下線と呼ぶ)であり、PRは主光線で光線URと光線BRとの成す角度を2分する角度で結像面IPに射出する光線である。図7(A)は、上下方向に対称な光線ケラレを生じた状態を示す。図7(B)は、上線URがより大きくケラレを生じた状態を示す。図7(C)は、下線BRが大きくケラレを生じた状態を示す。 FIG. 7 is an explanatory diagram of an image pickup optical system that performs image blur correction using a correction lens movement method. Each of FIGS. 7A, 7B, and 7C is an optical path diagram of the imaging optical system, and the passage range of the off-axis ray indicated by the image height HGT at the pupil position (aperture position) of the imaging optical system. showing. In FIG. 7, PO is the distance from the imaging plane IP to the exit pupil plane (exit pupil distance), SP is the iris diaphragm, and EPO is the exit pupil range. UR is the upper ray (hereinafter referred to as the upper line) of the ray bundle in FIG. 7, BR is the lower ray (hereinafter referred to as the lower line) of the ray bundle, and PR is the principal ray and the angle formed by the ray UR and the ray BR. is a ray that emerges onto the imaging plane IP at an angle that bisects . FIG. 7A shows a state in which symmetrical ray vignetting occurs in the vertical direction. FIG. 7B shows a state in which the upper line UR is greatly vignetted. FIG. 7(C) shows a state in which the underline BR is greatly vignetting.

図8(A)~(C)は、図7(A)~(C)の各状態に対応する像高HGTの焦点検出画素へ入射する射出瞳の分割形状と一対の像ズレ信号における像ズレ量を示す図である。図8(A)~(C)の各々の左図のARは、図7の撮像光学系の瞳位置(絞り位置)にて座標HGTに結像する光線束の瞳形状を表している。SA、SBは、同様に撮像光学系の瞳位置での図2乃至図4を参照して説明した位相差検出を行うための対となる焦点検出画素に受光し得る光線束の範囲(焦点検出画素の瞳範囲)を示す。R1、R2は、各焦点検出画素の信号強度波形を示し、水平方向Xは図6における上下方向に対応している。Lは、信号強度波形R1、R2の相関信号における像ズレ量を示す。 FIGS. 8A to 8C show the division shape of the exit pupil incident on the focus detection pixel at the image height HGT corresponding to each state of FIGS. FIG. 3 is a diagram showing quantities; AR on the left side of each of FIGS. 8A to 8C represents the pupil shape of a ray bundle imaged at coordinate HGT at the pupil position (diaphragm position) of the imaging optical system in FIG. Similarly, SA and SB are ranges of light beams that can be received by the paired focus detection pixels (focus detection pixel pupil range). R1 and R2 indicate signal intensity waveforms of respective focus detection pixels, and the horizontal direction X corresponds to the vertical direction in FIG. L indicates the amount of image shift in the correlation signal of the signal intensity waveforms R1 and R2.

図8(A)は、X方向の光線ケラレが対称な状態における光線束の瞳形状とそれに伴う像ズレ量Lを示す。ここで、一対の焦点検出画素における信号強度波形R1、R2は略相似な形状となり、それぞれの像ズレ位置も瞳中心位置から等しい距離となっている。このため、正確な相関演算を行うことが可能となり、疑似的な絞り値で定義される瞳径と同等なものでの基線長情報を使用して正確なデフォーカス情報を得ることができる。 FIG. 8A shows the pupil shape of the ray bundle and the image shift amount L associated therewith when the ray vignetting in the X direction is symmetrical. Here, the signal intensity waveforms R1 and R2 in the pair of focus detection pixels have substantially similar shapes, and the respective image shift positions are also at equal distances from the pupil center position. Therefore, accurate correlation calculation can be performed, and accurate defocus information can be obtained using baseline length information equivalent to the pupil diameter defined by the pseudo aperture value.

図8(B)は、光線束の上線がより大きくケラレを生じた状態での相関信号の信号強度と像ズレ量の変化を示す。図6(A)の範囲SAに対して範囲SBでより光線ケラレが大きく発生しているため、信号強度波形R2の相関信号のX方向の幅は瞳中心位置方向に短い。このため、信号強度波形R2での瞳中心からの重心位置は、信号強度波形R1の重心位置よりも短くなる。したがって、図6(B)の像ズレ量Lは同じデフォーカス状態であっても、図6(A)の像ズレ量Lに対して小さくなる。 FIG. 8B shows changes in the signal intensity of the correlation signal and the amount of image shift when the upper line of the ray bundle is greatly vignetted. Since the ray vignetting is greater in the range SB than in the range SA in FIG. 6A, the width of the correlation signal of the signal intensity waveform R2 in the X direction is short in the direction of the pupil center position. Therefore, the barycentric position from the pupil center in the signal intensity waveform R2 is shorter than the barycentric position of the signal intensity waveform R1. Therefore, the image shift amount L in FIG. 6B is smaller than the image shift amount L in FIG. 6A even in the same defocus state.

図8(C)は、光線束の下線に大きく光線ケラレを生じた状態での相関信号強度と像ズレ量の変化を示す。このため、図8(B)とは反対に、焦点検出画素の信号強度波形R1が信号強度波形R2よりも光線ケラレの影響で小さくなる。その結果、図8(B)とは逆に、信号強度波形R2に対して信号強度波形R1の瞳中心からの重心位置が短くなる。このため、同じデフォーカス状態であっても、図8(A)の像ズレ量Lより小さくなる。 FIG. 8C shows changes in the correlation signal intensity and the amount of image shift when the underline of the bundle of rays is largely vignetted. Therefore, contrary to FIG. 8B, the signal intensity waveform R1 of the focus detection pixel is smaller than the signal intensity waveform R2 due to the effect of the ray vignetting. As a result, contrary to FIG. 8B, the position of the center of gravity of the signal intensity waveform R1 from the center of the pupil becomes shorter than that of the signal intensity waveform R2. Therefore, even in the same defocus state, the image shift amount is smaller than the image shift amount L in FIG. 8(A).

以上説明したように、補正レンズ群移動方式の像ブレ補正を行う際には、補正レンズ群の移動による光線ケラレが原因で焦点状態が変化してないにも関わらず像ズレ量が変化してしまう。 As described above, when performing image blur correction using the correction lens group movement method, the amount of image shift changes even though the focal state does not change due to eclipse caused by the movement of the correction lens group. put away.

次に、ブレ補正部材に撮像素子を用いた撮像素子移動方式による像ズレ補正の際に発生する像ズレ量変化の現象を説明する。まず、図9を参照して、撮像光学系に像ブレが生じた際に撮像素子104が移動して像ブレ補正を行う状態を説明する。 Next, the phenomenon of the change in the amount of image shift that occurs during image shift correction by the image pickup device moving method using the image pickup device as the blur correction member will be described. First, referring to FIG. 9, a state will be described in which the image sensor 104 is moved to perform image blur correction when image blur occurs in the imaging optical system.

図9は、撮像素子移動方式の像ブレ補正を行う撮像装置の説明図である。図9(A)は、像ブレが生じていない状態での撮像光学系と撮像素子との位置関係を示す。図9(A)において、AXは撮像光学系の光軸、SPは虹彩絞り、POは撮像光学系の射出瞳位置、EP0は射出瞳範囲をそれぞれ示している。ISは撮像素子、LS、CS、RSは撮像素子IS上の焦点検出画素に関して説明を簡略にするために撮像素子周辺の左側位置、中心位置、右側位置の代表画素として示している。図9(B)は、角度ωの像ブレが生じた場合に撮像素子ISを移動量Mだけ移動させて像ブレ補正を行った状態を示している。図9から理解できるように、像ブレ補正状態では、代表画素LS、CS、RSが受光する射出瞳範囲EPOからの光線角度が像ブレ補正前に対して変化する。 FIG. 9 is an explanatory diagram of an imaging apparatus that performs image blur correction by moving the imaging element. FIG. 9A shows the positional relationship between the image pickup optical system and the image pickup device when no image blur occurs. In FIG. 9A, AX is the optical axis of the imaging optical system, SP is the iris diaphragm, PO is the exit pupil position of the imaging optical system, and EP0 is the exit pupil range. IS indicates the image pickup device, and LS, CS, and RS indicate representative pixels at the left, center, and right positions around the image pickup device to simplify the explanation of the focus detection pixels on the image pickup device IS. FIG. 9B shows a state in which image blur correction is performed by moving the image sensor IS by a movement amount M when image blur of an angle ω occurs. As can be understood from FIG. 9, in the image blur correction state, the light ray angles from the exit pupil range EPO received by the representative pixels LS, CS, and RS change from those before the image blur correction.

図10は、図9(A)の状態(像ブレ補正前)における各像高の焦点検出画素の受光状態の説明図である。焦点検出画素は、図2乃至図4を参照して説明したように、一つのマイクロレンズに対して複数の光電変換部を有する。ここでは簡単のため、図10中のX方向に焦点検出画素内の光電変換部が分割されて、X方向の複数の光電変換部A(A群)と複数の光電変換部B(B群)から発生する一対の相関信号から像ズレ量を検出するような焦点検出画素配列構造とする。 FIG. 10 is an explanatory diagram of the light receiving state of the focus detection pixels at each image height in the state of FIG. 9A (before image blur correction). A focus detection pixel has a plurality of photoelectric conversion units for one microlens, as described with reference to FIGS. Here, for the sake of simplicity, the photoelectric conversion units in the focus detection pixel are divided in the X direction in FIG. The focus detection pixel array structure is such that the amount of image shift is detected from a pair of correlation signals generated from .

図10において、AX、EPOは、図9(A)に相当する撮像光学系の光軸と射出瞳(射出瞳範囲)をそれぞれ示している。SA、SBは、光電変換部Aおよび光電変換部Bが受光を行う射出瞳EPOの分割範囲(入射瞳範囲)を示し、LA、LBは、焦点検出画素LSの光電変換部A、Bに垂直入射する主光線である。CA、CBは、焦点検出画素CSの光電変換部A、Bの主光線である。RA、RBは、焦点検出画素RSの光電変換部A、Bの主光線とする。MLは、撮像素子104のマイクロレンズを示す。射出瞳位置が有限距離である場合、周辺のマイクロレンズは光電変換部に対して位置をずらすことで、斜め入射光線を偏向させる作用を持たせている。これにより、周辺の焦点検出画素が中心の焦点検出画素に対して入射瞳範囲SA、SBからの角度か大きくなることで、光電変換画素A、Bが受光する光線強度が低下することを防止している。 In FIG. 10, AX and EPO indicate the optical axis and exit pupil (exit pupil range) of the imaging optical system corresponding to FIG. 9A, respectively. SA and SB indicate division ranges (entrance pupil ranges) of the exit pupil EPO where the photoelectric conversion units A and B receive light, and LA and LB are perpendicular to the photoelectric conversion units A and B of the focus detection pixel LS. It is the incident chief ray. CA and CB are principal rays of the photoelectric conversion units A and B of the focus detection pixel CS. RA and RB are chief rays of the photoelectric conversion units A and B of the focus detection pixel RS. ML indicates a microlens of the imaging device 104 . When the exit pupil position is at a finite distance, the peripheral microlenses are displaced with respect to the photoelectric conversion section, thereby deflecting obliquely incident light rays. This prevents the light intensity received by the photoelectric conversion pixels A and B from decreasing due to the peripheral focus detection pixels having a larger angle from the entrance pupil ranges SA and SB than the central focus detection pixel. ing.

図11は、図9(B)の状態における各像高の焦点検出画素の受光状態の説明図であり、像ブレ補正の際に撮像素子104をX方向に移動量Mだけ移動させた状態を示している。このため像ブレ補正の際には、LS、CS、RSの各焦点検出画素の光電変換部A、Bに入射する主光線LA~RBの光電変換部に入射する光線が垂直角度から変化している。 FIG. 11 is an explanatory diagram of the light receiving state of the focus detection pixels at each image height in the state of FIG. showing. Therefore, during image blur correction, the light beams incident on the photoelectric conversion units of the principal rays LA to RB incident on the photoelectric conversion units A and B of the focus detection pixels LS, CS, and RS are changed from the vertical angle. there is

図12は、像ブレ補正後の焦点検出画素の受光角度と出力信号強度との関係を示す特性グラフであり、図5に示される画素瞳強度分布に像ブレ補正部材としての撮像素子104の移動による受光角度範囲を示している。図12に示されるように、撮像素子104が基準状態である場合、LS、RSの焦点検出画素は基準状態での受光角度範囲の信号強度の積分値の信号強度を出力する。 FIG. 12 is a characteristic graph showing the relationship between the light receiving angle of the focus detection pixel and the output signal intensity after image blur correction. , the light receiving angle range is shown. As shown in FIG. 12, when the image sensor 104 is in the reference state, the LS and RS focus detection pixels output the signal intensity of the integrated value of the signal intensity in the light receiving angle range in the reference state.

一方、図9(B)のように撮像素子が移動した際には、焦点検出画素LS、RSと撮像光学系の射出瞳位置が光軸と直交した相関方向(X方向)に移動するため、射出瞳から射出される光線の焦点検出画素の受光角度範囲が変化する。具体的には、撮像素子104が移動量Mだけ移動した際のLSとRSの焦点検出画素が受光する光線受光角度範囲を図12中に破線で記している。以上のように撮像素子104が移動して像ブレ補正を行う際には、画素瞳強度分布特性で積分される範囲が変化するため、A像とB像の重心間距離が変化する。これにより像ズレ量が変化する状態を、以下において説明する。 On the other hand, when the image sensor moves as shown in FIG. 9B, the focus detection pixels LS and RS and the exit pupil position of the imaging optical system move in the correlation direction (X direction) perpendicular to the optical axis. The light-receiving angle range of the focus detection pixels for light emitted from the exit pupil changes. Specifically, the light beam reception angle range received by the LS and RS focus detection pixels when the image sensor 104 is moved by the movement amount M is indicated by a dashed line in FIG. 12 . As described above, when the image sensor 104 is moved to perform image blur correction, the range to be integrated by the pixel pupil intensity distribution characteristic changes, so the distance between the centers of gravity of the A image and the B image changes. The state in which the image shift amount changes due to this will be described below.

図13は、撮像素子104の移動に伴う焦点検出画素へ入射する射出瞳の分割形状と一対の像ズレ信号における像ズレ量を示す図であり、図10および図11に示される焦点検出画素の受光状態において像ズレ量の変化状態を示している。図13(A)~(C)の左図は、焦点検出画素が図9中の射出瞳位置(射出瞳距離PO)にて受光が可能な撮像光学系の射出瞳範囲を示している。EP0は、撮像光学系の射出瞳範囲を示し、撮像光学系のF値や光線ケラレ状態で求められる範囲である。SA、SBは、光電変換部A、Bがそれぞれ受光を行う射出瞳の分割範囲である。 13A and 13B are diagrams showing the divided shape of the exit pupil incident on the focus detection pixels as the image sensor 104 moves and the amount of image shift in a pair of image shift signals. The change state of the image shift amount in the light receiving state is shown. The left diagrams of FIGS. 13A to 13C show the exit pupil range of the imaging optical system in which the focus detection pixels can receive light at the exit pupil position (exit pupil distance PO) in FIG. EP0 indicates the exit pupil range of the image pickup optical system, and is a range obtained from the F number of the image pickup optical system and the ray vignetting state. SA and SB are exit pupil division ranges in which the photoelectric conversion units A and B respectively receive light.

図13(A)は、像ブレ補正前の光電変換部A、Bに各主光線が垂直入射される撮像素子が移動していない状態を示す。図13(B)は、図9中のCS、RSのような状態で焦点検出画素に入射する主光線がX軸のプラス方向(図中の右方向)に角度が変化する状態を示す。図13(C)は、図9中のCS、RSのような状態で焦点検出画素に入射する主光線がX軸のマイナス方向に角度が変化する状態を示す。図13(A)、(B)、(C)の右図は、X方向における光電変換部A、Bの信号強度を示している。なお本実施形態において、個々での信号強度は、説明の簡略化のために撮像素子104の各像高部分での代表的な1つの焦点検出画素で説明した。ただし、相関演算(像ズレ量検出)に用いられる一対の位相差信号は、代表画素を中心とした相関方向(本実施形態ではX方向)のボケ像の像広がり分の焦点検出画素列から出力される信号を走査している。 FIG. 13A shows a state in which the image pickup device, in which the principal rays are perpendicularly incident on the photoelectric conversion units A and B before image blur correction, is not moved. FIG. 13B shows a state in which the angle of the principal ray incident on the focus detection pixels changes in the positive direction of the X axis (to the right in the drawing) in states such as CS and RS in FIG. FIG. 13C shows a state in which the angle of the principal ray incident on the focus detection pixels changes in the negative direction of the X-axis in states like CS and RS in FIG. The right diagrams of FIGS. 13A, 13B, and 13C show signal intensities of the photoelectric conversion units A and B in the X direction. In the present embodiment, the individual signal intensities are described for one representative focus detection pixel at each image height portion of the image sensor 104 for the sake of simplicity of explanation. However, the pair of phase difference signals used for the correlation calculation (detection of the amount of image shift) is output from the focus detection pixel array corresponding to the image spread of the blurred image in the correlation direction (X direction in this embodiment) centering on the representative pixel. is scanning the signal to be

図13(A)~(C)のRA、RBはそれぞれ、焦点検出画素の光電変換部A、Bで走査された信号強度を示している。Lは、その相関演算で求められる像ズレ量を示している。図13(A)の像ズレ量に対して図13(B)、(C)は図13(A)とは異なる基線長になっている。これは、受光角度による信号強度特性と非線形な特性であるためである。具体的には、図12の基準状態(撮像素子104が移動していない状態)でのLS、RS画素と撮像素子104が移動した状態における焦点検出画素の受光角度範囲が変化してその角度範囲での信号強度の積分値が変化を生じるためである。図13(B)は、図13(A)に対して像ズレ量が短く(小さく)、図13(C)は図13(A)に対して像ズレ量が長い(大きい)。 RA and RB in FIGS. 13A to 13C respectively indicate signal intensities scanned by the photoelectric conversion units A and B of the focus detection pixels. L indicates the image shift amount obtained by the correlation calculation. 13B and 13C have base line lengths different from those in FIG. 13A with respect to the image shift amount in FIG. This is because the signal intensity characteristics and non-linear characteristics depend on the light receiving angle. Specifically, the light-receiving angle range of the LS and RS pixels in the reference state of FIG. This is because the integrated value of the signal intensity at . 13B has a shorter (smaller) image shift amount than FIG. 13A, and FIG. 13C has a longer (larger) image shift amount than FIG. 13A.

以上のように、焦点検出の際にデフォーカス状態は変化が生じていないにも関わらず、像ブレ補正部材の移動が原因で、焦点検出時の像ズレ量に変化が生じる現象が発生する。このため、予め撮像装置100に記憶されている基線長情報を用いて式(A)、(B)を適用すると、正確なデフォーカス量を算出することができない。このため、合焦状態とするためには、多数回の焦点検出処理とフォーカス駆動を行わなければならない現象(以下、多回数合焦と呼ぶ)が発生する。以下、多回数合焦に関して説明する。 As described above, although the defocus state does not change during focus detection, the movement of the image blur correction member causes a phenomenon in which the image shift amount changes during focus detection. Therefore, if the equations (A) and (B) are applied using the baseline length information stored in the imaging apparatus 100 in advance, the defocus amount cannot be calculated accurately. Therefore, a phenomenon occurs in which focus detection processing and focus driving must be performed many times in order to achieve an in-focus state (hereinafter referred to as multi-time focusing). The multi-time focusing will be described below.

図14は、像ボケ量と像ブレ補正部材位置を異ならせて、基線長情報が誤差を生じた際のデフォーカス遷移状態を比較したグラフである。図14において、縦軸は実際のデフォーカス量、横軸は焦点検出を行って合焦状態と見なされるデフォーカス状態(以下、見切り合焦幅という)までにフォーカス駆動される駆動回数を示している。前記の式からブレ補正状態での最適な基線長情報に対して基線長情報から取得される基線長情報が長い状態である場合、真のデフォーカス量に対してデフォーカス量が小さく検出される。そしてそのデフォーカス量情報に基づいてフォーカス駆動を行っても、見切り合焦幅内に行きつかない現象が生じる。このため、図14の破線で示されるように、行き足らず状態のフォーカス駆動を多数回行って合焦状態とするため低速な合焦速度となる。 FIG. 14 is a graph comparing defocus transition states when an error occurs in the base line length information by varying the amount of image blur and the position of the image blur correction member. In FIG. 14, the vertical axis represents the actual defocus amount, and the horizontal axis represents the number of times the focus is driven until the defocus state (hereinafter referred to as the "parting-out in-focus width") which is regarded as an in-focus state after focus detection is performed. there is From the above equation, when the base line length information obtained from the base line length information is longer than the optimum base line length information in the shake correction state, the defocus amount is detected to be smaller than the true defocus amount. . Even if the focus drive is performed based on the defocus amount information, there occurs a phenomenon that the focusing width cannot be reached. For this reason, as indicated by the dashed line in FIG. 14, the incomplete focus drive is performed many times to achieve an in-focus state, resulting in a slow focusing speed.

逆に、最適な基線長情報に対して短い基線長情報を用いると、検出されるデフォーカス量が前記とは逆に大きくなる。このため、前記とは逆に真のデフォーカス量に対してデフォーカス量が大きく検出されてしまう。よって、図14(A)、(B)、(C)の一点鎖線で示されるように、フォーカス駆動量のフォーカス位置は合焦となるフォーカス位置を飛び越してしまう。そして、飛び越され停止したフォーカス位置で再び焦点検出が行われ、前回の焦点検出結果に対して逆符号のデフォーカス量が検出される。 Conversely, if short baseline length information is used with respect to the optimum baseline length information, the detected defocus amount will be large, contrary to the above. Therefore, contrary to the above, the defocus amount is detected to be larger than the true defocus amount. Therefore, as indicated by dashed lines in FIGS. 14A, 14B, and 14C, the focus position of the focus drive amount jumps over the focused focus position. Then, focus detection is performed again at the skipped and stopped focus position, and a defocus amount with a sign opposite to the previous focus detection result is detected.

ここでも短い基線長情報が用いられるため再び合焦となるフォーカス位置を飛び越す現象が生じ、このようなフォーカス移動を繰り返して見切り合焦幅内にデフォーカス量が収まるまでフォーカス移動が繰り返される。このようなフォーカス駆動が生じると、被写体像のボケ変化が不自然になり且つ低速な合焦速度となる。以上がブレ補正部材の移動により生じる基線長変化による合焦速度の低下状態である。 Since the short base length information is used here as well, a phenomenon occurs in which the focused position is skipped again, and such focus movement is repeated until the defocus amount falls within the cut-off in-focus width. When such focus driving occurs, the change in blurring of the subject image becomes unnatural and the focusing speed becomes low. The above is the state of reduction in the focusing speed due to the change in the base line length caused by the movement of the motion compensation member.

前述の原因にて多回数発生する合焦回数を減ずるためには、像ブレ補正部材の位置を検出して適正な基線長情報に補正をすることが望まれる。しかしながら、基線長の補正は、特に撮像光学系が交換可能な撮像装置においては、個々の撮像光学系の仕様と焦点検出時の撮像状態、並びに撮像素子の焦点検出座標等の情報を用いるため多大な計算負荷が生じる。また、計算が行われその結果が反映されるまでには遅延が生じ、焦点検出時に必要な真の基線長情報と乖離した情報となる可能性がある。 In order to reduce the number of times of focusing that occurs many times due to the above-mentioned causes, it is desirable to detect the position of the image blur correction member and correct the base line length information appropriately. However, correction of the base line length is very difficult, especially in an imaging apparatus with an interchangeable imaging optical system, because information such as the specifications of each imaging optical system, the imaging state at the time of focus detection, and the focus detection coordinates of the imaging element are used. computational load. In addition, there is a delay between the time when the calculation is performed and the result is reflected, and there is a possibility that the information will deviate from the true base line length information required for focus detection.

簡素な手段で前述の問題を解決するには、像ブレ補正部材を焦点検出直前まで規定位置に固定保持しておいて画像記録が行われる間だけ動作させるようにすることが考えられる。しかしながら、ユーザが撮影待機状態で被写体の確認を行っている間には、像ブレ補正を行って被写体を狙い易くすることが望まれる。そこで、ユーザが撮影待機時に像ブレ補正画像の官能的品位低下を減じて、かつ合焦速度の低下を簡素な手段で防止することが望ましい。 In order to solve the above problem with simple means, it is conceivable to fix the image blur correction member at a prescribed position until just before focus detection and operate it only while image recording is being performed. However, while the user is confirming the subject in the shooting standby state, it is desirable to perform image blur correction to make it easier to aim at the subject. Therefore, it is desirable for the user to reduce the sensory degradation of the blur-corrected image while waiting for shooting, and to prevent the reduction of the focusing speed by a simple means.

次に、焦点検出の際に被写体の像ボケ量と像ブレ補正部材の基準位置からの移動量により合焦までのフォーカス移動回数が変化することを示す。図14(A)は、焦点検出の際に像ボケ状態が大きく、かつ像ブレ補正部材位置が基準位置に対して大きく移動している状態でのデフォーカス遷移状態を示している。図14(B)は、図14(A)に対して、焦点検出の際に像ボケ量は同じであるが像ブレ補正部材移動量が小さい状態である場合の合焦状態までのデフォーカス状態履歴を示す。図14(C)は、図14(A)に対して、焦点検出の際に像ブレ補正部材移動量は同じであるが像ボケ量が小さい状態である場合の合焦状態までのデフォーカス遷移状態を示す。 Next, it will be shown that the number of focus movements until focusing changes depending on the image blur amount of the subject and the amount of movement of the image blur correction member from the reference position during focus detection. FIG. 14A shows a defocus transition state in which the image blur is large during focus detection and the position of the image blur correction member has largely moved with respect to the reference position. FIG. 14B shows a defocus state up to an in-focus state when the image blur amount is the same as in FIG. Show history. FIG. 14(C) shows a defocus transition to an in-focus state in a state where the image blur correction member movement amount is the same as in FIG. 14(A) but the image blur amount is small during focus detection. Indicates status.

図14(A)のグラフより、多回数合焦が起きる状態は焦点検出を開始するときに被写体が大きく焦点が外れた大ボケ像であり、かつ像ブレ補正部材が大きく移動を行っている状態であることが理解される。このため、大ボケ状態であっても図14(B)で示されるように像ブレ補正部材が規定位置に近ければ、前述のような像ブレ補正部材が原因となる像ズレ量の変化が減少されるため、既定の基線長情報を用いても合焦駆動回数を減じることができる。また、像ブレ補正部材が規定位置から乖離していても、図14(C)に示されるようにフォーカス位置が合焦位置に近ければ、少ない合焦駆動回数で合焦判定範囲にフォーカス移動が成される。よって、予め像ブレ補正部材の移動に伴う像ズレ量変化の影響情報を取得しておけば、焦点検出の開始時に被写体のボケ状態を検出して多回数の合焦が発生しない像ブレ補正部材の制御位置情報を算出することができる。 From the graph of FIG. 14(A), the state in which focusing occurs many times is a state in which the subject is greatly out of focus when focus detection is started, resulting in a large blurred image, and in which the image blur correction member has moved greatly. It is understood that Therefore, if the image blur correction member is close to the specified position as shown in FIG. 14B even in a large blur state, the change in the image shift amount caused by the image blur correction member as described above is reduced. Therefore, it is possible to reduce the number of times of focusing driving even if the predetermined base line length information is used. Also, even if the image blur correction member deviates from the specified position, if the focus position is close to the in-focus position as shown in FIG. is made. Therefore, if the influence information of the image shift amount change accompanying the movement of the image blur correction member is acquired in advance, the blurring state of the object is detected at the start of the focus detection, and the image blur correction member prevents the occurrence of focusing many times. can be calculated.

ここでの像ズレ量変化の影響を与える要因の諸量を集計するのが図1を参照して説明した合焦精度変化情報取得手段107である。そして制御位置情報を用いて像ブレ補正部材位置を移動制御してから焦点検出を行うことにより、合焦速度の低下を防止することができる。しかしながら、急激に像ブレ補正部材位置の移動制御を行うと表示されている被写体位置が急に変動するため、ユーザが狙っていた被写体位置を補正する必要があり、かつ官能的な品位低下を招く。このような被写体位置変化と官能的な問題は、デフォーカス量が小さくなるほど被写体の先鋭度が増すため、知覚影響が大きくなる問題が生じる。その対策として、焦点検出の際に焦点検出を行う被写体の像ボケ量を検出することで、像ブレ補正部材の制御量を求め、ユーザに対する知覚問題を低減しつつ合焦回数を低減して合焦時間の低下を防止することが有効である。 It is the focus accuracy change information obtaining means 107 explained with reference to FIG. By controlling the movement of the position of the image blur correction member using the control position information and then performing focus detection, it is possible to prevent a decrease in focusing speed. However, if the movement control of the position of the image blur correction member is performed abruptly, the position of the displayed object will suddenly change, so it is necessary to correct the position of the object that the user is aiming for, and this will lead to a deterioration in sensual quality. . Such subject position change and sensual problem raises a problem that perceptual influence increases as the sharpness of the subject increases as the defocus amount decreases. As a countermeasure, the amount of image blurring of the subject for which focus detection is performed is detected during focus detection to determine the amount of control of the image blur correction member. It is effective to prevent the reduction of the burning time.

次に、前述の知覚問題を低減しつつ合焦速度の低下を防止するため、像ブレ補正部材の制御位置情報を求める具体的な方法を以下に例を挙げて説明する。まず、像ブレ補正部材の特性に絡む要素と像ブレ補正部材の補正移動に伴う影響度に合わせて重み付けを設定する。像ブレ補正部材が補正レンズ群移動方式である場合、表1に示されるような補正レンズ群が最大移動を行った場合における光学ケラレ割合に応じて重み付け(1)を設定する。同時に、図1に示される虹彩絞り102の絞りこみ状態における重み付け(2)を設定し、重み付け(1)と重み付け(2)の重み付け係数を掛け算する。これにより、開放時での光線ケラレの影響と絞り込みによる光線ケラレ割合の緩和状態とを配慮した基線長変化に対する重み付けが設定された係数(5)を得る。なお本実施形態では、煩雑になるため、後述の撮像素子像高割合に対しての重み付けとしているが、撮像素子像高に対する複数の重み付け情報を予め用意するのが望ましい。 Next, a specific method for obtaining the control position information of the image blur correction member in order to prevent a decrease in focusing speed while reducing the above-described perceptual problem will be described below with reference to examples. First, weighting is set in accordance with the factors related to the characteristics of the image blur correction member and the degree of influence associated with the correction movement of the image blur correction member. When the image blur correction member is of the correcting lens group movement type, weighting (1) is set according to the optical vignetting rate when the correcting lens group as shown in Table 1 performs the maximum movement. At the same time, the weighting (2) in the narrowed state of the iris diaphragm 102 shown in FIG. 1 is set, and the weighting factors of weighting (1) and weighting (2) are multiplied. As a result, a coefficient (5) is obtained in which a weighting is set for the change in the base line length in consideration of the effects of ray vignetting when the aperture is wide open and the relaxation of the ray vignetting rate due to narrowing down. In the present embodiment, weighting is applied to the imaging element image height ratio, which will be described later, in order to avoid complication.

一方、像ブレ補正部材が撮像素子移動方式である場合、表2に示される撮像素子の受光瞳位置と撮像光学系の射出瞳位置との隔たり具合により基線長誤差の影響度を表現する。このため、基線長誤差の影響度をそれぞれ表2の(1’)と(2’)の逆数値の差分を取り、その絶対値に対して整数化倍率を掛けることで基線長誤差量に対する重み付けが設定された係数(5)を得る。 On the other hand, when the image blur correction member is of the imaging element moving type, the distance between the light receiving pupil position of the imaging element and the exit pupil position of the imaging optical system shown in Table 2 expresses the degree of influence of the baseline length error. For this reason, the difference between the reciprocal values of (1') and (2') in Table 2 is taken as the influence of the baseline length error, and the absolute value is multiplied by an integer scaling factor to weight the baseline length error amount. to get the coefficient (5) set to .

次に、像ブレ補正部材の種類によらない撮像装置の焦点検出状態における重み付け共通項目を表3に示す。撮像素子像高割合の重み付け(6)は、撮像素子上で焦点検出が行われる位置に対する重み付けであり、撮像素子の周辺に行くに従って重み付けを大きくする。例えば、図2に示されるような焦点検出画素構造である場合の相関方向が水平方向(図2ではX方向)の一方向である場合、撮像素子の水平中心(水平原点)から水平方向の距離(水平座標)の絶対値範囲で分けるようにしてもよい。 Next, Table 3 shows weighted common items in the focus detection state of the imaging device, regardless of the type of image blur correction member. The weighting (6) of the image height ratio of the imaging element is weighting for the position where focus detection is performed on the imaging element, and the weighting increases toward the periphery of the imaging element. For example, when the correlation direction in the case of the focus detection pixel structure as shown in FIG. 2 is one horizontal direction (the X direction in FIG. 2), the horizontal distance You may make it divide by the absolute value range of (horizontal coordinate).

次に、像ボケ量の重み付け(7)は、一対の相関信号から得られる像ズレ量から判定され、像ズレ量が大きくなるほどボケ状態が大きいとして重み付けが大きくなるように設定される。ここでは、像ズレの大きさを示す単位として撮像素子の画素ピッチ幅を例としている。なお、ボケ状態をより正確に行うため、焦点検出範囲での被写体のコントラスト評価を行いその結果を加味してもよい。 Next, the weighting (7) of the image blur amount is determined from the image shift amount obtained from the pair of correlation signals, and is set so that the larger the image shift amount, the larger the blur state, and the larger the weighting. Here, the pixel pitch width of the image sensor is used as an example of the unit indicating the magnitude of the image shift. In addition, in order to determine the blurring state more accurately, the subject contrast evaluation may be performed within the focus detection range and the result thereof may be taken into consideration.

(8)は、焦点検出の際の像ブレ補正部材が中立の規定位置に対してプラス位置かマイナス位置かにより重み付け値を選択するものである。時系列で像ブレ補正部材位置が中立位置を跨る場合があるが、その現象は像ブレ補正部材位置が中立位置に対して微少な移動状態であるとして、像ブレ補正部材を制御する動作を行わず焦点検出とフォーカス駆動を行うようにするとよい。以上にて、重み付け係数(6)、(7)、(8)が選択される。 (8) selects a weighting value depending on whether the image blur correction member is at a positive position or a negative position with respect to a prescribed neutral position during focus detection. The position of the image blur correction member may straddle the neutral position in time series, but this phenomenon is considered to be a state in which the position of the image blur correction member moves slightly with respect to the neutral position, and the operation of controlling the image blur correction member is performed. Focus detection and focus driving should be performed first. Weighting factors (6), (7), and (8) are selected as described above.

次に、選択された重み付け係数から像ブレ補正部材の制御値を算出する。このため、重み付けの正規化係数を事前に取得しておく。表4は、重み付け正規化係数を取得するための項目であり、基線長変化に対する重み付け(5)が取り得る最大値(9)、撮像素子像高割合の重み付け最大値(10)、像ボケ量の重み付けの最大値(11)を取得しておく。次に、以上得られた各重み付け係数を用いて焦点検出時に検出されている像ブレ補正部材位置に対して合焦速度低下を防止するための像ブレ補正部材の許容できる最大位置を算出する。 Next, a control value for the image blur correction member is calculated from the selected weighting factor. For this reason, a weighting normalization coefficient is acquired in advance. Table 4 shows the items for obtaining the weighted normalization coefficient, the maximum value (9) that the weighting (5) for the change in the baseline length can take, the maximum weighting value of the imaging device image height ratio (10), and the amount of image blur. The maximum value (11) of the weighting of is obtained. Next, using the respective weighting coefficients obtained above, the allowable maximum position of the image blur correction member for preventing a reduction in focusing speed is calculated with respect to the position of the image blur correction member detected during focus detection.

表5は、像ブレ補正部材制御値を算出する項目である。まず、基となる像ブレ補正部材の最大移動量を(A)とする。そして、焦点検出状態と撮像装置の仕様に伴う基線長変化に対する重み付け係数(5)、(6)、(7)、(8)を積算したものを(B)とする。そして重み付けの正規化のために(9)、(10)、(11)を積算したものを(C)として、(B)から(C)にて除算を行い(D)とする。(E)は焦点検出時の像ブレ補正部材位置のプラス位置かマイナス位置かにより計算式内での数値符号を配慮するためのものである。以上得られている(A)、(D)、(E)から合焦速度低下を防止するために補正を行う像ブレ補正部材の許容位置は、以下の式(1)で導かれる。 Table 5 shows items for calculating the image blur correction member control value. First, let (A) be the maximum amount of movement of the base image blur correction member. (B) is obtained by multiplying the weighting coefficients (5), (6), (7), and (8) with respect to the focus detection state and the change in the base line length due to the specifications of the imaging device. Then, for normalization of weighting, (9), (10), and (11) are multiplied to obtain (C), and (B) is divided by (C) to obtain (D). (E) is for considering the numerical sign in the calculation formula depending on whether the position of the image blur correction member at the time of focus detection is a plus position or a minus position. From (A), (D), and (E) obtained above, the permissible position of the image blur correction member that performs correction to prevent a decrease in focusing speed is derived from the following equation (1).

((A)-((A)x(D)x(E)))x(E) ・・・ (1)
式(1)は、像ブレ補正部材の最大移動位置から基線長変化影響度に応じて移動量を制限するような計算構造である。焦点検出の際の像ブレ補正部材が式(1)で算出された位置よりも離れている場合、式(1)で得られる位置に補正を行ってから再び焦点検出を行ってその結果からデフォーカス量を算出してフォーカス駆動を行う。一方、焦点検出の際の像ブレ補正部材が式(1)で算出された位置よりも離れていない場合、そのまま焦点検出結果からデフォーカス量を算出してフォーカス駆動を行うようにすれば良い。
((A)-((A)x(D)x(E)))x(E) (1)
Equation (1) is a calculation structure that limits the amount of movement from the maximum movement position of the image blur correction member according to the degree of influence of change in base line length. If the image blur correction member during focus detection is farther than the position calculated by equation (1), correction is performed to the position obtained by equation (1), focus detection is performed again, and the result is defocused. Focus drive is performed by calculating the focus amount. On the other hand, if the image blur correction member during focus detection is not at a distance from the position calculated by the formula (1), the defocus amount may be calculated directly from the focus detection result and focus drive may be performed.

以上の計算処理を行うことで、ボケ状態に応じて像ブレ補正部材位置を制御して合焦速度の低下を防止することが出来る撮像装置が達成される。なお本実施形態において、前述の各重み付け係数は、計算負荷低減のためリスト方式としてプリセット値を選択することにより得られるが、各重み付けを補間算出するため多項式の係数として保持するようにしてもよい。 By performing the above calculation processing, it is possible to achieve an imaging apparatus capable of controlling the position of the image blur correction member according to the blur state and preventing the reduction of the focusing speed. In this embodiment, each weighting coefficient described above is obtained by selecting a preset value as a list method to reduce the calculation load, but each weighting may be held as a polynomial coefficient for interpolation calculation. .

次に、図15を参照して、本実施形態における撮像装置100で焦点位置検出を行い撮像光学系の合焦動作までの処理の流れの一例を述べる。図15は、本実施形態における制御方法(撮像装置100の合焦処理)を示すフローチャートである。図15の各ステップは、撮像装置100の各部により実行される。 Next, with reference to FIG. 15, an example of the flow of processing from focus position detection in the imaging apparatus 100 according to the present embodiment to focusing operation of the imaging optical system will be described. FIG. 15 is a flow chart showing the control method (focusing process of the imaging device 100) in this embodiment. Each step in FIG. 15 is executed by each unit of the imaging device 100 .

本実施形態では、まずステップS01において、ユーザがシャッターレリーズスイッチを操作して撮像装置100の合焦動作が開始する。ただし、焦点検出動作は撮像装置の電源が投入されたタイミングで開始することも可能であり、以下の処理がシャッターレリーズ操作前に行われていてもよい。 In this embodiment, first, in step S01, the user operates the shutter release switch to start the focusing operation of the imaging device 100. FIG. However, the focus detection operation can be started at the timing when the imaging device is powered on, and the following processing may be performed before the shutter release operation.

続いて、焦点検出を行うにあたり、ステップS02において撮像装置100は焦点検出位置を取得する。焦点検出位置は、撮像素子104における有効画素領域の中心位置からの距離座標の他に最周辺位置に対する割合を用いてもよい。ステップS02にて焦点検出位置が定まった場合、その領域の一対の相関信号を抽出する。そしてステップS03において、撮像装置100は焦点検出動作を行う。ここでは、得られた相関量から像ズレ量を換算する。 Subsequently, in performing focus detection, the imaging device 100 acquires a focus detection position in step S02. For the focus detection position, the distance coordinate from the center position of the effective pixel area in the image sensor 104 or the ratio to the outermost peripheral position may be used. When the focus detection position is determined in step S02, a pair of correlation signals for that area is extracted. Then, in step S03, the imaging device 100 performs a focus detection operation. Here, the image shift amount is converted from the obtained correlation amount.

続いてステップS04において、撮像装置100は、像ズレ量から、焦点検出を行った領域の被写体の像ボケ量を推定した像ボケ量情報を取得する。続いてステップS05において、撮像装置100は、焦点検出の際の像ブレ補正部材位置情報を取得する。続いてステップS06において、撮像装置100は、ステップS04にて得られた像ボケ量と像ブレ補正部材位置が補正必要閾値よりも大きいか否かを判定する。ステップS06にて像ボケ量と像ブレ補正部材位置が補正必要閾値よりも小さい場合、ステップS12へ移行する。一方、像ボケ量と像ブレ補正部材位置が補正必要閾値よりも大きい場合、ステップS07に移行し、撮像装置100は基線長変化要素情報(合焦精度変化情報)を取得する。基線長変化要素情報は、像ブレ補正部材の移動に伴い像ズレ量が変化する要素に関する情報である。撮像装置100が補正レンズ群移動方式を採用している場合、補正レンズ群の移動に伴う光線ケラレ状態の情報である。一方、撮像装置100が撮像素子移動方式を採用している場合、前述のように、撮像素子104が移動することにより焦点検出画素の信号強度変化影響に関わりのある撮像素子104の受光瞳位置と撮像光学系射出瞳位置との差異距離量が要素となる。 Subsequently, in step S04, the imaging apparatus 100 acquires image blur amount information obtained by estimating the image blur amount of the subject in the area where focus detection was performed from the image shift amount. Subsequently, in step S05, the imaging apparatus 100 acquires image blur correction member position information during focus detection. Subsequently, in step S06, the imaging apparatus 100 determines whether or not the image blur amount and the image blur correction member position obtained in step S04 are larger than the correction necessary threshold. If the image blur amount and the image blur correction member position are smaller than the correction necessary threshold in step S06, the process proceeds to step S12. On the other hand, when the image blur amount and the image blur correction member position are larger than the correction necessary threshold, the imaging apparatus 100 proceeds to step S07 and acquires base line length change factor information (focusing accuracy change information). The base line length change factor information is information relating to factors that change the image shift amount as the image blur correction member moves. When the imaging apparatus 100 adopts the correction lens group moving method, the information is information on the state of ray vignetting caused by the movement of the correction lens group. On the other hand, when the image pickup apparatus 100 employs the image pickup element moving method, as described above, the light receiving pupil position of the image pickup element 104 and the light receiving pupil position of the image pickup element 104 related to the influence of changes in the signal intensity of the focus detection pixels due to the movement of the image pickup element 104. The difference distance amount from the imaging optical system exit pupil position is a factor.

続いてステップS08において、撮像装置100は、像ブレ補正部材の最大許容位置を計算する。なお、この計算の例については後述する。続いてステップS09において、撮像装置100は、ステップS08にて取得された像ブレ補正部材位置の許容位置(最大許容位置)が許容位置閾値よりも大きいか否かを判定する。許容位置が許容位置閾値よりも大きい場合、ステップS10に進み、撮像装置100は像ブレ補正部材を許容位置内に移動させる。なお、像ブレ補正部材の移動は、像ブレ補正部材の中立位置からステップS08にて算出された許容位置の範囲内であればよいため、粗い精度での駆動で構わない。 Subsequently, in step S08, the imaging device 100 calculates the maximum allowable position of the image blur correction member. An example of this calculation will be described later. Subsequently, in step S09, the imaging apparatus 100 determines whether or not the allowable position (maximum allowable position) of the image blur correction member position acquired in step S08 is larger than the allowable position threshold. If the permissible position is greater than the permissible position threshold, the imaging apparatus 100 proceeds to step S10 and moves the image blur correction member into the permissible position. Note that the image blur correction member can be moved within the range of the allowable position calculated in step S08 from the neutral position of the image blur correction member.

像ブレ補正部材の移動後、ステップS11において、撮像装置100は、焦点検出動作を再び行う。そして撮像装置100は、ステップS11の焦点検出動作により得られた相関(像ズレ)情報に基づいて、焦点検出の際における撮像光学系の設定状態に応じた基線長情報を取得する。続いてステップS12において、撮像装置100は、基線長情報と相関量とに基づいてデフォーカス量に関する演算を行い、残存しているデフォーカス状態を合焦状態にするためのフォーカス駆動量(フォーカス駆動量情報)を算出する。続いてステップS13において、撮像装置100は、得られたフォーカス駆動量を用いてフォーカス駆動動作を行う。フォーカス駆動動作を行った後、ステップS14において、撮像装置100は再び焦点検出動作を行い、焦点検出動作により検出された相関量から再びデフォーカス量を検出する。 After moving the image blur correction member, in step S11, the imaging device 100 performs the focus detection operation again. Based on the correlation (image deviation) information obtained by the focus detection operation in step S11, the imaging apparatus 100 acquires baseline length information corresponding to the setting state of the imaging optical system during focus detection. Subsequently, in step S12, the imaging apparatus 100 performs calculation regarding the defocus amount based on the baseline length information and the correlation amount, and the focus drive amount (focus drive amount) for bringing the remaining defocus state into the focused state. quantity information). Subsequently, in step S13, the imaging device 100 performs a focus driving operation using the obtained focus driving amount. After performing the focus driving operation, in step S14, the imaging apparatus 100 performs the focus detection operation again, and detects the defocus amount again from the correlation amount detected by the focus detection operation.

続いてステップS15において、検出されたデフォーカス量が合焦と見なされる範疇の範囲内(合焦状態)であるか否かを判定する(合焦判定を行う)。ステップS15にて合焦状態ではないと判定された場合、ステップS12に戻る。そして撮像装置100は、再び、合焦状態にするためのフォーカス駆動量算出、フォーカス駆動動作、および、焦点検出動作を行い、ステップS15にて合焦状態と判定されるまでステップS12~S14の処理を繰り返す。一方、ステップS15にて合焦状態であると判定された場合、撮像装置100は、焦点検出動作を止めて静止画撮影時には画像取り込み動作等に移行する。 Subsequently, in step S15, it is determined whether or not the detected defocus amount is within the range (in-focus state) considered to be in-focus (in-focus determination is performed). If it is determined in step S15 that the focus state is not reached, the process returns to step S12. Then, the imaging apparatus 100 performs the focus driving amount calculation, the focus driving operation, and the focus detection operation to bring the in-focus state again, and performs the processing of steps S12 to S14 until the in-focus state is determined in step S15. repeat. On the other hand, if it is determined in step S15 that the camera is in focus, the imaging apparatus 100 stops the focus detection operation and shifts to an image capturing operation or the like when photographing a still image.

ステップS09において、ステップS08にて算出された像ブレ補正部材の最大許容位置が許容位置閾値よりも小さいと判定された場合、ステップS12へ移行し、撮像装置100は合焦状態になるまでステップS12~S14の処理を繰り返す。以上、本実施形態の焦点検出から像ボケ状態に応じた像ブレ補正部材の位置制御を行って合焦までのフローについて説明した。 If it is determined in step S09 that the maximum permissible position of the image blur correction member calculated in step S08 is smaller than the permissible position threshold value, the process proceeds to step S12, and until the imaging apparatus 100 is in a focused state, step S12 is performed. The processing of to S14 is repeated. The flow from the focus detection of the present embodiment to the position control of the image blur correction member according to the image blurring state and the focusing has been described above.

次に、図16を参照して、図2乃至図4の説明で述べたように焦点検出画素がX方向とY方向の両方向の相関演算が可能な撮像装置に関しての処理方法を説明する。ここでは、像ブレ補正部材の移動制御量を減少するため、X、Yの両方向の相関結果と像ブレ補正部材の位置を検出して、像ブレ補正部材の移動制御が小さくなる方向の相関結果で合焦駆動を行う方法について説明する。 Next, referring to FIG. 16, a processing method for an imaging apparatus in which focus detection pixels are capable of performing correlation calculations in both the X direction and the Y direction as described with reference to FIGS. 2 to 4 will be described. Here, in order to reduce the movement control amount of the image blur correction member, the correlation result in both the X and Y directions and the position of the image blur correction member are detected, and the correlation result in the direction in which the movement control of the image blur correction member becomes small. A method of performing focusing drive will be described.

図16は、本実施形態における別の制御方法を示すフローチャートである。図16の各ステップは、撮像装置100の各部により実行される。まずステップS101、S102において、図15のステップS01、S02と同様に、撮像装置100は、ユーザのシャッターレリーズ操作により決定される焦点検出位置を取得する。続いてステップS103において、撮像装置100は、相関のX方向とY方向への像ブレ補正部材の移動量(移動制御量)を取得する。ここでの移動量は、像ブレ補正部材の無補正状態の規定位置からの移動量に相当する。 FIG. 16 is a flow chart showing another control method in this embodiment. Each step in FIG. 16 is executed by each unit of the imaging device 100 . First, in steps S101 and S102, the imaging device 100 acquires the focus detection position determined by the user's shutter release operation, similarly to steps S01 and S02 in FIG. Subsequently, in step S103, the imaging apparatus 100 acquires the amount of movement (movement control amount) of the image blur correction member in the X and Y directions of the correlation. The amount of movement here corresponds to the amount of movement of the image blur correction member from the specified position in the uncorrected state.

続いてステップS104において、撮像装置100は、X方向とY方向の移動量を比較し、いずれの方向の移動量が小さいかを判定する。このときの比較量は、移動のプラス方向とマイナス方向に関わららないように絶対値比較すればよい。ただし、方向により像ズレ量変化の影響度が異なる場合、移動方向に対しての移動量に合焦精度変化情報である重み付けを行うようにしてもよい。ステップS104にてX方向における像ブレ補正部材の移動量がY方向の移動量よりも小さい場合、ステップS105へ移行し、撮像装置100はX方向の像ブレ補正部材の移動制御を選択する。一方、Y方向の移動量がX方向の移動量よりも小さい場合、ステップS106へ移行し、撮像装置100はY方向の像ブレ補正部材の移動制御を選択する。 Subsequently, in step S104, the imaging device 100 compares the amount of movement in the X direction and the amount of movement in the Y direction, and determines in which direction the amount of movement is smaller. The amount of comparison at this time may be compared in absolute value so as not to affect the positive direction and the negative direction of movement. However, if the degree of influence of the change in the amount of image shift differs depending on the direction, the amount of movement in the direction of movement may be weighted as focusing accuracy change information. If the movement amount of the image blur correction member in the X direction is smaller than the movement amount in the Y direction in step S104, the process proceeds to step S105, and the imaging apparatus 100 selects movement control of the image blur correction member in the X direction. On the other hand, when the amount of movement in the Y direction is smaller than the amount of movement in the X direction, the imaging apparatus 100 proceeds to step S106 and selects movement control of the image blur correction member in the Y direction.

続いてステップS107において、撮像装置100は、ステップS105またはステップS105にて選択された相関方向で焦点検出動作を行い、その相関方向において、図15のAに移行し、像ボケ量の検出処理以降を前述と同様に行って合焦状態とする。以上により、像ブレ補正部材の制御量(移動制御量)が減少し、移動制御時間の短縮と制御時の被写体像の移動変化量を抑制することが可能となる。 Subsequently, in step S107, the imaging apparatus 100 performs the focus detection operation in the correlation direction selected in step S105 or step S105. is performed in the same manner as described above to bring the in-focus state. As described above, the control amount (movement control amount) of the image blur correction member is reduced, and it becomes possible to shorten the movement control time and suppress the movement change amount of the subject image during control.

本実施形態によれば、像ブレを補正する際の像ブレ補正部材の移動による焦点検出変化が起因となる合焦時間の低下を簡素な処理で抑制することができる。本実施形態は、好ましくは、位相差検出方式の焦点検出用画素を有する撮像素子を備えた撮像装置に適用される。また本実施形態は、撮像光学系内のレンズ群または撮像素子を移動させて像ブレを補正する一眼レフカメラやコンパクトデジタルカメラの他に、ビデオカメラ等の撮像装置に適用可能である。 According to the present embodiment, it is possible to suppress, with a simple process, reduction in focusing time caused by changes in focus detection due to movement of the image blur correction member when correcting image blur. The present embodiment is preferably applied to an image pickup apparatus including an image pickup device having phase difference detection type focus detection pixels. In addition to single-lens reflex cameras and compact digital cameras in which image blur is corrected by moving a lens group or an imaging element in an imaging optical system, the present embodiment can be applied to an imaging apparatus such as a video camera.

表6は、撮像装置100が補正レンズ群移動補正方式を採用している場合の大ボケ状態および小ボケ状態での制御計算の例を示す。表7は、撮像装置100が撮像素子移動補正方式を採用している場合の大ボケ状態および小ボケ状態での制御計算の例を示す。 Table 6 shows an example of control calculation in a large blurring state and a small blurring state when the imaging apparatus 100 adopts the correction lens group movement correction method. Table 7 shows an example of control calculation in a large blurring state and a small blurring state when the imaging apparatus 100 adopts the imaging device movement correction method.

このように本実施形態において、制御装置(撮像装置100)は、焦点検出手段(相関演算手段116)および算出手段(フォーカス駆動量算出手段117)を有する。また制御装置は、補正手段(像ブレ補正部材駆動量決定手段112、撮像素子駆動手段114)および取得手段(合焦精度変化情報取得手段107)を有する。焦点検出手段は、撮像光学系の第1の瞳領域を通過した光束から得られる第1の像信号と、撮像光学系の第2の瞳領域を通過した光束から得られる第2の像信号との相関量に基づいて焦点検出を行う(像ズレ量を算出する)。算出手段は、焦点検出の結果に基づいて、合焦制御を行うためのフォーカス駆動量を算出する。補正手段は、像ブレ補正部材の移動により像ブレ補正を行う。取得手段は、像ブレ補正部材の移動による合焦精度の変化に関する情報(合焦精度変化情報)を取得する。補正手段は、合焦精度の変化に関する情報を用いて前記像ブレ補正部材の移動制御を行う。算出手段は、像ブレ補正部材の移動制御後の焦点検出の結果に基づいて、フォーカス駆動量を算出する。 Thus, in this embodiment, the control device (imaging device 100) has focus detection means (correlation calculation means 116) and calculation means (focus driving amount calculation means 117). The control device also has correcting means (image blur correction member driving amount determining means 112, imaging element driving means 114) and acquiring means (focusing precision change information acquiring means 107). The focus detection means generates a first image signal obtained from the light flux passing through the first pupil region of the imaging optical system and a second image signal obtained from the light flux passing through the second pupil region of the imaging optical system. Focus detection is performed based on the correlation amount of (image shift amount is calculated). The calculation means calculates a focus drive amount for performing focus control based on the result of focus detection. The correction means performs image blur correction by moving the image blur correction member. The acquisition means acquires information (focusing accuracy change information) on changes in focusing accuracy due to movement of the image blur correction member. The correction means controls the movement of the image blur correction member using information about changes in focusing accuracy. The calculation means calculates a focus drive amount based on the result of focus detection after movement control of the image blur correction member.

好ましくは、像ブレ補正部材は撮像素子(104)である。合焦精度の変化に関する情報は、撮像素子の入射瞳位置情報(撮像素子受光瞳情報108)と撮像光学系の射出瞳位置情報(撮像光学系射出瞳情報109)と撮像素子における焦点検出の画素位置情報(焦点検出範囲)とを含む。また好ましくは、像ブレ補正部材は撮像光学系の像ブレ補正レンズであり、合焦精度の変化に関する情報は、撮像素子における焦点検出の画素位置情報(焦点検出範囲)と像ブレ補正レンズにおける像ブレ補正の際の光線ケラレ情報とを含む。 Preferably, the image blur correction member is an imaging device (104). Information about changes in focusing accuracy includes entrance pupil position information of the imaging element (imaging element light receiving pupil information 108), exit pupil position information of the imaging optical system (imaging optical system exit pupil information 109), and pixels for focus detection in the imaging element. position information (focus detection range). Preferably, the image blur correction member is an image blur correction lens of the image pickup optical system, and the information about the change in focusing accuracy is pixel position information (focus detection range) for focus detection in the image sensor and an image blur correction lens in the image blur correction lens. ray vignetting information for blur correction.

好ましくは、合焦精度の変化に関する情報は、焦点検出の結果に基づいて取得された被写体の像ボケ量情報を含む。また好ましくは、補正手段は、合焦精度の変化に関する情報に基づく像ブレ補正部材の移動制御による移動量が所定の移動量を超えていない場合、前記情報に基づく移動制御を行わない(S06)。 Preferably, the information about the change in focusing accuracy includes image blur amount information of the object obtained based on the result of focus detection. Preferably, the correcting means does not perform the movement control based on the information when the movement amount of the image blur correction member movement control based on the information regarding the change in focusing accuracy does not exceed a predetermined movement amount (S06). .

好ましくは、補正手段は、焦点検出手段が焦点検出を行う相関方向のみを移動制御方向として、像ブレ補正部材を移動させる(S104~S107)。より好ましくは、補正手段は、移動制御方向に応じて、像ブレ補正部材の移動量を変更する(S105、S106)。より好ましくは、焦点検出手段は、第1の方向における第1の相関量および第2の方向における第2の相関量を算出し、第1の相関量が第2の相関量よりも小さい場合、第1の相関量を用いて焦点検出を行う。そして補正手段は、像ブレ補正部材を第1の方向に移動させてから、像ブレ補正を行う(S107)。 Preferably, the correction means moves the image blur correction member with only the correlation direction in which the focus detection means performs focus detection as the movement control direction (S104 to S107). More preferably, the correction means changes the movement amount of the image blur correction member according to the movement control direction (S105, S106). More preferably, the focus detection means calculates a first correlation amount in the first direction and a second correlation amount in the second direction, and when the first correlation amount is smaller than the second correlation amount, Focus detection is performed using the first correlation amount. Then, the correction means moves the image blur correction member in the first direction, and then performs image blur correction (S107).

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

本実施形態によれば、簡素な構成で、像ブレ補正の際のフォーカス駆動量の誤差を低減して合焦速度の低下を抑制することが可能な制御装置、撮像装置、制御方法、および、プログラムを提供することができる。 According to the present embodiment, a control device, an imaging device, and a control method capable of suppressing a decrease in focusing speed by reducing an error in the amount of focus driving during image blur correction with a simple configuration, and program can be provided.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes are possible within the scope of the gist.

Figure 0007282598000001
Figure 0007282598000001

Figure 0007282598000002
Figure 0007282598000002

Figure 0007282598000003
Figure 0007282598000003

Figure 0007282598000004
Figure 0007282598000004

Figure 0007282598000005
Figure 0007282598000005

Figure 0007282598000006
Figure 0007282598000006

Figure 0007282598000007
Figure 0007282598000007

100 撮像装置(制御装置)
107 合焦精度変化情報取得手段(取得手段)
112 像ブレ補正部材駆動量決定手段(補正手段)
114 撮像素子駆動手段(補正手段)
116 相関演算手段(焦点検出手段)
117 フォーカス駆動量算出手段(算出手段)
100 imaging device (control device)
107 focusing accuracy change information acquisition means (acquisition means)
112 image blur correction member drive amount determination means (correction means)
114 Imaging element drive means (correction means)
116 Correlation calculation means (focus detection means)
117 focus driving amount calculation means (calculation means)

Claims (12)

撮像光学系の第1の瞳領域を通過した光束から得られる第1の像信号と、前記撮像光学系の第2の瞳領域を通過した光束から得られる第2の像信号との相関量に基づいて焦点検出を行う焦点検出手段と、
前記焦点検出の結果に基づいて、合焦制御を行うためのフォーカス駆動量を算出する算出手段と、
像ブレ補正部材の移動により像ブレ補正を行う補正手段と、
前記像ブレ補正部材の前記移動による合焦精度の変化に関する情報を取得する取得手段と、を有し、
前記補正手段は、前記情報を用いて前記像ブレ補正部材の移動制御を行い、
前記算出手段は、前記像ブレ補正部材の移動制御後の前記焦点検出の結果に基づいて、前記フォーカス駆動量を算出し、
前記情報は、前記焦点検出の結果に基づいて取得された被写体の像ボケ量情報を含むことを特徴とする制御装置。
The amount of correlation between the first image signal obtained from the light flux that has passed through the first pupil region of the imaging optical system and the second image signal obtained from the light flux that has passed through the second pupil region of the imaging optical system focus detection means for performing focus detection based on
calculation means for calculating a focus drive amount for performing focus control based on the result of the focus detection;
correction means for correcting image blur by moving an image blur correction member;
acquisition means for acquiring information about changes in focusing accuracy due to the movement of the image blur correction member;
The correcting means controls the movement of the image blur correction member using the information,
the calculation means calculates the focus drive amount based on the result of the focus detection after movement control of the image blur correction member ;
The control device , wherein the information includes image blur amount information of a subject obtained based on the result of the focus detection .
前記像ブレ補正部材は、撮像素子であり、
前記情報は、前記撮像素子の入射瞳位置情報と、前記撮像光学系の射出瞳位置情報と、前記撮像素子における前記焦点検出の画素位置情報と、を含むことを特徴とする請求項1に記載の制御装置。
The image blur correction member is an imaging device,
2. A method according to claim 1, wherein said information includes entrance pupil position information of said imaging element, exit pupil position information of said imaging optical system, and pixel position information of said focus detection in said imaging element. controller.
前記像ブレ補正部材は、前記撮像光学系の像ブレ補正レンズであり、
前記情報は、撮像素子における前記焦点検出の画素位置情報と、前記像ブレ補正レンズにおける前記像ブレ補正の際の光線ケラレ情報と、を含むことを特徴とする請求項1に記載の制御装置。
The image blur correction member is an image blur correction lens of the imaging optical system,
2. The control device according to claim 1, wherein the information includes pixel position information for the focus detection in the imaging device and light ray vignetting information for the image blur correction in the image blur correction lens.
前記補正手段は、前記情報に基づく前記像ブレ補正部材の前記移動制御による移動量が所定の移動量を超えていない場合、前記情報に基づく前記移動制御を行わないことを特徴とする請求項1乃至のいずれか一項に記載の制御装置。 2. The correction means does not perform the movement control based on the information when the amount of movement of the image blur correction member by the movement control based on the information does not exceed a predetermined movement amount. 4. The control device according to any one of items 1 to 3 . 前記補正手段は、前記焦点検出手段が前記焦点検出を行う相関方向のみを移動制御方向として、前記像ブレ補正部材を移動させることを特徴とする請求項1乃至のいずれか一項に記載の制御装置。 5. The image blur correction member according to claim 1, wherein the correction means moves the image blur correction member only in the direction of correlation in which the focus detection is performed by the focus detection means as a movement control direction. Control device. 前記補正手段は、前記移動制御方向に応じて、前記像ブレ補正部材の移動量を変更することを特徴とする請求項に記載の制御装置。 6. The control device according to claim 5 , wherein said correction means changes the movement amount of said image blur correction member according to said movement control direction. 撮像光学系の第1の瞳領域を通過した光束から得られる第1の像信号と、前記撮像光学系の第2の瞳領域を通過した光束から得られる第2の像信号との相関量に基づいて焦点検出を行う焦点検出手段と、The amount of correlation between the first image signal obtained from the light flux that has passed through the first pupil region of the imaging optical system and the second image signal obtained from the light flux that has passed through the second pupil region of the imaging optical system focus detection means for performing focus detection based on
前記焦点検出の結果に基づいて、合焦制御を行うためのフォーカス駆動量を算出する算出手段と、calculation means for calculating a focus drive amount for performing focus control based on the result of the focus detection;
像ブレ補正部材の移動により像ブレ補正を行う補正手段と、correction means for correcting image blur by moving an image blur correction member;
前記像ブレ補正部材の前記移動による合焦精度の変化に関する情報を取得する取得手段と、を有し、acquisition means for acquiring information about changes in focusing accuracy due to the movement of the image blur correction member;
前記補正手段は、前記情報を用いて前記像ブレ補正部材の移動制御を行い、The correcting means controls the movement of the image blur correction member using the information,
前記算出手段は、前記像ブレ補正部材の移動制御後の前記焦点検出の結果に基づいて、前記フォーカス駆動量を算出し、The calculation means calculates the focus drive amount based on the result of the focus detection after movement control of the image blur correction member,
前記補正手段は、前記情報に基づく前記像ブレ補正部材の前記移動制御による移動量が所定の移動量を超えていない場合、前記情報に基づく前記移動制御を行わないことを特徴とする制御装置。The control device, wherein the correction means does not perform the movement control based on the information when the movement amount of the image blur correction member by the movement control based on the information does not exceed a predetermined movement amount.
撮像素子と、
請求項1乃至のいずれか一項に記載の制御装置と、を有することを特徴とする撮像装置。
an imaging device;
An imaging apparatus comprising: the control apparatus according to any one of claims 1 to 7 .
前記撮像素子は、前記第1の像信号および前記第2の像信号を出力する焦点検出画素を有することを特徴とする請求項に記載の撮像装置。 9. The imaging apparatus according to claim 8 , wherein said imaging device has focus detection pixels that output said first image signal and said second image signal. 撮像光学系の第1の瞳領域を通過した光束から得られる第1の像信号と、前記撮像光学系の第2の瞳領域を通過した光束から得られる第2の像信号との相関量に基づいて焦点検出を行う焦点検出ステップと、
前記焦点検出の結果に基づいて、合焦制御を行うためのフォーカス駆動量を算出する算出ステップと、
像ブレ補正部材の移動により像ブレ補正を行う補正ステップと、
前記像ブレ補正部材の前記移動による合焦精度の変化に関する情報を取得する取得ステップと、を有し、
前記補正ステップにおいて、前記情報を用いて前記像ブレ補正部材の移動制御を行い、
前記算出ステップにおいて、前記像ブレ補正部材の移動制御後の前記焦点検出の結果に基づいて、前記フォーカス駆動量を算出し、
前記情報は、前記焦点検出の結果に基づいて取得された被写体の像ボケ量情報を含むことを特徴とする制御方法。
The amount of correlation between the first image signal obtained from the light flux that has passed through the first pupil region of the imaging optical system and the second image signal obtained from the light flux that has passed through the second pupil region of the imaging optical system a focus detection step for performing focus detection based on
a calculation step of calculating a focus drive amount for performing focus control based on the result of the focus detection;
a correction step of performing image blur correction by moving an image blur correction member;
an acquiring step of acquiring information about changes in focusing accuracy due to the movement of the image blur correction member;
In the correcting step, movement control of the image blur correction member is performed using the information,
in the calculating step, calculating the focus drive amount based on the result of the focus detection after movement control of the image blur correction member ;
The control method , wherein the information includes image blur amount information of a subject obtained based on the result of the focus detection .
撮像光学系の第1の瞳領域を通過した光束から得られる第1の像信号と、前記撮像光学系の第2の瞳領域を通過した光束から得られる第2の像信号との相関量に基づいて焦点検出を行う焦点検出ステップと、The amount of correlation between the first image signal obtained from the light flux that has passed through the first pupil region of the imaging optical system and the second image signal obtained from the light flux that has passed through the second pupil region of the imaging optical system a focus detection step for performing focus detection based on
前記焦点検出の結果に基づいて、合焦制御を行うためのフォーカス駆動量を算出する算出ステップと、a calculation step of calculating a focus drive amount for performing focus control based on the result of the focus detection;
像ブレ補正部材の移動により像ブレ補正を行う補正ステップと、a correction step of performing image blur correction by moving an image blur correction member;
前記像ブレ補正部材の前記移動による合焦精度の変化に関する情報を取得する取得ステップと、を有し、an acquiring step of acquiring information about changes in focusing accuracy due to the movement of the image blur correction member;
前記補正ステップにおいて、前記情報を用いて前記像ブレ補正部材の移動制御を行い、In the correcting step, movement control of the image blur correction member is performed using the information,
前記算出ステップにおいて、前記像ブレ補正部材の移動制御後の前記焦点検出の結果に基づいて、前記フォーカス駆動量を算出し、in the calculating step, calculating the focus drive amount based on the result of the focus detection after movement control of the image blur correction member;
前記補正ステップにおいて、前記情報に基づく前記像ブレ補正部材の前記移動制御による移動量が所定の移動量を超えていない場合、前記情報に基づく前記移動制御を行わないことを特徴とする制御方法。A control method, wherein in the correcting step, the movement control based on the information is not performed if the amount of movement of the image blur correction member by the movement control based on the information does not exceed a predetermined movement amount.
請求項10または11に記載の制御方法をコンピュータに実行させることを特徴とするプログラム。 A program causing a computer to execute the control method according to claim 10 or 11 .
JP2019100586A 2019-05-29 2019-05-29 Control device, imaging device, control method, and program Active JP7282598B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019100586A JP7282598B2 (en) 2019-05-29 2019-05-29 Control device, imaging device, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019100586A JP7282598B2 (en) 2019-05-29 2019-05-29 Control device, imaging device, control method, and program

Publications (2)

Publication Number Publication Date
JP2020194123A JP2020194123A (en) 2020-12-03
JP7282598B2 true JP7282598B2 (en) 2023-05-29

Family

ID=73547905

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019100586A Active JP7282598B2 (en) 2019-05-29 2019-05-29 Control device, imaging device, control method, and program

Country Status (1)

Country Link
JP (1) JP7282598B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014056000A (en) 2012-09-11 2014-03-27 Sony Corp Processing apparatus, processing method, and program
JP2015072357A (en) 2013-10-02 2015-04-16 オリンパス株式会社 Focus adjustment device
JP2019028359A (en) 2017-08-02 2019-02-21 キヤノン株式会社 Imaging apparatus and control method of the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014056000A (en) 2012-09-11 2014-03-27 Sony Corp Processing apparatus, processing method, and program
JP2015072357A (en) 2013-10-02 2015-04-16 オリンパス株式会社 Focus adjustment device
JP2019028359A (en) 2017-08-02 2019-02-21 キヤノン株式会社 Imaging apparatus and control method of the same

Also Published As

Publication number Publication date
JP2020194123A (en) 2020-12-03

Similar Documents

Publication Publication Date Title
JP5791349B2 (en) Imaging apparatus and control method thereof
JP6504969B2 (en) Imaging system, imaging apparatus, lens apparatus, control method of imaging system
US20160227101A1 (en) Image capturing apparatus and control method thereof, and storage medium
JP6506560B2 (en) Focus control device and method therefor, program, storage medium
WO2014171051A1 (en) Distance measurement device and distance measurement method
JP2012234152A (en) Imaging apparatus and control method thereof
JP2014153509A (en) Imaging device and imaging method
JP6061655B2 (en) Imaging apparatus, control method therefor, and lens apparatus
JP5743519B2 (en) Imaging apparatus and control method thereof
US10362214B2 (en) Control apparatus, image capturing apparatus, control method, and non-transitory computer-readable storage medium
US10999491B2 (en) Control apparatus, image capturing apparatus, control method, and storage medium
JP6271911B2 (en) Imaging apparatus, control method therefor, and defocus amount calculation method
JP7292909B2 (en) Imaging device and focus detection method
JP7292123B2 (en) IMAGING DEVICE AND CONTROL METHOD THEREOF, PROGRAM, STORAGE MEDIUM
JP2019056803A (en) Imaging apparatus and method of controlling the same
US20200092489A1 (en) Optical apparatus, control method, and non-transitory computer-readable storage medium
JP7282598B2 (en) Control device, imaging device, control method, and program
JP6305017B2 (en) Focus control device and control method thereof
JP7246961B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP5973784B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP2017219791A (en) Control device, imaging device, control method, program, and storage medium
JP2021157069A (en) Image tremor correction control device, imaging device and imaging device control method
JP6530610B2 (en) Focusing device, imaging device, control method of focusing device, and program
JP7207874B2 (en) CONTROL DEVICE, IMAGING DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP6803941B2 (en) Imaging system, imaging device, lens device, control method of imaging system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220526

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230517

R151 Written notification of patent or utility model registration

Ref document number: 7282598

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151