JP2019045768A - Imaging device, control method of the same, program thereof, and storage medium - Google Patents
Imaging device, control method of the same, program thereof, and storage medium Download PDFInfo
- Publication number
- JP2019045768A JP2019045768A JP2017170602A JP2017170602A JP2019045768A JP 2019045768 A JP2019045768 A JP 2019045768A JP 2017170602 A JP2017170602 A JP 2017170602A JP 2017170602 A JP2017170602 A JP 2017170602A JP 2019045768 A JP2019045768 A JP 2019045768A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- main subject
- imaging
- focus detection
- imaging device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
- Focusing (AREA)
Abstract
Description
本発明は、撮像装置における自動焦点調節技術に関するものである。 The present invention relates to an automatic focusing technique in an imaging apparatus.
従来、撮像装置を用いて止まっている被写体を撮影する際には、従来から広く知られているオートフォーカス(以下、AF)機能を用いて焦点調節を行い撮影する。これにより、被写体にピントがあった良好な画像を得ることができる。 2. Description of the Related Art Conventionally, when photographing an object at rest using an imaging device, photographing is performed by using an autofocus (hereinafter referred to as AF) function widely known in the related art. This makes it possible to obtain a good image in which the subject is in focus.
一方、動いている被写体に同様の方法で焦点を合わせてから撮影を行うと、撮像装置内のシャッターが動作を開始してから露光するまでにタイムラグが発生する。そのタイムラグにより、ピントを合わせた位置から被写体がさらに動いた位置で撮像が行われ、ピントが合っていない画像が得られる場合がある。そのため、被写体の過去の複数点の焦点調節情報から、露光するタイミングでの被写体位置を予測する。そして、あらかじめ焦点調節用レンズを予測した位置に動かしておいてから露光することにより、高い確率でピントが合った画像を得ることができる。このような技術も、一般に広く使われている。 On the other hand, when focusing is performed on a moving subject in the same manner and then shooting is performed, a time lag occurs from the start of operation of the shutter in the imaging apparatus to exposure. Due to the time lag, an image may be captured at a position where the subject has moved further from the in-focus position, and an out-of-focus image may be obtained. Therefore, the subject position at the exposure timing is predicted from the focus adjustment information of a plurality of points in the past of the subject. Then, by moving the focusing lens to a predicted position in advance and then performing exposure, it is possible to obtain an image in focus with high probability. Such techniques are also widely used generally.
さらに、上記で説明したような撮像装置に対する奥行き方向(Z方向)だけではなく、撮像素子の撮像面に平行な方向(XY方向)の動きも予測して焦点検出を行う例が、特許文献1に開示されている。 Furthermore, an example of performing focus detection by predicting not only the depth direction (Z direction) with respect to the imaging device as described above, but also movement in a direction (XY direction) parallel to the imaging surface of the imaging device is disclosed in Is disclosed in
しかしながら、たとえば特許文献1に開示された従来技術では、被写体のXYZ方向の動きを検出し、焦点検出に用いるXY方向の焦点検出領域を変更するだけである。そのため、たとえば複数の被写体が焦点検出領域に入ってきた場合に、どちらの被写体が追尾するべきユーザの目的の被写体であるかが分からなくなってしまうという問題が発生する。
However, in the prior art disclosed in
本発明は上述した課題に鑑みてなされたものであり、その目的は、焦点検出領域に複数の被写体が入ってきた場合でも、ユーザが目的とする被写体を正しく追尾してピントを合わせ続けることができる撮像装置を提供することである。 The present invention has been made in view of the above-described problems, and an object thereof is that a user can correctly track and continue focusing on a target subject even when a plurality of subjects enter the focus detection area. Providing an imaging device that can
本発明に係わる撮像装置は、被写体に撮像レンズのピントを自動的に合わせる機能を有する撮像装置において、前記撮像レンズのピントを合わせる対象である主被写体を設定する設定手段と、前記主被写体の位置を算出する位置算出手段と、前記位置算出手段により算出された過去の複数点の前記主被写体の位置に基づいて、前記主被写体の速度ベクトルを算出する速度ベクトル算出手段と、前記速度ベクトル算出手段により算出された速度ベクトルを用いて、前記主被写体が存在すると予測される第1の被写体存在空間を算出する空間算出手段と、を備え、前記設定手段は、画面内の複数の被写体同士の距離が、所定の距離以下になるまで接近した場合に、前記空間算出手段により算出された第1の被写体存在空間を用いて前記複数の被写体からピントを合わせる対象である被写体を選択し、前記主被写体として再設定することを特徴とする。 An imaging apparatus according to the present invention is an imaging apparatus having a function of automatically focusing an imaging lens on a subject, the setting unit setting a main subject to be focused on the imaging lens, and the position of the main subject Calculating the velocity of the main subject based on the positions of the main subjects at a plurality of points in the past calculated by the position calculating means; and velocity vector calculating means for calculating the velocity vector of the main subject; Calculating means for calculating a first subject existing space in which the main subject is predicted to be present, using the velocity vector calculated by the setting step, the setting means determining a distance between a plurality of subjects in the screen Is closer to or less than a predetermined distance, the plurality of objects can be captured using the first subject existing space calculated by the space calculating means. Select an object is an object to be focused from, characterized in that re-set as the main subject.
本発明によれば、焦点検出領域に複数の被写体が入ってきた場合でも、ユーザが目的とする被写体を正しく追尾してピントを合わせ続けることができる撮像装置を提供することが可能となる。 According to the present invention, it is possible to provide an imaging device capable of correctly tracking and keeping in focus the target subject of the user even when a plurality of subjects enter the focus detection area.
以下、本発明の実施形態について、添付図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings.
(第1の実施形態)
本実施形態では、撮像装置が検知する焦点調節情報に基づいて、被写体が存在すると予想される空間(以下、被写体存在空間)を定義し、その被写体存在空間内に存在する被写体を主被写体として設定する方法について説明する。
First Embodiment
In the present embodiment, a space in which a subject is expected to exist (hereinafter referred to as a subject existing space) is defined based on focus adjustment information detected by an imaging apparatus, and a subject present in the subject existing space is set as a main subject. I will explain how to do it.
[全体構成]
図1は、本発明の撮像装置の第1の実施形態であるカメラの構成を示す図である。図1において、第1レンズ群101は、結像光学系の先端に配置され、光軸方向に進退可能に保持されている。絞り兼用シャッタ102は、その開口径を調節することで撮影時の光量調節を行なうほか、静止画撮影時には露光秒時調節用シャッタとしても機能する。第2レンズ群103は、絞り兼用シャッタ102と一体となって光軸方向に進退し、第1レンズ群101の進退動作との連動により、変倍作用(ズーム機能)をなす。
[overall structure]
FIG. 1 is a view showing a configuration of a camera which is a first embodiment of an imaging device of the present invention. In FIG. 1, the
第3レンズ群105は、光軸方向の進退により、焦点調節を行なう。光学的ローパスフィルタ106は、撮影画像の偽色やモアレを軽減するための光学素子である。撮像素子107は、2次元CMOSフォトセンサーと周辺回路からなり、結像光学系の結像面に配置される。
The
ズームアクチュエータ111は、不図示のカム筒を回動することで、第1レンズ群101及び第2レンズ群103を光軸方向に進退駆動し、変倍操作を行なう。絞りシャッタアクチュエータ112は、絞り兼用シャッタ102の開口径を制御して撮影光量を調節すると共に、静止画撮影時の露光時間制御を行なう。フォーカスアクチュエータ114は、第3レンズ群105を光軸方向に進退駆動して焦点調節を行なう。
The zoom actuator 111 rotates the cam barrel (not shown) to drive the
電子フラッシュ115は撮影時に被写体を照明する。電子フラッシュ115には、キセノン管を用いた閃光照明装置が好適であるが、連続発光するLEDを備えた照明装置を用いても良い。AF補助光装置116は、所定の開口パターンを有したマスクの像を、投光レンズを介して被写界に投影し、暗い被写体あるいは低コントラスト被写体に対する焦点検出能力を向上させる。
The
CPU121は、カメラ本体の種々の制御を司るカメラ内CPUで、演算部、ROM、RAM、A/Dコンバータ、D/Aコンバータ、通信インターフェイス回路等を有する。そして、ROMに記憶された所定のプログラムに基づいて、カメラが有する各種回路を駆動し、AF、撮影、画像処理、記録等の一連の動作を実行する。
The
電子フラッシュ制御回路122は、撮影動作に同期して電子フラッシュ115を点灯制御する。補助光駆動回路123は、焦点検出動作に同期してAF補助光装置116を点灯制御する。撮像素子駆動回路124は、撮像素子107の撮像動作を制御するとともに、撮像素子107から出力された画像信号をA/D変換してCPU121に送信する。画像処理回路125は、撮像素子107が取得した画像のγ変換、カラー補間、JPEG圧縮等の処理を行なう。
The electronic
フォーカス駆動回路126は、焦点検出結果に基づいてフォーカスアクチュエータ114を駆動制御し、第3レンズ群105を光軸方向に進退駆動して焦点調節を行なう。絞りシャッタ駆動回路128は、絞りシャッタアクチュエータ112を駆動制御して絞り兼用シャッタ102の開口を制御する。ズーム駆動回路129は、撮影者のズーム操作に応じてズームアクチュエータ111を駆動する。
The
表示装置131はLCD等からなり、カメラの撮影モードに関する情報、撮影前のプレビュー画像と撮影後の確認用画像、焦点検出時の合焦状態表示画像等を表示する。表示装置131はタッチパネルを備え、ユーザーはタッチパネルに直接触ることにより、各種操作を行うことができる。操作スイッチ群132は、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等で構成される。フラッシュメモリ133はカメラ本体に対して着脱可能であり、撮影済み画像を記録する。
The
[撮像素子]
図2は、本実施形態における撮像素子の撮像画素と焦点検出画素の配列の概略を示す図である。図2では、本実施形態に用いられる撮像素子である2次元CMOSセンサーの画素(撮像画素)配列を4列×4行の範囲で、焦点検出画素配列を8列×4行の範囲で示している。
[Image sensor]
FIG. 2 is a diagram schematically showing the arrangement of imaging pixels and focus detection pixels of the imaging device in the present embodiment. In FIG. 2, a pixel (imaging pixel) array of a two-dimensional CMOS sensor which is an imaging element used in this embodiment is shown in a range of 4 columns × 4 rows, and a focus detection pixel array is shown in a range of 8 columns × 4 rows. There is.
図2に示した2列×2行の画素群200では、R(赤)の分光感度を有する画素200Rが左上に、G(緑)の分光感度を有する画素200Gが右上と左下に、B(青)の分光感度を有する画素200Bが右下に配置されている。さらに、各撮像画素は2列×1行に配列された第1焦点検出画素201と第2焦点検出画素202により構成されている。
In the
図2に示した4列×4行の撮像画素(8列×4行の焦点検出画素)を面上に多数配置し、撮像画像(焦点検出信号)の取得を可能としている。本実施形態では、撮像画素の周期Pが4μm、撮像画素の画素数Nが横5575列×縦3725行=約2075万画素、焦点検出画素の列方向周期PAFが2μm、焦点検出画素の画素数NAFが横11150列×縦3725行=約4150万画素の撮像素子を使用するものとして説明を行う。 A large number of 4 columns × 4 rows of imaging pixels (8 columns × 4 rows of focus detection pixels) shown in FIG. 2 are arranged on the surface to enable acquisition of a captured image (focus detection signal). In the present embodiment, the period P of the imaging pixel is 4 μm, the number N of pixels of the imaging pixel is 5575 rows × 3725 rows = approximately 20.75 million pixels, the column direction period PAF of the focus detection pixels is 2 μm, and the number of pixels of the focus detection pixels In the following description, it is assumed that the NAF uses an imaging element of 11150 rows × 3725 rows = about 41.5 million pixels.
図2に示した撮像素子の1つの画素200Gを、撮像素子の受光面側(+z側)から見た平面図を図3(a)に示し、図3(a)のa−a断面を−y側から見た断面図を図3(b)に示す。なお、本実施形態では、撮像面上で地面に対する水平方向をx方向、垂直方向をy方向、被写体の奥行き方向をz方向とする。
FIG. 3A shows a plan view of one
図3に示すように、画素200Gでは、各画素の受光側に入射光を集光するためのマイクロレンズ305が形成され、x方向にNH分割(2分割)、y方向にNV分割(1分割)された光電変換部301と光電変換部302が形成される。光電変換部301と光電変換部302は、それぞれ、第1焦点検出画素201と第2焦点検出画素202に対応する。
As shown in FIG. 3, in the
光電変換部301と光電変換部302は、p型層とn型層の間にイントリンシック層を挟んだpin構造フォトダイオードとしても良いし、必要に応じて、イントリンシック層を省略し、pn接合フォトダイオードとしても良い。
The
各画素には、マイクロレンズ305と、光電変換部301および光電変換部302との間に、カラーフィルター306が形成されている。また、必要に応じて、各焦点検出画素毎にカラーフィルターの分光透過率を変えても良いし、カラーフィルターを省略しても良い。
In each pixel, a
図3に示した画素200Gに入射した光は、マイクロレンズ305により集光され、カラーフィルター306で分光されたのち、光電変換部301と光電変換部302で受光される。光電変換部301と光電変換部302では、受光量に応じて電子とホールが対生成され、空乏層で分離された後、負電荷の電子はn型層(不図示)に蓄積され、一方、ホールは定電圧源(不図示)に接続されたp型層を通じて撮像素子外部へ排出される。光電変換部301と光電変換部302のn型層(不図示)に蓄積された電子は、転送ゲートを介して、静電容量部(FD)に転送され、電圧信号に変換される。
Light incident on the
図4は、図3に示した画素構造と瞳分割との対応関係を示した概略説明図である。図4では、図3(a)に示した画素構造のa−a断面を+y側から見た断面図と結像光学系の射出瞳面を示している。また、射出瞳面の座標軸と対応を取るために、断面図のx軸とy軸を図3に対して反転させている。 FIG. 4 is a schematic explanatory view showing the correspondence between the pixel structure shown in FIG. 3 and pupil division. FIG. 4 shows a cross-sectional view of the aa cross section of the pixel structure shown in FIG. 3A as viewed from the + y side and an exit pupil plane of the imaging optical system. Further, in order to correspond to the coordinate axes of the exit pupil plane, the x-axis and y-axis of the sectional view are reversed with respect to FIG.
図4において、第1焦点検出画素201の第1瞳部分領域501は、重心が−x方向に偏心している光電変換部301の受光面と、マイクロレンズによって、概ね共役関係になっており、第1焦点検出画素201で受光可能な瞳領域を表している。第1焦点検出画素201の第1瞳部分領域501は、瞳面上で+x側に重心が偏心している。
In FIG. 4, the first pupil
同様に、第2焦点検出画素202の第2瞳部分領域502は、重心が+x方向に偏心している光電変換部302の受光面と、マイクロレンズによって、概ね共役関係になっており、第2焦点検出画素202で受光可能な瞳領域を表している。第2焦点検出画素202の第2瞳部分領域502は、瞳面上で−X側に重心が偏心している。
Similarly, the second pupil
また、図4において、瞳領域500は、光電変換部301と光電変換部302(第1焦点検出画素201と第2焦点検出画素202)を全て合わせた際の画素200G全体で受光可能な瞳領域である。
Further, in FIG. 4, the
図5は、撮像素子と瞳分割との対応関係を示した概略図である。第1瞳部分領域501と第2瞳部分領域502の異なる瞳部分領域を通過した光束は、撮像素子の各画素に、それぞれ異なる角度で入射し、2×1分割された第1焦点検出画素201と第2焦点検出画素202で受光される。本実施形態は、瞳領域が水平方向に2つに瞳分割されている例である。必要に応じて、垂直方向に瞳分割を行ってもよい。
FIG. 5 is a schematic view showing the correspondence between the imaging device and the pupil division. The light beams having passed through different partial pupil regions of the first pupil
本実施形態の撮像素子は、結像光学系の第1瞳部分領域を通過する光束を受光する第1焦点検出画素と、第1瞳部分領域とは異なる結像光学系の第2瞳部分領域を通過する光束を受光する第2焦点検出画素を有する。さらに、結像光学系の第1瞳部分領域と第2瞳部分領域を合わせた瞳領域を通過する光束を受光する撮像画素が複数配列されている。本実施形態の撮像素子では、それぞれの撮像画素が第1焦点検出画素と第2焦点検出画素から構成されている。必要に応じて、撮像画素と第1焦点検出画素、第2焦点検出画素を個別の画素構成とし、撮像画素配列の一部に、第1焦点検出画素と第2焦点検出画素を部分的に配置する構成としてもよい。 The imaging device of the present embodiment includes a first focus detection pixel that receives a light beam passing through a first pupil partial region of the imaging optical system, and a second pupil partial region of an imaging optical system that is different from the first pupil partial region And a second focus detection pixel for receiving a light flux passing through the light source. Furthermore, a plurality of imaging pixels that receive a light flux passing through a pupil area that is a combination of the first pupil partial area and the second pupil partial area of the imaging optical system are arranged. In the imaging device of the present embodiment, each imaging pixel is composed of a first focus detection pixel and a second focus detection pixel. As necessary, the imaging pixel, the first focus detection pixel, and the second focus detection pixel are configured as individual pixels, and the first focus detection pixel and the second focus detection pixel are partially arranged in a part of the imaging pixel array. It may be configured to
また、本実施形態では、撮像素子の各画素の第1焦点検出画素201の受光信号を集めて第1焦点検出信号を生成し、各画素の第2焦点検出画素202の受光信号を集めて第2焦点検出信号を生成して自動的に焦点検出を行う。また、撮像素子の各画素毎に、第1焦点検出画素201と第2焦点検出画素202の信号を加算することで、有効画素数Nの解像度の撮像信号(撮像画像)を生成する。
Further, in the present embodiment, the light reception signal of the first
[デフォーカス量と像ずれ量の関係]
以下、撮像素子により取得される第1焦点検出信号と第2焦点検出信号のデフォーカス量と像ずれ量の関係について説明する。
[Relationship between defocus amount and image shift amount]
Hereinafter, the relationship between the defocus amount and the image shift amount of the first focus detection signal and the second focus detection signal acquired by the imaging device will be described.
図6は、デフォーカス量と第1焦点検出信号と第2焦点検出信号間の像ずれ量の概略的な関係を示す図である。撮像面800に撮像素子が配置され、図4、図5と同様に、結像光学系の射出瞳が、第1瞳部分領域501と第2瞳部分領域502に2分割されている。
FIG. 6 is a diagram showing a schematic relationship between the defocus amount and the image shift amount between the first focus detection signal and the second focus detection signal. An imaging element is disposed on the
デフォーカス量dは、被写体の結像位置から撮像面までの距離を大きさ|d|とし、被写体の結像位置が撮像面より被写体側にある前ピン状態を負符号(d<0)、被写体の結像位置が撮像面より被写体の反対側にある後ピン状態を正符号(d>0)として定義される。被写体の結像位置が撮像面(合焦位置)にある合焦状態はd=0である。図6で、被写体801は合焦状態(d=0)の例を示しており、被写体802は前ピン状態(d<0)の例を示している。前ピン状態(d<0)と後ピン状態(d>0)を合わせて、デフォーカス状態(|d|>0)とする。 The defocus amount d sets the distance from the imaging position of the subject to the imaging plane to be | d |, and the negative sign (d <0) of the front pin state in which the imaging position of the subject is closer to the object than the imaging plane A back-pin state in which the imaging position of the subject is on the opposite side of the subject from the imaging plane is defined as a positive sign (d> 0). The in-focus state where the imaging position of the subject is on the imaging surface (in-focus position) is d = 0. In FIG. 6, the subject 801 shows an example of the in-focus state (d = 0), and the subject 802 shows an example of the front pin state (d <0). The front pin state (d <0) and the rear pin state (d> 0) are combined to be in the defocus state (| d |> 0).
前ピン状態(d<0)では、被写体802からの光束のうち、第1瞳部分領域501(第2瞳部分領域502)を通過した光束は、一度、集光した後、光束の重心位置G1(G2)を中心として幅Γ1(Γ2)に広がり、撮像面800でボケた像となる。ボケた像は、撮像素子に配列された各画素を構成する第1焦点検出画素201(第2焦点検出画素202)により受光され、第1焦点検出信号(第2焦点検出信号)が生成される。よって、第1焦点検出信号(第2焦点検出信号)は、撮像面800上の重心位置G1(G2)に、被写体802が幅Γ1(Γ2)にボケた被写体像として記録される。被写体像のボケ幅Γ1(Γ2)は、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね比例して増加していく。同様に、第1焦点検出信号と第2焦点検出信号間の被写体像の像ずれ量p(=光束の重心位置の差G1−G2)の大きさ|p|も、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね比例して増加していく。後ピン状態(d>0)でも、第1焦点検出信号と第2焦点検出信号間の被写体像の像ずれ方向が前ピン状態と反対となるが、同様である。
In the front pinning state (d <0), the light flux from the
したがって、本実施形態では、第1焦点検出信号と第2焦点検出信号、もしくは、第1焦点検出信号と第2焦点検出信号を加算した撮像信号のデフォーカス量の大きさが増加するのに伴い、第1焦点検出信号と第2焦点検出信号間の像ずれ量の大きさが増加する。 Therefore, in the present embodiment, as the magnitude of the defocus amount of the imaging signal obtained by adding the first focus detection signal and the second focus detection signal or the first focus detection signal and the second focus detection signal increases. The magnitude of the image shift amount between the first focus detection signal and the second focus detection signal is increased.
[焦点検出]
以下、位相差方式の焦点検出方法について説明する。位相差方式の焦点検出では、第1焦点検出信号と第2焦点検出信号を相対的にシフトさせて信号の一致度を表す相関量(第1評価値)を計算し、相関(信号の一致度)が良くなるシフト量から像ずれ量を検出する。撮像信号のデフォーカス量の大きさが増加するのに伴い、第1焦点検出信号と第2焦点検出信号間の像ずれ量の大きさが増加する関係性から、像ずれ量を検出デフォーカス量に変換して焦点検出を行う。
[Focus detection]
Hereinafter, a phase difference focus detection method will be described. In the phase difference type focus detection, the first focus detection signal and the second focus detection signal are relatively shifted to calculate a correlation amount (first evaluation value) representing the degree of coincidence of the signals, and the correlation (degree of signal coincidence) The image shift amount is detected from the shift amount which is improved. As the magnitude of the image shift amount increases between the first focus detection signal and the second focus detection signal as the magnitude of the defocus amount of the imaging signal increases, the image shift amount is detected as the defocus amount To focus detection.
図7は、焦点検出処理の概略的な流れを示すフローチャートである。なお、図7の動作は、撮像素子107、画像処理回路125、CPU121によって実行される。
FIG. 7 is a flowchart showing a schematic flow of focus detection processing. The operation of FIG. 7 is executed by the
ステップS110では、撮像素子の有効画素領域の中から焦点調節を行う焦点検出領域を設定する。画像処理回路125とCPU121で構成される焦点検出信号生成部により、焦点検出領域の第1焦点検出画素の受光信号から第1焦点検出信号(A像)を生成し、焦点検出領域の第2焦点検出画素の受光信号から第2焦点検出信号(B像)を生成する。
In step S110, a focus detection area for performing focus adjustment is set from among the effective pixel areas of the imaging device. The focus detection signal generation unit configured by the
ステップS120では、第1焦点検出信号と第2焦点検出信号に対して、それぞれ信号データ量を抑制するために列方向に3画素加算処理を行い、さらに、RGB信号を輝度Y信号にするためにベイヤー(RGB)加算処理を行う。これら2つの加算処理を合わせて画素加算処理とする。 In step S120, 3-pixel addition processing is performed on the first focus detection signal and the second focus detection signal in the column direction to suppress the signal data amount, and the RGB signal is converted to a luminance Y signal. Perform Bayer (RGB) addition processing. These two addition processes are combined to make a pixel addition process.
ステップS130では、第1焦点検出信号と第2焦点検出信号に、それぞれ、シェーディング補正処理(光学補正処理)を行う。 In step S130, shading correction processing (optical correction processing) is performed on the first focus detection signal and the second focus detection signal.
ここで、第1焦点検出信号と第2焦点検出信号の瞳ずれによるシェーディングについて説明する。図8は、撮像素子の周辺像高における第1焦点検出画素201の第1瞳部分領域501、第2焦点検出画素202の第2瞳部分領域502、および結像光学系の射出瞳400の関係を示す図である。
Here, shading due to pupil shift of the first focus detection signal and the second focus detection signal will be described. FIG. 8 shows the relationship between the first pupil
図8(a)は、結像光学系の射出瞳距離Dlと撮像素子の設定瞳距離Dsが同じ場合である。この場合は、第1瞳部分領域501と第2瞳部分領域502により、結像光学系の射出瞳400が、概ね均等に瞳分割される。
FIG. 8A shows the case where the exit pupil distance Dl of the imaging optical system and the set pupil distance Ds of the imaging device are the same. In this case, the
これに対して、図8(b)に示したように、結像光学系の射出瞳距離Dlが撮像素子の設定瞳距離Dsより短い場合、撮像素子の周辺像高では、結像光学系の射出瞳と撮像素子の入射瞳の瞳ずれを生じ、結像光学系の射出瞳400が、不均等に瞳分割されてしまう。同様に、図8(c)に示したように、結像光学系の射出瞳距離Dlが撮像素子の設定瞳距離Dsより長い場合、撮像素子の周辺像高では、結像光学系の射出瞳と撮像素子の入射瞳の瞳ずれを生じ、結像光学系の射出瞳400が、不均等に瞳分割されてしまう。周辺像高で瞳分割が不均等になるのに伴い、第1焦点検出信号と第2焦点検出信号の強度も不均等になり、第1焦点検出信号と第2焦点検出信号のいずれか一方の強度が大きくなり、他方の強度が小さくなるシェーディングが生じる。
On the other hand, as shown in FIG. 8B, when the exit pupil distance D1 of the imaging optical system is shorter than the set pupil distance Ds of the imaging device, the peripheral image height of the imaging device A pupil shift occurs between the exit pupil and the entrance pupil of the imaging device, and the
図7のステップS130では、焦点検出領域の像高と、撮像レンズ(結像光学系)のF値、射出瞳距離に応じて、第1焦点検出信号の第1シェーディング補正係数と、第2焦点検出信号の第2シェーディング補正係数を、それぞれ生成する。第1シェーディング補正係数を第1焦点検出信号に乗算し、第2シェーディング補正係数を第2焦点検出信号に乗算して、第1焦点検出信号と第2焦点検出信号のシェーディング補正処理(光学補正処理)を行う。 In step S130 of FIG. 7, according to the image height of the focus detection area, the F value of the imaging lens (imaging optical system), and the exit pupil distance, the first shading correction coefficient of the first focus detection signal and the second focus Second shading correction coefficients of the detection signal are generated respectively. Shading correction processing of the first focus detection signal and the second focus detection signal by multiplying the first shading correction coefficient by the first focus detection signal and multiplying the second shading correction coefficient by the second focus detection signal (optical correction processing )I do.
位相差方式の焦点検出では、第1焦点検出信号と第2焦点検出信号の相関(信号の一致度)に基づいて、第1検出デフォーカス量の検出を行う。瞳ずれによるシェーディングが生じると第1焦点検出信号と第2焦点検出信号の相関(信号の一致度)が低下する場合がある。よって、位相差方式の焦点検出では、第1焦点検出信号と第2焦点検出信号の相関(信号の一致度)を改善し、焦点検出性能を良好とするために、シェーディング補正処理(光学補正処理)を行うことが望ましい。 In the phase difference type focus detection, the first detection defocus amount is detected based on the correlation (the degree of coincidence of the signals) between the first focus detection signal and the second focus detection signal. When shading occurs due to pupil misalignment, the correlation (the degree of coincidence of the signals) of the first focus detection signal and the second focus detection signal may decrease. Therefore, in the phase difference type focus detection, the shading correction process (optical correction process) is performed to improve the correlation (the degree of coincidence of the signals) between the first focus detection signal and the second focus detection signal and to improve the focus detection performance. It is desirable to do).
図7のステップS140では、第1焦点検出信号と第2焦点検出信号に、フィルター処理を行う。フィルター処理の通過帯域例を、図9の実線で示す。本実施形態では、位相差方式の焦点検出により、大デフォーカス状態での焦点検出を行うため、フィルター処理の通過帯域は低周波帯域を含むように構成される。必要に応じて、大デフォーカス状態から小デフォーカス状態まで焦点調節を行う際に、デフォーカス状態に応じて、焦点検出時のフィルター処理の通過帯域を、図9の1点鎖線のように、より高周波帯域に調整しても良い。 In step S140 of FIG. 7, filter processing is performed on the first focus detection signal and the second focus detection signal. An example of the pass band of the filtering process is shown by a solid line in FIG. In this embodiment, in order to perform focus detection in a large defocus state by phase difference type focus detection, the pass band of the filter processing is configured to include a low frequency band. As necessary, when performing focus adjustment from the large defocus state to the small defocus state, the pass band of the filter processing at the time of focus detection is made as indicated by the alternate long and short dash line in FIG. It may be adjusted to a higher frequency band.
次に、図7のステップS150では、フィルター処理後の第1焦点検出信号と第2焦点検出信号を相対的に瞳分割方向にシフトさせるシフト処理を行い、信号の一致度を表す相関量(評価値)を算出する。 Next, in step S150 of FIG. 7, shift processing is performed to shift the first focus detection signal and the second focus detection signal after filter processing relatively in the pupil division direction, and the correlation amount representing the degree of coincidence of the signals (evaluation Calculate the value).
フィルター処理後のk番目の第1焦点検出信号をA(k)、第2焦点検出信号をB(k)、焦点検出領域に対応する番号kの範囲をWとする。シフト処理によるシフト量をs1、シフト量s1のシフト範囲をΓ1として、相関量(第1評価値)CORは、式(1)により算出される。 The k-th first focus detection signal after filtering is A (k), the second focus detection signal is B (k), and the range of the number k corresponding to the focus detection area is W. The correlation amount (first evaluation value) COR is calculated by the equation (1), where the shift amount by the shift processing is s1 and the shift range of the shift amount s1 is Γ1.
シフト量s1のシフト処理により、k番目の第1焦点検出信号A(k)とk−s1番目の第2焦点検出信号B(k−s1)を対応させて減算し、シフト減算信号を生成する。生成されたシフト減算信号の絶対値を計算し、焦点検出領域に対応する範囲W内で番号kの和を取り、相関量(評価値)COR(s1)を算出する。必要に応じて、各行毎に算出された相関量(評価値)を、各シフト量毎に、複数行に渡って加算してもよい。 The k-th first focus detection signal A (k) and the k-s1nd second focus detection signal B (k-s1) are correlated and subtracted by shift processing of the shift amount s1 to generate a shift subtraction signal . The absolute value of the generated shift subtraction signal is calculated, the sum of the numbers k is taken in the range W corresponding to the focus detection area, and the correlation amount (evaluation value) COR (s1) is calculated. As necessary, the correlation amount (evaluation value) calculated for each row may be added over a plurality of rows for each shift amount.
ステップS160では、相関量(評価値)から、サブピクセル演算により、相関量が最小値となる実数値のシフト量を算出して像ずれ量p1とする。像ずれ量p1に、焦点検出領域の像高と、撮像レンズ(結像光学系)のF値、射出瞳距離に応じた変換係数K1をかけて、デフォーカス量を検出する。 In step S160, from the correlation amount (evaluation value), a shift amount of a real number value at which the correlation amount becomes a minimum value is calculated by sub-pixel calculation to obtain an image shift amount p1. The defocus amount is detected by multiplying the image shift amount p1 by the image height of the focus detection area, the F value of the imaging lens (imaging optical system), and the conversion coefficient K1 according to the exit pupil distance.
[被写体存在空間の定義]
次に、被写体存在空間の定義について説明する。
[Definition of subject existing space]
Next, the definition of the subject existing space will be described.
まず、主被写体決定手段により、撮影時のピントを合わせるための主被写体を選択する。主被写体決定手段は、ユーザーが操作して指示する操作スイッチ群132もしくはタッチパネルを有した表示器131と、CPU121とにより構成され、ユーザーの操作により主被写体が選択される。もしくは、撮像装置が有する顔検出機能により被写体を検出した場合は、その被写体を主被写体として設定してもよいし、撮像した際の毎フレームの画像の相関結果などにより、動いている物体を検出し、それを主被写体としてもよい。さらには、被写体の色を検出し、特定の色を有するものを主被写体とする、もしくは撮像面内の全部、もしくは一部において焦点検出を行い、所定の距離において検出された被写体を主被写体とする。このような主被写体の選択例が考えられ、広く知られている被写体検出方法によって検出された被写体を主被写体とすればよい。
First, the main subject determination means selects a main subject for focusing at the time of shooting. The main subject determination means is composed of an operation switch group 132 operated or instructed by the user or a
図10は、主被写体決定手段により決定された主被写体が撮像装置に向かって斜めに向かってくる様子を示している。本来はX、Y、Z方向それぞれについて動きを検出して被写体存在空間を定義するのが望ましいが、ここでは説明を分かりやすくするため、XおよびZ方向で図示する。なお、ここでいうZ方向とはレンズの光軸方向を示しており、図10における垂直方法をZ方向とする。またX方向とは、Z軸を法線とする撮像素子107の撮像面において、水平方向をX方向、X方向と直交する方向をY方向とする。
FIG. 10 shows that the main subject determined by the main subject determination means is obliquely directed toward the imaging device. In principle, it is desirable to detect motion in each of the X, Y, and Z directions to define the subject existing space, but here, in order to make the description easy to understand, the X and Z directions are illustrated. Here, the Z direction indicates the optical axis direction of the lens, and the vertical method in FIG. 10 is taken as the Z direction. In the X direction, the horizontal direction is taken as the X direction, and the direction orthogonal to the X direction is taken as the Y direction on the imaging surface of the
図10には、それぞれ被写体が存在した時刻t0〜t3を示している。また、それぞれの時刻におけるX方向、Z方向の速度ベクトルをそれぞれx0〜x2、z0〜z2で示している。このときの時刻t0〜t3は、任意の時間間隔で設定することができ、撮像装置の撮像フレームレート周期で毎フレームでサンプリングしてもよいし、演算負荷を低減するため、それよりも遅い周期でサンプリングしてもよい。 FIG. 10 shows times t0 to t3 at which the subject is present, respectively. Further, velocity vectors in the X direction and Z direction at respective times are indicated by x0 to x2 and z0 to z2, respectively. The time t0 to t3 at this time can be set at an arbitrary time interval, may be sampled at every frame at an imaging frame rate cycle of the imaging apparatus, or is a cycle later than that to reduce the calculation load You may sample at.
主被写体の位置は、画像処理回路125とCPU121により構成される被写体位置検出手段により検出される。被写体位置算出手段は、X、Y、Z方向の位置をそれぞれ算出する。そして、被写体位置算出手段によって算出されたX、Y、Z方向の位置の変化から、画像処理回路125とCPU12により構成される被写体速度ベクトル算出手段により、それぞれの方向に対する動きベクトルを算出する。この場合のX方向の動き速度ベクトルは、撮像装置内での被写体検出結果を元に算出すればよく、一般的に広く知られている顔検出機能や、そのほか被写体追尾機能を用いてX方向のそれぞれの座標、および速度ベクトルを算出すればよい。
The position of the main subject is detected by subject position detection means configured by the
またZ方向の動き速度ベクトルは、被写体位置を像面位置に換算しなおしたものを用いる。例えば、前述した焦点検出方法により検出したデフォーカス量を用いる方法が考えられる。時刻t0〜t3までにおけるそれぞれのデフォーカス量を検出し、そこからデフォーカス量の速度ベクトル成分z0〜z2を算出すればよい。 Further, as the motion velocity vector in the Z direction, the one obtained by converting the object position into the image plane position is used. For example, a method using the defocus amount detected by the above-described focus detection method can be considered. The respective defocus amounts at time t0 to t3 may be detected, and the velocity vector components z0 to z2 of the defocus amount may be calculated therefrom.
なお、本実施形態では、像面位置に換算しなおしているが、被写体側の位置で換算しなおしてもよく、相対的な移動量と方向が分かればよいものとする。また静止画を連写する場合においては、撮像するたびに焦点調節用レンズを動かし被写体にピントを合わせているため、デフォーカス量だけからでは被写体の位置を推定することができない。その場合は、連写毎のレンズ駆動量をZ方向の位置に置き換えて算出すればよい。 In the present embodiment, although the image plane position is converted, the conversion may be performed again at the position on the subject side, and it is only necessary to know the relative movement amount and the direction. In the case of shooting still images continuously, the focusing lens is moved each time an image is taken to focus on the subject, so the position of the subject can not be estimated from only the defocus amount. In that case, the lens driving amount for each continuous shooting may be calculated by replacing it with the position in the Z direction.
このようにして求めたX方向の速度ベクトル、Z方向の速度ベクトルの変化から、例えば時刻t3におけるX方向、Z方向それぞれの速度ベクトルを予測することが可能である。本実施形態では過去3点の速度ベクトル情報、つまりx0〜x2、z0〜z2を用いて、それぞれの近似式を作成する。近似式はどのような形態を用いてもよいが、例えば最少二乗法を用いた多項式近似を行うと、精度よく予測することが可能となる。 From the change of the velocity vector in the X direction and the velocity vector in the Z direction thus obtained, it is possible to predict, for example, velocity vectors in the X direction and Z direction at time t3. In this embodiment, respective approximate expressions are created using the velocity vector information of the past three points, that is, x0 to x2 and z0 to z2. The approximation formula may use any form, but it is possible to predict with high accuracy, for example, by performing polynomial approximation using the least squares method.
次にこの近似式を用いて時刻t3におけるX方向、Z方向の速度ベクトル量を外挿予測する。これは撮像装置が途中で被写体位置を見失うことがあっても、過去の動きの変化から被写体が存在すると予測される範囲を定義できるものである。CPU121などにより構成される被写体存在空間設定手段(空間算出手段)は、上記方法によって算出した被写体が存在しうる範囲(被写体が存在すると予想される範囲)を被写体存在空間として設定する。
Next, the velocity vector amounts in the X direction and Z direction at time t3 are extrapolated and predicted using this approximate expression. This can define a range in which the subject is predicted to be present from the change in the past movement even if the imaging device may lose sight of the subject position on the way. A subject presence space setting means (space calculation means) configured by the
例えば、撮像装置が被写体を時刻t0から追尾しつづけているときに、時刻t3を過ぎた後に被写体を見失う、もしくは他の被写体と混同し、主被写体がどれか分からなくなった場合、時刻t3からt4の間の被写体H1は、時刻t3における被写体位置からx3およびz3で定義された被写体存在空間の中に存在することになる。上記の説明では、X方向、Z方向について示しているが、当然Y方向についても適用することができ、X、Y、Z方向の速度ベクトルで被写体存在空間を三次元空間として定義することが可能となる。 For example, when the imaging apparatus keeps tracking the subject from time t0, if the subject loses sight after time t3 or is confused with another subject and no one of the main subjects is known, time t3 to t4 The subject H1 in the middle is present in the subject existing space defined by x3 and z3 from the subject position at time t3. In the above description, the X direction and the Z direction are shown, but the present invention can naturally be applied to the Y direction, and the object existing space can be defined as a three-dimensional space by the velocity vectors in the X, Y and Z directions. It becomes.
図11は、複数の被写体が画面内の同じ焦点検出領域に混在した場合の例を示す図である。図11では、被写体H1およびH2の二つの被写体が存在する。撮影者は撮像装置を用いて被写体H1を撮像しようとしており、撮像装置の追尾機能は被写体H1を主被写体としてとらえているものとする。このとき、被写体H1とH2が互いに重なる位置Xn(被写体同士の距離が所定の距離以下になる位置)に来たとする。この時、撮像装置から見える被写体H1、H2は図12(a)のように互いに重なっており、顔追尾機能等を用いて追尾していたとしても、どちらの顔が主被写体だったかが判別しにくい状態となっている。この後、一定の時間が経過した後、図12(b)に示したように被写体H1、H2が分離し、再度追尾を開始できるようになる。しかし、一旦主被写体H1の顔が別の被写体H2の顔によって遮られ消失しているため、顔追尾機能がH2を主被写体だと誤認識し、被写体H2を追尾対象としてしまう可能性が高くなる。 FIG. 11 is a diagram showing an example in which a plurality of subjects are mixed in the same focus detection area in the screen. In FIG. 11, there are two subjects H1 and H2. It is assumed that the photographer is trying to image the subject H1 using the imaging device, and the tracking function of the imaging device is treating the subject H1 as a main subject. At this time, it is assumed that the subject H1 and H2 come to a position Xn where the subjects H1 and H2 overlap with each other (a position where the distance between the subjects is equal to or less than a predetermined distance). At this time, the subjects H1 and H2 viewed from the image pickup apparatus overlap each other as shown in FIG. 12A, and it is difficult to determine which face is the main subject even if tracking is performed using a face tracking function or the like. It is in the state. Thereafter, after a predetermined time has elapsed, as shown in FIG. 12B, the subjects H1 and H2 are separated, and tracking can be started again. However, once the face of the main subject H1 is blocked by the face of another subject H2 and disappears, there is a high possibility that the face tracking function erroneously recognizes H2 as the main subject and sets the subject H2 as a tracking target .
そこで、上記で説明した被写体存在空間を用いて、被写体H1、およびH2のうち、どちらが主被写体だったかを判別する。 Therefore, it is determined which of the subjects H1 and H2 is the main subject using the subject existing space described above.
図13に示したように、被写体が重なったときの時刻をt5とする。この時刻t5の時点では二つの被写体H1、H2が重なっており、主被写体であるH1は、別の被写体であるH2の陰に隠れ、一旦追尾ができなくなる。 As shown in FIG. 13, the time when the objects overlap is t5. At time t5, the two subjects H1 and H2 overlap, and the main subject H1 is hidden behind another subject H2 and can not be tracked once.
ここで、時刻t5から次の時刻までの速度ベクトルを、上記で説明した方法で算出し、被写体存在空間を定義する。このとき、被写体同士が重なった時刻t5を正確に検出してもよいし、その他の方法としては、主被写体位置から、追尾対象の乗り移りが起きやすい所定の範囲内に他の被写体が接近した時と定義してもよい。 Here, the velocity vector from time t5 to the next time is calculated by the method described above, and the subject existing space is defined. At this time, the time t5 when the subjects overlap may be detected accurately, or as another method, when another subject approaches within a predetermined range where transition of the tracking target is likely to occur from the main subject position. It may be defined as
図13のS1で示した領域が、算出された被写体存在空間であり、被写体が重なった時刻t5の位置を起点として空間を設定している。つまり時刻t5からt6の間は被写体H1はS1で示した被写体存在空間内に存在する可能性が高いため、主被写体を判別するためには、被写体同士が重なった時刻t5の位置から設定した被写体存在空間S1内で検出した顔を、主被写体として再設定する。このようにして、再び追尾を開始すれば、主被写体を間違えることなく焦点調節を行い、ピントが合った良好な画像を得ることが可能となる。 The area indicated by S1 in FIG. 13 is the calculated subject existing space, and the space is set starting from the position at time t5 when the subjects overlap. That is, there is a high possibility that the subject H1 exists in the subject existing space shown in S1 from time t5 to t6, so in order to determine the main subject, the subject set from the position of time t5 when the subjects overlap The face detected in the existing space S1 is reset as a main subject. In this way, if tracking is started again, it is possible to perform focusing without making a mistake in the main subject, and to obtain a good image in focus.
(第2の実施形態)
次に、第2の実施形態について説明する。第1の実施形態では、被写体の速度ベクトルx、y、zのいずれか一つが逆向きだったため、被写体存在空間が重なりあうことがなく、主被写体とそれ以外の被写体を明確に分けることが可能であった。しかし、例えば二つの被写体が並走するようなシーン、つまりX、Y、Zの速度ベクトルの方向が3つとも同じ方向を向いている場合、被写体存在空間はある程度重なってしまうことになる。
Second Embodiment
Next, a second embodiment will be described. In the first embodiment, since one of the subject's velocity vectors x, y, and z is reversed, the subject existing space does not overlap, and the main subject and the other subjects can be clearly divided. Met. However, for example, in a scene in which two subjects run in parallel, that is, in the case where the directions of the velocity vectors of X, Y and Z are all the same, the subject existing spaces overlap to some extent.
図14は、主被写体H1とその他の被写体H2が並走状態で走っているところを表した図である。この場合、被写体H1とH2のX、Y、Z方向の速度ベクトルはそれぞれの量は違うが、向きは同じである。なお、図14では、説明を分かりやすくするためにX、Zの2方向でのみ表しているが、本発明はX、Y、Zの3次元方向に適用される。 FIG. 14 shows the main subject H1 and the other subject H2 running in parallel. In this case, the velocity vectors in the X, Y and Z directions of the subjects H1 and H2 are different in amount but in the same direction. Although FIG. 14 shows only in two directions of X and Z for the sake of easy understanding of the description, the present invention is applied to the three-dimensional directions of X, Y and Z.
図14における被写体H1のX方向、Z方向の動きはそれぞれxh1、zh1で表され、その場合の被写体存在空間はSH1で表されている。同様に被写体H2のX方向、Z方向の動きはそれぞれxh2、zh2で表され、その場合の被写体存在空間はSH2で表されている。 The motions of the subject H1 in the X and Z directions in FIG. 14 are represented by xh1 and zh1, respectively, and the subject existing space in that case is represented by SH1. Similarly, the movement in the X direction and the Z direction of the subject H2 is represented by xh2 and zh2, respectively, and the subject existing space in that case is represented by SH2.
この場合、被写体存在空間SH1とSH2は、それぞれ図14のSH3で示した領域で重なっている。この重なっている空間では被写体H1と被写体H2を切り分けることができないため、被写体がこの空間にいるときは、どちらか一方の被写体を追尾しながら焦点調節を行うものとする。 In this case, the subject existing spaces SH1 and SH2 overlap each other in the area indicated by SH3 in FIG. Since the subject H1 and the subject H2 can not be separated in this overlapping space, when the subject is in this space, focus adjustment is performed while tracking one of the subjects.
上記のように追尾は続けつつ、SH1とSH3の差分領域において被写体が検出されるのを待つ。このSH1とSH3の差分領域には、主被写体H1のみが存在しうるため、この差分領域で検出された被写体を主被写体として再度設定し、追尾を再開すれば、追尾対象の乗り移りを防止することが可能となる。 As described above, while tracking is continued, the process waits for detection of an object in the difference area between SH1 and SH3. Since only the main subject H1 may exist in the difference area between SH1 and SH3, if the subject detected in this difference area is set again as the main subject and tracking is resumed, it is possible to prevent the shift of the tracking target. Is possible.
なお、本発明は、その趣旨を逸脱しない範囲で、上記実施形態を種々変形可能である。 The present invention can be variously modified without departing from the scope of the invention.
例えば、上記の実施形態では、被写体のX、Y、Z方向をそれぞれ撮像装置の追尾機能、および焦点検出方法を用いて算出している。そして、ここで用いる焦点検出方法には、上記で説明してきたように撮像を行いながら焦点検出を行える、撮像面位相差方式を用いた。しかし、この焦点検出方法に限らず、広く知られるコントラスト検出方式を用いた焦点検出方法を用いてもよい。その場合、被写体までのデフォーカス量を検出することはできないが、例えば連写を行いながら、その都度ピント合わせを行ったレンズ駆動量に基づいて、Z方向の速度ベクトルを定義してもよい。またその他の焦点検出方法においても、Z方向の速度ベクトルを定義できるものであれば、いかなる方法を用いてもよい。 For example, in the above embodiment, the X, Y, and Z directions of the subject are calculated using the tracking function of the imaging apparatus and the focus detection method. Then, as the focus detection method used here, the imaging surface phase difference method is used, which can perform focus detection while performing imaging as described above. However, not limited to this focus detection method, a focus detection method using a widely known contrast detection method may be used. In that case, although the defocus amount to the subject can not be detected, the velocity vector in the Z direction may be defined based on, for example, the lens driving amount which is in focus each time while performing continuous shooting. Also, in the other focus detection methods, any method may be used as long as the velocity vector in the Z direction can be defined.
また同様に、X、Y方向においても、上記の実施形態では撮像装置の顔追尾機能を用いるように説明した。しかし、被写体の顔検出に限らず、被写体の色を検出し、前後のフレームとの相関から検出した色の移動方向を検出する色追尾機能を用いたものでもよい。 Similarly, in the X and Y directions, the above embodiment has been described to use the face tracking function of the imaging apparatus. However, not limited to the face detection of the subject, a color tracking function may be used which detects the color of the subject and detects the moving direction of the detected color from the correlation with the preceding and following frames.
以上、説明してきた方法を用いることによって、主被写体以外の被写体が混入してきた場合でも、ピントの乗り移りを起こすことなく、主被写体を追尾しつづけ、主被写体にピントが合った良好な画像を得ることが可能となる。 By using the method described above, even when a subject other than the main subject is mixed, tracking of the main subject is continued without causing a shift in focus, and a good image in which the main subject is in focus is obtained. It becomes possible.
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.
101:第1レンズ群、102:絞り兼用シャッタ、103:第2レンズ群、105:第3レンズ群、107:撮像素子、121:CPU、125:画像処理回路 101: first lens group 102: aperture / shutter combination 103: second lens group 105: third lens group 107: image pickup device 121: CPU 125: image processing circuit
Claims (14)
前記撮像レンズのピントを合わせる対象である主被写体を設定する設定手段と、
前記主被写体の位置を算出する位置算出手段と、
前記位置算出手段により算出された過去の複数点の前記主被写体の位置に基づいて、前記主被写体の速度ベクトルを算出する速度ベクトル算出手段と、
前記速度ベクトル算出手段により算出された速度ベクトルを用いて、前記主被写体が存在すると予測される第1の被写体存在空間を算出する空間算出手段と、を備え、
前記設定手段は、画面内の複数の被写体同士の距離が、所定の距離以下になるまで接近した場合に、前記空間算出手段により算出された第1の被写体存在空間を用いて前記複数の被写体からピントを合わせる対象である被写体を選択し、前記主被写体として再設定することを特徴とする撮像装置。 In an imaging device having a function of automatically focusing an imaging lens on a subject,
A setting unit configured to set a main subject to be focused by the imaging lens;
Position calculating means for calculating the position of the main subject;
Velocity vector calculating means for calculating the velocity vector of the main subject based on the positions of the main subjects at a plurality of points in the past calculated by the position calculating means;
Space calculation means for calculating a first subject existing space in which the main subject is predicted to be present, using the speed vector calculated by the speed vector calculation means;
The setting unit is configured to use the first subject existing space calculated by the space calculation unit when the distance between the plurality of subjects in the screen is less than or equal to a predetermined distance from the plurality of subjects. An image pickup apparatus characterized by selecting a subject to be focused and resetting it as the main subject.
前記撮像レンズのピントを合わせる対象である主被写体を設定する設定工程と、
前記主被写体の位置を算出する位置算出工程と、
前記位置算出工程により算出された過去の複数点の前記主被写体の位置に基づいて、前記主被写体の速度ベクトルを算出する速度ベクトル算出工程と、
前記速度ベクトル算出工程により算出された速度ベクトルを用いて、前記主被写体が存在すると予測される第1の被写体存在空間を算出する空間算出工程と、を有し、
前記設定工程では、画面内の複数の被写体同士の距離が、所定の距離以下になるまで接近した場合に、前記空間算出工程により算出された第1の被写体存在空間を用いて前記複数の被写体からピントを合わせる対象である被写体を選択し、前記主被写体として再設定することを特徴とする撮像装置の制御方法。 A method of controlling an imaging apparatus having a function of automatically focusing an imaging lens on a subject, comprising:
A setting step of setting a main subject to be focused on the imaging lens;
A position calculating step of calculating the position of the main subject;
A velocity vector calculating step of calculating a velocity vector of the main subject based on the positions of the main subjects at a plurality of past points calculated by the position calculating step;
Calculating a first subject existing space in which the main subject is predicted to be present, using the speed vector calculated in the speed vector calculating step;
In the setting step, when the distance between a plurality of subjects in the screen approaches a predetermined distance or less, the first subject existing space calculated by the space calculating step is used to calculate the distance from the plurality of subjects. A control method of an image pickup apparatus, wherein an object to be focused is selected and reset as the main object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017170602A JP7005236B2 (en) | 2017-09-05 | 2017-09-05 | Imaging device and its control method, program, storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017170602A JP7005236B2 (en) | 2017-09-05 | 2017-09-05 | Imaging device and its control method, program, storage medium |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019045768A true JP2019045768A (en) | 2019-03-22 |
JP2019045768A5 JP2019045768A5 (en) | 2020-10-22 |
JP7005236B2 JP7005236B2 (en) | 2022-01-21 |
Family
ID=65814196
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017170602A Active JP7005236B2 (en) | 2017-09-05 | 2017-09-05 | Imaging device and its control method, program, storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7005236B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023026702A1 (en) * | 2021-08-25 | 2023-03-02 | 富士フイルム株式会社 | Image capturing device, method for driving image capturing device, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009284462A (en) * | 2008-04-21 | 2009-12-03 | Sony Corp | Imaging device and method of controlling ranging area |
JP2012170130A (en) * | 2012-04-24 | 2012-09-06 | Nikon Corp | Imaging apparatus |
JP2016152467A (en) * | 2015-02-17 | 2016-08-22 | 株式会社Jvcケンウッド | Tracking device, tracking method and tracking program |
-
2017
- 2017-09-05 JP JP2017170602A patent/JP7005236B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009284462A (en) * | 2008-04-21 | 2009-12-03 | Sony Corp | Imaging device and method of controlling ranging area |
JP2012170130A (en) * | 2012-04-24 | 2012-09-06 | Nikon Corp | Imaging apparatus |
JP2016152467A (en) * | 2015-02-17 | 2016-08-22 | 株式会社Jvcケンウッド | Tracking device, tracking method and tracking program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023026702A1 (en) * | 2021-08-25 | 2023-03-02 | 富士フイルム株式会社 | Image capturing device, method for driving image capturing device, and program |
Also Published As
Publication number | Publication date |
---|---|
JP7005236B2 (en) | 2022-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6249825B2 (en) | Imaging device, control method thereof, and control program | |
KR101886059B1 (en) | Image capturing apparatus and method of controlling the same | |
JP6239857B2 (en) | Imaging apparatus and control method thereof | |
JP2015129846A (en) | Image capturing device and control method therefor | |
JP2018093275A (en) | Imaging apparatus and flicker determination method | |
CN107431755B (en) | Image processing apparatus, image capturing apparatus, image processing method, and storage medium | |
JP2016038414A (en) | Focus detection device, control method thereof, and imaging apparatus | |
JP7007871B2 (en) | Imaging device and its control method, program, storage medium | |
JP2017158018A (en) | Image processing apparatus, control method of the same, and imaging apparatus | |
JP6971685B2 (en) | Imaging device and its control method | |
JP2015210285A (en) | Imaging device, manufacturing method of the same, program thereof and recording medium | |
JP7005236B2 (en) | Imaging device and its control method, program, storage medium | |
JP7019337B2 (en) | Image stabilization device, lens device and their control method | |
JP6254843B2 (en) | Image processing apparatus and control method thereof | |
JP2015145970A (en) | Imaging device, control method of the same, program abd recording medium | |
JP6639326B2 (en) | Control device, imaging device, control method, program, and storage medium | |
JP7022575B2 (en) | Focus detectors and methods, and imaging devices | |
JP2021157069A (en) | Image tremor correction control device, imaging device and imaging device control method | |
JP2015225311A (en) | Image capturing device, control method therefor, program, and storage medium | |
JP2020134859A (en) | Imaging device | |
JP7005209B2 (en) | Image pickup device and its control method | |
US20220358667A1 (en) | Image processing apparatus and method, and image capturing apparatus and control method thereof, and storage medium | |
JP2016133595A (en) | Controller, imaging device, control method, program, and storage medium | |
JP2016009024A (en) | Focus detector, control method of the same, and imaging apparatus | |
JP2018022984A (en) | Image processing device, control method therefor, program and imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200903 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200903 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210519 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210702 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210810 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220105 |