JP2019045768A - Imaging device, control method of the same, program thereof, and storage medium - Google Patents

Imaging device, control method of the same, program thereof, and storage medium Download PDF

Info

Publication number
JP2019045768A
JP2019045768A JP2017170602A JP2017170602A JP2019045768A JP 2019045768 A JP2019045768 A JP 2019045768A JP 2017170602 A JP2017170602 A JP 2017170602A JP 2017170602 A JP2017170602 A JP 2017170602A JP 2019045768 A JP2019045768 A JP 2019045768A
Authority
JP
Japan
Prior art keywords
subject
main subject
imaging
focus detection
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017170602A
Other languages
Japanese (ja)
Other versions
JP7005236B2 (en
JP2019045768A5 (en
Inventor
英秋 高宮
Hideaki Takamiya
英秋 高宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017170602A priority Critical patent/JP7005236B2/en
Publication of JP2019045768A publication Critical patent/JP2019045768A/en
Publication of JP2019045768A5 publication Critical patent/JP2019045768A5/ja
Application granted granted Critical
Publication of JP7005236B2 publication Critical patent/JP7005236B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Abstract

To provide an imaging device that, even when a plurality of subjects enter a focus detection area, correctly tracks a subject a user aims at, and enables the subject to be kept focused on.SOLUTION: An imaging device, which has a function automatically causing focus of an imaging lens to be pointed at a subject, comprises: a setting unit that sets a main subject serving as an object to be focused on by an imaging lens; a position calculation unit that calculates a position of the main subject; a velocity vector calculation unit that calculates a velocity vector of the main subject on the basis of the past positions of the main subject at a plurality of points calculated by the position calculation unit; and a space calculation unit that calculates a first subject existence space having existence of the main subject predicted, using the velocity vector calculated by the velocity vector calculation unit. The setting unit is configured to, when a distance among a plurality of subjects themselves in a screen gets close to a prescribed distance or less, select the subject serving as an object to be focused on from the plurality of subjects, using the first subject existence space calculate by the space calculation unit, and reset the selected subject as the main subject.SELECTED DRAWING: Figure 13

Description

本発明は、撮像装置における自動焦点調節技術に関するものである。   The present invention relates to an automatic focusing technique in an imaging apparatus.

従来、撮像装置を用いて止まっている被写体を撮影する際には、従来から広く知られているオートフォーカス(以下、AF)機能を用いて焦点調節を行い撮影する。これにより、被写体にピントがあった良好な画像を得ることができる。   2. Description of the Related Art Conventionally, when photographing an object at rest using an imaging device, photographing is performed by using an autofocus (hereinafter referred to as AF) function widely known in the related art. This makes it possible to obtain a good image in which the subject is in focus.

一方、動いている被写体に同様の方法で焦点を合わせてから撮影を行うと、撮像装置内のシャッターが動作を開始してから露光するまでにタイムラグが発生する。そのタイムラグにより、ピントを合わせた位置から被写体がさらに動いた位置で撮像が行われ、ピントが合っていない画像が得られる場合がある。そのため、被写体の過去の複数点の焦点調節情報から、露光するタイミングでの被写体位置を予測する。そして、あらかじめ焦点調節用レンズを予測した位置に動かしておいてから露光することにより、高い確率でピントが合った画像を得ることができる。このような技術も、一般に広く使われている。   On the other hand, when focusing is performed on a moving subject in the same manner and then shooting is performed, a time lag occurs from the start of operation of the shutter in the imaging apparatus to exposure. Due to the time lag, an image may be captured at a position where the subject has moved further from the in-focus position, and an out-of-focus image may be obtained. Therefore, the subject position at the exposure timing is predicted from the focus adjustment information of a plurality of points in the past of the subject. Then, by moving the focusing lens to a predicted position in advance and then performing exposure, it is possible to obtain an image in focus with high probability. Such techniques are also widely used generally.

さらに、上記で説明したような撮像装置に対する奥行き方向(Z方向)だけではなく、撮像素子の撮像面に平行な方向(XY方向)の動きも予測して焦点検出を行う例が、特許文献1に開示されている。   Furthermore, an example of performing focus detection by predicting not only the depth direction (Z direction) with respect to the imaging device as described above, but also movement in a direction (XY direction) parallel to the imaging surface of the imaging device is disclosed in Is disclosed in

特開2009−284462号公報JP, 2009-284462, A

しかしながら、たとえば特許文献1に開示された従来技術では、被写体のXYZ方向の動きを検出し、焦点検出に用いるXY方向の焦点検出領域を変更するだけである。そのため、たとえば複数の被写体が焦点検出領域に入ってきた場合に、どちらの被写体が追尾するべきユーザの目的の被写体であるかが分からなくなってしまうという問題が発生する。   However, in the prior art disclosed in Patent Document 1, for example, motion of the subject in the XYZ directions is detected, and focus detection areas in the XY directions used for focus detection are only changed. Therefore, for example, when a plurality of subjects enter the focus detection area, there arises a problem that it is not possible to know which subject is the subject of the user to be tracked.

本発明は上述した課題に鑑みてなされたものであり、その目的は、焦点検出領域に複数の被写体が入ってきた場合でも、ユーザが目的とする被写体を正しく追尾してピントを合わせ続けることができる撮像装置を提供することである。   The present invention has been made in view of the above-described problems, and an object thereof is that a user can correctly track and continue focusing on a target subject even when a plurality of subjects enter the focus detection area. Providing an imaging device that can

本発明に係わる撮像装置は、被写体に撮像レンズのピントを自動的に合わせる機能を有する撮像装置において、前記撮像レンズのピントを合わせる対象である主被写体を設定する設定手段と、前記主被写体の位置を算出する位置算出手段と、前記位置算出手段により算出された過去の複数点の前記主被写体の位置に基づいて、前記主被写体の速度ベクトルを算出する速度ベクトル算出手段と、前記速度ベクトル算出手段により算出された速度ベクトルを用いて、前記主被写体が存在すると予測される第1の被写体存在空間を算出する空間算出手段と、を備え、前記設定手段は、画面内の複数の被写体同士の距離が、所定の距離以下になるまで接近した場合に、前記空間算出手段により算出された第1の被写体存在空間を用いて前記複数の被写体からピントを合わせる対象である被写体を選択し、前記主被写体として再設定することを特徴とする。   An imaging apparatus according to the present invention is an imaging apparatus having a function of automatically focusing an imaging lens on a subject, the setting unit setting a main subject to be focused on the imaging lens, and the position of the main subject Calculating the velocity of the main subject based on the positions of the main subjects at a plurality of points in the past calculated by the position calculating means; and velocity vector calculating means for calculating the velocity vector of the main subject; Calculating means for calculating a first subject existing space in which the main subject is predicted to be present, using the velocity vector calculated by the setting step, the setting means determining a distance between a plurality of subjects in the screen Is closer to or less than a predetermined distance, the plurality of objects can be captured using the first subject existing space calculated by the space calculating means. Select an object is an object to be focused from, characterized in that re-set as the main subject.

本発明によれば、焦点検出領域に複数の被写体が入ってきた場合でも、ユーザが目的とする被写体を正しく追尾してピントを合わせ続けることができる撮像装置を提供することが可能となる。   According to the present invention, it is possible to provide an imaging device capable of correctly tracking and keeping in focus the target subject of the user even when a plurality of subjects enter the focus detection area.

本発明の撮像装置の第1の実施形態であるカメラの構成を示す図。FIG. 1 is a diagram showing a configuration of a camera that is a first embodiment of an imaging device of the present invention. 撮像素子の画素配列の概略図。Schematic of the pixel array of an image pick-up element. 画素の概略平面図と概略断面図。The schematic plan view and schematic sectional drawing of a pixel. 画素と瞳分割の概略説明図。Schematic explanatory drawing of a pixel and a pupil division. 撮像素子と瞳分割の概略説明図。Schematic explanatory drawing of an image pick-up element and pupil division. デフォーカス量と像ずれ量の概略関係図。Schematic relationship between defocus amount and image shift amount. 焦点検出処理の流れを示すフローチャート。5 is a flowchart showing the flow of focus detection processing. 第1焦点検出信号と第2焦点検出信号の瞳ずれによるシェーディングの概略説明図。Schematic explanatory drawing of the shading by the pupil shift of a 1st focus detection signal and a 2nd focus detection signal. フィルターの周波数帯域の例を示す図。The figure which shows the example of the frequency band of a filter. 第1の実施形態における被写体の動きと速度ベクトルを説明する図。FIG. 6 is a view for explaining the movement of a subject and a velocity vector in the first embodiment. 第1の実施形態における複数の被写体が交差した状態を説明する図。FIG. 6 is a view for explaining a state in which a plurality of subjects intersect in the first embodiment. 第1の実施形態における複数の被写体が交差した状態を説明する図。FIG. 6 is a view for explaining a state in which a plurality of subjects intersect in the first embodiment. 第1の実施形態における被写体存在空間を示す図。FIG. 2 is a view showing a subject existing space in the first embodiment. 第2の実施形態における被写体存在空間を示す図。The figure which shows the to-be-photographed object presence space in 2nd Embodiment.

以下、本発明の実施形態について、添付図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings.

(第1の実施形態)
本実施形態では、撮像装置が検知する焦点調節情報に基づいて、被写体が存在すると予想される空間(以下、被写体存在空間)を定義し、その被写体存在空間内に存在する被写体を主被写体として設定する方法について説明する。
First Embodiment
In the present embodiment, a space in which a subject is expected to exist (hereinafter referred to as a subject existing space) is defined based on focus adjustment information detected by an imaging apparatus, and a subject present in the subject existing space is set as a main subject. I will explain how to do it.

[全体構成]
図1は、本発明の撮像装置の第1の実施形態であるカメラの構成を示す図である。図1において、第1レンズ群101は、結像光学系の先端に配置され、光軸方向に進退可能に保持されている。絞り兼用シャッタ102は、その開口径を調節することで撮影時の光量調節を行なうほか、静止画撮影時には露光秒時調節用シャッタとしても機能する。第2レンズ群103は、絞り兼用シャッタ102と一体となって光軸方向に進退し、第1レンズ群101の進退動作との連動により、変倍作用(ズーム機能)をなす。
[overall structure]
FIG. 1 is a view showing a configuration of a camera which is a first embodiment of an imaging device of the present invention. In FIG. 1, the first lens group 101 is disposed at the tip of the imaging optical system, and is held so as to be movable back and forth in the optical axis direction. The diaphragm / shutter 102 adjusts the light amount at the time of shooting by adjusting the aperture diameter, and also functions as an exposure time adjustment shutter at the time of still image shooting. The second lens group 103 advances and retracts in the optical axis direction together with the aperture / shutter 102, and performs a variable power operation (zoom function) in conjunction with the advancing and retracting operation of the first lens group 101.

第3レンズ群105は、光軸方向の進退により、焦点調節を行なう。光学的ローパスフィルタ106は、撮影画像の偽色やモアレを軽減するための光学素子である。撮像素子107は、2次元CMOSフォトセンサーと周辺回路からなり、結像光学系の結像面に配置される。   The third lens group 105 performs focusing by advancing and retracting in the optical axis direction. The optical low pass filter 106 is an optical element for reducing false color and moiré of a captured image. The imaging element 107 is composed of a two-dimensional CMOS photosensor and a peripheral circuit, and is disposed on the imaging surface of the imaging optical system.

ズームアクチュエータ111は、不図示のカム筒を回動することで、第1レンズ群101及び第2レンズ群103を光軸方向に進退駆動し、変倍操作を行なう。絞りシャッタアクチュエータ112は、絞り兼用シャッタ102の開口径を制御して撮影光量を調節すると共に、静止画撮影時の露光時間制御を行なう。フォーカスアクチュエータ114は、第3レンズ群105を光軸方向に進退駆動して焦点調節を行なう。   The zoom actuator 111 rotates the cam barrel (not shown) to drive the first lens group 101 and the second lens group 103 back and forth in the direction of the optical axis to perform a magnification change operation. The aperture shutter actuator 112 controls the aperture diameter of the aperture / shutter 102 to adjust the imaging light amount, and performs exposure time control at the time of still image imaging. The focus actuator 114 drives the third lens group 105 in the optical axis direction to perform focusing.

電子フラッシュ115は撮影時に被写体を照明する。電子フラッシュ115には、キセノン管を用いた閃光照明装置が好適であるが、連続発光するLEDを備えた照明装置を用いても良い。AF補助光装置116は、所定の開口パターンを有したマスクの像を、投光レンズを介して被写界に投影し、暗い被写体あるいは低コントラスト被写体に対する焦点検出能力を向上させる。   The electronic flash 115 illuminates the subject at the time of shooting. As the electronic flash 115, a flash illumination device using a xenon tube is preferable, but an illumination device having an LED that emits light continuously may be used. The AF auxiliary light device 116 projects an image of a mask having a predetermined opening pattern onto a field through a light projection lens, and improves the focus detection capability for a dark subject or a low contrast subject.

CPU121は、カメラ本体の種々の制御を司るカメラ内CPUで、演算部、ROM、RAM、A/Dコンバータ、D/Aコンバータ、通信インターフェイス回路等を有する。そして、ROMに記憶された所定のプログラムに基づいて、カメラが有する各種回路を駆動し、AF、撮影、画像処理、記録等の一連の動作を実行する。   The CPU 121 is an in-camera CPU that controls various operations of the camera body, and includes an arithmetic unit, a ROM, a RAM, an A / D converter, a D / A converter, a communication interface circuit, and the like. Then, based on a predetermined program stored in the ROM, various circuits of the camera are driven to execute a series of operations such as AF, photographing, image processing, recording, and the like.

電子フラッシュ制御回路122は、撮影動作に同期して電子フラッシュ115を点灯制御する。補助光駆動回路123は、焦点検出動作に同期してAF補助光装置116を点灯制御する。撮像素子駆動回路124は、撮像素子107の撮像動作を制御するとともに、撮像素子107から出力された画像信号をA/D変換してCPU121に送信する。画像処理回路125は、撮像素子107が取得した画像のγ変換、カラー補間、JPEG圧縮等の処理を行なう。   The electronic flash control circuit 122 controls lighting of the electronic flash 115 in synchronization with the photographing operation. The auxiliary light drive circuit 123 controls the lighting of the AF auxiliary light device 116 in synchronization with the focus detection operation. The imaging device drive circuit 124 controls the imaging operation of the imaging device 107, A / D converts the image signal output from the imaging device 107, and transmits the image signal to the CPU 121. The image processing circuit 125 performs processing such as γ conversion, color interpolation, and JPEG compression of an image acquired by the imaging element 107.

フォーカス駆動回路126は、焦点検出結果に基づいてフォーカスアクチュエータ114を駆動制御し、第3レンズ群105を光軸方向に進退駆動して焦点調節を行なう。絞りシャッタ駆動回路128は、絞りシャッタアクチュエータ112を駆動制御して絞り兼用シャッタ102の開口を制御する。ズーム駆動回路129は、撮影者のズーム操作に応じてズームアクチュエータ111を駆動する。   The focus drive circuit 126 drives and controls the focus actuator 114 based on the focus detection result to drive the third lens group 105 back and forth in the optical axis direction to perform focus adjustment. The diaphragm shutter drive circuit 128 controls driving of the diaphragm shutter actuator 112 to control the opening of the diaphragm shutter 102. The zoom drive circuit 129 drives the zoom actuator 111 according to the zoom operation of the photographer.

表示装置131はLCD等からなり、カメラの撮影モードに関する情報、撮影前のプレビュー画像と撮影後の確認用画像、焦点検出時の合焦状態表示画像等を表示する。表示装置131はタッチパネルを備え、ユーザーはタッチパネルに直接触ることにより、各種操作を行うことができる。操作スイッチ群132は、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等で構成される。フラッシュメモリ133はカメラ本体に対して着脱可能であり、撮影済み画像を記録する。   The display device 131 includes an LCD or the like, and displays information on a shooting mode of the camera, a preview image before shooting and a confirmation image after shooting, an in-focus state display image at the time of focus detection, and the like. The display device 131 includes a touch panel, and the user can perform various operations by directly contacting the touch panel. The operation switch group 132 includes a power switch, a release (shooting trigger) switch, a zoom operation switch, a shooting mode selection switch, and the like. The flash memory 133 is attachable to and detachable from the camera body, and records a photographed image.

[撮像素子]
図2は、本実施形態における撮像素子の撮像画素と焦点検出画素の配列の概略を示す図である。図2では、本実施形態に用いられる撮像素子である2次元CMOSセンサーの画素(撮像画素)配列を4列×4行の範囲で、焦点検出画素配列を8列×4行の範囲で示している。
[Image sensor]
FIG. 2 is a diagram schematically showing the arrangement of imaging pixels and focus detection pixels of the imaging device in the present embodiment. In FIG. 2, a pixel (imaging pixel) array of a two-dimensional CMOS sensor which is an imaging element used in this embodiment is shown in a range of 4 columns × 4 rows, and a focus detection pixel array is shown in a range of 8 columns × 4 rows. There is.

図2に示した2列×2行の画素群200では、R(赤)の分光感度を有する画素200Rが左上に、G(緑)の分光感度を有する画素200Gが右上と左下に、B(青)の分光感度を有する画素200Bが右下に配置されている。さらに、各撮像画素は2列×1行に配列された第1焦点検出画素201と第2焦点検出画素202により構成されている。   In the pixel group 200 of 2 columns × 2 rows shown in FIG. 2, the pixel 200R having R (red) spectral sensitivity is at the upper left, and the pixel 200 G having G (green) spectral sensitivity is at the upper right and lower left, B ( A pixel 200B having a spectral sensitivity of blue) is disposed at the lower right. Furthermore, each imaging pixel is configured by a first focus detection pixel 201 and a second focus detection pixel 202 arranged in 2 columns × 1 row.

図2に示した4列×4行の撮像画素(8列×4行の焦点検出画素)を面上に多数配置し、撮像画像(焦点検出信号)の取得を可能としている。本実施形態では、撮像画素の周期Pが4μm、撮像画素の画素数Nが横5575列×縦3725行=約2075万画素、焦点検出画素の列方向周期PAFが2μm、焦点検出画素の画素数NAFが横11150列×縦3725行=約4150万画素の撮像素子を使用するものとして説明を行う。   A large number of 4 columns × 4 rows of imaging pixels (8 columns × 4 rows of focus detection pixels) shown in FIG. 2 are arranged on the surface to enable acquisition of a captured image (focus detection signal). In the present embodiment, the period P of the imaging pixel is 4 μm, the number N of pixels of the imaging pixel is 5575 rows × 3725 rows = approximately 20.75 million pixels, the column direction period PAF of the focus detection pixels is 2 μm, and the number of pixels of the focus detection pixels In the following description, it is assumed that the NAF uses an imaging element of 11150 rows × 3725 rows = about 41.5 million pixels.

図2に示した撮像素子の1つの画素200Gを、撮像素子の受光面側(+z側)から見た平面図を図3(a)に示し、図3(a)のa−a断面を−y側から見た断面図を図3(b)に示す。なお、本実施形態では、撮像面上で地面に対する水平方向をx方向、垂直方向をy方向、被写体の奥行き方向をz方向とする。   FIG. 3A shows a plan view of one pixel 200G of the imaging device shown in FIG. 2 as viewed from the light receiving surface side (+ z side) of the imaging device, and a cross section aa in FIG. A cross-sectional view seen from the y side is shown in FIG. In the present embodiment, the horizontal direction with respect to the ground on the imaging surface is the x direction, the vertical direction is the y direction, and the depth direction of the subject is the z direction.

図3に示すように、画素200Gでは、各画素の受光側に入射光を集光するためのマイクロレンズ305が形成され、x方向にNH分割(2分割)、y方向にNV分割(1分割)された光電変換部301と光電変換部302が形成される。光電変換部301と光電変換部302は、それぞれ、第1焦点検出画素201と第2焦点検出画素202に対応する。   As shown in FIG. 3, in the pixel 200G, a micro lens 305 for condensing incident light is formed on the light receiving side of each pixel, NH division (two divisions) in the x direction, NV division (one division in the y direction) The photoelectric conversion unit 301 and the photoelectric conversion unit 302 are formed. The photoelectric conversion unit 301 and the photoelectric conversion unit 302 correspond to the first focus detection pixel 201 and the second focus detection pixel 202, respectively.

光電変換部301と光電変換部302は、p型層とn型層の間にイントリンシック層を挟んだpin構造フォトダイオードとしても良いし、必要に応じて、イントリンシック層を省略し、pn接合フォトダイオードとしても良い。   The photoelectric conversion unit 301 and the photoelectric conversion unit 302 may be a pin structure photodiode in which an intrinsic layer is sandwiched between a p-type layer and an n-type layer, or the intrinsic layer is omitted as necessary. It may be a photodiode.

各画素には、マイクロレンズ305と、光電変換部301および光電変換部302との間に、カラーフィルター306が形成されている。また、必要に応じて、各焦点検出画素毎にカラーフィルターの分光透過率を変えても良いし、カラーフィルターを省略しても良い。   In each pixel, a color filter 306 is formed between the micro lens 305 and the photoelectric conversion unit 301 and the photoelectric conversion unit 302. Further, the spectral transmittance of the color filter may be changed for each focus detection pixel as needed, or the color filter may be omitted.

図3に示した画素200Gに入射した光は、マイクロレンズ305により集光され、カラーフィルター306で分光されたのち、光電変換部301と光電変換部302で受光される。光電変換部301と光電変換部302では、受光量に応じて電子とホールが対生成され、空乏層で分離された後、負電荷の電子はn型層(不図示)に蓄積され、一方、ホールは定電圧源(不図示)に接続されたp型層を通じて撮像素子外部へ排出される。光電変換部301と光電変換部302のn型層(不図示)に蓄積された電子は、転送ゲートを介して、静電容量部(FD)に転送され、電圧信号に変換される。   Light incident on the pixel 200 </ b> G illustrated in FIG. 3 is collected by the micro lens 305, separated by the color filter 306, and then received by the photoelectric conversion unit 301 and the photoelectric conversion unit 302. In the photoelectric conversion unit 301 and the photoelectric conversion unit 302, electrons and holes are generated in a pair according to the amount of light received, and after being separated by the depletion layer, electrons of negative charge are stored in the n-type layer (not shown) The holes are discharged to the outside of the imaging device through a p-type layer connected to a constant voltage source (not shown). Electrons accumulated in the photoelectric conversion unit 301 and the n-type layer (not shown) of the photoelectric conversion unit 302 are transferred to the electrostatic capacitance unit (FD) through the transfer gate and converted into a voltage signal.

図4は、図3に示した画素構造と瞳分割との対応関係を示した概略説明図である。図4では、図3(a)に示した画素構造のa−a断面を+y側から見た断面図と結像光学系の射出瞳面を示している。また、射出瞳面の座標軸と対応を取るために、断面図のx軸とy軸を図3に対して反転させている。   FIG. 4 is a schematic explanatory view showing the correspondence between the pixel structure shown in FIG. 3 and pupil division. FIG. 4 shows a cross-sectional view of the aa cross section of the pixel structure shown in FIG. 3A as viewed from the + y side and an exit pupil plane of the imaging optical system. Further, in order to correspond to the coordinate axes of the exit pupil plane, the x-axis and y-axis of the sectional view are reversed with respect to FIG.

図4において、第1焦点検出画素201の第1瞳部分領域501は、重心が−x方向に偏心している光電変換部301の受光面と、マイクロレンズによって、概ね共役関係になっており、第1焦点検出画素201で受光可能な瞳領域を表している。第1焦点検出画素201の第1瞳部分領域501は、瞳面上で+x側に重心が偏心している。   In FIG. 4, the first pupil partial region 501 of the first focus detection pixel 201 is in a substantially conjugate relationship with the light receiving surface of the photoelectric conversion unit 301 whose center of gravity is decentered in the −x direction. A pupil region which can be received by the single focus detection pixel 201 is shown. The first pupil partial region 501 of the first focus detection pixel 201 has its center of gravity decentered on the + x side on the pupil plane.

同様に、第2焦点検出画素202の第2瞳部分領域502は、重心が+x方向に偏心している光電変換部302の受光面と、マイクロレンズによって、概ね共役関係になっており、第2焦点検出画素202で受光可能な瞳領域を表している。第2焦点検出画素202の第2瞳部分領域502は、瞳面上で−X側に重心が偏心している。   Similarly, the second pupil partial region 502 of the second focus detection pixel 202 is in a substantially conjugate relationship with the light receiving surface of the photoelectric conversion unit 302 whose center of gravity is decentered in the + x direction by the micro lens. The detection pixel 202 represents a light receiving pupil area. The second pupil partial region 502 of the second focus detection pixel 202 has its center of gravity decentered on the −X side on the pupil plane.

また、図4において、瞳領域500は、光電変換部301と光電変換部302(第1焦点検出画素201と第2焦点検出画素202)を全て合わせた際の画素200G全体で受光可能な瞳領域である。   Further, in FIG. 4, the pupil region 500 is a pupil region which can be received by the entire pixel 200 G when all of the photoelectric conversion unit 301 and the photoelectric conversion unit 302 (the first focus detection pixel 201 and the second focus detection pixel 202) are combined. It is.

図5は、撮像素子と瞳分割との対応関係を示した概略図である。第1瞳部分領域501と第2瞳部分領域502の異なる瞳部分領域を通過した光束は、撮像素子の各画素に、それぞれ異なる角度で入射し、2×1分割された第1焦点検出画素201と第2焦点検出画素202で受光される。本実施形態は、瞳領域が水平方向に2つに瞳分割されている例である。必要に応じて、垂直方向に瞳分割を行ってもよい。   FIG. 5 is a schematic view showing the correspondence between the imaging device and the pupil division. The light beams having passed through different partial pupil regions of the first pupil partial region 501 and the second pupil partial region 502 are incident on respective pixels of the imaging device at different angles, and are divided into 2 × 1 first focus detection pixels 201 And the second focus detection pixel 202 receives light. The present embodiment is an example in which the pupil region is divided into two in the horizontal direction. If necessary, pupil division may be performed in the vertical direction.

本実施形態の撮像素子は、結像光学系の第1瞳部分領域を通過する光束を受光する第1焦点検出画素と、第1瞳部分領域とは異なる結像光学系の第2瞳部分領域を通過する光束を受光する第2焦点検出画素を有する。さらに、結像光学系の第1瞳部分領域と第2瞳部分領域を合わせた瞳領域を通過する光束を受光する撮像画素が複数配列されている。本実施形態の撮像素子では、それぞれの撮像画素が第1焦点検出画素と第2焦点検出画素から構成されている。必要に応じて、撮像画素と第1焦点検出画素、第2焦点検出画素を個別の画素構成とし、撮像画素配列の一部に、第1焦点検出画素と第2焦点検出画素を部分的に配置する構成としてもよい。   The imaging device of the present embodiment includes a first focus detection pixel that receives a light beam passing through a first pupil partial region of the imaging optical system, and a second pupil partial region of an imaging optical system that is different from the first pupil partial region And a second focus detection pixel for receiving a light flux passing through the light source. Furthermore, a plurality of imaging pixels that receive a light flux passing through a pupil area that is a combination of the first pupil partial area and the second pupil partial area of the imaging optical system are arranged. In the imaging device of the present embodiment, each imaging pixel is composed of a first focus detection pixel and a second focus detection pixel. As necessary, the imaging pixel, the first focus detection pixel, and the second focus detection pixel are configured as individual pixels, and the first focus detection pixel and the second focus detection pixel are partially arranged in a part of the imaging pixel array. It may be configured to

また、本実施形態では、撮像素子の各画素の第1焦点検出画素201の受光信号を集めて第1焦点検出信号を生成し、各画素の第2焦点検出画素202の受光信号を集めて第2焦点検出信号を生成して自動的に焦点検出を行う。また、撮像素子の各画素毎に、第1焦点検出画素201と第2焦点検出画素202の信号を加算することで、有効画素数Nの解像度の撮像信号(撮像画像)を生成する。   Further, in the present embodiment, the light reception signal of the first focus detection pixel 201 of each pixel of the imaging device is collected to generate a first focus detection signal, and the light reception signal of the second focus detection pixel 202 of each pixel is collected to Two focus detection signals are generated to perform focus detection automatically. Further, by adding the signals of the first focus detection pixel 201 and the second focus detection pixel 202 for each pixel of the imaging element, an imaging signal (captured image) having a resolution of N effective pixels is generated.

[デフォーカス量と像ずれ量の関係]
以下、撮像素子により取得される第1焦点検出信号と第2焦点検出信号のデフォーカス量と像ずれ量の関係について説明する。
[Relationship between defocus amount and image shift amount]
Hereinafter, the relationship between the defocus amount and the image shift amount of the first focus detection signal and the second focus detection signal acquired by the imaging device will be described.

図6は、デフォーカス量と第1焦点検出信号と第2焦点検出信号間の像ずれ量の概略的な関係を示す図である。撮像面800に撮像素子が配置され、図4、図5と同様に、結像光学系の射出瞳が、第1瞳部分領域501と第2瞳部分領域502に2分割されている。   FIG. 6 is a diagram showing a schematic relationship between the defocus amount and the image shift amount between the first focus detection signal and the second focus detection signal. An imaging element is disposed on the imaging surface 800, and the exit pupil of the imaging optical system is divided into a first pupil partial region 501 and a second pupil partial region 502, as in FIGS.

デフォーカス量dは、被写体の結像位置から撮像面までの距離を大きさ|d|とし、被写体の結像位置が撮像面より被写体側にある前ピン状態を負符号(d<0)、被写体の結像位置が撮像面より被写体の反対側にある後ピン状態を正符号(d>0)として定義される。被写体の結像位置が撮像面(合焦位置)にある合焦状態はd=0である。図6で、被写体801は合焦状態(d=0)の例を示しており、被写体802は前ピン状態(d<0)の例を示している。前ピン状態(d<0)と後ピン状態(d>0)を合わせて、デフォーカス状態(|d|>0)とする。   The defocus amount d sets the distance from the imaging position of the subject to the imaging plane to be | d |, and the negative sign (d <0) of the front pin state in which the imaging position of the subject is closer to the object than the imaging plane A back-pin state in which the imaging position of the subject is on the opposite side of the subject from the imaging plane is defined as a positive sign (d> 0). The in-focus state where the imaging position of the subject is on the imaging surface (in-focus position) is d = 0. In FIG. 6, the subject 801 shows an example of the in-focus state (d = 0), and the subject 802 shows an example of the front pin state (d <0). The front pin state (d <0) and the rear pin state (d> 0) are combined to be in the defocus state (| d |> 0).

前ピン状態(d<0)では、被写体802からの光束のうち、第1瞳部分領域501(第2瞳部分領域502)を通過した光束は、一度、集光した後、光束の重心位置G1(G2)を中心として幅Γ1(Γ2)に広がり、撮像面800でボケた像となる。ボケた像は、撮像素子に配列された各画素を構成する第1焦点検出画素201(第2焦点検出画素202)により受光され、第1焦点検出信号(第2焦点検出信号)が生成される。よって、第1焦点検出信号(第2焦点検出信号)は、撮像面800上の重心位置G1(G2)に、被写体802が幅Γ1(Γ2)にボケた被写体像として記録される。被写体像のボケ幅Γ1(Γ2)は、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね比例して増加していく。同様に、第1焦点検出信号と第2焦点検出信号間の被写体像の像ずれ量p(=光束の重心位置の差G1−G2)の大きさ|p|も、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね比例して増加していく。後ピン状態(d>0)でも、第1焦点検出信号と第2焦点検出信号間の被写体像の像ずれ方向が前ピン状態と反対となるが、同様である。   In the front pinning state (d <0), the light flux from the object 802 that has passed through the first pupil partial region 501 (second pupil partial region 502) is once condensed, and then the barycentric position G1 of the light flux The image spreads over a width Γ 1 (Γ 2) centering on (G 2) and becomes an image blurred on the imaging surface 800. The blurred image is received by the first focus detection pixel 201 (second focus detection pixel 202) constituting each pixel arranged in the imaging device, and a first focus detection signal (second focus detection signal) is generated. . Therefore, the first focus detection signal (second focus detection signal) is recorded at the gravity center position G1 (G2) on the imaging surface 800 as a subject image in which the subject 802 is blurred to a width Γ1 (Γ2). The blur width Γ1 (Γ2) of the subject image generally increases in proportion to the increase of the magnitude | d | of the defocus amount d. Similarly, the magnitude | p | of the image shift amount p of the subject image between the first focus detection signal and the second focus detection signal (= difference G1−G2 of the gravity center position of the light flux) is also the magnitude of the defocus amount d. As | d | increases, it increases roughly proportionally. Even in the rear focus state (d> 0), the image shift direction of the object image between the first focus detection signal and the second focus detection signal is opposite to that in the front focus state, but the same applies.

したがって、本実施形態では、第1焦点検出信号と第2焦点検出信号、もしくは、第1焦点検出信号と第2焦点検出信号を加算した撮像信号のデフォーカス量の大きさが増加するのに伴い、第1焦点検出信号と第2焦点検出信号間の像ずれ量の大きさが増加する。   Therefore, in the present embodiment, as the magnitude of the defocus amount of the imaging signal obtained by adding the first focus detection signal and the second focus detection signal or the first focus detection signal and the second focus detection signal increases. The magnitude of the image shift amount between the first focus detection signal and the second focus detection signal is increased.

[焦点検出]
以下、位相差方式の焦点検出方法について説明する。位相差方式の焦点検出では、第1焦点検出信号と第2焦点検出信号を相対的にシフトさせて信号の一致度を表す相関量(第1評価値)を計算し、相関(信号の一致度)が良くなるシフト量から像ずれ量を検出する。撮像信号のデフォーカス量の大きさが増加するのに伴い、第1焦点検出信号と第2焦点検出信号間の像ずれ量の大きさが増加する関係性から、像ずれ量を検出デフォーカス量に変換して焦点検出を行う。
[Focus detection]
Hereinafter, a phase difference focus detection method will be described. In the phase difference type focus detection, the first focus detection signal and the second focus detection signal are relatively shifted to calculate a correlation amount (first evaluation value) representing the degree of coincidence of the signals, and the correlation (degree of signal coincidence) The image shift amount is detected from the shift amount which is improved. As the magnitude of the image shift amount increases between the first focus detection signal and the second focus detection signal as the magnitude of the defocus amount of the imaging signal increases, the image shift amount is detected as the defocus amount To focus detection.

図7は、焦点検出処理の概略的な流れを示すフローチャートである。なお、図7の動作は、撮像素子107、画像処理回路125、CPU121によって実行される。   FIG. 7 is a flowchart showing a schematic flow of focus detection processing. The operation of FIG. 7 is executed by the image sensor 107, the image processing circuit 125, and the CPU 121.

ステップS110では、撮像素子の有効画素領域の中から焦点調節を行う焦点検出領域を設定する。画像処理回路125とCPU121で構成される焦点検出信号生成部により、焦点検出領域の第1焦点検出画素の受光信号から第1焦点検出信号(A像)を生成し、焦点検出領域の第2焦点検出画素の受光信号から第2焦点検出信号(B像)を生成する。   In step S110, a focus detection area for performing focus adjustment is set from among the effective pixel areas of the imaging device. The focus detection signal generation unit configured by the image processing circuit 125 and the CPU 121 generates a first focus detection signal (image A) from the light reception signal of the first focus detection pixel of the focus detection area, and the second focus of the focus detection area. A second focus detection signal (image B) is generated from the light reception signal of the detection pixel.

ステップS120では、第1焦点検出信号と第2焦点検出信号に対して、それぞれ信号データ量を抑制するために列方向に3画素加算処理を行い、さらに、RGB信号を輝度Y信号にするためにベイヤー(RGB)加算処理を行う。これら2つの加算処理を合わせて画素加算処理とする。   In step S120, 3-pixel addition processing is performed on the first focus detection signal and the second focus detection signal in the column direction to suppress the signal data amount, and the RGB signal is converted to a luminance Y signal. Perform Bayer (RGB) addition processing. These two addition processes are combined to make a pixel addition process.

ステップS130では、第1焦点検出信号と第2焦点検出信号に、それぞれ、シェーディング補正処理(光学補正処理)を行う。   In step S130, shading correction processing (optical correction processing) is performed on the first focus detection signal and the second focus detection signal.

ここで、第1焦点検出信号と第2焦点検出信号の瞳ずれによるシェーディングについて説明する。図8は、撮像素子の周辺像高における第1焦点検出画素201の第1瞳部分領域501、第2焦点検出画素202の第2瞳部分領域502、および結像光学系の射出瞳400の関係を示す図である。   Here, shading due to pupil shift of the first focus detection signal and the second focus detection signal will be described. FIG. 8 shows the relationship between the first pupil partial region 501 of the first focus detection pixel 201, the second pupil partial region 502 of the second focus detection pixel 202, and the exit pupil 400 of the imaging optical system at the peripheral image height of the imaging device. FIG.

図8(a)は、結像光学系の射出瞳距離Dlと撮像素子の設定瞳距離Dsが同じ場合である。この場合は、第1瞳部分領域501と第2瞳部分領域502により、結像光学系の射出瞳400が、概ね均等に瞳分割される。   FIG. 8A shows the case where the exit pupil distance Dl of the imaging optical system and the set pupil distance Ds of the imaging device are the same. In this case, the exit pupil 400 of the imaging optical system is approximately equally pupil-divided by the first pupil partial region 501 and the second pupil partial region 502.

これに対して、図8(b)に示したように、結像光学系の射出瞳距離Dlが撮像素子の設定瞳距離Dsより短い場合、撮像素子の周辺像高では、結像光学系の射出瞳と撮像素子の入射瞳の瞳ずれを生じ、結像光学系の射出瞳400が、不均等に瞳分割されてしまう。同様に、図8(c)に示したように、結像光学系の射出瞳距離Dlが撮像素子の設定瞳距離Dsより長い場合、撮像素子の周辺像高では、結像光学系の射出瞳と撮像素子の入射瞳の瞳ずれを生じ、結像光学系の射出瞳400が、不均等に瞳分割されてしまう。周辺像高で瞳分割が不均等になるのに伴い、第1焦点検出信号と第2焦点検出信号の強度も不均等になり、第1焦点検出信号と第2焦点検出信号のいずれか一方の強度が大きくなり、他方の強度が小さくなるシェーディングが生じる。   On the other hand, as shown in FIG. 8B, when the exit pupil distance D1 of the imaging optical system is shorter than the set pupil distance Ds of the imaging device, the peripheral image height of the imaging device A pupil shift occurs between the exit pupil and the entrance pupil of the imaging device, and the exit pupil 400 of the imaging optical system is divided into pupils unevenly. Similarly, as shown in FIG. 8C, when the exit pupil distance D1 of the imaging optical system is longer than the set pupil distance Ds of the imaging element, the exit pupil of the imaging optical system at the peripheral image height of the imaging element As a result, pupil deviation of the entrance pupil of the imaging device occurs, and the exit pupil 400 of the imaging optical system is divided into unequal pupils. As the pupil division becomes uneven at the peripheral image height, the intensities of the first focus detection signal and the second focus detection signal also become unequal, and either one of the first focus detection signal and the second focus detection signal Shading occurs in which the intensity increases and the other intensity decreases.

図7のステップS130では、焦点検出領域の像高と、撮像レンズ(結像光学系)のF値、射出瞳距離に応じて、第1焦点検出信号の第1シェーディング補正係数と、第2焦点検出信号の第2シェーディング補正係数を、それぞれ生成する。第1シェーディング補正係数を第1焦点検出信号に乗算し、第2シェーディング補正係数を第2焦点検出信号に乗算して、第1焦点検出信号と第2焦点検出信号のシェーディング補正処理(光学補正処理)を行う。   In step S130 of FIG. 7, according to the image height of the focus detection area, the F value of the imaging lens (imaging optical system), and the exit pupil distance, the first shading correction coefficient of the first focus detection signal and the second focus Second shading correction coefficients of the detection signal are generated respectively. Shading correction processing of the first focus detection signal and the second focus detection signal by multiplying the first shading correction coefficient by the first focus detection signal and multiplying the second shading correction coefficient by the second focus detection signal (optical correction processing )I do.

位相差方式の焦点検出では、第1焦点検出信号と第2焦点検出信号の相関(信号の一致度)に基づいて、第1検出デフォーカス量の検出を行う。瞳ずれによるシェーディングが生じると第1焦点検出信号と第2焦点検出信号の相関(信号の一致度)が低下する場合がある。よって、位相差方式の焦点検出では、第1焦点検出信号と第2焦点検出信号の相関(信号の一致度)を改善し、焦点検出性能を良好とするために、シェーディング補正処理(光学補正処理)を行うことが望ましい。   In the phase difference type focus detection, the first detection defocus amount is detected based on the correlation (the degree of coincidence of the signals) between the first focus detection signal and the second focus detection signal. When shading occurs due to pupil misalignment, the correlation (the degree of coincidence of the signals) of the first focus detection signal and the second focus detection signal may decrease. Therefore, in the phase difference type focus detection, the shading correction process (optical correction process) is performed to improve the correlation (the degree of coincidence of the signals) between the first focus detection signal and the second focus detection signal and to improve the focus detection performance. It is desirable to do).

図7のステップS140では、第1焦点検出信号と第2焦点検出信号に、フィルター処理を行う。フィルター処理の通過帯域例を、図9の実線で示す。本実施形態では、位相差方式の焦点検出により、大デフォーカス状態での焦点検出を行うため、フィルター処理の通過帯域は低周波帯域を含むように構成される。必要に応じて、大デフォーカス状態から小デフォーカス状態まで焦点調節を行う際に、デフォーカス状態に応じて、焦点検出時のフィルター処理の通過帯域を、図9の1点鎖線のように、より高周波帯域に調整しても良い。   In step S140 of FIG. 7, filter processing is performed on the first focus detection signal and the second focus detection signal. An example of the pass band of the filtering process is shown by a solid line in FIG. In this embodiment, in order to perform focus detection in a large defocus state by phase difference type focus detection, the pass band of the filter processing is configured to include a low frequency band. As necessary, when performing focus adjustment from the large defocus state to the small defocus state, the pass band of the filter processing at the time of focus detection is made as indicated by the alternate long and short dash line in FIG. It may be adjusted to a higher frequency band.

次に、図7のステップS150では、フィルター処理後の第1焦点検出信号と第2焦点検出信号を相対的に瞳分割方向にシフトさせるシフト処理を行い、信号の一致度を表す相関量(評価値)を算出する。   Next, in step S150 of FIG. 7, shift processing is performed to shift the first focus detection signal and the second focus detection signal after filter processing relatively in the pupil division direction, and the correlation amount representing the degree of coincidence of the signals (evaluation Calculate the value).

フィルター処理後のk番目の第1焦点検出信号をA(k)、第2焦点検出信号をB(k)、焦点検出領域に対応する番号kの範囲をWとする。シフト処理によるシフト量をs1、シフト量s1のシフト範囲をΓ1として、相関量(第1評価値)CORは、式(1)により算出される。   The k-th first focus detection signal after filtering is A (k), the second focus detection signal is B (k), and the range of the number k corresponding to the focus detection area is W. The correlation amount (first evaluation value) COR is calculated by the equation (1), where the shift amount by the shift processing is s1 and the shift range of the shift amount s1 is Γ1.

Figure 2019045768
Figure 2019045768

シフト量s1のシフト処理により、k番目の第1焦点検出信号A(k)とk−s1番目の第2焦点検出信号B(k−s1)を対応させて減算し、シフト減算信号を生成する。生成されたシフト減算信号の絶対値を計算し、焦点検出領域に対応する範囲W内で番号kの和を取り、相関量(評価値)COR(s1)を算出する。必要に応じて、各行毎に算出された相関量(評価値)を、各シフト量毎に、複数行に渡って加算してもよい。   The k-th first focus detection signal A (k) and the k-s1nd second focus detection signal B (k-s1) are correlated and subtracted by shift processing of the shift amount s1 to generate a shift subtraction signal . The absolute value of the generated shift subtraction signal is calculated, the sum of the numbers k is taken in the range W corresponding to the focus detection area, and the correlation amount (evaluation value) COR (s1) is calculated. As necessary, the correlation amount (evaluation value) calculated for each row may be added over a plurality of rows for each shift amount.

ステップS160では、相関量(評価値)から、サブピクセル演算により、相関量が最小値となる実数値のシフト量を算出して像ずれ量p1とする。像ずれ量p1に、焦点検出領域の像高と、撮像レンズ(結像光学系)のF値、射出瞳距離に応じた変換係数K1をかけて、デフォーカス量を検出する。   In step S160, from the correlation amount (evaluation value), a shift amount of a real number value at which the correlation amount becomes a minimum value is calculated by sub-pixel calculation to obtain an image shift amount p1. The defocus amount is detected by multiplying the image shift amount p1 by the image height of the focus detection area, the F value of the imaging lens (imaging optical system), and the conversion coefficient K1 according to the exit pupil distance.

[被写体存在空間の定義]
次に、被写体存在空間の定義について説明する。
[Definition of subject existing space]
Next, the definition of the subject existing space will be described.

まず、主被写体決定手段により、撮影時のピントを合わせるための主被写体を選択する。主被写体決定手段は、ユーザーが操作して指示する操作スイッチ群132もしくはタッチパネルを有した表示器131と、CPU121とにより構成され、ユーザーの操作により主被写体が選択される。もしくは、撮像装置が有する顔検出機能により被写体を検出した場合は、その被写体を主被写体として設定してもよいし、撮像した際の毎フレームの画像の相関結果などにより、動いている物体を検出し、それを主被写体としてもよい。さらには、被写体の色を検出し、特定の色を有するものを主被写体とする、もしくは撮像面内の全部、もしくは一部において焦点検出を行い、所定の距離において検出された被写体を主被写体とする。このような主被写体の選択例が考えられ、広く知られている被写体検出方法によって検出された被写体を主被写体とすればよい。   First, the main subject determination means selects a main subject for focusing at the time of shooting. The main subject determination means is composed of an operation switch group 132 operated or instructed by the user or a display 131 having a touch panel, and the CPU 121, and the main subject is selected by the user's operation. Alternatively, when a subject is detected by the face detection function of the imaging apparatus, the subject may be set as a main subject, or a moving object is detected based on a correlation result of images of each frame at the time of imaging. And it may be the main subject. Furthermore, the color of the subject is detected, and the subject having a specific color is used as the main subject, or focus detection is performed on all or part of the imaging plane, and the subject detected at a predetermined distance is used as the main subject. Do. An example of selecting such a main subject is considered, and a subject detected by a widely known subject detection method may be used as the main subject.

図10は、主被写体決定手段により決定された主被写体が撮像装置に向かって斜めに向かってくる様子を示している。本来はX、Y、Z方向それぞれについて動きを検出して被写体存在空間を定義するのが望ましいが、ここでは説明を分かりやすくするため、XおよびZ方向で図示する。なお、ここでいうZ方向とはレンズの光軸方向を示しており、図10における垂直方法をZ方向とする。またX方向とは、Z軸を法線とする撮像素子107の撮像面において、水平方向をX方向、X方向と直交する方向をY方向とする。   FIG. 10 shows that the main subject determined by the main subject determination means is obliquely directed toward the imaging device. In principle, it is desirable to detect motion in each of the X, Y, and Z directions to define the subject existing space, but here, in order to make the description easy to understand, the X and Z directions are illustrated. Here, the Z direction indicates the optical axis direction of the lens, and the vertical method in FIG. 10 is taken as the Z direction. In the X direction, the horizontal direction is taken as the X direction, and the direction orthogonal to the X direction is taken as the Y direction on the imaging surface of the imaging device 107 with the Z axis as the normal.

図10には、それぞれ被写体が存在した時刻t0〜t3を示している。また、それぞれの時刻におけるX方向、Z方向の速度ベクトルをそれぞれx0〜x2、z0〜z2で示している。このときの時刻t0〜t3は、任意の時間間隔で設定することができ、撮像装置の撮像フレームレート周期で毎フレームでサンプリングしてもよいし、演算負荷を低減するため、それよりも遅い周期でサンプリングしてもよい。   FIG. 10 shows times t0 to t3 at which the subject is present, respectively. Further, velocity vectors in the X direction and Z direction at respective times are indicated by x0 to x2 and z0 to z2, respectively. The time t0 to t3 at this time can be set at an arbitrary time interval, may be sampled at every frame at an imaging frame rate cycle of the imaging apparatus, or is a cycle later than that to reduce the calculation load You may sample at.

主被写体の位置は、画像処理回路125とCPU121により構成される被写体位置検出手段により検出される。被写体位置算出手段は、X、Y、Z方向の位置をそれぞれ算出する。そして、被写体位置算出手段によって算出されたX、Y、Z方向の位置の変化から、画像処理回路125とCPU12により構成される被写体速度ベクトル算出手段により、それぞれの方向に対する動きベクトルを算出する。この場合のX方向の動き速度ベクトルは、撮像装置内での被写体検出結果を元に算出すればよく、一般的に広く知られている顔検出機能や、そのほか被写体追尾機能を用いてX方向のそれぞれの座標、および速度ベクトルを算出すればよい。   The position of the main subject is detected by subject position detection means configured by the image processing circuit 125 and the CPU 121. The subject position calculation means calculates the positions in the X, Y, and Z directions, respectively. Then, from the change in position in the X, Y, Z directions calculated by the object position calculation means, the object velocity vector calculation means constituted by the image processing circuit 125 and the CPU 12 calculates motion vectors in each direction. The motion velocity vector in the X direction in this case may be calculated on the basis of the object detection result in the imaging apparatus, and a generally widely known face detection function or other object tracking function may be used to calculate the X direction. Each coordinate and velocity vector may be calculated.

またZ方向の動き速度ベクトルは、被写体位置を像面位置に換算しなおしたものを用いる。例えば、前述した焦点検出方法により検出したデフォーカス量を用いる方法が考えられる。時刻t0〜t3までにおけるそれぞれのデフォーカス量を検出し、そこからデフォーカス量の速度ベクトル成分z0〜z2を算出すればよい。   Further, as the motion velocity vector in the Z direction, the one obtained by converting the object position into the image plane position is used. For example, a method using the defocus amount detected by the above-described focus detection method can be considered. The respective defocus amounts at time t0 to t3 may be detected, and the velocity vector components z0 to z2 of the defocus amount may be calculated therefrom.

なお、本実施形態では、像面位置に換算しなおしているが、被写体側の位置で換算しなおしてもよく、相対的な移動量と方向が分かればよいものとする。また静止画を連写する場合においては、撮像するたびに焦点調節用レンズを動かし被写体にピントを合わせているため、デフォーカス量だけからでは被写体の位置を推定することができない。その場合は、連写毎のレンズ駆動量をZ方向の位置に置き換えて算出すればよい。   In the present embodiment, although the image plane position is converted, the conversion may be performed again at the position on the subject side, and it is only necessary to know the relative movement amount and the direction. In the case of shooting still images continuously, the focusing lens is moved each time an image is taken to focus on the subject, so the position of the subject can not be estimated from only the defocus amount. In that case, the lens driving amount for each continuous shooting may be calculated by replacing it with the position in the Z direction.

このようにして求めたX方向の速度ベクトル、Z方向の速度ベクトルの変化から、例えば時刻t3におけるX方向、Z方向それぞれの速度ベクトルを予測することが可能である。本実施形態では過去3点の速度ベクトル情報、つまりx0〜x2、z0〜z2を用いて、それぞれの近似式を作成する。近似式はどのような形態を用いてもよいが、例えば最少二乗法を用いた多項式近似を行うと、精度よく予測することが可能となる。   From the change of the velocity vector in the X direction and the velocity vector in the Z direction thus obtained, it is possible to predict, for example, velocity vectors in the X direction and Z direction at time t3. In this embodiment, respective approximate expressions are created using the velocity vector information of the past three points, that is, x0 to x2 and z0 to z2. The approximation formula may use any form, but it is possible to predict with high accuracy, for example, by performing polynomial approximation using the least squares method.

次にこの近似式を用いて時刻t3におけるX方向、Z方向の速度ベクトル量を外挿予測する。これは撮像装置が途中で被写体位置を見失うことがあっても、過去の動きの変化から被写体が存在すると予測される範囲を定義できるものである。CPU121などにより構成される被写体存在空間設定手段(空間算出手段)は、上記方法によって算出した被写体が存在しうる範囲(被写体が存在すると予想される範囲)を被写体存在空間として設定する。   Next, the velocity vector amounts in the X direction and Z direction at time t3 are extrapolated and predicted using this approximate expression. This can define a range in which the subject is predicted to be present from the change in the past movement even if the imaging device may lose sight of the subject position on the way. A subject presence space setting means (space calculation means) configured by the CPU 121 or the like sets a range in which the subject calculated by the above method may exist (a range in which the subject is expected to exist) as the subject presence space.

例えば、撮像装置が被写体を時刻t0から追尾しつづけているときに、時刻t3を過ぎた後に被写体を見失う、もしくは他の被写体と混同し、主被写体がどれか分からなくなった場合、時刻t3からt4の間の被写体H1は、時刻t3における被写体位置からx3およびz3で定義された被写体存在空間の中に存在することになる。上記の説明では、X方向、Z方向について示しているが、当然Y方向についても適用することができ、X、Y、Z方向の速度ベクトルで被写体存在空間を三次元空間として定義することが可能となる。   For example, when the imaging apparatus keeps tracking the subject from time t0, if the subject loses sight after time t3 or is confused with another subject and no one of the main subjects is known, time t3 to t4 The subject H1 in the middle is present in the subject existing space defined by x3 and z3 from the subject position at time t3. In the above description, the X direction and the Z direction are shown, but the present invention can naturally be applied to the Y direction, and the object existing space can be defined as a three-dimensional space by the velocity vectors in the X, Y and Z directions. It becomes.

図11は、複数の被写体が画面内の同じ焦点検出領域に混在した場合の例を示す図である。図11では、被写体H1およびH2の二つの被写体が存在する。撮影者は撮像装置を用いて被写体H1を撮像しようとしており、撮像装置の追尾機能は被写体H1を主被写体としてとらえているものとする。このとき、被写体H1とH2が互いに重なる位置Xn(被写体同士の距離が所定の距離以下になる位置)に来たとする。この時、撮像装置から見える被写体H1、H2は図12(a)のように互いに重なっており、顔追尾機能等を用いて追尾していたとしても、どちらの顔が主被写体だったかが判別しにくい状態となっている。この後、一定の時間が経過した後、図12(b)に示したように被写体H1、H2が分離し、再度追尾を開始できるようになる。しかし、一旦主被写体H1の顔が別の被写体H2の顔によって遮られ消失しているため、顔追尾機能がH2を主被写体だと誤認識し、被写体H2を追尾対象としてしまう可能性が高くなる。   FIG. 11 is a diagram showing an example in which a plurality of subjects are mixed in the same focus detection area in the screen. In FIG. 11, there are two subjects H1 and H2. It is assumed that the photographer is trying to image the subject H1 using the imaging device, and the tracking function of the imaging device is treating the subject H1 as a main subject. At this time, it is assumed that the subject H1 and H2 come to a position Xn where the subjects H1 and H2 overlap with each other (a position where the distance between the subjects is equal to or less than a predetermined distance). At this time, the subjects H1 and H2 viewed from the image pickup apparatus overlap each other as shown in FIG. 12A, and it is difficult to determine which face is the main subject even if tracking is performed using a face tracking function or the like. It is in the state. Thereafter, after a predetermined time has elapsed, as shown in FIG. 12B, the subjects H1 and H2 are separated, and tracking can be started again. However, once the face of the main subject H1 is blocked by the face of another subject H2 and disappears, there is a high possibility that the face tracking function erroneously recognizes H2 as the main subject and sets the subject H2 as a tracking target .

そこで、上記で説明した被写体存在空間を用いて、被写体H1、およびH2のうち、どちらが主被写体だったかを判別する。   Therefore, it is determined which of the subjects H1 and H2 is the main subject using the subject existing space described above.

図13に示したように、被写体が重なったときの時刻をt5とする。この時刻t5の時点では二つの被写体H1、H2が重なっており、主被写体であるH1は、別の被写体であるH2の陰に隠れ、一旦追尾ができなくなる。   As shown in FIG. 13, the time when the objects overlap is t5. At time t5, the two subjects H1 and H2 overlap, and the main subject H1 is hidden behind another subject H2 and can not be tracked once.

ここで、時刻t5から次の時刻までの速度ベクトルを、上記で説明した方法で算出し、被写体存在空間を定義する。このとき、被写体同士が重なった時刻t5を正確に検出してもよいし、その他の方法としては、主被写体位置から、追尾対象の乗り移りが起きやすい所定の範囲内に他の被写体が接近した時と定義してもよい。   Here, the velocity vector from time t5 to the next time is calculated by the method described above, and the subject existing space is defined. At this time, the time t5 when the subjects overlap may be detected accurately, or as another method, when another subject approaches within a predetermined range where transition of the tracking target is likely to occur from the main subject position. It may be defined as

図13のS1で示した領域が、算出された被写体存在空間であり、被写体が重なった時刻t5の位置を起点として空間を設定している。つまり時刻t5からt6の間は被写体H1はS1で示した被写体存在空間内に存在する可能性が高いため、主被写体を判別するためには、被写体同士が重なった時刻t5の位置から設定した被写体存在空間S1内で検出した顔を、主被写体として再設定する。このようにして、再び追尾を開始すれば、主被写体を間違えることなく焦点調節を行い、ピントが合った良好な画像を得ることが可能となる。   The area indicated by S1 in FIG. 13 is the calculated subject existing space, and the space is set starting from the position at time t5 when the subjects overlap. That is, there is a high possibility that the subject H1 exists in the subject existing space shown in S1 from time t5 to t6, so in order to determine the main subject, the subject set from the position of time t5 when the subjects overlap The face detected in the existing space S1 is reset as a main subject. In this way, if tracking is started again, it is possible to perform focusing without making a mistake in the main subject, and to obtain a good image in focus.

(第2の実施形態)
次に、第2の実施形態について説明する。第1の実施形態では、被写体の速度ベクトルx、y、zのいずれか一つが逆向きだったため、被写体存在空間が重なりあうことがなく、主被写体とそれ以外の被写体を明確に分けることが可能であった。しかし、例えば二つの被写体が並走するようなシーン、つまりX、Y、Zの速度ベクトルの方向が3つとも同じ方向を向いている場合、被写体存在空間はある程度重なってしまうことになる。
Second Embodiment
Next, a second embodiment will be described. In the first embodiment, since one of the subject's velocity vectors x, y, and z is reversed, the subject existing space does not overlap, and the main subject and the other subjects can be clearly divided. Met. However, for example, in a scene in which two subjects run in parallel, that is, in the case where the directions of the velocity vectors of X, Y and Z are all the same, the subject existing spaces overlap to some extent.

図14は、主被写体H1とその他の被写体H2が並走状態で走っているところを表した図である。この場合、被写体H1とH2のX、Y、Z方向の速度ベクトルはそれぞれの量は違うが、向きは同じである。なお、図14では、説明を分かりやすくするためにX、Zの2方向でのみ表しているが、本発明はX、Y、Zの3次元方向に適用される。   FIG. 14 shows the main subject H1 and the other subject H2 running in parallel. In this case, the velocity vectors in the X, Y and Z directions of the subjects H1 and H2 are different in amount but in the same direction. Although FIG. 14 shows only in two directions of X and Z for the sake of easy understanding of the description, the present invention is applied to the three-dimensional directions of X, Y and Z.

図14における被写体H1のX方向、Z方向の動きはそれぞれxh1、zh1で表され、その場合の被写体存在空間はSH1で表されている。同様に被写体H2のX方向、Z方向の動きはそれぞれxh2、zh2で表され、その場合の被写体存在空間はSH2で表されている。   The motions of the subject H1 in the X and Z directions in FIG. 14 are represented by xh1 and zh1, respectively, and the subject existing space in that case is represented by SH1. Similarly, the movement in the X direction and the Z direction of the subject H2 is represented by xh2 and zh2, respectively, and the subject existing space in that case is represented by SH2.

この場合、被写体存在空間SH1とSH2は、それぞれ図14のSH3で示した領域で重なっている。この重なっている空間では被写体H1と被写体H2を切り分けることができないため、被写体がこの空間にいるときは、どちらか一方の被写体を追尾しながら焦点調節を行うものとする。   In this case, the subject existing spaces SH1 and SH2 overlap each other in the area indicated by SH3 in FIG. Since the subject H1 and the subject H2 can not be separated in this overlapping space, when the subject is in this space, focus adjustment is performed while tracking one of the subjects.

上記のように追尾は続けつつ、SH1とSH3の差分領域において被写体が検出されるのを待つ。このSH1とSH3の差分領域には、主被写体H1のみが存在しうるため、この差分領域で検出された被写体を主被写体として再度設定し、追尾を再開すれば、追尾対象の乗り移りを防止することが可能となる。   As described above, while tracking is continued, the process waits for detection of an object in the difference area between SH1 and SH3. Since only the main subject H1 may exist in the difference area between SH1 and SH3, if the subject detected in this difference area is set again as the main subject and tracking is resumed, it is possible to prevent the shift of the tracking target. Is possible.

なお、本発明は、その趣旨を逸脱しない範囲で、上記実施形態を種々変形可能である。   The present invention can be variously modified without departing from the scope of the invention.

例えば、上記の実施形態では、被写体のX、Y、Z方向をそれぞれ撮像装置の追尾機能、および焦点検出方法を用いて算出している。そして、ここで用いる焦点検出方法には、上記で説明してきたように撮像を行いながら焦点検出を行える、撮像面位相差方式を用いた。しかし、この焦点検出方法に限らず、広く知られるコントラスト検出方式を用いた焦点検出方法を用いてもよい。その場合、被写体までのデフォーカス量を検出することはできないが、例えば連写を行いながら、その都度ピント合わせを行ったレンズ駆動量に基づいて、Z方向の速度ベクトルを定義してもよい。またその他の焦点検出方法においても、Z方向の速度ベクトルを定義できるものであれば、いかなる方法を用いてもよい。   For example, in the above embodiment, the X, Y, and Z directions of the subject are calculated using the tracking function of the imaging apparatus and the focus detection method. Then, as the focus detection method used here, the imaging surface phase difference method is used, which can perform focus detection while performing imaging as described above. However, not limited to this focus detection method, a focus detection method using a widely known contrast detection method may be used. In that case, although the defocus amount to the subject can not be detected, the velocity vector in the Z direction may be defined based on, for example, the lens driving amount which is in focus each time while performing continuous shooting. Also, in the other focus detection methods, any method may be used as long as the velocity vector in the Z direction can be defined.

また同様に、X、Y方向においても、上記の実施形態では撮像装置の顔追尾機能を用いるように説明した。しかし、被写体の顔検出に限らず、被写体の色を検出し、前後のフレームとの相関から検出した色の移動方向を検出する色追尾機能を用いたものでもよい。   Similarly, in the X and Y directions, the above embodiment has been described to use the face tracking function of the imaging apparatus. However, not limited to the face detection of the subject, a color tracking function may be used which detects the color of the subject and detects the moving direction of the detected color from the correlation with the preceding and following frames.

以上、説明してきた方法を用いることによって、主被写体以外の被写体が混入してきた場合でも、ピントの乗り移りを起こすことなく、主被写体を追尾しつづけ、主被写体にピントが合った良好な画像を得ることが可能となる。   By using the method described above, even when a subject other than the main subject is mixed, tracking of the main subject is continued without causing a shift in focus, and a good image in which the main subject is in focus is obtained. It becomes possible.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

101:第1レンズ群、102:絞り兼用シャッタ、103:第2レンズ群、105:第3レンズ群、107:撮像素子、121:CPU、125:画像処理回路 101: first lens group 102: aperture / shutter combination 103: second lens group 105: third lens group 107: image pickup device 121: CPU 125: image processing circuit

Claims (14)

被写体に撮像レンズのピントを自動的に合わせる機能を有する撮像装置において、
前記撮像レンズのピントを合わせる対象である主被写体を設定する設定手段と、
前記主被写体の位置を算出する位置算出手段と、
前記位置算出手段により算出された過去の複数点の前記主被写体の位置に基づいて、前記主被写体の速度ベクトルを算出する速度ベクトル算出手段と、
前記速度ベクトル算出手段により算出された速度ベクトルを用いて、前記主被写体が存在すると予測される第1の被写体存在空間を算出する空間算出手段と、を備え、
前記設定手段は、画面内の複数の被写体同士の距離が、所定の距離以下になるまで接近した場合に、前記空間算出手段により算出された第1の被写体存在空間を用いて前記複数の被写体からピントを合わせる対象である被写体を選択し、前記主被写体として再設定することを特徴とする撮像装置。
In an imaging device having a function of automatically focusing an imaging lens on a subject,
A setting unit configured to set a main subject to be focused by the imaging lens;
Position calculating means for calculating the position of the main subject;
Velocity vector calculating means for calculating the velocity vector of the main subject based on the positions of the main subjects at a plurality of points in the past calculated by the position calculating means;
Space calculation means for calculating a first subject existing space in which the main subject is predicted to be present, using the speed vector calculated by the speed vector calculation means;
The setting unit is configured to use the first subject existing space calculated by the space calculation unit when the distance between the plurality of subjects in the screen is less than or equal to a predetermined distance from the plurality of subjects. An image pickup apparatus characterized by selecting a subject to be focused and resetting it as the main subject.
前記速度ベクトル算出手段は、前記撮像装置の光軸方向、および前記光軸に直交する撮像素子の撮像面上での水平方向、垂直方向における前記主被写体の動きの方向と量を算出することを特徴とする請求項1に記載の撮像装置。   The velocity vector calculation means calculates the direction and amount of movement of the main subject in the optical axis direction of the imaging device, and the horizontal and vertical directions on the imaging surface of the imaging device orthogonal to the optical axis. The imaging device according to claim 1, characterized in that: 前記速度ベクトル算出手段は、前記過去の複数点における前記主被写体のデフォーカス量に基づいて、前記主被写体の動きの方向と量を算出することを特徴とする請求項1または2に記載の撮像装置。   3. The imaging according to claim 1, wherein the velocity vector calculating unit calculates the direction and the amount of movement of the main subject based on defocus amounts of the main subject at the plurality of points in the past. apparatus. 前記速度ベクトル算出手段は、前記過去の複数点における前記撮像レンズの焦点調節のための動き量に基づいて、前記主被写体の動きの方向と量を算出することを特徴とする請求項1または2に記載の撮像装置。   3. The apparatus according to claim 1, wherein the velocity vector calculating unit calculates the direction and the amount of movement of the main subject based on the amount of movement for focusing adjustment of the imaging lens at the plurality of points in the past. The imaging device according to. 前記空間算出手段は、前記速度ベクトル算出手段を用いて算出した前記撮像装置の光軸方向のベクトル、および前記光軸に直交する撮像素子の撮像面上での水平方向のベクトル、垂直方向のベクトルの3つのベクトルを用いて前記被写体存在空間を算出することを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。   The space calculation means is a vector in the optical axis direction of the imaging device calculated using the velocity vector calculation means, and a vector in the horizontal direction and a vector in the vertical direction on the imaging surface of the imaging device orthogonal to the optical axis. The image pickup apparatus according to any one of claims 1 to 4, wherein the subject existing space is calculated using three vectors of. 前記空間算出手段は、主被写体ではない被写体についても、該主被写体ではない被写体が存在すると予測される第2の被写体存在空間を算出することを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。   The space calculating means calculates a second subject existing space in which it is predicted that a subject which is not the main subject is present even for a subject which is not the main subject. The imaging device according to. 前記設定手段は、前記第1の被写体存在空間と前記第2の被写体存在空間とが重なる領域を有する場合には、該重なる領域においては、前記主被写体と前記主被写体ではない被写体のいずれかをピントを合わせる対象である被写体として選択することを特徴とする請求項6に記載の撮像装置。   When the setting unit has an area in which the first subject existing space and the second subject existing space overlap, in the overlapping area, either the main subject or the subject which is not the main subject is selected. 7. The image pickup apparatus according to claim 6, wherein the image pickup apparatus is selected as an object to be focused. 前記設定手段は、前記第1の被写体存在空間と前記第2の被写体存在空間とが重なる領域を有する場合には、前記第1の被写体存在空間から前記重なる領域を引いた差分領域において検出された被写体を、前記主被写体として再設定することを特徴とする請求項6または7に記載の撮像装置。   The setting means is detected in a difference area obtained by subtracting the overlapping area from the first object existing space when the first object existing space and the second object existing space have an overlapping area. The imaging apparatus according to claim 6, wherein a subject is reset as the main subject. 前記設定手段は、ユーザーからの指示を受けて前記主被写体を設定することを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。   The image pickup apparatus according to any one of claims 1 to 8, wherein the setting unit sets the main subject in response to an instruction from a user. 前記設定手段は、撮像素子から出力される画像信号に基づいて、前記主被写体を設定することを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。   The image pickup apparatus according to any one of claims 1 to 8, wherein the setting unit sets the main subject based on an image signal output from an image pickup device. 前記設定手段は、被写体の顔の検出結果、被写体の距離、被写体の色、前記速度ベクトル算出手段を用いて算出した速度ベクトルの少なくとも1つを用いて、前記主被写体を設定することを特徴とする請求項10に記載の撮像装置。   The setting means sets the main subject using at least one of a detection result of the face of the subject, a distance of the subject, a color of the subject, and a velocity vector calculated using the velocity vector calculating means. The imaging device according to claim 10. 被写体に撮像レンズのピントを自動的に合わせる機能を有する撮像装置を制御する方法であって、
前記撮像レンズのピントを合わせる対象である主被写体を設定する設定工程と、
前記主被写体の位置を算出する位置算出工程と、
前記位置算出工程により算出された過去の複数点の前記主被写体の位置に基づいて、前記主被写体の速度ベクトルを算出する速度ベクトル算出工程と、
前記速度ベクトル算出工程により算出された速度ベクトルを用いて、前記主被写体が存在すると予測される第1の被写体存在空間を算出する空間算出工程と、を有し、
前記設定工程では、画面内の複数の被写体同士の距離が、所定の距離以下になるまで接近した場合に、前記空間算出工程により算出された第1の被写体存在空間を用いて前記複数の被写体からピントを合わせる対象である被写体を選択し、前記主被写体として再設定することを特徴とする撮像装置の制御方法。
A method of controlling an imaging apparatus having a function of automatically focusing an imaging lens on a subject, comprising:
A setting step of setting a main subject to be focused on the imaging lens;
A position calculating step of calculating the position of the main subject;
A velocity vector calculating step of calculating a velocity vector of the main subject based on the positions of the main subjects at a plurality of past points calculated by the position calculating step;
Calculating a first subject existing space in which the main subject is predicted to be present, using the speed vector calculated in the speed vector calculating step;
In the setting step, when the distance between a plurality of subjects in the screen approaches a predetermined distance or less, the first subject existing space calculated by the space calculating step is used to calculate the distance from the plurality of subjects. A control method of an image pickup apparatus, wherein an object to be focused is selected and reset as the main object.
請求項12に記載の制御方法の各工程をコンピュータに実行させるためのプログラム。   The program for making a computer perform each process of the control method of Claim 12. 請求項12に記載の制御方法の各工程をコンピュータに実行させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。   A computer readable storage medium storing a program for causing a computer to execute each step of the control method according to claim 12.
JP2017170602A 2017-09-05 2017-09-05 Imaging device and its control method, program, storage medium Active JP7005236B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017170602A JP7005236B2 (en) 2017-09-05 2017-09-05 Imaging device and its control method, program, storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017170602A JP7005236B2 (en) 2017-09-05 2017-09-05 Imaging device and its control method, program, storage medium

Publications (3)

Publication Number Publication Date
JP2019045768A true JP2019045768A (en) 2019-03-22
JP2019045768A5 JP2019045768A5 (en) 2020-10-22
JP7005236B2 JP7005236B2 (en) 2022-01-21

Family

ID=65814196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017170602A Active JP7005236B2 (en) 2017-09-05 2017-09-05 Imaging device and its control method, program, storage medium

Country Status (1)

Country Link
JP (1) JP7005236B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023026702A1 (en) * 2021-08-25 2023-03-02 富士フイルム株式会社 Image capturing device, method for driving image capturing device, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009284462A (en) * 2008-04-21 2009-12-03 Sony Corp Imaging device and method of controlling ranging area
JP2012170130A (en) * 2012-04-24 2012-09-06 Nikon Corp Imaging apparatus
JP2016152467A (en) * 2015-02-17 2016-08-22 株式会社Jvcケンウッド Tracking device, tracking method and tracking program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009284462A (en) * 2008-04-21 2009-12-03 Sony Corp Imaging device and method of controlling ranging area
JP2012170130A (en) * 2012-04-24 2012-09-06 Nikon Corp Imaging apparatus
JP2016152467A (en) * 2015-02-17 2016-08-22 株式会社Jvcケンウッド Tracking device, tracking method and tracking program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023026702A1 (en) * 2021-08-25 2023-03-02 富士フイルム株式会社 Image capturing device, method for driving image capturing device, and program

Also Published As

Publication number Publication date
JP7005236B2 (en) 2022-01-21

Similar Documents

Publication Publication Date Title
JP6249825B2 (en) Imaging device, control method thereof, and control program
KR101886059B1 (en) Image capturing apparatus and method of controlling the same
JP6239857B2 (en) Imaging apparatus and control method thereof
JP2015129846A (en) Image capturing device and control method therefor
JP2018093275A (en) Imaging apparatus and flicker determination method
CN107431755B (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP2016038414A (en) Focus detection device, control method thereof, and imaging apparatus
JP7007871B2 (en) Imaging device and its control method, program, storage medium
JP2017158018A (en) Image processing apparatus, control method of the same, and imaging apparatus
JP6971685B2 (en) Imaging device and its control method
JP2015210285A (en) Imaging device, manufacturing method of the same, program thereof and recording medium
JP7005236B2 (en) Imaging device and its control method, program, storage medium
JP7019337B2 (en) Image stabilization device, lens device and their control method
JP6254843B2 (en) Image processing apparatus and control method thereof
JP2015145970A (en) Imaging device, control method of the same, program abd recording medium
JP6639326B2 (en) Control device, imaging device, control method, program, and storage medium
JP7022575B2 (en) Focus detectors and methods, and imaging devices
JP2021157069A (en) Image tremor correction control device, imaging device and imaging device control method
JP2015225311A (en) Image capturing device, control method therefor, program, and storage medium
JP2020134859A (en) Imaging device
JP7005209B2 (en) Image pickup device and its control method
US20220358667A1 (en) Image processing apparatus and method, and image capturing apparatus and control method thereof, and storage medium
JP2016133595A (en) Controller, imaging device, control method, program, and storage medium
JP2016009024A (en) Focus detector, control method of the same, and imaging apparatus
JP2018022984A (en) Image processing device, control method therefor, program and imaging device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200903

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200903

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220105