JP2012226206A - Image tracking device and imaging apparatus - Google Patents

Image tracking device and imaging apparatus Download PDF

Info

Publication number
JP2012226206A
JP2012226206A JP2011095048A JP2011095048A JP2012226206A JP 2012226206 A JP2012226206 A JP 2012226206A JP 2011095048 A JP2011095048 A JP 2011095048A JP 2011095048 A JP2011095048 A JP 2011095048A JP 2012226206 A JP2012226206 A JP 2012226206A
Authority
JP
Japan
Prior art keywords
area
tracking
image
focus detection
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011095048A
Other languages
Japanese (ja)
Other versions
JP5879736B2 (en
Inventor
Naoyuki Onishi
直之 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011095048A priority Critical patent/JP5879736B2/en
Publication of JP2012226206A publication Critical patent/JP2012226206A/en
Application granted granted Critical
Publication of JP5879736B2 publication Critical patent/JP5879736B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image tracking device able to track a subject portion suitable for focus adjustment, and an imaging apparatus.SOLUTION: The image tracking device comprises: input means to which an image signal obtained by picking up a subject image is input; tracking area setting means for setting within a photographic screen a tracking area including a subject portion to be tracked; focus detection means for detecting a focus for the subject image within a photographic screen; storage means for storing the result of focus detection carried out by the focus detection means within the tracking area; estimation mans for estimating, as candidate areas, areas after the movement of the subject portion to be tracked, which has moved within the photographic screen; and selection means for selecting a new tracking area from the plurality of candidate areas by comparing the result of each focus detection carried out by the focus detection means at each of the estimated candidate areas with the result of the focus detection stored in the storage means.

Description

本発明は、画像追尾装置および撮像装置に関する。   The present invention relates to an image tracking device and an imaging device.

撮影した画像内において追尾対象の被写体部分が含まれる領域(追尾領域)を設定し、追尾領域内の画像をテンプレート画像として記憶するとともに、繰り返し撮影される画像の中からテンプレート画像と類似度の高い領域を検索し、その領域へ追尾領域を移動して被写体部分を追尾するようにした画像追尾装置が知られている(例えば特許文献1)。   An area (tracking area) including the subject portion to be tracked is set in the captured image, the image in the tracking area is stored as a template image, and the similarity between the image repeatedly captured and the template image is high. There is known an image tracking device that searches an area and moves the tracking area to the area to track the subject portion (for example, Patent Document 1).

特開2008−187331号公報JP 2008-187331 A

特許文献1に記載の画像追尾装置には、追尾対象の被写体部分が低コントラストになると、焦点調節を正しく行うことができないという問題があった。   The image tracking device described in Patent Document 1 has a problem that focus adjustment cannot be performed correctly when the subject portion to be tracked has a low contrast.

請求項1に係る発明は、被写体像を撮像した画像信号が入力される入力手段と、追尾対象の被写体部分が含まれる追尾領域を撮影画面内に設定する追尾領域設定手段と、撮影画面内の被写体像について焦点検出を行う焦点検出手段と、追尾領域内において焦点検出手段により行われた焦点検出の結果が記憶される記憶手段と、入力手段に入力された画像信号に基づいて、撮影画面内において移動した追尾対象の被写体部分の移動後の領域を候補領域として複数推定する推定手段と、推定された複数の候補領域の各々において焦点検出手段により行われたそれぞれの焦点検出の結果と、記憶手段に記憶されている焦点検出の結果とを比較し、複数の候補領域から新たな追尾領域を選択する選択手段と、を備えることを特徴とする画像追尾装置である。
請求項3に係る発明は、被写体像を撮像した画像信号が入力される入力手段と、撮影画面内に、追尾対象の被写体部分が含まれる追尾領域を設定する第1追尾領域設定手段と、撮影画面内の被写体像について焦点検出を行う焦点検出手段と、追尾領域内において焦点検出手段により行われた焦点検出の結果が記憶される記憶手段と、入力手段に入力された画像信号に基づいて、撮影画面内において移動した追尾対象の被写体部分の移動後の領域を候補領域として推定する推定手段と、候補領域を含み撮影画面より小さい探索領域を設定する探索領域設定手段と、探索領域内の複数箇所の各々において焦点検出手段により行われたそれぞれの焦点検出の結果と、記憶手段に記憶されている焦点検出の結果とを比較し、複数箇所のいずれかに新たな追尾領域を設定する第2追尾領域設定手段と、を備えることを特徴とする画像追尾装置である。
請求項4に係る発明は、請求項1〜3のいずれか一項に記載の画像追尾装置と、被写体像を撮像し、入力手段に画像信号を出力する撮像手段と、を備えることを特徴とする撮像装置である。
The invention according to claim 1 is an input means for inputting an image signal obtained by capturing a subject image, a tracking area setting means for setting a tracking area including a subject portion to be tracked in a shooting screen, Based on the focus detection unit that performs focus detection on the subject image, the storage unit that stores the result of the focus detection performed by the focus detection unit in the tracking area, and the image signal input to the input unit, An estimation means for estimating a plurality of regions after the movement of the subject portion of the tracking target that has been moved as a candidate region, a result of each focus detection performed by the focus detection means in each of the estimated plurality of candidate regions, and storage An image tracking apparatus comprising: a selection unit that compares a result of focus detection stored in the unit and selects a new tracking region from a plurality of candidate regions. That.
According to a third aspect of the present invention, there is provided an input unit for inputting an image signal obtained by capturing a subject image, a first tracking region setting unit for setting a tracking region including a subject portion to be tracked in a photographing screen, and photographing. Based on the focus detection means for performing focus detection on the subject image in the screen, the storage means for storing the result of focus detection performed by the focus detection means in the tracking area, and the image signal input to the input means, Estimating means for estimating the moved area of the tracking target object portion moved within the shooting screen as a candidate area, search area setting means for setting a search area that includes the candidate area and is smaller than the shooting screen, and a plurality of search areas within the search area Compare the result of each focus detection performed by the focus detection means at each location with the result of focus detection stored in the storage means and A second tracking area setting means for setting a tracking area, an image tracking apparatus comprising: a.
An invention according to claim 4 includes the image tracking device according to any one of claims 1 to 3, and an imaging unit that captures a subject image and outputs an image signal to an input unit. It is an imaging device.

本発明によれば、焦点調節に適した被写体部分を追尾することができる。   According to the present invention, a subject portion suitable for focus adjustment can be tracked.

本発明を適用したカメラの全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the camera to which this invention is applied. 撮影光学系の撮影画面17内に設定されたフォーカスエリアaを示す図である。It is a figure which shows the focus area a set in the imaging | photography screen 17 of an imaging optical system. 追尾領域の例を示す図である。It is a figure which shows the example of a tracking area | region. 第1の実施の形態の自動焦点調節処理を示すフローチャートである。It is a flowchart which shows the automatic focus adjustment process of 1st Embodiment. 図4のステップS302における追尾制御部36の初回追尾制御を示すフローチャートである。It is a flowchart which shows the initial tracking control of the tracking control part 36 in FIG.4 S302. 図4のステップS304の追尾演算処理を示すフローチャートである。It is a flowchart which shows the tracking calculation process of step S304 of FIG. 候補領域の一例を示す図である。It is a figure which shows an example of a candidate area | region. 第2の実施の形態の自動焦点調節処理を示すフローチャートである。It is a flowchart which shows the automatic focus adjustment process of 2nd Embodiment.

(第1の実施の形態)
図1は、本発明を適用したカメラの全体構成を示すブロック図である。カメラ1は、カメラ本体10と、カメラ本体10に着脱可能な交換レンズ20によって構成された、いわゆるデジタル一眼レフカメラである。交換レンズ20は、鏡筒21の内部に、結像光学系を構成する複数のレンズ群L1,L2,L3と、レンズ駆動用モータ22とを備えている。レンズ群L2は、光軸OA方向に移動して結像位置を調節可能な焦点調節レンズであって、レンズ駆動用モータ22により駆動される。レンズ駆動用モータ22は、後述するカメラ本体10が備える制御装置30によって制御される。
(First embodiment)
FIG. 1 is a block diagram showing the overall configuration of a camera to which the present invention is applied. The camera 1 is a so-called digital single-lens reflex camera including a camera body 10 and an interchangeable lens 20 that can be attached to and detached from the camera body 10. The interchangeable lens 20 includes a plurality of lens groups L1, L2, and L3 that form an imaging optical system, and a lens driving motor 22 inside the lens barrel 21. The lens group L <b> 2 is a focus adjustment lens that can move in the direction of the optical axis OA and adjust the imaging position, and is driven by a lens driving motor 22. The lens driving motor 22 is controlled by a control device 30 provided in the camera body 10 described later.

カメラ本体10は、撮像素子11と、クイックリターンミラー12Aと、サブミラー12Bと、ファインダー光学系13と、測光部14と、位相差AF検出部15と、操作部材16と、制御装置30と、を備えている。   The camera body 10 includes an image sensor 11, a quick return mirror 12A, a sub mirror 12B, a finder optical system 13, a photometry unit 14, a phase difference AF detection unit 15, an operation member 16, and a control device 30. I have.

撮像素子11は、被写体光を電気信号に変換するCCDやCMOS等の光電変換素子であって、赤(R)、緑(G)および青(B)の各画素が所定の配列パターンで配列されている。撮像素子11は、交換レンズ20の結像光学系により結像面に結像される被写体像を撮像し、各画素に対応する色情報や輝度情報に応じた画像信号を制御装置30に出力する。   The imaging element 11 is a photoelectric conversion element such as a CCD or CMOS that converts subject light into an electrical signal, and each pixel of red (R), green (G), and blue (B) is arranged in a predetermined arrangement pattern. ing. The imaging element 11 captures a subject image formed on the imaging surface by the imaging optical system of the interchangeable lens 20 and outputs an image signal corresponding to color information and luminance information corresponding to each pixel to the control device 30. .

クイックリターンミラー12Aは、交換レンズ20の結像光学系から撮像素子11に至る光路中に介在する作用位置と、光路中に介在しない退避位置との間を移動可能に設けられている。クイックリターンミラー12Aは、作用位置において、入射光束をファインダー光学系13(ファインダースクリーン13A)へと反射する。また、クイックリターンミラー12Aの一部には、入射光束の一部を透過する半透過領域が形成されている。   The quick return mirror 12A is provided so as to be movable between a working position interposed in the optical path from the imaging optical system of the interchangeable lens 20 to the image pickup device 11 and a retracted position not interposed in the optical path. The quick return mirror 12A reflects the incident light beam to the finder optical system 13 (finder screen 13A) at the operating position. In addition, a semi-transmission region that transmits part of the incident light beam is formed in part of the quick return mirror 12A.

サブミラー12Bは、クイックリターンミラー12Aの背面側に設けられている。サブミラー12Bは、クイックリターンミラー12Aの半透過領域を透過した入射光束を位相差AF検出部15に向けて反射させる。   The sub mirror 12B is provided on the back side of the quick return mirror 12A. The sub mirror 12 </ b> B reflects the incident light beam transmitted through the semi-transmissive region of the quick return mirror 12 </ b> A toward the phase difference AF detection unit 15.

ファインダー光学系13は、ファインダースクリーン13Aと、ペンタプリズム13Bと、接眼レンズ13Cとを有する。ファインダースクリーン13Aは、撮像素子11と光学的に等価な位置に設けられており、クイックリターンミラー12Aによって導かれた入射光束が結像する。ペンタプリズム13Bおよび接眼レンズ13Cは、このファインダースクリーン13A上に結像した被写体像を、正立像として撮影者が視認し得るようになっている。   The viewfinder optical system 13 includes a viewfinder screen 13A, a pentaprism 13B, and an eyepiece lens 13C. The finder screen 13A is provided at a position optically equivalent to the image sensor 11, and an incident light beam guided by the quick return mirror 12A forms an image. The pentaprism 13B and the eyepiece 13C are configured so that the photographer can visually recognize the subject image formed on the finder screen 13A as an erect image.

測光部14は、測光用レンズ14Aと、測光センサ14Bとを備える。測光用レンズ14Aは、ファインダースクリーン13Aに結像した被写体像を、ペンタプリズム13Bを介して測光センサ14Bに導く。測光センサ14Bは、撮像素子11と同様に、赤(R)、緑(G)および青(B)の各画素が所定の配列パターンで配列されており、レンズ光学系により結像面に結像される被写体像を撮像し画像信号を出力する。制御装置30は、測光センサ14Bからの画像信号に基づいて結像面の明るさを検出し、露出を決定する。また、制御装置30は、測光センサ14Bから入力される画像信号に基づいて、後述の追尾制御部36により追尾制御を行う。   The photometric unit 14 includes a photometric lens 14A and a photometric sensor 14B. The photometric lens 14A guides the subject image formed on the finder screen 13A to the photometric sensor 14B via the pentaprism 13B. Similar to the image sensor 11, the photometric sensor 14B has red (R), green (G), and blue (B) pixels arranged in a predetermined arrangement pattern, and forms an image on an image plane by a lens optical system. The subject image is captured and an image signal is output. The control device 30 detects the brightness of the imaging surface based on the image signal from the photometric sensor 14B, and determines the exposure. Moreover, the control apparatus 30 performs tracking control by the tracking control part 36 mentioned later based on the image signal input from the photometry sensor 14B.

操作部材16は、カメラ1の操作を行うための図示しない各種スイッチ類によって構成される。たとえば、カメラ1の動作モードを選択するためのモード選択スイッチ、フォーカスエリアを選択するためのエリア選択スイッチ、自動焦点調節の開始および撮影を指示するためのレリーズボタンなどが含まれる。   The operation member 16 is configured by various switches (not shown) for operating the camera 1. For example, a mode selection switch for selecting the operation mode of the camera 1, an area selection switch for selecting a focus area, a release button for instructing the start of automatic focus adjustment and photographing, and the like are included.

図2は、撮影光学系の撮影画面17内に設定されたフォーカスエリアaを示す図である。位相差AF検出部15は、撮影画面17の所定位置に複数のフォーカスエリアaを設けている。本実施形態では、図2に示すように、撮影画面全体に49点のフォーカスエリア(焦点検出エリア、測距点、AFエリアとも称する)が設けられている。   FIG. 2 is a diagram showing the focus area a set in the photographing screen 17 of the photographing optical system. The phase difference AF detection unit 15 has a plurality of focus areas a at predetermined positions on the shooting screen 17. In the present embodiment, as shown in FIG. 2, 49 focus areas (also referred to as focus detection areas, distance measuring points, and AF areas) are provided on the entire photographing screen.

また、位相差AF検出部15は、各フォーカスエリアに対応して配置されたラインセンサを有している。ラインセンサは、一対の電荷蓄積型光電変換素子アレイ(CCDラインセンサ等)である。交換レンズ20の異なる領域を通過して2つに分けられた一対の光束が、集光レンズによって集光され、一対の被写体像がラインセンサに再結像される。そして、ラインセンサは、一対の被写体像に対して、設定された時間だけ電荷の蓄積を行い、一対の被写体像の輝度分布に対応したAF用像検知信号を出力する。このラインセンサの電荷蓄積時間は、後述する制御装置30におけるAF−CCD制御部31によって制御される。   Further, the phase difference AF detection unit 15 has a line sensor arranged corresponding to each focus area. The line sensor is a pair of charge storage type photoelectric conversion element arrays (CCD line sensor or the like). A pair of luminous fluxes divided into two passing through different regions of the interchangeable lens 20 are condensed by the condenser lens, and the pair of subject images are re-formed on the line sensor. Then, the line sensor accumulates electric charges for a set time for the pair of subject images, and outputs an AF image detection signal corresponding to the luminance distribution of the pair of subject images. The charge accumulation time of the line sensor is controlled by an AF-CCD control unit 31 in the control device 30 described later.

制御装置30は、CPUやメモリ等によって構成されており、カメラ1の動作制御を行う。また、これらの処理や制御において必要な情報を一時的に記憶する。上述したように、制御装置30は、測光センサ14Bからの測光信号に基づいて結像面の明るさを検出し、露出を決定する。   The control device 30 is configured by a CPU, a memory, and the like, and controls the operation of the camera 1. Further, information necessary for these processes and controls is temporarily stored. As described above, the control device 30 detects the brightness of the imaging surface based on the photometric signal from the photometric sensor 14B and determines the exposure.

さらに制御装置30は、自動焦点調節に関連する機能部として、図1に示すように、AF−CCD制御部31と、デフォーカス演算部32と、フォーカスエリア位置決定部33と、レンズ駆動量演算部34と、レンズ駆動制御部35と、追尾制御部36と、記憶部37とを備えている。   Further, as shown in FIG. 1, the control device 30 includes an AF-CCD control unit 31, a defocus calculation unit 32, a focus area position determination unit 33, and a lens drive amount calculation as functional units related to automatic focus adjustment. Unit 34, lens drive control unit 35, tracking control unit 36, and storage unit 37.

AF−CCD制御部31は、位相差AF検出部15に設けられたラインセンサからAF用像検知信号を読み出し、デフォーカス演算部32に出力する。デフォーカス演算部32は、AF−CCD制御部31によって読み出されたラインセンサのAF用像検知信号に基づいて、撮影画面内の被写体像について焦点検出を行い、交換レンズ20の焦点調節状態(ピントのずれ量)を表すデフォーカス量をフォーカスエリアa毎に算出する。   The AF-CCD control unit 31 reads out an AF image detection signal from a line sensor provided in the phase difference AF detection unit 15 and outputs it to the defocus calculation unit 32. Based on the AF image detection signal of the line sensor read by the AF-CCD control unit 31, the defocus calculation unit 32 performs focus detection on the subject image in the shooting screen, and adjusts the focus adjustment state of the interchangeable lens 20 ( A defocus amount representing a focus shift amount is calculated for each focus area a.

フォーカスエリア位置決定部33は、デフォーカス演算部32によって算出されたデフォーカス量や、後述する追尾制御の結果等に基づいて、交換レンズ20を最終的に合焦させるフォーカスエリア(以後、目標フォーカスエリアと呼ぶ)を決定する。目標フォーカスエリアを決定したフォーカスエリア位置決定部33は、その目標フォーカスエリアのデフォーカス量を記憶部37に記憶する。   The focus area position determination unit 33 is a focus area (hereinafter referred to as target focus) for finally focusing the interchangeable lens 20 based on the defocus amount calculated by the defocus calculation unit 32, the result of tracking control described later, and the like. Area). The focus area position determination unit 33 that has determined the target focus area stores the defocus amount of the target focus area in the storage unit 37.

レンズ駆動量演算部34は、目標フォーカスエリアの被写体部分にピントを合わせるための、焦点調節レンズ(レンズ群L2)の駆動量を演算する。本実施形態では、デフォーカス演算部32によって算出された目標フォーカスエリアのデフォーカス量に基づいて、焦点調節レンズ(レンズ群L2)の駆動位置の目標となるレンズ目標位置を演算することにより、レンズ駆動量の演算を行う。なお、レンズ目標位置は、目標フォーカスエリアのデフォーカス量がほぼ0となる焦点調節レンズ(レンズ群L2)の位置に相当する。   The lens drive amount calculation unit 34 calculates the drive amount of the focus adjustment lens (lens group L2) for focusing on the subject portion of the target focus area. In the present embodiment, the lens target position that is the target of the driving position of the focus adjustment lens (lens group L2) is calculated based on the defocus amount of the target focus area calculated by the defocus calculation unit 32, so that the lens The drive amount is calculated. The lens target position corresponds to the position of the focus adjustment lens (lens group L2) at which the defocus amount in the target focus area is almost zero.

レンズ駆動制御部35は、レンズ駆動量演算部34によって演算されたレンズ駆動量、すなわち焦点調節レンズ(レンズ群L2)に対するレンズ目標位置に基づいて、交換レンズ20のレンズ駆動用モータ22へ駆動制御信号を出力する。この駆動制御信号に応じて、レンズ駆動用モータ22が焦点調節レンズ(レンズ群L2)を駆動して、レンズ目標位置へ移動させることにより、自動焦点調節を行う。   The lens drive controller 35 controls the driving of the lens driving motor 22 of the interchangeable lens 20 based on the lens driving amount calculated by the lens driving amount calculator 34, that is, the lens target position with respect to the focus adjustment lens (lens group L2). Output a signal. In response to this drive control signal, the lens drive motor 22 drives the focus adjustment lens (lens group L2) and moves it to the lens target position, thereby performing automatic focus adjustment.

(追尾制御の説明)
追尾制御部36が実行する追尾制御について説明する。追尾制御部36は、周知のテンプレートマッチング等により特定の被写体部分を追尾する追尾制御を実行する。本実施形態では、追尾制御の実行に先立って、使用者が操作部材16により追尾処理に用いるフォーカスエリアを入力する。追尾制御部36は追尾制御の開始時、撮影画面におけるこのフォーカスエリアの位置を基準として、追尾対象の被写体部分が含まれる追尾領域を撮影画面内に設定する。この設定により、追尾領域の座標とテンプレート画像とが記憶部37に記憶される。
(Description of tracking control)
The tracking control executed by the tracking control unit 36 will be described. The tracking control unit 36 performs tracking control for tracking a specific subject portion by well-known template matching or the like. In the present embodiment, prior to the execution of the tracking control, the user inputs a focus area used for the tracking process by the operation member 16. At the start of tracking control, the tracking control unit 36 sets a tracking area including the subject portion to be tracked in the shooting screen with reference to the position of the focus area on the shooting screen. With this setting, the coordinates of the tracking area and the template image are stored in the storage unit 37.

図3は、追尾領域の例を示す図である。図3(a)に示すように、使用者が操作部材16により撮影画面17内のフォーカスエリアa1を選択すると、追尾制御部36はこのフォーカスエリアa1を含みフォーカスエリアa1より大きい所定サイズの追尾領域b1を設定する。追尾領域b1の設定は、フォーカスエリアa1の周辺で、フォーカスエリアa1内の被写体部分の色情報と同様の色情報を有する領域を検知することにより行われる。追尾制御部36は、追尾領域b1の座標と追尾領域b1に対応する矩形の画像とを記憶部37に記憶する。なお、追尾領域b1の大きさは固定であってもよいし、可変であってもよい。追尾領域b1の大きさを固定にする場合、記憶部37には追尾領域b1の位置を特定するための情報として、四隅のいずれかの点の座標を記憶すれば足りる。   FIG. 3 is a diagram illustrating an example of the tracking area. As shown in FIG. 3A, when the user selects the focus area a1 in the shooting screen 17 by the operation member 16, the tracking control unit 36 includes a tracking area having a predetermined size including the focus area a1 and larger than the focus area a1. Set b1. The tracking area b1 is set by detecting an area having color information similar to the color information of the subject portion in the focus area a1 around the focus area a1. The tracking control unit 36 stores the coordinates of the tracking region b1 and a rectangular image corresponding to the tracking region b1 in the storage unit 37. Note that the size of the tracking area b1 may be fixed or variable. When the size of the tracking area b1 is fixed, the storage unit 37 only needs to store the coordinates of any of the four corners as information for specifying the position of the tracking area b1.

追尾制御部36はその後、所定周期(例えば1/60秒)ごとに測光センサ14Bから出力される画像信号に対して、記憶部37に記憶されているテンプレート画像とのマッチングを行うことにより、記憶部37に記憶されている追尾領域の座標とテンプレート画像とを繰り返し更新する。図3(b)は更新後の追尾領域を示す図である。図3(a)において撮影画面17の中央付近に位置していた追尾領域b1が、図3(b)では撮影画面17の右上寄りの位置に移動している。   The tracking control unit 36 then stores the image signal output from the photometric sensor 14B at predetermined intervals (for example, 1/60 seconds) by matching with the template image stored in the storage unit 37. The coordinates of the tracking area and the template image stored in the unit 37 are repeatedly updated. FIG. 3B is a diagram showing the tracking area after update. The tracking area b1 located near the center of the shooting screen 17 in FIG. 3A has moved to a position near the upper right of the shooting screen 17 in FIG.

本実施形態の追尾制御部36は、追尾領域を更新する際、測光センサ14Bから入力される画像信号に基づいて、撮影画面内において移動した追尾対象の被写体部分の移動後の領域を候補領域として複数推定する。本実施形態ではこの推定は、画像信号の複数箇所においてテンプレート画像との比較を行い、それら複数箇所の各々についてテンプレート画像との類似度(テンプレート画像との一致の度合いを表す数値であり、本実施形態では大きいほどテンプレート画像とよく一致していることを表す)を算出することにより行われる。追尾制御部36は、算出された類似度が所定のしきい値以上であるような全ての領域を候補領域とし、記憶部37に記憶しておく。   When the tracking control unit 36 of the present embodiment updates the tracking area, based on the image signal input from the photometric sensor 14B, the area after the movement of the tracking target subject portion that has moved in the shooting screen is used as a candidate area. Estimate multiple. In this embodiment, this estimation is a comparison with the template image at a plurality of locations of the image signal, and the similarity to the template image at each of the plurality of locations (a numerical value indicating the degree of matching with the template image). In the form, the larger the value, the better the image matches the template image). The tracking control unit 36 stores all regions in which the calculated similarity is equal to or greater than a predetermined threshold as candidate regions and stores them in the storage unit 37.

追尾制御部36はこれら複数の候補領域のうち、類似度が最も高い候補領域を暫定的に新たな追尾領域として記憶部37に記憶する(記憶部37に記憶されている追尾領域の座標およびテンプレート画像を更新する)。フォーカスエリア位置決定部33は、この暫定的な追尾領域に対応するフォーカスエリアが焦点調節に適していれば、そのフォーカスエリアを目標フォーカスエリアに決定する。   The tracking control unit 36 temporarily stores the candidate region having the highest similarity among the plurality of candidate regions as a new tracking region in the storage unit 37 (the tracking region coordinates and the template stored in the storage unit 37) Update the image). If the focus area corresponding to the provisional tracking area is suitable for focus adjustment, the focus area position determination unit 33 determines the focus area as the target focus area.

他方、暫定的な追尾領域に対応するフォーカスエリアが焦点調節に適さない場合、フォーカスエリア位置決定部33は、記憶部37に記憶されている候補領域の各々に対応するフォーカスエリアから、焦点調節に適したフォーカスエリアを選択し、目標フォーカスエリアに決定する。この場合、追尾制御部36は、目標フォーカスエリアに対応する候補領域を新たな追尾領域として選択する。   On the other hand, when the focus area corresponding to the provisional tracking area is not suitable for focus adjustment, the focus area position determination unit 33 performs focus adjustment from the focus area corresponding to each of the candidate areas stored in the storage unit 37. Select a suitable focus area and determine the target focus area. In this case, the tracking control unit 36 selects a candidate area corresponding to the target focus area as a new tracking area.

すなわち、もし暫定的な追尾領域に対応するフォーカスエリアが焦点調節に適さず、記憶部37に記憶されている候補領域に焦点調節に適したフォーカスエリアに対応する候補領域があった場合、追尾制御部36は、その候補領域を新たな追尾領域として選択する(記憶部37に記憶する)。他方、暫定的な追尾領域に対応するフォーカスエリアが焦点調節に適していれば、この暫定的な追尾領域をそのまま新たな追尾領域とする。   That is, if the focus area corresponding to the provisional tracking area is not suitable for focus adjustment and there is a candidate area corresponding to the focus area suitable for focus adjustment in the candidate area stored in the storage unit 37, tracking control is performed. The unit 36 selects the candidate region as a new tracking region (stores it in the storage unit 37). On the other hand, if the focus area corresponding to the provisional tracking area is suitable for focus adjustment, the provisional tracking area is directly used as a new tracking area.

なお、本実施形態において、「追尾領域(候補領域)に対応するフォーカスエリア」とは、フォーカスエリア全体の半分以上がその追尾領域(候補領域)に含まれるような全てのフォーカスエリアである。これを、例えばフォーカスエリア全体がその追尾領域に含まれるような全てのフォーカスエリアとしてもよいし、少なくとも一部がその追尾領域に含まれるような全てのフォーカスエリアとしてもよい。   In the present embodiment, the “focus area corresponding to the tracking area (candidate area)” is all the focus areas in which more than half of the entire focus area is included in the tracking area (candidate area). This may be, for example, all focus areas in which the entire focus area is included in the tracking area, or all focus areas in which at least a part is included in the tracking area.

また、本実施形態では、「焦点調節に適したフォーカスエリア」を、そのフォーカスエリアにおいて今回算出されたデフォーカス量と記憶部37に記憶されているデフォーカス量(前回の目標フォーカスエリアのデフォーカス量)との差が所定のしきい値未満であるようなフォーカスエリア、としている。追尾対象の被写体部分とカメラ1との距離が短時間で急激に変化することは考えにくいため、焦点調節に適しているか否かを上記のように判定することで、被写体追尾中のピント位置の急激な変化を抑制することができる。なお、例えばデフォーカス量の絶対値やコントラストの強さなどによって、フォーカスエリアが焦点調節に適しているか否かを判定してもよい。   In the present embodiment, the “focus area suitable for focus adjustment” is determined by defocus amount calculated this time in the focus area and defocus amount stored in the storage unit 37 (defocus of the previous target focus area). The focus area is such that the difference from the (quantity) is less than a predetermined threshold value. Since it is unlikely that the distance between the subject portion to be tracked and the camera 1 changes rapidly in a short time, the focus position during subject tracking is determined by determining whether or not the distance is suitable for focus adjustment as described above. Rapid changes can be suppressed. Note that, for example, whether or not the focus area is suitable for focus adjustment may be determined based on the absolute value of the defocus amount, the strength of contrast, or the like.

(自動焦点調節処理の説明)
図4は、本実施形態の自動焦点調節処理を示すフローチャートである。制御装置30は、所定のAF操作(例えば操作部材16に含まれるレリーズボタンの半押し操作)が成されているとき、図4に示す自動焦点調節処理を繰り返し実行する。これにより、AF操作中、被写体の移動に応じてピント位置も変化するので、被写体に対してピントが合った状態を維持することができる。
(Description of automatic focus adjustment process)
FIG. 4 is a flowchart showing the automatic focus adjustment process of the present embodiment. When a predetermined AF operation (for example, a half-press operation of a release button included in the operation member 16) is performed, the control device 30 repeatedly executes the automatic focus adjustment process shown in FIG. Thereby, during the AF operation, the focus position also changes according to the movement of the subject, so that the subject can be kept in focus.

以下、まず追尾領域に対応するフォーカスエリアが、焦点調節に適した状態であり続ける場合の処理について説明し、その後に、ある時点で追尾領域に対応するフォーカスエリアが焦点調節に適さなくなった場合の処理を説明する。   The following describes the processing when the focus area corresponding to the tracking area continues to be in a state suitable for focus adjustment, and then the focus area corresponding to the tracking area becomes unsuitable for focus adjustment at a certain point in time. Processing will be described.

ステップS302において、制御装置30は、本AF動作が初回AF動作であるかどうかを判定する。すなわち、AF操作が開始された直後でAFの演算結果が何も出力されていない段階は、初回AF動作と判定される。初回AF動作の場合はステップS303へ進む。ステップS303で制御装置30は、追尾制御部36により図5に示す初回追尾制御を行う。   In step S302, the control device 30 determines whether or not the AF operation is a first AF operation. That is, the stage where no AF calculation result is output immediately after the AF operation is started is determined as the first AF operation. In the case of the first AF operation, the process proceeds to step S303. In step S303, the control device 30 performs the initial tracking control shown in FIG.

図5は、図4のステップS302における追尾制御部36の初回追尾制御を示すフローチャートである。ステップS101において追尾制御部36は、測光センサ14Bにより入力された画像信号中の、使用者により指定されたフォーカスエリア(図3に示すフォーカスエリアa1)に対応する領域の画像の被写体の色情報を記憶する。ステップS102において追尾制御部36は、画像信号中のフォーカスエリアa1の周辺部で、フォーカスエリアa1の色情報と同様な色情報を示す領域を検出する。   FIG. 5 is a flowchart showing the initial tracking control of the tracking control unit 36 in step S302 of FIG. In step S101, the tracking control unit 36 obtains the color information of the subject of the image in the area corresponding to the focus area (focus area a1 shown in FIG. 3) designated by the user in the image signal input by the photometric sensor 14B. Remember. In step S102, the tracking control unit 36 detects an area indicating color information similar to the color information of the focus area a1 in the periphery of the focus area a1 in the image signal.

ステップS103において追尾制御部36は、検出した領域を追尾領域b1とし、その座標を記憶部37に記憶する。ステップS104において追尾制御部36は、その追尾領域b1の色情報を以降の追尾処理に用いるテンプレート画像として記憶部37に記憶する。ステップS105において追尾制御部36は、追尾領域b1を所定画素ずつ拡大した領域を探索範囲に設定する。   In step S <b> 103, the tracking control unit 36 sets the detected region as the tracking region b <b> 1 and stores the coordinates in the storage unit 37. In step S104, the tracking control unit 36 stores the color information of the tracking region b1 in the storage unit 37 as a template image used for the subsequent tracking processing. In step S105, the tracking control unit 36 sets an area obtained by enlarging the tracking area b1 by a predetermined pixel as a search range.

図4に戻り、引き続き自動焦点調節処理を説明する。図5で説明したステップS302の初回追尾制御が終了すると、ステップS306に進む。ステップS306において制御装置30は、ステップS103で記憶された追尾領域b1に対応するフォーカスエリアをAF演算エリア(デフォーカス演算部32によりデフォーカス量が演算されるフォーカスエリア)に設定する。初回AF動作時、「追尾領域b1に対応するフォーカスエリア」とは、追尾領域b1の中央に位置する1つのフォーカスエリアである。ステップS307において制御装置30は、AF−CCD制御部31より指示し、位相差AF検出部15(ラインセンサ)に蓄積制御を行わせる。   Returning to FIG. 4, the automatic focus adjustment process will be described. When the initial tracking control in step S302 described in FIG. 5 ends, the process proceeds to step S306. In step S306, the control device 30 sets a focus area corresponding to the tracking area b1 stored in step S103 as an AF calculation area (a focus area where the defocus calculation unit 32 calculates the defocus amount). In the first AF operation, the “focus area corresponding to the tracking area b1” is one focus area located in the center of the tracking area b1. In step S307, the control device 30 gives an instruction from the AF-CCD control unit 31, and causes the phase difference AF detection unit 15 (line sensor) to perform accumulation control.

ステップS308において制御装置30は、AF−CCD制御部31により位相差AF検出部15(ラインセンサ)で蓄積した電荷のA/D変換を行い読み出した電荷信号から周知の相関演算により像ズレ量を求め、デフォーカス演算部32によりデフォーカス量を算出する。続くステップS309において、制御装置30は、所定エリア数のデフォーカス量の演算が終了したかどうかを判定する。ここでいう所定数は、追尾領域b1に対応するするフォーカスエリアの数とする(初回AF動作時は1つ)。デフォーカス量の演算が終了するとステップS310に進む。   In step S308, the control device 30 performs A / D conversion of the charge accumulated in the phase difference AF detection unit 15 (line sensor) by the AF-CCD control unit 31, and calculates an image shift amount from the read charge signal by a known correlation calculation. Then, the defocus calculation unit 32 calculates the defocus amount. In subsequent step S309, control device 30 determines whether or not the calculation of the defocus amount for the predetermined number of areas has been completed. The predetermined number here is the number of focus areas corresponding to the tracking area b1 (one at the time of the first AF operation). When the calculation of the defocus amount ends, the process proceeds to step S310.

なお、位相差AF検出部15が備え持つ全てのエリアが高速に演算可能であれば、ステップS306〜S309において、全てのフォーカスエリアのデフォーカス量を演算してもよい。   If all the areas included in the phase difference AF detection unit 15 can be calculated at high speed, the defocus amounts of all the focus areas may be calculated in steps S306 to S309.

ステップS310において制御装置30は、フォーカスエリア位置決定部33により焦点調節対象のフォーカスエリアの選択判定を行う。この選択判定では、追尾領域b1に対応するフォーカスエリアから、デフォーカス量が所定条件を満たすものが焦点調節対象のフォーカスエリア(目標フォーカスエリア)として選択される。初回AF動作時、この所定条件は例えば「デフォーカス量が所定のしきい値以下であること」のように定められる。追尾領域b1に相当するフォーカスエリアがこの所定条件を満たさない場合には、ステップS310において目標フォーカスエリアは選択されない。   In step S <b> 310, the control device 30 makes the focus area position determination unit 33 determine whether to select a focus area to be focused. In this selection determination, the focus area corresponding to the tracking area b1 and the defocus amount satisfying the predetermined condition is selected as the focus area (target focus area) to be focused. At the time of the first AF operation, the predetermined condition is determined as “the defocus amount is equal to or less than a predetermined threshold value”, for example. If the focus area corresponding to the tracking area b1 does not satisfy this predetermined condition, the target focus area is not selected in step S310.

ステップS311において制御装置30は、ステップS310において目標フォーカスエリアが選択されたか否かを判定する。目標フォーカスエリアが選択された場合にはステップS312に進む。ステップS312において制御装置30は、目標フォーカスエリアのデフォーカス量に基づいて、レンズ駆動量演算部34によりレンズ駆動量演算を行う。ステップS313において、制御装置30はステップS312のレンズ駆動量演算の結果に従い、レンズ駆動制御部35によりレンズ駆動用モータ22を駆動し、焦点調節レンズ(レンズ群L2)をレンズ目標位置へ移動させることにより、焦点調節を行う。   In step S311, the control device 30 determines whether or not a target focus area has been selected in step S310. If the target focus area is selected, the process proceeds to step S312. In step S <b> 312, the control device 30 performs lens drive amount calculation by the lens drive amount calculation unit 34 based on the defocus amount of the target focus area. In step S313, the control device 30 drives the lens driving motor 22 by the lens driving control unit 35 according to the result of the lens driving amount calculation in step S312, and moves the focus adjustment lens (lens group L2) to the lens target position. To adjust the focus.

次に図4に示す処理が実行されるとき、制御装置30はステップS302において初回AF動作ではないと判定し、処理はステップS304に進む。ステップS304で制御装置30は、追尾制御部36により図6に示す追尾演算制御を行う。   Next, when the process shown in FIG. 4 is executed, the control device 30 determines that the first AF operation is not performed in step S302, and the process proceeds to step S304. In step S304, the control device 30 performs the tracking calculation control shown in FIG.

図6は、図4のステップS304の追尾演算制御を示すフローチャートである。ステップS201において追尾制御部36は、ステップS105(図5)で設定された探索範囲から、テンプレート画像と同じサイズ(追尾領域b1と同じサイズ)の領域を順次切り出し、切り出した画像とテンプレート画像とを対比し、画素ごとに色情報の差分を演算する。この色情報の差分の大小を反転させた数値が、本実施形態における類似度である。ステップS202において追尾制御部36は、類似度が所定のしきい値より大きい領域(すなわち色情報の差分が所定値以下の領域)を探索し、それらの領域を候補領域とする。   FIG. 6 is a flowchart showing the tracking calculation control in step S304 of FIG. In step S201, the tracking control unit 36 sequentially cuts out a region having the same size as the template image (the same size as the tracking region b1) from the search range set in step S105 (FIG. 5), and extracts the cut out image and the template image. In contrast, the difference in color information is calculated for each pixel. A numerical value obtained by inverting the magnitude of the difference in the color information is the similarity in this embodiment. In step S202, the tracking control unit 36 searches for regions where the degree of similarity is greater than a predetermined threshold (that is, a region where the difference in color information is equal to or smaller than a predetermined value), and sets these regions as candidate regions.

本実施形態では、追尾領域の周辺に予め複数の領域を定めておき、これらの各領域について色情報の差分をステップS201と同様に演算し、この差分が所定のしきい値以下の領域を候補領域として推定する。なお、探索範囲を1画素ずつずらしながら走査して候補領域を推定してもよい。   In the present embodiment, a plurality of areas are defined in advance around the tracking area, color information differences are calculated for each of these areas in the same manner as in step S201, and areas whose difference is equal to or smaller than a predetermined threshold value are candidates. Estimate as a region. Note that the candidate area may be estimated by scanning while shifting the search range by one pixel.

ステップS203において追尾制御部36は、ステップS202において推定された複数の候補領域から、類似度が最も大きい(色情報の差分が最も小さい)候補領域を、暫定的に追尾領域として選択する。ここで、この暫定的な追尾領域の画像情報を用いて、記憶部37に記憶されているテンプレート画像の画像情報を更新してもよい。   In step S203, the tracking control unit 36 tentatively selects a candidate area having the highest similarity (the smallest difference in color information) from the plurality of candidate areas estimated in step S202 as a tracking area. Here, the image information of the template image stored in the storage unit 37 may be updated using the image information of the provisional tracking area.

図7は、候補領域の一例を示す図である。図7(a)および(b)では、9つの候補領域602a〜602iが推定され、そのうちの候補領域602iが暫定的な追尾領域に設定されている。なお、候補領域の推定方法は他にも考えられ、例えば追尾領域を周辺に所定量ずつ拡大した領域601内を、ステップS201と同様に追尾領域b1と同じサイズの領域を順次切り出して色情報の差分を演算し、所定のしきい値以下の領域(類似度が所定のしきい値以上の領域)を候補領域としてもよい。また、追尾領域の周辺に予め複数の領域を定めておき、色情報の差分を演算せず、無条件でそれら複数の領域が候補領域として推定されるようにしてもよい。ステップS204において追尾制御部36は、暫定的な追尾領域を周辺に所定画素ずつ拡大した領域を新しい探索範囲とする。   FIG. 7 is a diagram illustrating an example of a candidate area. 7A and 7B, nine candidate areas 602a to 602i are estimated, and the candidate area 602i is set as a provisional tracking area. There are other methods for estimating the candidate area. For example, an area having the same size as the tracking area b1 is sequentially cut out in the area 601 obtained by enlarging the tracking area by a predetermined amount around the area, as in step S201. The difference may be calculated, and an area having a predetermined threshold value or less (an area having a similarity greater than or equal to a predetermined threshold value) may be set as a candidate area. Alternatively, a plurality of areas may be defined around the tracking area in advance, and the plurality of areas may be unconditionally estimated as candidate areas without calculating the color information difference. In step S204, the tracking control unit 36 sets an area obtained by enlarging the provisional tracking area by a predetermined number of pixels around as a new search range.

図4に戻り、引き続き自動焦点調節処理を説明する。図6で説明したステップS304の追尾演算制御が終了すると、ステップS306に進む。ステップS306では初回AF動作時と同様に、追尾領域b1に対応するフォーカスエリアをAF演算エリアに設定する。2回目以降、「追尾領域b1に対応するフォーカスエリア」とは、追尾領域b1に少なくとも一部が重なるフォーカスエリアのうち、追尾領域b1に重なる面積が所定量以上のフォーカスエリアである。従って、「追尾領域b1に対応するフォーカスエリア」は複数のフォーカスエリアとなり、ステップS306ではこれら複数のフォーカスエリアがAF演算エリアに設定される。   Returning to FIG. 4, the automatic focus adjustment process will be described. When the tracking calculation control in step S304 described in FIG. 6 ends, the process proceeds to step S306. In step S306, as in the first AF operation, the focus area corresponding to the tracking area b1 is set as the AF calculation area. From the second time on, the “focus area corresponding to the tracking area b1” is a focus area where the area overlapping the tracking area b1 is a predetermined amount or more among the focus areas at least partially overlapping the tracking area b1. Accordingly, the “focus area corresponding to the tracking area b1” is a plurality of focus areas, and in step S306, the plurality of focus areas are set as AF calculation areas.

ステップS307〜ステップS309において実行される処理は初回AF動作時と同様である。ステップS310において制御装置30は、初回AF動作時と同様に、追尾領域b1に相当するフォーカスエリアから、デフォーカス量が所定条件を満たすものを焦点調節対象のフォーカスエリア(目標フォーカスエリア)として選択する。今回、この所定条件は例えば「前回の目標フォーカスエリアのデフォーカス量との差が所定値未満であり、且つデフォーカス量の絶対値が最小であること」のように定められる。上記のような条件を設定することにより、前回の(直前の)ピント位置から光軸方向に大きく異なる位置にピントを合わせないようになる。追尾領域b1に相当するフォーカスエリアに上記の所定条件を満たすものが存在しない場合、採用エリアが選択されない点は初回AF動作時と同様である。   The processing executed in steps S307 to S309 is the same as in the first AF operation. In step S310, as in the first AF operation, the control device 30 selects, from the focus area corresponding to the tracking area b1, a defocus amount that satisfies a predetermined condition as a focus adjustment target focus area (target focus area). . This predetermined condition is determined such that “the difference from the defocus amount of the previous target focus area is less than a predetermined value and the absolute value of the defocus amount is minimum”. By setting the conditions as described above, it is possible to prevent focusing from being performed at a position that is significantly different from the previous (immediately previous) focus position in the optical axis direction. When there is no focus area that satisfies the above-mentioned predetermined condition in the focus area corresponding to the tracking area b1, the point that the adopted area is not selected is the same as in the first AF operation.

ステップS311〜ステップS313において実行される処理は初回AF動作時と同様である。このように、ステップS310において目標フォーカスエリアが選択されている限り、制御装置30は上述の処理を繰り返し実行し、追尾領域は追尾対象の被写体部分の動きに合わせて次々に更新されていく。また、焦点調節は更新された追尾領域に対して次々に実行されていくので、移動する被写体に対し常にピントが合った状態を維持することができる。   The processing executed in steps S311 to S313 is the same as in the first AF operation. As described above, as long as the target focus area is selected in step S310, the control device 30 repeatedly executes the above-described processing, and the tracking area is updated one after another according to the movement of the subject portion to be tracked. In addition, since the focus adjustment is sequentially performed on the updated tracking area, it is possible to maintain a state where the moving subject is always in focus.

次に、ステップS310において目標フォーカスエリアが選択されなかった場合について説明する。この場合、処理はステップS314に進む。ステップS314において制御装置30は、ステップS302と同様に、AF動作が初回AF動作であるかどうかを判定する。すなわち、AF操作が行われた直後でAFの演算結果が何も出力されていない段階では、初回AF動作となる。初回AF動作であった場合、処理はステップS321に進む。ステップS321において制御装置30は、いわゆるローコンスキャン動作を行う。つまり、レンズ駆動制御部35によりレンズ駆動用モータ22を駆動し、焦点調節レンズ(レンズ群L2)を所定方向(例えば無限遠方向)に所定量だけ(あるいは所定位置へ)移動させる。このとき、次回のAF動作は初回AF動作として扱われる。   Next, a case where the target focus area is not selected in step S310 will be described. In this case, the process proceeds to step S314. In step S314, the control device 30 determines whether or not the AF operation is the initial AF operation, similarly to step S302. That is, the initial AF operation is performed immediately after the AF operation is performed and no AF calculation result is output. If it is the first AF operation, the process proceeds to step S321. In step S321, the control device 30 performs a so-called low contrast scan operation. That is, the lens drive motor 22 is driven by the lens drive control unit 35, and the focus adjustment lens (lens group L2) is moved by a predetermined amount (or to a predetermined position) in a predetermined direction (for example, infinity direction). At this time, the next AF operation is treated as the first AF operation.

他方、初回AF動作ではなかった場合、処理はステップS314からステップS315に進む。ステップS315において制御装置30は、ステップS306と同様に、AF演算エリアを設定する。ただし、追尾領域b1に対応するフォーカスエリアではなく、ステップS304において推定された各候補領域に対応するフォーカスエリアをAF演算エリアに設定する。なお、ステップS306において既にAF演算エリアに設定されたフォーカスエリアは、ステップS315においてAF演算エリアに設定する必要はない。これは、当該フォーカスエリアのデフォーカス量が、ステップS308において既に演算されているためである。   On the other hand, if it is not the first AF operation, the process proceeds from step S314 to step S315. In step S315, the control device 30 sets an AF calculation area as in step S306. However, instead of the focus area corresponding to the tracking area b1, the focus area corresponding to each candidate area estimated in step S304 is set as the AF calculation area. Note that the focus area already set as the AF calculation area in step S306 need not be set as the AF calculation area in step S315. This is because the defocus amount of the focus area has already been calculated in step S308.

ステップS316ではステップS308と同様に、ステップS315で設定されたAF演算エリアのデフォーカス量が演算される。ステップS317において制御装置30は、全てのAF演算エリアについてデフォーカス量の演算が終了したか否かを判定する。デフォーカス量の演算が全て終了している場合にはステップS318に進む。ステップS318において制御装置30は、ステップS310のように、ステップS315でAF演算エリアに設定された全てのフォーカスエリアから、デフォーカス量が所定条件を満たすものを目標フォーカスエリアとして選択する。なお、ステップS318においてフォーカスエリア位置決定部33は、暫定的な追尾領域に近接する候補領域のフォーカスエリアや、暫定的な追尾領域に対応するフォーカスエリアと重なっている候補領域のフォーカスエリアを、他のフォーカスエリアよりも優先的に選択する。   In step S316, similarly to step S308, the defocus amount of the AF calculation area set in step S315 is calculated. In step S317, the control device 30 determines whether or not the defocus amount calculation has been completed for all AF calculation areas. If all the calculations of the defocus amount have been completed, the process proceeds to step S318. In step S318, as in step S310, the control device 30 selects, as the target focus area, a defocus amount satisfying a predetermined condition from all the focus areas set in the AF calculation area in step S315. In step S318, the focus area position determination unit 33 changes the focus area of the candidate area close to the provisional tracking area and the focus area of the candidate area that overlaps with the focus area corresponding to the provisional tracking area. Select with priority over the focus area.

ステップS319において制御装置30は、ステップS318においていずれかのフォーカスエリアが目標フォーカスエリアとして選択されたか否かを判定する。目標フォーカスエリアが選択されなかった場合はステップS321に進み、前述の通りスキャン動作を行う。他方、目標フォーカスエリアが選択されていた場合にはステップS320に進む。ステップS320において制御装置30は、追尾制御部36に対して目標フォーカスエリアの位置情報や目標フォーカスエリアに対応する候補領域の情報など、ステップS318において選択された目標フォーカスエリアを基準に次回の追尾制御が行われるようにするための情報を出力する。追尾制御部36はここで出力された情報を受けて、記憶部37に新たな追尾領域(目標フォーカスエリアに対応する候補領域)を記憶する。その後、処理はステップS312に進み、決定された目標フォーカスエリアのデフォーカス量に基づいて、レンズ駆動量演算部34によりレンズ駆動量演算が行われる。そしてステップS313において、制御装置30はステップS312のレンズ駆動量演算の結果に従い、レンズ駆動制御部35によりレンズ駆動用モータ22を駆動し、焦点調節レンズ(レンズ群L2)をレンズ目標位置へ移動させることにより、焦点調節を行う。   In step S319, the control device 30 determines whether any focus area is selected as the target focus area in step S318. If the target focus area is not selected, the process proceeds to step S321, and the scan operation is performed as described above. On the other hand, if the target focus area has been selected, the process proceeds to step S320. In step S320, the control device 30 controls the tracking control unit 36 for the next tracking control based on the target focus area selected in step S318, such as the position information of the target focus area and information on candidate areas corresponding to the target focus area. Outputs information to ensure that is performed. The tracking control unit 36 receives the information output here, and stores a new tracking region (a candidate region corresponding to the target focus area) in the storage unit 37. Thereafter, the process proceeds to step S312, and the lens drive amount calculation unit 34 calculates the lens drive amount based on the determined defocus amount of the target focus area. In step S313, the control device 30 drives the lens driving motor 22 by the lens driving control unit 35 according to the result of the lens driving amount calculation in step S312, and moves the focus adjustment lens (lens group L2) to the lens target position. To adjust the focus.

上述した第1の実施の形態によるカメラシステムによれば、次の作用効果が得られる。
(1)追尾制御部36は、追尾対象の被写体部分が含まれる追尾領域を撮影画面内に設定し、測光センサ14Bから入力された画像信号に基づいて、撮影画面内において移動した追尾対象の被写体部分の移動後の領域を候補領域として複数推定する。そして、推定された複数の候補領域の各々においてデフォーカス演算部32により演算されたそれぞれのデフォーカス量と、記憶部37に記憶されているデフォーカス量とを比較し、複数の候補領域から新たな追尾領域を選択する。このようにしたので、焦点調節に適した被写体部分を追尾することができる。例えば、追尾制御により低コントラストな被写体部分に追尾領域が設定されると、対応するフォーカスエリアでは適正なデフォーカス量を算出できないことがあるが、本実施形態のカメラ1は、このような場合に、より焦点調節に適した位置に追尾領域を自動的に再設定し、追尾制御を継続することができる。
According to the camera system according to the first embodiment described above, the following operational effects can be obtained.
(1) The tracking control unit 36 sets a tracking area including the subject portion to be tracked in the shooting screen, and moves on the shooting screen based on the image signal input from the photometric sensor 14B. A plurality of regions after partial movement are estimated as candidate regions. Then, each defocus amount calculated by the defocus calculation unit 32 in each of the estimated plurality of candidate regions is compared with the defocus amount stored in the storage unit 37, and a new one is obtained from the plurality of candidate regions. Select a tracking area. Since it did in this way, the to-be-photographed object part suitable for focus adjustment can be tracked. For example, if a tracking area is set for a low-contrast subject portion by tracking control, an appropriate defocus amount may not be calculated in the corresponding focus area. Thus, the tracking area can be automatically reset to a position more suitable for focus adjustment, and tracking control can be continued.

(2)追尾制御部36は、画像信号の複数箇所において、追尾領域におけるテンプレート画像との比較を行い、複数箇所の各々についてテンプレート画像との類似度を算出し、それら複数の類似度に基づいて複数の候補領域を推定する。そして、類似度が最も高い候補領域(暫定的な追尾領域)について、その候補領域内においてデフォーカス演算部32により演算されたデフォーカス量と記憶部37に記憶されているデフォーカス量とが所定以上近い場合には、その候補領域を新たな追尾領域として選択し、所定以上近くない場合には、その候補領域とは異なる候補領域を新たな追尾領域として選択する。このようにしたので、新たな追尾領域を決定するための演算量を低減することができる。つまり、暫定的な追尾領域に対応するフォーカスエリアが焦点調節に適していれば、他のフォーカスエリアについてデフォーカス量を演算する必要がない。 (2) The tracking control unit 36 compares the template image in the tracking region at a plurality of locations of the image signal, calculates the similarity with the template image at each of the plurality of locations, and based on the plurality of similarities A plurality of candidate regions are estimated. For the candidate area (provisional tracking area) with the highest similarity, the defocus amount calculated by the defocus calculation unit 32 and the defocus amount stored in the storage unit 37 in the candidate region are predetermined. If it is closer than that, the candidate area is selected as a new tracking area, and if it is not closer than the predetermined area, a candidate area different from the candidate area is selected as a new tracking area. Since it did in this way, the calculation amount for determining a new tracking area | region can be reduced. That is, if the focus area corresponding to the provisional tracking area is suitable for focus adjustment, it is not necessary to calculate the defocus amount for other focus areas.

(第2の実施の形態)
第1の実施の形態では、まず複数の候補領域を推定しておき、その後に、デフォーカス量に基づいて追尾領域を微調整していた。第2の実施の形態に係るカメラ1では、まず1つだけ候補領域を決定した後に、その候補領域の周辺に位置するフォーカスエリアから焦点調節対象のフォーカスエリア(目標フォーカスエリア)を選択し、目標フォーカスエリアの位置に基づいて新たな追尾領域を設定する。なお、以下の説明において、第1の実施の形態と同様の箇所については説明を省略する。
(Second Embodiment)
In the first embodiment, a plurality of candidate areas are first estimated, and then the tracking area is finely adjusted based on the defocus amount. In the camera 1 according to the second embodiment, after only one candidate area is determined, a focus area (target focus area) to be adjusted is selected from the focus areas located around the candidate area, and the target area is selected. A new tracking area is set based on the position of the focus area. In the following description, description of the same parts as in the first embodiment will be omitted.

図8は、第2の実施の形態の自動焦点調節処理を示すフローチャートである。なお、図4に示す第1の実施の形態の自動焦点調節処理と同一の箇所については説明を省略する。ステップS401において制御装置30は、ステップS305で記憶された追尾領域b1を含み撮影画面より小さい探索領域を設定する。そして、この探索領域に含まれる全てのフォーカスエリアをAF演算エリアに設定する。   FIG. 8 is a flowchart illustrating an automatic focus adjustment process according to the second embodiment. The description of the same parts as those in the automatic focus adjustment process of the first embodiment shown in FIG. 4 is omitted. In step S401, the control device 30 sets a search area that includes the tracking area b1 stored in step S305 and is smaller than the shooting screen. Then, all the focus areas included in this search area are set as AF calculation areas.

ステップS402において制御装置30は、ステップS401でAF演算エリアに設定された全てのフォーカスエリアについて、デフォーカス演算部32にデフォーカス量を演算させる。ステップS403では制御装置30が、目標フォーカスエリアの判定を行う。ここで制御装置30は、ステップS402においてデフォーカス量の演算が行われた各フォーカスエリアについて、所定条件に基づいてフォーカスエリアを1つ選択する。所定条件には例えばコントラストが所定の水準より高いことや、記憶部37に記憶されているデフォーカス量との差が所定のしきい値未満であること、追尾領域に近接していること、など種々の条件を設定することが可能である。また、所定条件はこれらの各条件を組み合わせたものであってもよい。   In step S402, the control device 30 causes the defocus calculation unit 32 to calculate the defocus amount for all the focus areas set in the AF calculation area in step S401. In step S403, the control device 30 determines the target focus area. Here, the control device 30 selects one focus area based on a predetermined condition for each focus area for which the defocus amount has been calculated in step S402. The predetermined conditions include, for example, that the contrast is higher than a predetermined level, that the difference from the defocus amount stored in the storage unit 37 is less than a predetermined threshold, that the image is close to the tracking area, etc. Various conditions can be set. The predetermined condition may be a combination of these conditions.

ステップS404において制御装置30は、ステップS303またはステップS304において記憶部37に記憶された新たな追尾領域を補正する必要があるか否かを判定する。具体的には、ステップS403で選択された焦点調節対象のフォーカスエリア(目標フォーカスエリア)が、記憶部37に記憶された新たな追尾領域内のフォーカスエリアか否かを判定する。追尾領域外のフォーカスエリアが選択されていた場合には、記憶部37に記憶されている追尾領域を、ステップS403で選択されたフォーカスエリアを含む位置に再設定する(補正する)。   In step S404, the control device 30 determines whether or not the new tracking area stored in the storage unit 37 in step S303 or step S304 needs to be corrected. Specifically, it is determined whether or not the focus adjustment target focus area (target focus area) selected in step S <b> 403 is a focus area in a new tracking area stored in the storage unit 37. If a focus area outside the tracking area has been selected, the tracking area stored in the storage unit 37 is reset (corrected) to a position including the focus area selected in step S403.

上述した第2の実施の形態によるカメラシステムによれば、次の作用効果が得られる。
(1)追尾制御部36は、測光センサ14Bから出力される画像信号に基づいて、撮影画面内において移動した追尾対象の被写体部分の移動後の領域を候補領域として推定する。そして、候補領域を含み撮影画面より小さい探索領域を設定した後に、探索領域内の複数箇所の各々においてデフォーカス演算部32により算出されたそれぞれのデフォーカス量と、記憶部37に記憶されているデフォーカス量とを比較し、複数箇所のいずれかに新たな追尾領域を設定する。このようにしたので、デフォーカス量の演算量が増加する代わりに、デフォーカス量に応じた追尾領域の補正がより頻繁に行われ、被写体追尾の精度が向上する。
According to the camera system according to the second embodiment described above, the following operational effects can be obtained.
(1) Based on the image signal output from the photometric sensor 14B, the tracking control unit 36 estimates a region after movement of the tracking target subject portion that has moved within the shooting screen as a candidate region. After setting a search area that includes the candidate area and is smaller than the shooting screen, each defocus amount calculated by the defocus calculation unit 32 at each of a plurality of locations in the search area is stored in the storage unit 37. The defocus amount is compared, and a new tracking area is set at any of a plurality of locations. Since this is done, instead of increasing the calculation amount of the defocus amount, the tracking area is corrected more frequently according to the defocus amount, and the accuracy of subject tracking is improved.

次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。   The following modifications are also within the scope of the present invention, and one or a plurality of modifications can be combined with the above-described embodiment.

(変形例1)
上述した第1の実施の形態では、複数の候補領域のうち最も類似度が高い候補領域を暫定的な追尾領域とし、まずこの領域についてデフォーカス量の演算等を行っていた。これを、全ての候補領域についてデフォーカス量の演算を行うようにしてもよい。この場合、各候補領域に対応するフォーカスエリアのうち、最も焦点調節に適したフォーカスエリアを目標フォーカスエリアに決定すると共に、その目標フォーカスエリアに対応する候補領域を追尾領域とすればよい。
(Modification 1)
In the first embodiment described above, the candidate area with the highest similarity among the plurality of candidate areas is set as a provisional tracking area, and the defocus amount is calculated for this area first. Alternatively, the defocus amount may be calculated for all candidate areas. In this case, among the focus areas corresponding to each candidate area, the focus area most suitable for focus adjustment is determined as the target focus area, and the candidate area corresponding to the target focus area may be set as the tracking area.

(変形例2)
上述した各実施の形態における自動焦点調節制御および追尾制御は、短時間に連続して撮影を行う、いわゆる連写を行う場合にも適用可能である。
(Modification 2)
The automatic focus adjustment control and tracking control in each of the above-described embodiments can be applied to so-called continuous shooting in which shooting is performed continuously in a short time.

(変形例3)
上述した各実施の形態では、位相差検出方式の焦点検出装置を備えたレンズ交換式の一眼レフカメラに本発明を適用していたが、本発明はこのような実施形態に限定されない。例えば、いわゆる山登り法(コントラスト方式)の焦点検出を行う場合であっても本発明を適用することが可能である。また、レンズ一体型のカメラに本発明を適用することも可能である。
(Modification 3)
In each of the above-described embodiments, the present invention is applied to a lens interchangeable single-lens reflex camera provided with a phase difference detection type focus detection device, but the present invention is not limited to such an embodiment. For example, the present invention can be applied even when focus detection is performed by a so-called hill-climbing method (contrast method). The present invention can also be applied to a lens-integrated camera.

(変形例4)
被写体追尾を行うための撮像素子は、測光センサ14Bではなく撮像素子11であってもよい。この場合、被写体追尾中はクイックリターンミラー12Aを退避位置に移動させておく必要がある。
(Modification 4)
The image sensor for subject tracking may be the image sensor 11 instead of the photometric sensor 14B. In this case, it is necessary to move the quick return mirror 12A to the retracted position during subject tracking.

(変形例5)
本発明の画像追尾装置は、必ずしも上述した各実施形態のように被写体追尾を行うための撮像素子と一体である必要はない。例えば、被写体像を撮像し画像信号を出力する撮像装置が接続される独立した装置とすることも可能である。この場合、その撮像装置からの画像信号が入力される入力部を設け、その入力部に撮像装置を接続するような構成とすればよい。
(Modification 5)
The image tracking device of the present invention does not necessarily have to be integrated with an imaging device for subject tracking as in each of the embodiments described above. For example, an independent device to which an imaging device that captures a subject image and outputs an image signal can be connected. In this case, an input unit to which an image signal from the imaging device is input may be provided, and the imaging device may be connected to the input unit.

本発明の特徴を損なわない限り、本発明は上記実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。   As long as the characteristics of the present invention are not impaired, the present invention is not limited to the above-described embodiments, and other forms conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention. .

1…カメラ、10…カメラ本体、20…交換レンズ、15…位相差AF検出部、30…制御装置、31…AF−CCD制御部、32…デフォーカス演算部、33…フォーカスエリア位置決定部、34…レンズ駆動量演算部、35…レンズ駆動制御部、36…追尾制御部、37…記憶部 DESCRIPTION OF SYMBOLS 1 ... Camera, 10 ... Camera body, 20 ... Interchangeable lens, 15 ... Phase difference AF detection part, 30 ... Control apparatus, 31 ... AF-CCD control part, 32 ... Defocus calculating part, 33 ... Focus area position determination part, 34 ... Lens drive amount calculation unit, 35 ... Lens drive control unit, 36 ... Tracking control unit, 37 ... Storage unit

Claims (4)

被写体像を撮像した画像信号が入力される入力手段と、
追尾対象の被写体部分が含まれる追尾領域を撮影画面内に設定する追尾領域設定手段と、
前記撮影画面内の被写体像について焦点検出を行う焦点検出手段と、
前記追尾領域内において前記焦点検出手段により行われた焦点検出の結果が記憶される記憶手段と、
前記入力手段に入力された前記画像信号に基づいて、前記撮影画面内において移動した前記追尾対象の被写体部分の移動後の領域を候補領域として複数推定する推定手段と、
前記推定された複数の候補領域の各々において前記焦点検出手段により行われたそれぞれの焦点検出の結果と、前記記憶手段に記憶されている焦点検出の結果とを比較し、前記複数の候補領域から新たな追尾領域を選択する選択手段と、
を備えることを特徴とする画像追尾装置。
Input means for inputting an image signal obtained by capturing a subject image;
Tracking area setting means for setting a tracking area including a subject portion to be tracked in a shooting screen;
Focus detection means for performing focus detection on the subject image in the shooting screen;
Storage means for storing a result of focus detection performed by the focus detection means in the tracking region;
Based on the image signal input to the input means, an estimation means for estimating a plurality of moved areas of the subject portion of the tracking target moved within the shooting screen as candidate areas;
A result of each focus detection performed by the focus detection unit in each of the estimated plurality of candidate regions is compared with a result of focus detection stored in the storage unit, and the results from the plurality of candidate regions are compared. A selection means for selecting a new tracking area;
An image tracking device comprising:
請求項1に記載の画像追尾装置において、
前記推定手段は、前記画像信号の複数箇所において、前記追尾領域設定手段により設定された前記追尾領域における前記追尾対象の被写体部分の画像との比較を行い、前記複数箇所の各々について前記追尾対象の被写体部分の画像との類似度を算出し、それら複数の類似度に基づいて前記複数の候補領域を推定し、
前記選択手段は、前記類似度が最も高い前記候補領域について、その候補領域内において前記焦点検出手段により行われた焦点検出の結果と前記記憶手段に記憶されている焦点検出の結果とが所定以上近い場合には、その候補領域を前記新たな追尾領域として選択し、所定以上近くない場合には、その候補領域とは異なる前記候補領域を前記新たな追尾領域として選択することを特徴とする画像追尾装置。
The image tracking device according to claim 1,
The estimation means compares the image of the subject portion of the tracking target in the tracking area set by the tracking area setting means at a plurality of locations of the image signal, and the tracking target for each of the plurality of locations. Calculating the similarity with the image of the subject portion, estimating the plurality of candidate regions based on the plurality of similarities,
For the candidate area with the highest degree of similarity, the selection means has a result of focus detection performed by the focus detection means in the candidate area and a result of focus detection stored in the storage means greater than or equal to a predetermined value. The image is characterized in that if it is close, the candidate area is selected as the new tracking area, and if it is not closer than a predetermined area, the candidate area different from the candidate area is selected as the new tracking area. Tracking device.
被写体像を撮像した画像信号が入力される入力手段と、
撮影画面内に、追尾対象の被写体部分が含まれる追尾領域を設定する第1追尾領域設定手段と、
前記撮影画面内の被写体像について焦点検出を行う焦点検出手段と、
前記追尾領域内において前記焦点検出手段により行われた焦点検出の結果が記憶される記憶手段と、
前記入力手段に入力された前記画像信号に基づいて、前記撮影画面内において移動した前記追尾対象の被写体部分の移動後の領域を候補領域として推定する推定手段と、
前記候補領域を含み前記撮影画面より小さい探索領域を設定する探索領域設定手段と、
前記探索領域内の複数箇所の各々において前記焦点検出手段により行われたそれぞれの焦点検出の結果と、前記記憶手段に記憶されている焦点検出の結果とを比較し、前記複数箇所のいずれかに新たな追尾領域を設定する第2追尾領域設定手段と、
を備えることを特徴とする画像追尾装置。
Input means for inputting an image signal obtained by capturing a subject image;
First tracking area setting means for setting a tracking area including a subject portion to be tracked in the shooting screen;
Focus detection means for performing focus detection on the subject image in the shooting screen;
Storage means for storing a result of focus detection performed by the focus detection means in the tracking region;
Estimating means for estimating, as a candidate area, an area after movement of the subject portion of the tracking target that has moved within the shooting screen, based on the image signal input to the input means;
Search area setting means for setting a search area that includes the candidate area and is smaller than the shooting screen;
The result of each focus detection performed by the focus detection unit at each of a plurality of locations in the search area is compared with the result of focus detection stored in the storage unit, and A second tracking area setting means for setting a new tracking area;
An image tracking device comprising:
請求項1〜3のいずれか一項に記載の画像追尾装置と、
被写体像を撮像し、前記入力手段に画像信号を出力する撮像手段と、
を備えることを特徴とする撮像装置。
The image tracking device according to any one of claims 1 to 3,
An imaging unit that captures a subject image and outputs an image signal to the input unit;
An imaging apparatus comprising:
JP2011095048A 2011-04-21 2011-04-21 Image tracking device and imaging device Active JP5879736B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011095048A JP5879736B2 (en) 2011-04-21 2011-04-21 Image tracking device and imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011095048A JP5879736B2 (en) 2011-04-21 2011-04-21 Image tracking device and imaging device

Publications (2)

Publication Number Publication Date
JP2012226206A true JP2012226206A (en) 2012-11-15
JP5879736B2 JP5879736B2 (en) 2016-03-08

Family

ID=47276421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011095048A Active JP5879736B2 (en) 2011-04-21 2011-04-21 Image tracking device and imaging device

Country Status (1)

Country Link
JP (1) JP5879736B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016057409A (en) * 2014-09-08 2016-04-21 キヤノン株式会社 Imaging device and control method of imaging device
JP2017040726A (en) * 2015-08-18 2017-02-23 キヤノン株式会社 Imaging device and control method of the same
JP2020003740A (en) * 2018-06-29 2020-01-09 キヤノン株式会社 Image capturing device and control method therefor
EP3723358A1 (en) * 2019-04-10 2020-10-14 Canon Kabushiki Kaisha Image processing apparatus, control method thereof, and program
JP2020198561A (en) * 2019-06-04 2020-12-10 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Control device, camera device, camera system, control method and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008009053A (en) * 2006-06-28 2008-01-17 Nikon Corp Tracking device, automatic focus device and camera
JP2008271006A (en) * 2007-04-18 2008-11-06 Nikon Corp Image-tracking device and method therefor, and imaging device
JP2009033238A (en) * 2007-07-24 2009-02-12 Nikon Corp Imaging apparatus
JP2009109839A (en) * 2007-10-31 2009-05-21 Nikon Corp Image tracking device and imaging device
JP2010072559A (en) * 2008-09-22 2010-04-02 Nikon Corp Imaging apparatus and object area extracting method
JP2010193406A (en) * 2009-02-20 2010-09-02 Canon Inc Image input apparatus, subject detecting method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008009053A (en) * 2006-06-28 2008-01-17 Nikon Corp Tracking device, automatic focus device and camera
JP2008271006A (en) * 2007-04-18 2008-11-06 Nikon Corp Image-tracking device and method therefor, and imaging device
JP2009033238A (en) * 2007-07-24 2009-02-12 Nikon Corp Imaging apparatus
JP2009109839A (en) * 2007-10-31 2009-05-21 Nikon Corp Image tracking device and imaging device
JP2010072559A (en) * 2008-09-22 2010-04-02 Nikon Corp Imaging apparatus and object area extracting method
JP2010193406A (en) * 2009-02-20 2010-09-02 Canon Inc Image input apparatus, subject detecting method, and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016057409A (en) * 2014-09-08 2016-04-21 キヤノン株式会社 Imaging device and control method of imaging device
US9615019B2 (en) 2014-09-08 2017-04-04 Canon Kabushiki Kaisha Image capturing apparatus and control method for image capturing apparatus with particle filter for main object detection and selecting focus detection area based on priority
JP2017040726A (en) * 2015-08-18 2017-02-23 キヤノン株式会社 Imaging device and control method of the same
JP2020003740A (en) * 2018-06-29 2020-01-09 キヤノン株式会社 Image capturing device and control method therefor
EP3723358A1 (en) * 2019-04-10 2020-10-14 Canon Kabushiki Kaisha Image processing apparatus, control method thereof, and program
CN111818255A (en) * 2019-04-10 2020-10-23 佳能株式会社 Image processing apparatus and control method thereof
US11595562B2 (en) 2019-04-10 2023-02-28 Canon Kabushiki Kaisha Image processing apparatus, control method thereof, and storage medium
JP2020198561A (en) * 2019-06-04 2020-12-10 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Control device, camera device, camera system, control method and program

Also Published As

Publication number Publication date
JP5879736B2 (en) 2016-03-08

Similar Documents

Publication Publication Date Title
JP4872834B2 (en) Image recognition device, focus adjustment device, and imaging device
JP5157256B2 (en) Image tracking device and imaging device
JP4720673B2 (en) Subject tracking device and camera
JP6489817B2 (en) Imaging apparatus and control method thereof
JP5056168B2 (en) Focus adjustment device and imaging device
JP5879736B2 (en) Image tracking device and imaging device
JP6825203B2 (en) Imaging controller and camera
JP5403111B2 (en) Image tracking device
JP5056136B2 (en) Image tracking device
JP2011107501A (en) Focusing device and imaging apparatus
JP5871196B2 (en) Focus adjustment device and imaging device
JP4985155B2 (en) Focus adjustment device and imaging device
JP6624789B2 (en) Focus control device, control method thereof, control program, and imaging device
JP2018004904A (en) Subject tracking device and imaging device
JP5776155B2 (en) Focus detection apparatus and photographing apparatus
JP5447579B2 (en) Tracking device, focus adjustment device, and photographing device
JP5541396B2 (en) Image tracking device
JP5789937B2 (en) Image tracking device and imaging device
JP5176845B2 (en) Image tracking device and imaging device
JP5233646B2 (en) Image tracking device, imaging device, and image tracking method
JP2010054586A (en) Focusing device and imaging apparatus
JP2010113130A (en) Focus detecting device, imaging apparatus, focus detecting method
JP5476947B2 (en) TRACKING DEVICE, FOCUS ADJUSTMENT DEVICE, AND IMAGING DEVICE
JP5347834B2 (en) Image tracking device
JP5772933B2 (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140402

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160118

R150 Certificate of patent or registration of utility model

Ref document number: 5879736

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250