JP2012063455A - Image tracking device and imaging apparatus - Google Patents

Image tracking device and imaging apparatus Download PDF

Info

Publication number
JP2012063455A
JP2012063455A JP2010206050A JP2010206050A JP2012063455A JP 2012063455 A JP2012063455 A JP 2012063455A JP 2010206050 A JP2010206050 A JP 2010206050A JP 2010206050 A JP2010206050 A JP 2010206050A JP 2012063455 A JP2012063455 A JP 2012063455A
Authority
JP
Japan
Prior art keywords
area
tracking
similarity
template
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010206050A
Other languages
Japanese (ja)
Other versions
JP5789937B2 (en
Inventor
Naoyuki Onishi
直之 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010206050A priority Critical patent/JP5789937B2/en
Publication of JP2012063455A publication Critical patent/JP2012063455A/en
Application granted granted Critical
Publication of JP5789937B2 publication Critical patent/JP5789937B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image tracking device with less erroneous tracking.SOLUTION: The image tracking device 30 according to the present invention includes: a storage section for storing, as a template, a subject area A including a present focus area a1 where auto-focus is being carried out; a first search means for searching for a first area Bn with high similarity to the template in a first search range n including the present focus area a1; a second search means for searching for a second area Bw with high similarity to the template within a second search range w wider than the first search range n; and an area determination means for comparing the first area Bn and second area Bw with the template, thereby obtaining the degree of similarity to the corresponding template, giving preference to the area with higher degree of similarity over the other when one of the first and second areas Bn and Bw is higher than the other in the degree of similarity or giving priority to the first area Bn if they are equal in the degree of similarity, thereby determining the subsequent focus area a1 where the subsequent auto-focus is carried out.

Description

本発明は、画像追尾装置及び撮像装置に関するものである。   The present invention relates to an image tracking device and an imaging device.

撮影した画像内において、追尾対象の被写体を囲む領域を決定し、その領域の色情報をテンプレート画像として記憶するとともに、テンプレート画像に類似していると判断された複数の領域から1つの追尾領域を決定する画像追尾装置がある(例えば、特許文献1参照)。   In the photographed image, an area surrounding the subject to be tracked is determined, color information of the area is stored as a template image, and one tracking area is selected from a plurality of areas determined to be similar to the template image. There is an image tracking device to be determined (see, for example, Patent Document 1).

特開2008−187331号公報JP 2008-187331 A

しかし、色情報が類似している被写体が画面内に複数存在する場合は、上記の決定方法では誤追尾を発生しやすくなる。   However, when there are a plurality of subjects with similar color information on the screen, the above-described determination method tends to cause erroneous tracking.

本発明の課題は、誤追尾の少ない画像追尾装置及び撮像装置を提供することである。   An object of the present invention is to provide an image tracking device and an imaging device with less false tracking.

本発明は、以下のような解決手段により前記課題を解決する。なお、理解を容易にするために、本発明の実施形態に対応する符号を付して説明するが、これに限定されるものではない。   The present invention solves the above problems by the following means. In addition, in order to make an understanding easy, although the code | symbol corresponding to embodiment of this invention is attached | subjected and demonstrated, it is not limited to this.

請求項1に記載の発明は、オートフォーカスが行われている現フォーカスエリア(a1)を含む被写体領域(A)をテンプレートとして記憶する記憶部と、前記現フォーカスエリア(a1)を含む第1の探索範囲(n)内において、前記テンプレートと類似性の高い第1領域(Bn)を探索する第1探索手段と、前記第1の探索範囲(n)より広い第2の探索範囲(w)内において、前記テンプレートと類似性の高い第2領域(Bw)を探索する第2探索手段と、前記第1領域(Bn)及び前記第2領域(Bw)を、前記テンプレートと比較してそれぞれの前記テンプレートに対する類似度合いを求め、前記第1領域(Bn)及び前記第2領域(Bw)のうちの一方の類似度合いが高い場合、類似度合いが高い方の領域を優先し、前記類似度合いが同程度の場合は、前記第1領域(Bn)を優先し、次にオートフォーカスを行う次フォーカスエリア(a1)を決定するエリア決定手段と、を備えたことを特徴とする画像追尾装置(30)である。
請求項2に記載の発明は、請求項1に記載の画像追尾装置(30)において、前記第1の探索範囲(n)の設定は、前記第1領域(Bn)あるいは前記第2領域(Bw)のオートフォーカスエリア(a1)から次フォーカスエリア(a1)が決定された場合は、そのオートフォーカスエリア(a1)の周辺に前記第1の探索領域を設定することを特徴とする画像追尾装置(30)である。
請求項3に記載の発明は、請求項1または2に記載の画像追尾装置(30)において、前記探索範囲の設定は、前記第1領域(Bn)あるいは前記第2領域(Bw)のオートフォーカスエリア(a1)から次フォーカスエリア(a1)が決定された場合は、前記第1の探索領域を変更しないことを特徴とする画像追尾装置(30)である。
請求項4に記載の発明は、請求項1から3のいずれか1項に記載の画像追尾装置(30)を備える撮像装置(1)である。
なお、符号を付して説明した構成は、適宜改良してもよく、また、少なくとも一部を他の構成物に代替してもよい。
According to the first aspect of the present invention, a storage unit that stores a subject area (A) including the current focus area (a1) on which autofocus is performed as a template, and a first including the current focus area (a1). In the search range (n), a first search means for searching for a first region (Bn) having a high similarity to the template, and a second search range (w) wider than the first search range (n) The second search means for searching for a second region (Bw) having a high similarity to the template, and comparing the first region (Bn) and the second region (Bw) with each of the templates. The degree of similarity with respect to the template is obtained, and when one of the first area (Bn) and the second area (Bw) has a high degree of similarity, the area with the higher degree of similarity is prioritized, and the degree of similarity However, in the case of the same level, the image tracking apparatus includes an area determining unit that prioritizes the first area (Bn) and determines a next focus area (a1) to be auto-focused next. (30).
According to a second aspect of the present invention, in the image tracking device (30) according to the first aspect, the first search range (n) is set in the first region (Bn) or the second region (Bw). ), When the next focus area (a1) is determined from the autofocus area (a1), the first search area is set around the autofocus area (a1). 30).
According to a third aspect of the present invention, in the image tracking device (30) according to the first or second aspect, the search range is set by autofocusing the first area (Bn) or the second area (Bw). The image tracking device (30) is characterized in that when the next focus area (a1) is determined from the area (a1), the first search area is not changed.
Invention of Claim 4 is an imaging device (1) provided with the image tracking device (30) of any one of Claim 1 to 3.
Note that the configuration described with reference numerals may be modified as appropriate, and at least a part of the configuration may be replaced with another component.

本発明によれば、誤追尾の少ない画像追尾装置及び撮像装置を提供することができる。   According to the present invention, it is possible to provide an image tracking device and an imaging device with less false tracking.

本発明に係る焦点検出装置の一実施形態を適用したカメラの概念構成図である。It is a conceptual block diagram of the camera to which one Embodiment of the focus detection apparatus which concerns on this invention is applied. 撮影光学系の撮影画面内に設定されたAFエリアを示す図である。It is a figure which shows AF area set in the imaging | photography screen of an imaging optical system. 本実施形態のAF処理を示すフローチャートである。It is a flowchart which shows the AF process of this embodiment. 図3のS103における追尾制御部の初回追尾制御を示すフローチャートである。It is a flowchart which shows the initial tracking control of the tracking control part in S103 of FIG. 追尾制御部が被写体を追尾する方法を説明する図である。It is a figure explaining the method in which a tracking control part tracks a to-be-photographed object. 図3のS104の追尾演算処理を示すフローチャートである。It is a flowchart which shows the tracking calculation process of S104 of FIG. 図3のS109のエリア決定処理を示すフローチャートである。It is a flowchart which shows the area determination process of S109 of FIG.

以下、図面等を参照して、本発明の実施形態について説明する。
図1は、本発明に係る焦点検出装置の一実施形態を適用したカメラ1の概念構成図である。
本実施形態のカメラ1は、カメラ本体10と、当該カメラ本体10に着脱可能な撮像レンズ20と、によって構成された、いわゆるデジタル一眼レフカメラである。
撮像レンズ20は、鏡筒21の内部に、結像光学系を構成する複数のレンズ群L1,L2,L3と、レンズ駆動用モータ22と、を備えている。レンズ群L2は、光軸OA方向に移動して結像位置を調節可能な焦点調節レンズであって、レンズ駆動用モータ22によって焦点調節移動駆動されるようになっている。レンズ駆動用モータ22は、後述するカメラ本体10が備える制御装置30によって制御される。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a conceptual configuration diagram of a camera 1 to which an embodiment of a focus detection apparatus according to the present invention is applied.
The camera 1 according to the present embodiment is a so-called digital single-lens reflex camera that includes a camera body 10 and an imaging lens 20 that can be attached to and detached from the camera body 10.
The imaging lens 20 includes a plurality of lens groups L1, L2, and L3 that form an imaging optical system, and a lens driving motor 22 inside the lens barrel 21. The lens unit L2 is a focus adjustment lens that can move in the direction of the optical axis OA and adjust the image formation position, and is driven to move the focus by the lens driving motor 22. The lens driving motor 22 is controlled by a control device 30 provided in the camera body 10 described later.

カメラ本体10は、撮像素子11と、クイックリターンミラー12Aと、サブミラー12Bと、ファインダー光学系13と、測光部14と、位相差AF検出部15と、操作部材16と、制御装置30と、を備えている。   The camera body 10 includes an image sensor 11, a quick return mirror 12A, a sub mirror 12B, a finder optical system 13, a photometry unit 14, a phase difference AF detection unit 15, an operation member 16, and a control device 30. I have.

撮像素子11は、被写体光を電気信号に変換するCCDやCMOS等の光電変換素子であって、赤(R)、緑(G)および青(B)の各画素が所定の配列パターンで配列されている。撮像素子11は、撮像レンズ20の結像光学系による結像面の画像情報を電気信号に変換して撮像し、各画素に対応する色情報や輝度情報に応じた画像信号を制御装置30に出力する。   The imaging element 11 is a photoelectric conversion element such as a CCD or CMOS that converts subject light into an electrical signal, and each pixel of red (R), green (G), and blue (B) is arranged in a predetermined arrangement pattern. ing. The imaging device 11 converts the image information of the imaging surface by the imaging optical system of the imaging lens 20 into an electrical signal and images it, and sends an image signal corresponding to color information and luminance information corresponding to each pixel to the control device 30. Output.

クイックリターンミラー12Aは、撮像レンズ20の結像光学系から撮像素子11に至る光路中に介在する作用位置と、光路中に介在しない退避位置との間を移動可能に設けられている。クイックリターンミラー12Aは、作用位置において、入射光束をファインダー光学系13(ファインダースクリーン13A)へと反射する。また、クイックリターンミラー12Aの一部には、入射光束の一部を透過する半透過領域が形成されている。   The quick return mirror 12A is provided so as to be movable between an action position interposed in the optical path from the imaging optical system of the imaging lens 20 to the image sensor 11 and a retracted position not interposed in the optical path. The quick return mirror 12A reflects the incident light beam to the finder optical system 13 (finder screen 13A) at the operating position. In addition, a semi-transmission region that transmits part of the incident light beam is formed in part of the quick return mirror 12A.

サブミラー12Bは、クイックリターンミラー12Aの背面側に設けられている。サブミラー12Bは、クイックリターンミラー12Aの半透過領域を透過した入射光束を位相差AF検出部15に向けて反射させる。   The sub mirror 12B is provided on the back side of the quick return mirror 12A. The sub mirror 12 </ b> B reflects the incident light beam transmitted through the semi-transmissive region of the quick return mirror 12 </ b> A toward the phase difference AF detection unit 15.

ファインダー光学系13は、ファインダースクリーン13Aと、ペンタプリズム13Bと、接眼レンズ13Cと、により構成されている。
ファインダースクリーン13Aは、撮像素子11と光学的に等価な位置に設けられており、クイックリターンミラー12Aによって導かれた入射光束が結像する。ペンタプリズム13Bおよび接眼レンズ13Cは、このファインダースクリーン13A上に結像した被写体像を、正立像として撮影者が視認し得るようになっている。
The finder optical system 13 includes a finder screen 13A, a pentaprism 13B, and an eyepiece lens 13C.
The finder screen 13A is provided at a position optically equivalent to the image sensor 11, and an incident light beam guided by the quick return mirror 12A forms an image. The pentaprism 13B and the eyepiece 13C are configured so that the photographer can visually recognize the subject image formed on the finder screen 13A as an erect image.

測光部14は、測光用レンズ14Aと、測光センサ14Bとを備えている。
測光用レンズ14Aは、ペンタプリズム13Bを介したファインダースクリーン13Aに結像した被写体像を測光センサ14Bに導く。
測光センサ14Bは、撮像素子11と同様に、赤(R)、緑(G)および青(B)の各画素が所定の配列パターンで配列されており、レンズ光学系により結像される結像面の画像情報を撮像する。
そして測光センサ14Bは、各画素に対応する色情報や輝度情報に応じた測光信号を制御装置30へ出力する。制御装置30は、測光センサ14Bからの測光信号に基づいて結像面の明るさを検出し、露出を決定する。また、制御装置30は、測光センサ14Bからの測光信号に基づいて、後述の追尾制御部36により追尾制御を行う。
The photometric unit 14 includes a photometric lens 14A and a photometric sensor 14B.
The photometric lens 14A guides the subject image formed on the finder screen 13A via the pentaprism 13B to the photometric sensor 14B.
Similar to the image sensor 11, the photometric sensor 14B has red (R), green (G), and blue (B) pixels arranged in a predetermined arrangement pattern, and is imaged by a lens optical system. The image information of the surface is captured.
Then, the photometric sensor 14B outputs a photometric signal corresponding to the color information and luminance information corresponding to each pixel to the control device 30. The control device 30 detects the brightness of the imaging surface based on the photometric signal from the photometric sensor 14B and determines the exposure. Moreover, the control apparatus 30 performs tracking control by the tracking control part 36 mentioned later based on the photometry signal from the photometry sensor 14B.

操作部材16は、カメラ1の操作を行うための図示しない各種スイッチ類によって構成される。たとえば、カメラ1の動作モードを選択するためのモード選択スイッチ、AF(オートフォーカス)エリアを選択するためのエリア選択スイッチ、焦点調節(AF)の開始および撮影を指示するためのレリーズボタンなどが含まれる。   The operation member 16 is configured by various switches (not shown) for operating the camera 1. For example, a mode selection switch for selecting the operation mode of the camera 1, an area selection switch for selecting an AF (autofocus) area, a release button for instructing start of focus adjustment (AF) and photographing, etc. are included. It is.

図2は、撮影光学系の撮影画面17内に設定されたAFエリアaを示す図である。位相差AF検出部15は、撮像領域17の所定位置に、本実施形態では51点のAFエリア(焦点検出エリア、測距点)が設けられている。   FIG. 2 is a diagram showing the AF area a set in the photographing screen 17 of the photographing optical system. In the present embodiment, the phase difference AF detection unit 15 is provided with 51 AF areas (focus detection areas, ranging points) at predetermined positions in the imaging region 17.

また、位相差AF検出部15は、AFエリアの列に対応して配置されたラインセンサを有している。ラインセンサは、一対の電荷蓄積型光電変換素子アレイ(CCDラインセンサ等)である。撮像レンズ20の異なる領域を通過して2つに分けられた(一対の)光束が、集光レンズによって集光され、一対の被写体像がラインセンサに再結像される。そして、ラインセンサSは、一対の被写体像に対して、設定された時間、電荷の蓄積を行って、一対の被写体像の輝度分布に対応したAF用像検知信号を、後述する制御装置30に出力する。このラインセンサの電荷蓄積時間は、後述する制御装置30におけるAF−CCD制御部31によって制御される。   Further, the phase difference AF detection unit 15 includes a line sensor arranged corresponding to the AF area column. The line sensor is a pair of charge storage type photoelectric conversion element arrays (CCD line sensor or the like). A pair of light beams that have been divided into two by passing through different areas of the imaging lens 20 are condensed by the condenser lens, and a pair of subject images are re-imaged on the line sensor. The line sensor S accumulates charges for a set time for the pair of subject images, and sends an AF image detection signal corresponding to the luminance distribution of the pair of subject images to the control device 30 described later. Output. The charge accumulation time of the line sensor is controlled by an AF-CCD control unit 31 in the control device 30 described later.

制御装置30は、CPUやメモリ等によって構成されており、当該カメラ1の動作制御を行う。また、これらの処理や制御において必要な情報を一時的に記憶する。
上述したように、制御装置30は、測光センサ14Bからの測光信号に基づいて結像面の明るさを検出し、露出を決定する。
The control device 30 is configured by a CPU, a memory, and the like, and performs operation control of the camera 1. Further, information necessary for these processes and controls is temporarily stored.
As described above, the control device 30 detects the brightness of the imaging surface based on the photometric signal from the photometric sensor 14B and determines the exposure.

さらに制御装置30は、焦点調節(AF)に関連する機能部として、図1中に示すように、AF−CCD制御部31と、デフォーカス演算部32と、フォーカスエリア位置決定部33と、レンズ駆動量演算部34と、レンズ駆動制御部35と、追尾制御部36と、を備えている。   Further, as shown in FIG. 1, the control device 30 includes an AF-CCD control unit 31, a defocus calculation unit 32, a focus area position determination unit 33, and a lens as functional units related to focus adjustment (AF). A drive amount calculation unit 34, a lens drive control unit 35, and a tracking control unit 36 are provided.

AF−CCD制御部31は、位相差AF検出部15に設けられたラインセンサSからAF用像検知信号を読み出し、デフォーカス演算部32へ出力する。   The AF-CCD control unit 31 reads an AF image detection signal from the line sensor S provided in the phase difference AF detection unit 15 and outputs the AF image detection signal to the defocus calculation unit 32.

追尾制御部36は、測光センサ14Bにより撮像した被写界像の内、撮影者が手動で指定した追尾対象位置、あるいはカメラ1が自動で設定した追尾対象位置に対応する画像をテンプレート画像(基準画像)として図示しないメモリに記憶させる。その後に繰り返し撮影される画像の中から、テンプレート画像と一致または類似する画像領域を検索することによって合焦目標対象の位置を認識する。   The tracking control unit 36 uses a template image (reference) as an image corresponding to the tracking target position manually designated by the photographer or the tracking target position automatically set by the camera 1 in the object scene image captured by the photometric sensor 14B. (Image) is stored in a memory (not shown). The position of the in-focus target object is recognized by searching an image area that matches or is similar to the template image from images that are repeatedly photographed thereafter.

デフォーカス演算部32は、追尾制御部36によって認識された目標対象の位置する画像領域などに対して、AF−CCD制御部31によって読み出されたラインセンサSのAF用像検知信号に基づいて、撮像レンズ20の焦点調節状態(ピントのずれ量)を表すデフォーカス量を算出する。   The defocus calculation unit 32 is based on the AF image detection signal of the line sensor S read out by the AF-CCD control unit 31 with respect to the image area where the target target is recognized by the tracking control unit 36. Then, a defocus amount representing a focus adjustment state (a focus shift amount) of the imaging lens 20 is calculated.

フォーカスエリア位置決定部33は、デフォーカス演算部32によって算出されたデフォーカス量に基づいて、撮像レンズ20を最終的に合焦させるAFエリアを決定する。   The focus area position determination unit 33 determines an AF area where the imaging lens 20 is finally focused based on the defocus amount calculated by the defocus calculation unit 32.

レンズ駆動量演算部34は、使用者によって、または、フォーカスエリア位置決定部33によって決定されたAFエリアに対応して、デフォーカス演算部32によって算出されたデフォーカス量に基づいて、撮像レンズ20が有する焦点調節レンズ(レンズ群L2)の駆動量を演算する。
ここでは、焦点調節レンズ(レンズ群L2)の駆動位置の目標となるレンズ目標位置を演算することにより、レンズ駆動量の演算を行う。なお、レンズ目標位置は、デフォーカス量がほぼ0となる焦点調節レンズ(レンズ群L2)の位置に相当する。
The lens driving amount calculation unit 34 is based on the defocus amount calculated by the defocus calculation unit 32 corresponding to the AF area determined by the user or the focus area position determination unit 33. The driving amount of the focus adjustment lens (lens group L2) of the lens is calculated.
Here, the lens drive amount is calculated by calculating the lens target position that is the target of the drive position of the focus adjustment lens (lens group L2). The lens target position corresponds to the position of the focus adjustment lens (lens group L2) where the defocus amount is almost zero.

レンズ駆動制御部35は、レンズ駆動量演算部34によって演算されたレンズ駆動量、すなわち焦点調節レンズ(レンズ群L2)に対するレンズ目標位置に基づいて、撮像レンズ20のレンズ駆動用モータ22へ駆動制御信号を出力する。この駆動制御信号に応じて、レンズ駆動用モータ22が焦点調節レンズ(レンズ群L2)を駆動して、レンズ目標位置へ移動させることにより、焦点調節を行う。   The lens drive control unit 35 controls the driving of the lens drive motor 22 of the imaging lens 20 based on the lens drive amount calculated by the lens drive amount calculation unit 34, that is, the lens target position with respect to the focus adjustment lens (lens group L2). Output a signal. In response to this drive control signal, the lens drive motor 22 drives the focus adjustment lens (lens group L2) and moves it to the lens target position, thereby performing focus adjustment.

上記のように構成されたカメラ1は、制御装置30により制御され、下記のフローチャートに従い、AFおよび撮影を行う。
図3は、本実施形態のAF処理を示すフローチャートである。
まず、制御装置30は、S101においてレリーズボタン(操作部材)16の操作によりスイッチ(SW)ONされているかどうか判定する。SWは、カメラ1の半押し開始に相当し、OFFからONになるときにAF動作が開始されるものとする。
The camera 1 configured as described above is controlled by the control device 30 and performs AF and photographing according to the following flowchart.
FIG. 3 is a flowchart showing the AF processing of the present embodiment.
First, the control device 30 determines whether or not the switch (SW) is turned on by operating the release button (operation member) 16 in S101. SW corresponds to the half-press start of the camera 1, and the AF operation is started when the camera 1 is switched from OFF to ON.

S101がYESの場合、S102において、制御装置30は、AF動作が初回AF動作であるかどうかを判定する。すなわち、SWがOFFからONに切り替わった直後でAFの演算結果が何も出力されていない段階は、初回AF動作となる。
初回AF動作の場合(S102,YES)、S103へ進み、S103で制御装置30は、追尾制御部36により初回追尾制御を行う。初回追尾制御の詳細は後述の図4に示すフローチャートで説明する。
S102,NOで進むS104は、AF動作開始後で既に追尾制御も行われている場合である。制御装置30は、追尾制御部36により追尾演算のサブルーチンを行う。追尾演算のサブルーチンは後述の図6に示すフローチャートで説明する。
When S101 is YES, in S102, the control device 30 determines whether or not the AF operation is a first AF operation. That is, immediately after the SW is switched from OFF to ON, the stage where no AF calculation result is output is the first AF operation.
In the case of the first AF operation (S102, YES), the process proceeds to S103, and the control device 30 performs the first tracking control by the tracking control unit 36 in S103. Details of the initial tracking control will be described with reference to a flowchart shown in FIG.
S104, which proceeds in S102 and NO, is a case where tracking control is already performed after the AF operation is started. The control device 30 performs a tracking calculation subroutine by the tracking control unit 36. The tracking calculation subroutine will be described with reference to the flowchart shown in FIG.

S103及びS104の後進むS105において制御装置30は、AF−CCD制御部31より指示し、位相差AF検出部15(ラインセンサ)に蓄積制御を行わせる。なお、S102〜S104の動作と並行して本処理を行っても良い。
S106において制御装置30は、AF−CCD制御部31により位相差AF検出部15(ラインセンサ)で蓄積した電荷のA/D変換を行い、信号を読み出す。
In S105 following S103 and S104, the control device 30 instructs the AF-CCD control unit 31 to cause the phase difference AF detection unit 15 (line sensor) to perform accumulation control. Note that this processing may be performed in parallel with the operations of S102 to S104.
In S <b> 106, the control device 30 performs A / D conversion of the charge accumulated in the phase difference AF detection unit 15 (line sensor) by the AF-CCD control unit 31 and reads a signal.

S107において制御装置30は、読み出した電荷信号から相関演算により像ズレ量を求め、デフォーカス演算部32によりデフォーカス量を算出する。
S108において、制御装置30は、所定エリア数のデフォーカス量の演算が終了したかどうかを判定する。ここでいう所定数は、追尾の領域に相当するAFエリア数とする。位相差AF検出部15が備え持つ全てのエリアが高速に演算可能であれば全てのAFエリアの演算を行ってもよい。
In step S <b> 107, the control device 30 obtains an image shift amount by correlation calculation from the read charge signal, and the defocus calculation unit 32 calculates the defocus amount.
In S108, the control device 30 determines whether or not the calculation of the defocus amount for the predetermined number of areas has been completed. The predetermined number here is the number of AF areas corresponding to the tracking area. If all the areas included in the phase difference AF detection unit 15 can be calculated at high speed, all the AF areas may be calculated.

S108、YESの場合S109において、制御装置30は、フォーカスエリア位置決定部33によりエリア決定処理のサブルーチンを行う。詳細は、後述の図7に示すフローチャートで説明する。
S110において、決定された採用エリアのデフォーカス量に基づいて制御装置30は、レンズ駆動量演算部34によりレンズ駆動量演算を行う。
S111において、制御部はS110のレンズ駆動量演算の結果に従い、レンズ駆動制御部35によりレンズ駆動用モータ22を駆動し、焦点調節レンズ(レンズ群L2)をレンズ目標位置へ移動させることにより、焦点調節を行う。
In the case of S108, YES, in S109, the control device 30 performs a subroutine of area determination processing by the focus area position determination unit 33. Details will be described with reference to a flowchart shown in FIG.
In S <b> 110, the control device 30 performs lens drive amount calculation by the lens drive amount calculation unit 34 based on the determined defocus amount of the adopted area.
In S111, the control unit drives the lens drive motor 22 by the lens drive control unit 35 according to the result of the lens drive amount calculation in S110, and moves the focus adjustment lens (lens group L2) to the lens target position, thereby focusing. Make adjustments.

図4は、図3のS102における追尾制御部36の初回追尾制御を示すフローチャートである。図5は、追尾制御部36が被写体を追尾する方法を説明する図である。   FIG. 4 is a flowchart showing the initial tracking control of the tracking control unit 36 in S102 of FIG. FIG. 5 is a diagram illustrating a method in which the tracking control unit 36 tracks a subject.

S201において、追尾初期画像中のAFエリア(図5に示すAFエリアa1)に対応する領域の画像の被写体の色情報を記憶する。
S202において、追尾初期画像中のAFエリアa1の周辺部で、AFエリアa1の色情報と同様な色情報を示す領域を検出する。
S203において、検出した領域を初期の被写体領域Aとする。
S204において、その被写体領域Aの色情報を以降の追尾処理に用いるテンプレート画像としてメモリに記憶する。
S205において被写体領域Aを所定画素ずつ拡大した領域を探索範囲に設定する。ここで、探索範囲は狭い探索範囲n、及び狭い探索範囲nより広い探索範囲wの2種類設定されるものとする。
In S201, the subject color information of the image in the area corresponding to the AF area (AF area a1 shown in FIG. 5) in the tracking initial image is stored.
In S202, an area indicating color information similar to the color information of the AF area a1 is detected in the periphery of the AF area a1 in the initial tracking image.
In S203, the detected area is set as an initial subject area A.
In S204, the color information of the subject area A is stored in the memory as a template image used for the subsequent tracking process.
In S205, an area obtained by enlarging the subject area A by predetermined pixels is set as a search range. Here, it is assumed that two types of search ranges are set, a narrow search range n and a search range w wider than the narrow search range n.

図6は、図3のS104の追尾演算処理を示すフローチャートである。
S301において、探索範囲n及び探索範囲wからテンプレート画像の被写体領域Aと同じサイズの領域を順次切り出し、切り出した画像とテンプレート画像とを対比し、画素ごとに色情報の差分を演算する。
S302において色情報の差分が最も小さい領域Bを探索し、その領域を新しい追尾領域に決定する。ここで、新しい追尾被写体領域の画像情報を用いてテンプレート画像の画像情報を更新しても良い。
本実施形態では、色情報の差分が最も小さい領域B、つまりテンプレート画像に対して類似性が高い領域について、狭い探索範囲nおよび広い探索範囲wからそれぞれ、図4に示すように、追尾領域Bn、追尾領域Bwを決定している。
FIG. 6 is a flowchart showing the tracking calculation process in S104 of FIG.
In step S301, a region having the same size as the subject region A of the template image is sequentially cut out from the search range n and the search range w, the cut-out image and the template image are compared, and a difference in color information is calculated for each pixel.
In S302, the area B having the smallest color information difference is searched, and that area is determined as a new tracking area. Here, the image information of the template image may be updated using the image information of the new tracking subject area.
In the present embodiment, as shown in FIG. 4, the tracking region Bn for the region B having the smallest color information difference, that is, the region having high similarity to the template image, from the narrow search range n and the wide search range w, respectively. The tracking area Bw is determined.

S303において、新しい追尾領域の周辺の所定画素ずつ拡大した領域を新しい探索範囲とする。S302で複数の新しい追尾領域が出力された場合は、それぞれに探索範囲を設定するものとする。   In S303, an area enlarged by predetermined pixels around the new tracking area is set as a new search range. When a plurality of new tracking areas are output in S302, a search range is set for each.

図7は、図3のS109のエリア決定処理を示すフローチャートである。
S401において、狭い探索範囲nと広い探索範囲wにおいてそれぞれ決定された追尾領域Bnと追尾領域Bwの類似性があるかどうかを判定する。どちらかの追尾領域で類似性があれば類似性ありとする(S401,YES)。この類似性は、実数を閾値で分けてもよいし、閾値をある範囲毎に分割して、類似性ありの度合いを示したものでもよい。
FIG. 7 is a flowchart showing the area determination process in S109 of FIG.
In S401, it is determined whether there is similarity between the tracking area Bn and the tracking area Bw determined in the narrow search range n and the wide search range w, respectively. If there is similarity in one of the tracking areas, it is determined that there is similarity (S401, YES). For this similarity, the real number may be divided by a threshold value, or the threshold value may be divided for each range to indicate the degree of similarity.

類似性ありの場合(S401,YES)へ進み、S402において、それぞれの追尾領域Bn,Bwの類似性bn,bwを比較して、追尾領域Bnの類似性bnが追尾領域Bwの類似性bw以上か否かを判定する。追尾領域Bnの類似性bnが追尾領域Bwの類似性bw以上の場合(S402,YES)、S403に進む。
S403において、追尾領域Bnに相当するAFエリアの中から焦点調節に用いるエリアを決定する判定を行う。すなわち、追尾領域Bnに相当するAFエリアの中から、前回のフォーカス状態から所定の閾値を満たし、かつ、デフォーカス量が最小となるエリアを探索する。
このように、本実施形態では、追尾領域Bnの類似性bnと追尾領域Bwの類似性bwとが同程度の場合、狭い探索範囲nにおける追尾領域Bnが優先されてAFエリアが探索される。
When there is similarity (S401, YES), the similarities bn and bw of the tracking areas Bn and Bw are compared in S402, and the similarity bn of the tracking area Bn is equal to or greater than the similarity bw of the tracking area Bw. It is determined whether or not. When the similarity bn of the tracking area Bn is greater than or equal to the similarity bw of the tracking area Bw (S402, YES), the process proceeds to S403.
In S403, a determination is made to determine an area to be used for focus adjustment from the AF area corresponding to the tracking area Bn. That is, the AF area corresponding to the tracking area Bn is searched for an area that satisfies a predetermined threshold from the previous focus state and has a minimum defocus amount.
As described above, in this embodiment, when the similarity bn of the tracking area Bn and the similarity bw of the tracking area Bw are approximately the same, the tracking area Bn in the narrow search range n is preferentially searched for the AF area.

S404において、採用エリアが決定したか否かを判定する。
S404で採用エリアが決定されなかった場合(S404,NO)、S405において、追尾領域Bwに相当するAFエリアの中から焦点調節に用いるエリアを決定する判定を行う。追尾領域Bwに相当するAFエリアのデフォーカス量から、前回のフォーカス状態から所定の閾値を満たし、かつ、デフォーカス量が最小となるエリアを探索する。そして、S406において、採用エリアが決定したか否かを判定する。
In S404, it is determined whether or not an employment area has been determined.
When the adopted area is not determined in S404 (S404, NO), in S405, a determination is made to determine an area used for focus adjustment from the AF areas corresponding to the tracking area Bw. From the defocus amount of the AF area corresponding to the tracking area Bw, an area that satisfies a predetermined threshold from the previous focus state and has the minimum defocus amount is searched. In step S406, it is determined whether or not an employment area has been determined.

S406において採用エリアが決定されなかった場合(S406,NO)、またはS401において追尾領域Bn及び追尾領域Bwのテンプレートに対する類似性がないと判定された場合、S407において追尾領域Bn,Bw以外のAFエリアの採用判定を行う。S406より進み、すなわち追尾領域の判定を行った場合には、本処理は予備的に実施してもよい。例えば、連写中で演算時間が足りない場合などは、省略してもよい。   If the adopted area is not determined in S406 (S406, NO), or if it is determined in S401 that there is no similarity to the template of the tracking area Bn and the tracking area Bw, an AF area other than the tracking areas Bn and Bw is determined in S407. Make a hiring decision. If the process proceeds from S406, that is, if the tracking area is determined, this process may be performed in a preliminary manner. For example, it may be omitted if the calculation time is insufficient during continuous shooting.

S408において、採用エリアが決定したか否かを判定する。S408において採用AFエリアが決定しなかった場合、S409において採用AFエリアは前回採用AFエリアとする。採用エリアは必ずしも前回採用AFエリアとする必要性はなく、未定としてもよいし、残りのAFエリアから再度採用AFエリアを決める処理を行っても良い。   In S408, it is determined whether or not an employment area has been determined. If the adopted AF area is not determined in S408, the adopted AF area is set as the previous adopted AF area in S409. The adopted area does not necessarily have to be the previous adopted AF area and may be undecided, or a process of determining the adopted AF area again from the remaining AF areas may be performed.

S409が終了後、またS404,S406,S408でYESの場合S410において、複数の追尾領域のうち、採用AFエリアとなったAFエリアの情報を追尾機能へ出力する。情報は、AFエリアの位置やどの判定を通過して採用AFエリアが決定したか、などである。これは追尾機能が次回の基準とする追尾領域を複数ある中から選択するのに用いたり、探索範囲をどのエリアを基準に設定させたりするかを判断するために参照する目的で使用される。   After S409 is completed and if YES in S404, S406, and S408, in S410, information on the AF area that is the adopted AF area among the plurality of tracking areas is output to the tracking function. The information includes the position of the AF area, which determination has passed and the adopted AF area has been determined. This is used for the purpose of referring to the tracking function to select from a plurality of tracking areas to be used as the next reference, or to determine which area the search range is set as a reference.

例えば、探索範囲においては、S403やS405の追尾領域のAFエリアから採用AFエリアが決定された場合は、採用AFエリアの周辺に探索範囲を設定し、S407で追尾領域以外のAFエリアから採用AFエリアが決定された場合は、探索範囲を前回から変更しない、等の判定を行う。   For example, in the search range, when the adopted AF area is determined from the AF area of the tracking area in S403 or S405, the search range is set around the adopted AF area, and the adopted AF is selected from the AF area other than the tracking area in S407. When the area is determined, it is determined that the search range is not changed from the previous time.

S402において追尾領域Bnの類似性bnが追尾領域Bwの類似性bwより小さい場合(S402,NO)、S411に進む。
S411において、追尾領域Bwに相当するAFエリアの中から焦点調節に用いるエリアを決定する判定を行う。すなわち、追尾領域Bwに相当するAFエリアの中から、前回のフォーカス状態から所定の閾値を満たし、かつ、デフォーカス量が最小となるエリアを探索する。
S412において、採用エリアが決定したか否かを判定する。
S412で採用エリアが決定されなかった場合(S412,NO)、S413において、追尾領域Bnに相当するAFエリアの中から焦点調節に用いるエリアを決定する判定を行う。追尾領域Bnに相当するAFエリアのデフォーカス量から、前回のフォーカス状態から所定の閾値を満たし、かつ、デフォーカス量が最小となるエリアを探索する。そして、S414において、採用エリアが決定したか否かを判定する。
When the similarity bn of the tracking area Bn is smaller than the similarity bw of the tracking area Bw in S402 (S402, NO), the process proceeds to S411.
In S411, a determination is made to determine an area used for focus adjustment from the AF area corresponding to the tracking area Bw. That is, the AF area corresponding to the tracking area Bw is searched for an area that satisfies a predetermined threshold from the previous focus state and has a minimum defocus amount.
In S412, it is determined whether or not an employment area has been determined.
If the adopted area is not determined in S412 (S412, NO), in S413, a determination is made to determine an area used for focus adjustment from the AF areas corresponding to the tracking area Bn. From the defocus amount of the AF area corresponding to the tracking region Bn, an area that satisfies a predetermined threshold from the previous focus state and has the smallest defocus amount is searched. In step S414, it is determined whether or not an employment area has been determined.

S414において採用エリアが決定されなかった場合(S414,NO)、S415において追尾領域Bn,Bw以外のAFエリアの採用判定を行う。   When the adoption area is not determined in S414 (S414, NO), adoption determination of AF areas other than the tracking areas Bn and Bw is performed in S415.

S416において、採用エリアが決定したか否かを判定する。S416において採用AFエリアが決定しなかった場合、S417において採用AFエリアは前回採用AFエリアとする。採用エリアは必ずしも前回採用AFエリアとする必要性はなく、未定としてもよいし、残りのAFエリアから再度採用AFエリアを決める処理を行っても良い。S417が終了後、S410へ進む。   In S416, it is determined whether or not an employment area has been determined. If the adopted AF area is not determined in S416, the adopted AF area is set as the previous adopted AF area in S417. The adopted area does not necessarily have to be the previous adopted AF area and may be undecided, or a process of determining the adopted AF area again from the remaining AF areas may be performed. After S417 ends, the process proceeds to S410.

以上、本実施形態によると、以下の効果を有する。
本実施形態では、追尾演算処理において、テンプレート画像を中心として広がる狭い探索範囲と広い探索範囲とにおいて、テンプレート画像と類似性の高い領域を検索する。そして狭い領域で探索された領域を優先させて次回追尾するAFエリアを検索する。これにより、類似する被写体がカメラからの距離が略等しい範囲に広がっている場合、誤追尾が発生しづらくなり、被写体の連続性・捕捉能力を保持しつつ、焦点調節し続けることが可能になる。
As described above, this embodiment has the following effects.
In the present embodiment, in the tracking calculation process, an area having high similarity to the template image is searched for in a narrow search range and a wide search range that are spread around the template image. Then, the AF area to be tracked next time is searched by giving priority to the area searched in the narrow area. As a result, when similar subjects are spread over a range where the distance from the camera is substantially equal, it becomes difficult for false tracking to occur, and it is possible to continue focusing while maintaining the continuity and capturing ability of the subject. .

1:カメラ、30:画像追尾装置、15:位相差AF検出装置、31:AF−CCD制御部、32:デフォーカス演算部、33:フォーカスエリア位置決定部、34:レンズ駆動量演算部、a1:フォーカスエリア、n:狭い探索範囲、w:広い探索範囲、Bn:追尾領域、Bw:追尾領域   1: camera, 30: image tracking device, 15: phase difference AF detection device, 31: AF-CCD control unit, 32: defocus calculation unit, 33: focus area position determination unit, 34: lens drive amount calculation unit, a1 : Focus area, n: narrow search range, w: wide search range, Bn: tracking area, Bw: tracking area

Claims (4)

オートフォーカスが行われている現フォーカスエリアを含む被写体領域をテンプレートとして記憶する記憶部と、
前記現フォーカスエリアを含む第1の探索範囲内において、前記テンプレートと類似性の高い第1領域を探索する第1探索手段と、
前記第1の探索範囲より広い第2の探索範囲内において、前記テンプレートと類似性の高い第2領域を探索する第2探索手段と、
前記第1領域及び前記第2領域を、前記テンプレートと比較してそれぞれの前記テンプレートに対する類似度合いを求め、前記第1領域及び前記第2領域のうちの一方の類似度合いが高い場合、類似度合いが高い方の領域を優先し、前記類似度合いが同程度の場合は、前記第1領域を優先し、次にオートフォーカスを行う次フォーカスエリアを決定するエリア決定手段と、
を備えたことを特徴とする画像追尾装置。
A storage unit for storing, as a template, a subject area including a current focus area where autofocus is performed;
First search means for searching for a first region having high similarity to the template within a first search range including the current focus area;
A second search means for searching for a second region having high similarity to the template within a second search range wider than the first search range;
The first region and the second region are compared with the template to determine the degree of similarity with each template, and when the degree of similarity of one of the first region and the second region is high, the degree of similarity is If the higher area is prioritized and the degree of similarity is the same, area determining means that prioritizes the first area and then determines the next focus area for auto-focusing;
An image tracking apparatus comprising:
請求項1に記載の画像追尾装置において、
前記第1の探索範囲の設定は、前記第1領域あるいは前記第2領域のオートフォーカスエリアから次フォーカスエリアが決定された場合は、そのオートフォーカスエリアの周辺に前記第1の探索領域を設定することを特徴とする画像追尾装置。
The image tracking device according to claim 1,
When the next focus area is determined from the autofocus area of the first area or the second area, the first search area is set around the autofocus area. An image tracking device characterized by that.
請求項1または2に記載の画像追尾装置において、
前記探索範囲の設定は、前記第1領域あるいは前記第2領域のオートフォーカスエリアから次フォーカスエリアが決定された場合は、前記第1の探索領域を変更しないことを特徴とする画像追尾装置。
The image tracking device according to claim 1 or 2,
The image tracking device according to claim 1, wherein the search range is set such that when the next focus area is determined from the autofocus area of the first area or the second area, the first search area is not changed.
請求項1から3のいずれか1項に記載の画像追尾装置を備える撮像装置。   An imaging device comprising the image tracking device according to any one of claims 1 to 3.
JP2010206050A 2010-09-14 2010-09-14 Image tracking device and imaging device Active JP5789937B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010206050A JP5789937B2 (en) 2010-09-14 2010-09-14 Image tracking device and imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010206050A JP5789937B2 (en) 2010-09-14 2010-09-14 Image tracking device and imaging device

Publications (2)

Publication Number Publication Date
JP2012063455A true JP2012063455A (en) 2012-03-29
JP5789937B2 JP5789937B2 (en) 2015-10-07

Family

ID=46059249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010206050A Active JP5789937B2 (en) 2010-09-14 2010-09-14 Image tracking device and imaging device

Country Status (1)

Country Link
JP (1) JP5789937B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09130784A (en) * 1995-08-25 1997-05-16 Matsushita Electric Works Ltd Automatic tracking method and its device
JP2004213648A (en) * 2002-12-19 2004-07-29 Hitachi Kokusai Electric Inc Method and device for tracking object
JP2008113423A (en) * 2006-10-03 2008-05-15 Nikon Corp Tracking device, image-capturing apparatus, and tracking method
JP2009141475A (en) * 2007-12-04 2009-06-25 Nikon Corp Camera
JP2009175442A (en) * 2008-01-24 2009-08-06 Nikon Corp Imaging apparatus
JP2009265239A (en) * 2008-04-23 2009-11-12 Nikon Corp Focus detecting apparatus, focus detection method, and camera

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09130784A (en) * 1995-08-25 1997-05-16 Matsushita Electric Works Ltd Automatic tracking method and its device
JP2004213648A (en) * 2002-12-19 2004-07-29 Hitachi Kokusai Electric Inc Method and device for tracking object
JP2008113423A (en) * 2006-10-03 2008-05-15 Nikon Corp Tracking device, image-capturing apparatus, and tracking method
JP2009141475A (en) * 2007-12-04 2009-06-25 Nikon Corp Camera
JP2009175442A (en) * 2008-01-24 2009-08-06 Nikon Corp Imaging apparatus
JP2009265239A (en) * 2008-04-23 2009-11-12 Nikon Corp Focus detecting apparatus, focus detection method, and camera

Also Published As

Publication number Publication date
JP5789937B2 (en) 2015-10-07

Similar Documents

Publication Publication Date Title
JP5157256B2 (en) Image tracking device and imaging device
JP4872834B2 (en) Image recognition device, focus adjustment device, and imaging device
JP2009015185A (en) Image detection device, focusing device and image pickup apparatus
JP2008046354A (en) Object tracking device and camera
JP4893334B2 (en) Image tracking device and imaging device
JP5056168B2 (en) Focus adjustment device and imaging device
JP6825203B2 (en) Imaging controller and camera
JP5402298B2 (en) Focus detection device and camera
JP5879736B2 (en) Image tracking device and imaging device
JP5403111B2 (en) Image tracking device
JP5056136B2 (en) Image tracking device
JP2011107501A (en) Focusing device and imaging apparatus
JP2009010672A (en) Focus detector and image pickup device
JP5871196B2 (en) Focus adjustment device and imaging device
JP4985155B2 (en) Focus adjustment device and imaging device
JP2008191391A (en) Focusing mechanism, and camera
JP5789937B2 (en) Image tracking device and imaging device
JP5776155B2 (en) Focus detection apparatus and photographing apparatus
JP5447579B2 (en) Tracking device, focus adjustment device, and photographing device
JP5541396B2 (en) Image tracking device
JP2010054586A (en) Focusing device and imaging apparatus
JP4308494B2 (en) Camera, subject image acquisition apparatus, automatic focusing system, and automatic focusing method
JP2010186138A (en) Imaging apparatus
JP5476947B2 (en) TRACKING DEVICE, FOCUS ADJUSTMENT DEVICE, AND IMAGING DEVICE
JP2016114721A (en) Imaging apparatus and method of controlling the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150720

R150 Certificate of patent or registration of utility model

Ref document number: 5789937

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250