JP5541396B2 - Image tracking device - Google Patents

Image tracking device Download PDF

Info

Publication number
JP5541396B2
JP5541396B2 JP2013133838A JP2013133838A JP5541396B2 JP 5541396 B2 JP5541396 B2 JP 5541396B2 JP 2013133838 A JP2013133838 A JP 2013133838A JP 2013133838 A JP2013133838 A JP 2013133838A JP 5541396 B2 JP5541396 B2 JP 5541396B2
Authority
JP
Japan
Prior art keywords
image
information
area
tracking
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013133838A
Other languages
Japanese (ja)
Other versions
JP2013201784A5 (en
JP2013201784A (en
Inventor
慶子 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013133838A priority Critical patent/JP5541396B2/en
Publication of JP2013201784A publication Critical patent/JP2013201784A/en
Publication of JP2013201784A5 publication Critical patent/JP2013201784A5/en
Application granted granted Critical
Publication of JP5541396B2 publication Critical patent/JP5541396B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像追尾装置および画像追尾方法に関する。   The present invention relates to an image tracking device and an image tracking method.

従来から、移動被写体を撮影する際に、画面内の指示部分の被写体像をテンプレート画像として取得し、繰り返し撮影する画像の中でテンプレート画像と類似した被写体像の位置を検索(テンプレートマッチング)し、画面内を移動する被写体を追尾する画像追尾装置が知られている(たとえば特許文献1)。   Conventionally, when shooting a moving subject, the subject image of the indicated portion in the screen is acquired as a template image, and the position of the subject image similar to the template image is searched (template matching) among images repeatedly shot, An image tracking device that tracks a subject moving within a screen is known (for example, Patent Document 1).

特開2001−243478号公報JP 2001-243478 A

しかしながら、相関演算結果や移動被写体の動きベクトルに応じて精度よく探索範囲の大きさや位置を設定するのが難しく、画像内の移動被写体とは異なる被写体を所望の移動被写体として誤検出するという問題がある。   However, it is difficult to accurately set the size and position of the search range according to the correlation calculation result and the motion vector of the moving subject, and there is a problem that a subject different from the moving subject in the image is erroneously detected as a desired moving subject. is there.

請求項1に記載の発明による画像追尾装置は、撮像部が生成した被写界画像に第1探索領域、及び、前記第1探索領域よりも小さい第2探索領域を設定する設定部と、追尾対象に対応する基準情報と前記被写界画像における前記第1探索領域内の画像情報との間の相関に対応する第1情報、及び、前記基準情報と前記被写界画像における前記第2探索領域内の画像情報との間の相関に対応する第2情報を演算する演算部と、前記第1情報及び前記第2情報との比較結果に基づいて、前記第1情報及び前記第2情報の少なくとも一方を用いて前記追尾対象の位置を検出する検出部と、を含むことを特徴とする。 An image tracking device according to a first aspect of the present invention includes a setting unit that sets a first search region and a second search region smaller than the first search region in the object scene image generated by the imaging unit, and a tracking First information corresponding to a correlation between reference information corresponding to an object and image information in the first search region in the object scene image, and the second search in the reference information and the object scene image. Based on a comparison result between the calculation unit that calculates second information corresponding to the correlation with the image information in the region, and the first information and the second information, the first information and the second information And a detection unit that detects the position of the tracking target using at least one of the tracking targets .

本発明によれば、第1探索領域における基準情報との相関を演算した第1演算結果と、第1探索領域とは異なる第2探索領域における基準情報との相関を演算した第2演算結果との一方に基づいて、被写界画像における対象となる画像の位置を検出するので、移動被写体とは異なる被写体の誤検出を防ぐことができる。   According to the present invention, the first calculation result obtained by calculating the correlation with the reference information in the first search area and the second calculation result obtained by calculating the correlation between the reference information in the second search area different from the first search area; Since the position of the target image in the object scene image is detected based on one of the above, erroneous detection of a subject different from the moving subject can be prevented.

一実施の形態の画像追尾装置を備えた撮像装置の構成を示す横断面図1 is a cross-sectional view illustrating a configuration of an imaging device including an image tracking device according to an embodiment; 一実施の形態の画像追尾装置を備えた撮像装置の構成を示すブロック図1 is a block diagram illustrating a configuration of an imaging device including an image tracking device according to an embodiment; 第2撮像素子の正面図Front view of the second image sensor 第2撮像素子の画素のフィルターを示す図The figure which shows the filter of the pixel of a 2nd image pick-up element. 一実施の形態の画像追尾方法を説明するための図The figure for demonstrating the image tracking method of one Embodiment 一実施の形態の画像追尾方法を説明するための図The figure for demonstrating the image tracking method of one Embodiment 一実施の形態の画像追尾方法を説明するための図The figure for demonstrating the image tracking method of one Embodiment 一実施の形態の画像追尾処理を示すフローチャートThe flowchart which shows the image tracking processing of one embodiment 追尾制御初期処理を示すフローチャートFlow chart showing tracking control initial processing 新追尾被写体位置決定処理を示すフローチャートFlow chart showing new tracking subject position determination processing 変形例における固定領域を説明するための図The figure for demonstrating the fixed area | region in a modification 変形例における第1探索領域と第2探索領域とを説明するための図The figure for demonstrating the 1st search area | region and 2nd search area | region in a modification.

撮影画面内に設定された複数の焦点検出エリアにおいて撮影レンズの焦点調節状態(この一実施の形態ではデフォーカス量)を検出し、いずれかのエリアのデフォーカス量に基づいて撮影レンズを合焦駆動する自動焦点調節(AF)機能と、撮影画像の中の追尾対象の被写体の画像をテンプレート画像(基準画像)として記憶し、繰り返し撮像される画像の中でテンプレート画像と同一または類似した画像の位置を検索しながら(テンプレートマッチング)追尾対象の被写体を追尾する画像追尾機能とを備え、AF機能と画像追尾機能により撮影レンズを駆動しながら追尾対象を追尾する画像追尾装置を備えた撮像装置(一眼レフデジタルスチルカメラ)の一実施の形態を説明する。   The focus adjustment state of the photographic lens (in this embodiment, the defocus amount) is detected in a plurality of focus detection areas set in the photographic screen, and the photographic lens is focused based on the defocus amount in one of the areas. The automatic focus adjustment (AF) function to be driven and the image of the subject to be tracked in the photographed image are stored as a template image (reference image). An image pickup apparatus having an image tracking function for tracking a subject to be tracked while searching for a position (template matching), and an image tracking device for tracking the tracking target while driving a photographing lens with the AF function and the image tracking function ( An embodiment of a single lens reflex digital still camera) will be described.

図1は、一実施の形態の画像追尾装置を備えた撮像装置(一眼レフデジタルスチルカメラ)1の構成を示す。なお、図1では本願発明と直接関係のないカメラの機器および回路についての図示と説明を省略する。一実施の形態のカメラ1では、撮影レンズ8、絞り21等を有する交換レンズ3がカメラ本体2に着脱可能に装着される。カメラ本体2には被写界像を撮像して画像を記録するための第1撮像素子4が設けられる。この第1撮像素子4はCCDやCMOSなどにより構成することができる。撮影時にはクイックリターンミラー5およびサブミラー6が実線で示す撮影光路外の位置に退避してシャッター7が開放され、撮影レンズ8により第1撮像素子4の受光面に被写体像が結像される。   FIG. 1 shows a configuration of an imaging apparatus (single-lens reflex digital still camera) 1 including an image tracking apparatus according to an embodiment. In FIG. 1, illustration and description of camera devices and circuits not directly related to the present invention are omitted. In the camera 1 according to the embodiment, an interchangeable lens 3 having a photographing lens 8 and a diaphragm 21 is detachably attached to the camera body 2. The camera body 2 is provided with a first image sensor 4 for capturing an object scene image and recording the image. The first image sensor 4 can be constituted by a CCD, a CMOS, or the like. At the time of photographing, the quick return mirror 5 and the sub mirror 6 are retracted to a position outside the photographing optical path indicated by a solid line, the shutter 7 is opened, and a subject image is formed on the light receiving surface of the first image sensor 4 by the photographing lens 8.

カメラ本体2の底部には、撮影レンズ8の焦点調節状態を検出するための焦点検出光学系9と測距素子10が設けられている。この一実施の形態では、瞳分割型位相差検出方式による焦点検出方法を採用した例を示す。焦点検出光学系9は、撮影レンズ8を通過した対の焦点検出用光束を測距素子10の受光面へ導き、対の光像を結像させる。測距素子10は例えば対のCCDラインセンサーを備え、対の光像に応じた焦点検出信号を出力する。撮影前にはクイックリターンミラー5およびサブミラー6が破線で示すような撮影光路内の位置に設定されており、撮影レンズ8からの対の焦点検出用光束はクイックリターンミラー5のハーフミラー部を透過し、サブミラー6により反射されて焦点検出光学系9および測距素子10へ導かれる。   At the bottom of the camera body 2, a focus detection optical system 9 and a distance measuring element 10 for detecting the focus adjustment state of the photographing lens 8 are provided. In this embodiment, an example is shown in which a focus detection method based on a pupil division type phase difference detection method is employed. The focus detection optical system 9 guides the pair of focus detection light fluxes that have passed through the photographing lens 8 to the light receiving surface of the distance measuring element 10 and forms a pair of optical images. The distance measuring element 10 includes, for example, a pair of CCD line sensors, and outputs a focus detection signal corresponding to the pair of optical images. Before shooting, the quick return mirror 5 and the sub mirror 6 are set at positions in the shooting optical path as indicated by broken lines, and the pair of focus detection light beams from the shooting lens 8 are transmitted through the half mirror portion of the quick return mirror 5. Then, the light is reflected by the sub mirror 6 and guided to the focus detection optical system 9 and the distance measuring element 10.

カメラ本体2の上部にはファインダー光学系が設けられている。撮影前にはクイックリターンミラー5およびサブミラー6が破線で示す位置にあり、撮影レンズ8からの被写体光の一部はクイックリターンミラー5に反射されて焦点板11へ導かれ、焦点板11上に被写体像が結像する。液晶表示素子12は、焦点板11上に結像された被写界像に焦点検出エリアマークなどの情報を重畳表示するとともに、被写界像外の位置に露出値などの種々の撮影情報を表示する。焦点板11上の被写界像はペンタダハプリズム13および接眼レンズ14を介して接眼窓15へ導かれ、撮影者が被写界像を視認することができる。   A finder optical system is provided on the upper part of the camera body 2. Before shooting, the quick return mirror 5 and the sub mirror 6 are in the positions indicated by broken lines, and part of the subject light from the shooting lens 8 is reflected by the quick return mirror 5 and guided to the focusing screen 11, and on the focusing screen 11. A subject image is formed. The liquid crystal display element 12 superimposes and displays information such as a focus detection area mark on the object scene image formed on the focusing screen 11 and displays various shooting information such as an exposure value at a position outside the object scene image. indicate. The object scene image on the focusing screen 11 is guided to the eyepiece window 15 via the penta roof prism 13 and the eyepiece lens 14 so that the photographer can visually recognize the object scene image.

また、カメラ本体2上部のファインダー光学系には、被写体追尾や測光のために被写界像を撮像する第2撮像素子16が設けられる。焦点板11に結像した被写界像は、ペンタダハプリズム13、プリズム17および結像レンズ18を介して第2撮像素子16の受光面に再結像される。図3は第2撮像素子16の詳細な構成を示す正面図である。第2撮像素子16は、マトリクス状に配列された複数の画素(光電変換素子)40(この一実施の形態では、横16個×縦12個の画素)を備えている。さらに、各画素40は図4に示すように3個の部分40a、40b、40cに分割され、これらの部分にはそれぞれ赤R、緑G、青Bの原色フィルターが設けられている。これにより、各画素40ごとに被写界画像のRGB信号を出力することができる。詳細を後述するが、この第2撮像素子16により撮像された被写界画像信号に基づいて追尾制御と露出演算が行われる。なお、追尾制御
と露出演算は第1撮像素子4により撮像された被写界画像信号に基づいて行うこととしてもよい。
The finder optical system at the top of the camera body 2 is provided with a second image sensor 16 that captures an object scene image for subject tracking and photometry. The object scene image formed on the focusing screen 11 is re-imaged on the light receiving surface of the second image sensor 16 via the penta roof prism 13, the prism 17 and the imaging lens 18. FIG. 3 is a front view showing a detailed configuration of the second image sensor 16. The second imaging element 16 includes a plurality of pixels (photoelectric conversion elements) 40 (in this embodiment, 16 horizontal pixels × 12 vertical pixels) arranged in a matrix. Further, each pixel 40 is divided into three portions 40a, 40b, and 40c as shown in FIG. 4, and primary color filters of red R, green G, and blue B are provided in these portions, respectively. Thereby, the RGB signal of the object scene image can be output for each pixel 40. Although details will be described later, tracking control and exposure calculation are performed based on the object scene image signal imaged by the second image sensor 16. The tracking control and the exposure calculation may be performed based on the scene image signal captured by the first image sensor 4.

カメラ本体2にはまた、ボディ駆動制御装置19、操作部材20などが設けられる。ボディ駆動制御装置19は、詳細を後述するマイクロコンピューターとメモリ、A/D変換器などの周辺部品から構成され、カメラ1の種々の制御と演算を行う。操作部材20には、シャッターボタン、焦点検出エリア選択スイッチ、撮影モード選択スイッチなどのカメラ1を操作するためのスイッチやセレクターが含まれる。   The camera body 2 is also provided with a body drive control device 19 and an operation member 20. The body drive control device 19 is constituted by peripheral components such as a microcomputer, a memory, and an A / D converter, the details of which will be described later, and performs various controls and calculations of the camera 1. The operation member 20 includes a switch and a selector for operating the camera 1 such as a shutter button, a focus detection area selection switch, and a shooting mode selection switch.

交換レンズ3には、ズーミングレンズ8a、フォーカシングレンズ8b、絞り21、レンズ駆動制御装置22などが設けられる。なお、この一実施の形態では撮影レンズ8をズーミングレンズ8a、フォーカシングレンズ8bおよび絞り21で代表的に表すが、撮影レンズ8の構成は図1に示す構成に限定されない。レンズ駆動制御装置22は図示しないマイクロコンピューターとメモリ、駆動回路、アクチュエーターなどの周辺部品から構成され、レンズ8a、8bおよび絞り21の駆動制御とそれらの位置検出を行う。レンズ駆動制御装置22に内蔵されるメモリには、交換レンズ3の焦点距離や開放絞り値などのレンズ情報が記憶されている。   The interchangeable lens 3 is provided with a zooming lens 8a, a focusing lens 8b, a diaphragm 21, a lens drive control device 22, and the like. In this embodiment, the photographing lens 8 is representatively represented by a zooming lens 8a, a focusing lens 8b, and a diaphragm 21, but the configuration of the photographing lens 8 is not limited to the configuration shown in FIG. The lens drive control device 22 includes a microcomputer (not shown) and peripheral components such as a memory, a drive circuit, and an actuator, and performs drive control of the lenses 8a and 8b and the diaphragm 21 and detection of their positions. Lens information such as a focal length and an open aperture value of the interchangeable lens 3 is stored in a memory built in the lens drive control device 22.

ボディ駆動制御装置19とレンズ駆動制御装置22はレンズマウント部の接点23を介して通信を行い、ボディ駆動制御装置19からレンズ駆動制御装置22へレンズ駆動量や絞り値などの情報を送信し、レンズ駆動制御装置22からボディ駆動制御装置19へレンズ情報や絞り情報を送信する。   The body drive control device 19 and the lens drive control device 22 communicate via the contact 23 of the lens mount, and transmit information such as a lens drive amount and an aperture value from the body drive control device 19 to the lens drive control device 22. Lens information and aperture information are transmitted from the lens drive control device 22 to the body drive control device 19.

図2はボディ駆動制御装置19の詳細な構成を示す。なお、本願発明と直接関係のない制御機能については図示と説明を省略する。ボディ駆動制御装置19は素子制御回路19a、A/D変換器19b、マイクロコンピューター19c、メモリ19dなどを備えている。素子制御回路19aは第2撮像素子16の電荷の蓄積と読み出しを制御する。A/D変換器19bは、第2撮像素子16から出力されるアナログ画像信号をデジタル画像信号に変換する。撮影者により操作部材20のシャッターボタンが半押しされると半押しスイッチ(不図示)がオンし、図1に示すように、撮影レンズ8を通過した被写体光の一部は破線で示すクイックリターンミラー5により反射され、ペンタダハプリズム13、プリズム17および結像レンズ18を介して第2撮像素子16へ導かれる。シャッターボタンが半押しされている間、第2撮像素子16により繰り返し周期的に被写界像を撮像することができる。   FIG. 2 shows a detailed configuration of the body drive control device 19. Note that illustration and description of control functions not directly related to the present invention are omitted. The body drive control device 19 includes an element control circuit 19a, an A / D converter 19b, a microcomputer 19c, a memory 19d, and the like. The element control circuit 19 a controls charge accumulation and reading of the second image sensor 16. The A / D converter 19b converts the analog image signal output from the second image sensor 16 into a digital image signal. When the shutter button of the operation member 20 is half-pressed by the photographer, a half-push switch (not shown) is turned on, and as shown in FIG. 1, part of the subject light that has passed through the photographing lens 8 is a quick return indicated by a broken line. The light is reflected by the mirror 5 and guided to the second image sensor 16 via the penta roof prism 13, the prism 17 and the imaging lens 18. While the shutter button is half-pressed, the second imaging element 16 can repeatedly and periodically capture the object scene image.

マイクロコンピューター19cは、ソフトウエア形態により追尾制御部19e、露出制御部19f、焦点検出演算部19gおよびレンズ駆動量演算部19hを構成する。メモリ19dは、画像追尾用のテンプレート画像やデフォーカス量などの情報、撮影レンズ8の焦点距離、開放F値、絞り値、像ズレ量からデフォーカス量への変換係数などのレンズ情報などを記憶する。   The microcomputer 19c constitutes a tracking control unit 19e, an exposure control unit 19f, a focus detection calculation unit 19g, and a lens drive amount calculation unit 19h according to a software form. The memory 19d stores information such as a template image for image tracking and defocus amount, lens information such as focal length, open F value, aperture value, and image shift amount to defocus amount conversion coefficient of the taking lens 8. To do.

追尾制御部19eは、第2撮像素子16により撮像した被写界像の内、撮影者が手動で指定した追尾対象位置、あるいはカメラ1が自動で設定した追尾対象位置に対応する画像をテンプレート画像(基準画像)としてメモリ19dに記憶させ、その後に繰り返し撮影
される画像の中からテンプレート画像と一致または類似する画像領域を検索することによって対象の位置を認識する。露出演算部19fは、第2撮像素子16により撮像した画像信号に基づいて露出値を演算する。
The tracking control unit 19e uses a template image as an image corresponding to the tracking target position manually specified by the photographer or the tracking target position automatically set by the camera 1 in the object scene image captured by the second image sensor 16. It is stored in the memory 19d as a (reference image), and the position of the object is recognized by searching an image area that matches or is similar to the template image from images that are repeatedly photographed thereafter. The exposure calculation unit 19f calculates an exposure value based on the image signal captured by the second image sensor 16.

焦点検出演算部19gは、測距素子10から出力される対の光像に応じた焦点検出信号に基づいて撮影レンズ8の焦点調節状態、ここではデフォーカス量を検出する。なお、詳
細を後述するが、撮影レンズ8の撮影画面内には複数の焦点検出エリアが設定されており、測距素子10は焦点検出エリアごとに対の光像に応じた焦点検出信号を出力し、焦点検出演算部19gは焦点検出エリアごとに対の光像に応じた焦点検出信号に基づいてデフォーカス量を検出する。撮影者により操作部材20のシャッターボタンが半押しされると半押しスイッチ(不図示)がオンし、図1に示すように、撮影レンズ8を通過した被写体光の一部は破線で示すクイックリターンミラー5のハーフミラー部を通ってサブミラー6および焦点検出光学系9を介して測距素子10へ導かれ、焦点検出演算部19gにより焦点検出演算が行われる。レンズ駆動量演算部19hは検出されたデフォーカス量をレンズ駆動量に変換する。なお、焦点調節状態の検出は、シャッターボタンが半押しされている間、繰り返し周期的に行われる。
The focus detection calculation unit 19g detects the focus adjustment state of the photographing lens 8, here the defocus amount, based on the focus detection signal corresponding to the pair of optical images output from the distance measuring element 10. Although details will be described later, a plurality of focus detection areas are set in the shooting screen of the shooting lens 8, and the distance measuring element 10 outputs a focus detection signal corresponding to a pair of optical images for each focus detection area. Then, the focus detection calculation unit 19g detects the defocus amount based on the focus detection signal corresponding to the pair of optical images for each focus detection area. When the shutter button of the operation member 20 is half-pressed by the photographer, a half-push switch (not shown) is turned on, and as shown in FIG. 1, part of the subject light that has passed through the photographing lens 8 is a quick return indicated by a broken line. The light is guided to the distance measuring element 10 through the sub-mirror 6 and the focus detection optical system 9 through the half mirror part of the mirror 5, and the focus detection calculation part 19g performs the focus detection calculation. The lens driving amount calculation unit 19h converts the detected defocus amount into a lens driving amount. The focus adjustment state is repeatedly and periodically detected while the shutter button is half-pressed.

次に、一実施の形態の画像追尾動作を説明する。図5〜図7は一実施の形態の画像追尾動作を説明するための図、図8〜図10は一実施の形態の画像追尾処理を示すフローチャートである。マイクロコンピューター19cは、第2撮像素子16により撮像した被写体像のうち、ユーザが手動で追尾対象被写体を指定するか、あるいはカメラが自動で追尾対象被写体を設定した後、操作部材20のシャッターボタンを半押しすると、被写体追尾処理を開始する。なお、以降の説明では、図6および図7において水平方向をx軸、垂直方向をy軸とする座標系を用いる。   Next, an image tracking operation according to an embodiment will be described. 5 to 7 are diagrams for explaining the image tracking operation according to the embodiment, and FIGS. 8 to 10 are flowcharts illustrating the image tracking process according to the embodiment. The microcomputer 19c manually designates the tracking target subject among the subject images picked up by the second image sensor 16, or the camera automatically sets the tracking target subject, and then presses the shutter button of the operation member 20. When half-pressed, subject tracking processing starts. In the following description, a coordinate system in which the horizontal direction is the x axis and the vertical direction is the y axis in FIGS. 6 and 7 is used.

シャッターボタンを全押しして撮影を行うとき以外は、クイックリターンミラー5が図1に破線で示す撮影光路内に設定されており、撮影レンズ8から入射した被写体光の一部は焦点板11上に結像される。そして、焦点板11上の被写界像はペンタダハプリズム13、プリズム17および結像レンズ18を介して第2撮像素子16へ導かれ、第2撮像素子16から被写界画像信号が繰り返し出力される。   The quick return mirror 5 is set in the photographing optical path shown by the broken line in FIG. 1 except when the shutter button is fully pressed to shoot, and part of the subject light incident from the photographing lens 8 is on the focusing screen 11. Is imaged. The object scene image on the focusing screen 11 is guided to the second image sensor 16 via the penta roof prism 13, the prism 17 and the imaging lens 18, and the object scene image signal is repeatedly output from the second image sensor 16. The

撮影レンズ8の撮影画面には複数の焦点検出エリアが設定されており、液晶表示素子12により焦点板11上の被写界像にエリアマークを重畳し、各焦点検出エリアの位置を表示する。この一実施の形態では、図5に示すように、撮影画面内の7カ所に焦点検出エリア45a〜45g(図中にはa〜gと表記)が設定された例を示す。また、操作部材20の焦点検出エリア選択スイッチにより任意のエリアを選択すると、そのエリアのマークが点灯表示される。   A plurality of focus detection areas are set on the shooting screen of the shooting lens 8, and an area mark is superimposed on the object scene image on the focusing screen 11 by the liquid crystal display element 12 to display the position of each focus detection area. In this embodiment, as shown in FIG. 5, an example is shown in which focus detection areas 45a to 45g (denoted as a to g in the figure) are set at seven locations in the photographing screen. When an arbitrary area is selected by the focus detection area selection switch of the operation member 20, the mark of the area is lit up.

図5に示すように操作部材20の焦点検出エリア選択スイッチにより焦点検出エリア45cが選択され、この状態で操作部材20のシャッターボタンが半押しされると、焦点検出エリア45cが初回AFエリアとしてメモリ19dに記憶される。これにより、追尾対象として初回AFエリア内の被写体が指定される。なお、ここでは撮影者が初回AFエリアを選択して追尾対象の被写体を手動で指定する例を示すが、例えば自動的に被写体を認識する機能を備えたカメラでは被写体認識結果に基づいて初回AFエリアおよび追尾対象被写体を設定してもよい。   As shown in FIG. 5, when the focus detection area 45c is selected by the focus detection area selection switch of the operation member 20, and the shutter button of the operation member 20 is half-pressed in this state, the focus detection area 45c is stored as the first AF area. 19d. Thereby, the subject in the first AF area is designated as the tracking target. In this example, the photographer selects the first AF area and manually designates the subject to be tracked. For example, in a camera having a function of automatically recognizing the subject, the first AF is performed based on the subject recognition result. An area and a tracking target subject may be set.

図8のステップS1において、第2撮像素子16により追尾初期画像(画像追尾処理を開始して最初に取得する画像)を取得する。第2撮像素子16により撮像された画像情報は、画素ごとにRGB値で表される。
R[x,y]、G[x,y]、B[x,y],
x=1〜16、y=1〜12 ・・・(1)
In step S <b> 1 of FIG. 8, an initial tracking image (an image acquired first after starting the image tracking process) is acquired by the second image sensor 16. Image information captured by the second image sensor 16 is represented by RGB values for each pixel.
R [x, y], G [x, y], B [x, y],
x = 1 to 16, y = 1 to 12 (1)

さらに、上記の画素ごとのRGB値に基づいて、各画素の色情報と輝度情報とを算出する。ここで、色情報は、以下の(2)式に示すように、色の偏り具合を示す値であるRG、BGにより表される。また、輝度情報として画像を取得したときの露光時間T、ゲインG、色合成係数Kr、Kg、Kbに基づいて、以下の(2)式より算出されたLによって
表される。
RG[x,y]=Log(R[x,y])−Log(G[x,y])
BG[x,y]=Log(B[x,y])−Log(G[x,y])
L[x,y]=Log(Kr×R[x,y]+Kg×G[x,y]+Kb×B[x,y])−Log(T)−Log(G)
・・・(2)
Furthermore, based on the RGB value for each pixel, color information and luminance information for each pixel are calculated. Here, the color information is represented by RG and BG, which are values indicating the degree of color deviation, as shown in the following equation (2). Further, it is represented by L calculated from the following equation (2) based on the exposure time T, gain G, and color synthesis coefficients Kr, Kg, Kb when an image is acquired as luminance information.
RG [x, y] = Log 2 (R [x, y]) − Log 2 (G [x, y])
BG [x, y] = Log 2 (B [x, y]) − Log 2 (G [x, y])
L [x, y] = Log 2 (Kr × R [x, y] + Kg × G [x, y] + Kb × B [x, y]) − Log 2 (T) −Log 2 (G)
... (2)

次に、ステップS2で図9に示す追尾制御初期処理を実行する。図9のステップS101において、追尾初期画像の中の撮影者が指定した位置(ここでは初回AFエリアである焦点検出エリア45c)の画像情報((2)式参照)を被写体色情報として記憶する。ステップS102では、図6(a)に示すように、追尾初期画像の中の焦点検出エリア45c(図5参照)の位置周辺部において上記被写体色情報と同様な色情報を示す同色情報領域を検出し、続くステップS103で上記同色情報領域を含む四角形の領域を初期の追尾被写体領域47とする。なお、ここでは被写体色情報に基づいて追尾被写体領域47を決定する例を示すが、処理の簡素化を図るために一律に4×4画素のように追尾被写体領域のサイズを統一したり、あるいは撮影レンズ8の距離情報や被写体の像倍率に応じて追尾被写体領域のサイズを決定してもよい。   Next, the tracking control initial process shown in FIG. 9 is executed in step S2. In step S101 of FIG. 9, image information (see equation (2)) of the position designated by the photographer in the initial tracking image (here, the focus detection area 45c which is the initial AF area) is stored as subject color information. In step S102, as shown in FIG. 6A, the same color information area indicating the same color information as the subject color information is detected in the position peripheral portion of the focus detection area 45c (see FIG. 5) in the tracking initial image. In step S103, a rectangular area including the same color information area is set as an initial tracking subject area 47. Here, an example in which the tracking subject area 47 is determined based on the subject color information is shown, but in order to simplify the processing, the size of the tracking subject area is uniformly set to 4 × 4 pixels, or The size of the tracking subject area may be determined according to the distance information of the photographing lens 8 and the image magnification of the subject.

ステップS104では、ステップS103で決定した、追尾初期画像の追尾被写体領域47をテンプレート画像48としてメモリ19dに記憶する。図6(a)に示すように、追尾被写体領域47のサイズが4×4画素、始点位置(四角形の左上端部に対応する画素位置)が(x,y)=(7,5)の場合は、図6(b)に示すテンプレート画像48の色情報および輝度情報は以下の式(3)ように表される。
RGref[rx,ry]=RG[x,y],
BGref[rx,ry]=BG[x,y]),
Lref[rx,ry]=L[x,y],
rx=1〜4、ry=1〜4、x=7〜10、y=5〜8 ・・・(3)
In step S104, the tracking subject area 47 of the tracking initial image determined in step S103 is stored in the memory 19d as a template image 48. As shown in FIG. 6A, when the size of the tracking subject region 47 is 4 × 4 pixels and the start point position (pixel position corresponding to the upper left corner of the square) is (x, y) = (7, 5) The color information and luminance information of the template image 48 shown in FIG. 6B are expressed as the following formula (3).
RGref [rx, ry] = RG [x, y],
BGref [rx, ry] = BG [x, y]),
Lref [rx, ry] = L [x, y],
rx = 1 to 4, ry = 1 to 4, x = 7 to 10, y = 5 to 8 (3)

ステップS105で、撮像される追尾次画像においてテンプレート画像48と一致または類似する画像を探索する領域を決定する。ここでは、図6(a)に示すように、追尾被写体領域47の上下左右方向にそれぞれ4画素分拡大した画素範囲(12×12画素)に含まれる領域を第1探索領域49に設定する。さらに、追尾被写体領域47の上下左右方向にそれぞれ2画素分拡大した画素範囲(8×8画素)に含まれる領域を第2探索領域50に設定する。図6(a)においては、第1探索領域49は、x=3〜14、y=1〜12の範囲に含まれる領域となる。また、第2探索領域50は、x=5〜12、y=3〜10の範囲に含まれる領域となる。   In step S105, an area for searching for an image that matches or is similar to the template image 48 in the next tracking image to be captured is determined. Here, as shown in FIG. 6A, an area included in a pixel range (12 × 12 pixels) expanded by 4 pixels in the vertical and horizontal directions of the tracking subject area 47 is set as the first search area 49. Further, an area included in the pixel range (8 × 8 pixels) enlarged by 2 pixels in the vertical and horizontal directions of the tracking subject area 47 is set as the second search area 50. In FIG. 6A, the first search area 49 is an area included in the ranges of x = 3 to 14 and y = 1 to 12. The second search area 50 is an area included in the ranges of x = 5 to 12 and y = 3 to 10.

好ましくは追尾被写体領域47を中心にして第1探索領域49および第2探索領域50を設定する。追尾対象の被写体は今回検出された位置すなわち追尾被写体領域47を基点にして移動するから、追尾被写体領域47を中心にして第1探索領域49および第2探索領域50を設定することによって、追尾対象の被写体を早く検出することができ、画像追尾の応答性を向上させることができる。なお、この第1探索領域49および第2探索領域50は縦横それぞれに所定画素ずつ拡大した所定の大きさの領域としてもよいし、追尾結果や追尾被写体の大きさに応じて変えるようにしてもよい。   Preferably, the first search area 49 and the second search area 50 are set around the tracking subject area 47. Since the tracking target subject moves with the detected position, that is, the tracking subject region 47 as a base point, by setting the first search region 49 and the second search region 50 around the tracking subject region 47, the tracking target subject is set. Can be detected quickly, and the responsiveness of image tracking can be improved. It should be noted that the first search area 49 and the second search area 50 may be areas of a predetermined size enlarged by predetermined pixels in the vertical and horizontal directions, or may be changed according to the tracking result and the size of the tracking subject. Good.

以上で追尾制御初期処理を終了し、図8のステップS3へリターンする。リターン後の図8のステップS3において、操作部材20のシャッターボタンが全押しされたか否かを判別し、全押しされるまでの間、ステップS4以降の処理を繰り返す。ステップS4において、第2撮像素子16から追尾次画像を取得し、ステップS1の処理と同様に追尾次画像について画像情報R[x,y]、G[x,y]、B[x,y](x=1〜16、y=1〜12)
を取得し、色情報RG[x,y],BG[x,y]および輝度情報L[x,y]を算出する。
The tracking control initial process is thus completed, and the process returns to step S3 in FIG. In step S3 of FIG. 8 after the return, it is determined whether or not the shutter button of the operation member 20 has been fully pressed, and the processes after step S4 are repeated until the shutter button is fully pressed. In step S4, a tracking next image is acquired from the second image sensor 16, and the image information R [x, y], G [x, y], B [x, y] for the tracking next image is acquired in the same manner as in the process of step S1. (X = 1 to 16, y = 1 to 12)
And color information RG [x, y], BG [x, y] and luminance information L [x, y] are calculated.

続くステップS5では追尾演算処理を行う。追尾次画像の中の第1探索領域49から図6(a)に示す追尾被写体領域47と同じサイズの領域を順次切り出す。そして、切り出した画像と、図6(b)に示すテンプレート画像48の対応する画素ごとに、相関を演算、すなわち画像情報の差分Diffを算出する。   In subsequent step S5, a tracking calculation process is performed. A region having the same size as the tracking subject region 47 shown in FIG. 6A is sequentially cut out from the first search region 49 in the tracking next image. Then, for each pixel corresponding to the cut-out image and the template image 48 shown in FIG. 6B, the correlation is calculated, that is, the difference Diff of the image information is calculated.

差分Diffは次式により算出する。なお、図7(a)に示すように、第1探索領域49
の始点位置を(scx,scy)=(3,1)とする。
Diff[dx,dy]=
{ABS(RG[scx+dx−1+rx,scy+dy−1+ry]−RGref[rx,ry])
+ABS(BG[scx+dx−1+rx,scy+dy−1+ry]−BGref[rx,ry])+ABS(L[scx+dx−1+rx,scy+dy−1+ry]−Lref[rx,ry])}
dx=1〜9,dy=1〜9,rx=1〜4,ry=1〜4,scx=3,scy=1
・・・(4)
The difference Diff is calculated by the following equation. As shown in FIG. 7A, the first search area 49
Is set to (scx, scy) = (3,1).
Diff [dx, dy] =
{ABS (RG [scx + dx-1 + rx, scy + dy-1 + ry] -RGref [rx, ry])
+ ABS (BG [scx + dx-1 + rx, scy + dy-1 + ry] -BGref [rx, ry]) + ABS (L [scx + dx-1 + rx, scy + dy-1 + ry] -Lref [rx, ry])}
dx = 1 to 9, dy = 1 to 9, rx = 1 to 4, ry = 1 to 4, scx = 3, scy = 1
... (4)

なお、(4)式におけるdx、dyは、それぞれ切り出し画像の始点位置をずらす範囲(量)を示している。すなわち、図7(a)においては、dx=1はx=3に対応し、dy=1はy=1に対応する。(4)式は、第1探索領域49の中で追尾被写体領域47と同じサイズの領域を1画素ずつずらしながら切り出し画像を取得し、切り出した画像とテンプレート画像48との間で画素ごとの画像情報の差分Diffを求めていくことを表してい
る。例えば、図7(a)に示すように第1探索領域49から順次切り出した画像(図7(a)においては、49a、49b、49c)と、テンプレート画像48とを順次比較して、それぞれの切り出し画像について差分Diffを算出する。これらの差分Diffの内の最小の値を示す切り出し画像がテンプレート画像48(図6(b)参照)に最も類似していることになる。
Note that dx and dy in the equation (4) indicate ranges (amounts) in which the start point position of the clipped image is shifted. That is, in FIG. 7A, dx = 1 corresponds to x = 3, and dy = 1 corresponds to y = 1. Equation (4) is obtained by acquiring a cutout image while shifting an area of the same size as the tracking subject area 47 in the first search area 49 by one pixel, and an image for each pixel between the cutout image and the template image 48. This indicates that the difference Diff of information is to be obtained. For example, as shown in FIG. 7A, images sequentially extracted from the first search area 49 (49a, 49b, and 49c in FIG. 7A) and the template image 48 are sequentially compared, and the respective images are compared. The difference Diff is calculated for the clipped image. The cut-out image indicating the minimum value among these differences Diff is most similar to the template image 48 (see FIG. 6B).

ステップ6においては、図10に示す、新しい追尾被写体位置を決定するための新追尾被写体位置決定処理を行う。ステップS201では、上記(4)式を用いて算出されたテンプレート画像48と切り出し画像との画像情報の差分Diffのうち、最も小さい値(第
1最小差分値MinDiff)を検出する。そして、第1最小差分値MinDiffとなるときの差分Diffの座標値(Mindx、Mindy)を検出する。
In step 6, a new tracking subject position determination process for determining a new tracking subject position shown in FIG. 10 is performed. In step S201, the smallest value (first minimum difference value MinDiff) is detected among the differences Diff of the image information between the template image 48 and the clipped image calculated using the above equation (4). Then, the coordinate value (Mindx, Mindy) of the difference Diff when it becomes the first minimum difference value MinDiff is detected.

ステップS202では、テンプレート画像48と上述した第2探索領域50(図7(a)においては、x=5〜12、y=3〜10)に含まれる画像情報との相関を示す差分Diffのうち、最も小さい値(第2最小差分値MinDiff_S)を検出する。そして、第2最小差
分値MinDiff_Sとなるときの差分Diffの座標値(Mindx_S、Mindy_S)を検出する。なお、
図7(a)において、第2探索領域50に対応する切り出し画像の始点位置をずらす範囲はdx=3〜7、dy=3〜7となる。
In step S202, the difference Diff indicating the correlation between the template image 48 and the image information included in the above-described second search region 50 (x = 5 to 12, y = 3 to 10 in FIG. 7A). The smallest value (second minimum difference value MinDiff_S) is detected. And the coordinate value (Mindx_S, Mindy_S) of the difference Diff when it becomes the 2nd minimum difference value MinDiff_S is detected. In addition,
In FIG. 7A, the range in which the start point position of the cutout image corresponding to the second search area 50 is shifted is dx = 3 to 7, and dy = 3 to 7.

ステップS203では、第1最小差分値MinDiffと第2最小差分値MinDiff_Sとが異なる値であるか否かを判定する。第1最小差分値MinDiffと第2最小差分値MinDiff_Sとが同一の値の場合は、ステップS203が否定判定されて、後述するステップS207へ進む。第1最小差分値MinDiffと第2最小差分値MinDiff_Sとが異なる値の場合は、ステップS203が肯定判定されてステップS204へ進む。ここで、第1最小差分値MinDiffと第2
最小差分値MinDiff_Sとが異なる値となる場合として、次のような場合が考えられる。
(A1)追尾対象の被写体の画面内での移動速度が速いため、広い領域の第1探索領域49にて追尾対象の被写体が検出された場合。
(A2)追尾対象の被写体の画面内での移動速度が遅い、または静止しているため追尾対象の被写体は狭い領域である第2探索領域50内に存在しているが、背景に存在する類似した色情報を有する、追尾対象の被写体とは異なる被写体を検出した場合(擬似マッチング)。
In step S203, it is determined whether or not the first minimum difference value MinDiff and the second minimum difference value MinDiff_S are different values. When the first minimum difference value MinDiff and the second minimum difference value MinDiff_S are the same value, a negative determination is made in step S203, and the process proceeds to step S207 described later. When the first minimum difference value MinDiff and the second minimum difference value MinDiff_S are different values, an affirmative determination is made in step S203 and the process proceeds to step S204. Here, the first minimum difference value MinDiff and the second
As a case where the minimum difference value MinDiff_S becomes a different value, the following cases can be considered.
(A1) A case where the tracking target subject is detected in the wide first search region 49 because the tracking target subject has a fast moving speed within the screen.
(A2) The tracking target subject exists in the second search area 50, which is a narrow area because the moving speed of the tracking target subject in the screen is slow or stationary, but similar in the background. When a subject that has the color information that is different from the subject to be tracked is detected (pseudo matching).

ステップS204では、第1最小差分値MinDiffと第2最小差分値MinDiff_Sとを比較、すなわち差分を演算する。そして、演算された差分が所定の閾値Wth1未満か否かを判定する。この差分が閾値Wth1より大きい場合はステップS204が否定判定されて後述するステップS207へ進む。この場合、上記(A1)の可能性が高いものと見なす。なお、閾値Wth1は、たとえば事前のシミュレーション等により決定された固定値であり、図示しないメモリ等に記録されているものとする。この場合、閾値Wth1は、追尾対象となる被写体が撮影画面内を大きく移動した場合であっても追従するとともに、背景にテンプレート画像48との類似度が高い被写体が存在した場合であっても類似度が高い被写体に対して擬似マッチングを起こしにくい値となるように設定される。すなわち、最小差分値MinDiffの平均値が6.0〜7.0の場合、閾値Wth1は1.0付近に設定さ
れる。
In step S204, the first minimum difference value MinDiff and the second minimum difference value MinDiff_S are compared, that is, the difference is calculated. Then, it is determined whether the calculated difference is less than a predetermined threshold value Wth1. When this difference is larger than the threshold value Wth1, a negative determination is made in step S204, and the process proceeds to step S207 described later. In this case, the possibility of the above (A1) is considered high. The threshold value Wth1 is a fixed value determined, for example, by a prior simulation, and is recorded in a memory (not shown). In this case, the threshold value Wth1 follows even when the subject to be tracked moves largely within the shooting screen, and is similar even when a subject having a high similarity with the template image 48 exists in the background. It is set to a value that is less likely to cause pseudo-matching for a subject with a high degree. That is, when the average value of the minimum difference value MinDiff is 6.0 to 7.0, the threshold value Wth1 is set to around 1.0.

差分の値が閾値Wth1未満の場合はステップS204が肯定判定されてステップS205へ進む。ここで、差分の値が閾値Wth1未満となる場合として、次のような場合が考えられる。
(B1)追尾対象の被写体の位置は第1最小差分値MinDiffの位置にあるが、第2探索小
域内にて擬似マッチングをしている場合。
(B2)追尾対象の被写体の移動速度は第2探索領域内に存在するが、背景(第1検索領域49)に存在する類似した色情報を有する、追尾対象の被写体とは異なる被写体を検出した場合(擬似マッチング)。
If the difference value is less than the threshold value Wth1, an affirmative determination is made in step S204 and the process proceeds to step S205. Here, as a case where the value of the difference is less than the threshold value Wth1, the following cases can be considered.
(B1) The position of the subject to be tracked is at the position of the first minimum difference value MinDiff, but pseudo matching is performed within the second search subregion.
(B2) The movement speed of the subject to be tracked is within the second search area, but a subject having similar color information existing in the background (first search area 49) is detected that is different from the subject to be tracked. Case (pseudo-matching).

ステップS205では、追尾対象の被写体の移動距離に関連した値が所定の閾値Wth2以下か否かを判定する。本実施の形態においては、たとえば過去5回分(5サイクル)の画像追尾動作(図8のステップS4〜ステップS9)における新追尾被写体位置検出処理の結果に基づいて、撮影画面内における過去の追尾対象の被写体の1サイクル当りの移動距離が、閾値Wth2(たとえば2画素)以下であるか否かを判定する。追尾対象の1サイクルにおける撮影画面内の移動距離が2画素以下の場合は、ステップS205が肯定判定されてステップS206へ進む。このとき、過去の追尾対象の被写体位置の履歴に基づいて、撮影画面内で移動距離が比較的小さい追尾対象の被写体が突然大きく移動する可能性は低いので、上記(B2)の可能性が高い、すなわち撮影画面内において追尾対象の被写体は第2探索領域50に存在するものと見なす。なお、撮影画面内における過去の追尾対象の被写体の1サイクル当りの移動距離を閾値Wth2と比較するものに代えて、追尾被写体の移動速度を閾値Wth2と比較するものでもよい。そして、ステップS206では第2探索領域50にて検出された第2最小差分値MinDiff_Sとなる差分Diffの位置を
新しい追尾被写体領域47に決定する。すなわち、座標値(Mindx_S、Mindy_S)を始点位置とする4×4画素の領域を新しい追尾被写体領域47として設定する。
In step S205, it is determined whether or not a value related to the moving distance of the tracking target subject is equal to or smaller than a predetermined threshold value Wth2. In the present embodiment, for example, based on the result of the new tracking subject position detection process in the past five image tracking operations (5 cycles) (steps S4 to S9 in FIG. 8), the past tracking target in the shooting screen is displayed. It is determined whether or not the moving distance per cycle of the subject is equal to or less than a threshold value Wth2 (for example, two pixels). If the movement distance in the shooting screen in one cycle of the tracking target is 2 pixels or less, an affirmative determination is made in step S205 and the process proceeds to step S206. At this time, the possibility of the above (B2) is high because it is unlikely that a tracking target subject having a relatively small moving distance will suddenly move greatly within the shooting screen based on the history of the subject position of the tracking target in the past. That is, it is assumed that the subject to be tracked exists in the second search area 50 in the shooting screen. Instead of comparing the moving distance per cycle of the subject to be tracked in the past on the shooting screen with the threshold value Wth2, the moving speed of the tracking subject may be compared with the threshold value Wth2. In step S206, the position of the difference Diff that becomes the second minimum difference value MinDiff_S detected in the second search area 50 is determined as the new tracking subject area 47. That is, an area of 4 × 4 pixels starting from the coordinate value (Mindx_S, Mindy_S) is set as a new tracking subject area 47.

追尾対象の1サイクルにおける撮影画面内の移動距離が2画素を超える場合は、ステップS205が否定判定されてステップS207へ進む。この場合、追尾対象の被写体の撮影画面内における移動距離が大きいので、上記(B1)の可能性が高いものと見なす。ステップS207では、第1検索領域49にて検出された第1最小差分値MinDiffとなる差
分Diffの位置を新しい追尾被写体領域47に決定する。すなわち、座標値(Mindx、Mindy)を始点位置とする4×4画素の領域を新しい追尾被写体領域47として設定する。なお、ステップS203において否定判定された場合、すなわち第1最小差分値MinDiffと第
2最小差分値MinDiff_Sの値とが等しい場合についても、第1検索領域49にて検出され
た第1最小差分値MinDiffに対応する位置に基づいて、新しい追尾被写体領域47に決定
する。図7(b)は、上記の新追尾被写体位置決定処理により決定された新しい追尾被写体領域47の位置を例示する図である。図7(b)に示す例では、始点位置が(x,y)
=(8,5)となる4×4画素の領域を新しい追尾被写体領域47として決定する。すな
わち、図7(b)は、追尾対象の被写体が第2探索領域50内で検出された場合を示して
いる。以上で新追尾被写体位置決定処理を終了し、図8のステップS7へリターンする。
If the movement distance in the shooting screen in one cycle of the tracking target exceeds 2 pixels, a negative determination is made in step S205 and the process proceeds to step S207. In this case, since the moving distance of the subject to be tracked in the shooting screen is large, it is considered that the possibility of (B1) is high. In step S207, the position of the difference Diff that becomes the first minimum difference value MinDiff detected in the first search area 49 is determined as the new tracking subject area 47. That is, an area of 4 × 4 pixels starting from the coordinate value (Mindx, Mindy) is set as a new tracking subject area 47. Note that, when a negative determination is made in step S203, that is, when the first minimum difference value MinDiff and the second minimum difference value MinDiff_S are equal, the first minimum difference value MinDiff detected in the first search region 49 is also determined. Is determined as a new tracking subject region 47 based on the position corresponding to. FIG. 7B is a diagram exemplifying the position of the new tracking subject area 47 determined by the above-described new tracking subject position determination processing. In the example shown in FIG. 7B, the start point position is (x, y)
A region of 4 × 4 pixels where = (8,5) is determined as a new tracking subject region 47. That is, FIG. 7B shows a case where the subject to be tracked is detected in the second search area 50. The new tracking subject position determination process is thus completed, and the process returns to step S7 in FIG.

図8のステップS7では、第1最小差分値MinDiffまたは第2最小差分値MinDiff_Sと、予め設定された類似閾値Dthとを比較することにより新追尾被写体位置決定処理により決定された新しい追尾被写体領域47がテンプレート画像48と類似しているか否かの判定を行う。なお、類似閾値Dthは、通常の撮影シーンにおいて適切に類似判定が可能な値として設定されている。   In step S7 of FIG. 8, a new tracking subject region 47 determined by the new tracking subject position determination process by comparing the first minimum difference value MinDiff or the second minimum difference value MinDiff_S with a preset similarity threshold Dth. Is determined to be similar to the template image 48. The similarity threshold Dth is set as a value that allows appropriate similarity determination in a normal shooting scene.

ステップS8では、ステップS7において、新しい追尾被写体領域47とテンプレート画像48とが類似していると判定された場合に、テンプレート画像48の更新処理を行う。本実施の形態では、元のテンプレート画像48の色情報や輝度情報などの画像情報の、たとえば80%に、新しい追尾被写体領域47の画像情報の20%を加えて、新しいテンプレート画像48を生成する。更新処理の演算は、以下の(5)式のように表すことができる。
RGref[rx,ry]=0.8×RGref[rx,ry]+0.2×RG[x,y],
BGref[rx,ry]=0.8×RGref[rx,ry]+0.2×BG[x,y]),
Lref[rx,ry]=0.8×Lref[rx,ry]+0.2×L[x,y],
rx=1〜4、ry=1〜4、x=8〜11、y=5〜8 ・・・(5)
In step S8, when it is determined in step S7 that the new tracking subject area 47 and the template image 48 are similar, the template image 48 is updated. In the present embodiment, a new template image 48 is generated by adding 20% of the image information of the new tracking subject area 47 to 80% of the image information such as color information and luminance information of the original template image 48, for example. . The calculation of the update process can be expressed as the following equation (5).
RGref [rx, ry] = 0.8 × RGref [rx, ry] + 0.2 × RG [x, y],
BGref [rx, ry] = 0.8 × RGref [rx, ry] + 0.2 × BG [x, y]),
Lref [rx, ry] = 0.8 × Lref [rx, ry] + 0.2 × L [x, y],
rx = 1 to 4, ry = 1 to 4, x = 8 to 11, y = 5 to 8 (5)

テンプレート画像48の更新処理の結果、元のテンプレート画像48の画像情報に対して、最新の画像情報が少しずつ追加されることにより更新されるので、何らかの原因による追尾被写体の急激な変化(たとえば被写体の顔の向きの変化など)の影響を抑制して被写体追尾の信頼性を向上させることができる。なお、元のテンプレート画像48の画像情報の割合と新しい追尾被写体領域47の画像情報の割合とは最小差分値MinDiffの値に応
じて可変にしてもよい。
As a result of the update process of the template image 48, the latest image information is updated little by little with respect to the image information of the original template image 48. The reliability of subject tracking can be improved by suppressing the influence of the change in the face direction of the subject. Note that the ratio of the image information of the original template image 48 and the ratio of the image information of the new tracking subject area 47 may be varied according to the value of the minimum difference value MinDiff.

ステップS9において、新しい追尾被写体領域47に対して新しい第1探索領域49および新しい第2探索領域50を決定する。ここでは、図7(b)に示すように、追尾被写体領域47(x=8〜11、y=5〜8)を囲むx=4〜15、y=1〜12の領域を第1探索領域49に設定し、x=6〜13、y=3〜10の領域を第2探索領域50に設定する。さらに、新しい追尾被写体領域47が決定された後は、新しい追尾被写体領域47内に含まれる追尾対象に対して合焦制御を行う。合焦制御は、新しい追尾被写体領域47内に焦点検出エリア45a〜45gの少なくとも一つが含まれる場合には、新しい追尾被写体領域47内に含まれる焦点検出エリア45a〜45gで検出されたデフォーカス量のうち最も小さいものを採用し、そのデフォーカス量に基づいて撮影レンズ8の焦点調節を行う。合焦制御は、新しい追尾被写体領域47内に焦点検出エリア45a〜45gが含まれない場合には、新しい追尾被写体領域47との距離、または前回の追尾結果で採用された焦点検出エリア45a〜45gとの距離の少なくとも一方に基づいて採用する焦点検出エリア45a〜45gを決定してもよい。上記処理が終了するとステップS3へ戻る。   In step S9, a new first search area 49 and a new second search area 50 are determined for the new tracking subject area 47. Here, as shown in FIG. 7 (b), the area of x = 4-15 and y = 1-12 surrounding the tracking subject area 47 (x = 8-11, y = 5-8) is the first search area. 49, an area of x = 6 to 13 and y = 3 to 10 is set as the second search area 50. Further, after the new tracking subject area 47 is determined, focusing control is performed on the tracking target included in the new tracking subject area 47. In the focus control, when at least one of the focus detection areas 45a to 45g is included in the new tracking subject area 47, the defocus amount detected in the focus detection areas 45a to 45g included in the new tracking subject area 47 The smallest of these is adopted, and the focus of the photographic lens 8 is adjusted based on the defocus amount. In the focus control, when the focus detection areas 45a to 45g are not included in the new tracking subject region 47, the distance to the new tracking subject region 47 or the focus detection areas 45a to 45g employed in the previous tracking result are used. Focus detection areas 45a to 45g to be employed may be determined based on at least one of the distances to When the above process ends, the process returns to step S3.

ステップS3で操作部材20のシャッターボタンの全押し操作が検出されるとステップS10へ進み、撮影制御を実行する。なお、撮像制御に際しては、ステップS9で決定した新しい追尾被写体領域47の輝度情報に基づいて露出演算を行い、絞り値とシャッター速度を算出する。これらの露出値にしたがってシャッター7および絞り21を駆動制御し、第1撮像素子4により撮像を行う。   When a full pressing operation of the shutter button of the operation member 20 is detected in step S3, the process proceeds to step S10 and photographing control is executed. In the imaging control, an exposure calculation is performed based on the luminance information of the new tracking subject area 47 determined in step S9, and an aperture value and a shutter speed are calculated. The shutter 7 and the aperture 21 are driven and controlled in accordance with these exposure values, and the first image sensor 4 captures an image.

以上で説明した実施の形態によれば、以下の作用効果が得られる。
(1)第2撮像素子は、撮影レンズ8により結像される被写界の被写界像を繰り返し撮像して、被写界画像を生成するようにした。追尾制御部19eは、被写界画像における第1探索領域49の画像情報と対象となる画像に基づくテンプレート画像48との間の相関を示す第1最小差分値MinDiffを算出するとともに、被写界画像における第1探索領域49
とは異なる第2探索領域50内の画像情報とテンプレート画像48との間の相関を示す第2最小差分値MinDiff_Sを算出するようにした。そして、追尾制御部19eは、第1最小
差分値MinDiffと第2最小差分値MinDiff_Sとの一方に基づいて、被写界画像における対象となる画像の位置を検出するようにした。したがって、撮影画面内の追尾対象の被写体とは異なる被写体を誤検出することを防ぎ追尾精度を維持できる。
According to the embodiment described above, the following operational effects can be obtained.
(1) The second imaging device repeatedly captures the object scene image formed by the photographing lens 8 to generate the object scene image. The tracking control unit 19e calculates a first minimum difference value MinDiff indicating a correlation between the image information of the first search region 49 in the object scene image and the template image 48 based on the target image, and the object scene First search area 49 in the image
The second minimum difference value MinDiff_S indicating the correlation between the image information in the second search region 50 different from the template image 48 is calculated. The tracking control unit 19e detects the position of the target image in the object scene image based on one of the first minimum difference value MinDiff and the second minimum difference value MinDiff_S. Therefore, it is possible to prevent erroneous detection of a subject different from the subject to be tracked in the shooting screen and maintain tracking accuracy.

(2)第1探索領域49は第2探索領域50よりも大きい領域により構成されるようにし、追尾制御部19eは、第1最小差分値MinDiffと第2最小差分値MinDiff_Sとの差分が閾値Wth1を超えるか否かを判定する。そして、追尾制御部19eは、第1最小差分値MinDiffと第2最小差分値MinDiff_Sとの差分が閾値Wth1を超える場合は第1最小差分値MinDiffに基づいて、被写界画像における対象となる画像の位置を検出するようにした。
また、追尾制御部19eは、第1最小差分値MinDiffと第2最小差分値MinDiff_Sとの差分が閾値Wth1未満の場合は第2最小差分値MinDiff_Sに基づいて、対象となる画像の位
置を検出するようにした。したがって、撮影画面内の追尾対象の被写体の動きが急激に変化した場合であっても、被写体の動きに追従できるので追尾精度を維持できる。
(2) The first search area 49 is configured by an area larger than the second search area 50, and the tracking control unit 19e determines that the difference between the first minimum difference value MinDiff and the second minimum difference value MinDiff_S is a threshold value Wth1. It is determined whether or not. Then, the tracking control unit 19e, when the difference between the first minimum difference value MinDiff and the second minimum difference value MinDiff_S exceeds the threshold Wth1, based on the first minimum difference value MinDiff, the target image in the scene image The position of was detected.
The tracking control unit 19e detects the position of the target image based on the second minimum difference value MinDiff_S when the difference between the first minimum difference value MinDiff and the second minimum difference value MinDiff_S is less than the threshold value Wth1. I did it. Therefore, even when the movement of the subject to be tracked in the shooting screen changes suddenly, the tracking accuracy can be maintained because the movement of the subject can be followed.

(3)追尾制御部19eは、複数回(たとえば5サイクル)における対象の画像の位置に
基づいて、被写界画像における対象の画像の移動距離が閾値Wth2未満か否かを判定するようにした。そして、追尾制御部19eは、第1最小差分値MinDiffと第2最小差分値MinDiff_Sとの差分が閾値Wth1未満と判定され、かつ、移動距離が閾値Wth2未満と判定された場合は、第2最小差分値MinDiff_Sに基づいて、対象となる画像の位置を検出
するようにした。また、第1最小差分値MinDiffと第2最小差分値MinDiff_Sとの差分が閾値Wth1未満と判定され、かつ、移動距離が閾値Wth2以上と判定された場合は、第1最小差分値MinDiffに基づいて、対象となる画像の位置を検出するようにした。したが
って、被写界画像内の背景等に対して擬似マッチングの発生を防ぎ、追尾対象となる被写体の動きに追従できる。
(3) The tracking control unit 19e determines whether the moving distance of the target image in the object scene image is less than the threshold value Wth2 based on the position of the target image in a plurality of times (for example, five cycles). . When the difference between the first minimum difference value MinDiff and the second minimum difference value MinDiff_S is determined to be less than the threshold value Wth1 and the movement distance is determined to be less than the threshold value Wth2, the tracking control unit 19e The position of the target image is detected based on the difference value MinDiff_S. Further, when the difference between the first minimum difference value MinDiff and the second minimum difference value MinDiff_S is determined to be less than the threshold value Wth1, and the movement distance is determined to be equal to or greater than the threshold value Wth2, based on the first minimum difference value MinDiff The position of the target image is detected. Therefore, it is possible to prevent the occurrence of pseudo matching with respect to the background or the like in the object scene image and follow the movement of the subject to be tracked.

以上で説明した実施の形態の撮像装置1を以下のように変形できる。
(1)第1探索領域49の位置および第2探索領域50の位置は、1サイクル前の新追尾被写体位置決定処理において決定した追尾被写体領域47の位置を中心として設定するものに限定されない。たとえば、1サイクル前の新追尾被写体位置決定処理において決定した追尾被写体領域47の位置を中心とした所定領域(前回領域)と、被写界画像において固定された所定領域(固定領域)とを第1探索領域49および第2探索領域50として設定する。なお、上記の固定領域は、たとえば図11において太線で囲んだ領域Rに示すように設定できる。図11(a)は領域Rが撮影画面全体の場合を示し、図11(b)は領域Rが撮影画面の中央近傍(始点位置(x,y)=(6,4)、6×6画素)の場合を示し、図11(c)は領域Rが焦点検出エリア45を包含する領域(始点位置を(x,y)=
(4,4)、10×6画素)の場合を示す。以下、図11、図12を参照しながら、第1
探索領域49および第2探索領域50を設定する位置に関する例を説明する。なお、図11、図12においても、図6および図7の場合と同様に座標系を設定して説明する。
The imaging device 1 according to the embodiment described above can be modified as follows.
(1) The position of the first search area 49 and the position of the second search area 50 are not limited to those set around the position of the tracking subject area 47 determined in the new tracking subject position determination process one cycle before. For example, a predetermined area (previous area) centered on the position of the tracking subject area 47 determined in the new tracking subject position determination process one cycle before and a predetermined area (fixed area) fixed in the object scene image are The first search area 49 and the second search area 50 are set. The fixed area can be set as shown in an area R surrounded by a thick line in FIG. 11, for example. FIG. 11A shows the case where the region R is the entire shooting screen, and FIG. 11B shows the region R in the vicinity of the center of the shooting screen (start position (x, y) = (6, 4), 6 × 6 pixels). ), And FIG. 11C shows a region where the region R includes the focus detection area 45 (the start point position is (x, y) =
The case of (4,4), 10 × 6 pixels) is shown. Hereinafter, referring to FIG. 11 and FIG.
An example regarding the position where the search area 49 and the second search area 50 are set will be described. 11 and 12, description will be made with the coordinate system set as in the case of FIGS.

(1−1)図12(a)は、第1探索領域49が固定領域として図11(a)に示す撮影画面全体に設定され、第2探索領域50が前回領域に設定された場合を示す。なお、図12(a)においては、固定領域として図11(b)に示す撮影画面の中央近傍、または図
11(c)に示す焦点検出エリアを包含する所定領域であってもよい。図12(a)は、始点位置を(x,y)=(4,4)とする6×6画素の領域を第2探索領域50とするように設定された例を示している。
(1-1) FIG. 12A shows a case where the first search area 49 is set as the fixed area on the entire photographing screen shown in FIG. 11A and the second search area 50 is set as the previous area. . In FIG. 12A, the fixed area may be a predetermined area including the vicinity of the center of the photographing screen shown in FIG. 11B or the focus detection area shown in FIG. FIG. 12A shows an example in which a 6 × 6 pixel area having a start point position (x, y) = (4, 4) is set as the second search area 50.

(1−2)図12(b)では、第1探索領域49が前回領域に設定される。さらに、第2探索領域50が固定領域に設定される。図12(b)においては、固定領域として図11(c)に示す、焦点検出エリアを包含する所定領域が設定された場合を示すが、図11(a)に示す撮影画面全体、または図11(b)に示す撮影画面の中央近傍であってもよい。図12(b)では、始点位置を(x,y)=(2,2)とする10×10画素の領域を第1探索領域49とした場合を示す。なお、第2探索領域50は、上述したように、始点位置を(x,y)=(4,4)とする10×6画素の固定領域に設定されている。また、第1探索領域49と第2探索領域50と重畳する領域、すなわち図12(b)において始点位置を(x,y)=(4,4)とする6×8画素の領域が第2探索領域として設定されるようにしてもよい。 (1-2) In FIG. 12B, the first search area 49 is set as the previous area. Further, the second search area 50 is set as a fixed area. FIG. 12B shows a case where a predetermined area including the focus detection area shown in FIG. 11C is set as the fixed area, but the entire photographing screen shown in FIG. 11A or FIG. It may be near the center of the shooting screen shown in (b). FIG. 12B shows a case where an area of 10 × 10 pixels having a starting point position (x, y) = (2, 2) is set as the first search area 49. Note that, as described above, the second search area 50 is set to a fixed area of 10 × 6 pixels with the starting point position (x, y) = (4, 4). In addition, a region overlapping with the first search region 49 and the second search region 50, that is, a 6 × 8 pixel region having a start point position (x, y) = (4, 4) in FIG. It may be set as a search area.

(1−3)さらに加えて、過去複数回に取得された被写界画像における追尾対象の被写体の位置に基づいて、次回に取得される被写界画像における追尾対象の被写体の位置を予測する場合は、予測した位置を中心とした所定領域(予測領域)を第1探索領域49もしくは第2探索領域50として設定できる。この場合、予測領域は、たとえば公知の技術を用いて動きベクトル等を演算し、その演算結果に基づいて予測される。予測領域を設定できる場合は、第1探索領域49および第2探索領域50は、固定領域と前回領域と予測領域とのいずれか2つの領域により設定される。固定領域と前回領域を用いる場合については上記(1−1)および(1−2)と同様なので、前回領域と予測領域とを用いる場合および固定領域と予測領域とを用いる場合について説明する。 (1-3) Further, based on the position of the subject to be tracked in the object scene image acquired a plurality of times in the past, the position of the subject to be tracked in the object scene image acquired next time is predicted. In this case, a predetermined area (predicted area) centered on the predicted position can be set as the first search area 49 or the second search area 50. In this case, the prediction region is predicted based on a calculation result obtained by calculating a motion vector or the like using a known technique, for example. When the prediction area can be set, the first search area 49 and the second search area 50 are set by any two areas of the fixed area, the previous area, and the prediction area. Since the case where the fixed area and the previous area are used is the same as (1-1) and (1-2) above, the case where the previous area and the prediction area are used and the case where the fixed area and the prediction area are used will be described.

図12(c)では、第1探索領域49が前回領域に設定され、第2探索領域50が予測領域に設定される。図12(c)は、始点位置を(x,y)=(2,2)とする10×10画素の領域を第1探索領域49とし、始点位置を(x,y)=(2,3)とする6×6画素の領域を第2探索領域50として設定された例を示している。なお、図12(c)において、第1探索領域49が予測領域に設定され、第2探索領域50が前回領域に設定されるものであってもよい。   In FIG. 12C, the first search area 49 is set as the previous area, and the second search area 50 is set as the prediction area. In FIG. 12C, an area of 10 × 10 pixels with the start point position (x, y) = (2, 2) is defined as the first search area 49, and the start point position is (x, y) = (2, 3). In the example, an area of 6 × 6 pixels is set as the second search area 50. In FIG. 12C, the first search area 49 may be set as the prediction area, and the second search area 50 may be set as the previous area.

(1−4)図12(d)では、第1探索領域49が固定領域として図11(a)に示す撮影画面全体に設定され、第2探索領域50が予測領域に設定された場合を示す。撮影画面全体、すなわち被写界像の全領域が固定された所定領域として設定されるものであってもよい。なお、固定領域として図11(b)に示す撮影画面の中央近傍、または図11(c)に示す焦点検出エリアを包含する所定領域であってもよい。図12(d)は、始点位置を(x,y)=(2,3)とする6×6画素の領域を第2探索領域50として設定された例を示している。なお、図12(d)において、第1探索領域49が予測領域に設定され、第2探索領域50が固定領域に設定されるものであってもよい。 (1-4) FIG. 12D shows a case where the first search area 49 is set as a fixed area on the entire photographing screen shown in FIG. 11A and the second search area 50 is set as a prediction area. . The entire photographing screen, that is, the entire area of the object scene image may be set as a fixed area. Note that the fixed region may be a predetermined region including the vicinity of the center of the photographing screen shown in FIG. 11B or the focus detection area shown in FIG. FIG. 12D shows an example in which an area of 6 × 6 pixels having a starting point position (x, y) = (2, 3) is set as the second search area 50. In FIG. 12D, the first search area 49 may be set as a prediction area, and the second search area 50 may be set as a fixed area.

(2)上述した焦点検出エリアを包含する領域を第2探索領域50として設定した場合には、図10のステップS205における処理、すなわち過去1サイクルの追尾対象の被写体の移動距離が閾値Wth2以下か否かを判定する処理を実行しなくてもよい。たとえば、図11(c)の領域Rを第2探索領域50として設定した場合、ユーザは焦点検出エリア45を用いて追尾対象となる被写体を捉えようとする。そのため、焦点検出エリア45が含まれていない第1探索領域49に基づく演算結果は擬似マッチングの可能性が高くなる。したがって、ステップS205における処理を行うことなくステップS206へ進み、第2探索領域に基づく演算結果を選択することができるので、処理負荷を低減できる。 (2) When the region including the focus detection area described above is set as the second search region 50, is the process in step S205 of FIG. 10, that is, whether the movement distance of the subject to be tracked in the past one cycle is equal to or less than the threshold value Wth2 It is not necessary to execute the process of determining whether or not. For example, when the region R in FIG. 11C is set as the second search region 50, the user uses the focus detection area 45 to try to catch the subject to be tracked. Therefore, the calculation result based on the first search region 49 that does not include the focus detection area 45 is highly likely to be pseudo-matched. Accordingly, the process proceeds to step S206 without performing the process in step S205, and the calculation result based on the second search region can be selected, so that the processing load can be reduced.

(3)閾値Wth1が固定値であるものに代えて、第1最小差分値MinDiff、第2最小差
分値MinDiff_Sに基づいた可変値としてもよい。この場合、たとえば複数回の処理の結果
得られた最小差分値の履歴等に基づいて、自動的に閾値Wth1が算出される。すなわち、過去5サイクルの処理において、ステップS7の類似判定処理により類似していると判定されたときの第1最小差分値MinDiff、または第2最小差分値MinDiff_Sのうち、最大値と最小値との差分を閾値Wth1として設定すればよい。
(3) Instead of the threshold value Wth1 being a fixed value, it may be a variable value based on the first minimum difference value MinDiff and the second minimum difference value MinDiff_S. In this case, for example, the threshold value Wth1 is automatically calculated based on the history of the minimum difference value obtained as a result of a plurality of processes. That is, in the process of the past 5 cycles, the maximum value and the minimum value of the first minimum difference value MinDiff or the second minimum difference value MinDiff_S when determined to be similar by the similarity determination process in step S7. The difference may be set as the threshold value Wth1.

(4)追尾制御部19eは、第1最小差分値MinDiffおよび第2最小差分値MinDiff_Sに優先順位を設定し、第1最小差分値MinDiffと第2最小差分値MinDiff_Sとの差分が閾値Wth1未満の場合に、高い優先順位を設定した最小差分値に基づいて、追尾対象となる画像の位置を検出してもよい。この場合、追尾制御部19eは、第1探索領域49および第2探索領域50のうち、たとえば撮影画面の中央近傍に設けられた焦点検出エリア45cを含む探索領域に対応する最小差分値に高い優先順位を設定すればよい。 (4) The tracking control unit 19e sets a priority for the first minimum difference value MinDiff and the second minimum difference value MinDiff_S, and the difference between the first minimum difference value MinDiff and the second minimum difference value MinDiff_S is less than the threshold value Wth1. In this case, the position of the image to be tracked may be detected based on the minimum difference value for which a high priority is set. In this case, the tracking control unit 19e gives high priority to the minimum difference value corresponding to the search area including the focus detection area 45c provided near the center of the shooting screen, for example, in the first search area 49 and the second search area 50. What is necessary is just to set a ranking.

また、本発明の特徴を損なわない限り、本発明は上記実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。説明に用いた実施の形態および変形例は、それぞれを適宜組合わせて構成しても構わない。   In addition, the present invention is not limited to the above-described embodiment as long as the characteristics of the present invention are not impaired, and other forms conceivable within the scope of the technical idea of the present invention are also within the scope of the present invention. included. The embodiments and modifications used in the description may be configured by appropriately combining them.

1 撮像装置、 16 第2撮像素子、
19 ボディ駆動制御装置、 19e 追尾制御部
1 imaging device, 16 second imaging element,
19 body drive control device, 19e tracking control unit

Claims (4)

撮像部が生成した被写界画像に第1探索領域、及び、前記第1探索領域よりも小さい第2探索領域を設定する設定部と、
追尾対象に対応する基準情報と前記被写界画像における前記第1探索領域内の画像情報との間の相関に対応する第1情報、及び、前記基準情報と前記被写界画像における前記第2探索領域内の画像情報との間の相関に対応する第2情報を演算する演算部と、
前記第1情報及び前記第2情報との比較結果に基づいて、前記第1情報及び前記第2情報の少なくとも一方を用いて前記追尾対象の位置を検出する検出部と、を含むことを特徴とする画像追尾装置。
A setting unit that sets a first search region and a second search region smaller than the first search region in the scene image generated by the imaging unit;
First information corresponding to a correlation between reference information corresponding to a tracking target and image information in the first search region in the object scene image, and the second information in the reference information and the object scene image A calculation unit that calculates second information corresponding to the correlation with the image information in the search area;
A detection unit that detects a position of the tracking target using at least one of the first information and the second information based on a comparison result between the first information and the second information. Image tracking device.
請求項1に記載された画像追尾装置であって、
前記設定部は、前記撮像部が生成した第1被写界画像に前記第1探索領域、及び、前記第2探索領域を設定し、前記第1被写界画像を生成した後に前記撮像部が生成した第2被写界画像に第3探索領域、及び、前記第3探索領域よりも小さい第4探索領域を設定し、
前記演算部は、前記基準情報と前記第1被写界画像における前記第1探索領域内の画像情報との間の相関に対応する第1情報、及び、前記基準情報と前記第1被写界画像における前記第2探索領域内の画像情報との間の相関に対応する第2情報を演算した後、
前記基準情報と前記第2被写界画像における前記第3探索領域内の画像情報との間の相関に対応する第3情報、及び、前記基準情報と前記第2被写界画像における前記第4探索領域内の画像情報との間の相関に対応する第4情報を演算することを特徴とする画像追尾装置。
An image tracking device according to claim 1,
The setting unit sets the first search area and the second search area in the first scene image generated by the imaging unit, and after the first scene image is generated, the imaging unit A third search region and a fourth search region smaller than the third search region are set in the generated second scene image;
The calculation unit includes first information corresponding to a correlation between the reference information and image information in the first search region in the first scene image, and the reference information and the first scene. After calculating the second information corresponding to the correlation with the image information in the second search area in the image,
Third information corresponding to a correlation between the reference information and image information in the third search region in the second scene image, and the fourth information in the reference information and the second scene image An image tracking device that calculates fourth information corresponding to a correlation with image information in a search area .
請求項1に記載された画像追尾装置であって、
前記検出部は、前記第1情報と前記第2情報とを比較する比較部と、
前記比較部の比較結果に基づいて、前記第1情報及び前記第2情報の少なくとも一方を用いて前記追尾対象の位置を検出する検出部と、を含むことを特徴とする画像追尾装置。
An image tracking device according to claim 1 ,
The detection unit includes a comparison unit that compares the first information and the second information;
An image tracking apparatus comprising: a detection unit that detects a position of the tracking target using at least one of the first information and the second information based on a comparison result of the comparison unit.
請求項3に記載された画像追尾装置であって、
前記検出部は、前記第1情報と前記第2情報との差が所定値以上であるとき、前記第1情報を用いて前記追尾対象の位置を検出し、前記第1情報と前記第2情報との差が所定値以上でないとき、前記第2情報を用いて前記追尾対象の位置を検出することを特徴とする画像追尾装置。
An image tracking device according to claim 3 ,
When the difference between the first information and the second information is a predetermined value or more, the detection unit detects the position of the tracking target using the first information, and the first information and the second information An image tracking device , wherein the position of the tracking target is detected using the second information when the difference between and is not equal to or greater than a predetermined value .
JP2013133838A 2013-06-26 2013-06-26 Image tracking device Active JP5541396B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013133838A JP5541396B2 (en) 2013-06-26 2013-06-26 Image tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013133838A JP5541396B2 (en) 2013-06-26 2013-06-26 Image tracking device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009194288A Division JP5347834B2 (en) 2009-08-25 2009-08-25 Image tracking device

Publications (3)

Publication Number Publication Date
JP2013201784A JP2013201784A (en) 2013-10-03
JP2013201784A5 JP2013201784A5 (en) 2013-11-14
JP5541396B2 true JP5541396B2 (en) 2014-07-09

Family

ID=49521611

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013133838A Active JP5541396B2 (en) 2013-06-26 2013-06-26 Image tracking device

Country Status (1)

Country Link
JP (1) JP5541396B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10949983B2 (en) 2015-12-18 2021-03-16 Ricoh Company, Ltd. Image processing apparatus, image processing system, image processing method, and computer-readable recording medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09130784A (en) * 1995-08-25 1997-05-16 Matsushita Electric Works Ltd Automatic tracking method and its device
JP5167750B2 (en) * 2006-10-03 2013-03-21 株式会社ニコン TRACKING DEVICE, IMAGING DEVICE, AND TRACKING METHOD
JP4824586B2 (en) * 2007-01-18 2011-11-30 株式会社リコー Imaging device

Also Published As

Publication number Publication date
JP2013201784A (en) 2013-10-03

Similar Documents

Publication Publication Date Title
JP4872834B2 (en) Image recognition device, focus adjustment device, and imaging device
JP5247076B2 (en) Image tracking device, focus adjustment device, and imaging device
JP5176483B2 (en) Image recognition device, image tracking device, and imaging device
JP5157256B2 (en) Image tracking device and imaging device
JP2009109839A (en) Image tracking device and imaging device
JP4888249B2 (en) Focus detection apparatus and imaging apparatus
JP2012208507A (en) Image tracking device
JP2008271006A (en) Image-tracking device and method therefor, and imaging device
JP2012226206A (en) Image tracking device and imaging apparatus
JP4985155B2 (en) Focus adjustment device and imaging device
JP5541396B2 (en) Image tracking device
JP5446660B2 (en) Image recognition apparatus and imaging apparatus
JP2018004904A (en) Subject tracking device and imaging device
JP2010200138A (en) Photographic subject tracking device
JP5447579B2 (en) Tracking device, focus adjustment device, and photographing device
JP5347834B2 (en) Image tracking device
JP5176845B2 (en) Image tracking device and imaging device
JP5966249B2 (en) Image tracking device
JP5233646B2 (en) Image tracking device, imaging device, and image tracking method
JP2010054586A (en) Focusing device and imaging apparatus
JP2012093775A (en) Focus detector and imaging apparatus
JP5772933B2 (en) Imaging device
JP2018063439A (en) Focus adjustment device and imaging device
JP2013187665A (en) Imaging apparatus
JP2016028298A (en) Focus adjustment device and imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140408

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140421

R150 Certificate of patent or registration of utility model

Ref document number: 5541396

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250