JP5233646B2 - Image tracking device, imaging device, and image tracking method - Google Patents

Image tracking device, imaging device, and image tracking method Download PDF

Info

Publication number
JP5233646B2
JP5233646B2 JP2008321352A JP2008321352A JP5233646B2 JP 5233646 B2 JP5233646 B2 JP 5233646B2 JP 2008321352 A JP2008321352 A JP 2008321352A JP 2008321352 A JP2008321352 A JP 2008321352A JP 5233646 B2 JP5233646 B2 JP 5233646B2
Authority
JP
Japan
Prior art keywords
image
tracking
detection
evaluation information
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008321352A
Other languages
Japanese (ja)
Other versions
JP2010147694A (en
Inventor
慶子 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008321352A priority Critical patent/JP5233646B2/en
Publication of JP2010147694A publication Critical patent/JP2010147694A/en
Application granted granted Critical
Publication of JP5233646B2 publication Critical patent/JP5233646B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本発明は、画像追尾装置、撮像装置および画像追尾方法に関する。   The present invention relates to an image tracking device, an imaging device, and an image tracking method.

移動被写体を撮影する際に、画面内の指定部分の被写体像をテンプレート画像として取得し、繰り返し撮影する画像の中でテンプレート画像と類似した被写体像の位置を検索(テンプレートマッチング)し、画面内を移動する被写体を追尾するようにした画像追尾装置が知られている(例えば、特許文献1参照)。
特開2006−058431号公報
When shooting a moving subject, the subject image of the specified part in the screen is acquired as a template image, and the position of the subject image similar to the template image is searched (template matching) among the images to be repeatedly shot. 2. Description of the Related Art An image tracking device that tracks a moving subject is known (see, for example, Patent Document 1).
JP 2006-058431 A

上述した従来の画像追尾装置において、繰り返し撮影される画像の画素数が少ないと、画面内の小さな被写体を検出することが困難になる上に、被写体の細かい動きにも追従し難くなるため、テンプレートマッチングに用いる画像の画素数は多い方がよい。ところが、画素数が多いほど、テンプレートマッチングに要する演算量が増大するという問題がある。   In the conventional image tracking device described above, if the number of pixels of an image that is repeatedly shot is small, it is difficult to detect a small subject in the screen and it is difficult to follow the fine movement of the subject. It is better that the number of pixels of the image used for matching is large. However, there is a problem that the amount of calculation required for template matching increases as the number of pixels increases.

本発明による画像追尾装置は、結像光学系により結像される被写界の被写界画像を繰り返し撮像する撮像手段と、被写界画像に基づいて、所定の第1の解像度における第1評価情報と、第1の解像度よりも高い所定の第2の解像度における第2評価情報とを作成する作成手段と、追尾対象の画像に関する基準情報と第1評価情報とに基づいて、被写界画像における追尾対象の候補位置を検出する第1の検出を行い、必要に応じて、基準情報と第2評価情報とに基づいて、被写界画像における追尾対象の位置を検出する第2の検出を行う検出手段とを備える。
本発明による撮像装置は、画像追尾装置と、検出手段により検出された追尾対象の位置について結像光学系の焦点調節状態を検出する焦点検出手段と、焦点検出手段により検出された焦点調節状態に基づいて結像光学系の焦点調節を行う焦点調節手段とを備える。
本発明による画像追尾方法は、結像光学系により結像される被写界の被写界画像を繰り返し撮像し、被写界画像に基づいて、所定の第1の解像度における第1評価情報と、第1の解像度よりも高い所定の第2の解像度における第2評価情報とを作成し、被写界に第1の探索範囲を設定し、第1評価情報のうち第1の探索範囲に対応する部分の評価情報と追尾対象の画像に関する基準情報とに基づいて、被写界に第1の探索範囲よりも狭い第2の探索範囲を設定し、第2評価情報のうち第2の探索範囲に対応する部分の評価情報と基準情報とに基づいて、被写界画像における追尾対象の位置を検出する。
An image tracking device according to the present invention includes an imaging unit that repeatedly captures an object scene image formed by an imaging optical system, and a first image having a predetermined first resolution based on the object field image. Based on the creation means for creating the evaluation information and the second evaluation information at a predetermined second resolution higher than the first resolution, the reference information about the image to be tracked and the first evaluation information, First detection for detecting a candidate position of the tracking target in the image and detecting a position of the tracking target in the object scene image based on the reference information and the second evaluation information as necessary And detecting means for performing.
An imaging apparatus according to the present invention includes an image tracking device, a focus detection unit that detects a focus adjustment state of the imaging optical system for the position of the tracking target detected by the detection unit, and a focus adjustment state detected by the focus detection unit. And a focus adjusting means for adjusting the focus of the imaging optical system.
An image tracking method according to the present invention repeatedly captures a scene image of a scene formed by an imaging optical system, and uses first evaluation information at a predetermined first resolution based on the scene image. Generating second evaluation information at a predetermined second resolution higher than the first resolution, setting a first search range in the object field, and corresponding to the first search range in the first evaluation information A second search range narrower than the first search range is set in the object scene based on the evaluation information of the portion to be tracked and the reference information about the image to be tracked, and the second search range of the second evaluation information The position of the tracking target in the object scene image is detected based on the evaluation information and the reference information of the part corresponding to.

本発明による画像追尾装置は、結像光学系により結像される被写界の被写界画像を繰り返し撮像する撮像手段と、前記被写界画像に基づいて、所定の第1の解像度における第1評価情報と、前記第1の解像度よりも高い所定の第2の解像度における第2評価情報とを作成する作成手段と、追尾対象の画像に関する基準情報と前記第1評価情報とに基づいて、前記被写界画像における前記追尾対象の候補位置を検出する第1の検出を行い、必要に応じて、前記基準情報と前記第2評価情報とに基づいて、前記被写界画像における前記追尾対象の位置を検出する第2の検出を行う検出手段と、前記第2の検出を行うか否かを判定する判定手段と、を備え、前記検出手段は、前記判定手段により前記第2の検出を行わないと判定された場合、前記第1の検出で検出された前記候補位置を前記追尾対象の位置とし、前記判定手段は、前記第1評価情報のうち前記候補位置に対応する部分の評価情報と前記基準情報との類似度に応じて、前記第2の検出を行うか否かを判定することを特徴とする。
本発明による撮像装置は、請求項1〜5のいずれか一項に記載の画像追尾装置と、前記検出手段により検出された前記追尾対象の位置について前記結像光学系の焦点調節状態を検出する焦点検出手段と、前記焦点検出手段により検出された前記焦点調節状態に基づいて前記結像光学系の焦点調節を行う焦点調節手段と、を備えることを特徴とする。
本発明による画像追尾方法は、結像光学系により結像される被写界の被写界画像を繰り返し撮像し、前記被写界画像に基づいて、所定の第1の解像度における第1評価情報と、前記第1の解像度よりも高い所定の第2の解像度における第2評価情報と、を作成し、前記被写界に第1の探索範囲を設定し、前記第1評価情報のうち前記第1の探索範囲に対応する部分の評価情報と追尾対象の画像に関する基準情報とに基づいて、前記被写界に前記第1の探索範囲よりも狭い第2の探索範囲を設定し、前記追尾対象の画像に関する基準情報と前記第1評価情報とに基づいて、前記被写界画像における前記追尾対象の候補位置を検出する第1の検出を行い、必要に応じて、前記基準情報と前記第2評価情報とに基づいて、前記被写界画像における前記追尾対象の位置を検出する第2の検出を行い、前記第1評価情報のうち前記候補位置に対応する部分の評価情報と前記基準情報との類似度に応じて、前記基準情報と前記第2評価情報とに基づいて、前記被写界画像における前記追尾対象の位置を検出する前記第2の検出を行うか否かを判定し、前記第2の検出を行わないと判定された場合、前記第1の検出で検出された前記候補位置を前記追尾対象の位置とすることを特徴とする。
An image tracking device according to the present invention includes an imaging unit that repeatedly captures a scene image of a scene formed by an imaging optical system, and a first resolution at a predetermined first resolution based on the scene image. Based on the creation means for creating the 1 evaluation information and the second evaluation information at a predetermined second resolution higher than the first resolution, the reference information on the image to be tracked, and the first evaluation information, The tracking target in the scene image is detected based on the reference information and the second evaluation information, if necessary, by performing a first detection for detecting a candidate position of the tracking target in the scene image. Detecting means for detecting the position of the second detection means, and determination means for determining whether or not to perform the second detection. The detection means performs the second detection by the determination means. If it is determined not to do so, The candidate position detected in the detection of the position is set as the position of the tracking target, and the determination unit is configured according to the degree of similarity between the evaluation information of the portion corresponding to the candidate position in the first evaluation information and the reference information. And determining whether or not to perform the second detection.
An imaging apparatus according to the present invention detects the focus adjustment state of the imaging optical system for the position of the tracking target detected by the image tracking apparatus according to any one of claims 1 to 5 and the detection means. Focus detection means, and focus adjustment means for adjusting the focus of the imaging optical system based on the focus adjustment state detected by the focus detection means.
The image tracking method according to the present invention repeatedly captures a scene image of a scene imaged by an imaging optical system, and first evaluation information at a predetermined first resolution based on the scene image. And second evaluation information at a predetermined second resolution higher than the first resolution, a first search range is set in the object scene, and the first evaluation information includes the first evaluation range. A second search range narrower than the first search range is set in the object scene based on the evaluation information of the portion corresponding to one search range and the reference information on the tracking target image, and the tracking target First detection for detecting a candidate position of the tracking target in the object scene image is performed based on the reference information regarding the image of the image and the first evaluation information, and if necessary, the reference information and the second Based on the evaluation information Second detection is performed to detect the position of the tracking target, and the reference information and the second information are determined according to the similarity between the evaluation information of the portion corresponding to the candidate position in the first evaluation information and the reference information. Based on the evaluation information, it is determined whether to perform the second detection for detecting the position of the tracking target in the object scene image, and when it is determined not to perform the second detection, The candidate position detected by the first detection is set as the tracking target position.

撮影画面内に設定された複数の焦点検出エリアにおいて撮影レンズの焦点調節状態(この一実施の形態ではデフォーカス量)を検出し、いずれかのエリアのデフォーカス量に基づいて撮影レンズを合焦駆動する自動焦点調節(AF)機能と、撮影画像の中の追尾対象の被写体の画像をテンプレート画像(基準画像)として記憶し、繰り返し撮像される画像の中でテンプレート画像と同一または類似した画像の位置を検索しながら(テンプレートマッチング)追尾対象の被写体を追尾する画像追尾機能とを備え、AF機能と画像追尾機能により撮影レンズを駆動しながら追尾対象を追尾する画像追尾装置を備えた撮像装置(一眼レフデジタルスチルカメラ)の一実施の形態を説明する。   The focus adjustment state of the photographic lens (in this embodiment, the defocus amount) is detected in a plurality of focus detection areas set in the photographic screen, and the photographic lens is focused based on the defocus amount in one of the areas. The automatic focus adjustment (AF) function to be driven and the image of the subject to be tracked in the photographed image are stored as a template image (reference image). An image pickup apparatus having an image tracking function for tracking a subject to be tracked while searching for a position (template matching), and an image tracking device for tracking the tracking target while driving a photographing lens with the AF function and the image tracking function ( An embodiment of a single lens reflex digital still camera) will be described.

図1は、一実施の形態の画像追尾装置を備えた撮像装置(一眼レフデジタルスチルカメラ)1の構成を示す。なお、図1では本願発明と直接関係のないカメラの機器および回路についての図示と説明を省略する。一実施の形態のカメラ1は、カメラ本体2に交換レンズ3が着脱可能に装着される。カメラ本体2には被写界像を撮像して画像を記録するための第1撮像素子4が設けられる。この第1撮像素子4はCCDやCMOSなどにより構成することができる。撮影時にはクイックリターンミラー5およびサブミラー6が実線で示す撮影光路外の位置に退避してシャッター7が開放され、撮影レンズ8により第1撮像素子4の受光面に被写体像が結像される。   FIG. 1 shows a configuration of an imaging apparatus (single-lens reflex digital still camera) 1 including an image tracking apparatus according to an embodiment. In FIG. 1, illustration and description of camera devices and circuits not directly related to the present invention are omitted. In a camera 1 according to an embodiment, an interchangeable lens 3 is detachably attached to a camera body 2. The camera body 2 is provided with a first image sensor 4 for capturing an object scene image and recording the image. The first image sensor 4 can be constituted by a CCD, a CMOS, or the like. At the time of photographing, the quick return mirror 5 and the sub mirror 6 are retracted to a position outside the photographing optical path indicated by a solid line, the shutter 7 is opened, and a subject image is formed on the light receiving surface of the first image sensor 4 by the photographing lens 8.

カメラ本体2の底部には、撮影レンズ8の焦点調節状態を検出するための焦点検出光学系9と測距素子10が設けられている。この一実施の形態では、瞳分割型位相差検出方式による焦点検出方法を採用した例を示す。焦点検出光学系9は、撮影レンズ8を通過した対の焦点検出用光束を測距素子10の受光面へ導き、対の光像を結像させる。測距素子10は例えば対のCCDラインセンサーを備え、対の光像に応じた焦点検出信号を出力する。撮影前にはクイックリターンミラー5およびサブミラー6が破線で示すような撮影光路内の位置に設定されており、撮影レンズ8からの対の焦点検出用光束はクイックリターンミラー5のハーフミラー部を透過し、サブミラー6により反射されて焦点検出光学系9および測距素子10へ導かれる。   At the bottom of the camera body 2, a focus detection optical system 9 and a distance measuring element 10 for detecting the focus adjustment state of the photographing lens 8 are provided. In this embodiment, an example is shown in which a focus detection method based on a pupil division type phase difference detection method is employed. The focus detection optical system 9 guides the pair of focus detection light fluxes that have passed through the photographing lens 8 to the light receiving surface of the distance measuring element 10 and forms a pair of optical images. The distance measuring element 10 includes, for example, a pair of CCD line sensors, and outputs a focus detection signal corresponding to the pair of optical images. Before shooting, the quick return mirror 5 and the sub mirror 6 are set at positions in the shooting optical path as indicated by broken lines, and the pair of focus detection light beams from the shooting lens 8 are transmitted through the half mirror portion of the quick return mirror 5. Then, the light is reflected by the sub mirror 6 and guided to the focus detection optical system 9 and the distance measuring element 10.

カメラ本体2の上部にはファインダー光学系が設けられている。撮影前にはクイックリターンミラー5およびサブミラー6が破線で示す位置にあり、撮影レンズ8からの被写体光の一部はクイックリターンミラー5に反射されて焦点板11へ導かれ、焦点板11上に被写体像が結像する。液晶表示素子12は、焦点板11上に結像された被写界像に焦点検出エリアマークなどの情報を重畳表示するとともに、被写界像外の位置に露出値などの種々の撮影情報を表示する。焦点板11上の被写界像はペンタダハプリズム13および接眼レンズ14を介して接眼窓15へ導かれ、撮影者が被写界像を視認することができる。   A finder optical system is provided on the upper part of the camera body 2. Before shooting, the quick return mirror 5 and the sub mirror 6 are in the positions indicated by broken lines, and part of the subject light from the shooting lens 8 is reflected by the quick return mirror 5 and guided to the focusing screen 11, and on the focusing screen 11. A subject image is formed. The liquid crystal display element 12 superimposes and displays information such as a focus detection area mark on the object scene image formed on the focusing screen 11 and displays various shooting information such as an exposure value at a position outside the object scene image. indicate. The object scene image on the focusing screen 11 is guided to the eyepiece window 15 via the penta roof prism 13 and the eyepiece lens 14 so that the photographer can visually recognize the object scene image.

また、カメラ本体2上部のファインダー光学系には、被写体追尾や測光のために被写界像を撮像する第2撮像素子16が設けられる。焦点板11に結像した被写界像は、ペンタダハプリズム13、プリズム17および結像レンズ18を介して第2撮像素子16の受光面に再結像される。第2撮像素子16は、マトリクス状に配列された複数の画素(光電変換素子)(この一実施の形態では、横640個×縦480個の画素が正方配列された一例を示す)を備えている。さらに、各画素は3個の部分に分割され、これらの部分にはそれぞれ赤R、緑G、青Bの原色フィルターが設けられている。これにより、各画素ごとに被写界画像のRGB信号を出力することができる。詳細を後述するが、この第2撮像素子16により撮像された被写界画像に基づいて追尾制御と露出演算が行われる。なお、追尾制御と露出演算は第1撮像素子4により撮像された被写界画像に基づいて行うこととしてもよい。   The finder optical system at the top of the camera body 2 is provided with a second image sensor 16 that captures an object scene image for subject tracking and photometry. The object scene image formed on the focusing screen 11 is re-imaged on the light receiving surface of the second image sensor 16 via the penta roof prism 13, the prism 17 and the imaging lens 18. The second imaging element 16 includes a plurality of pixels (photoelectric conversion elements) arranged in a matrix (in this embodiment, an example in which 640 pixels in the horizontal direction and 480 pixels in the vertical direction are arranged in a square) is shown. Yes. Further, each pixel is divided into three parts, and red R, green G, and blue B primary color filters are provided in these parts, respectively. Thereby, the RGB signal of the object scene image can be output for each pixel. Although details will be described later, tracking control and exposure calculation are performed based on the object scene image captured by the second image sensor 16. The tracking control and the exposure calculation may be performed based on the scene image captured by the first image sensor 4.

カメラ本体2にはまた、ボディ駆動制御装置19、操作部材20などが設けられる。ボディ駆動制御装置19は、詳細を後述するマイクロコンピューターとメモリ、A/D変換器などの周辺部品から構成され、カメラ1の種々の制御と演算を行う。操作部材20には、レリーズボタン、焦点検出エリア選択スイッチ、撮影モード選択スイッチなどのカメラ1を操作するためのスイッチやセレクターが含まれる。   The camera body 2 is also provided with a body drive control device 19 and an operation member 20. The body drive control device 19 is constituted by peripheral components such as a microcomputer, a memory, and an A / D converter, the details of which will be described later, and performs various controls and calculations of the camera 1. The operation member 20 includes a switch and a selector for operating the camera 1, such as a release button, a focus detection area selection switch, and a shooting mode selection switch.

交換レンズ3には、ズーミングレンズ8a、フォーカシングレンズ8b、絞り21、レンズ駆動制御装置22などが設けられる。なお、この一実施の形態では撮影レンズ8をズーミングレンズ8a、フォーカシングレンズ8bおよび絞り21で代表的に表すが、撮影レンズ8の構成は図1に示す構成に限定されない。レンズ駆動制御装置22は図示しないマイクロコンピューターとメモリ、駆動回路、アクチュエーターなどの周辺部品から構成され、レンズ8a、8bおよび絞り21の駆動制御とそれらの位置検出を行う。レンズ駆動制御装置22に内蔵されるメモリには、交換レンズ3の焦点距離や開放絞り値などのレンズ情報が記憶されている。   The interchangeable lens 3 is provided with a zooming lens 8a, a focusing lens 8b, a diaphragm 21, a lens drive control device 22, and the like. In this embodiment, the photographing lens 8 is representatively represented by a zooming lens 8a, a focusing lens 8b, and a diaphragm 21, but the configuration of the photographing lens 8 is not limited to the configuration shown in FIG. The lens drive control device 22 includes a microcomputer (not shown) and peripheral components such as a memory, a drive circuit, and an actuator, and performs drive control of the lenses 8a and 8b and the diaphragm 21 and detection of their positions. Lens information such as a focal length and an open aperture value of the interchangeable lens 3 is stored in a memory built in the lens drive control device 22.

ボディ駆動制御装置19とレンズ駆動制御装置22はレンズマウント部の接点23を介して通信を行い、ボディ駆動制御装置19からレンズ駆動制御装置22へレンズ駆動量や絞り値などの情報を送信し、レンズ駆動制御装置22からボディ駆動制御装置19へレンズ情報や絞り情報を送信する。   The body drive control device 19 and the lens drive control device 22 communicate via the contact 23 of the lens mount, and transmit information such as a lens drive amount and an aperture value from the body drive control device 19 to the lens drive control device 22. Lens information and aperture information are transmitted from the lens drive control device 22 to the body drive control device 19.

図2はボディ駆動制御装置19の詳細な構成を示す。なお、本願発明と直接関係のない制御機能については図示と説明を省略する。ボディ駆動制御装置19は素子制御回路19a、A/D変換器19b、マイクロコンピューター19c、メモリ19dなどを備えている。素子制御回路19aは第2撮像素子16の電荷の蓄積と読み出しを制御する。A/D変換器19bは、第2撮像素子16から出力されるアナログ画像信号をデジタル画像信号に変換する。撮影者により操作部材20のレリーズボタンが半押しされると半押しスイッチ(不図示)がオンし、図1に示すように、撮影レンズ8を通過した被写体光の一部は破線で示すクイックリターンミラー5により反射され、ペンタダハプリズム13、プリズム17および結像レンズ18を介して第2撮像素子16へ導かれる。レリーズボタンが半押しされている間、第2撮像素子16により繰り返し周期的に被写界像を撮像することができる。   FIG. 2 shows a detailed configuration of the body drive control device 19. Note that illustration and description of control functions not directly related to the present invention are omitted. The body drive control device 19 includes an element control circuit 19a, an A / D converter 19b, a microcomputer 19c, a memory 19d, and the like. The element control circuit 19 a controls charge accumulation and reading of the second image sensor 16. The A / D converter 19b converts the analog image signal output from the second image sensor 16 into a digital image signal. When the release button of the operation member 20 is half-pressed by the photographer, a half-press switch (not shown) is turned on, and as shown in FIG. 1, part of the subject light that has passed through the photographing lens 8 is a quick return indicated by a broken line. The light is reflected by the mirror 5 and guided to the second image sensor 16 via the penta roof prism 13, the prism 17 and the imaging lens 18. While the release button is pressed halfway, the second image sensor 16 can repeatedly and periodically capture the scene image.

マイクロコンピューター19cは、ソフトウエア形態により追尾制御部19e、露出制御部19f、焦点検出演算部19gおよびレンズ駆動量演算部19hを構成する。メモリ19dは、画像追尾用のテンプレート画像やデフォーカス量などの情報、撮影レンズ8の焦点距離、開放F値、絞り値、像ズレ量からデフォーカス量への変換係数などのレンズ情報などを記憶する。   The microcomputer 19c constitutes a tracking control unit 19e, an exposure control unit 19f, a focus detection calculation unit 19g, and a lens drive amount calculation unit 19h according to a software form. The memory 19d stores information such as a template image for image tracking and defocus amount, lens information such as focal length, open F value, aperture value, and image shift amount to defocus amount conversion coefficient of the taking lens 8. To do.

追尾制御部19eは、第2撮像素子16により撮像した被写界像の内、撮影者が手動で指定した追尾対象位置、あるいはカメラ1が自動で設定した追尾対象位置に対応する画像をテンプレート画像(基準画像)としてメモリ19dに記憶させ、その後に繰り返し撮影される画像の中からテンプレート画像と一致または類似する画像領域を検索することによって対象の位置を認識する。露出演算部19fは、第2撮像素子16により撮像した画像信号に基づいて露出値を演算する。   The tracking control unit 19e uses a template image as an image corresponding to the tracking target position manually specified by the photographer or the tracking target position automatically set by the camera 1 in the object scene image captured by the second image sensor 16. It is stored in the memory 19d as a (reference image), and the position of the object is recognized by searching an image area that matches or is similar to the template image from images that are repeatedly photographed thereafter. The exposure calculation unit 19f calculates an exposure value based on the image signal captured by the second image sensor 16.

焦点検出演算部19gは、測距素子10から出力される対の光像に応じた焦点検出信号に基づいて撮影レンズ8の焦点調節状態、ここではデフォーカス量を検出する。なお、詳細を後述するが、撮影レンズ8により結像される被写界には複数の焦点検出エリアが予め設定されている。測距素子10は焦点検出エリアごとに対の光像に応じた焦点検出信号を出力し、焦点検出演算部19gは焦点検出エリアごとに対の光像に応じた焦点検出信号に基づいてデフォーカス量を検出する。撮影者により操作部材20のレリーズボタンが半押しされると半押しスイッチ(不図示)がオンし、図1に示すように、撮影レンズ8を通過した被写体光の一部は破線で示すクイックリターンミラー5のハーフミラー部を通ってサブミラー6および焦点検出光学系9を介して測距素子10へ導かれ、焦点検出演算部19gにより焦点検出演算が行われる。レンズ駆動量演算部19hは検出されたデフォーカス量をレンズ駆動量に変換する。なお、焦点調節状態の検出は、レリーズボタンが半押しされている間、繰り返し周期的に行われる。   The focus detection calculation unit 19g detects the focus adjustment state of the photographing lens 8, here the defocus amount, based on the focus detection signal corresponding to the pair of optical images output from the distance measuring element 10. Although details will be described later, a plurality of focus detection areas are set in advance in the object field formed by the photographing lens 8. The distance measuring element 10 outputs a focus detection signal corresponding to the pair of light images for each focus detection area, and the focus detection calculation unit 19g defocuses based on the focus detection signal corresponding to the pair of light images for each focus detection area. Detect the amount. When the release button of the operation member 20 is half-pressed by the photographer, a half-press switch (not shown) is turned on, and as shown in FIG. 1, part of the subject light that has passed through the photographing lens 8 is a quick return indicated by a broken line. The light is guided to the distance measuring element 10 through the sub-mirror 6 and the focus detection optical system 9 through the half mirror part of the mirror 5, and the focus detection calculation part 19g performs the focus detection calculation. The lens driving amount calculation unit 19h converts the detected defocus amount into a lens driving amount. The focus adjustment state is repeatedly and periodically detected while the release button is pressed halfway.

次に、一実施の形態の画像追尾動作を説明する。図3〜図8は一実施の形態の画像追尾動作を説明するための図、図9、図10は一実施の形態の画像追尾処理を示すフローチャートである。レリーズボタンを全押しして撮影を行うとき以外は、クイックリターンミラー5が図1に破線で示す撮影光路内に設定されており、撮影レンズ8から入射した被写体光の一部は焦点板11上に結像される。そして、焦点板11上の被写界像はペンタダハプリズム13、プリズム17および結像レンズ18を介して第2撮像素子16へ導かれ、第2撮像素子16により繰り返し撮像される。これにより、第2撮像素子16から被写界画像信号が繰り返し出力される。   Next, an image tracking operation according to an embodiment will be described. 3 to 8 are diagrams for explaining the image tracking operation according to the embodiment, and FIGS. 9 and 10 are flowcharts illustrating the image tracking processing according to the embodiment. The quick return mirror 5 is set in the photographing optical path shown by a broken line in FIG. 1 except when the release button is fully pressed to shoot, and part of the subject light incident from the photographing lens 8 is on the focusing screen 11. Is imaged. The object scene image on the focusing screen 11 is guided to the second image sensor 16 via the penta roof prism 13, the prism 17 and the imaging lens 18, and is repeatedly imaged by the second image sensor 16. Thereby, the object scene image signal is repeatedly output from the second image sensor 16.

撮影レンズ8の撮影画面内の範囲には複数の焦点検出エリアが設定されており、液晶表示素子12により焦点板11上の被写界像にエリアマークを重畳し、各焦点検出エリアの位置を表示する。この一実施の形態では、図3に示すように、撮影画面内の7カ所に焦点検出エリア45a〜45g(図中にはa〜gと表記)が設定された例を示す。また、操作部材20の焦点検出エリア選択スイッチにより任意のエリアを選択すると、そのエリアのマークが点灯表示される。   A plurality of focus detection areas are set in the range of the shooting screen of the shooting lens 8, and an area mark is superimposed on the object scene image on the focusing screen 11 by the liquid crystal display element 12, and the position of each focus detection area is determined. indicate. In this embodiment, as shown in FIG. 3, an example is shown in which focus detection areas 45a to 45g (denoted as a to g in the figure) are set at seven locations in the photographing screen. When an arbitrary area is selected by the focus detection area selection switch of the operation member 20, the mark of the area is lit up.

図3に示すように操作部材20の焦点検出エリア選択スイッチにより焦点検出エリア45bが選択され、この状態で操作部材20のレリーズボタンが半押しされると、焦点検出エリア45bが初回AFエリアとしてメモリ19dに記憶される。これにより、追尾対象として初回AFエリア内の被写体が指定される。なお、ここでは撮影者が初回AFエリアを選択して追尾対象の被写体を手動で指定する例を示すが、例えば自動的に被写体を認識する機能を備えたカメラでは被写体認識結果に基づいて初回AFエリアおよび追尾対象被写体を設定してもよい。   As shown in FIG. 3, when the focus detection area 45b is selected by the focus detection area selection switch of the operation member 20, and the release button of the operation member 20 is half-pressed in this state, the focus detection area 45b is stored as the first AF area. 19d. Thereby, the subject in the first AF area is designated as the tracking target. In this example, the photographer selects the first AF area and manually designates the subject to be tracked. For example, in a camera having a function of automatically recognizing the subject, the first AF is performed based on the subject recognition result. An area and a tracking target subject may be set.

図9のステップS1において、第2撮像素子16により追尾初期画像(画像追尾処理を開始して最初に取得する画像)を取得する。第2撮像素子16により撮像された画像情報は、画素ごとにRGB値で表される。
R[x,y]、G[x,y]、B[x,y],
x=1〜640、y=1〜480 ・・・(1)
In step S <b> 1 of FIG. 9, an initial tracking image (an image acquired first after starting the image tracking process) is acquired by the second image sensor 16. Image information captured by the second image sensor 16 is represented by RGB values for each pixel.
R [x, y], G [x, y], B [x, y],
x = 1 to 640, y = 1 to 480 (1)

次に、ステップS2で図10に示す追尾制御初期処理を追尾制御部19eにより実行する。図10のステップS100において、追尾制御部19eは、ステップS1で取得した追尾初期画像に基づいて、画像追尾処理に用いるテンプレート画像を得るための評価情報を作成する。ここでは、追尾初期画像から解像度の異なる2種類の画像(評価画像)を作成し、これらを評価情報として用いる。たとえば、図3に示す撮影画面から得られた追尾初期画像の解像度を2段階に下げることで、図4(a)に示す評価画像40aと、図4(b)に示す評価画像40bとを評価情報として作成する。ここで、評価画像40aの方が評価画像40bよりも解像度が高い。たとえば、640×480画素の追尾初期画像から、64×48画素の評価画像40aと、32×24画素の評価画像40bとを作成する。   Next, in step S2, the tracking control initial process shown in FIG. 10 is executed by the tracking control unit 19e. In step S100 of FIG. 10, the tracking control unit 19e creates evaluation information for obtaining a template image used for the image tracking process based on the initial tracking image acquired in step S1. Here, two types of images (evaluation images) having different resolutions are created from the initial tracking image, and these are used as evaluation information. For example, the evaluation image 40a shown in FIG. 4A and the evaluation image 40b shown in FIG. 4B are evaluated by reducing the resolution of the tracking initial image obtained from the shooting screen shown in FIG. Create as information. Here, the resolution of the evaluation image 40a is higher than that of the evaluation image 40b. For example, a 64 × 48 pixel evaluation image 40a and a 32 × 24 pixel evaluation image 40b are created from a tracking initial image of 640 × 480 pixels.

なお、ステップS100において評価情報を作成する際に追尾初期画像の解像度を下げる方法には、どのようなものを用いてもよい。たとえば、追尾初期画像において隣接する所定数の画素同士をまとめて1つのブロックとするブロック化を行い、各ブロックごとに当該ブロックに含まれる全画素のRGB値を平均化または合計することで、追尾初期画像の解像度を下げることができる。このとき、いくつかの画素を間引いてもよい。あるいは、各ブロック内で1つの画素を当該ブロックの代表画素として選択し、その代表画素のRGB値により評価画像を表してもよい。   Note that any method may be used as a method of reducing the resolution of the tracking initial image when creating the evaluation information in step S100. For example, in a tracking initial image, a predetermined number of adjacent pixels are grouped into one block, and the RGB values of all the pixels included in the block are averaged or summed for each block. The resolution of the initial image can be lowered. At this time, some pixels may be thinned out. Alternatively, one pixel in each block may be selected as the representative pixel of the block, and the evaluation image may be represented by the RGB value of the representative pixel.

ステップS101において、追尾制御部19eは、図9のステップS1で取得した追尾初期画像の中の撮影者が指定した位置(ここでは初回AFエリアである焦点検出エリア45b)の画像情報((1)式参照)を被写体色情報として記憶する。このとき使用する色情報は、第2撮像素子16から得た画像情報を使ってもいいし、評価画像の情報を使ってもよい。ステップS102において、追尾制御部19eは、図5(a)に示すように、追尾初期画像の中の焦点検出エリア45b(図3参照)の位置周辺部において上記被写体色情報と同様な色情報を示す同色情報領域46を検出する。続くステップS103において、追尾制御部19eは、ステップS102で検出した同色情報領域46を含む四角形の領域を初期の追尾被写体領域47とする。   In step S101, the tracking control unit 19e displays image information ((1) of the position (here, the focus detection area 45b which is the initial AF area) designated by the photographer in the initial tracking image acquired in step S1 of FIG. Is stored as subject color information. As the color information used at this time, image information obtained from the second image sensor 16 may be used, or information of an evaluation image may be used. In step S102, as shown in FIG. 5A, the tracking control unit 19e displays color information similar to the subject color information in the position peripheral portion of the focus detection area 45b (see FIG. 3) in the tracking initial image. The same color information area 46 shown is detected. In subsequent step S103, the tracking control unit 19e sets the rectangular area including the same color information area 46 detected in step S102 as the initial tracking subject area 47.

なお、ここでは被写体色情報に基づいて追尾被写体領域47を決定する例を示すが、処理の簡素化を図るために一律に3×3画素のように追尾被写体領域のサイズを統一したり、あるいは撮影レンズ8の距離情報や被写体の像倍率に応じて追尾被写体領域のサイズを決定してもよい。   Here, an example in which the tracking subject area 47 is determined based on the subject color information is shown, but in order to simplify the processing, the size of the tracking subject area is uniformly set to 3 × 3 pixels, or The size of the tracking subject area may be determined according to the distance information of the photographing lens 8 and the image magnification of the subject.

ステップS104において、追尾制御部19eは、ステップS100で作成した評価情報、すなわち解像度の異なる評価画像40a、40bのうち、ステップS103で決定した追尾初期画像における追尾被写体領域47にそれぞれ対応する部分の画像情報を、テンプレート画像としてメモリ19dに記憶する。これにより、評価画像40aに対しては図5(b)に示すテンプレート画像48aがメモリ19dに記憶され、評価画像40bに対しては図5(c)に示すテンプレート画像48bがメモリ19dに記憶される。これらのテンプレート画像は、いずれも追尾対象の画像に関する基準情報を表している。   In step S104, the tracking control unit 19e includes the evaluation information created in step S100, that is, the images corresponding to the tracking subject region 47 in the tracking initial image determined in step S103, among the evaluation images 40a and 40b having different resolutions. Information is stored in the memory 19d as a template image. Thus, the template image 48a shown in FIG. 5B is stored in the memory 19d for the evaluation image 40a, and the template image 48b shown in FIG. 5C is stored in the memory 19d for the evaluation image 40b. The Each of these template images represents reference information regarding the image to be tracked.

ステップS105において、追尾制御部19eは、後で説明する図9のステップS6で実行される第1追尾演算における追尾対象の探索範囲(第1探索範囲)を被写界に設定する。ここでは、図5(a)に示すように、追尾被写体領域47を囲む所定の範囲を第1探索範囲49に設定する。好ましくは追尾被写体領域47を中心にして第1探索範囲49を設定する。追尾対象の被写体は今回検出された位置すなわち追尾被写体領域47を基点にして移動するから、追尾被写体領域47を中心にして第1探索範囲49を設定することによって、追尾対象の被写体を早く検出することができ、画像追尾の応答性を向上させることができる。なお、この第1探索範囲49は縦横それぞれに所定画素ずつ拡大した所定の大きさの領域としてもよいし、追尾結果や追尾被写体の大きさに応じて変えるようにしてもよい。   In step S105, the tracking control unit 19e sets a tracking target search range (first search range) in the first tracking calculation executed in step S6 of FIG. Here, as shown in FIG. 5A, a predetermined range surrounding the tracking subject region 47 is set as the first search range 49. Preferably, the first search range 49 is set around the tracking subject area 47. Since the tracking target subject moves with the currently detected position, that is, the tracking subject region 47 as a base point, by setting the first search range 49 around the tracking subject region 47, the tracking target subject is detected quickly. Image tracking responsiveness can be improved. The first search range 49 may be a region having a predetermined size enlarged by a predetermined number of pixels vertically and horizontally, or may be changed according to the tracking result or the size of the tracking subject.

以上で追尾制御初期処理を終了し、図9のステップS3へリターンする。リターン後のステップS3において、追尾制御部19eは、操作部材20のレリーズボタンが全押しされたか否かを判別する。レリーズボタンが全押しされていなければステップS4へ進む。ステップS4では、第2撮像素子16により追尾次画像を取得し、ステップS1の処理と同様に画像情報R[x,y]、G[x,y]、B[x,y](x=1〜640、y=1〜480)を取得する。これにより、たとえば図6(a)に示す追尾次画像41が取得される。   The tracking control initial process is thus completed, and the process returns to step S3 in FIG. In step S3 after the return, the tracking control unit 19e determines whether or not the release button of the operation member 20 has been fully pressed. If the release button is not fully pressed, the process proceeds to step S4. In step S4, a tracking next image is acquired by the second image sensor 16, and image information R [x, y], G [x, y], B [x, y] (x = 1) is obtained in the same manner as in step S1. ˜640, y = 1˜480). Thereby, for example, the following tracking image 41 shown in FIG. 6A is acquired.

続くステップS5において、追尾制御部19eは、ステップS4で取得した追尾次画像に基づいて、図10のステップS100と同様に、解像度の異なる2種類の評価情報を作成する。たとえば、図6(a)に示す640×480画素の追尾次画像41から、図6(b)に示す64×48画素の評価画像41aと、図6(c)に示す32×24画素の評価画像41bとを評価情報として作成する。   In subsequent step S5, the tracking control unit 19e creates two types of evaluation information having different resolutions based on the tracking next image acquired in step S4, as in step S100 of FIG. For example, from the tracking next image 41 of 640 × 480 pixels shown in FIG. 6A, an evaluation image 41a of 64 × 48 pixels shown in FIG. 6B and an evaluation of 32 × 24 pixels shown in FIG. 6C. The image 41b is created as evaluation information.

ステップS6において、追尾制御部19eは、図10のステップS104でメモリ19dに記憶されたテンプレート画像のうち解像度が低い方のものと、ステップS5で作成した評価情報のうち解像度が低い方のものとに基づいて、1回目の追尾演算(第1追尾演算)を実行する。すなわち、図5(c)のテンプレート画像48bと、図6(c)の評価画像41bとに基づいて、第1追尾演算を実行する。この第1追尾演算の様子を図7に示す。   In step S6, the tracking control unit 19e determines that the template image stored in the memory 19d in step S104 in FIG. 10 has a lower resolution and the evaluation information created in step S5 has a lower resolution. Based on the above, the first tracking calculation (first tracking calculation) is executed. That is, the first tracking calculation is executed based on the template image 48b in FIG. 5C and the evaluation image 41b in FIG. The state of the first tracking calculation is shown in FIG.

第1追尾演算では、最初に図7に示すように、評価画像41bのうち図10のステップS105で設定した第1探索範囲49(図5(a)参照)に対応する部分における各位置について、テンプレート画像48bと同じ大きさの領域を順次切り出す。次に、切り出した評価画像41bの各領域に対応する画像情報とテンプレート画像48bとの類似度をそれぞれ算出し、その類似度が所定値以上である位置、すなわちテンプレート画像48bとの一致度合いが所定の程度を超える領域の位置を、追尾対象の候補位置として検出する。たとえば、図7において領域42a、42bおよび42cに対応する画像情報とテンプレート画像48bとの類似度がいずれも所定値以上であるとすると、これらの領域42a〜42cの位置を追尾対象の候補位置としてそれぞれ検出する。なお、上記の類似度は、切り出した領域ごとの画像情報とテンプレート画像48bとの各画素についてRGB値の差分を合計することによって求められる。すなわち、各画素におけるRGB値の差分の合計値が小さいほど高い類似度を示し、反対にその合計値が大きいほど低い類似度を示す。   In the first tracking calculation, as shown in FIG. 7, for each position in the portion corresponding to the first search range 49 (see FIG. 5A) set in step S <b> 105 of FIG. 10 in the evaluation image 41 b, A region having the same size as the template image 48b is cut out sequentially. Next, the degree of similarity between the image information corresponding to each area of the cut out evaluation image 41b and the template image 48b is calculated, and the degree of coincidence with the position where the degree of similarity is a predetermined value or more, that is, the template image 48b is predetermined. The position of the region exceeding the degree is detected as a tracking target candidate position. For example, if the similarity between the image information corresponding to the areas 42a, 42b, and 42c and the template image 48b in FIG. 7 is equal to or greater than a predetermined value, the positions of these areas 42a to 42c are set as candidate positions to be tracked. Detect each. In addition, said similarity is calculated | required by totaling the difference of RGB value about each pixel of the image information for every cut-out area | region, and the template image 48b. That is, the smaller the total value of RGB values in each pixel, the higher the degree of similarity, and the larger the total value, the lower the degree of similarity.

さらに、複数の領域について類似度が所定値以上であった場合は、その中で類似度が最も高い領域、すなわちテンプレート画像48bと最も似ている領域を1つ特定し、その領域の位置のみを追尾対象の候補位置として検出してもよい。たとえば上記の領域42a〜42cのうち、領域42bに対応する画像情報とテンプレート画像48bとの類似度が最も高いとすると、この領域42bの位置を追尾対象の候補位置として検出する。   Further, when the similarity is greater than or equal to a predetermined value for a plurality of areas, the area having the highest similarity, that is, the area most similar to the template image 48b is specified, and only the position of the area is determined. It may be detected as a tracking target candidate position. For example, if the similarity between the image information corresponding to the region 42b and the template image 48b is the highest among the regions 42a to 42c, the position of the region 42b is detected as a tracking target candidate position.

ステップS7において、追尾制御部19eは、2回目の追尾演算(第2追尾演算)を実行するか否かを判定する。この判定は、ステップS6の第1追尾演算の結果に基づいて行われる。たとえば、前述のように追尾対象の候補位置が複数検出された場合、すなわち類似度が所定値以上である領域の数が2以上である場合や、追尾対象の候補位置が1つも検出されなかった場合、すなわち類似度が所定値以上である領域の数が0である場合には、第2追尾演算によって正しい追尾対象の位置を検出する必要があるとして、ステップS7を肯定判定しステップS8へ進む。一方、追尾対象の候補位置が1つだけ検出された場合、すなわち類似度が所定値以上である領域の数が1である場合は、第2追尾演算を行う必要がないとして、ステップS7を否定判定してステップS8、S9を実行せずにステップS10へ進む。   In step S7, the tracking control unit 19e determines whether or not to execute the second tracking calculation (second tracking calculation). This determination is made based on the result of the first tracking calculation in step S6. For example, as described above, when a plurality of tracking target candidate positions are detected, that is, when the number of regions whose similarity is equal to or greater than a predetermined value is two or more, or no tracking target candidate positions are detected. In this case, that is, when the number of regions whose similarity is equal to or greater than a predetermined value is 0, it is necessary to detect the position of the correct tracking target by the second tracking calculation, and an affirmative determination is made in step S7 and the process proceeds to step S8. . On the other hand, if only one candidate position to be tracked is detected, that is, if the number of regions whose similarity is equal to or greater than the predetermined value is 1, it is determined that the second tracking calculation is not necessary, and step S7 is denied. Determination is made and the process proceeds to step S10 without executing steps S8 and S9.

ただし、ステップS6の第1追尾演算において検出された追尾対象の候補位置が1つであっても、図3の焦点検出エリア45a〜45gの中でその候補位置に対応するものが複数存在する場合がある。このような場合は、第2追尾演算によって正確な追尾対象の位置を検出することで、合焦制御を行う対象とする焦点検出エリアを1つに絞り込むために、ステップS7を肯定判定しステップS8へ進む。すなわち、ステップS7では、追尾対象の候補位置が1つだけ検出され、かつ当該候補位置に対応する焦点検出エリアの数が1である場合に、第2追尾演算を行わないと判定する。このようにして、必要に応じて第2追尾演算を実行するようにする。なお、ステップS7の判定を省略して常に第2追尾演算を実行するようにしてもよい。   However, even when there is one tracking target candidate position detected in the first tracking calculation in step S6, there are a plurality of focus detection areas 45a to 45g corresponding to the candidate position in FIG. There is. In such a case, an affirmative determination is made in step S7 in order to narrow down the focus detection area to be subjected to focusing control to one by detecting the exact position of the tracking target by the second tracking calculation, and step S8. Proceed to That is, in step S7, when only one tracking target candidate position is detected and the number of focus detection areas corresponding to the candidate position is 1, it is determined that the second tracking calculation is not performed. In this way, the second tracking calculation is executed as necessary. Note that the determination in step S7 may be omitted and the second tracking calculation may always be executed.

ステップS8において、追尾制御部19eは、ステップS6の第1追尾演算によって検出された追尾対象の候補位置に基づいて、その候補位置に対応する所定の範囲を第2追尾演算における追尾対象の探索範囲(第2探索範囲)として被写界に設定する。ここでは、たとえば追尾対象の候補位置を中心に、評価画像41aの所定画素数分だけ上下左右にそれぞれ拡大した範囲を第2探索範囲として設定する。このように第2探索範囲は、第1探索範囲よりも狭く設定するようにする。さらに、評価画像41aのうち追尾対象の候補位置に当たる部分が評価画像41bにおいて対応する被写界の範囲、具体的には、評価画像41aの解像度を評価画像41b相当に落としたときに、追尾対象の候補位置に当たる部分の画像情報(RGB値)が評価画像41bにおいて反映される範囲を、第2探索範囲に設定することが好ましい。   In step S8, the tracking control unit 19e determines a predetermined range corresponding to the candidate position based on the candidate position of the tracking target detected by the first tracking calculation in step S6 as a tracking target search range in the second tracking calculation. Set to the object field as (second search range). Here, for example, a range that is enlarged vertically and horizontally by the predetermined number of pixels of the evaluation image 41a around the tracking target candidate position is set as the second search range. Thus, the second search range is set to be narrower than the first search range. Further, when the portion of the evaluation image 41a corresponding to the candidate position of the tracking target corresponds to the range of the corresponding scene in the evaluation image 41b, specifically, the resolution of the evaluation image 41a is reduced to be equivalent to the evaluation image 41b, the tracking target The range in which the image information (RGB values) corresponding to the candidate position is reflected in the evaluation image 41b is preferably set as the second search range.

ステップS9において、追尾制御部19eは、図10のステップS104でメモリ19dに記憶されたテンプレート画像のうち解像度が高い方のものと、ステップS5で作成した評価情報のうち解像度が高い方のものとに基づいて、第2追尾演算を実行する。すなわち、図5(b)のテンプレート画像48aと、図6(b)の評価画像41aとに基づいて、第2追尾演算を実行する。この第2追尾演算の様子を図8に示す。   In step S9, the tracking control unit 19e determines that the template image stored in the memory 19d in step S104 in FIG. 10 has a higher resolution and the evaluation information created in step S5 has a higher resolution. Based on the above, the second tracking calculation is executed. That is, the second tracking calculation is executed based on the template image 48a in FIG. 5B and the evaluation image 41a in FIG. The state of this second tracking calculation is shown in FIG.

第2追尾演算では、最初に評価画像41aのうちステップS8で設定した第2探索範囲に対応する部分の各位置について、テンプレート画像48aと同じ大きさの領域を順次切り出す。たとえば図8に示すように、第1追尾演算によって得られた追尾対象の候補位置42bを中心に1画素だけ上下左右にそれぞれ拡大した範囲を第2探索範囲50として設定した場合、候補位置42bに対応する領域43aと、この領域43aを上下左右にそれぞれ1画素ずつずらした符号43b〜43iに示す各領域とを切り出す。次に、ステップS6の第1追尾演算と同様に、切り出した評価画像41aの各領域に対応する画像情報とテンプレート画像48aとの類似度をそれぞれ算出し、その類似度が最も高い領域の位置、すなわちテンプレート画像48aと最も似ている領域の位置を、追尾対象の位置として検出する。たとえば領域43hに対応する画像情報とテンプレート画像48aとの類似度が最も高いとすると、この領域43hの位置を追尾対象の位置として検出する。ここで、第1追尾演算の結果、候補位置が複数ある場合、各候補位置について第2追尾演算を行うこととしてもよい。   In the second tracking calculation, first, an area having the same size as the template image 48a is sequentially cut out for each position of the portion corresponding to the second search range set in step S8 in the evaluation image 41a. For example, as shown in FIG. 8, when a range that is enlarged by one pixel up, down, left, and right around the tracking target candidate position 42b obtained by the first tracking calculation is set as the second search range 50, the candidate position 42b The corresponding area 43a and the areas indicated by reference numerals 43b to 43i obtained by shifting the area 43a by one pixel vertically and horizontally are cut out. Next, similar to the first tracking calculation in step S6, the similarity between the image information corresponding to each area of the cut out evaluation image 41a and the template image 48a is calculated, and the position of the area with the highest similarity is calculated. That is, the position of the region most similar to the template image 48a is detected as the tracking target position. For example, if the similarity between the image information corresponding to the area 43h and the template image 48a is the highest, the position of the area 43h is detected as the position of the tracking target. Here, when there are a plurality of candidate positions as a result of the first tracking calculation, the second tracking calculation may be performed for each candidate position.

ステップS10において、追尾制御部19eは、ステップS9の第2追尾演算によって検出された追尾対象の位置に対応する領域を新しい追尾被写体領域47に決定する。ただし、ステップS7で第2追尾演算を実行しないと判定していた場合は、ステップS6の第1追尾演算によって検出された追尾対象の候補位置に対応する領域を新しい追尾被写体領域47とする。これにより、新しい追尾対象の位置が検出される。   In step S10, the tracking control unit 19e determines the area corresponding to the position of the tracking target detected by the second tracking calculation in step S9 as the new tracking subject area 47. However, if it is determined in step S7 that the second tracking calculation is not performed, the area corresponding to the tracking target candidate position detected by the first tracking calculation in step S6 is set as a new tracking subject area 47. Thereby, the position of the new tracking target is detected.

上記のようにして新しい追尾被写体領域47を決定した後は、その追尾被写体領域47内に含まれる追尾対象に対して、ステップS12の合焦制御を行う。合焦制御は、新しい追尾被写体領域47内に焦点検出エリア45a〜45gの少なくとも一つが含まれる場合には、焦点検出演算部19gにより新しい追尾被写体領域47内に含まれる焦点検出エリア45a〜45gにおいて検出されたデフォーカス量のうち最も小さいものを採用する。この採用デフォーカス量に基づいて、レンズ駆動量演算部19hとレンズ駆動制御装置22により撮影レンズ8の焦点調節を行う。合焦制御は、新しい追尾被写体領域47内に焦点検出エリア45a〜45gが含まれない場合には、新しい追尾被写体領域47との距離、または前回の追尾結果で採用された焦点検出エリア45a〜45gとの距離の少なくとも一方に基づいて採用する焦点検出エリア45a〜45gを決定してもよい。ここで、ステップS5で作成した図6(b)の評価画像41aと図6(c)の評価画像41bのうち新しい追尾被写体領域47に対応する部分の画像情報に基づいて、テンプレート画像48a,48bを更新してもよい。   After the new tracking subject area 47 is determined as described above, the focus control in step S12 is performed on the tracking target included in the tracking subject area 47. When at least one of the focus detection areas 45a to 45g is included in the new tracking subject area 47, the focus control is performed in the focus detection areas 45a to 45g included in the new tracking subject area 47 by the focus detection calculation unit 19g. The smallest defocus amount detected is adopted. Based on this adopted defocus amount, the lens drive amount calculation unit 19h and the lens drive control device 22 adjust the focus of the photographing lens 8. In the focus control, when the focus detection areas 45a to 45g are not included in the new tracking subject region 47, the distance to the new tracking subject region 47 or the focus detection areas 45a to 45g employed in the previous tracking result are used. Focus detection areas 45a to 45g to be employed may be determined based on at least one of the distances to Here, based on the image information of the portion corresponding to the new tracking subject region 47 in the evaluation image 41a in FIG. 6B and the evaluation image 41b in FIG. 6C created in step S5, the template images 48a and 48b. May be updated.

テンプレート画像48a,48bを更新する場合には、元のテンプレート画像48a,48bの画像情報の8割に対して新しい追尾被写体領域47の画像情報の2割を加えるなどして、テンプレート画像48a,48bの元の画像情報に最新の画像情報を少しずつ加え、何らかの原因による追尾被写体の急激な変化の影響を抑制して被写体追尾の信頼性を向上させるようにしてもよい。   When the template images 48a and 48b are updated, the template images 48a and 48b are added by adding 20% of the image information of the new tracking subject area 47 to 80% of the image information of the original template images 48a and 48b. The latest image information may be added little by little to the original image information to suppress the influence of a sudden change in the tracking subject due to some cause, thereby improving the subject tracking reliability.

また、テンプレート画像48a,48bの更新は、追尾演算のたびに毎回行うのではなく、新しい追尾被写体領域47として決定した位置において算出された類似度が所定のしきい値より大きい場合のみ、実行するようにしてもよい。   The template images 48a and 48b are not updated every time the tracking calculation is performed, but only when the similarity calculated at the position determined as the new tracking subject region 47 is larger than a predetermined threshold value. You may do it.

ステップS11において、追尾制御部19eは、新しい追尾被写体領域47に対して新しい第1探索範囲49を被写界に設定する。ここでは、ステップS105と同様に、追尾被写体領域47を囲む所定の範囲を第1探索範囲49に設定する。この探索領域49は縦横それぞれに所定画素ずつ拡大した所定の大きさの領域としてもよいし、追尾結果や追尾被写体の大きさに応じて変えるようにしてもよい。   In step S <b> 11, the tracking control unit 19 e sets a new first search range 49 for the new tracking subject area 47 in the scene. Here, as in step S <b> 105, a predetermined range surrounding the tracking subject region 47 is set as the first search range 49. The search area 49 may be an area having a predetermined size enlarged by a predetermined number of pixels in the vertical and horizontal directions, or may be changed according to the tracking result and the size of the tracking subject.

ステップS11で第1探索領域49を設定した後は、ステップS12において前述のような合焦制御を行う。ステップS12の合焦制御を行った後はステップS3へ戻り、操作部材20のレリーズボタンが全押しされるまでの間、ステップS4〜S12の処理を繰り返し実行する。これにより、ステップS4において第2撮像素子16により新たな被写界画像を追尾次画像として繰り返し取得し、その追尾次画像に基づいて、ステップS10において追尾対象の位置を繰り返し検出する。   After the first search area 49 is set in step S11, the focus control as described above is performed in step S12. After performing the focus control in step S12, the process returns to step S3, and the processes in steps S4 to S12 are repeatedly executed until the release button of the operation member 20 is fully pressed. Thereby, a new object scene image is repeatedly acquired as a tracking next image by the second image sensor 16 in step S4, and the position of the tracking target is repeatedly detected in step S10 based on the tracking next image.

ステップS3において操作部材20のレリーズボタンの全押し操作が検出されるとステップS13へ進み、ステップS13において撮影制御を実行する。なお、撮像制御に際しては、ステップS10で決定した新追尾被写体領域47の輝度情報に基づいて露出演算部19fにより露出演算を行い、絞り値とシャッター速度を算出する。これらの露出値にしたがってシャッター7および絞り21を駆動制御し、第1撮像素子4により撮像を行って得られた撮像画像を記録する。ステップS13の撮影制御を実行したら、図9のフローチャートを終了する。   If a full pressing operation of the release button of the operation member 20 is detected in step S3, the process proceeds to step S13, and photographing control is executed in step S13. In the imaging control, an exposure calculation is performed by the exposure calculation unit 19f based on the luminance information of the new tracking subject area 47 determined in step S10, and an aperture value and a shutter speed are calculated. The shutter 7 and the diaphragm 21 are driven and controlled in accordance with these exposure values, and a captured image obtained by imaging with the first imaging element 4 is recorded. When the shooting control of step S13 is executed, the flowchart of FIG.

以上説明した実施の形態によれば、以下のような作用効果を奏する。   According to the embodiment described above, the following operational effects are obtained.

(1)撮像装置1は、撮影レンズ8により結像される被写界の被写界画像を追尾次画像として第2撮像素子16により繰り返し撮像する(ステップS4)。この被写界画像に基づいて、追尾制御部19eにより、解像度の異なる評価画像41a,41bを評価情報としてそれぞれ作成する(ステップS5)。そして、追尾制御部19eにより、追尾対象の画像に関する基準情報を表すテンプレート画像48bと評価画像41bとに基づいて、被写界画像における追尾対象の候補位置を検出する第1追尾演算を実行する(ステップS6)。さらに必要に応じて、テンプレート画像48aと評価画像41aとに基づいて、被写界画像における追尾対象の位置を検出する第2追尾演算を実行する(ステップS9)。このように、元の被写界画像よりも解像度の低い評価画像を用いて追尾演算を行うことにより、追尾演算におけるテンプレートマッチングに要する演算量を低減することができる。 (1) The imaging device 1 repeatedly captures an image of the object scene formed by the photographing lens 8 with the second image sensor 16 as a tracking next image (step S4). Based on this scene image, the tracking controller 19e creates evaluation images 41a and 41b having different resolutions as evaluation information (step S5). Then, the tracking control unit 19e executes a first tracking calculation for detecting the tracking target candidate position in the object scene image based on the template image 48b representing the reference information regarding the tracking target image and the evaluation image 41b ( Step S6). Further, if necessary, a second tracking calculation for detecting the position of the tracking target in the object scene image is executed based on the template image 48a and the evaluation image 41a (step S9). Thus, by performing the tracking calculation using the evaluation image having a resolution lower than that of the original scene image, it is possible to reduce the calculation amount required for template matching in the tracking calculation.

(2)撮像装置1は、追尾制御部19eにより、被写界に第1探索範囲49を設定する(ステップS11、105)と共に、第1探索範囲49よりも狭い第2探索範囲を設定する(ステップS8)。そして、ステップS6では、評価画像41bのうち第1探索範囲49に対応する部分の画像情報とテンプレート画像48bとに基づいて第1追尾演算を行い、またステップS9では、評価画像41aのうち第2探索範囲に対応する部分の画像情報とテンプレート画像48aとに基づいて第2追尾演算を行う。これにより、第2追尾演算を行う範囲を限定して演算量をさらに低減することができる。 (2) The imaging apparatus 1 sets the first search range 49 in the object scene by the tracking control unit 19e (steps S11 and 105) and sets a second search range narrower than the first search range 49 ( Step S8). In step S6, the first tracking calculation is performed based on the image information of the portion corresponding to the first search range 49 in the evaluation image 41b and the template image 48b. In step S9, the second tracking information in the evaluation image 41a. The second tracking calculation is performed based on the image information of the part corresponding to the search range and the template image 48a. As a result, the amount of calculation can be further reduced by limiting the range in which the second tracking calculation is performed.

(3)なお、ステップS8では、第1追尾演算によって検出された追尾対象の候補位置に対応する被写界の範囲を第2探索範囲として設定することが好ましい。このようにすれば、第2探索範囲を適切に設定することができる。 (3) In step S8, it is preferable to set the range of the object scene corresponding to the tracking target candidate position detected by the first tracking calculation as the second search range. In this way, the second search range can be set appropriately.

(4)撮像装置1は、追尾制御部19eにより、ステップS9の第2追尾演算を行うか否かを判定し(ステップS7)、行わないと判定した場合、ステップS6の第1追尾演算で検出された追尾対象の候補位置を追尾対象の位置とする(ステップS10)。このようにしたので、第2追尾演算を行う必要がない場合、第2追尾演算を省略して演算量をより一層低減することができる。 (4) The imaging device 1 determines whether or not to perform the second tracking calculation in step S9 by the tracking control unit 19e (step S7), and when it is determined not to perform the detection, the first tracking calculation in step S6 detects it. The tracked candidate position of the tracking target is set as the tracking target position (step S10). Since it did in this way, when it is not necessary to perform a 2nd tracking calculation, a 2nd tracking calculation can be abbreviate | omitted and the amount of calculations can be reduced further.

(5)追尾制御部19eは、ステップS7において、評価画像41bのうち第1探索範囲49に対応する部分の画像情報とテンプレート画像48bとの類似度に応じて、第2追尾演算を行うか否かを判定する。すなわち、ステップS6の第1追尾演算において、複数の追尾対象の候補位置について、評価画像41bのうちその複数の候補位置に対応する各部分の画像情報とテンプレート画像48bとの類似度をそれぞれ算出する。こうして算出した類似度が所定のしきい値を超える候補位置の数が0または2以上である場合に、第2追尾演算を行うと判定する。また、類似度がしきい値を超える候補位置の数が1であり、かつ焦点検出エリア45a〜45gのうち類似度がしきい値を超える候補位置に対応する焦点検出エリアの数が1である場合に、第2追尾演算を行わないと判定する。このような判定を行うことにより、第2追尾演算を行うか否かを適切に判断することができる。 (5) Whether or not the tracking control unit 19e performs the second tracking calculation in step S7 according to the similarity between the image information of the part corresponding to the first search range 49 in the evaluation image 41b and the template image 48b. Determine whether. That is, in the first tracking calculation of step S6, the similarity between the image information of each part corresponding to the plurality of candidate positions in the evaluation image 41b and the template image 48b is calculated for a plurality of candidate positions to be tracked. . When the number of candidate positions whose similarity calculated in this way exceeds a predetermined threshold is 0 or 2 or more, it is determined that the second tracking calculation is performed. Further, the number of candidate positions whose similarity exceeds the threshold is 1, and the number of focus detection areas corresponding to candidate positions whose similarity exceeds the threshold among the focus detection areas 45a to 45g is 1. In this case, it is determined that the second tracking calculation is not performed. By making such a determination, it is possible to appropriately determine whether or not to perform the second tracking calculation.

(6)撮像装置1は、ステップS10で追尾対象の位置を検出したら、その位置について合焦制御を行う(ステップS12)。すなわち、焦点検出演算部19gにより撮影レンズ8の焦点調節状態を示すデフォーカス量を検出し、検出したデフォーカス量に基づいて、レンズ駆動量演算部19hとレンズ駆動制御装置22により撮影レンズ8の焦点調節を行う。これにより、移動する追尾対象に対して常にピントを合わせることができる。 (6) When the imaging apparatus 1 detects the position of the tracking target in step S10, the imaging apparatus 1 performs focusing control for the position (step S12). That is, a defocus amount indicating the focus adjustment state of the photographic lens 8 is detected by the focus detection calculation unit 19g, and based on the detected defocus amount, the lens drive amount calculation unit 19h and the lens drive control device 22 Adjust the focus. Thereby, it is possible to always focus on the tracking target that moves.

なお、以上説明した実施の形態では、ステップS5において、ステップS4で取得した追尾次画像に基づいて解像度の異なる2種類の評価画像を評価情報として作成し、この2種類の評価画像を用いて、ステップS6とS9で2段階の追尾演算を行うこととした。しかし、本発明において作成する評価情報の種類と実行する追尾演算の段数とはこれに限定されるものではない。すなわち、解像度の異なる3種類以上の評価画像を評価情報として作成し、これらの評価画像のうち解像度の低いものから高いものを順次用いて、3段階以上の追尾演算を行ってもよい。また、被写体の像倍率や他の撮影条件等によっていずれの解像度の評価画像を用いるか変更してもよい。   In the embodiment described above, in step S5, two types of evaluation images with different resolutions are created as evaluation information based on the following tracking image acquired in step S4, and using these two types of evaluation images, In steps S6 and S9, two-stage tracking calculation is performed. However, the type of evaluation information created in the present invention and the number of stages of tracking operations to be executed are not limited to this. In other words, three or more types of evaluation images with different resolutions may be created as evaluation information, and among these evaluation images, the ones with the lowest resolution to the higher ones may be used in order to perform the tracking calculation in three or more stages. Further, the resolution image to be used may be changed depending on the image magnification of the subject, other photographing conditions, and the like.

また、ステップS9で行う第2追尾演算では、ステップS4で取得した追尾次画像の解像度を下げることなく、そのまま評価画像として使用してもよい。この場合、ステップS5,S100では、取得した追尾初期画像または追尾次画像に基づく評価情報として、その追尾初期画像または追尾次画像と同じ評価画像と、追尾初期画像または追尾次画像の解像度を下げた評価画像とを、解像度の異なる2種類の評価情報として作成する。   In the second tracking calculation performed in step S9, the second tracking calculation may be used as it is as an evaluation image without reducing the resolution of the subsequent tracking image acquired in step S4. In this case, in steps S5 and S100, as the evaluation information based on the acquired initial tracking image or subsequent tracking image, the same evaluation image as the initial tracking image or the subsequent tracking image and the resolution of the initial tracking image or the subsequent tracking image are reduced. An evaluation image is created as two types of evaluation information having different resolutions.

一実施の形態の画像追尾装置を備えた撮像装置の構成を示す横断面図1 is a cross-sectional view illustrating a configuration of an imaging device including an image tracking device according to an embodiment; 一実施の形態の画像追尾装置を備えた撮像装置の構成を示すブロック図1 is a block diagram illustrating a configuration of an imaging device including an image tracking device according to an embodiment; 一実施の形態の画像追尾方法を説明するための図The figure for demonstrating the image tracking method of one Embodiment 一実施の形態の画像追尾方法を説明するための図The figure for demonstrating the image tracking method of one Embodiment 一実施の形態の画像追尾方法を説明するための図The figure for demonstrating the image tracking method of one Embodiment 一実施の形態の画像追尾方法を説明するための図The figure for demonstrating the image tracking method of one Embodiment 一実施の形態の画像追尾方法を説明するための図The figure for demonstrating the image tracking method of one Embodiment 一実施の形態の画像追尾方法を説明するための図The figure for demonstrating the image tracking method of one Embodiment 一実施の形態の画像追尾処理を示すフローチャートThe flowchart which shows the image tracking processing of one embodiment 追尾制御初期処理を示すフローチャートFlow chart showing tracking control initial processing

符号の説明Explanation of symbols

1;撮像装置、8;撮影レンズ、16;第2撮像素子、19;ボディ駆動制御装置、19e;追尾制御部、19d;メモリ DESCRIPTION OF SYMBOLS 1; Imaging device, 8; Shooting lens, 16; 2nd imaging device, 19; Body drive control device, 19e; Tracking control part, 19d;

Claims (8)

結像光学系により結像される被写界の被写界画像を繰り返し撮像する撮像手段と、
前記被写界画像に基づいて、所定の第1の解像度における第1評価情報と、前記第1の解像度よりも高い所定の第2の解像度における第2評価情報とを作成する作成手段と、
追尾対象の画像に関する基準情報と前記第1評価情報とに基づいて、前記被写界画像における前記追尾対象の候補位置を検出する第1の検出を行い、必要に応じて、前記基準情報と前記第2評価情報とに基づいて、前記被写界画像における前記追尾対象の位置を検出する第2の検出を行う検出手段と
前記第2の検出を行うか否かを判定する判定手段と、を備え、
前記検出手段は、前記判定手段により前記第2の検出を行わないと判定された場合、前記第1の検出で検出された前記候補位置を前記追尾対象の位置とし、
前記判定手段は、前記第1評価情報のうち前記候補位置に対応する部分の評価情報と前記基準情報との類似度に応じて、前記第2の検出を行うか否かを判定することを特徴とする画像追尾装置。
Imaging means for repeatedly capturing a field image of the field imaged by the imaging optical system;
Creating means for creating first evaluation information at a predetermined first resolution and second evaluation information at a predetermined second resolution higher than the first resolution based on the scene image;
Based on the reference information on the tracking target image and the first evaluation information, a first detection for detecting the tracking target candidate position in the object scene image is performed, and if necessary, the reference information and the Detecting means for performing second detection for detecting a position of the tracking target in the object scene image based on second evaluation information ;
Determining means for determining whether or not to perform the second detection,
When the detection means determines that the second detection is not performed by the determination means, the candidate position detected by the first detection is set as the position of the tracking target,
The determination means determines whether or not to perform the second detection according to the similarity between the evaluation information of the portion corresponding to the candidate position in the first evaluation information and the reference information. An image tracking device.
請求項1に記載の画像追尾装置において、
前記被写界に第1の探索範囲を設定する第1の設定手段と、
前記被写界に前記第1の探索範囲よりも狭い第2の探索範囲を設定する第2の設定手段と、をさらに備え、
前記検出手段は、前記第1評価情報のうち前記第1の探索範囲に対応する部分の評価情報と前記基準情報とに基づいて前記第1の検出を行い、前記第2評価情報のうち前記第2の探索範囲に対応する部分の評価情報と前記基準情報とに基づいて前記第2の検出を行うことを特徴とする画像追尾装置。
The image tracking device according to claim 1,
First setting means for setting a first search range in the object scene;
A second setting means for setting a second search range narrower than the first search range in the object scene,
The detection means performs the first detection based on the evaluation information of the portion corresponding to the first search range in the first evaluation information and the reference information, and the first of the second evaluation information. An image tracking apparatus that performs the second detection based on evaluation information of a portion corresponding to two search ranges and the reference information.
請求項1に記載の画像追尾装置において、
前記被写界に第1の探索範囲を設定する第1の設定手段と、
前記被写界の前記追尾対象の候補位置に対応する範囲を第2の探索範囲として設定する第2の設定手段と、をさらに備え、
前記検出手段は、前記第1評価情報のうち前記第1の探索範囲に対応する部分の評価情報と前記基準情報とに基づいて前記第1の検出を行い、前記第2評価情報のうち前記第2の探索範囲に対応する部分の評価情報と前記基準情報とに基づいて前記第2の検出を行うことを特徴とする画像追尾装置。
The image tracking device according to claim 1 ,
First setting means for setting a first search range in the object scene;
A second setting means for setting, as a second search range, a range corresponding to the tracking target candidate position in the object scene,
The detection means performs the first detection based on the evaluation information of the portion corresponding to the first search range in the first evaluation information and the reference information, and the first of the second evaluation information. An image tracking apparatus that performs the second detection based on evaluation information of a portion corresponding to two search ranges and the reference information.
請求項1〜3のいずれか一項に記載の画像追尾装置において、
前記検出手段は、複数の前記候補位置を検出し、
前記判定手段は、前記第1評価情報のうち前記候補位置に対応する各部分の評価情報と前記基準情報との類似度をそれぞれ算出し、算出した類似度が所定のしきい値を超える前記候補位置の数が0または2以上である場合に、前記第2の検出を行うと判定することを特徴とする画像追尾装置。
In the image tracking device according to any one of claims 1 to 3 ,
The detecting means detects a plurality of the candidate positions;
The determination unit calculates the similarity between the evaluation information of each part corresponding to the candidate position in the first evaluation information and the reference information, and the calculated similarity exceeds the predetermined threshold. An image tracking device, wherein the second detection is determined to be performed when the number of positions is 0 or 2 or more.
請求項4に記載の画像追尾装置において、
前記判定手段は、前記類似度が前記しきい値を超える前記候補位置の数が1であり、かつ前記被写界に予め設定された複数の焦点検出位置のうち前記類似度が前記しきい値を超える前記候補位置に対応する焦点検出位置の数が1である場合に、前記第2の検出を行わないと判定することを特徴とする画像追尾装置。
The image tracking device according to claim 4 ,
The determination means has a number of candidate positions where the similarity exceeds the threshold, and the similarity is the threshold among a plurality of focus detection positions set in advance in the object scene. When the number of focus detection positions corresponding to the candidate positions exceeding 1 is 1, it is determined that the second detection is not performed.
請求項1〜5のいずれか一項に記載の画像追尾装置と、
前記検出手段により検出された前記追尾対象の位置について前記結像光学系の焦点調節状態を検出する焦点検出手段と、
前記焦点検出手段により検出された前記焦点調節状態に基づいて前記結像光学系の焦点調節を行う焦点調節手段と、を備えることを特徴とする撮像装置。
The image tracking device according to any one of claims 1 to 5 ,
A focus detection means for detecting a focus adjustment state of the imaging optical system for the position of the tracking target detected by the detection means;
An imaging apparatus comprising: a focus adjustment unit that performs focus adjustment of the imaging optical system based on the focus adjustment state detected by the focus detection unit.
結像光学系により結像される被写界の被写界画像を繰り返し撮像し、
前記被写界画像に基づいて、所定の第1の解像度における第1評価情報と、前記第1の解像度よりも高い所定の第2の解像度における第2評価情報と、を作成し、
前記被写界に第1の探索範囲を設定し、
前記第1評価情報のうち前記第1の探索範囲に対応する部分の評価情報と追尾対象の画像に関する基準情報とに基づいて、前記被写界に前記第1の探索範囲よりも狭い第2の探索範囲を設定し、
前記追尾対象の画像に関する基準情報と前記第1評価情報とに基づいて、前記被写界画像における前記追尾対象の候補位置を検出する第1の検出を行い、必要に応じて、前記基準情報と前記第2評価情報とに基づいて、前記被写界画像における前記追尾対象の位置を検出する第2の検出を行い、
前記第1評価情報のうち前記候補位置に対応する部分の評価情報と前記基準情報との類似度に応じて、前記基準情報と前記第2評価情報とに基づいて、前記被写界画像における前記追尾対象の位置を検出する前記第2の検出を行うか否かを判定し、
前記第2の検出を行わないと判定された場合、前記第1の検出で検出された前記候補位置を前記追尾対象の位置とすることを特徴とする画像追尾方法。
Repetitively capture the field image of the field imaged by the imaging optical system,
Based on the scene image, creating first evaluation information at a predetermined first resolution and second evaluation information at a predetermined second resolution higher than the first resolution,
Setting a first search range in the object scene;
Based on the evaluation information of the portion corresponding to the first search range in the first evaluation information and the reference information regarding the image to be tracked, the second narrower than the first search range in the object scene. Set the search range,
Based on the reference information on the tracking target image and the first evaluation information, first detection for detecting the tracking target candidate position in the object scene image is performed, and if necessary, the reference information and Based on the second evaluation information, performing a second detection for detecting the position of the tracking target in the scene image,
Based on the reference information and the second evaluation information, according to the similarity between the evaluation information of the portion corresponding to the candidate position in the first evaluation information and the reference information, the scene image in the scene image Determining whether to perform the second detection for detecting the position of the tracking target;
An image tracking method , wherein when it is determined not to perform the second detection, the candidate position detected by the first detection is set as the position of the tracking target .
結像光学系により結像される被写界の被写界画像を繰り返し撮像する撮像手段と、
前記被写界画像に基づいて、所定の第1の解像度における第1評価情報と、前記第1の解像度よりも高い所定の第2の解像度における第2評価情報とを作成する作成手段と、
追尾対象の画像に関する基準情報と前記第1評価情報とに基づいて、前記被写界画像における前記追尾対象の候補位置を検出する第1の検出、及び、前記基準情報と前記第2評価情報とに基づいて、前記被写界画像における前記追尾対象の位置を検出する第2の検出を行う検出手段と、
前記第1評価情報のうち前記候補位置に対応する部分の情報と前記基準情報との類似度に応じて前記第2の検出を行うか否かを判定する判定手段と、を備え、
前記検出手段は、前記判定手段により前記第2の検出を行わないと判定された場合、前記第1の検出で検出された前記候補位置を前記追尾対象の位置とすることを特徴とする画像追尾装置。
Imaging means for repeatedly capturing a field image of the field imaged by the imaging optical system;
Creating means for creating first evaluation information at a predetermined first resolution and second evaluation information at a predetermined second resolution higher than the first resolution based on the scene image;
First detection for detecting a candidate position of the tracking target in the object scene image based on the reference information on the tracking target image and the first evaluation information , and the reference information and the second evaluation information A detection means for performing a second detection for detecting a position of the tracking target in the object scene image,
Determination means for determining whether or not to perform the second detection according to the similarity between the reference information and the information of the portion corresponding to the candidate position in the first evaluation information,
The detection means, when it is determined by the determination means that the second detection is not performed, sets the candidate position detected by the first detection as the position of the tracking target. apparatus.
JP2008321352A 2008-12-17 2008-12-17 Image tracking device, imaging device, and image tracking method Active JP5233646B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008321352A JP5233646B2 (en) 2008-12-17 2008-12-17 Image tracking device, imaging device, and image tracking method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008321352A JP5233646B2 (en) 2008-12-17 2008-12-17 Image tracking device, imaging device, and image tracking method

Publications (2)

Publication Number Publication Date
JP2010147694A JP2010147694A (en) 2010-07-01
JP5233646B2 true JP5233646B2 (en) 2013-07-10

Family

ID=42567684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008321352A Active JP5233646B2 (en) 2008-12-17 2008-12-17 Image tracking device, imaging device, and image tracking method

Country Status (1)

Country Link
JP (1) JP5233646B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5950664B2 (en) * 2012-04-10 2016-07-13 キヤノン株式会社 Imaging apparatus and control method thereof

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1032751A (en) * 1996-07-17 1998-02-03 Canon Inc Image pickup device and image processor

Also Published As

Publication number Publication date
JP2010147694A (en) 2010-07-01

Similar Documents

Publication Publication Date Title
JP5176483B2 (en) Image recognition device, image tracking device, and imaging device
JP5167750B2 (en) TRACKING DEVICE, IMAGING DEVICE, AND TRACKING METHOD
JP5247076B2 (en) Image tracking device, focus adjustment device, and imaging device
JP5288015B2 (en) Image tracking device, image tracking method, and camera
JP5157256B2 (en) Image tracking device and imaging device
JP4872834B2 (en) Image recognition device, focus adjustment device, and imaging device
JP2009109839A (en) Image tracking device and imaging device
JP5056136B2 (en) Image tracking device
JP5403111B2 (en) Image tracking device
JP4888249B2 (en) Focus detection apparatus and imaging apparatus
JP4985155B2 (en) Focus adjustment device and imaging device
JP5233646B2 (en) Image tracking device, imaging device, and image tracking method
JP2010200138A (en) Photographic subject tracking device
JP5176845B2 (en) Image tracking device and imaging device
JP5541396B2 (en) Image tracking device
JP5447579B2 (en) Tracking device, focus adjustment device, and photographing device
JP2010054586A (en) Focusing device and imaging apparatus
JP5966249B2 (en) Image tracking device
JP5347834B2 (en) Image tracking device
JP5772933B2 (en) Imaging device
JP2012093775A (en) Focus detector and imaging apparatus
JP4973369B2 (en) Image processing apparatus and imaging apparatus
JP2018063439A (en) Focus adjustment device and imaging device
JP2012221289A (en) Image tracking device
JP2016028298A (en) Focus adjustment device and imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120508

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130311

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5233646

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250