JP2010093320A - Image tracking device and image tracking method - Google Patents

Image tracking device and image tracking method Download PDF

Info

Publication number
JP2010093320A
JP2010093320A JP2008258213A JP2008258213A JP2010093320A JP 2010093320 A JP2010093320 A JP 2010093320A JP 2008258213 A JP2008258213 A JP 2008258213A JP 2008258213 A JP2008258213 A JP 2008258213A JP 2010093320 A JP2010093320 A JP 2010093320A
Authority
JP
Japan
Prior art keywords
image
tracking device
tracking
information
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008258213A
Other languages
Japanese (ja)
Other versions
JP5176845B2 (en
Inventor
Keiko Muramatsu
慶子 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008258213A priority Critical patent/JP5176845B2/en
Publication of JP2010093320A publication Critical patent/JP2010093320A/en
Application granted granted Critical
Publication of JP5176845B2 publication Critical patent/JP5176845B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce the amount of operation required for template matching. <P>SOLUTION: A reference information about an image to be tracked is memorized (Fig. 5 (b)). A subject field image of a subject field is image-formed by an image forming optical system, and the image-formed subject field image is repeatedly captured. A partial image is part of the subject field image (Fig. 5 (a)), and the partial image is segmented (Fig. 5 (c)-(e)). The partial image is divided so that a region corresponding to a plurality of pixels may become one block in the partial image (Fig. 5 (c)-(e)). An image information on at least one of color information and brightness information is computed for every block. Based on the image information and the reference information for every block, the position for tracking is detected in the subject field image. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は画像追尾装置および画像追尾方法に関する。   The present invention relates to an image tracking device and an image tracking method.

移動被写体を撮影する際に、画面内の指定部分の被写体像をテンプレート画像として取得し、繰り返し撮影する画像の中でテンプレート画像と類似した被写体像の位置を検索(テンプレートマッチング)し、画面内を移動する被写体を追尾するようにした画像追尾装置が知られている(例えば、特許文献1参照)。
特開2006−058431号公報
When shooting a moving subject, the subject image of the specified part in the screen is acquired as a template image, and the position of the subject image similar to the template image is searched (template matching) among the images to be repeatedly shot. 2. Description of the Related Art An image tracking device that tracks a moving subject is known (see, for example, Patent Document 1).
JP 2006-058431 A

上述した従来の画像追尾装置において、繰り返し撮影される画像の画素数が少ないと、画面内の小さな被写体を検出することが困難になる上に、被写体の細かい動きにも追従し難くなるため、テンプレートマッチングに用いる画像の画素数は多い方がよい。ところが、画素数が多いほど、テンプレートマッチングに要する演算量が増大するという問題がある。   In the conventional image tracking device described above, if the number of pixels of an image that is repeatedly shot is small, it is difficult to detect a small subject in the screen and it is difficult to follow the fine movement of the subject. It is better that the number of pixels of the image used for matching is large. However, there is a problem that the amount of calculation required for template matching increases as the number of pixels increases.

(1) 請求項1の発明は、追尾対象の画像に関する基準情報を記憶する記憶手段と、結像光学系により結像される被写界の被写界画像を繰り返し撮像する撮像手段と、被写界画像の一部の部分画像を切り出し、部分画像において複数の画素に対応する領域が一つのブロックとなるように部分画像を分割し、色情報と輝度情報との少なくとも一方に関する画像情報を前記ブロックごとに算出する算出手段と、ブロックごとの画像情報と基準情報とに基づいて、被写界画像における追尾対象の位置を検出する検出手段とを備える画像追尾装置である。
(2) 請求項2の発明は、請求項1に記載の画像追尾装置において、被写界画像に対応して設定される焦点検出位置で結像光学系の焦点調節状態を検出する検出手段を有し、算出手段は、被写界画像の中から複数の部分画像を切り出す際の切り出し位置のずらし量を、焦点検出位置に近いほど小さく設定する。
(3) 請求項3の発明は、請求項1または請求項2に記載の画像追尾装置において、被写界画像に対応して設定される複数の焦点検出位置で結像光学系の焦点調節状態を検出する検出手段を有し、算出手段は、被写界画像の中から複数の部分画像を切り出す際の切り出し位置のずらし量を、焦点検出位置ごとの焦点調節状態に応じて設定する。
(4) 請求項4の発明は、請求項1〜3のいずれか一項に記載の画像追尾装置において、算出手段は、被写界画像の中から複数の部分画像を切り出す際の切り出し位置のずらし量を、追尾対象の画像の画素数に応じて設定する。
(5) 請求項5の発明は、請求項1〜4のいずれか一項に記載の画像追尾装置において、算出手段は、被写界画像の中から部分画像の切り出す範囲を設定し、範囲から複数の部分画像を切り出す際の切り出し位置のずらし量を、範囲の中心に近いほど小さく設定する。
(6) 請求項6の発明は、請求項1〜5のいずれか一項に記載の画像追尾装置において、算出手段は、被写界画像の中から複数の部分画像を切り出す際の切り出し位置のずらし量を、被写界画像の中心に近いほど小さく設定する。
(7) 請求項7の発明は、請求項1〜6のいずれか一項に記載の画像追尾装置において、算出手段は、被写界画像の中から複数の部分画像を切り出す際の切り出し位置のずらし量を、差分の総和が小さいほど小さく設定する。
(8) 請求項8の発明は、請求項1〜7のいずれか一項に記載の画像追尾装置において、算出手段は、被写界画像の中から複数の部分画像を切り出す際の切り出し位置のずらし量を所定画素とする。
(9) 請求項9の発明は、請求項1〜8のいずれか一項に記載の画像追尾装置において、算出手段は、部分画像の画素数が追尾対象の画像の画素数と等しくなるように部分画像を切り出す。
(10) 請求項10の発明は、請求項1〜9のいずれか一項に記載の画像追尾装置において、算出手段は、追尾対象の画像において複数の画素に対応する領域が一つのブロックとなるように基準情報も分割し、基準情報の分割数と部分画像の分割数とを等しくする。
(11) 請求項11の発明は、請求項1〜10のいずれか一項に記載の画像追尾装置において、算出手段は、被写界画像の中から部分画像を切り出す際、追尾対象の距離情報に応じて部分画像の画素数を設定する。
(12) 請求項12の発明は、請求項1〜11のいずれか一項に記載の画像追尾装置において、算出手段は、ブロックごとに色情報と輝度情報との少なくとも一方の平均値を算出し、平均値に基づいて画像情報を算出する。
(13) 請求項13の発明は、追尾対象の画像に関する基準情報を記憶し、結像光学系により結像される被写界の被写界画像を繰り返し撮像し、被写界画像の一部の部分画像を切り出し、部分画像において複数の画素に対応する領域が一つのブロックとなるように部分画像を分割し、色情報と輝度情報との少なくとも一方に関する画像情報をブロックごとに算出し、ブロックごとの画像情報と基準情報とに基づいて、被写界画像における追尾対象の位置を検出する画像追尾方法である。
(1) A first aspect of the present invention is a storage means for storing reference information relating to an image to be tracked, an imaging means for repeatedly capturing an object scene image of an object image formed by an image forming optical system, A partial image of the scene image is cut out, the partial image is divided so that a region corresponding to a plurality of pixels in the partial image becomes one block, and image information regarding at least one of color information and luminance information is An image tracking device includes a calculation unit that calculates each block, and a detection unit that detects a position of a tracking target in an object scene image based on image information and reference information for each block.
(2) The invention according to claim 2 is the image tracking device according to claim 1, further comprising a detecting means for detecting a focus adjustment state of the imaging optical system at a focus detection position set corresponding to the object scene image. And the calculating means sets the shift amount of the cutout position when cutting out a plurality of partial images from the object scene image to be smaller as the focus position is closer to the focus detection position.
(3) The invention according to claim 3 is the image tracking device according to claim 1 or 2, wherein the focus adjustment state of the imaging optical system at a plurality of focus detection positions set corresponding to the object scene image. The calculating means sets a shift amount of the cutout position when cutting out a plurality of partial images from the object scene image according to the focus adjustment state for each focus detection position.
(4) The invention according to claim 4 is the image tracking device according to any one of claims 1 to 3, wherein the calculation means determines the cut-out position when cutting out a plurality of partial images from the object scene image. The shift amount is set according to the number of pixels of the tracking target image.
(5) The invention according to claim 5 is the image tracking device according to any one of claims 1 to 4, wherein the calculation means sets a range for extracting the partial image from the object scene image, and The shift amount of the cutout position when cutting out a plurality of partial images is set to be smaller as it is closer to the center of the range.
(6) The invention according to claim 6 is the image tracking device according to any one of claims 1 to 5, wherein the calculation means determines the cut-out position when cutting out a plurality of partial images from the object scene image. The shift amount is set smaller as it is closer to the center of the object scene image.
(7) The invention according to claim 7 is the image tracking device according to any one of claims 1 to 6, wherein the calculation means calculates the cut-out position when cutting out a plurality of partial images from the object scene image. The shift amount is set to be smaller as the difference sum is smaller.
(8) The invention according to claim 8 is the image tracking device according to any one of claims 1 to 7, wherein the calculating means determines the cut-out position when cutting out a plurality of partial images from the object scene image. The shift amount is set as a predetermined pixel.
(9) The invention according to claim 9 is the image tracking device according to any one of claims 1 to 8, wherein the calculation unit is configured such that the number of pixels of the partial image is equal to the number of pixels of the image to be tracked. Cut out a partial image.
(10) The invention according to claim 10 is the image tracking device according to any one of claims 1 to 9, wherein the calculation means has a block corresponding to a plurality of pixels in the tracking target image. In this way, the reference information is also divided so that the number of divisions of the reference information is equal to the number of divisions of the partial image.
(11) The invention according to claim 11 is the image tracking device according to any one of claims 1 to 10, wherein the calculating means extracts the distance information of the tracking target when extracting the partial image from the object scene image. The number of pixels of the partial image is set according to
(12) In the image tracking device according to any one of claims 1 to 11, the calculation unit calculates an average value of at least one of the color information and the luminance information for each block. The image information is calculated based on the average value.
(13) The invention of claim 13 stores reference information relating to an image to be tracked, repeatedly captures a scene image of the scene formed by the imaging optical system, and a part of the scene image. The partial image is cut out, the partial image is divided so that an area corresponding to a plurality of pixels in the partial image becomes one block, and image information regarding at least one of color information and luminance information is calculated for each block. This is an image tracking method for detecting the position of the tracking target in the object scene image based on the image information and the reference information.

本発明によれば、テンプレートマッチングに要する演算量を低減することができる。   According to the present invention, the amount of calculation required for template matching can be reduced.

撮影画面内に設定された複数の焦点検出エリアにおいて撮影レンズの焦点調節状態(この一実施の形態ではデフォーカス量)を検出し、いずれかのエリアのデフォーカス量に基づいて撮影レンズを合焦駆動する自動焦点調節(AF)機能と、撮影画像の中の追尾対象の被写体の画像をテンプレート画像(基準画像)として記憶し、繰り返し撮像される画像の中でテンプレート画像と同一または類似した画像の位置を検索しながら(テンプレートマッチング)追尾対象の被写体を追尾する画像追尾機能とを備え、AF機能と画像追尾機能により撮影レンズを駆動しながら追尾対象を追尾する画像追尾装置を備えた撮像装置(一眼レフデジタルスチルカメラ)の一実施の形態を説明する。   The focus adjustment state of the photographic lens (in this embodiment, the defocus amount) is detected in a plurality of focus detection areas set in the photographic screen, and the photographic lens is focused based on the defocus amount of one of the areas. The automatic focus adjustment (AF) function to be driven and the image of the subject to be tracked in the photographed image are stored as a template image (reference image), and an image that is the same as or similar to the template image among the repeatedly captured images An image pickup device having an image tracking function that tracks a subject to be tracked while searching for a position (template matching), and an image tracking device that tracks the tracking target while driving a photographic lens by the AF function and the image tracking function ( An embodiment of a single lens reflex digital still camera) will be described.

図1は、一実施の形態の画像追尾装置を備えた撮像装置(一眼レフデジタルスチルカメラ)1の構成を示す。なお、図1では本願発明と直接関係のないカメラの機器および回路についての図示と説明を省略する。一実施の形態のカメラ1は、カメラ本体2に交換レンズ3が着脱可能に装着される。カメラ本体2には被写界像を撮像して画像を記録するための第1撮像素子4が設けられる。この第1撮像素子4はCCDやCMOSなどにより構成することができる。撮影時にはクイックリターンミラー5およびサブミラー6が実線で示す撮影光路外の位置に退避してシャッター7が開放され、撮影レンズ8により第1撮像素子4の受光面に被写体像が結像される。   FIG. 1 shows a configuration of an imaging apparatus (single-lens reflex digital still camera) 1 including an image tracking apparatus according to an embodiment. In FIG. 1, illustration and description of camera devices and circuits not directly related to the present invention are omitted. In a camera 1 according to an embodiment, an interchangeable lens 3 is detachably attached to a camera body 2. The camera body 2 is provided with a first image sensor 4 for capturing an object scene image and recording the image. The first image sensor 4 can be constituted by a CCD, a CMOS, or the like. At the time of photographing, the quick return mirror 5 and the sub mirror 6 are retracted to a position outside the photographing optical path indicated by a solid line, the shutter 7 is opened, and a subject image is formed on the light receiving surface of the first image sensor 4 by the photographing lens 8.

カメラ本体2の底部には、撮影レンズ8の焦点調節状態を検出するための焦点検出光学系9と測距素子10が設けられている。この一実施の形態では、瞳分割型位相差検出方式による焦点検出方法を採用した例を示す。焦点検出光学系9は、撮影レンズ8を通過した対の焦点検出用光束を測距素子10の受光面へ導き、対の光像を結像させる。測距素子10は例えば対のCCDラインセンサーを備え、対の光像に応じた焦点検出信号を出力する。撮影前にはクイックリターンミラー5およびサブミラー6が破線で示すような撮影光路内の位置に設定されており、撮影レンズ8からの対の焦点検出用光束はクイックリターンミラー5のハーフミラー部を透過し、サブミラー6により反射されて焦点検出光学系9および測距素子10へ導かれる。   At the bottom of the camera body 2, a focus detection optical system 9 and a distance measuring element 10 for detecting the focus adjustment state of the photographing lens 8 are provided. In this embodiment, an example is shown in which a focus detection method based on a pupil division type phase difference detection method is employed. The focus detection optical system 9 guides the pair of focus detection light fluxes that have passed through the photographing lens 8 to the light receiving surface of the distance measuring element 10 and forms a pair of optical images. The distance measuring element 10 includes, for example, a pair of CCD line sensors, and outputs a focus detection signal corresponding to the pair of optical images. Before shooting, the quick return mirror 5 and the sub mirror 6 are set at positions in the shooting optical path as indicated by broken lines, and the pair of focus detection light beams from the shooting lens 8 are transmitted through the half mirror portion of the quick return mirror 5. Then, the light is reflected by the sub mirror 6 and guided to the focus detection optical system 9 and the distance measuring element 10.

カメラ本体2の上部にはファインダー光学系が設けられている。撮影前にはクイックリターンミラー5およびサブミラー6が破線で示す位置にあり、撮影レンズ8からの被写体光の一部はクイックリターンミラー5に反射されて焦点板11へ導かれ、焦点板11上に被写体像が結像する。液晶表示素子12は、焦点板11上に結像された被写界像に焦点検出エリアマークなどの情報を重畳表示するとともに、被写界像外の位置に露出値などの種々の撮影情報を表示する。焦点板11上の被写界像はペンタダハプリズム13および接眼レンズ14を介して接眼窓15へ導かれ、撮影者が被写界像を視認することができる。   A finder optical system is provided on the upper part of the camera body 2. Before shooting, the quick return mirror 5 and the sub mirror 6 are in the positions indicated by broken lines, and part of the subject light from the shooting lens 8 is reflected by the quick return mirror 5 and guided to the focusing screen 11, and on the focusing screen 11. A subject image is formed. The liquid crystal display element 12 superimposes and displays information such as a focus detection area mark on the object scene image formed on the focusing screen 11 and displays various shooting information such as an exposure value at a position outside the object scene image. indicate. The object scene image on the focusing screen 11 is guided to the eyepiece window 15 via the penta roof prism 13 and the eyepiece lens 14 so that the photographer can visually recognize the object scene image.

また、カメラ本体2上部のファインダー光学系には、被写体追尾や測光のために被写界像を撮像する第2撮像素子16が設けられる。焦点板11に結像した被写界像は、ペンタダハプリズム13、プリズム17および結像レンズ18を介して第2撮像素子16の受光面に再結像される。第2撮像素子16は、マトリクス状に配列された複数の画素(光電変換素子)(この一実施の形態では、横640個×縦480個の画素が正方配列された一例を示す)を備えている。さらに、各画素は3個の部分に分割され、これらの部分にはそれぞれ赤R、緑G、青Bの原色フィルターが設けられている。これにより、各画素ごとに被写界画像のRGB信号を出力することができる。詳細を後述するが、この第2撮像素子16により撮像された被写界画像信号に基づいて追尾制御と露出演算が行われる。なお、追尾制御と露出演算は第1撮像素子4により撮像された被写界画像信号に基づいて行うこととしてもよい。   The finder optical system at the top of the camera body 2 is provided with a second image sensor 16 that captures a field image for subject tracking and photometry. The object scene image formed on the focusing screen 11 is re-imaged on the light receiving surface of the second image sensor 16 via the penta roof prism 13, the prism 17 and the imaging lens 18. The second imaging element 16 includes a plurality of pixels (photoelectric conversion elements) arranged in a matrix (in this embodiment, an example in which 640 pixels in the horizontal direction and 480 pixels in the vertical direction are arranged in a square) is shown. Yes. Further, each pixel is divided into three parts, and red R, green G, and blue B primary color filters are provided in these parts, respectively. Thereby, the RGB signal of the object scene image can be output for each pixel. Although details will be described later, tracking control and exposure calculation are performed based on the object scene image signal imaged by the second image sensor 16. The tracking control and the exposure calculation may be performed based on the scene image signal captured by the first image sensor 4.

カメラ本体2にはまた、ボディ駆動制御装置19、操作部材20などが設けられる。ボディ駆動制御装置19は、詳細を後述するマイクロコンピューターとメモリ、A/D変換器などの周辺部品から構成され、カメラ1の種々の制御と演算を行う。操作部材20には、シャッターボタン、焦点検出エリア選択スイッチ、撮影モード選択スイッチなどのカメラ1を操作するためのスイッチやセレクターが含まれる。   The camera body 2 is also provided with a body drive control device 19 and an operation member 20. The body drive control device 19 is constituted by peripheral components such as a microcomputer, a memory, and an A / D converter, the details of which will be described later, and performs various controls and calculations of the camera 1. The operation member 20 includes a switch and a selector for operating the camera 1 such as a shutter button, a focus detection area selection switch, and a shooting mode selection switch.

交換レンズ3には、ズーミングレンズ8a、フォーカシングレンズ8b、絞り21、レンズ駆動制御装置22などが設けられる。なお、この一実施の形態では撮影レンズ8をズーミングレンズ8a、フォーカシングレンズ8bおよび絞り21で代表的に表すが、撮影レンズ8の構成は図1に示す構成に限定されない。レンズ駆動制御装置22は図示しないマイクロコンピューターとメモリ、駆動回路、アクチュエーターなどの周辺部品から構成され、レンズ8a、8bおよび絞り21の駆動制御とそれらの位置検出を行う。レンズ駆動制御装置22に内蔵されるメモリには、交換レンズ3の焦点距離や開放絞り値などのレンズ情報が記憶されている。   The interchangeable lens 3 is provided with a zooming lens 8a, a focusing lens 8b, a diaphragm 21, a lens drive control device 22, and the like. In this embodiment, the photographing lens 8 is representatively represented by a zooming lens 8a, a focusing lens 8b, and a diaphragm 21, but the configuration of the photographing lens 8 is not limited to the configuration shown in FIG. The lens drive control device 22 includes a microcomputer (not shown) and peripheral components such as a memory, a drive circuit, and an actuator, and performs drive control of the lenses 8a and 8b and the diaphragm 21 and detection of their positions. Lens information such as a focal length and an open aperture value of the interchangeable lens 3 is stored in a memory built in the lens drive control device 22.

ボディ駆動制御装置19とレンズ駆動制御装置22はレンズマウント部の接点23を介して通信を行い、ボディ駆動制御装置19からレンズ駆動制御装置22へレンズ駆動量や絞り値などの情報を送信し、レンズ駆動制御装置22からボディ駆動制御装置19へレンズ情報や絞り情報を送信する。   The body drive control device 19 and the lens drive control device 22 communicate via the contact 23 of the lens mount, and transmit information such as a lens drive amount and an aperture value from the body drive control device 19 to the lens drive control device 22. Lens information and aperture information are transmitted from the lens drive control device 22 to the body drive control device 19.

図2はボディ駆動制御装置19の詳細な構成を示す。なお、本願発明と直接関係のない制御機能については図示と説明を省略する。ボディ駆動制御装置19は素子制御回路19a、A/D変換器19b、マイクロコンピューター19c、メモリ19dなどを備えている。素子制御回路19aは第2撮像素子16の電荷の蓄積と読み出しを制御する。A/D変換器19bは、第2撮像素子16から出力されるアナログ画像信号をデジタル画像信号に変換する。撮影者により操作部材20のシャッターボタンが半押しされると半押しスイッチ(不図示)がオンし、図1に示すように、撮影レンズ8を通過した被写体光の一部は破線で示すクイックリターンミラー5により反射され、ペンタダハプリズム13、プリズム17および結像レンズ18を介して第2撮像素子16へ導かれる。シャッターボタンが半押しされている間、第2撮像素子16により繰り返し周期的に被写界像を撮像することができる。   FIG. 2 shows a detailed configuration of the body drive control device 19. Note that illustration and description of control functions not directly related to the present invention are omitted. The body drive control device 19 includes an element control circuit 19a, an A / D converter 19b, a microcomputer 19c, a memory 19d, and the like. The element control circuit 19 a controls charge accumulation and reading of the second image sensor 16. The A / D converter 19b converts the analog image signal output from the second image sensor 16 into a digital image signal. When the shutter button of the operation member 20 is half-pressed by the photographer, a half-press switch (not shown) is turned on, and as shown in FIG. The light is reflected by the mirror 5 and guided to the second image sensor 16 via the penta roof prism 13, the prism 17 and the imaging lens 18. While the shutter button is half-pressed, the second imaging element 16 can repeatedly and periodically capture the object scene image.

マイクロコンピューター19cは、ソフトウエア形態により追尾制御部19e、露出制御部19f、焦点検出演算部19gおよびレンズ駆動量演算部19hを構成する。メモリ19dは、画像追尾用のテンプレート画像やデフォーカス量などの情報、撮影レンズ8の焦点距離、開放F値、絞り値、像ズレ量からデフォーカス量への変換係数などのレンズ情報などを記憶する。   The microcomputer 19c constitutes a tracking control unit 19e, an exposure control unit 19f, a focus detection calculation unit 19g, and a lens drive amount calculation unit 19h according to a software form. The memory 19d stores information such as a template image for image tracking and defocus amount, lens information such as focal length, open F value, aperture value, and image shift amount to defocus amount conversion coefficient of the taking lens 8. To do.

追尾制御部19eは、第2撮像素子16により撮像した被写界像の内、撮影者が手動で指定した追尾対象位置、あるいはカメラ1が自動で設定した追尾対象位置に対応する画像をテンプレート画像(基準画像)としてメモリ19dに記憶させ、その後に繰り返し撮影される画像の中からテンプレート画像と一致または類似する画像領域を検索することによって対象の位置を認識する。露出演算部19fは、第2撮像素子16により撮像した画像信号に基づいて露出値を演算する。   The tracking control unit 19e uses a template image as an image corresponding to the tracking target position manually specified by the photographer or the tracking target position automatically set by the camera 1 in the object scene image captured by the second image sensor 16. It is stored in the memory 19d as a (reference image), and the position of the object is recognized by searching an image area that matches or is similar to the template image from images that are repeatedly photographed thereafter. The exposure calculation unit 19f calculates an exposure value based on the image signal captured by the second image sensor 16.

焦点検出演算部19gは、測距素子10から出力される対の光像に応じた焦点検出信号に基づいて撮影レンズ8の焦点調節状態、ここではデフォーカス量を検出する。なお、詳細を後述するが、撮影レンズ8の撮影画面内には複数の焦点検出エリアが設定されており、測距素子10は焦点検出エリアごとに対の光像に応じた焦点検出信号を出力し、焦点検出演算部19gは焦点検出エリアごとに対の光像に応じた焦点検出信号に基づいてデフォーカス量を検出する。撮影者により操作部材20のシャッターボタンが半押しされると半押しスイッチ(不図示)がオンし、図1に示すように、撮影レンズ8を通過した被写体光の一部は破線で示すクイックリターンミラー5のハーフミラー部を通ってサブミラー6および焦点検出光学系9を介して測距素子10へ導かれ、焦点検出演算部19gにより焦点検出演算が行われる。レンズ駆動量演算部19hは検出されたデフォーカス量をレンズ駆動量に変換する。なお、焦点調節状態の検出は、シャッターボタンが半押しされている間、繰り返し周期的に行われる。   The focus detection calculation unit 19g detects the focus adjustment state of the photographing lens 8, here the defocus amount, based on the focus detection signal corresponding to the pair of optical images output from the distance measuring element 10. Although details will be described later, a plurality of focus detection areas are set in the shooting screen of the shooting lens 8, and the distance measuring element 10 outputs a focus detection signal corresponding to a pair of optical images for each focus detection area. Then, the focus detection calculation unit 19g detects the defocus amount based on the focus detection signal corresponding to the pair of optical images for each focus detection area. When the shutter button of the operation member 20 is half-pressed by the photographer, a half-push switch (not shown) is turned on, and as shown in FIG. 1, part of the subject light that has passed through the photographing lens 8 is a quick return indicated by a broken line. The light is guided to the distance measuring element 10 through the sub-mirror 6 and the focus detection optical system 9 through the half mirror part of the mirror 5, and the focus detection calculation part 19g performs the focus detection calculation. The lens driving amount calculation unit 19h converts the detected defocus amount into a lens driving amount. The focus adjustment state is repeatedly and periodically detected while the shutter button is half-pressed.

次に、一実施の形態の画像追尾動作を説明する。図3〜図5は一実施の形態の画像追尾動作を説明するための図、図6〜図7は一実施の形態の画像追尾処理を示すフローチャートである。シャッターボタンを全押しして撮影を行うとき以外は、クイックリターンミラー5が図1に破線で示す撮影光路内に設定されており、撮影レンズ8から入射した被写体光の一部は焦点板11上に結像される。そして、焦点板11上の被写界像はペンタダハプリズム13、プリズム17および結像レンズ18を介して第2撮像素子16へ導かれ、第2撮像素子16から被写界画像信号が繰り返し出力される。   Next, an image tracking operation according to an embodiment will be described. 3 to 5 are diagrams for explaining the image tracking operation according to the embodiment, and FIGS. 6 to 7 are flowcharts illustrating the image tracking process according to the embodiment. The quick return mirror 5 is set in the photographing optical path shown by the broken line in FIG. 1 except when the shutter button is fully pressed to shoot, and part of the subject light incident from the photographing lens 8 is on the focusing screen 11. Is imaged. The object scene image on the focusing screen 11 is guided to the second image sensor 16 via the penta roof prism 13, the prism 17 and the imaging lens 18, and the object scene image signal is repeatedly output from the second image sensor 16. The

撮影レンズ8の撮影画面には複数の焦点検出エリアが設定されており、液晶表示素子12により焦点板11上の被写界像にエリアマークを重畳し、各焦点検出エリアの位置を表示する。この一実施の形態では、図3に示すように、撮影画面内の7カ所に焦点検出エリア45a〜45g(図中にはa〜gと表記)が設定された例を示す。また、操作部材20の焦点検出エリア選択スイッチにより任意のエリアを選択すると、そのエリアのマークが点灯表示される。   A plurality of focus detection areas are set on the shooting screen of the shooting lens 8, and an area mark is superimposed on the object scene image on the focusing screen 11 by the liquid crystal display element 12 to display the position of each focus detection area. In this embodiment, as shown in FIG. 3, an example is shown in which focus detection areas 45a to 45g (denoted as a to g in the figure) are set at seven locations in the photographing screen. When an arbitrary area is selected by the focus detection area selection switch of the operation member 20, the mark of the area is lit up.

図3に示すように操作部材20の焦点検出エリア選択スイッチにより焦点検出エリア45bが選択され、この状態で操作部材20のシャッターボタンが半押しされると、焦点検出エリア45bが初回AFエリアとしてメモリ19dに記憶される。これにより、追尾対象として初回AFエリア内の被写体が指定される。なお、ここでは撮影者が初回AFエリアを選択して追尾対象の被写体を手動で指定する例を示すが、例えば自動的に被写体を認識する機能を備えたカメラでは被写体認識結果に基づいて初回AFエリアおよび追尾対象被写体を設定してもよい。   As shown in FIG. 3, when the focus detection area 45b is selected by the focus detection area selection switch of the operation member 20, and the shutter button of the operation member 20 is half-pressed in this state, the focus detection area 45b is stored as the first AF area. 19d. Thereby, the subject in the first AF area is designated as the tracking target. In this example, the photographer selects the first AF area and manually designates the subject to be tracked. For example, in a camera having a function of automatically recognizing the subject, the first AF is performed based on the subject recognition result. An area and a tracking target subject may be set.

図6のステップ1において、第2撮像素子16により追尾初期画像(画像追尾処理を開始して最初に取得する画像)を取得する。第2撮像素子16により撮像された画像情報は、画素ごとにRGB値で表される。
R[x,y]、G[x,y]、B[x,y],
x=1〜640、y=1〜480 ・・・(1)
In step 1 of FIG. 6, an initial tracking image (an image acquired first after starting the image tracking process) is acquired by the second image sensor 16. Image information captured by the second image sensor 16 is represented by RGB values for each pixel.
R [x, y], G [x, y], B [x, y],
x = 1 to 640, y = 1 to 480 (1)

次に、ステップ2で図7に示す追尾制御初期処理を実行する。図7のステップ101において、追尾初期画像の中の撮影者が指定した位置(ここでは初回AFエリアである焦点検出エリア45b)の画像情報((1)式参照)を被写体色情報として記憶する。ステップ102では、図4(a)に示すように、追尾初期画像の中の焦点検出エリア45b(図3参照)の位置周辺部において上記被写体色情報と同様な色情報を示す同色情報領域46を検出し、続くステップ103で同色情報領域46を含む四角形の領域を初期の追尾被写体領域47とする。   Next, the tracking control initial process shown in FIG. In step 101 of FIG. 7, the image information (refer to equation (1)) of the position designated by the photographer in the initial tracking image (here, the focus detection area 45b which is the first AF area) is stored as subject color information. In step 102, as shown in FIG. 4A, the same color information area 46 indicating the same color information as the subject color information is formed in the periphery of the position of the focus detection area 45b (see FIG. 3) in the tracking initial image. In step 103, a rectangular area including the same color information area 46 is set as an initial tracking subject area 47.

なお、ここでは被写体色情報に基づいて追尾被写体領域47を決定する例を示すが、処理の簡素化を図るために一律に3×3画素のように追尾被写体領域のサイズを統一したり、あるいは撮影レンズ8の距離情報や被写体の像倍率に応じて追尾被写体領域のサイズを決定してもよい。   Here, an example in which the tracking subject area 47 is determined based on the subject color information is shown, but in order to simplify the processing, the size of the tracking subject area is uniformly set to 3 × 3 pixels, or The size of the tracking subject area may be determined according to the distance information of the photographing lens 8 and the image magnification of the subject.

ステップ104では、追尾初期画像の追尾被写体領域47において、複数の画素に対応する領域を1つのブロックとして横3ブロック、縦3ブロックに分割する。追尾被写体領域47の座標の基点を(x,y)=(i,j)とし、追尾被写体領域47の画素数をrefh、refvとすると、追尾初期画像の追尾被写体領域47における画素ごとのRGB画像情報は次のように表される。
R[x,y]、G[x,y]、B[x,y],
x=i〜i+refh、y=j〜j+refv ・・・(2)
この画素ごとのRGB画像情報に基づいてブロックごとのRGB値bR、bG、bBを算出する。ブロックごとのRGB値bR、bG、bBは、例えばブロックに含まれるすべての画素のR、GおよびB値の平均値とする。
In step 104, in the tracking subject area 47 of the initial tracking image, an area corresponding to a plurality of pixels is divided into three blocks and three vertical blocks as one block. If the base point of the coordinates of the tracking subject area 47 is (x, y) = (i, j) and the number of pixels of the tracking subject area 47 is refh and refv, the RGB image for each pixel in the tracking subject area 47 of the tracking initial image The information is expressed as follows:
R [x, y], G [x, y], B [x, y],
x = i to i + refh, y = j to j + refv (2)
Based on the RGB image information for each pixel, RGB values bR, bG, bB for each block are calculated. The RGB values bR, bG, and bB for each block are, for example, average values of R, G, and B values of all the pixels included in the block.

次に、ステップ105で、ブロックごとのRGB値bR、bG、bBに基づいてブロックごとの色情報と輝度情報を算出する。ここでは、色情報として色の偏り具合を示す値であるRG、BGを用い、ブロックごとにbRGref[rx,ry]、bBGref[rx,ry](rx、ry=1〜3)と表すとともに、輝度情報として画像を取得したときの露光時間T、ゲインGain、色合成係数Kr、Kg、Kbにより算出したLを用い、ブロックごとにbLref[rx,ry]と表す。
bRGref[rx,ry]=Log(bR[rx,ry])−Log(bG[rx,ry]),
bBGref[rx,ry]=Log(bB[rx,ry])−Log(bG[rx,ry]),
bLref[rx,ry]=Log(Kr×bR[rx,ry]+Kg×bG[rx,ry]+Kb×bB[rx,ry])−Log(T)−Log(Gain) ・・・(3)
Next, in step 105, color information and luminance information for each block are calculated based on the RGB values bR, bG, and bB for each block. Here, RG and BG, which are values indicating the degree of color deviation, are used as color information, and each block is represented as bRGref [rx, ry], bBGref [rx, ry] (rx, ry = 1 to 3), L calculated from the exposure time T, gain Gain, and color synthesis coefficients Kr, Kg, and Kb when an image is acquired as luminance information is represented as bLref [rx, ry] for each block.
bRGref [rx, ry] = Log 2 (bR [rx, ry]) − Log 2 (bG [rx, ry]),
bBGref [rx, ry] = Log 2 (bB [rx, ry]) − Log 2 (bG [rx, ry]),
bLref [rx, ry] = Log 2 (Kr × bR [rx, ry] + Kg × bG [rx, ry] + Kb × bB [rx, ry]) − Log 2 (T) −Log 2 (Gain). (3)

各ブロックの色情報bRGref[rx,ry]、bBGref[rx,ry]および輝度情報bLref[rx,ry]を,図4(b)に示すようにブロック化テンプレート画像48としてメモリ19dに記憶する。なお、この一実施の形態では追尾被写体領域47を横3×縦3ブロックに分割する例を示すが、ブロックの分割数はこの一実施の形態の分割数に限定されない。   The color information bRGref [rx, ry], bBGref [rx, ry] and luminance information bLref [rx, ry] of each block are stored in the memory 19d as a blocked template image 48 as shown in FIG. In this embodiment, an example in which the tracking subject region 47 is divided into horizontal 3 × vertical 3 blocks is shown. However, the number of blocks is not limited to the number of divisions in this embodiment.

ステップ106で、撮像される追尾次画像においてテンプレート画像48と一致または類似する画像を探索する領域を決定する。ここでは、図4(a)に示すように、追尾被写体領域47を囲む横srch、縦srcvの画素範囲を探索領域49に設定する。好ましくは追尾被写体領域47を中心にして探索領域49を設定する。追尾対象の被写体は今回検出された位置すなわち追尾被写体領域47を基点にして移動するから、追尾被写体領域47を中心にして探索領域49を設定することによって、追尾対象の被写体を早く検出することができ、画像追尾の応答性を向上させることができる。なお、この探索領域49は縦横それぞれに所定画素ずつ拡大した所定の大きさの領域としてもよいし、追尾結果や追尾被写体の大きさに応じて変えるようにしてもよい。   In step 106, an area for searching for an image that matches or is similar to the template image 48 in the next tracking image to be captured is determined. Here, as shown in FIG. 4A, a horizontal srch and vertical srcv pixel range surrounding the tracking subject area 47 is set in the search area 49. Preferably, the search area 49 is set around the tracking subject area 47. Since the tracking target subject moves from the currently detected position, that is, the tracking subject region 47 as a base point, by setting the search region 49 around the tracking subject region 47, the tracking target subject can be detected quickly. And the responsiveness of image tracking can be improved. The search area 49 may be an area having a predetermined size enlarged by predetermined pixels in the vertical and horizontal directions, or may be changed according to the tracking result and the size of the tracking subject.

以上で追尾制御初期処理を終了し、図6のステップ3へリターンする。リターン後の図6のステップ3において、操作部材20のシャッターボタンが全押しされたか否かを判別し、全押しされるまでの間、ステップ4以降の処理を繰り返す。ステップ4において、第2撮像素子16から追尾次画像を取得し、ステップ1の処理と同様に画像情報R[x,y]、G[x,y]、B[x,y](x=1〜640、y=1〜480)を取得する。   The tracking control initial process is thus completed, and the process returns to step 3 in FIG. In step 3 of FIG. 6 after the return, it is determined whether or not the shutter button of the operation member 20 has been fully pressed, and the processes in and after step 4 are repeated until the shutter button is fully pressed. In step 4, a tracking next image is acquired from the second image sensor 16, and image information R [x, y], G [x, y], B [x, y] (x = 1) as in the processing in step 1. ˜640, y = 1˜480).

続くステップ5では追尾演算を行う。追尾次画像の中の探索領域49から図4(a)に示す画素数refh、refvの追尾被写体領域47と同じサイズの領域を順次切り出し、切り出した画像を図4(b)に示すブロック化テンプレート画像48と同じブロック数になるように分割する。さらに上述したように、ブロックごとのRGB値bR、bG、bBに基づいてブロックごとの色情報bRG[rx,ry]、bBG[rx,ry](rx、ry=1〜3)と輝度情報bL[rx,ry]を算出する。そして、ブロック化テンプレート画像48とブロック化切り出し画像の対応するブロックごとに、画像情報の差分Diffを算出する。   In the following step 5, tracking calculation is performed. An area having the same size as the tracking subject area 47 having the number of pixels refh and refv shown in FIG. 4A is sequentially cut out from the search area 49 in the following tracking image, and the cut-out image is shown in FIG. 4B as a blocked template. The image 48 is divided so as to have the same number of blocks as the image 48. Further, as described above, color information bRG [rx, ry], bBG [rx, ry] (rx, ry = 1 to 3) and luminance information bL for each block based on the RGB values bR, bG, and bB for each block. [rx, ry] is calculated. Then, the difference Diff of the image information is calculated for each block corresponding to the blocked template image 48 and the blocked clipped image.

差分Diffは次式により演算する。
Diff=ΣΣ{ABS(bRG[rx,ry]−bRGref[rx,ry])+ABS(bBG[rx,ry]−bBGref[rx,ry])+ABS(bL[rx,ry]−bLref[rx,ry])} ・・・(4)
(4)式において、ΣΣはrx=1〜3、ry=1〜3のすべてのブロックの色の差の総和演算を表す。探索領域49の中で追尾被写体領域47と同じサイズの領域を所定の画素ずつずらしながら切り出し画像を取得し、切り出した画像とテンプレート画像48との間でブロックごとの画像情報の差分Diffを求めていく。
The difference Diff is calculated by the following equation.
Diff = ΣΣ {ABS (bRG [rx, ry] −bRGref [rx, ry]) + ABS (bBG [rx, ry] −bBGref [rx, ry]) + ABS (bL [rx, ry] −bLref [rx, ry ])} (4)
In the equation (4), ΣΣ represents a sum calculation of the color differences of all the blocks of rx = 1 to 3 and ry = 1 to 3. A clipped image is acquired while shifting an area of the same size as the tracking subject area 47 in the search area 49 by a predetermined pixel, and a difference Diff of image information for each block is obtained between the clipped image and the template image 48. Go.

例えば、図5(a)に示すように探索領域49から順次切り出した画像をブロック化し、ブロック化テンプレート画像(b)とブロック化切り出し画像(c)、(d)、(e)とを順次比較してそれぞれに差分Diffを算出し、これらの差分Diffの内の最小の差分を示す切り出し画像(ここでは図5(e)に示す画像)がテンプレート画像48(図4(b)参照)に最も類似していることになる。なお、テンプレート画像48に最も類似している領域を決定する際には、それぞれの領域に対応する焦点検出エリア45a〜45gで検出されたデフォーカス量を考慮することとしてもよい。   For example, as shown in FIG. 5A, the images sequentially cut out from the search area 49 are blocked, and the blocked template image (b) and the blocked cut images (c), (d), and (e) are sequentially compared. Then, the difference Diff is calculated for each of them, and the cut-out image (here, the image shown in FIG. 5E) showing the minimum difference among these differences Diff is the largest in the template image 48 (see FIG. 4B). It will be similar. When determining the region most similar to the template image 48, the defocus amount detected in the focus detection areas 45a to 45g corresponding to each region may be taken into consideration.

なお、切り出し領域のずらし量は、所定の値としてもよいし、探索領域49の中心(前回の追尾演算時に追尾対象の被写体がいた位置)に近いほど小さくし、中心から遠ざかるにしたがって大きくするようにしてもよい。追尾対象の被写体は今回検出された位置すなわち追尾被写体領域47を基点にして移動するため、追尾被写体領域47を中心にして探索領域49を設定するとともに、探索領域49の中心に近いほど切り出し領域のずらし量を小さくすることによって、追尾対象の被写体を早く正確に検出することができ、画像追尾の応答性と精度を向上させることができる。
または、テンプレート画像48の画素数に応じて切り出し領域のずらし量を設定することとしてもよい。テンプレート画像48の画素数が小さいほど被写界画像における追尾対象の占める面積が小さいこととなる。よって、例えば、テンプレート画像48の画素数が小さいほど切り出し領域のずらし量を小さくすることにより、画像追尾の応答性と精度を向上させることができる。
It should be noted that the shift amount of the cutout region may be a predetermined value, and is made smaller as it is closer to the center of the search region 49 (the position where the subject to be tracked at the time of the previous tracking computation), and increased as the distance from the center increases. It may be. Since the tracking target subject moves based on the currently detected position, that is, the tracking subject region 47, the search region 49 is set around the tracking subject region 47, and the closer to the center of the search region 49, the closer to the center of the search region 49, By reducing the shift amount, the subject to be tracked can be detected quickly and accurately, and the responsiveness and accuracy of image tracking can be improved.
Alternatively, the cutout region shift amount may be set according to the number of pixels of the template image 48. The smaller the number of pixels of the template image 48, the smaller the area occupied by the tracking target in the object scene image. Therefore, for example, the responsiveness and accuracy of image tracking can be improved by reducing the shift amount of the cutout region as the number of pixels of the template image 48 is smaller.

あるいは、被写界の中心位置(撮影レンズ8の撮影画面の中心)に近いほど切り出し領域のずらし量を小さくし、被写界の中心から遠ざかるにしたがって大きくしてもよい。一般に、追尾対象の移動被写体は撮影画面の中心付近に捕捉されることが多いため、撮影画面中心に近いほど切り出し領域のずらし量を小さくすることによって、追尾対象の被写体を早く正確に検出することができ、画像追尾の応答性と精度を向上させることができる。
または、被写界において設定される焦点検出エリア45a〜45gに対応する位置の少なくとも一つに近いほど切り出し領域のずらし量を小さくしてもよい。ステップ2の追尾制御初期処理では初回AFエリア内の被写体が追尾対象とされるので、追尾対象の移動被写体は焦点検出エリア45a〜45gに対応する位置付近で捕捉されることが多く、焦点検出エリア45a〜45gに対応する位置に近いほど切り出し領域のずらし量を小さくすることによって画像追尾と焦点調節の精度を向上させることができる。
または、焦点検出エリア45a〜45gについて検出される焦点調節状態に応じて(デフォーカス量が小さいほど)、その焦点検出エリア45a〜45g付近での切り出し領域のずらし量を小さくしてもよい。一般に、大きい値のデフォーカス量が検出される焦点検出エリア45a〜45gほど、撮影者が意図する追尾対象でない背景などに対応する位置にある焦点検出エリア45a〜45gである可能性が高い。よって、焦点調節状態に応じて切り出し領域のずらし量を設定することにより画像追尾と焦点調節の精度を向上させることができる。
Alternatively, the closer to the center position of the object scene (the center of the photographing screen of the photographing lens 8), the smaller the shift amount of the cutout region may be, and the larger the distance from the center of the object scene. In general, a moving subject to be tracked is often captured near the center of the shooting screen, so that the closer to the center of the shooting screen, the smaller the shift amount of the cutout area, so that the subject to be tracked can be detected quickly and accurately. It is possible to improve the response and accuracy of image tracking.
Alternatively, the shift amount of the cutout region may be reduced as it is closer to at least one of the positions corresponding to the focus detection areas 45a to 45g set in the object scene. Since the subject in the first AF area is the tracking target in the tracking control initial process in step 2, the moving subject to be tracked is often captured near the position corresponding to the focus detection areas 45a to 45g. The accuracy of image tracking and focus adjustment can be improved by reducing the shift amount of the cutout region as it is closer to the position corresponding to 45a to 45g.
Or according to the focus adjustment state detected about the focus detection areas 45a-45g (as the defocus amount is small), you may make small the shift amount of the cut-out area | region in the focus detection areas 45a-45g vicinity. In general, the focus detection areas 45a to 45g in which large defocus amounts are detected are more likely to be focus detection areas 45a to 45g located at positions corresponding to the background that is not the tracking target intended by the photographer. Therefore, the accuracy of image tracking and focus adjustment can be improved by setting the shift amount of the cutout region according to the focus adjustment state.

さらにまた、画像情報の差分Diffをとり、その差分値がしきい値よりも大きい場合はその隣を探索する際のずらし量を大きくし、しきい値よりも小さい場合にはずらし量を小さくするようにしてもよい。または、単純に画像情報の差分Diffが小さいほどずらし量を小さくしてもよい。ある切り出し領域に対する画像情報の差分が小さいほど、追尾対象の被写体がその切り出し領域の近くにいる確率が高いため、切り出し領域のずらし量を小さくすることによって、追尾対象の被写体を早く正確に検出することができ、画像追尾の応答性と精度を向上させることができる。   Furthermore, the difference Diff of the image information is taken, and when the difference value is larger than the threshold value, the shift amount when searching for the neighbor is increased, and when the difference value is smaller than the threshold value, the shift amount is decreased. You may do it. Alternatively, the shift amount may be made smaller as the image information difference Diff is smaller. The smaller the difference in image information for a certain clipping region, the higher the probability that the tracking target subject will be near the clipping region. Therefore, the tracking target subject can be detected quickly and accurately by reducing the shift amount of the clipping region. It is possible to improve the responsiveness and accuracy of image tracking.

上述した一実施の形態では、探索領域49の中から切り出してテンプレート画像と比較する領域の画素数を、テンプレート画像の画素数refh、refvと同じ画素数とした例を示したが、追尾対象の距離精度などに応じて、切り出し領域の画素数はテンプレート画像の画素数refh、refvより多くしても、あるいは少なくしてもよい。追尾対象の被写体が撮像装置に対して撮影レンズの光軸方向に移動して追尾対象の被写体の大きさが変化した場合でも、その変化に応じて切り出し領域の大きさを変えることができ、追尾対象の被写体を確実に検出することができる。その際、切り出し領域のブロック数をテンプレート画像のブロック数と等しくすることで、テンプレート画像を拡大または縮小したときと同じ効果が得られ、画像追尾の精度を向上させることができる。   In the above-described embodiment, the example in which the number of pixels in the region to be cut out from the search region 49 and compared with the template image is the same as the number of pixels refh and refv of the template image is shown. Depending on the distance accuracy and the like, the number of pixels in the cutout region may be larger or smaller than the number of pixels refh and refv of the template image. Even if the tracking target subject moves in the optical axis direction of the photographic lens relative to the imaging device and the size of the tracking target subject changes, the size of the cutout area can be changed according to the change. It is possible to reliably detect the target subject. At this time, by making the number of blocks in the cutout area equal to the number of blocks in the template image, the same effect as when the template image is enlarged or reduced can be obtained, and the accuracy of image tracking can be improved.

ステップ6において、テンプレート画像48との画像情報の差分Diffが最も小さい切り出し画像の切り出し領域を検出し、その切り出し領域を新しい追尾被写体領域47に決定する。新しい追尾被写体領域47を決定した後は、新しい追尾被写体領域47内に含まれる追尾対象に対して合焦制御を行う。合焦制御は、新しい追尾被写体領域47内に焦点検出エリア45a〜45gの少なくとも一つが含まれる場合には、新しい追尾被写体領域47内に含まれる焦点検出エリア45a〜45gで検出されたデフォーカス量のうち最も小さいものを採用し、そのデフォーカス量に基づいて撮影レンズ8の焦点調節を行う。合焦制御は、新しい追尾被写体領域47内に焦点検出エリア45a〜45gが含まれない場合には、新しい追尾被写体領域47との距離、または前回の追尾結果で採用された焦点検出エリア45a〜45gとの距離の少なくとも一方に基づいて採用する焦点検出エリア45a〜45gを決定してもよい。ここで、新しい追尾被写体領域47の画像情報に基づいて上述したブロック化処理を行い、新しいテンプレート画像48として更新してもよい。   In step 6, a cutout area of the cutout image having the smallest image information difference Diff from the template image 48 is detected, and the cutout area is determined as a new tracking subject area 47. After the new tracking subject area 47 is determined, focusing control is performed on the tracking target included in the new tracking subject area 47. In the focus control, when at least one of the focus detection areas 45a to 45g is included in the new tracking subject area 47, the defocus amount detected in the focus detection areas 45a to 45g included in the new tracking subject area 47 The smallest of these is adopted, and the focus of the photographic lens 8 is adjusted based on the defocus amount. In the focus control, when the focus detection areas 45a to 45g are not included in the new tracking subject region 47, the distance to the new tracking subject region 47 or the focus detection areas 45a to 45g employed in the previous tracking result are used. Focus detection areas 45a to 45g to be employed may be determined based on at least one of the distances to Here, the above-described blocking process may be performed based on the image information of the new tracking subject region 47 and updated as a new template image 48.

テンプレート画像48を更新する場合には、元のテンプレート画像48の画像情報8割に対して新しい被写体領域47の画像情報2割を加えるなどして、テンプレート画像48の元の画像情報に最新の画像情報を少しずつ加え、何らかの原因による追尾被写体の急激な変化の影響を抑制して被写体追尾の信頼性を向上させるようにしてもよい。   When updating the template image 48, the latest image information is added to the original image information of the template image 48 by adding 20% of the image information of the new subject area 47 to the image information 80% of the original template image 48. The reliability of subject tracking may be improved by adding information little by little to suppress the influence of a sudden change in the tracking subject due to some cause.

また、テンプレート画像48の更新は、追尾演算のたびに毎回行うのではなく、追尾被写体領域47として決定した位置の差分Diffの大きさがしきい値より小さい場合のみ、実行するようにしてもよい。   The template image 48 may be updated only when the size of the position difference Diff determined as the tracking subject region 47 is smaller than the threshold value, instead of every time the tracking calculation is performed.

ステップ7において、新しい追尾被写体領域47に対して新しい探索領域49を決定する。ここでは、図4(a)に示すように、追尾被写体領域47を囲む横srch、縦srcvの画素範囲を探索領域49に設定する。この探索領域49は縦横それぞれに所定画素ずつ拡大した所定の大きさの領域としてもよいし、追尾結果や追尾被写体の大きさに応じて変えるようにしてもよい。探索領域49の決定後、ステップ3へ戻る。   In step 7, a new search area 49 is determined for the new tracking subject area 47. Here, as shown in FIG. 4A, a horizontal srch and vertical srcv pixel range surrounding the tracking subject area 47 is set in the search area 49. The search area 49 may be an area having a predetermined size enlarged by a predetermined number of pixels in the vertical and horizontal directions, or may be changed according to the tracking result and the size of the tracking subject. After determining the search area 49, the process returns to step 3.

ステップ3で操作部材20のシャッターボタンの全押し操作が検出されるとステップ8へ進み、撮影制御を実行する。なお、撮像制御に際しては、ステップ8で決定した新追尾被写体領域47の輝度情報に基づいて露出演算を行い、絞り値とシャッター速度を算出する。これらの露出値にしたがってシャッター7および絞り21を駆動制御し、第1撮像素子4により撮像を行う。   When the full pressing operation of the shutter button of the operation member 20 is detected in step 3, the process proceeds to step 8 to execute photographing control. In the imaging control, an exposure calculation is performed based on the luminance information of the new tracking subject area 47 determined in step 8, and an aperture value and a shutter speed are calculated. The shutter 7 and the aperture 21 are driven and controlled in accordance with these exposure values, and the first image sensor 4 captures an image.

なお、上述した実施の形態とそれらの変形例において、実施の形態と変形例とのあらゆる組み合わせが可能である。   In the above-described embodiments and their modifications, all combinations of the embodiments and the modifications are possible.

上述した実施の形態とその変形例によれば以下のような作用効果を奏することができる。(1)テンプレートマッチングする画像の画素数を多くして画像追尾精度を向上させながら、テンプレートマッチングに要する演算量を低減することができる。(2)追尾対象の位置を正確に検出することができる。(3)撮像画像の全範囲から少ない演算量で追尾対象の位置を正確に検出することができる。(4)テンプレート画像の画素数に応じた最適なずらし量が設定され、テンプレート画像の画素数に関わらず常に画像追尾の高応答性を維持することができる。(5)追尾対象の被写体を早く正確に検出することができ、画像追尾の応答性と精度を向上させることができる。(6)テンプレートマッチングの演算が容易になり、追尾対象の被写体を早く正確に検出することができる。(7)追尾対象の被写体が撮像装置に対して撮影レンズの光軸方向に移動して追尾対象の被写体の大きさが変化した場合でも、その変化に応じて切り出し領域の大きさを変えることができ、追尾対象の被写体を確実に検出することができる。   According to the above-described embodiment and its modifications, the following operational effects can be achieved. (1) The amount of calculation required for template matching can be reduced while increasing the number of pixels of an image to be template matched to improve image tracking accuracy. (2) The position of the tracking target can be accurately detected. (3) The position of the tracking target can be accurately detected from the entire range of the captured image with a small amount of calculation. (4) An optimum shift amount corresponding to the number of pixels of the template image is set, and high responsiveness of image tracking can always be maintained regardless of the number of pixels of the template image. (5) The subject to be tracked can be detected quickly and accurately, and the responsiveness and accuracy of image tracking can be improved. (6) Template matching can be easily calculated, and the tracking target subject can be detected quickly and accurately. (7) Even when the tracking target subject moves in the optical axis direction of the photographing lens with respect to the imaging apparatus and the size of the tracking target subject changes, the size of the cutout region can be changed according to the change. Thus, the subject to be tracked can be reliably detected.

一実施の形態の画像追尾装置を備えた撮像装置の構成を示す横断面図1 is a cross-sectional view illustrating a configuration of an imaging device including an image tracking device according to an embodiment; 一実施の形態の画像追尾装置を備えた撮像装置の構成を示すブロック図1 is a block diagram illustrating a configuration of an imaging device including an image tracking device according to an embodiment; 一実施の形態の画像追尾方法を説明するための図The figure for demonstrating the image tracking method of one Embodiment 一実施の形態の画像追尾方法を説明するための図The figure for demonstrating the image tracking method of one Embodiment 一実施の形態の画像追尾方法を説明するための図The figure for demonstrating the image tracking method of one Embodiment 一実施の形態の画像追尾処理を示すフローチャートThe flowchart which shows the image tracking processing of one embodiment 追尾制御初期処理を示すフローチャートFlow chart showing tracking control initial processing

符号の説明Explanation of symbols

1;撮像装置、8;撮影レンズ、16;第2撮像素子、19;ボディ駆動制御装置、19a;追尾制御部、19d;メモリ DESCRIPTION OF SYMBOLS 1; Imaging device, 8; Shooting lens, 16; 2nd image sensor, 19; Body drive control apparatus, 19a; Tracking control part, 19d;

Claims (13)

追尾対象の画像に関する基準情報を記憶する記憶手段と、
結像光学系により結像される被写界の被写界画像を繰り返し撮像する撮像手段と、
前記被写界画像の一部の部分画像を切り出し、前記部分画像において複数の画素に対応する領域が一つのブロックとなるように前記部分画像を分割し、色情報と輝度情報との少なくとも一方に関する画像情報を前記ブロックごとに算出する算出手段と、
前記ブロックごとの前記画像情報と前記基準情報とに基づいて、前記被写界画像における前記追尾対象の位置を検出する検出手段とを備えることを特徴とする画像追尾装置。
Storage means for storing reference information about the image to be tracked;
Imaging means for repeatedly capturing a field image of the field imaged by the imaging optical system;
A partial image of the scene image is cut out, the partial image is divided so that a region corresponding to a plurality of pixels in the partial image becomes one block, and at least one of color information and luminance information Calculating means for calculating image information for each block;
An image tracking apparatus comprising: a detecting unit configured to detect a position of the tracking target in the object scene image based on the image information and the reference information for each block.
請求項1に記載の画像追尾装置において、
前記被写界画像に対応して設定される焦点検出位置で前記結像光学系の焦点調節状態を検出する検出手段を有し、
前記算出手段は、前記被写界画像の中から複数の前記部分画像を切り出す際の切り出し位置のずらし量を、前記焦点検出位置に近いほど小さく設定することを特徴とする画像追尾装置。
The image tracking device according to claim 1,
Detecting means for detecting a focus adjustment state of the imaging optical system at a focus detection position set corresponding to the object scene image;
The image tracking device according to claim 1, wherein the calculation unit sets a shift amount of a cutout position when cutting out the plurality of partial images from the object scene image as a position closer to the focus detection position.
請求項1または請求項2に記載の画像追尾装置において、
前記被写界画像に対応して設定される複数の焦点検出位置で前記結像光学系の焦点調節状態を検出する検出手段を有し、
前記算出手段は、前記被写界画像の中から複数の前記部分画像を切り出す際の切り出し位置のずらし量を、前記焦点検出位置ごとの前記焦点調節状態に応じて設定することを特徴とする画像追尾装置。
In the image tracking device according to claim 1 or 2,
Detecting means for detecting a focus adjustment state of the imaging optical system at a plurality of focus detection positions set corresponding to the object scene image;
The calculation means sets an amount of shift of a cutout position when cutting out a plurality of the partial images from the object scene image according to the focus adjustment state for each focus detection position. Tracking device.
請求項1〜3のいずれか一項に記載の画像追尾装置において、
前記算出手段は、前記被写界画像の中から複数の前記部分画像を切り出す際の切り出し位置のずらし量を、前記追尾対象の画像の画素数に応じて設定することを特徴とする画像追尾装置。
In the image tracking device according to any one of claims 1 to 3,
The calculation means sets an amount of shift of a cutout position when cutting out a plurality of the partial images from the object scene image according to the number of pixels of the tracking target image. .
請求項1〜4のいずれか一項に記載の画像追尾装置において、
前記算出手段は、前記被写界画像の中から前記部分画像の切り出す範囲を設定し、前記範囲から複数の前記部分画像を切り出す際の切り出し位置のずらし量を、前記範囲の中心に近いほど小さく設定することを特徴とする画像追尾装置。
In the image tracking device according to any one of claims 1 to 4,
The calculation means sets a range of the partial image to be cut out from the object scene image, and a shift amount of the cut-out position when cutting out the plurality of partial images from the range is smaller as it is closer to the center of the range. An image tracking device characterized by setting.
請求項1〜5のいずれか一項に記載の画像追尾装置において、
前記算出手段は、前記被写界画像の中から複数の前記部分画像を切り出す際の切り出し位置のずらし量を、前記被写界画像の中心に近いほど小さく設定することを特徴とする画像追尾装置。
In the image tracking device according to any one of claims 1 to 5,
The calculation means sets the shift amount of the cutout position when cutting out a plurality of the partial images from the object scene image so as to be closer to the center of the object scene image. .
請求項1〜6のいずれか一項に記載の画像追尾装置において、
前記算出手段は、前記被写界画像の中から複数の前記部分画像を切り出す際の切り出し位置のずらし量を、前記差分の総和が小さいほど小さく設定することを特徴とする画像追尾装置。
In the image tracking device according to any one of claims 1 to 6,
The image tracking device according to claim 1, wherein the calculation unit sets a shift amount of a cutout position when cutting out the plurality of partial images from the scene image as the sum of the differences is smaller.
請求項1〜7のいずれか一項に記載の画像追尾装置において、
前記算出手段は、前記被写界画像の中から複数の前記部分画像を切り出す際の切り出し位置のずらし量を所定画素とすることを特徴とする画像追尾装置。
In the image tracking device according to any one of claims 1 to 7,
The image tracking device according to claim 1, wherein the calculating means sets a shift amount of a cutout position when cutting out the plurality of partial images from the scene image as a predetermined pixel.
請求項1〜8のいずれか一項に記載の画像追尾装置において、
前記算出手段は、前記部分画像の画素数が前記追尾対象の画像の画素数と等しくなるように前記部分画像を切り出すことを特徴とする画像追尾装置。
In the image tracking device according to any one of claims 1 to 8,
The image tracking device, wherein the calculating means cuts out the partial image so that the number of pixels of the partial image is equal to the number of pixels of the tracking target image.
請求項1〜9のいずれか一項に記載の画像追尾装置において、
前記算出手段は、前記追尾対象の画像において複数の画素に対応する領域が一つのブロックとなるように前記基準情報も分割し、前記基準情報の分割数と前記部分画像の分割数とを等しくすることを特徴とする画像追尾装置。
In the image tracking device according to any one of claims 1 to 9,
The calculation unit also divides the reference information so that a region corresponding to a plurality of pixels in the tracking target image becomes one block, and equalizes the division number of the reference information and the division number of the partial image. An image tracking device characterized by that.
請求項1〜10のいずれか一項に記載の画像追尾装置において、
前記算出手段は、前記被写界画像の中から前記部分画像を切り出す際、前記追尾対象の距離情報に応じて前記部分画像の画素数を設定することを特徴とする画像追尾装置。
In the image tracking device according to any one of claims 1 to 10,
The image tracking device according to claim 1, wherein when calculating the partial image from the object scene image, the calculation unit sets the number of pixels of the partial image according to distance information of the tracking target.
請求項1〜11のいずれか一項に記載の画像追尾装置において、
前記算出手段は、前記ブロックごとに色情報と輝度情報との少なくとも一方の平均値を算出し、前記平均値に基づいて前記画像情報を算出することを特徴とする画像追尾装置。
In the image tracking device according to any one of claims 1 to 11,
The image tracking device, wherein the calculating means calculates an average value of at least one of color information and luminance information for each block, and calculates the image information based on the average value.
追尾対象の画像に関する基準情報を記憶し、
結像光学系により結像される被写界の被写界画像を繰り返し撮像し、
前記被写界画像の一部の部分画像を切り出し、
前記部分画像において複数の画素に対応する領域が一つのブロックとなるように前記部分画像を分割し、
色情報と輝度情報との少なくとも一方に関する画像情報を前記ブロックごとに算出し、
前記ブロックごとの前記画像情報と前記基準情報とに基づいて、前記被写界画像における前記追尾対象の位置を検出することを特徴とする画像追尾方法。
Stores reference information about the image to be tracked,
Repetitively capture the field image of the field imaged by the imaging optical system,
Cut out a partial image of the scene image,
The partial image is divided so that a region corresponding to a plurality of pixels in the partial image becomes one block,
Calculating image information related to at least one of color information and luminance information for each block;
An image tracking method, comprising: detecting a position of the tracking target in the object scene image based on the image information and the reference information for each block.
JP2008258213A 2008-10-03 2008-10-03 Image tracking device and imaging device Active JP5176845B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008258213A JP5176845B2 (en) 2008-10-03 2008-10-03 Image tracking device and imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008258213A JP5176845B2 (en) 2008-10-03 2008-10-03 Image tracking device and imaging device

Publications (2)

Publication Number Publication Date
JP2010093320A true JP2010093320A (en) 2010-04-22
JP5176845B2 JP5176845B2 (en) 2013-04-03

Family

ID=42255677

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008258213A Active JP5176845B2 (en) 2008-10-03 2008-10-03 Image tracking device and imaging device

Country Status (1)

Country Link
JP (1) JP5176845B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012189934A (en) * 2011-03-14 2012-10-04 Canon Inc Imaging apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004206738A (en) * 2004-04-05 2004-07-22 Konica Minolta Holdings Inc Face extraction method
JP2008113423A (en) * 2006-10-03 2008-05-15 Nikon Corp Tracking device, image-capturing apparatus, and tracking method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004206738A (en) * 2004-04-05 2004-07-22 Konica Minolta Holdings Inc Face extraction method
JP2008113423A (en) * 2006-10-03 2008-05-15 Nikon Corp Tracking device, image-capturing apparatus, and tracking method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012189934A (en) * 2011-03-14 2012-10-04 Canon Inc Imaging apparatus

Also Published As

Publication number Publication date
JP5176845B2 (en) 2013-04-03

Similar Documents

Publication Publication Date Title
JP5176483B2 (en) Image recognition device, image tracking device, and imaging device
JP5247076B2 (en) Image tracking device, focus adjustment device, and imaging device
JP4872834B2 (en) Image recognition device, focus adjustment device, and imaging device
JP5167750B2 (en) TRACKING DEVICE, IMAGING DEVICE, AND TRACKING METHOD
JP5157256B2 (en) Image tracking device and imaging device
JP2009109839A (en) Image tracking device and imaging device
JP5056136B2 (en) Image tracking device
JP5403111B2 (en) Image tracking device
JP4888249B2 (en) Focus detection apparatus and imaging apparatus
JP4985155B2 (en) Focus adjustment device and imaging device
JP5070856B2 (en) Imaging device
JP5176845B2 (en) Image tracking device and imaging device
JP2010200138A (en) Photographic subject tracking device
JP5541396B2 (en) Image tracking device
JP5233646B2 (en) Image tracking device, imaging device, and image tracking method
JP5447579B2 (en) Tracking device, focus adjustment device, and photographing device
JP5966249B2 (en) Image tracking device
JP2010054586A (en) Focusing device and imaging apparatus
JP5347834B2 (en) Image tracking device
JP2012093775A (en) Focus detector and imaging apparatus
JP5772933B2 (en) Imaging device
JP4973369B2 (en) Image processing apparatus and imaging apparatus
JP2018063439A (en) Focus adjustment device and imaging device
JP2013187665A (en) Imaging apparatus
JP2016028298A (en) Focus adjustment device and imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120814

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121224

R150 Certificate of patent or registration of utility model

Ref document number: 5176845

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250