JP5966249B2 - Image tracking device - Google Patents

Image tracking device Download PDF

Info

Publication number
JP5966249B2
JP5966249B2 JP2011052711A JP2011052711A JP5966249B2 JP 5966249 B2 JP5966249 B2 JP 5966249B2 JP 2011052711 A JP2011052711 A JP 2011052711A JP 2011052711 A JP2011052711 A JP 2011052711A JP 5966249 B2 JP5966249 B2 JP 5966249B2
Authority
JP
Japan
Prior art keywords
image
unit
template
template image
calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011052711A
Other languages
Japanese (ja)
Other versions
JP2012191399A (en
Inventor
慶子 村松
慶子 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011052711A priority Critical patent/JP5966249B2/en
Publication of JP2012191399A publication Critical patent/JP2012191399A/en
Application granted granted Critical
Publication of JP5966249B2 publication Critical patent/JP5966249B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像追尾装置に関する。   The present invention relates to an image tracking device.

従来から、移動被写体を撮影する際に、画面内の指示部分の被写体像をテンプレート画像として取得し、繰り返し撮影する画像の中でテンプレート画像と類似した被写体像の位置を検索(テンプレートマッチング)し、画面内を横方向へ移動する被写体を追尾する画像追尾装置が知られている。たとえば特許文献1では、複数のテンプレート画像を用いてテンプレートマッチングを行うことによって、追尾精度を向上させる技術が開示されている。   Conventionally, when shooting a moving subject, the subject image of the indicated portion in the screen is acquired as a template image, and the position of the subject image similar to the template image is searched (template matching) among images repeatedly shot, 2. Description of the Related Art An image tracking device that tracks a subject that moves in a horizontal direction within a screen is known. For example, Patent Document 1 discloses a technique for improving tracking accuracy by performing template matching using a plurality of template images.

特開2008−187331号公報JP 2008-187331 A

しかしながら、相対的に接近する移動被写体の画像上でのサイズは大きくなるので、テンプレート画像と類似した被写体像の検出精度が低下して、被写体を追尾できなくなるという問題がある。   However, since the size of the relatively close moving subject on the image increases, there is a problem that the detection accuracy of the subject image similar to the template image is lowered and the subject cannot be tracked.

請求項1に記載の発明による画像追尾装置は、結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果を比較し、比較結果に基づいて前記演算結果を選択する選択部と、前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の画像の位置を検出する検出部と、前記選択部により連続して所定の回数、前記第2のテンプレート画像に対する演算結果が選択された場合に、前記選択部によって選択された演算結果に対する前記第2のテンプレート画像の画像情報を、前記第1のテンプレート画像として置換する更新部と、を備える。
請求項2に記載の発明による画像追尾装置は、結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果を比較し、比較結果に基づいて前記演算結果を選択する選択部と、前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の画像の位置を検出する検出部と、を備え、前記選択部は、連続して所定の回数、前記第2のテンプレート画像に対する演算結果を選択した場合には、前記第1のテンプレート画像に対する演算結果の選択を禁止する。
請求項3に記載の発明による画像追尾装置は、結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果を比較し、比較結果に基づいて前記演算結果を選択する選択部と、前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の画像の位置を検出する検出部と、を備え、前記選択部により、連続して所定の回数、前記第2のテンプレート画像に対する演算結果が選択された場合、前記演算部は、次回以降に算出した前記第1のテンプレート画像の演算結果に対して、前記第1のテンプレート画像の演算結果が前記選択部によって選択されにくくさせるための補正を施す。
請求項4に記載の発明による画像追尾装置は、結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、前記被写界画像内で追尾対象が相対的に大きくなることを判定する判定部と、前記判定部により前記追尾対象が相対的に大きくなると判定された場合には、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果のうち、前記第2のテンプレート画像に対する演算結果を優先して選択し、前記判定部により前記追尾対象が相対的に大きくなると判定されない場合には、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果を比較し、比較結果に基づいて前記演算結果を選択する選択部と、前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の画像の位置を検出する検出部と、を備える。
請求項7に記載の発明による画像追尾装置は、結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、前記結像光学系の焦点状態を演算して、焦点調節を行う焦点調節部と、前記焦点調節部による演算結果に基づいて、追尾対象が前記結像光学系の光軸方向に対して接近しているか否かを判定する判定部と、前記判定部により前記追尾対象が接近していると判定された場合には、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果のうち、前記第2のテンプレート画像に対する演算結果を優先して選択し、前記判定部により前記追尾対象の接近が判定されない場合には、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果を比較し、比較結果に基づいて前記演算結果を選択する選択部と、前記選択部により選択された前記演算結果に基づいて、前記被写界画像における前記追尾対象の画像の位置を検出する検出部と備える。
請求項8に記載の発明による画像追尾装置は、結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像の一部を拡大した第2のテンプレート画像とを生成する生成部と、前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果を比較し、比較結果に基づいて前記演算結果を選択する選択部と、前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の画像の位置を検出する検出部と、前記検出部により検出された前記追尾対象の画像の位置に基づいて、新たな追尾対象領域を設定する設定部と、前記新たな追尾対象領域内の画像情報と前記第2のテンプレート画像の画像情報とを所定の割合で合成して前記第2のテンプレート画像を更新する更新部と、を備え、前記生成部は、前記第1のテンプレート画像が小さい場合に前記第1のテンプレート画像全体を拡大して前記第2のテンプレート画像を生成し、前記更新部は、前記生成部により前記第1のテンプレート画像全体を拡大して前記第2のテンプレート画像が生成された場合には、前記新たな追尾対象領域内の画像情報と前記第2のテンプレート画像の画像情報との合成割合について前記新たな追尾対象領域内の画像情報の割合を高くする。
請求項10に記載の発明による画像追尾装置は、結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、前記演算部による前記第1及び第2のテンプレート画像のいずれかの演算結果を選択する選択部と、前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の位置を検出する検出部と、新たな被写界画像が生成されると、前記新たな被写界画像に基づき前記第1のテンプレート画像と前記第2のテンプレート画像を更新する更新部とを備え、前記更新部は、前記選択部により連続して所定の回数、前記第2のテンプレート画像に対する演算結果が選択された場合に、前記選択部によって選択された演算結果に対する前記第2のテンプレート画像を、前記第1のテンプレート画像とする。
請求項11に記載の発明による画像追尾装置は、結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、前記演算部による前記第1及び第2のテンプレート画像のいずれかの演算結果を選択する選択部と、前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の位置を検出する検出部と、新たな被写界画像が生成されると、前記新たな被写界画像に基づき前記第1のテンプレート画像と前記第2のテンプレート画像を更新する更新部とを備え、前記選択部は、連続して所定の回数、前記第2のテンプレート画像に対する演算結果を選択した場合には、前記第1のテンプレート画像に対する演算結果の選択を禁止する。
請求項12に記載の発明による画像追尾装置は、結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、前記演算部による前記第1及び第2のテンプレート画像のいずれかの演算結果を選択する選択部と、前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の位置を検出する検出部と、新たな被写界画像が生成されると、前記新たな被写界画像に基づき前記第1のテンプレート画像と前記第2のテンプレート画像を更新する更新部とを備え、前記選択部により、連続して所定の回数、前記第2のテンプレート画像に対する演算結果が選択された場合、前記演算部は、次回以降に算出した前記第1のテンプレート画像の演算結果に対して、前記第1のテンプレート画像の演算結果が前記選択部によって選択されにくくさせるための補正を施す。
請求項13に記載の発明による画像追尾装置は、結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、前記被写界画像内で追尾対象が相対的に大きくなることを判定する判定部と、新たな被写界画像が生成されると、前記新たな被写界画像に基づき前記第1のテンプレート画像と前記第2のテンプレート画像を更新する更新部と、前記判定部により前記追尾対象が相対的に大きくなると判定された場合には、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果のうち、前記第2のテンプレート画像に対する演算結果を優先して選択し、前記判定部により前記追尾対象が相対的に大きくなると判定されない場合には、前記演算部による前記第1及び第2のテンプレート画像のいずれかの演算結果を選択する選択部と、前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の画像の位置を検出する検出部と、を備える。
請求項14に記載の発明による画像追尾装置は、結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、新たな被写界画像が生成されると、前記新たな被写界画像に基づき前記第1のテンプレート画像と前記第2のテンプレート画像を更新する更新部と、前記結像光学系の焦点状態を演算して、焦点調節を行う焦点調節部と、前記焦点調節部による演算結果に基づいて、追尾対象が前記結像光学系の光軸方向に対して接近しているか否かを判定する判定部と、前記判定部により前記追尾対象が接近していると判定された場合には、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果のうち、前記第2のテンプレート画像に対する演算結果を優先して選択し、前記判定部により前記追尾対象の接近が判定されない場合には、前記演算部による前記第1及び第2のテンプレート画像のいずれかの演算結果を選択する選択部と、前記選択部により選択された前記演算結果に基づいて、前記被写界画像における前記追尾対象の位置を検出する検出部と備える。
An image tracking device according to a first aspect of the present invention includes an imaging unit that repeatedly captures an image formed by an imaging optical system to generate a scene image, and a tracking target in the scene image A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a region; an image in a search region provided in the object scene image; A calculation unit that calculates a correlation between each of the first and second template images and a calculation result for each of the first and second template images by the calculation unit are compared, and based on the comparison result, A selection unit that selects a calculation result, a detection unit that detects a position of an image to be tracked in the object scene image based on the calculation result selected by the selection unit, and a predetermined value continuously by the selection unit An update unit that replaces image information of the second template image for the calculation result selected by the selection unit as the first template image when the calculation result for the second template image is selected a number of times. And comprising.
An image tracking device according to a second aspect of the present invention includes an imaging unit that repeatedly captures an image formed by an imaging optical system to generate a scene image, and a tracking target in the scene image A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a region; an image in a search region provided in the object scene image; A calculation unit that calculates a correlation between each of the first and second template images and a calculation result for each of the first and second template images by the calculation unit are compared, and based on the comparison result, A selection unit that selects a calculation result; and a detection unit that detects a position of an image to be tracked in the object scene image based on the calculation result selected by the selection unit. Continuously Predetermined number of times, if you select the calculation result for the second template image, inhibits selection of the operation result for the first template image.
According to a third aspect of the present invention, there is provided an image tracking device that repeatedly captures an image formed by an imaging optical system to generate a scene image, and a tracking target in the scene image. A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a region; an image in a search region provided in the object scene image; A calculation unit that calculates a correlation between each of the first and second template images and a calculation result for each of the first and second template images by the calculation unit are compared, and based on the comparison result, A selection unit that selects a calculation result; and a detection unit that detects a position of an image to be tracked in the object scene image based on the calculation result selected by the selection unit. Communicating When a calculation result for the second template image is selected a predetermined number of times, the calculation unit calculates the first template image for the calculation result of the first template image calculated after the next time. The correction is made to make it difficult for the selection result to be selected by the selection unit.
According to a fourth aspect of the present invention, there is provided an image tracking device that repeatedly captures an image formed by an imaging optical system to generate a scene image, and a tracking target in the scene image. A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a region; an image in a search region provided in the object scene image; The calculation unit that calculates the correlation between each of the first and second template images, the determination unit that determines that the tracking target is relatively large in the object scene image, and the determination unit that If it is determined that the tracking target is relatively large, the calculation result for the second template image is given priority among the calculation results for the first and second template images by the calculation unit. If the determination unit does not determine that the tracking target is relatively large, the calculation unit compares the calculation results for the first and second template images, and based on the comparison result, A selection unit that selects a calculation result; and a detection unit that detects a position of an image to be tracked in the object scene image based on the calculation result selected by the selection unit .
An image tracking device according to a seventh aspect of the present invention includes an imaging unit that repeatedly captures an image formed by an imaging optical system to generate a field image, and a tracking target in the field image A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a region; an image in a search region provided in the object scene image; A calculation unit that calculates a correlation between each of the first and second template images, a focus adjustment unit that calculates a focus state of the imaging optical system and performs focus adjustment, and a calculation performed by the focus adjustment unit Based on the result, a determination unit that determines whether or not the tracking target is approaching the optical axis direction of the imaging optical system, and the determination unit that determines that the tracking target is approaching The first and second by the arithmetic unit The calculation result for the second template image is preferentially selected from the calculation results for each of the two template images, and when the approach of the tracking target is not determined by the determination unit, the calculation unit by the calculation unit A selection unit that compares the calculation results for each of the first and second template images and selects the calculation result based on the comparison result, and the scene image based on the calculation result selected by the selection unit And a detection unit for detecting the position of the image to be tracked.
An image tracking device according to an eighth aspect of the present invention includes an imaging unit that repeatedly captures an image formed by an imaging optical system to generate a field image, and a tracking target in the field image A generating unit that generates a first template image and a second template image obtained by enlarging a part of the first template image based on a region; and an image in a search region provided in the object scene image And a calculation unit that calculates a correlation between each of the first and second template images, and a calculation result for each of the first and second template images by the calculation unit, A selection unit that selects the calculation result based on the detection result, a detection unit that detects a position of an image to be tracked in the scene image based on the calculation result selected by the selection unit, and a detection unit that detects the detection result. The Based on the position of the tracking target image, a setting unit that sets a new tracking target area, image information in the new tracking target area, and image information of the second template image at a predetermined ratio. An update unit that combines and updates the second template image, and the generation unit enlarges the entire first template image when the first template image is small, and When the generation unit generates the second template image by enlarging the entire first template image, the update unit generates image information in the new tracking target area, The ratio of the image information in the new tracking target area is increased with respect to the composition ratio with the image information of the second template image.
An image tracking device according to a tenth aspect of the present invention includes an imaging unit that repeatedly captures an image formed by an imaging optical system to generate a scene image, and a tracking target in the scene image A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a region ; an image in a search region provided in the object scene image; A calculation unit that calculates a correlation between each of the first and second template images, a selection unit that selects a calculation result of one of the first and second template images by the calculation unit, and the selection A detection unit for detecting a position of a tracking target in the scene image based on the calculation result selected by the unit, and when a new scene image is generated, based on the new scene image The first template A update unit for updating a preparative image the second template image, the update unit, a predetermined number of consecutive by the selection unit, when the calculation result is selected for said second template image, The second template image for the calculation result selected by the selection unit is set as the first template image.
An image tracking device according to an eleventh aspect of the present invention is directed to an imaging unit that repeatedly captures an image formed by an imaging optical system to generate a scene image, and a tracking target in the scene image A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a region ; an image in a search region provided in the object scene image; A calculation unit that calculates a correlation between each of the first and second template images, a selection unit that selects a calculation result of one of the first and second template images by the calculation unit, and the selection A detection unit for detecting a position of a tracking target in the scene image based on the calculation result selected by the unit, and when a new scene image is generated, based on the new scene image The first template A update unit for updating a preparative image the second template image, the selecting unit, a predetermined number of times in succession, if you select the calculation result for the second template image is the first Selection of calculation results for template images is prohibited.
An image tracking device according to a twelfth aspect of the present invention includes an imaging unit that repeatedly captures an image formed by an imaging optical system to generate a field image, and a tracking target in the field image A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a region ; an image in a search region provided in the object scene image; A calculation unit that calculates a correlation between each of the first and second template images, a selection unit that selects a calculation result of one of the first and second template images by the calculation unit, and the selection A detection unit for detecting a position of a tracking target in the scene image based on the calculation result selected by the unit, and when a new scene image is generated, based on the new scene image The first template A update unit for updating a preparative image the second template image, by the selection unit, when a predetermined number of times in succession, the operation result to the second template image is selected, the arithmetic unit, The calculation result of the first template image calculated after the next time is corrected to make it difficult for the selection unit to select the calculation result of the first template image.
An image tracking device according to a thirteenth aspect of the present invention is an image tracking device that repeatedly captures an image formed by an imaging optical system to generate a field image, and a tracking target in the field image A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a region ; an image in a search region provided in the object scene image; A calculation unit that calculates a correlation between each of the first and second template images, a determination unit that determines that the tracking target is relatively large in the scene image, and a new scene When an image is generated, an update unit for updating the second template image and the first template image based on the new scene image, and the tracking target by the determination unit is relatively large judging If The calculation result for the second template image is preferentially selected from the calculation results for the first and second template images by the calculation unit, and the tracking target becomes relatively large by the determination unit. If not determined, a selection unit that selects one of the calculation results of the first and second template images by the calculation unit, and the object scene based on the calculation result selected by the selection unit A detection unit that detects a position of the image to be tracked in the image .
An image tracking device according to a fourteenth aspect of the present invention is an image tracking device that repeatedly captures an image formed by an imaging optical system to generate a field image, and a tracking target in the field image A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a region ; an image in a search region provided in the object scene image; A calculation unit that calculates a correlation between each of the first and second template images, and when a new scene image is generated, the first template image based on the new scene image An update unit that updates the second template image , a focus adjustment unit that calculates a focus state of the imaging optical system and performs focus adjustment, and a tracking target is based on a calculation result by the focus adjustment unit. In the optical axis direction of the imaging optical system A determination unit that determines whether or not the tracking target is approaching, and each of the first and second template images by the calculation unit when the determination unit determines that the tracking target is approaching If the calculation result for the second template image is preferentially selected from the calculation results for and the approach of the tracking target is not determined by the determination unit, the first and second templates by the calculation unit A selection unit that selects any calculation result of the image; and a detection unit that detects a position of the tracking target in the object scene image based on the calculation result selected by the selection unit.

本発明によれば、追尾対象領域に含まれる画像領域を拡大した第1テンプレート画像を少なくとも1つ含む複数のテンプレート画像の演算結果に基づいて、追尾対象の画像の位置を検出できる。   According to the present invention, the position of a tracking target image can be detected based on the calculation result of a plurality of template images including at least one first template image obtained by enlarging an image region included in the tracking target region.

一実施の形態の画像追尾装置を備えた撮像装置の構成を示す横断面図1 is a cross-sectional view illustrating a configuration of an imaging device including an image tracking device according to an embodiment; 一実施の形態の画像追尾装置を備えた撮像装置の構成を示すブロック図1 is a block diagram illustrating a configuration of an imaging device including an image tracking device according to an embodiment; 実施の形態の追尾制御部が備える機能を示すブロック図The block diagram which shows the function with which the tracking control part of embodiment is equipped 第2撮像素子の構成および被写界画像を例示する平面図The top view which illustrates the composition and field image of the 2nd image sensor 一実施の形態の画像追尾方法を説明するための図The figure for demonstrating the image tracking method of one Embodiment 一実施の形態の画像追尾方法を説明するための図The figure for demonstrating the image tracking method of one Embodiment 一実施の形態の画像追尾方法を説明するための図The figure for demonstrating the image tracking method of one Embodiment 一実施の形態の画像追尾方法を説明するための図The figure for demonstrating the image tracking method of one Embodiment 一実施の形態の画像追尾方法を説明するための図The figure for demonstrating the image tracking method of one Embodiment 一実施の形態の画像追尾処理を示すフローチャートThe flowchart which shows the image tracking processing of one embodiment 追尾制御初期処理を示すフローチャートFlow chart showing tracking control initial processing 拡大テンプレート更新処理を示すフローチャートFlow chart showing enlarged template update process 変形例における拡大テンプレート画像の生成処理を説明するための図The figure for demonstrating the production | generation process of the expansion template image in a modification 変形例における拡大テンプレート画像の生成処理を説明するための図The figure for demonstrating the production | generation process of the expansion template image in a modification

撮影画面内に設定された複数の焦点検出エリアにおいて撮影レンズの焦点調節状態(この一実施の形態ではデフォーカス量)を検出し、いずれかのエリアのデフォーカス量に基づいて撮影レンズを合焦駆動する自動焦点調節(AF)機能と、撮影画像の中の追尾対象の被写体の画像をテンプレート画像(基準画像)として記憶し、繰り返し撮像される画像の中でテンプレート画像と同一または類似した画像の位置を検索しながら(テンプレートマッチング)追尾対象の被写体を追尾する画像追尾機能とを備え、AF機能と画像追尾機能により撮影レンズを駆動しながら追尾対象を追尾する画像追尾装置を備えた撮像装置(一眼レフデジタルスチルカメラ)の一実施の形態を説明する。   The focus adjustment state of the photographic lens (in this embodiment, the defocus amount) is detected in a plurality of focus detection areas set in the photographic screen, and the photographic lens is focused based on the defocus amount in one of the areas. The automatic focus adjustment (AF) function to be driven and the image of the subject to be tracked in the photographed image are stored as a template image (reference image). An image pickup apparatus having an image tracking function for tracking a subject to be tracked while searching for a position (template matching), and an image tracking device for tracking the tracking target while driving a photographing lens with the AF function and the image tracking function ( An embodiment of a single lens reflex digital still camera) will be described.

図1は、一実施の形態の画像追尾装置を備えた撮像装置(一眼レフデジタルスチルカメラ)1の構成を示す。なお、図1では画像追尾機能とは直接関係のないカメラの機器および回路についての図示と説明を省略する。一実施の形態のカメラ1では、撮影レンズ8、絞り21等を有する交換レンズ3がカメラ本体2に着脱可能に装着される。カメラ本体2には被写界像を撮像して画像を記録するための第1撮像素子4が設けられる。この第1撮像素子4はCCDやCMOSなどにより構成することができる。撮影時にはクイックリターンミラー5およびサブミラー6が実線で示す撮影光路外の位置に退避してシャッター7が開放され、撮影レンズ8により第1撮像素子4の受光面に被写体像が結像される。   FIG. 1 shows a configuration of an imaging apparatus (single-lens reflex digital still camera) 1 including an image tracking apparatus according to an embodiment. In FIG. 1, illustration and description of camera devices and circuits that are not directly related to the image tracking function are omitted. In the camera 1 according to the embodiment, an interchangeable lens 3 having a photographing lens 8 and a diaphragm 21 is detachably attached to the camera body 2. The camera body 2 is provided with a first image sensor 4 for capturing an object scene image and recording the image. The first image sensor 4 can be constituted by a CCD, a CMOS, or the like. At the time of photographing, the quick return mirror 5 and the sub mirror 6 are retracted to a position outside the photographing optical path indicated by a solid line, the shutter 7 is opened, and a subject image is formed on the light receiving surface of the first image sensor 4 by the photographing lens 8.

カメラ本体2の底部には、撮影レンズ8の焦点調節状態を検出するための焦点検出光学系9と測距素子10が設けられている。この一実施の形態では、瞳分割型位相差検出方式による焦点検出方法を採用した例を示す。焦点検出光学系9は、撮影レンズ8を通過した対の焦点検出用光束を測距素子10の受光面へ導き、対の光像を結像させる。測距素子10は例えば対のCCDラインセンサーを備え、対の光像に応じた焦点検出信号を出力する。撮影前にはクイックリターンミラー5およびサブミラー6が破線で示すような撮影光路内の位置に設定されており、撮影レンズ8からの対の焦点検出用光束はクイックリターンミラー5のハーフミラー部を透過し、サブミラー6により反射されて焦点検出光学系9および測距素子10へ導かれる。   At the bottom of the camera body 2, a focus detection optical system 9 and a distance measuring element 10 for detecting the focus adjustment state of the photographing lens 8 are provided. In this embodiment, an example is shown in which a focus detection method based on a pupil division type phase difference detection method is employed. The focus detection optical system 9 guides the pair of focus detection light fluxes that have passed through the photographing lens 8 to the light receiving surface of the distance measuring element 10 and forms a pair of optical images. The distance measuring element 10 includes, for example, a pair of CCD line sensors, and outputs a focus detection signal corresponding to the pair of optical images. Before shooting, the quick return mirror 5 and the sub mirror 6 are set at positions in the shooting optical path as indicated by broken lines, and the pair of focus detection light beams from the shooting lens 8 are transmitted through the half mirror portion of the quick return mirror 5. Then, the light is reflected by the sub mirror 6 and guided to the focus detection optical system 9 and the distance measuring element 10.

カメラ本体2の上部にはファインダー光学系が設けられている。撮影前にはクイックリターンミラー5およびサブミラー6が破線で示す位置にあり、撮影レンズ8からの被写体光の一部はクイックリターンミラー5に反射されて焦点板11へ導かれ、焦点板11上に被写体像が結像する。液晶表示素子12は、焦点板11上に結像された被写界像に焦点検出エリアマークなどの情報を重畳表示するとともに、被写界像外の位置に露出値などの種々の撮影情報を表示する。焦点板11上の被写界像はペンタダハプリズム13および接眼レンズ14を介して接眼窓15へ導かれ、撮影者が被写界像を視認することができる。   A finder optical system is provided on the upper part of the camera body 2. Before shooting, the quick return mirror 5 and the sub mirror 6 are in the positions indicated by broken lines, and part of the subject light from the shooting lens 8 is reflected by the quick return mirror 5 and guided to the focusing screen 11, and on the focusing screen 11. A subject image is formed. The liquid crystal display element 12 superimposes and displays information such as a focus detection area mark on the object scene image formed on the focusing screen 11 and displays various shooting information such as an exposure value at a position outside the object scene image. indicate. The object scene image on the focusing screen 11 is guided to the eyepiece window 15 via the penta roof prism 13 and the eyepiece lens 14 so that the photographer can visually recognize the object scene image.

また、カメラ本体2上部のファインダー光学系には、被写体追尾や測光のために被写界像を撮像する第2撮像素子16が設けられる。焦点板11に結像した被写界像は、ペンタダハプリズム13、プリズム17および結像レンズ18を介して第2撮像素子16の受光面に再結像される。   The finder optical system at the top of the camera body 2 is provided with a second image sensor 16 that captures an object scene image for subject tracking and photometry. The object scene image formed on the focusing screen 11 is re-imaged on the light receiving surface of the second image sensor 16 via the penta roof prism 13, the prism 17 and the imaging lens 18.

図4(a)は第2撮像素子16の詳細な構成を示す正面図である。図4(a)においては水平方向をx軸、垂直方向をy軸とする座標系を用いる。第2撮像素子16は、マトリクス状に配列された複数の画素(光電変換素子)40(たとえば、横640個×縦480個の画素)を備えている。なお、図4(a)においては、図示の都合上、画素40の個数は上記横640個×縦480個よりも少ない個数で示している。さらに、各画素40にはそれぞれ赤R、緑G、青Bの原色フィルターが設けられている。これにより、各画素40ごとに被写界画像のRGB信号(被写界画像信号)を後述するボディ駆動制御装置19(図2)に出力することができる。詳細を後述するが、この第2撮像素子16により撮像された被写界画像信号に基づいて、ボディ駆動制御装置19によって追尾制御と露出演算とが行われる。なお、ボディ駆動制御装置19は、追尾制御と露出演算は第1撮像素子4による撮像により出力された被写界画像信号に基づいて行うこととしてもよい。   FIG. 4A is a front view showing a detailed configuration of the second image sensor 16. In FIG. 4A, a coordinate system is used in which the horizontal direction is the x-axis and the vertical direction is the y-axis. The second image sensor 16 includes a plurality of pixels (photoelectric conversion elements) 40 (for example, 640 pixels wide × 480 pixels vertically) arranged in a matrix. In FIG. 4A, for the sake of illustration, the number of pixels 40 is smaller than the above-mentioned horizontal 640 × vertical 480. Further, each pixel 40 is provided with a primary color filter of red R, green G, and blue B, respectively. Thereby, the RGB signal (field image signal) of the object scene image can be output for each pixel 40 to the body drive control device 19 (FIG. 2) described later. Although details will be described later, tracking control and exposure calculation are performed by the body drive control device 19 based on the object scene image signal imaged by the second image sensor 16. The body drive control device 19 may perform the tracking control and the exposure calculation based on the object scene image signal output by the imaging by the first image sensor 4.

カメラ本体2にはまた、ボディ駆動制御装置19、操作部材20などが設けられる。ボディ駆動制御装置19は、詳細を後述するマイクロコンピューターとメモリ、A/D変換器などの周辺部品から構成され、カメラ1の種々の制御と演算を行う。操作部材20には、レリーズボタン、焦点検出エリア選択スイッチ、撮影モード選択スイッチなどのカメラ1を操作するためのスイッチやセレクターが含まれる。   The camera body 2 is also provided with a body drive control device 19 and an operation member 20. The body drive control device 19 is constituted by peripheral components such as a microcomputer, a memory, and an A / D converter, the details of which will be described later, and performs various controls and calculations of the camera 1. The operation member 20 includes a switch and a selector for operating the camera 1, such as a release button, a focus detection area selection switch, and a shooting mode selection switch.

交換レンズ3には、ズーミングレンズ8a、フォーカシングレンズ8b、絞り21、レンズ駆動制御装置22などが設けられる。なお、この一実施の形態では撮影レンズ8をズーミングレンズ8a、フォーカシングレンズ8bおよび絞り21で代表的に表すが、撮影レンズ8の構成は図1に示す構成に限定されない。レンズ駆動制御装置22は図示しないマイクロコンピューターとメモリ、駆動回路、アクチュエーターなどの周辺部品から構成され、レンズ8a、8bおよび絞り21の駆動制御とそれらの位置検出を行う。レンズ駆動制御装置22に内蔵されるメモリには、交換レンズ3の焦点距離や開放絞り値などのレンズ情報が記憶されている。   The interchangeable lens 3 is provided with a zooming lens 8a, a focusing lens 8b, a diaphragm 21, a lens drive control device 22, and the like. In this embodiment, the photographing lens 8 is representatively represented by a zooming lens 8a, a focusing lens 8b, and a diaphragm 21, but the configuration of the photographing lens 8 is not limited to the configuration shown in FIG. The lens drive control device 22 includes a microcomputer (not shown) and peripheral components such as a memory, a drive circuit, and an actuator, and performs drive control of the lenses 8a and 8b and the diaphragm 21 and detection of their positions. Lens information such as a focal length and an open aperture value of the interchangeable lens 3 is stored in a memory built in the lens drive control device 22.

ボディ駆動制御装置19とレンズ駆動制御装置22はレンズマウント部の接点23を介して通信を行う。この通信によって、ボディ駆動制御装置19はレンズ駆動制御装置22へレンズ駆動量や絞り値などの情報を送信し、レンズ駆動制御装置22はボディ駆動制御装置19へレンズ情報や絞り情報を送信する。   The body drive control device 19 and the lens drive control device 22 communicate via the contact 23 of the lens mount unit. Through this communication, the body drive control device 19 transmits information such as a lens drive amount and an aperture value to the lens drive control device 22, and the lens drive control device 22 transmits lens information and aperture information to the body drive control device 19.

図2はボディ駆動制御装置19の詳細な構成を示す。なお、画像追尾機能とは直接関係のない制御機能については図示と説明を省略する。ボディ駆動制御装置19は素子制御回路19a、A/D変換器19b、マイクロコンピューター19c、メモリ19dなどを備えている。素子制御回路19aは第2撮像素子16の電荷の蓄積と読み出しを制御する。A/D変換器19bは、第2撮像素子16から出力されるアナログ画像信号をデジタル画像信号に変換する。撮影者により操作部材20のレリーズボタンが半押しされると半押しスイッチ(不図示)がオンし、図1に示すように、撮影レンズ8を通過した被写体光の一部は破線で示すクイックリターンミラー5により反射され、ペンタダハプリズム13、プリズム17および結像レンズ18を介して第2撮像素子16へ導かれる。レリーズボタンが半押しされている間、第2撮像素子16により繰り返し周期的に被写界画像を撮像することができる。   FIG. 2 shows a detailed configuration of the body drive control device 19. Note that illustration and description of control functions not directly related to the image tracking function are omitted. The body drive control device 19 includes an element control circuit 19a, an A / D converter 19b, a microcomputer 19c, a memory 19d, and the like. The element control circuit 19 a controls charge accumulation and reading of the second image sensor 16. The A / D converter 19b converts the analog image signal output from the second image sensor 16 into a digital image signal. When the release button of the operation member 20 is half-pressed by the photographer, a half-press switch (not shown) is turned on, and as shown in FIG. The light is reflected by the mirror 5 and guided to the second image sensor 16 via the penta roof prism 13, the prism 17 and the imaging lens 18. While the release button is half-pressed, the second imaging element 16 can repeatedly and periodically capture the field image.

マイクロコンピューター19cは、ソフトウエア形態により露出制御部19e、焦点検出演算部19f、レンズ駆動量演算部19gおよび追尾制御部19hを構成する。メモリ19dは、画像追尾用のテンプレート画像やデフォーカス量などの情報、撮影レンズ8の焦点距離、開放F値、絞り値、像ズレ量からデフォーカス量への変換係数などのレンズ情報などを記憶する。   The microcomputer 19c constitutes an exposure control unit 19e, a focus detection calculation unit 19f, a lens drive amount calculation unit 19g, and a tracking control unit 19h according to a software form. The memory 19d stores information such as a template image for image tracking and defocus amount, lens information such as focal length, open F value, aperture value, and image shift amount to defocus amount conversion coefficient of the taking lens 8. To do.

露出制御部19eは、第2撮像素子16により撮像した画像信号に基づいて露出値を演算する。焦点検出演算部19fは、測距素子10から出力される対の光像に応じた焦点検出信号に基づいて撮影レンズ8の焦点調節状態、ここではデフォーカス量を検出する。なお、詳細を後述するが、撮影レンズ8の撮影画面内には複数の焦点検出エリアが設定されており、測距素子10は焦点検出エリアごとに対の光像に応じた焦点検出信号を出力し、焦点検出演算部19fは焦点検出エリアごとに対の光像に応じた焦点検出信号に基づいてデフォーカス量を検出する。撮影者により操作部材20のレリーズボタンが半押しされると半押しスイッチ(不図示)がオンし、図1に示すように、撮影レンズ8を通過した被写体光の一部は破線で示すクイックリターンミラー5のハーフミラー部を通ってサブミラー6および焦点検出光学系9を介して測距素子10へ導かれ、焦点検出演算部19fにより焦点検出演算が行われる。レンズ駆動量演算部19gは検出されたデフォーカス量をレンズ駆動量に変換する。なお、焦点調節状態の検出は、レリーズボタンが半押しされている間、繰り返し周期的に行われる。   The exposure control unit 19e calculates an exposure value based on the image signal captured by the second image sensor 16. The focus detection calculation unit 19f detects the focus adjustment state of the photographing lens 8, here the defocus amount, based on the focus detection signal corresponding to the pair of optical images output from the distance measuring element 10. Although details will be described later, a plurality of focus detection areas are set in the shooting screen of the shooting lens 8, and the distance measuring element 10 outputs a focus detection signal corresponding to a pair of optical images for each focus detection area. The focus detection calculation unit 19f detects the defocus amount based on the focus detection signal corresponding to the pair of optical images for each focus detection area. When the release button of the operation member 20 is half-pressed by the photographer, a half-press switch (not shown) is turned on, and as shown in FIG. The light is guided to the distance measuring element 10 through the sub mirror 6 and the focus detection optical system 9 through the half mirror part of the mirror 5, and the focus detection calculation part 19f performs the focus detection calculation. The lens driving amount calculation unit 19g converts the detected defocus amount into a lens driving amount. The focus adjustment state is repeatedly and periodically detected while the release button is pressed halfway.

追尾制御部19hは、画像追尾動作(処理)を行う。すなわち、追尾制御部19hは、第2撮像素子16により撮像した被写界像の内、撮影者が手動で指定した追尾対象位置、あるいはカメラ1が自動で設定した追尾対象位置に対応する画像をテンプレート画像(基準画像)としてメモリ19dに記憶させる。そして、追尾制御部19hは、撮影周期ごとに第2撮像素子16により繰り返し撮影される被写界画像の中からテンプレート画像と一致または類似する画像領域を検索することによって対象の位置を認識する。   The tracking control unit 19h performs an image tracking operation (processing). That is, the tracking control unit 19h selects an image corresponding to the tracking target position manually specified by the photographer or the tracking target position automatically set by the camera 1 from the object scene image captured by the second image sensor 16. A template image (reference image) is stored in the memory 19d. Then, the tracking control unit 19h recognizes the position of the target by searching for an image area that matches or is similar to the template image from the object scene images repeatedly photographed by the second image sensor 16 for each photographing period.

図3に示すように、追尾制御部19hは、画像追尾処理を行うために、テンプレート生成部191、演算部192、選択部193、検出部194、更新部195および設定部196を機能的に備える。テンプレート生成部191は、第2撮像素子16から出力された被写界画像信号を用いて、テンプレート画像を生成してメモリ19dに記憶させる。演算部192は、撮影周期ごとに繰り返し撮影される被写界画像とテンプレート画像との間で相関関係を演算する。選択部193は、演算部192による演算結果のうち、テンプレート画像との相関関係が最も高いことを示す演算結果を選択する。検出部194は、選択部193により選択された演算結果に基づいて、被写界画像の中からテンプレート画像と一致または類似する画像領域を検出(検索)する。更新部195は、テンプレート生成部191により生成されたテンプレート画像の更新処理を行う。設定部196はテンプレート画像と一致または類似する画像領域を検出するための探索領域を被写界画像内に設定するとともに、検出された一致または類似する画像領域を後述する追尾対象領域として設定する。なお、テンプレート生成部191、演算部192、選択部193、検出部194、更新部195および設定部196による処理の詳細については、説明を後述する。   As shown in FIG. 3, the tracking control unit 19h functionally includes a template generation unit 191, a calculation unit 192, a selection unit 193, a detection unit 194, an update unit 195, and a setting unit 196 in order to perform image tracking processing. . The template generation unit 191 generates a template image using the object scene image signal output from the second image sensor 16, and stores the template image in the memory 19d. The computing unit 192 computes a correlation between the scene image and the template image that are repeatedly photographed at each photographing cycle. The selection unit 193 selects a calculation result indicating that the correlation with the template image is the highest among the calculation results obtained by the calculation unit 192. The detection unit 194 detects (searches) an image region that matches or is similar to the template image from the scene image based on the calculation result selected by the selection unit 193. The update unit 195 performs an update process on the template image generated by the template generation unit 191. The setting unit 196 sets a search area for detecting an image area matching or similar to the template image in the scene image, and sets the detected matching or similar image area as a tracking target area described later. The details of processing by the template generation unit 191, the calculation unit 192, the selection unit 193, the detection unit 194, the update unit 195, and the setting unit 196 will be described later.

次に、一実施の形態の画像追尾動作を説明する。図5〜図9は一実施の形態の画像追尾動作を説明するための図、図10〜図12は一実施の形態の画像追尾処理を示すフローチャートである。ボディ駆動制御装置19は、第2撮像素子16により撮像した被写体画像のうち、ユーザが手動で追尾対象とする被写体(以後、追尾対象被写体)を指定するか、あるいはカメラが自動で追尾対象被写体を設定した後、操作部材20のレリーズボタンを半押しすると、被写体追尾処理を開始する。なお、以降の説明では、図5〜図9において水平方向をx軸、垂直方向をy軸とする座標系を用いる。   Next, an image tracking operation according to an embodiment will be described. 5 to 9 are diagrams for explaining the image tracking operation according to the embodiment, and FIGS. 10 to 12 are flowcharts illustrating the image tracking process according to the embodiment. In the body drive control device 19, the user manually specifies a subject to be tracked (hereinafter referred to as a tracking target subject) from among the subject images captured by the second image sensor 16, or the camera automatically selects a tracking target subject. After the setting, when the release button of the operation member 20 is pressed halfway, the subject tracking process is started. In the following description, a coordinate system in which the horizontal direction is the x-axis and the vertical direction is the y-axis in FIGS.

レリーズボタンを全押しして撮影を行うとき以外は、クイックリターンミラー5が図1に破線で示す撮影光路内に設定されており、撮影レンズ8から入射した被写体光の一部は焦点板11上に結像される。そして、焦点板11上の被写界像はペンタダハプリズム13、プリズム17および結像レンズ18を介して第2撮像素子16へ導かれ、第2撮像素子16から被写界画像信号が繰り返し出力される。   The quick return mirror 5 is set in the photographing optical path shown by a broken line in FIG. 1 except when the release button is fully pressed to shoot, and part of the subject light incident from the photographing lens 8 is on the focusing screen 11. Is imaged. The object scene image on the focusing screen 11 is guided to the second image sensor 16 via the penta roof prism 13, the prism 17 and the imaging lens 18, and the object scene image signal is repeatedly output from the second image sensor 16. The

撮影レンズ8の撮影画面には複数の焦点検出エリアが設定されており、液晶表示素子12は焦点板11上の被写界像にエリアマークを重畳して、各焦点検出エリアの位置を表示する。この一実施の形態では、図5に示すように、撮影画面内の7カ所に焦点検出エリア45a〜45gが設定された例を示す。また、操作部材20の焦点検出エリア選択スイッチにより任意のエリアを選択すると、そのエリアのマークが点灯表示される。   A plurality of focus detection areas are set on the shooting screen of the shooting lens 8, and the liquid crystal display element 12 superimposes area marks on the object scene image on the focusing screen 11 to display the position of each focus detection area. . In this embodiment, as shown in FIG. 5, an example is shown in which focus detection areas 45a to 45g are set at seven locations in the shooting screen. When an arbitrary area is selected by the focus detection area selection switch of the operation member 20, the mark of the area is lit up.

図5に示すように操作部材20の焦点検出エリア選択スイッチにより焦点検出エリア45cが選択され、この状態で操作部材20のレリーズボタンが半押しされると、焦点検出エリア45bが初回AFエリアとしてメモリ19dに記憶される。これにより、追尾対象被写体として初回AFエリア内の被写体が指定される。なお、ここでは撮影者が初回AFエリアを選択して追尾対象被写体を手動で指定する例を示すが、例えば自動的に被写体を認識する機能を備えたカメラでは被写体認識結果に基づいて初回AFエリアおよび追尾対象被写体を設定してもよい。   As shown in FIG. 5, when the focus detection area 45c is selected by the focus detection area selection switch of the operation member 20, and the release button of the operation member 20 is pressed halfway in this state, the focus detection area 45b is stored as the first AF area. 19d. As a result, the subject in the first AF area is designated as the tracking target subject. In this example, the photographer selects the first AF area and manually designates the tracking target subject. For example, in a camera having a function of automatically recognizing the subject, the first AF area is based on the subject recognition result. In addition, a tracking target subject may be set.

図10のステップS1において、素子制御回路19aは第2撮像素子16に追尾初期画像(画像追尾処理を開始して最初に取得する画像)を取得させる。第2撮像素子16により撮像された初期追尾画像の画像情報は、被写界画像信号として画素ごとにRGB値で表される。マイクロコンピューター19cは、第2撮像素子16から入力した被写界画像信号のRGB値に基づいて、被写界画像の色情報と輝度情報とを算出する。このとき、マイクロコンピューター19cは、第2撮像素子16に含まれる640×480個の画素40のそれぞれの画像情報を、たとえば隣接する8×8個の画素40の画像情報をまとめて1つのブロックとするブロック化を行う。この場合、マイクロコンピューター19cは、隣接する8×8個の画像情報(すなわちRGB値)を平均化あるいは合計することによりブロック化を行う。その結果、図4(b)に示すように、被写界画像の640×480個の画素40のそれぞれの画像情報は、80×60個のブロック41(図4(b)の太線で囲まれる範囲内)の画像情報として表される。なお、以後の説明においては、上記のブロック化された1つのブロックをブロック画素41と呼ぶ。また、図4(b)においては、全被写界画像のうちの一部を拡大して示している。   In step S1 of FIG. 10, the element control circuit 19a causes the second image sensor 16 to acquire a tracking initial image (an image acquired first after starting the image tracking process). The image information of the initial tracking image captured by the second image sensor 16 is represented by RGB values for each pixel as a field image signal. The microcomputer 19c calculates color information and luminance information of the object scene image based on the RGB values of the object scene image signal input from the second image sensor 16. At this time, the microcomputer 19c combines the image information of each of the 640 × 480 pixels 40 included in the second image sensor 16 into, for example, the image information of the adjacent 8 × 8 pixels 40 as one block. Perform blocking. In this case, the microcomputer 19c performs blocking by averaging or summing adjacent 8 × 8 pieces of image information (that is, RGB values). As a result, as shown in FIG. 4B, the image information of each of the 640 × 480 pixels 40 of the object scene image is surrounded by 80 × 60 blocks 41 (thick lines in FIG. 4B). (In range) image information. In the following description, the above block-formed block is referred to as a block pixel 41. In FIG. 4B, a part of the entire scene image is shown enlarged.

上述したようにしてブロック化が行われると、第2撮像素子16により撮像された画像情報は、ブロック画素41ごとに以下の式(1)のようにRGB値で表される。
R[x,y]、G[x,y]、B[x,y],
x=1〜80、y=1〜60 ・・・(1)
When blocking is performed as described above, the image information captured by the second image sensor 16 is represented by RGB values for each block pixel 41 as in the following Expression (1).
R [x, y], G [x, y], B [x, y],
x = 1 to 80, y = 1 to 60 (1)

そして、マイクロコンピューター19cは、上記のブロック画素41ごとのRGB値に基づいて、各ブロック画素41の色情報と輝度情報とを算出する。ここで、色情報は、以下の(2)式に示すように、色の偏り具合を示す値であるRG、BGにより表される。また、輝度情報として画像を取得したときの露光時間T、ゲインG、色合成係数Kr、Kg、Kbに基づいて、以下の(2)式より算出されたLによって表される。
RG[x,y]=Log(R[x,y])−Log(G[x,y])
BG[x,y]=Log(B[x,y])−Log(G[x,y])
L[x,y]=Log(Kr×R[x,y]+Kg×G[x,y]+Kb×B[x,y])−Log(T)−Log(G)
・・・(2)
Then, the microcomputer 19c calculates the color information and luminance information of each block pixel 41 based on the RGB value for each block pixel 41 described above. Here, the color information is represented by RG and BG, which are values indicating the degree of color deviation, as shown in the following equation (2). Further, it is represented by L calculated from the following equation (2) based on the exposure time T, gain G, and color synthesis coefficients Kr, Kg, Kb when an image is acquired as luminance information.
RG [x, y] = Log 2 (R [x, y]) − Log 2 (G [x, y])
BG [x, y] = Log 2 (B [x, y]) − Log 2 (G [x, y])
L [x, y] = Log 2 (Kr × R [x, y] + Kg × G [x, y] + Kb × B [x, y]) − Log 2 (T) −Log 2 (G)
... (2)

次に、ステップS2で追尾制御部19hは、図11に示す追尾制御初期処理を実行する。図11のステップS101において、追尾制御部19hのテンプレート生成部191は、追尾初期画像の中の撮影者が指定した位置(ここでは初回AFエリアである焦点検出エリア45b)の画像情報((2)式参照)を被写体色情報としてメモリ19dに記憶する。ステップS102では、図6(a)に示すように、テンプレート生成部191は、追尾初期画像の中の焦点検出エリア45b(図5参照)の位置周辺部において上記被写体色情報と同様な色情報を示す同色情報領域を検出する。   Next, in step S2, the tracking control unit 19h executes tracking control initial processing shown in FIG. In step S101 of FIG. 11, the template generation unit 191 of the tracking control unit 19h includes image information ((2) of the position (here, the focus detection area 45b which is the initial AF area) specified by the photographer in the initial tracking image. Is stored in the memory 19d as subject color information. In step S102, as shown in FIG. 6A, the template generation unit 191 displays color information similar to the subject color information in the position peripheral portion of the focus detection area 45b (see FIG. 5) in the tracking initial image. The same color information area shown is detected.

ステップS103では、テンプレート生成部191は、上記同色情報領域を含む四角形の領域を初期の追尾被写体領域47とする。なお、ここでは被写体色情報に基づいて追尾被写体領域47を決定する例を示すが、処理の簡素化を図るために一律に4×4個のブロック画素41のように追尾被写体領域47のサイズを統一したり、あるいは撮影レンズ8の距離情報や被写体の像倍率に応じて追尾被写体領域47のサイズを決定してもよい。   In step S <b> 103, the template generation unit 191 sets the rectangular area including the same color information area as the initial tracking subject area 47. Although an example in which the tracking subject area 47 is determined based on the subject color information is shown here, the size of the tracking subject area 47 is uniformly set to 4 × 4 block pixels 41 in order to simplify the processing. Alternatively, the size of the tracking subject region 47 may be determined according to the distance information of the photographing lens 8 or the subject image magnification.

ステップS104では、テンプレート生成部191は、ステップS103で決定した追尾初期画像の追尾被写体領域47をテンプレート画像48としてメモリ19dに記憶する。図6(a)に示すように、追尾被写体領域47のサイズ(大きさ)をTmpSizeとすると、図6(b)に示すテンプレート画像48の色情報および輝度情報は以下の式(3)ように表される。なお、以降の説明においては、追尾初期画像に基づいて生成されたテンプレート画像48を初期テンプレート画像と呼ぶ。また、以降の各式において、変数tはテンプレート画像の種類を示す変数であり、t=0が初期テンプレート画像48に対応する。
Ref[t,RG,i,j]=RG[x+i,y+j]
Ref[t,BG,i,j]=BG[x+i,y+j]
Ref[t,L,i,j]=L[x+i,y+j]
t=0、i=1〜TmpSize、j=1〜TmpSize ・・・(3)
In step S104, the template generation unit 191 stores the tracking subject area 47 of the tracking initial image determined in step S103 as the template image 48 in the memory 19d. As shown in FIG. 6A, when the size (size) of the tracking subject region 47 is TmpSize, the color information and luminance information of the template image 48 shown in FIG. expressed. In the following description, the template image 48 generated based on the tracking initial image is referred to as an initial template image. In the following equations, the variable t is a variable indicating the type of template image, and t = 0 corresponds to the initial template image 48.
Ref [t, RG, i, j] = RG [x + i, y + j]
Ref [t, BG, i, j] = BG [x + i, y + j]
Ref [t, L, i, j] = L [x + i, y + j]
t = 0, i = 1 to TmpSize, j = 1 to TmpSize (3)

ステップS105では、テンプレート生成部191は、初期テンプレート画像48に基づいて、拡大テンプレート画像50を作成する。図6(c)に示すように、この拡大テンプレート画像50は、初期テンプレート画像48の内部に含まれる内部画像領域50a(図6(c)の破線で囲まれた領域)が初期テンプレート画像48と同一のサイズに拡大された画像である。換言すると、拡大テンプレート画像50は、初期テンプレート画像48をズームアップした場合に得られる画像に相当する。このため、後述するように、被写体がカメラ1に接近してくる場合に、拡大テンプレート画像50によって追尾対象被写体を検出できる。   In step S <b> 105, the template generation unit 191 creates the enlarged template image 50 based on the initial template image 48. As shown in FIG. 6C, the enlarged template image 50 has an internal image area 50a included in the initial template image 48 (an area surrounded by a broken line in FIG. 6C) and the initial template image 48. It is the image expanded to the same size. In other words, the enlarged template image 50 corresponds to an image obtained when the initial template image 48 is zoomed up. Therefore, as will be described later, when the subject approaches the camera 1, the tracking target subject can be detected by the enlarged template image 50.

テンプレート生成部191は、拡大テンプレート50を作成する際に、まず、初期テンプレート画像48の内部を内部画像領域50aとして決定する。図7(a)においては、内部画像領域50aの一例として、初期テンプレート画像48の上下(y方向)についてそれぞれ2ブロック画素、左右(x方向)についてそれぞれ2ブロック画素ずつ内側の領域が決定された場合を示している。そして、テンプレート生成部191は、決定した内部画像領域50a(Sclup[cl,i,j])をメモリ19dに記憶する。なお、複数の内部画像領域50aを決定してもよい。図7(b)には、一例として、3種類の内部画像領域50a1〜50a3を決定した場合を示している。この場合、テンプレート生成部191は、内部画像領域50a1〜50a3のサイズが段階的に小さくなるように内部画像領域50a1〜50a3を決定する。   When creating the enlarged template 50, the template generation unit 191 first determines the inside of the initial template image 48 as the internal image region 50a. In FIG. 7A, as an example of the internal image region 50a, the inner region is determined by two block pixels for each of the upper and lower sides (y direction) of the initial template image 48 and two block pixels for each of the left and right sides (x direction). Shows the case. Then, the template generation unit 191 stores the determined internal image area 50a (Scrop [cl, i, j]) in the memory 19d. A plurality of internal image areas 50a may be determined. FIG. 7B shows a case where three types of internal image areas 50a1 to 50a3 are determined as an example. In this case, the template generation unit 191 determines the internal image areas 50a1 to 50a3 so that the sizes of the internal image areas 50a1 to 50a3 become smaller in steps.

上述のようにして内部画像領域50aを決定すると、テンプレート生成部191は、以下の式(4)に示す補間処理により内部画像領域50aを初期テンプレート画像48と同一のサイズに拡大して拡大テンプレート画像50(Ref[t,cl,i,j],t=1)を生成する。なお、変数tが1の場合には、拡大テンプレート画像50であることを示す。
Sclup[RG,s,u]=RG[x+s+n,y+u+n]
Sclup[BG,s,u]=BG[x+s+n,y+u+n]
Sclup[L,s,u]=L[x+s+n,y+u+n]
s=1〜拡大テンプレート画像のサイズ、u=1〜拡大テンプレート画像のサイズ、
n=初期テンプレート画像と内部画像領域との差分画素数 ・・・(4)
When the internal image area 50a is determined as described above, the template generation unit 191 enlarges the internal image area 50a to the same size as the initial template image 48 by the interpolation process shown in the following equation (4), and the enlarged template image 50 (Ref [t, cl, i, j], t = 1) is generated. When the variable t is 1, it indicates that the enlarged template image 50 is used.
Scrup [RG, s, u] = RG [x + s + n, y + u + n]
Scrup [BG, s, u] = BG [x + s + n, y + u + n]
Scrup [L, s, u] = L [x + s + n, y + u + n]
s = 1 to the size of the enlarged template image, u = 1 to the size of the enlarged template image,
n = number of difference pixels between the initial template image and the internal image area (4)

なお、複数の内部画像領域50aを決定した場合(たとえば図7(b)の内部画像領域50a1〜50a3)、テンプレート生成部191は、それぞれの内部画像領域50aについて上述した補間処理により、初期テンプレート画像48と同一のサイズに拡大する。その結果、図6(d)に示すように、ズームアップの倍率が異なる複数種類の拡大テンプレート画像50_1、50_2、50_3が生成される。また、追尾対象の被写体が遠方に存在するため被写界画像内で小さな領域しか占有できない場合には、すなわち同色情報領域、被写体追尾領域47および初期テンプレート画像48のサイズが小さくなる。このような場合、テンプレート生成部191は、上記の方法によって初期テンプレート画像48の内部に内部画像領域50aを決定できない。したがって、テンプレート生成部191は、たとえば初期テンプレート画像48のサイズが4×4個のブロック画素41のような場合、初期テンプレート画像48と同一の画像情報を拡大テンプレート画像50として設定する。テンプレート生成部191は、拡大テンプレート画像50を生成するとメモリ19dに記憶する。   When a plurality of internal image regions 50a are determined (for example, the internal image regions 50a1 to 50a3 in FIG. 7B), the template generation unit 191 performs the initial template image by the interpolation processing described above for each internal image region 50a. Enlarge to the same size as 48. As a result, as shown in FIG. 6D, a plurality of types of enlarged template images 50_1, 50_2, and 50_3 having different zoom-up magnifications are generated. In addition, since the subject to be tracked exists far away and only a small area can be occupied in the object scene image, that is, the size of the same color information area, the subject tracking area 47 and the initial template image 48 is reduced. In such a case, the template generation unit 191 cannot determine the internal image area 50a inside the initial template image 48 by the above method. Therefore, for example, when the size of the initial template image 48 is 4 × 4 block pixels 41, the template generation unit 191 sets the same image information as the initial template image 48 as the enlarged template image 50. When the template generation unit 191 generates the enlarged template image 50, it stores it in the memory 19d.

以上で追尾制御初期処理を終了し、図10のステップS3へリターンする。リターン後の図10のステップS3において、マイクロコンピューター19cは操作部材20のレリーズボタンが全押しされたか否かを判別する。レリーズボタンが全押しされるまでの間、マイクロコンピューター19cは、ステップS4〜S11の処理を繰り返す。ステップS4では、次の撮影周期で第2撮像素子16により撮像された被写界画像(追尾次画像)について、マイクロコンピューター19cは、ステップS1と同様にして、画像情報R[x,y]、G[x,y]、B[x,y](x=1〜80、y=1〜60)を取得し、色情報RG[x,y],BG[x,y]および輝度情報L[x,y]を算出する。   The tracking control initial process is thus completed, and the process returns to step S3 in FIG. In step S3 of FIG. 10 after the return, the microcomputer 19c determines whether or not the release button of the operation member 20 has been fully pressed. Until the release button is fully pressed, the microcomputer 19c repeats the processes of steps S4 to S11. In step S4, the microcomputer 19c uses the image information R [x, y], the image information R [x, y], in the same manner as in step S1, for the object scene image (tracking next image) captured by the second image sensor 16 in the next imaging cycle. G [x, y] and B [x, y] (x = 1 to 80, y = 1 to 60) are acquired, and color information RG [x, y], BG [x, y] and luminance information L [ x, y] is calculated.

ステップS5では、設定部196は、テンプレート画像48と一致または類似する画像を探索するための領域(探索領域)49(図6(a))を設定する。ここでは、設定部196は、たとえば、追尾被写体領域47の上下左右方向にそれぞれ4ブロック画素分拡大したブロック画素範囲に含まれる領域を探索領域49として設定する。   In step S5, the setting unit 196 sets an area (search area) 49 (FIG. 6A) for searching for an image that matches or is similar to the template image 48. Here, the setting unit 196 sets, for example, an area included in the block pixel range expanded by 4 block pixels in the vertical and horizontal directions of the tracking subject area 47 as the search area 49.

設定部196は、好ましくは追尾被写体領域47を中心にして探索領域49を設定する。追尾対象の被写体は今回検出された位置すなわち追尾被写体領域47を基点にして移動する。このため、設定部196によって追尾被写体領域47を中心にして探索領域49が設定されることにより、追尾対象の被写体を早く検出することができ、画像追尾の応答性を向上させることができる。なお、この探索領域49は縦横それぞれに所定個数のブロック画素を含む固定サイズの領域としてもよいし、追尾結果や追尾対象被写体の大きさに応じて変えるようにしてもよい。   The setting unit 196 preferably sets the search area 49 with the tracking subject area 47 as the center. The subject to be tracked moves with the position detected this time, that is, the tracking subject region 47 as a base point. For this reason, by setting the search area 49 around the tracking subject area 47 by the setting unit 196, it is possible to quickly detect the subject to be tracked and to improve the responsiveness of image tracking. The search area 49 may be a fixed-size area including a predetermined number of block pixels in the vertical and horizontal directions, or may be changed according to the tracking result and the size of the tracking target subject.

続くステップS6では追尾制御部19hの演算部192は、追尾演算処理を行う。演算部192は、追尾次画像の中の探索領域49から図6(a)に示す追尾被写体領域47と同じサイズの領域を順次切り出す。そして、演算部192は、切り出した画像と、図6(b)に示すテンプレート画像48とを、対応する画素ごとに相関を演算、すなわち画像情報の差分Diff[t(=0),sx,sy]を算出する。さらに、演算部192は、切り出した画像と、図6(c)に示す拡大テンプレート画像50とを、対応するブロック画素41ごとに相関を演算、すなわち画像情報の差分Diff[t(=1),sx,sy]を算出する。   In subsequent step S6, the calculation unit 192 of the tracking control unit 19h performs a tracking calculation process. The computing unit 192 sequentially cuts out an area having the same size as the tracking subject area 47 shown in FIG. 6A from the search area 49 in the tracking next image. Then, the computing unit 192 computes the correlation between the clipped image and the template image 48 shown in FIG. 6B for each corresponding pixel, that is, the difference Diff [t (= 0), sx, sy of the image information. ] Is calculated. Further, the calculation unit 192 calculates a correlation between the cut-out image and the enlarged template image 50 shown in FIG. 6C for each corresponding block pixel 41, that is, the difference Diff [t (= 1), sx, sy] is calculated.

具体的には、演算部192は、探索領域49の始点位置を(x,y)としたとき、差分Diff[t,sx,sy]を次式(5)により算出する。

Figure 0005966249
Specifically, the calculation unit 192 calculates the difference Diff [t, sx, sy] by the following equation (5), where (x, y) is the starting point position of the search area 49.
Figure 0005966249

なお、(5)式におけるsx、syは、それぞれ切り出し画像の始点位置をずらす範囲(量)を示している。(5)式は以下の(1)、(2)の処理が行われていることを示している。
(1)探索領域49の中で追尾被写体領域47と同じサイズの領域を1ブロック画素ずつずらしながら切り出し画像を取得する。
(2)切り出した画像とテンプレート画像48との間および切り出した画像と拡大テンプレート画像50との間でブロック画素ごとの画像情報の差分Diffを求める。
In the equation (5), sx and sy indicate ranges (amounts) in which the start point position of the cut-out image is shifted. Expression (5) indicates that the following processes (1) and (2) are performed.
(1) A clipped image is acquired while shifting an area of the same size as the tracking subject area 47 in the search area 49 by one block pixel.
(2) A difference Diff of image information for each block pixel is obtained between the cut-out image and the template image 48 and between the cut-out image and the enlarged template image 50.

例えば、図8(a)に示すように探索領域49から順次切り出した画像(図8(a)においては、47a、47b、47c)と、テンプレート画像48とが順次比較され、それぞれの切り出し画像について差分Diffが算出される。同様に、探索領域49から順次切り出した画像(図8(a)の47a、47b、47c)と、拡大テンプレート画像50とが順次比較されて、それぞれの切り出し画像について差分Diffが算出される。そして、これらの差分Diffの内の最小の値を示す切り出し画像が、テンプレート画像48または拡大テンプレート画像50に最も類似している、類似度が高い画像となる。   For example, as shown in FIG. 8A, images sequentially cut out from the search area 49 (47a, 47b, 47c in FIG. 8A) and the template image 48 are sequentially compared, and each cut-out image is obtained. A difference Diff is calculated. Similarly, images sequentially extracted from the search area 49 (47a, 47b, 47c in FIG. 8A) and the enlarged template image 50 are sequentially compared, and a difference Diff is calculated for each of the clipped images. Then, the cut-out image that indicates the minimum value among these differences Diff is an image that is most similar to the template image 48 or the enlarged template image 50 and that has a high degree of similarity.

なお、図6(d)にて示したように、ズームアップの倍率が異なる複数種類の拡大テンプレート画像50_1、50_2、50_3が生成された場合については、演算部192は、変数tに、比較するテンプレート画像の種類の数を代入して上記の式(5)を演算する。この場合、演算部192は、1種類の初期テンプレート画像48と3種類の拡大テンプレート画像50_1、50_2、50_3とを合わせた数である4を変数tに代入する。式(5)を用いた演算により、演算部192は、生成されたテンプレート画像48および複数の拡大テンプレート画像50_1、50_2、50_3のそれぞれについて差分Diffを算出する。   As illustrated in FIG. 6D, when a plurality of types of enlarged template images 50_1, 50_2, and 50_3 having different zoom-up magnifications are generated, the calculation unit 192 compares the variable t with the variable t. The above equation (5) is calculated by substituting the number of types of template images. In this case, the calculation unit 192 substitutes 4 as a variable t, which is the total number of one type of initial template image 48 and three types of enlarged template images 50_1, 50_2, and 50_3. By the calculation using Expression (5), the calculation unit 192 calculates a difference Diff for each of the generated template image 48 and the plurality of enlarged template images 50_1, 50_2, and 50_3.

ステップ7においては、新しい追尾被写体位置を決定するための新追尾被写体位置決定処理を行う。演算部192により上記(5)式を用いて差分Diffが算出されると、選択部193は、複数の差分Diffの値のうち最も小さい値(最小差分値MinDiff)を選択する。最小差分値MinDiffが選択されると、検出部194は、最小差分値MinDiffとなるときの差分Diffの座標値(Mindx,Mindy)を検出する。そして、図8(b)に示すように、設定部196は、検出部194により検出された座標値(Mindx,Mindy)を中心として新たな追尾被写体領域47を設定する。換言すると、設定部196は、テンプレート画像48または拡大テンプレート画像50との類似度が最も高い切り出し領域を新たな追尾被写体領域47に設定する。   In step 7, new tracking subject position determination processing for determining a new tracking subject position is performed. When the difference Diff is calculated by the calculation unit 192 using the above equation (5), the selection unit 193 selects the smallest value (minimum difference value MinDiff) among the values of the plurality of differences Diff. When the minimum difference value MinDiff is selected, the detection unit 194 detects the coordinate value (Mindx, Mindy) of the difference Diff when the minimum difference value MinDiff is obtained. Then, as illustrated in FIG. 8B, the setting unit 196 sets a new tracking subject region 47 around the coordinate values (Mindx, Mindy) detected by the detection unit 194. In other words, the setting unit 196 sets a cutout region having the highest similarity with the template image 48 or the enlarged template image 50 as a new tracking subject region 47.

検出部194は、さらに、最小差分値MinDiffを与える変数tが1であるか否かを判定する。変数tが1である場合には、検出部194は、カウンタのカウント数を1増やし、変数tが0の場合には、カウンタのカウント数を0にリセットする。このカウンタは、後述するテンプレート画像48を拡大テンプレート画像50に置換する際に、更新部195により参照される。   The detecting unit 194 further determines whether or not the variable t that gives the minimum difference value MinDiff is 1. When the variable t is 1, the detection unit 194 increases the count number of the counter by 1, and when the variable t is 0, the detection unit 194 resets the count number of the counter to 0. This counter is referred to by the updating unit 195 when a template image 48 described later is replaced with an enlarged template image 50.

ステップS8では、追尾制御部19hは、最小差分値MinDiffと、予め設定された類似閾値Dthとを比較することにより、ステップS7で決定された新しい追尾被写体領域47がテンプレート画像48または拡大テンプレート画像50と類似しているか否かの判定を行う。なお、類似閾値Dthは、通常の撮影シーンにおいて適切に類似判定が可能な値として設定されている。ステップS8の判定結果は、後述するステップS12における焦点調節の際に用いられる。   In step S8, the tracking control unit 19h compares the minimum difference value MinDiff with the preset similarity threshold Dth, so that the new tracking subject region 47 determined in step S7 is the template image 48 or the enlarged template image 50. It is determined whether or not it is similar. The similarity threshold Dth is set as a value that allows appropriate similarity determination in a normal shooting scene. The determination result in step S8 is used for focus adjustment in step S12 described later.

ステップS9では、更新部195は、予め設定された更新閾値Upthを用いて、テンプレート画像48の更新処理の要否を判定する。更新閾値Upthは、通常の撮影シーンにおいて適切に類似判定が可能な値として設定されている。ステップS9において、新しい追尾被写体領域47とテンプレート画像48との類似度が高いと判定された場合に、テンプレート画像48の更新処理を行う。更新部195は、最小差分値MinDiffの値が更新閾値Upth以下の場合に、テンプレート画像48の更新処理が必要と判断する。本実施の形態では、更新部195は、元のテンプレート画像48の色情報や輝度情報などの画像情報の、たとえば80%に、新しい追尾被写体領域47の画像情報の20%を加えて、新しいテンプレート画像48を生成する。すなわち、更新部195は、更新処理が必要と初めて判定した場合には初期テンプレート画像48に更新処理を施して新たにテンプレート画像48を生成し、以後の処理では、順次、新たなテンプレート画像48に対して更新処理を施す。更新処理の演算は、以下の(6)式のように表すことができる。
Ref[0,RG,i,j]=0.8×Ref[0,RG,i,j]+0.2×RG[x+i−1,y+j−1]、
Ref[0,BG,i,j]=0.8×Ref[0,BG,i,j]+0.2×BG[x+i−1,y+j−1]、
Ref[0,L,i,j]=0.8×Ref[0,L,i,j]+0.2×L[x+i−1,y+j−1]、
i=1〜TmpSize、j=1〜TmpSize、x、yは新たな追尾被写体領域47の位置 ・・・(6)
In step S <b> 9, the update unit 195 determines whether or not the template image 48 needs to be updated using a preset update threshold Upth. The update threshold Upth is set as a value that allows appropriate similarity determination in a normal shooting scene. In step S9, when it is determined that the similarity between the new tracking subject area 47 and the template image 48 is high, the template image 48 is updated. The update unit 195 determines that the template image 48 needs to be updated when the value of the minimum difference value MinDiff is equal to or less than the update threshold value Upth. In the present embodiment, the updating unit 195 adds, for example, 80% of the image information such as color information and luminance information of the original template image 48 to 20% of the image information of the new tracking subject area 47, and adds a new template. An image 48 is generated. That is, when it is determined for the first time that update processing is necessary, the update unit 195 performs update processing on the initial template image 48 to generate a new template image 48. In subsequent processing, the update unit 195 sequentially creates new template images 48. An update process is performed on it. The calculation of the update process can be expressed as the following equation (6).
Ref [0, RG, i, j] = 0.8 × Ref [0, RG, i, j] + 0.2 × RG [x + i−1, y + j−1],
Ref [0, BG, i, j] = 0.8 × Ref [0, BG, i, j] + 0.2 × BG [x + i−1, y + j−1],
Ref [0, L, i, j] = 0.8 × Ref [0, L, i, j] + 0.2 × L [x + i−1, y + j−1],
i = 1 to TmpSize, j = 1 to TmpSize, x, y are positions of the new tracking subject region 47 (6)

テンプレート画像48の更新処理の結果、元のテンプレート画像48の画像情報に対して、最新の画像情報が少しずつ追加されることにより更新される。このため、何らかの原因による追尾被写体の変化(たとえば被写体の顔の向きの変化など)の影響を抑制して被写体追尾の信頼性を向上させることができる。なお、元のテンプレート画像48の画像情報の割合と新しい追尾被写体領域47の画像情報の割合とは最小差分値MinDiffの値に応じて可変にしてもよい。   As a result of the update process of the template image 48, the latest image information is updated little by little with respect to the image information of the original template image 48. Therefore, it is possible to improve the reliability of subject tracking by suppressing the influence of a change in the tracking subject due to some cause (for example, a change in the orientation of the face of the subject). Note that the ratio of the image information of the original template image 48 and the ratio of the image information of the new tracked subject area 47 may be varied according to the value of the minimum difference value MinDiff.

ステップS10において、更新部195は、図12に示す拡大テンプレート画像50の更新処理を行う。ステップS201では、予め設定された拡大更新閾値Sclupthを用いて、拡大テンプレート画像50の更新処理の要否を判定する。拡大更新閾値Sclupthは、通常の撮影シーンにおいて適切に類似判定が可能な値として設定されている。更新部195は、最小差分値MinDiffの値が拡大更新閾値Sclupth以下の場合に、拡大テンプレート画像50の更新処理が必要と判断する。   In step S10, the update unit 195 performs an update process of the enlarged template image 50 shown in FIG. In step S <b> 201, it is determined whether or not an update process for the enlarged template image 50 is necessary, using a preset enlargement update threshold value Scrupth. The enlargement update threshold value Scrupth is set as a value that allows appropriate similarity determination in a normal shooting scene. The update unit 195 determines that the update processing of the enlarged template image 50 is necessary when the value of the minimum difference value MinDiff is equal to or smaller than the enlargement update threshold value Scrupth.

続くステップS202では、更新部195は、上述したテンプレート画像48の更新処理の場合と同様にして、拡大テンプレート画像50を更新する。すなわち、更新部195は、元の拡大テンプレート画像50の色情報や輝度情報などの画像情報の、たとえば80%に、新しい追尾被写体領域47の画像情報の20%を加えることにより新たな拡大テンプレート画像50を生成する。なお、ステップS2において、初期テンプレート画像48のサイズが小さく、初期テンプレート画像48と同一の画像を拡大テンプレート画像50として設定した場合には、更新部195は、新しい追尾被写体領域47の画像情報を加える割合を上記の20%よりも増やして、新しい追尾被写体領域47の画像情報をたとえば40%加えて新たな拡大テンプレート画像50を生成する。   In subsequent step S202, the updating unit 195 updates the enlarged template image 50 in the same manner as in the template image 48 update process described above. That is, the update unit 195 adds a new enlarged template image by adding 20% of the image information of the new tracking subject region 47 to, for example, 80% of the image information such as color information and luminance information of the original enlarged template image 50. 50 is generated. In step S2, if the initial template image 48 is small in size and the same image as the initial template image 48 is set as the enlarged template image 50, the update unit 195 adds image information of the new tracking subject region 47. The ratio is increased from the above 20%, and the image information of the new tracking subject region 47 is added by, for example, 40% to generate a new enlarged template image 50.

ステップS203では、更新部195は、撮影周期ごとに上記の処理を繰り返す間に、拡大テンプレート画像50で検出された追尾被写体の位置を新たな追尾被写体領域47として設定した回数が、連続してm回となったか否かを判定する。すなわち、更新部195は、追尾被写体がカメラ1に接近しているために、被写界における追尾被写体が大きくなっているか否かを判定する。この場合、更新部195は、カウンタによるカウント数がmであるか否かを判定する。カウント数がmではない場合には、以下の処理を行わずに拡大テンプレート画像更新処理を終了する。   In step S203, the updating unit 195 continuously sets m as the number of times that the position of the tracking subject detected in the enlarged template image 50 is set as the new tracking subject region 47 while repeating the above processing for each imaging cycle. It is determined whether or not the number of times has been reached. That is, the update unit 195 determines whether or not the tracking subject in the object scene is large because the tracking subject is approaching the camera 1. In this case, the update unit 195 determines whether the count number by the counter is m. If the count is not m, the enlarged template image update process is terminated without performing the following process.

カウント数がmの場合には、更新部195は、ステップS204において、以下の式(7)を用いて、テンプレート画像48を拡大テンプレート画像50によって置換する。
Ref[0,RG,i,j]=Ref[1,RG,i,j]
Ref[0,BG,i,j]=Ref[1,BG,i,j]
Ref[0,L,i,j]=Ref[1,L,i,j]
なお、i=1〜TmpSize、j=1〜TmpSize ・・・(7)
When the count number is m, the updating unit 195 replaces the template image 48 with the enlarged template image 50 using the following equation (7) in step S204.
Ref [0, RG, i, j] = Ref [1, RG, i, j]
Ref [0, BG, i, j] = Ref [1, BG, i, j]
Ref [0, L, i, j] = Ref [1, L, i, j]
Note that i = 1 to TmpSize, j = 1 to TmpSize (7)

カウント数がm未満の場合には、追尾制御部19hは、図9(a)に示すテンプレート画像48と拡大テンプレート画像50とを用いて追尾被写体検出処理を行っていた。カウント数がmに達し更新部195が上記の置換処理を行うと、追尾制御部19hは、次回以降の被写体位置決定処理において、図9(a)に示す拡大テンプレート画像50を図9(b)に示すテンプレート画像48として用いる。なお、図9(a)に示すテンプレート画像48と拡大テンプレート画像50とはそれぞれ図6(b)に示すテンプレート画像48と図6(c)に示す拡大テンプレート画像50と同一のものである。   When the count number is less than m, the tracking control unit 19h performs the tracking subject detection process using the template image 48 and the enlarged template image 50 shown in FIG. When the count number reaches m and the updating unit 195 performs the above replacement process, the tracking control unit 19h displays the enlarged template image 50 shown in FIG. 9A in FIG. As a template image 48 shown in FIG. The template image 48 and the enlarged template image 50 shown in FIG. 9A are the same as the template image 48 shown in FIG. 6B and the enlarged template image 50 shown in FIG. 6C, respectively.

ステップS204でテンプレート画像48の置換処理を行った場合には、ステップS205において、更新部195は、新たな拡大テンプレート画像50を生成する。すなわち、更新部195は、新たな追尾対象領域47に内部画像領域50aを決定して、補間処理によりテンプレート画像48と同一のサイズとなるように拡大することにより拡大テンプレート画像50を生成する。その結果、図8(b)に示す新たな追尾対象領域47の内部の破線で囲んだ内部画像領域50aに対応する拡大テンプレート画像50(図9(b))が生成される。換言すると、更新部195は、カウンタのカウント数がmの場合には、新たな追尾被写体領域47の位置を基準として拡大テンプレート画像50を生成する。   If the template image 48 is replaced in step S204, the update unit 195 generates a new enlarged template image 50 in step S205. In other words, the update unit 195 generates the enlarged template image 50 by determining the internal image region 50a as the new tracking target region 47 and enlarging it to the same size as the template image 48 by interpolation processing. As a result, an enlarged template image 50 (FIG. 9B) corresponding to the internal image area 50a surrounded by the broken line inside the new tracking target area 47 shown in FIG. 8B is generated. In other words, the update unit 195 generates the enlarged template image 50 based on the position of the new tracking subject region 47 when the count number of the counter is m.

以上で拡大テンプレート画像50の更新処理を終了し、図10のステップS11へリターンする。リターン後のステップS11では、焦点検出演算部19fは、ステップS7における被写体位置決定処理で決定した新しい追尾被写体領域47を用いて焦点制御を行う。この場合、新しく決定された追尾被写体領域47がテンプレート画像48または拡大テンプレート画像50と類似していると追尾制御部19hによって判定された場合(ステップS8)は、焦点検出演算部19fは、新しい追尾被写体領域47内に含まれる追尾対象に対して合焦制御を行う。焦点検出演算部19fは、新しい追尾被写体領域47内に焦点検出エリア45a〜45gの少なくとも一つが含まれる場合には、新しい追尾被写体領域47内に含まれる焦点検出エリア45a〜45gで検出されたデフォーカス量のうち最も小さいものを採用し、そのデフォーカス量に基づいて撮影レンズ8の焦点調節を行う。新しい追尾被写体領域47内に焦点検出エリア45a〜45gが含まれない場合には、焦点検出演算部19f新しい追尾被写体領域47との距離、または前回の追尾結果で採用された焦点検出エリア45a〜45gとの距離の少なくとも一方に基づいて採用する焦点検出エリア45a〜45gを決定してもよい。新しく決定された追尾被写体領域47がテンプレート画像48または拡大テンプレート画像50と類似していないと追尾制御部19hによって判定された場合(ステップS8)は、焦点検出演算部19fは、前回の処理で検出されたデフォーカス量を用いて焦点調節を行う。上記処理が終了するとステップS3へ戻る。   The update process of the enlarged template image 50 is thus completed, and the process returns to step S11 in FIG. In step S11 after the return, the focus detection calculation unit 19f performs focus control using the new tracking subject region 47 determined in the subject position determination process in step S7. In this case, when the tracking control unit 19h determines that the newly determined tracking subject region 47 is similar to the template image 48 or the enlarged template image 50 (step S8), the focus detection calculation unit 19f Focus control is performed on the tracking target included in the subject area 47. When at least one of the focus detection areas 45a to 45g is included in the new tracking subject area 47, the focus detection calculation unit 19f detects the data detected in the focus detection areas 45a to 45g included in the new tracking subject area 47. The smallest focus amount is adopted, and the focus of the photographic lens 8 is adjusted based on the defocus amount. When the focus detection areas 45a to 45g are not included in the new tracking subject area 47, the focus detection calculation unit 19f is set to the distance from the new tracking subject area 47 or the focus detection areas 45a to 45g employed in the previous tracking result. Focus detection areas 45a to 45g to be employed may be determined based on at least one of the distances to When the tracking control unit 19h determines that the newly determined tracking subject area 47 is not similar to the template image 48 or the enlarged template image 50 (step S8), the focus detection calculation unit 19f detects the previous processing. The focus adjustment is performed using the defocus amount. When the above process ends, the process returns to step S3.

ステップS3で操作部材20のレリーズボタンの全押し操作が検出されるとステップS12へ進み、マイクロコンピューター19cは、撮影制御を実行する。なお、撮像制御に際しては、露出演算部19eはステップS7で決定した新しい追尾被写体領域47の輝度情報に基づいて露出演算を行い、絞り値とシャッター速度を算出する。これらの露出値にしたがって、マイクロコンピューター19cはシャッター7および絞り21を駆動制御し、第1撮像素子4に撮像を行わせる。   If the full pressing operation of the release button of the operation member 20 is detected in step S3, the process proceeds to step S12, and the microcomputer 19c executes photographing control. In the imaging control, the exposure calculation unit 19e performs an exposure calculation based on the luminance information of the new tracking subject area 47 determined in step S7, and calculates an aperture value and a shutter speed. In accordance with these exposure values, the microcomputer 19c drives and controls the shutter 7 and the diaphragm 21, and causes the first image sensor 4 to perform imaging.

以上で説明した実施の形態によれば、以下の作用効果が得られる。
(1)第2撮像素子16は、撮影レンズ8により結像される像を繰り返し撮像して、被写界画像を生成する。テンプレート生成部191は、被写界画像に含まれる追尾対象領域である追尾被写体領域47に基づいて、少なくとも1つの拡大テンプレート画像50を含む複数のテンプレート画像48、50を生成する。演算部192は、被写界画像の内部の探索領域49と、テンプレート生成部191により生成された複数のテンプレート画像48、50のそれぞれとの間の相関関係を演算する。選択部193は、演算部192による複数のテンプレート画像48,50のそれぞれに対する演算結果を比較し、比較結果に基づいて、演算結果を選択する。検出部194は、選択部193により選択された演算結果に基づいて、被写界画像における追尾対象被写体の位置を検出する。上記の拡大テンプレート画像50を生成する際には、テンプレート生成部191は、追尾対象領域47に含まれる画像領域を補間処理により拡大し、拡大された画像領域に基づいて、拡大テンプレート画像50を生成するようにした。具体的には、テンプレート生成部191は、追尾被写体領域47の画像情報に基づいて拡大テンプレート画像50とは異なる初期テンプレート画像48を生成する。そして、テンプレート生成部191は、初期テンプレート画像48の内部に内部画像領域50aを設定し、設定された内部画像領域50aを初期テンプレート画像48の大きさとなるように補間処理により拡大することによって拡大テンプレート画像50を生成するようにした。したがって、拡大テンプレート画像50は、初期テンプレート画像48をズームアップした場合に得られる画像に相当するので、追尾対象被写体がカメラ1に接近してくる場合であっても、拡大テンプレート画像50によって追尾対象を検出できる。
According to the embodiment described above, the following operational effects can be obtained.
(1) The second image sensor 16 repeatedly captures an image formed by the photographing lens 8 to generate an object scene image. The template generation unit 191 generates a plurality of template images 48 and 50 including at least one enlarged template image 50 based on the tracking subject area 47 that is a tracking target area included in the object scene image. The calculation unit 192 calculates a correlation between the search area 49 inside the object scene image and each of the plurality of template images 48 and 50 generated by the template generation unit 191. The selection unit 193 compares the calculation results for each of the plurality of template images 48 and 50 by the calculation unit 192, and selects the calculation result based on the comparison results. The detection unit 194 detects the position of the tracking target subject in the object scene image based on the calculation result selected by the selection unit 193. When generating the enlarged template image 50, the template generation unit 191 enlarges the image area included in the tracking target area 47 by interpolation processing, and generates the enlarged template image 50 based on the enlarged image area. I tried to do it. Specifically, the template generation unit 191 generates an initial template image 48 different from the enlarged template image 50 based on the image information of the tracking subject area 47. Then, the template generation unit 191 sets the internal image region 50a inside the initial template image 48, and enlarges the set internal image region 50a by interpolation processing so as to be the size of the initial template image 48, thereby expanding the enlarged template. An image 50 is generated. Therefore, since the enlarged template image 50 corresponds to an image obtained when the initial template image 48 is zoomed up, even if the tracking target subject approaches the camera 1, the enlarged template image 50 uses the tracking target object. Can be detected.

(2)設定部196は、検出部194により検出された追尾対象被写体の位置に基づいて、新たな追尾対象領域47を設定する。そして、演算部192による演算結果に基づいて、複数のテンプレート画像48、50を更新すると判定した場合、更新部195は、設定部196により設定された新たな追尾対象領域47の画像情報を用いて、複数のテンプレート画像48、50を更新するようにした。したがって、更新処理の結果、元のテンプレート画像48または拡大テンプレート画像50の画像情報に対して、最新の画像情報が少しずつ追加されることにより更新される。このため、何らかの原因による追尾被写体の変化(たとえば被写体の顔の向きの変化など)の影響を抑制して被写体追尾の信頼性を向上させることができる。 (2) The setting unit 196 sets a new tracking target area 47 based on the position of the tracking target subject detected by the detection unit 194. When it is determined that the plurality of template images 48 and 50 are to be updated based on the calculation result by the calculation unit 192, the update unit 195 uses the image information of the new tracking target area 47 set by the setting unit 196. The plurality of template images 48 and 50 are updated. Accordingly, as a result of the update process, the latest image information is updated little by little with respect to the image information of the original template image 48 or the enlarged template image 50. Therefore, it is possible to improve the reliability of subject tracking by suppressing the influence of a change in the tracking subject due to some cause (for example, a change in the orientation of the face of the subject).

(3)演算部192は、拡大テンプレート画像50の画像情報と、探索領域49内の画像情報との差分値を演算し、更新部195は、演算部192により算出された差分値に応じて拡大テンプレート画像50の更新の要否を判定するようにした。この場合、更新部195は、新たな追尾対象領域47内の画像情報と、拡大テンプレート画像50の画像情報とを所定の割合で合成して拡大テンプレート画像50を更新するようにした。したがって、最小差分値MinDiffの値が拡大更新閾値Sclupth以下、すなわち類似度が高い場合には、拡大テンプレート画像50に最新の画像情報が加わる。その結果、次回以降の処理において、拡大テンプレート画像50による追尾対象被写体の検出精度を向上させることができる。さらに、上記(2)のように、拡大テンプレート画像50の画像情報に対して、最新の画像情報が少しずつ追加されることにより更新されるので、何らかの原因による追尾被写体の変化の影響を抑制して被写体追尾の信頼性を向上させることができる。 (3) The calculation unit 192 calculates a difference value between the image information of the enlarged template image 50 and the image information in the search area 49, and the update unit 195 enlarges according to the difference value calculated by the calculation unit 192. The necessity of updating the template image 50 is determined. In this case, the updating unit 195 updates the enlarged template image 50 by combining the image information in the new tracking target area 47 and the image information of the enlarged template image 50 at a predetermined ratio. Therefore, the latest image information is added to the enlarged template image 50 when the value of the minimum difference value MinDiff is equal to or smaller than the enlargement update threshold value Scrupth, that is, when the similarity is high. As a result, it is possible to improve the detection accuracy of the tracking target subject by the enlarged template image 50 in the subsequent processing. Further, as described in (2) above, since the latest image information is updated little by little with respect to the image information of the enlarged template image 50, the influence of changes in the tracking subject due to some cause is suppressed. Thus, the reliability of subject tracking can be improved.

(4)テンプレート生成部191は、初期テンプレート画像48内に内部画像領域50aを設定できない場合には、初期テンプレート画像48の画像情報と同一の画像情報を用いて拡大テンプレート画像50を生成する。そして、テンプレート生成部191により初期テンプレート画像48の画像情報と同一の画像情報を用いて拡大テンプレート画像50が生成された場合には、更新部195は拡大テンプレート画像50の画像情報に対して新たな追尾対象領域47の画像情報を合成する割合を高くするようにした。したがって、初期テンプレート画像48と同一の拡大テンプレート画像50を用いる場合には、拡大テンプレート画像50を早い段階の更新処理で初期テンプレート画像48をズームアップした場合に相当する画像に更新できる。その結果、追尾対象被写体がカメラ1に接近してくる場合であっても、拡大テンプレート画像50によって追尾対象を検出できる。 (4) When the internal image region 50 a cannot be set in the initial template image 48, the template generation unit 191 generates the enlarged template image 50 using the same image information as the image information of the initial template image 48. When the enlarged template image 50 is generated by the template generation unit 191 using the same image information as the image information of the initial template image 48, the update unit 195 adds new information to the image information of the enlarged template image 50. The ratio of combining image information in the tracking target area 47 is increased. Therefore, when the same enlarged template image 50 as that of the initial template image 48 is used, the enlarged template image 50 can be updated to an image corresponding to a case where the initial template image 48 is zoomed up by an early update process. As a result, even when the tracking target subject approaches the camera 1, the tracking target can be detected by the enlarged template image 50.

(5)選択部193により連続して所定の回数(m回)、拡大テンプレート画像50に対する演算結果が選択された場合には、更新部195は、新たな追尾対象領域47内の画像情報に基づいて新たな拡大テンプレート画像50を生成するようにした。さらに、更新部195は、新たな拡大テンプレート画像50を生成する前の拡大テンプレート画像50の画像情報を新たなテンプレート画像48として置換するようにした。したがって、最新の追尾対象領域47の画像情報を用いて拡大テンプレート画像50を生成し直すので、連続して拡大テンプレート画像50の演算結果が選択されている場合、すなわち追尾対象被写体がカメラ1に対して相対的に接近している場合であっても、追尾対象被写体を検出し続けることができる。 (5) When the calculation result for the enlarged template image 50 is selected a predetermined number of times (m times) successively by the selection unit 193, the update unit 195 is based on the image information in the new tracking target region 47. Thus, a new enlarged template image 50 is generated. Further, the updating unit 195 replaces the image information of the enlarged template image 50 before generating the new enlarged template image 50 as a new template image 48. Therefore, since the enlarged template image 50 is regenerated using the image information of the latest tracking target area 47, when the calculation result of the enlarged template image 50 is continuously selected, that is, the tracking target subject is the camera 1. Thus, even if the subject is relatively close, the tracking target subject can be continuously detected.

(6)選択部193は、複数のテンプレート画像48,50のそれぞれに対応する複数の演算結果のうち、テンプレート画像48,50と探索領域49との間の類似度が最も高いことを示す演算結果を選択するようにした。具体的には、演算部192は、複数のテンプレート画像48,50内の画像情報のそれぞれと、探索領域49の画像情報との差分値を演算し、選択部193は、演算部192により算出された差分値が最小の場合に、類似度が最も高いと判定するようにした。したがって、複数のテンプレート画像48、50を用いたテンプレートマッチングを行った場合であっても、誤検出等の発生を抑制して追尾精度を維持できる。 (6) The selection unit 193 indicates that the similarity between the template images 48 and 50 and the search area 49 is the highest among the plurality of calculation results corresponding to the plurality of template images 48 and 50, respectively. Was selected. Specifically, the calculation unit 192 calculates a difference value between each of the image information in the plurality of template images 48 and 50 and the image information of the search area 49, and the selection unit 193 is calculated by the calculation unit 192. When the difference value is the smallest, it is determined that the similarity is the highest. Therefore, even when template matching using a plurality of template images 48 and 50 is performed, occurrence of erroneous detection and the like can be suppressed and tracking accuracy can be maintained.

以上で説明した実施の形態の撮像装置1を以下のように変形できる。
(1)更新部195は初期テンプレート画像48を更新しなくてもよい。この場合、更新部195は、ステップS9で更新処理を行うと判定すると、初期テンプレート画像48をコピーして複製テンプレート画像を生成する。そして、更新部195は、複製テンプレート画像に対して上述した更新処理を施して、新たにテンプレート画像(更新テンプレート画像)を生成する。2回目以降に更新処理を行うと判定した場合、更新部195は、更新テンプレート画像に対して更新処理を施す。すなわち、更新部195は、一連の処理において、更新テンプレート画像および/または拡大テンプレート画像50に対して更新処理を行う。そして、追尾制御部19hは、初期テンプレート画像48と、更新テンプレート画像と、拡大テンプレート画像50とを用いて、探索領域49内で上述した追尾演算処理を行えばよい。この結果、初期テンプレート画像48を更新することなく保持し続けているので、追尾対象被写体がカメラ1に対して再び遠ざかったような場合等には、再度初期テンプレート画像48を用いて追尾対象被写体を検出できる。
The imaging device 1 according to the embodiment described above can be modified as follows.
(1) The updating unit 195 may not update the initial template image 48. In this case, when the update unit 195 determines that the update process is performed in step S9, the update unit 195 copies the initial template image 48 to generate a duplicate template image. Then, the update unit 195 performs the above-described update process on the duplicate template image to generate a new template image (update template image). When it is determined that the update process is performed for the second time and thereafter, the update unit 195 performs the update process on the update template image. That is, the update unit 195 performs an update process on the update template image and / or the enlarged template image 50 in a series of processes. Then, the tracking control unit 19h may perform the tracking calculation process described above in the search area 49 using the initial template image 48, the updated template image, and the enlarged template image 50. As a result, the initial template image 48 is kept without being updated. Therefore, when the tracking target subject moves away from the camera 1 again, the tracking target subject is again used by using the initial template image 48. It can be detected.

さらに加えて、拡大テンプレート画像50で検出された位置を新たな追尾被写体領域47として設定した回数が、連続して所定回数となった場合には、追尾制御部19hは、初期テンプレート画像48で検出された位置が新たな追尾被写体領域47として採用されにくくなるように処理を加える。この場合、上記のカウンタによるカウント数がnのときには、演算部192は初期テンプレート画像48と探索領域49との差分Diff[0,sx,sy]の値に所定の係数kを加算することにより、初期テンプレート画像45の演算結果が選択部193により選択されにくくなるように補正を施す。すなわち、差分Diff[0,sx,sy]の値を大きくすることにより、初期テンプレート画像48による演算結果が最小差分値MinDiffとして採用されにくくなる。この結果、追尾対象の被写体がカメラ1に接近している場合、すなわち被写界画像中の追尾対象が大きくなった場合に、追尾対象とは異なる背景の被写体(すなわち小さな被写体)を追尾対象として誤検出することを防ぐことができる。   In addition, when the number of times the position detected in the enlarged template image 50 is set as the new tracking subject area 47 reaches a predetermined number of times continuously, the tracking control unit 19h detects the initial template image 48. Processing is added so that the determined position is less likely to be adopted as the new tracking subject area 47. In this case, when the count number by the counter is n, the calculation unit 192 adds a predetermined coefficient k to the value of the difference Diff [0, sx, sy] between the initial template image 48 and the search area 49, Correction is performed so that the calculation result of the initial template image 45 is not easily selected by the selection unit 193. That is, by increasing the value of the difference Diff [0, sx, sy], the calculation result by the initial template image 48 becomes difficult to be adopted as the minimum difference value MinDiff. As a result, when the subject to be tracked is close to the camera 1, that is, when the subject to be tracked in the object scene image is large, a subject having a background different from the tracked subject (that is, a small subject) is set as the tracking target. It is possible to prevent erroneous detection.

さらに、拡大テンプレート画像50で検出された位置を新たな追尾被写体領域47として設定した回数が、連続して所定回数となった場合には、追尾制御部19hは、初期テンプレート画像48で検出された位置が選択部193によって選択されることを禁止してもよい。この場合、初期テンプレート画像48と拡大テンプレート画像50の2つを用いて追尾処理をする場合であれば、上記のカウンタによるカウント数がnのときには、選択部193は、拡大テンプレート画像50と探索領域49との差分Diff[1,sx,sy]の値のみを選択する。   Furthermore, when the number of times that the position detected in the enlarged template image 50 is set as the new tracking subject region 47 becomes a predetermined number of times continuously, the tracking control unit 19h is detected in the initial template image 48. The selection of the position by the selection unit 193 may be prohibited. In this case, if tracking processing is performed using the initial template image 48 and the enlarged template image 50, the selection unit 193 selects the enlarged template image 50 and the search area when the count number by the counter is n. Only the value of the difference Diff [1, sx, sy] from 49 is selected.

(2)テンプレート生成部191は、初期テンプレート画像48内の内部画像領域50aを補間処理により拡大して拡大テンプレート画像50を生成するものに代えて、初期テンプレート画像48を補間処理により拡大して拡大テンプレート画像を生成してもよい。すなわち、図13に示すように、テンプレート生成部191は、初期テンプレート画像48の画像情報がズームアップされた拡大テンプレート画像50’を生成する。 (2) The template generation unit 191 expands and enlarges the initial template image 48 by interpolation processing instead of generating the enlarged template image 50 by expanding the internal image region 50a in the initial template image 48 by interpolation processing. A template image may be generated. That is, as illustrated in FIG. 13, the template generation unit 191 generates an enlarged template image 50 ′ in which the image information of the initial template image 48 is zoomed up.

(3)テンプレート生成部191は、初期テンプレート画像48の内部画像領域50aから拡大テンプレート画像50を生成するものに代えて、被写体領域47の画像情報から拡大テンプレート画像50を生成してもよい。この場合、図14に示すように、テンプレート生成部191は、被写界画像内に設定された被写体追尾領域47の内部に、内部画像領域50a’を設定する。そして、テンプレート生成部191は、内部画像領域50a’を補間処理により拡大して拡大テンプレート画像50を生成すればよい。 (3) The template generation unit 191 may generate the enlarged template image 50 from the image information of the subject region 47 instead of generating the enlarged template image 50 from the internal image region 50a of the initial template image 48. In this case, as illustrated in FIG. 14, the template generation unit 191 sets an internal image region 50 a ′ inside the subject tracking region 47 set in the object scene image. Then, the template generation unit 191 may generate the enlarged template image 50 by enlarging the internal image region 50a ′ by interpolation processing.

(4)交換レンズ3のレンズ駆動制御装置22からレンズマウント部の接点23を介して入力されたレンズ情報に基づいて、選択部193は、拡大テンプレート画像50を用いた演算結果を優先して演算してもよい。レンズ情報に基づいて、交換レンズ3がズームアップされている、または被写体の距離が近づいていると判定された場合、すなわち撮影画面内で追尾被写体の大きさが大きくなる場合には、選択部193は拡大テンプレート画像50を用いた演算結果を優先して選択する。優先する方法としては、拡大テンプレート画像50の演算結果の差分値が類似閾値以内であれば他のテンプレート画像の結果によらずに拡大テンプレート画像50の結果を選択すればよい。または、拡大テンプレート画像50以外の演算結果に重みを付けたうえで、最も差分値が小さい結果を選択すればよい。この結果、被写界画像中の追尾対象が大きくなった場合に、追尾対象とは異なる背景の被写体(すなわち小さな被写体)を追尾対象として誤検出することを防ぐことができる。 (4) Based on the lens information input from the lens drive control device 22 of the interchangeable lens 3 via the contact 23 of the lens mount unit, the selection unit 193 performs calculation with priority on the calculation result using the enlarged template image 50. May be. When it is determined that the interchangeable lens 3 is zoomed up or the distance of the subject is approaching based on the lens information, that is, when the size of the tracking subject increases in the shooting screen, the selection unit 193 Selects a calculation result using the enlarged template image 50 with priority. As a priority method, if the difference value of the calculation result of the enlarged template image 50 is within the similarity threshold, the result of the enlarged template image 50 may be selected regardless of the result of the other template images. Alternatively, the calculation result other than the enlarged template image 50 may be weighted and the result having the smallest difference value may be selected. As a result, when the tracking target in the object scene image becomes large, it is possible to prevent erroneous detection of a background subject different from the tracking target (that is, a small subject) as the tracking target.

(5)検出部194は、最小差分値MinDiffを与える変数tが1のときにカウンタのカウント数を1増やすものに代えて、焦点検出演算部19fによる合焦制御の結果に基づいて、カウンタのカウント数を1増やしてもよい。この場合、焦点検出演算部19fが前回のデフォーカス量と今回のデフォーカス量とに基づいて、追尾対象被写体が撮影レンズ8の光軸方向に沿って、カメラ1に接近していると判定した場合、検出部194は、カウンタのカウント数を1増やす。そして、カウント数がmの場合には、選択部193は拡大テンプレート画像50を用いた演算結果を選択すればよい。この結果、追尾対象の被写体がカメラ1に接近している場合、すなわち被写界画像中の追尾対象が大きくなった場合に、追尾対象とは異なる背景の被写体(すなわち小さな被写体)を追尾対象として誤検出することを防ぐことができる。 (5) The detection unit 194 replaces the counter t incremented by 1 when the variable t giving the minimum difference value MinDiff is 1, and based on the focus control result by the focus detection calculation unit 19f, The count number may be increased by one. In this case, the focus detection calculation unit 19f determines that the tracking target subject is approaching the camera 1 along the optical axis direction of the photographing lens 8 based on the previous defocus amount and the current defocus amount. In this case, the detection unit 194 increases the count number of the counter by one. When the count number is m, the selection unit 193 may select a calculation result using the enlarged template image 50. As a result, when the subject to be tracked is close to the camera 1, that is, when the subject to be tracked in the object scene image is large, a subject having a background different from the tracked subject (that is, a small subject) is set as the tracking target. It is possible to prevent erroneous detection.

(6)演算部192は、差分Diffを算出するものに限らない。演算部192は、テンプレート画像48の画像情報および拡大テンプレート画像50の画像情報のそれぞれと、切り出し画像の画像情報との間で加算や、除算等の四則演算を行ってもよいし、最小二乗法等を用いてもよい。この場合も、選択部193は、値が最小となる演算結果、すなわち類似度が最大であることを示す演算結果を選択する。 (6) The calculation unit 192 is not limited to calculating the difference Diff. The calculation unit 192 may perform four arithmetic operations such as addition and division between the image information of the template image 48 and the image information of the enlarged template image 50 and the image information of the cut-out image, or the least square method. Etc. may be used. Also in this case, the selection unit 193 selects a calculation result that minimizes the value, that is, a calculation result indicating that the similarity is the maximum.

また、本発明の特徴を損なわない限り、本発明は上記実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。説明に用いた実施の形態および変形例は、それぞれを適宜組合わせて構成しても構わない。   In addition, the present invention is not limited to the above-described embodiment as long as the characteristics of the present invention are not impaired, and other forms conceivable within the scope of the technical idea of the present invention are also within the scope of the present invention. included. The embodiments and modifications used in the description may be configured by appropriately combining them.

1 撮像装置、 16 第2撮像素子、
19 ボディ駆動制御装置、 19c マイコン、
19f 焦点検出演算部、 19h 追尾制御部、
23 接点、 191 テンプレート生成部、
192 演算部、 193 選択部、
194 検出部、 195 更新部、
196 設定部
1 imaging device, 16 second imaging element,
19 body drive control device, 19c microcomputer,
19f focus detection calculation unit, 19h tracking control unit,
23 contact points, 191 template generation unit,
192 calculation unit, 193 selection unit,
194 detector, 195 updater,
196 Setting section

Claims (14)

結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、
前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、
前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、
前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果を比較し、比較結果に基づいて前記演算結果を選択する選択部と、
前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の画像の位置を検出する検出部と、
前記選択部により連続して所定の回数、前記第2のテンプレート画像に対する演算結果が選択された場合に、前記選択部によって選択された演算結果に対する前記第2のテンプレート画像の画像情報を、前記第1のテンプレート画像として置換する更新部と、を備える画像追尾装置。
An imaging unit that repeatedly captures an image formed by the imaging optical system and generates an object scene image;
A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a tracking target region in the object scene image;
A computing unit for computing a correlation between an image in a search area provided in the scene image and each of the first and second template images;
A selection unit that compares the calculation results for each of the first and second template images by the calculation unit, and selects the calculation results based on the comparison results;
A detection unit that detects a position of an image to be tracked in the object scene image based on the calculation result selected by the selection unit;
When the calculation result for the second template image is selected a predetermined number of times continuously by the selection unit, the image information of the second template image for the calculation result selected by the selection unit is An image tracking device comprising: an updating unit that replaces the first template image.
結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、
前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、
前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、
前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果を比較し、比較結果に基づいて前記演算結果を選択する選択部と、
前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の画像の位置を検出する検出部と、を備え、
前記選択部は、連続して所定の回数、前記第2のテンプレート画像に対する演算結果を選択した場合には、前記第1のテンプレート画像に対する演算結果の選択を禁止する画像追尾装置。
An imaging unit that repeatedly captures an image formed by the imaging optical system and generates an object scene image;
A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a tracking target region in the object scene image;
A computing unit for computing a correlation between an image in a search area provided in the scene image and each of the first and second template images;
A selection unit that compares the calculation results for each of the first and second template images by the calculation unit, and selects the calculation results based on the comparison results;
A detection unit that detects a position of an image to be tracked in the object scene image based on the calculation result selected by the selection unit;
The image tracking device that prohibits selection of a calculation result for the first template image when the selection unit continuously selects a calculation result for the second template image a predetermined number of times.
結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、
前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、
前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、
前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果を比較し、比較結果に基づいて前記演算結果を選択する選択部と、
前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の画像の位置を検出する検出部と、を備え、
前記選択部により、連続して所定の回数、前記第2のテンプレート画像に対する演算結果が選択された場合、前記演算部は、次回以降に算出した前記第1のテンプレート画像の演算結果に対して、前記第1のテンプレート画像の演算結果が前記選択部によって選択されにくくさせるための補正を施す画像追尾装置。
An imaging unit that repeatedly captures an image formed by the imaging optical system and generates an object scene image;
A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a tracking target region in the object scene image;
A computing unit for computing a correlation between an image in a search area provided in the scene image and each of the first and second template images;
A selection unit that compares the calculation results for each of the first and second template images by the calculation unit, and selects the calculation results based on the comparison results;
A detection unit that detects a position of an image to be tracked in the object scene image based on the calculation result selected by the selection unit;
When the selection unit selects a calculation result for the second template image continuously a predetermined number of times, the calculation unit calculates the calculation result of the first template image calculated after the next time, An image tracking device that performs correction for making the calculation result of the first template image difficult to be selected by the selection unit.
結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、
前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、
前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、
前記被写界画像内で追尾対象が相対的に大きくなることを判定する判定部と、
前記判定部により前記追尾対象が相対的に大きくなると判定された場合には、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果のうち、前記第2のテンプレート画像に対する演算結果を優先して選択し、前記判定部により前記追尾対象が相対的に大きくなると判定されない場合には、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果を比較し、比較結果に基づいて前記演算結果を選択する選択部と
前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の画像の位置を検出する検出部と、を備える画像追尾装置。
An imaging unit that repeatedly captures an image formed by the imaging optical system and generates an object scene image;
A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a tracking target region in the object scene image;
A computing unit for computing a correlation between an image in a search area provided in the scene image and each of the first and second template images;
A determination unit that determines that the tracking target is relatively large in the object scene image;
When the determination unit determines that the tracking target is relatively large, out of the calculation results for the first and second template images by the calculation unit, the calculation results for the second template image If the determination unit does not determine that the tracking target is relatively large, the calculation unit compares the calculation result for each of the first and second template images, and compares the result. A selection unit for selecting the calculation result based on :
An image tracking device comprising: a detection unit that detects a position of an image to be tracked in the object scene image based on the calculation result selected by the selection unit.
請求項4に記載の画像追尾装置において、
前記結像光学系は、ズーミングレンズを含み、
前記判定部は、前記ズーミングレンズがズームアップされているときに前記追尾対象が相対的に大きくなることを判定する画像追尾装置。
The image tracking device according to claim 4,
The imaging optical system includes a zooming lens,
The determination unit is an image tracking device that determines that the tracking target is relatively large when the zooming lens is zoomed up.
請求項4に記載の画像追尾装置において、
前記結像光学系は、フォーカシングレンズを含み、
前記フォーカシングレンズのレンズ情報が被写体距離が近づいていることを示しているときに、前記追尾対象が相対的に大きくなることを判定する画像追尾装置。
The image tracking device according to claim 4,
The imaging optical system includes a focusing lens,
An image tracking device that determines that the tracking target is relatively large when lens information of the focusing lens indicates that the subject distance is approaching.
結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、
前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、
前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、
前記結像光学系の焦点状態を演算して、焦点調節を行う焦点調節部と、
前記焦点調節部による演算結果に基づいて、追尾対象が前記結像光学系の光軸方向に対して接近しているか否かを判定する判定部と、
前記判定部により前記追尾対象が接近していると判定された場合には、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果のうち、前記第2のテンプレート画像に対する演算結果を優先して選択し、前記判定部により前記追尾対象の接近が判定されない場合には、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果を比較し、比較結果に基づいて前記演算結果を選択する選択部と、
前記選択部により選択された前記演算結果に基づいて、前記被写界画像における前記追尾対象の画像の位置を検出する検出部と備える画像追尾装置。
An imaging unit that repeatedly captures an image formed by the imaging optical system and generates an object scene image;
A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a tracking target region in the object scene image;
A computing unit for computing a correlation between an image in a search area provided in the scene image and each of the first and second template images;
A focus adjustment unit that calculates a focus state of the imaging optical system and performs focus adjustment;
A determination unit that determines whether or not the tracking target is approaching the optical axis direction of the imaging optical system, based on a calculation result by the focus adjustment unit;
When the determination unit determines that the tracking target is approaching, the calculation result for the second template image among the calculation results for the first and second template images by the calculation unit If the approach of the tracking target is not determined by the determination unit, the calculation unit compares the calculation results for each of the first and second template images, and based on the comparison result A selection unit for selecting the calculation result;
An image tracking apparatus provided with the detection part which detects the position of the image of the said tracking object in the said scene image based on the said calculation result selected by the said selection part.
結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、
前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像の一部を拡大した第2のテンプレート画像とを生成する生成部と、
前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、
前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果を比較し、比較結果に基づいて前記演算結果を選択する選択部と、
前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の画像の位置を検出する検出部と、
前記検出部により検出された前記追尾対象の画像の位置に基づいて、新たな追尾対象領域を設定する設定部と、
前記新たな追尾対象領域内の画像情報と前記第2のテンプレート画像の画像情報とを所定の割合で合成して前記第2のテンプレート画像を更新する更新部と、を備え、
前記生成部は、前記第1のテンプレート画像が小さい場合に前記第1のテンプレート画像全体を拡大して前記第2のテンプレート画像を生成し、
前記更新部は、前記生成部により前記第1のテンプレート画像全体を拡大して前記第2のテンプレート画像が生成された場合には、前記新たな追尾対象領域内の画像情報と前記第2のテンプレート画像の画像情報との合成割合について前記新たな追尾対象領域内の画像情報の割合を高くする画像追尾装置。
An imaging unit that repeatedly captures an image formed by the imaging optical system and generates an object scene image;
A generating unit that generates a first template image and a second template image obtained by enlarging a part of the first template image based on a tracking target region in the object scene image;
A computing unit for computing a correlation between an image in a search area provided in the scene image and each of the first and second template images;
A selection unit that compares the calculation results for each of the first and second template images by the calculation unit, and selects the calculation results based on the comparison results;
A detection unit that detects a position of an image to be tracked in the object scene image based on the calculation result selected by the selection unit;
A setting unit for setting a new tracking target area based on the position of the tracking target image detected by the detection unit;
An update unit that combines the image information in the new tracking target area and the image information of the second template image at a predetermined ratio to update the second template image;
The generating unit generates the second template image by enlarging the entire first template image when the first template image is small;
When the generation unit generates the second template image by enlarging the entire first template image, the update unit generates image information in the new tracking target region and the second template. An image tracking device that increases a ratio of image information in the new tracking target area with respect to a composition ratio of the image with the image information.
請求項1、2、3、または8に記載の画像追尾装置において、
前記演算部は、前記探索領域内の画像と前記第1のテンプレート画像との差分を算出して第1の差分値を出力すると共に、前記探索領域内の画像と前記第2のテンプレート画像との差分を算出して第2の差分値を出力し、
前記選択部は、前記第1の差分値と前記第2の差分値との小さい方の差分値を選択する画像追尾装置。
The image tracking device according to claim 1, 2, 3, or 8.
The calculation unit calculates a difference between the image in the search area and the first template image and outputs a first difference value, and calculates the difference between the image in the search area and the second template image. Calculate the difference and output the second difference value,
The selection unit is an image tracking device that selects a smaller difference value between the first difference value and the second difference value.
結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、
前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、
前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、
前記演算部による前記第1及び第2のテンプレート画像のいずれかの演算結果を選択する選択部と、
前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の位置を検出する検出部と、
新たな被写界画像が生成されると、前記新たな被写界画像に基づき前記第1のテンプレート画像と前記第2のテンプレート画像を更新する更新部とを備え、
前記更新部は、前記選択部により連続して所定の回数、前記第2のテンプレート画像に対する演算結果が選択された場合に、前記選択部によって選択された演算結果に対する前記第2のテンプレート画像を、前記第1のテンプレート画像とする画像追尾装置。
An imaging unit that repeatedly captures an image formed by the imaging optical system and generates an object scene image;
A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a tracking target region in the object scene image;
A computing unit for computing a correlation between an image in a search area provided in the scene image and each of the first and second template images;
A selection unit for selecting any one of the calculation results of the first and second template images by the calculation unit;
A detection unit that detects a position of a tracking target in the object scene image based on the calculation result selected by the selection unit;
When a new scene image is generated, and a update unit for updating the second template image and the first template image based on the new scene image,
The update unit, when the calculation result for the second template image is selected a predetermined number of times continuously by the selection unit, the second template image for the calculation result selected by the selection unit, An image tracking device as the first template image.
結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、
前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、
前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、
前記演算部による前記第1及び第2のテンプレート画像のいずれかの演算結果を選択する選択部と、
前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の位置を検出する検出部と、
新たな被写界画像が生成されると、前記新たな被写界画像に基づき前記第1のテンプレート画像と前記第2のテンプレート画像を更新する更新部とを備え、
前記選択部は、連続して所定の回数、前記第2のテンプレート画像に対する演算結果を選択した場合には、前記第1のテンプレート画像に対する演算結果の選択を禁止する画像追尾装置。
An imaging unit that repeatedly captures an image formed by the imaging optical system and generates an object scene image;
A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a tracking target region in the object scene image;
A computing unit for computing a correlation between an image in a search area provided in the scene image and each of the first and second template images;
A selection unit for selecting any one of the calculation results of the first and second template images by the calculation unit;
A detection unit that detects a position of a tracking target in the object scene image based on the calculation result selected by the selection unit;
When a new scene image is generated, and a update unit for updating the second template image and the first template image based on the new scene image,
The image tracking device that prohibits selection of a calculation result for the first template image when the selection unit continuously selects a calculation result for the second template image a predetermined number of times.
結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、
前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、
前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、
前記演算部による前記第1及び第2のテンプレート画像のいずれかの演算結果を選択する選択部と、
前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の位置を検出する検出部と、
新たな被写界画像が生成されると、前記新たな被写界画像に基づき前記第1のテンプレート画像と前記第2のテンプレート画像を更新する更新部とを備え、
前記選択部により、連続して所定の回数、前記第2のテンプレート画像に対する演算結果が選択された場合、前記演算部は、次回以降に算出した前記第1のテンプレート画像の演算結果に対して、前記第1のテンプレート画像の演算結果が前記選択部によって選択されにくくさせるための補正を施す画像追尾装置。
An imaging unit that repeatedly captures an image formed by the imaging optical system and generates an object scene image;
A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a tracking target region in the object scene image;
A computing unit for computing a correlation between an image in a search area provided in the scene image and each of the first and second template images;
A selection unit for selecting any one of the calculation results of the first and second template images by the calculation unit;
A detection unit that detects a position of a tracking target in the object scene image based on the calculation result selected by the selection unit;
When a new scene image is generated, and a update unit for updating the second template image and the first template image based on the new scene image,
When the selection unit selects a calculation result for the second template image continuously a predetermined number of times, the calculation unit calculates the calculation result of the first template image calculated after the next time, An image tracking device that performs correction for making the calculation result of the first template image difficult to be selected by the selection unit.
結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、
前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、
前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、
前記被写界画像内で追尾対象が相対的に大きくなることを判定する判定部と、
新たな被写界画像が生成されると、前記新たな被写界画像に基づき前記第1のテンプレート画像と前記第2のテンプレート画像を更新する更新部と、
前記判定部により前記追尾対象が相対的に大きくなると判定された場合には、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果のうち、前記第2のテンプレート画像に対する演算結果を優先して選択し、前記判定部により前記追尾対象が相対的に大きくなると判定されない場合には、前記演算部による前記第1及び第2のテンプレート画像のいずれかの演算結果を選択する選択部と
前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の画像の位置を検出する検出部と、を備える画像追尾装置。
An imaging unit that repeatedly captures an image formed by the imaging optical system and generates an object scene image;
A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a tracking target region in the object scene image;
A computing unit for computing a correlation between an image in a search area provided in the scene image and each of the first and second template images;
A determination unit that determines that the tracking target is relatively large in the object scene image;
When a new scene image is generated, an update unit for updating the second template image and the first template image based on the new scene image,
When the determination unit determines that the tracking target is relatively large, out of the calculation results for the first and second template images by the calculation unit, the calculation results for the second template image A selection unit that selects one of the calculation results of the first and second template images by the calculation unit when the determination unit does not determine that the tracking target is relatively large. and,
An image tracking device comprising: a detection unit that detects a position of an image to be tracked in the object scene image based on the calculation result selected by the selection unit.
結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、
前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、
前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、
新たな被写界画像が生成されると、前記新たな被写界画像に基づき前記第1のテンプレート画像と前記第2のテンプレート画像を更新する更新部と、
前記結像光学系の焦点状態を演算して、焦点調節を行う焦点調節部と、
前記焦点調節部による演算結果に基づいて、追尾対象が前記結像光学系の光軸方向に対して接近しているか否かを判定する判定部と、
前記判定部により前記追尾対象が接近していると判定された場合には、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果のうち、前記第2のテンプレート画像に対する演算結果を優先して選択し、前記判定部により前記追尾対象の接近が判定されない場合には、前記演算部による前記第1及び第2のテンプレート画像のいずれかの演算結果を選択する選択部と、
前記選択部により選択された前記演算結果に基づいて、前記被写界画像における前記追尾対象の位置を検出する検出部と備える画像追尾装置。
An imaging unit that repeatedly captures an image formed by the imaging optical system and generates an object scene image;
A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a tracking target region in the object scene image;
A computing unit for computing a correlation between an image in a search area provided in the scene image and each of the first and second template images;
When a new scene image is generated, an update unit for updating the second template image and the first template image based on the new scene image,
A focus adjustment unit that calculates a focus state of the imaging optical system and performs focus adjustment;
A determination unit that determines whether or not the tracking target is approaching the optical axis direction of the imaging optical system, based on a calculation result by the focus adjustment unit;
When the determination unit determines that the tracking target is approaching, the calculation result for the second template image among the calculation results for the first and second template images by the calculation unit When the determination unit does not determine the approach of the tracking target, a selection unit that selects one of the calculation results of the first and second template images by the calculation unit;
An image tracking device provided with the detection part which detects the position of the said tracking object in the said scene image based on the said calculation result selected by the said selection part.
JP2011052711A 2011-03-10 2011-03-10 Image tracking device Active JP5966249B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011052711A JP5966249B2 (en) 2011-03-10 2011-03-10 Image tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011052711A JP5966249B2 (en) 2011-03-10 2011-03-10 Image tracking device

Publications (2)

Publication Number Publication Date
JP2012191399A JP2012191399A (en) 2012-10-04
JP5966249B2 true JP5966249B2 (en) 2016-08-10

Family

ID=47084091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011052711A Active JP5966249B2 (en) 2011-03-10 2011-03-10 Image tracking device

Country Status (1)

Country Link
JP (1) JP5966249B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9811731B2 (en) * 2013-10-04 2017-11-07 Qualcomm Incorporated Dynamic extension of map data for object detection and tracking

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3475026B2 (en) * 1996-10-24 2003-12-08 富士通株式会社 Shape tracking method and apparatus
JP2001243476A (en) * 2000-03-02 2001-09-07 Mitsubishi Heavy Ind Ltd Method and device for monitoring moving body
JP2007072665A (en) * 2005-09-06 2007-03-22 Fujitsu Ten Ltd Object discrimination device, object discrimination method and object discrimination program
JP2007334810A (en) * 2006-06-19 2007-12-27 Toshiba Corp Image area tracking device and method therefor
WO2008114683A1 (en) * 2007-03-16 2008-09-25 Nikon Corporation Object tracking computer program product, object tracking device, and camera
JP5157256B2 (en) * 2007-05-28 2013-03-06 株式会社ニコン Image tracking device and imaging device
JP4872834B2 (en) * 2007-07-04 2012-02-08 株式会社ニコン Image recognition device, focus adjustment device, and imaging device
JP5181781B2 (en) * 2008-03-31 2013-04-10 富士通株式会社 Image tracking device, image tracking method, and image tracking program
JP5247419B2 (en) * 2008-12-26 2013-07-24 キヤノン株式会社 Imaging apparatus and subject tracking method

Also Published As

Publication number Publication date
JP2012191399A (en) 2012-10-04

Similar Documents

Publication Publication Date Title
JP4872834B2 (en) Image recognition device, focus adjustment device, and imaging device
JP5247076B2 (en) Image tracking device, focus adjustment device, and imaging device
JP5176483B2 (en) Image recognition device, image tracking device, and imaging device
JP5157256B2 (en) Image tracking device and imaging device
JP2009015117A (en) Focusing device and image pickup apparatus
JP2009109839A (en) Image tracking device and imaging device
JP5879736B2 (en) Image tracking device and imaging device
JP5403111B2 (en) Image tracking device
JP5056136B2 (en) Image tracking device
JP4888249B2 (en) Focus detection apparatus and imaging apparatus
JP4985155B2 (en) Focus adjustment device and imaging device
JP5966249B2 (en) Image tracking device
JP2010200138A (en) Photographic subject tracking device
JP5541396B2 (en) Image tracking device
JP5018932B2 (en) Imaging device
JP5176845B2 (en) Image tracking device and imaging device
JP5446660B2 (en) Image recognition apparatus and imaging apparatus
JP5447579B2 (en) Tracking device, focus adjustment device, and photographing device
JP5233646B2 (en) Image tracking device, imaging device, and image tracking method
JP5789937B2 (en) Image tracking device and imaging device
JP5347834B2 (en) Image tracking device
JP2010054586A (en) Focusing device and imaging apparatus
JP2012093775A (en) Focus detector and imaging apparatus
JP5772933B2 (en) Imaging device
JP2018063439A (en) Focus adjustment device and imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160620

R150 Certificate of patent or registration of utility model

Ref document number: 5966249

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250