JP5966249B2 - Image tracking device - Google Patents
Image tracking device Download PDFInfo
- Publication number
- JP5966249B2 JP5966249B2 JP2011052711A JP2011052711A JP5966249B2 JP 5966249 B2 JP5966249 B2 JP 5966249B2 JP 2011052711 A JP2011052711 A JP 2011052711A JP 2011052711 A JP2011052711 A JP 2011052711A JP 5966249 B2 JP5966249 B2 JP 5966249B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- template
- template image
- calculation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 90
- 238000003384 imaging method Methods 0.000 claims description 65
- 230000003287 optical effect Effects 0.000 claims description 51
- 238000013459 approach Methods 0.000 claims description 7
- 238000012937 correction Methods 0.000 claims description 4
- 238000000034 method Methods 0.000 description 47
- 230000008569 process Effects 0.000 description 38
- 238000012545 processing Methods 0.000 description 24
- 230000006870 function Effects 0.000 description 9
- 230000008859 change Effects 0.000 description 4
- 230000000903 blocking effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000011514 reflex Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005375 photometry Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Description
本発明は、画像追尾装置に関する。 The present invention relates to an image tracking device.
従来から、移動被写体を撮影する際に、画面内の指示部分の被写体像をテンプレート画像として取得し、繰り返し撮影する画像の中でテンプレート画像と類似した被写体像の位置を検索(テンプレートマッチング)し、画面内を横方向へ移動する被写体を追尾する画像追尾装置が知られている。たとえば特許文献1では、複数のテンプレート画像を用いてテンプレートマッチングを行うことによって、追尾精度を向上させる技術が開示されている。
Conventionally, when shooting a moving subject, the subject image of the indicated portion in the screen is acquired as a template image, and the position of the subject image similar to the template image is searched (template matching) among images repeatedly shot, 2. Description of the Related Art An image tracking device that tracks a subject that moves in a horizontal direction within a screen is known. For example,
しかしながら、相対的に接近する移動被写体の画像上でのサイズは大きくなるので、テンプレート画像と類似した被写体像の検出精度が低下して、被写体を追尾できなくなるという問題がある。 However, since the size of the relatively close moving subject on the image increases, there is a problem that the detection accuracy of the subject image similar to the template image is lowered and the subject cannot be tracked.
請求項1に記載の発明による画像追尾装置は、結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果を比較し、比較結果に基づいて前記演算結果を選択する選択部と、前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の画像の位置を検出する検出部と、前記選択部により連続して所定の回数、前記第2のテンプレート画像に対する演算結果が選択された場合に、前記選択部によって選択された演算結果に対する前記第2のテンプレート画像の画像情報を、前記第1のテンプレート画像として置換する更新部と、を備える。
請求項2に記載の発明による画像追尾装置は、結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果を比較し、比較結果に基づいて前記演算結果を選択する選択部と、前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の画像の位置を検出する検出部と、を備え、前記選択部は、連続して所定の回数、前記第2のテンプレート画像に対する演算結果を選択した場合には、前記第1のテンプレート画像に対する演算結果の選択を禁止する。
請求項3に記載の発明による画像追尾装置は、結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果を比較し、比較結果に基づいて前記演算結果を選択する選択部と、前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の画像の位置を検出する検出部と、を備え、前記選択部により、連続して所定の回数、前記第2のテンプレート画像に対する演算結果が選択された場合、前記演算部は、次回以降に算出した前記第1のテンプレート画像の演算結果に対して、前記第1のテンプレート画像の演算結果が前記選択部によって選択されにくくさせるための補正を施す。
請求項4に記載の発明による画像追尾装置は、結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、前記被写界画像内で追尾対象が相対的に大きくなることを判定する判定部と、前記判定部により前記追尾対象が相対的に大きくなると判定された場合には、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果のうち、前記第2のテンプレート画像に対する演算結果を優先して選択し、前記判定部により前記追尾対象が相対的に大きくなると判定されない場合には、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果を比較し、比較結果に基づいて前記演算結果を選択する選択部と、前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の画像の位置を検出する検出部と、を備える。
請求項7に記載の発明による画像追尾装置は、結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、前記結像光学系の焦点状態を演算して、焦点調節を行う焦点調節部と、前記焦点調節部による演算結果に基づいて、追尾対象が前記結像光学系の光軸方向に対して接近しているか否かを判定する判定部と、前記判定部により前記追尾対象が接近していると判定された場合には、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果のうち、前記第2のテンプレート画像に対する演算結果を優先して選択し、前記判定部により前記追尾対象の接近が判定されない場合には、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果を比較し、比較結果に基づいて前記演算結果を選択する選択部と、前記選択部により選択された前記演算結果に基づいて、前記被写界画像における前記追尾対象の画像の位置を検出する検出部と備える。
請求項8に記載の発明による画像追尾装置は、結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像の一部を拡大した第2のテンプレート画像とを生成する生成部と、前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果を比較し、比較結果に基づいて前記演算結果を選択する選択部と、前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の画像の位置を検出する検出部と、前記検出部により検出された前記追尾対象の画像の位置に基づいて、新たな追尾対象領域を設定する設定部と、前記新たな追尾対象領域内の画像情報と前記第2のテンプレート画像の画像情報とを所定の割合で合成して前記第2のテンプレート画像を更新する更新部と、を備え、前記生成部は、前記第1のテンプレート画像が小さい場合に前記第1のテンプレート画像全体を拡大して前記第2のテンプレート画像を生成し、前記更新部は、前記生成部により前記第1のテンプレート画像全体を拡大して前記第2のテンプレート画像が生成された場合には、前記新たな追尾対象領域内の画像情報と前記第2のテンプレート画像の画像情報との合成割合について前記新たな追尾対象領域内の画像情報の割合を高くする。
請求項10に記載の発明による画像追尾装置は、結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、前記演算部による前記第1及び第2のテンプレート画像のいずれかの演算結果を選択する選択部と、前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の位置を検出する検出部と、新たな被写界画像が生成されると、前記新たな被写界画像に基づき前記第1のテンプレート画像と前記第2のテンプレート画像を更新する更新部とを備え、前記更新部は、前記選択部により連続して所定の回数、前記第2のテンプレート画像に対する演算結果が選択された場合に、前記選択部によって選択された演算結果に対する前記第2のテンプレート画像を、前記第1のテンプレート画像とする。
請求項11に記載の発明による画像追尾装置は、結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、前記演算部による前記第1及び第2のテンプレート画像のいずれかの演算結果を選択する選択部と、前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の位置を検出する検出部と、新たな被写界画像が生成されると、前記新たな被写界画像に基づき前記第1のテンプレート画像と前記第2のテンプレート画像を更新する更新部とを備え、前記選択部は、連続して所定の回数、前記第2のテンプレート画像に対する演算結果を選択した場合には、前記第1のテンプレート画像に対する演算結果の選択を禁止する。
請求項12に記載の発明による画像追尾装置は、結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、前記演算部による前記第1及び第2のテンプレート画像のいずれかの演算結果を選択する選択部と、前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の位置を検出する検出部と、新たな被写界画像が生成されると、前記新たな被写界画像に基づき前記第1のテンプレート画像と前記第2のテンプレート画像を更新する更新部とを備え、前記選択部により、連続して所定の回数、前記第2のテンプレート画像に対する演算結果が選択された場合、前記演算部は、次回以降に算出した前記第1のテンプレート画像の演算結果に対して、前記第1のテンプレート画像の演算結果が前記選択部によって選択されにくくさせるための補正を施す。
請求項13に記載の発明による画像追尾装置は、結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、前記被写界画像内で追尾対象が相対的に大きくなることを判定する判定部と、新たな被写界画像が生成されると、前記新たな被写界画像に基づき前記第1のテンプレート画像と前記第2のテンプレート画像を更新する更新部と、前記判定部により前記追尾対象が相対的に大きくなると判定された場合には、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果のうち、前記第2のテンプレート画像に対する演算結果を優先して選択し、前記判定部により前記追尾対象が相対的に大きくなると判定されない場合には、前記演算部による前記第1及び第2のテンプレート画像のいずれかの演算結果を選択する選択部と、前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の画像の位置を検出する検出部と、を備える。
請求項14に記載の発明による画像追尾装置は、結像光学系により結像される像を繰り返し撮像して、被写界画像を生成する撮像部と、前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、新たな被写界画像が生成されると、前記新たな被写界画像に基づき前記第1のテンプレート画像と前記第2のテンプレート画像を更新する更新部と、前記結像光学系の焦点状態を演算して、焦点調節を行う焦点調節部と、前記焦点調節部による演算結果に基づいて、追尾対象が前記結像光学系の光軸方向に対して接近しているか否かを判定する判定部と、前記判定部により前記追尾対象が接近していると判定された場合には、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果のうち、前記第2のテンプレート画像に対する演算結果を優先して選択し、前記判定部により前記追尾対象の接近が判定されない場合には、前記演算部による前記第1及び第2のテンプレート画像のいずれかの演算結果を選択する選択部と、前記選択部により選択された前記演算結果に基づいて、前記被写界画像における前記追尾対象の位置を検出する検出部と備える。
An image tracking device according to a first aspect of the present invention includes an imaging unit that repeatedly captures an image formed by an imaging optical system to generate a scene image, and a tracking target in the scene image A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a region; an image in a search region provided in the object scene image; A calculation unit that calculates a correlation between each of the first and second template images and a calculation result for each of the first and second template images by the calculation unit are compared, and based on the comparison result, A selection unit that selects a calculation result, a detection unit that detects a position of an image to be tracked in the object scene image based on the calculation result selected by the selection unit, and a predetermined value continuously by the selection unit An update unit that replaces image information of the second template image for the calculation result selected by the selection unit as the first template image when the calculation result for the second template image is selected a number of times. And comprising.
An image tracking device according to a second aspect of the present invention includes an imaging unit that repeatedly captures an image formed by an imaging optical system to generate a scene image, and a tracking target in the scene image A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a region; an image in a search region provided in the object scene image; A calculation unit that calculates a correlation between each of the first and second template images and a calculation result for each of the first and second template images by the calculation unit are compared, and based on the comparison result, A selection unit that selects a calculation result; and a detection unit that detects a position of an image to be tracked in the object scene image based on the calculation result selected by the selection unit. Continuously Predetermined number of times, if you select the calculation result for the second template image, inhibits selection of the operation result for the first template image.
According to a third aspect of the present invention, there is provided an image tracking device that repeatedly captures an image formed by an imaging optical system to generate a scene image, and a tracking target in the scene image. A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a region; an image in a search region provided in the object scene image; A calculation unit that calculates a correlation between each of the first and second template images and a calculation result for each of the first and second template images by the calculation unit are compared, and based on the comparison result, A selection unit that selects a calculation result; and a detection unit that detects a position of an image to be tracked in the object scene image based on the calculation result selected by the selection unit. Communicating When a calculation result for the second template image is selected a predetermined number of times, the calculation unit calculates the first template image for the calculation result of the first template image calculated after the next time. The correction is made to make it difficult for the selection result to be selected by the selection unit.
According to a fourth aspect of the present invention, there is provided an image tracking device that repeatedly captures an image formed by an imaging optical system to generate a scene image, and a tracking target in the scene image. A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a region; an image in a search region provided in the object scene image; The calculation unit that calculates the correlation between each of the first and second template images, the determination unit that determines that the tracking target is relatively large in the object scene image, and the determination unit that If it is determined that the tracking target is relatively large, the calculation result for the second template image is given priority among the calculation results for the first and second template images by the calculation unit. If the determination unit does not determine that the tracking target is relatively large, the calculation unit compares the calculation results for the first and second template images, and based on the comparison result, A selection unit that selects a calculation result; and a detection unit that detects a position of an image to be tracked in the object scene image based on the calculation result selected by the selection unit .
An image tracking device according to a seventh aspect of the present invention includes an imaging unit that repeatedly captures an image formed by an imaging optical system to generate a field image, and a tracking target in the field image A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a region; an image in a search region provided in the object scene image; A calculation unit that calculates a correlation between each of the first and second template images, a focus adjustment unit that calculates a focus state of the imaging optical system and performs focus adjustment, and a calculation performed by the focus adjustment unit Based on the result, a determination unit that determines whether or not the tracking target is approaching the optical axis direction of the imaging optical system, and the determination unit that determines that the tracking target is approaching The first and second by the arithmetic unit The calculation result for the second template image is preferentially selected from the calculation results for each of the two template images, and when the approach of the tracking target is not determined by the determination unit, the calculation unit by the calculation unit A selection unit that compares the calculation results for each of the first and second template images and selects the calculation result based on the comparison result, and the scene image based on the calculation result selected by the selection unit And a detection unit for detecting the position of the image to be tracked.
An image tracking device according to an eighth aspect of the present invention includes an imaging unit that repeatedly captures an image formed by an imaging optical system to generate a field image, and a tracking target in the field image A generating unit that generates a first template image and a second template image obtained by enlarging a part of the first template image based on a region; and an image in a search region provided in the object scene image And a calculation unit that calculates a correlation between each of the first and second template images, and a calculation result for each of the first and second template images by the calculation unit, A selection unit that selects the calculation result based on the detection result, a detection unit that detects a position of an image to be tracked in the scene image based on the calculation result selected by the selection unit, and a detection unit that detects the detection result. The Based on the position of the tracking target image, a setting unit that sets a new tracking target area, image information in the new tracking target area, and image information of the second template image at a predetermined ratio. An update unit that combines and updates the second template image, and the generation unit enlarges the entire first template image when the first template image is small, and When the generation unit generates the second template image by enlarging the entire first template image, the update unit generates image information in the new tracking target area, The ratio of the image information in the new tracking target area is increased with respect to the composition ratio with the image information of the second template image.
An image tracking device according to a tenth aspect of the present invention includes an imaging unit that repeatedly captures an image formed by an imaging optical system to generate a scene image, and a tracking target in the scene image A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a region ; an image in a search region provided in the object scene image; A calculation unit that calculates a correlation between each of the first and second template images, a selection unit that selects a calculation result of one of the first and second template images by the calculation unit, and the selection A detection unit for detecting a position of a tracking target in the scene image based on the calculation result selected by the unit, and when a new scene image is generated, based on the new scene image The first template A update unit for updating a preparative image the second template image, the update unit, a predetermined number of consecutive by the selection unit, when the calculation result is selected for said second template image, The second template image for the calculation result selected by the selection unit is set as the first template image.
An image tracking device according to an eleventh aspect of the present invention is directed to an imaging unit that repeatedly captures an image formed by an imaging optical system to generate a scene image, and a tracking target in the scene image A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a region ; an image in a search region provided in the object scene image; A calculation unit that calculates a correlation between each of the first and second template images, a selection unit that selects a calculation result of one of the first and second template images by the calculation unit, and the selection A detection unit for detecting a position of a tracking target in the scene image based on the calculation result selected by the unit, and when a new scene image is generated, based on the new scene image The first template A update unit for updating a preparative image the second template image, the selecting unit, a predetermined number of times in succession, if you select the calculation result for the second template image is the first Selection of calculation results for template images is prohibited.
An image tracking device according to a twelfth aspect of the present invention includes an imaging unit that repeatedly captures an image formed by an imaging optical system to generate a field image, and a tracking target in the field image A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a region ; an image in a search region provided in the object scene image; A calculation unit that calculates a correlation between each of the first and second template images, a selection unit that selects a calculation result of one of the first and second template images by the calculation unit, and the selection A detection unit for detecting a position of a tracking target in the scene image based on the calculation result selected by the unit, and when a new scene image is generated, based on the new scene image The first template A update unit for updating a preparative image the second template image, by the selection unit, when a predetermined number of times in succession, the operation result to the second template image is selected, the arithmetic unit, The calculation result of the first template image calculated after the next time is corrected to make it difficult for the selection unit to select the calculation result of the first template image.
An image tracking device according to a thirteenth aspect of the present invention is an image tracking device that repeatedly captures an image formed by an imaging optical system to generate a field image, and a tracking target in the field image A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a region ; an image in a search region provided in the object scene image; A calculation unit that calculates a correlation between each of the first and second template images, a determination unit that determines that the tracking target is relatively large in the scene image, and a new scene When an image is generated, an update unit for updating the second template image and the first template image based on the new scene image, and the tracking target by the determination unit is relatively large judging If The calculation result for the second template image is preferentially selected from the calculation results for the first and second template images by the calculation unit, and the tracking target becomes relatively large by the determination unit. If not determined, a selection unit that selects one of the calculation results of the first and second template images by the calculation unit, and the object scene based on the calculation result selected by the selection unit A detection unit that detects a position of the image to be tracked in the image .
An image tracking device according to a fourteenth aspect of the present invention is an image tracking device that repeatedly captures an image formed by an imaging optical system to generate a field image, and a tracking target in the field image A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a region ; an image in a search region provided in the object scene image; A calculation unit that calculates a correlation between each of the first and second template images, and when a new scene image is generated, the first template image based on the new scene image An update unit that updates the second template image , a focus adjustment unit that calculates a focus state of the imaging optical system and performs focus adjustment, and a tracking target is based on a calculation result by the focus adjustment unit. In the optical axis direction of the imaging optical system A determination unit that determines whether or not the tracking target is approaching, and each of the first and second template images by the calculation unit when the determination unit determines that the tracking target is approaching If the calculation result for the second template image is preferentially selected from the calculation results for and the approach of the tracking target is not determined by the determination unit, the first and second templates by the calculation unit A selection unit that selects any calculation result of the image; and a detection unit that detects a position of the tracking target in the object scene image based on the calculation result selected by the selection unit.
本発明によれば、追尾対象領域に含まれる画像領域を拡大した第1テンプレート画像を少なくとも1つ含む複数のテンプレート画像の演算結果に基づいて、追尾対象の画像の位置を検出できる。 According to the present invention, the position of a tracking target image can be detected based on the calculation result of a plurality of template images including at least one first template image obtained by enlarging an image region included in the tracking target region.
撮影画面内に設定された複数の焦点検出エリアにおいて撮影レンズの焦点調節状態(この一実施の形態ではデフォーカス量)を検出し、いずれかのエリアのデフォーカス量に基づいて撮影レンズを合焦駆動する自動焦点調節(AF)機能と、撮影画像の中の追尾対象の被写体の画像をテンプレート画像(基準画像)として記憶し、繰り返し撮像される画像の中でテンプレート画像と同一または類似した画像の位置を検索しながら(テンプレートマッチング)追尾対象の被写体を追尾する画像追尾機能とを備え、AF機能と画像追尾機能により撮影レンズを駆動しながら追尾対象を追尾する画像追尾装置を備えた撮像装置(一眼レフデジタルスチルカメラ)の一実施の形態を説明する。 The focus adjustment state of the photographic lens (in this embodiment, the defocus amount) is detected in a plurality of focus detection areas set in the photographic screen, and the photographic lens is focused based on the defocus amount in one of the areas. The automatic focus adjustment (AF) function to be driven and the image of the subject to be tracked in the photographed image are stored as a template image (reference image). An image pickup apparatus having an image tracking function for tracking a subject to be tracked while searching for a position (template matching), and an image tracking device for tracking the tracking target while driving a photographing lens with the AF function and the image tracking function ( An embodiment of a single lens reflex digital still camera) will be described.
図1は、一実施の形態の画像追尾装置を備えた撮像装置(一眼レフデジタルスチルカメラ)1の構成を示す。なお、図1では画像追尾機能とは直接関係のないカメラの機器および回路についての図示と説明を省略する。一実施の形態のカメラ1では、撮影レンズ8、絞り21等を有する交換レンズ3がカメラ本体2に着脱可能に装着される。カメラ本体2には被写界像を撮像して画像を記録するための第1撮像素子4が設けられる。この第1撮像素子4はCCDやCMOSなどにより構成することができる。撮影時にはクイックリターンミラー5およびサブミラー6が実線で示す撮影光路外の位置に退避してシャッター7が開放され、撮影レンズ8により第1撮像素子4の受光面に被写体像が結像される。
FIG. 1 shows a configuration of an imaging apparatus (single-lens reflex digital still camera) 1 including an image tracking apparatus according to an embodiment. In FIG. 1, illustration and description of camera devices and circuits that are not directly related to the image tracking function are omitted. In the
カメラ本体2の底部には、撮影レンズ8の焦点調節状態を検出するための焦点検出光学系9と測距素子10が設けられている。この一実施の形態では、瞳分割型位相差検出方式による焦点検出方法を採用した例を示す。焦点検出光学系9は、撮影レンズ8を通過した対の焦点検出用光束を測距素子10の受光面へ導き、対の光像を結像させる。測距素子10は例えば対のCCDラインセンサーを備え、対の光像に応じた焦点検出信号を出力する。撮影前にはクイックリターンミラー5およびサブミラー6が破線で示すような撮影光路内の位置に設定されており、撮影レンズ8からの対の焦点検出用光束はクイックリターンミラー5のハーフミラー部を透過し、サブミラー6により反射されて焦点検出光学系9および測距素子10へ導かれる。
At the bottom of the
カメラ本体2の上部にはファインダー光学系が設けられている。撮影前にはクイックリターンミラー5およびサブミラー6が破線で示す位置にあり、撮影レンズ8からの被写体光の一部はクイックリターンミラー5に反射されて焦点板11へ導かれ、焦点板11上に被写体像が結像する。液晶表示素子12は、焦点板11上に結像された被写界像に焦点検出エリアマークなどの情報を重畳表示するとともに、被写界像外の位置に露出値などの種々の撮影情報を表示する。焦点板11上の被写界像はペンタダハプリズム13および接眼レンズ14を介して接眼窓15へ導かれ、撮影者が被写界像を視認することができる。
A finder optical system is provided on the upper part of the
また、カメラ本体2上部のファインダー光学系には、被写体追尾や測光のために被写界像を撮像する第2撮像素子16が設けられる。焦点板11に結像した被写界像は、ペンタダハプリズム13、プリズム17および結像レンズ18を介して第2撮像素子16の受光面に再結像される。
The finder optical system at the top of the
図4(a)は第2撮像素子16の詳細な構成を示す正面図である。図4(a)においては水平方向をx軸、垂直方向をy軸とする座標系を用いる。第2撮像素子16は、マトリクス状に配列された複数の画素(光電変換素子)40(たとえば、横640個×縦480個の画素)を備えている。なお、図4(a)においては、図示の都合上、画素40の個数は上記横640個×縦480個よりも少ない個数で示している。さらに、各画素40にはそれぞれ赤R、緑G、青Bの原色フィルターが設けられている。これにより、各画素40ごとに被写界画像のRGB信号(被写界画像信号)を後述するボディ駆動制御装置19(図2)に出力することができる。詳細を後述するが、この第2撮像素子16により撮像された被写界画像信号に基づいて、ボディ駆動制御装置19によって追尾制御と露出演算とが行われる。なお、ボディ駆動制御装置19は、追尾制御と露出演算は第1撮像素子4による撮像により出力された被写界画像信号に基づいて行うこととしてもよい。
FIG. 4A is a front view showing a detailed configuration of the
カメラ本体2にはまた、ボディ駆動制御装置19、操作部材20などが設けられる。ボディ駆動制御装置19は、詳細を後述するマイクロコンピューターとメモリ、A/D変換器などの周辺部品から構成され、カメラ1の種々の制御と演算を行う。操作部材20には、レリーズボタン、焦点検出エリア選択スイッチ、撮影モード選択スイッチなどのカメラ1を操作するためのスイッチやセレクターが含まれる。
The
交換レンズ3には、ズーミングレンズ8a、フォーカシングレンズ8b、絞り21、レンズ駆動制御装置22などが設けられる。なお、この一実施の形態では撮影レンズ8をズーミングレンズ8a、フォーカシングレンズ8bおよび絞り21で代表的に表すが、撮影レンズ8の構成は図1に示す構成に限定されない。レンズ駆動制御装置22は図示しないマイクロコンピューターとメモリ、駆動回路、アクチュエーターなどの周辺部品から構成され、レンズ8a、8bおよび絞り21の駆動制御とそれらの位置検出を行う。レンズ駆動制御装置22に内蔵されるメモリには、交換レンズ3の焦点距離や開放絞り値などのレンズ情報が記憶されている。
The
ボディ駆動制御装置19とレンズ駆動制御装置22はレンズマウント部の接点23を介して通信を行う。この通信によって、ボディ駆動制御装置19はレンズ駆動制御装置22へレンズ駆動量や絞り値などの情報を送信し、レンズ駆動制御装置22はボディ駆動制御装置19へレンズ情報や絞り情報を送信する。
The body
図2はボディ駆動制御装置19の詳細な構成を示す。なお、画像追尾機能とは直接関係のない制御機能については図示と説明を省略する。ボディ駆動制御装置19は素子制御回路19a、A/D変換器19b、マイクロコンピューター19c、メモリ19dなどを備えている。素子制御回路19aは第2撮像素子16の電荷の蓄積と読み出しを制御する。A/D変換器19bは、第2撮像素子16から出力されるアナログ画像信号をデジタル画像信号に変換する。撮影者により操作部材20のレリーズボタンが半押しされると半押しスイッチ(不図示)がオンし、図1に示すように、撮影レンズ8を通過した被写体光の一部は破線で示すクイックリターンミラー5により反射され、ペンタダハプリズム13、プリズム17および結像レンズ18を介して第2撮像素子16へ導かれる。レリーズボタンが半押しされている間、第2撮像素子16により繰り返し周期的に被写界画像を撮像することができる。
FIG. 2 shows a detailed configuration of the body
マイクロコンピューター19cは、ソフトウエア形態により露出制御部19e、焦点検出演算部19f、レンズ駆動量演算部19gおよび追尾制御部19hを構成する。メモリ19dは、画像追尾用のテンプレート画像やデフォーカス量などの情報、撮影レンズ8の焦点距離、開放F値、絞り値、像ズレ量からデフォーカス量への変換係数などのレンズ情報などを記憶する。
The
露出制御部19eは、第2撮像素子16により撮像した画像信号に基づいて露出値を演算する。焦点検出演算部19fは、測距素子10から出力される対の光像に応じた焦点検出信号に基づいて撮影レンズ8の焦点調節状態、ここではデフォーカス量を検出する。なお、詳細を後述するが、撮影レンズ8の撮影画面内には複数の焦点検出エリアが設定されており、測距素子10は焦点検出エリアごとに対の光像に応じた焦点検出信号を出力し、焦点検出演算部19fは焦点検出エリアごとに対の光像に応じた焦点検出信号に基づいてデフォーカス量を検出する。撮影者により操作部材20のレリーズボタンが半押しされると半押しスイッチ(不図示)がオンし、図1に示すように、撮影レンズ8を通過した被写体光の一部は破線で示すクイックリターンミラー5のハーフミラー部を通ってサブミラー6および焦点検出光学系9を介して測距素子10へ導かれ、焦点検出演算部19fにより焦点検出演算が行われる。レンズ駆動量演算部19gは検出されたデフォーカス量をレンズ駆動量に変換する。なお、焦点調節状態の検出は、レリーズボタンが半押しされている間、繰り返し周期的に行われる。
The
追尾制御部19hは、画像追尾動作(処理)を行う。すなわち、追尾制御部19hは、第2撮像素子16により撮像した被写界像の内、撮影者が手動で指定した追尾対象位置、あるいはカメラ1が自動で設定した追尾対象位置に対応する画像をテンプレート画像(基準画像)としてメモリ19dに記憶させる。そして、追尾制御部19hは、撮影周期ごとに第2撮像素子16により繰り返し撮影される被写界画像の中からテンプレート画像と一致または類似する画像領域を検索することによって対象の位置を認識する。
The
図3に示すように、追尾制御部19hは、画像追尾処理を行うために、テンプレート生成部191、演算部192、選択部193、検出部194、更新部195および設定部196を機能的に備える。テンプレート生成部191は、第2撮像素子16から出力された被写界画像信号を用いて、テンプレート画像を生成してメモリ19dに記憶させる。演算部192は、撮影周期ごとに繰り返し撮影される被写界画像とテンプレート画像との間で相関関係を演算する。選択部193は、演算部192による演算結果のうち、テンプレート画像との相関関係が最も高いことを示す演算結果を選択する。検出部194は、選択部193により選択された演算結果に基づいて、被写界画像の中からテンプレート画像と一致または類似する画像領域を検出(検索)する。更新部195は、テンプレート生成部191により生成されたテンプレート画像の更新処理を行う。設定部196はテンプレート画像と一致または類似する画像領域を検出するための探索領域を被写界画像内に設定するとともに、検出された一致または類似する画像領域を後述する追尾対象領域として設定する。なお、テンプレート生成部191、演算部192、選択部193、検出部194、更新部195および設定部196による処理の詳細については、説明を後述する。
As shown in FIG. 3, the
次に、一実施の形態の画像追尾動作を説明する。図5〜図9は一実施の形態の画像追尾動作を説明するための図、図10〜図12は一実施の形態の画像追尾処理を示すフローチャートである。ボディ駆動制御装置19は、第2撮像素子16により撮像した被写体画像のうち、ユーザが手動で追尾対象とする被写体(以後、追尾対象被写体)を指定するか、あるいはカメラが自動で追尾対象被写体を設定した後、操作部材20のレリーズボタンを半押しすると、被写体追尾処理を開始する。なお、以降の説明では、図5〜図9において水平方向をx軸、垂直方向をy軸とする座標系を用いる。
Next, an image tracking operation according to an embodiment will be described. 5 to 9 are diagrams for explaining the image tracking operation according to the embodiment, and FIGS. 10 to 12 are flowcharts illustrating the image tracking process according to the embodiment. In the body
レリーズボタンを全押しして撮影を行うとき以外は、クイックリターンミラー5が図1に破線で示す撮影光路内に設定されており、撮影レンズ8から入射した被写体光の一部は焦点板11上に結像される。そして、焦点板11上の被写界像はペンタダハプリズム13、プリズム17および結像レンズ18を介して第2撮像素子16へ導かれ、第2撮像素子16から被写界画像信号が繰り返し出力される。
The
撮影レンズ8の撮影画面には複数の焦点検出エリアが設定されており、液晶表示素子12は焦点板11上の被写界像にエリアマークを重畳して、各焦点検出エリアの位置を表示する。この一実施の形態では、図5に示すように、撮影画面内の7カ所に焦点検出エリア45a〜45gが設定された例を示す。また、操作部材20の焦点検出エリア選択スイッチにより任意のエリアを選択すると、そのエリアのマークが点灯表示される。
A plurality of focus detection areas are set on the shooting screen of the
図5に示すように操作部材20の焦点検出エリア選択スイッチにより焦点検出エリア45cが選択され、この状態で操作部材20のレリーズボタンが半押しされると、焦点検出エリア45bが初回AFエリアとしてメモリ19dに記憶される。これにより、追尾対象被写体として初回AFエリア内の被写体が指定される。なお、ここでは撮影者が初回AFエリアを選択して追尾対象被写体を手動で指定する例を示すが、例えば自動的に被写体を認識する機能を備えたカメラでは被写体認識結果に基づいて初回AFエリアおよび追尾対象被写体を設定してもよい。
As shown in FIG. 5, when the
図10のステップS1において、素子制御回路19aは第2撮像素子16に追尾初期画像(画像追尾処理を開始して最初に取得する画像)を取得させる。第2撮像素子16により撮像された初期追尾画像の画像情報は、被写界画像信号として画素ごとにRGB値で表される。マイクロコンピューター19cは、第2撮像素子16から入力した被写界画像信号のRGB値に基づいて、被写界画像の色情報と輝度情報とを算出する。このとき、マイクロコンピューター19cは、第2撮像素子16に含まれる640×480個の画素40のそれぞれの画像情報を、たとえば隣接する8×8個の画素40の画像情報をまとめて1つのブロックとするブロック化を行う。この場合、マイクロコンピューター19cは、隣接する8×8個の画像情報(すなわちRGB値)を平均化あるいは合計することによりブロック化を行う。その結果、図4(b)に示すように、被写界画像の640×480個の画素40のそれぞれの画像情報は、80×60個のブロック41(図4(b)の太線で囲まれる範囲内)の画像情報として表される。なお、以後の説明においては、上記のブロック化された1つのブロックをブロック画素41と呼ぶ。また、図4(b)においては、全被写界画像のうちの一部を拡大して示している。
In step S1 of FIG. 10, the element control circuit 19a causes the
上述したようにしてブロック化が行われると、第2撮像素子16により撮像された画像情報は、ブロック画素41ごとに以下の式(1)のようにRGB値で表される。
R[x,y]、G[x,y]、B[x,y],
x=1〜80、y=1〜60 ・・・(1)
When blocking is performed as described above, the image information captured by the
R [x, y], G [x, y], B [x, y],
x = 1 to 80, y = 1 to 60 (1)
そして、マイクロコンピューター19cは、上記のブロック画素41ごとのRGB値に基づいて、各ブロック画素41の色情報と輝度情報とを算出する。ここで、色情報は、以下の(2)式に示すように、色の偏り具合を示す値であるRG、BGにより表される。また、輝度情報として画像を取得したときの露光時間T、ゲインG、色合成係数Kr、Kg、Kbに基づいて、以下の(2)式より算出されたLによって表される。
RG[x,y]=Log2(R[x,y])−Log2(G[x,y])
BG[x,y]=Log2(B[x,y])−Log2(G[x,y])
L[x,y]=Log2(Kr×R[x,y]+Kg×G[x,y]+Kb×B[x,y])−Log2(T)−Log2(G)
・・・(2)
Then, the
RG [x, y] = Log 2 (R [x, y]) − Log 2 (G [x, y])
BG [x, y] = Log 2 (B [x, y]) − Log 2 (G [x, y])
L [x, y] = Log 2 (Kr × R [x, y] + Kg × G [x, y] + Kb × B [x, y]) − Log 2 (T) −Log 2 (G)
... (2)
次に、ステップS2で追尾制御部19hは、図11に示す追尾制御初期処理を実行する。図11のステップS101において、追尾制御部19hのテンプレート生成部191は、追尾初期画像の中の撮影者が指定した位置(ここでは初回AFエリアである焦点検出エリア45b)の画像情報((2)式参照)を被写体色情報としてメモリ19dに記憶する。ステップS102では、図6(a)に示すように、テンプレート生成部191は、追尾初期画像の中の焦点検出エリア45b(図5参照)の位置周辺部において上記被写体色情報と同様な色情報を示す同色情報領域を検出する。
Next, in step S2, the
ステップS103では、テンプレート生成部191は、上記同色情報領域を含む四角形の領域を初期の追尾被写体領域47とする。なお、ここでは被写体色情報に基づいて追尾被写体領域47を決定する例を示すが、処理の簡素化を図るために一律に4×4個のブロック画素41のように追尾被写体領域47のサイズを統一したり、あるいは撮影レンズ8の距離情報や被写体の像倍率に応じて追尾被写体領域47のサイズを決定してもよい。
In step S <b> 103, the
ステップS104では、テンプレート生成部191は、ステップS103で決定した追尾初期画像の追尾被写体領域47をテンプレート画像48としてメモリ19dに記憶する。図6(a)に示すように、追尾被写体領域47のサイズ(大きさ)をTmpSizeとすると、図6(b)に示すテンプレート画像48の色情報および輝度情報は以下の式(3)ように表される。なお、以降の説明においては、追尾初期画像に基づいて生成されたテンプレート画像48を初期テンプレート画像と呼ぶ。また、以降の各式において、変数tはテンプレート画像の種類を示す変数であり、t=0が初期テンプレート画像48に対応する。
Ref[t,RG,i,j]=RG[x+i,y+j]
Ref[t,BG,i,j]=BG[x+i,y+j]
Ref[t,L,i,j]=L[x+i,y+j]
t=0、i=1〜TmpSize、j=1〜TmpSize ・・・(3)
In step S104, the
Ref [t, RG, i, j] = RG [x + i, y + j]
Ref [t, BG, i, j] = BG [x + i, y + j]
Ref [t, L, i, j] = L [x + i, y + j]
t = 0, i = 1 to TmpSize, j = 1 to TmpSize (3)
ステップS105では、テンプレート生成部191は、初期テンプレート画像48に基づいて、拡大テンプレート画像50を作成する。図6(c)に示すように、この拡大テンプレート画像50は、初期テンプレート画像48の内部に含まれる内部画像領域50a(図6(c)の破線で囲まれた領域)が初期テンプレート画像48と同一のサイズに拡大された画像である。換言すると、拡大テンプレート画像50は、初期テンプレート画像48をズームアップした場合に得られる画像に相当する。このため、後述するように、被写体がカメラ1に接近してくる場合に、拡大テンプレート画像50によって追尾対象被写体を検出できる。
In step S <b> 105, the
テンプレート生成部191は、拡大テンプレート50を作成する際に、まず、初期テンプレート画像48の内部を内部画像領域50aとして決定する。図7(a)においては、内部画像領域50aの一例として、初期テンプレート画像48の上下(y方向)についてそれぞれ2ブロック画素、左右(x方向)についてそれぞれ2ブロック画素ずつ内側の領域が決定された場合を示している。そして、テンプレート生成部191は、決定した内部画像領域50a(Sclup[cl,i,j])をメモリ19dに記憶する。なお、複数の内部画像領域50aを決定してもよい。図7(b)には、一例として、3種類の内部画像領域50a1〜50a3を決定した場合を示している。この場合、テンプレート生成部191は、内部画像領域50a1〜50a3のサイズが段階的に小さくなるように内部画像領域50a1〜50a3を決定する。
When creating the
上述のようにして内部画像領域50aを決定すると、テンプレート生成部191は、以下の式(4)に示す補間処理により内部画像領域50aを初期テンプレート画像48と同一のサイズに拡大して拡大テンプレート画像50(Ref[t,cl,i,j],t=1)を生成する。なお、変数tが1の場合には、拡大テンプレート画像50であることを示す。
Sclup[RG,s,u]=RG[x+s+n,y+u+n]
Sclup[BG,s,u]=BG[x+s+n,y+u+n]
Sclup[L,s,u]=L[x+s+n,y+u+n]
s=1〜拡大テンプレート画像のサイズ、u=1〜拡大テンプレート画像のサイズ、
n=初期テンプレート画像と内部画像領域との差分画素数 ・・・(4)
When the
Scrup [RG, s, u] = RG [x + s + n, y + u + n]
Scrup [BG, s, u] = BG [x + s + n, y + u + n]
Scrup [L, s, u] = L [x + s + n, y + u + n]
s = 1 to the size of the enlarged template image, u = 1 to the size of the enlarged template image,
n = number of difference pixels between the initial template image and the internal image area (4)
なお、複数の内部画像領域50aを決定した場合(たとえば図7(b)の内部画像領域50a1〜50a3)、テンプレート生成部191は、それぞれの内部画像領域50aについて上述した補間処理により、初期テンプレート画像48と同一のサイズに拡大する。その結果、図6(d)に示すように、ズームアップの倍率が異なる複数種類の拡大テンプレート画像50_1、50_2、50_3が生成される。また、追尾対象の被写体が遠方に存在するため被写界画像内で小さな領域しか占有できない場合には、すなわち同色情報領域、被写体追尾領域47および初期テンプレート画像48のサイズが小さくなる。このような場合、テンプレート生成部191は、上記の方法によって初期テンプレート画像48の内部に内部画像領域50aを決定できない。したがって、テンプレート生成部191は、たとえば初期テンプレート画像48のサイズが4×4個のブロック画素41のような場合、初期テンプレート画像48と同一の画像情報を拡大テンプレート画像50として設定する。テンプレート生成部191は、拡大テンプレート画像50を生成するとメモリ19dに記憶する。
When a plurality of
以上で追尾制御初期処理を終了し、図10のステップS3へリターンする。リターン後の図10のステップS3において、マイクロコンピューター19cは操作部材20のレリーズボタンが全押しされたか否かを判別する。レリーズボタンが全押しされるまでの間、マイクロコンピューター19cは、ステップS4〜S11の処理を繰り返す。ステップS4では、次の撮影周期で第2撮像素子16により撮像された被写界画像(追尾次画像)について、マイクロコンピューター19cは、ステップS1と同様にして、画像情報R[x,y]、G[x,y]、B[x,y](x=1〜80、y=1〜60)を取得し、色情報RG[x,y],BG[x,y]および輝度情報L[x,y]を算出する。
The tracking control initial process is thus completed, and the process returns to step S3 in FIG. In step S3 of FIG. 10 after the return, the
ステップS5では、設定部196は、テンプレート画像48と一致または類似する画像を探索するための領域(探索領域)49(図6(a))を設定する。ここでは、設定部196は、たとえば、追尾被写体領域47の上下左右方向にそれぞれ4ブロック画素分拡大したブロック画素範囲に含まれる領域を探索領域49として設定する。
In step S5, the
設定部196は、好ましくは追尾被写体領域47を中心にして探索領域49を設定する。追尾対象の被写体は今回検出された位置すなわち追尾被写体領域47を基点にして移動する。このため、設定部196によって追尾被写体領域47を中心にして探索領域49が設定されることにより、追尾対象の被写体を早く検出することができ、画像追尾の応答性を向上させることができる。なお、この探索領域49は縦横それぞれに所定個数のブロック画素を含む固定サイズの領域としてもよいし、追尾結果や追尾対象被写体の大きさに応じて変えるようにしてもよい。
The
続くステップS6では追尾制御部19hの演算部192は、追尾演算処理を行う。演算部192は、追尾次画像の中の探索領域49から図6(a)に示す追尾被写体領域47と同じサイズの領域を順次切り出す。そして、演算部192は、切り出した画像と、図6(b)に示すテンプレート画像48とを、対応する画素ごとに相関を演算、すなわち画像情報の差分Diff[t(=0),sx,sy]を算出する。さらに、演算部192は、切り出した画像と、図6(c)に示す拡大テンプレート画像50とを、対応するブロック画素41ごとに相関を演算、すなわち画像情報の差分Diff[t(=1),sx,sy]を算出する。
In subsequent step S6, the
具体的には、演算部192は、探索領域49の始点位置を(x,y)としたとき、差分Diff[t,sx,sy]を次式(5)により算出する。
なお、(5)式におけるsx、syは、それぞれ切り出し画像の始点位置をずらす範囲(量)を示している。(5)式は以下の(1)、(2)の処理が行われていることを示している。
(1)探索領域49の中で追尾被写体領域47と同じサイズの領域を1ブロック画素ずつずらしながら切り出し画像を取得する。
(2)切り出した画像とテンプレート画像48との間および切り出した画像と拡大テンプレート画像50との間でブロック画素ごとの画像情報の差分Diffを求める。
In the equation (5), sx and sy indicate ranges (amounts) in which the start point position of the cut-out image is shifted. Expression (5) indicates that the following processes (1) and (2) are performed.
(1) A clipped image is acquired while shifting an area of the same size as the tracking
(2) A difference Diff of image information for each block pixel is obtained between the cut-out image and the
例えば、図8(a)に示すように探索領域49から順次切り出した画像(図8(a)においては、47a、47b、47c)と、テンプレート画像48とが順次比較され、それぞれの切り出し画像について差分Diffが算出される。同様に、探索領域49から順次切り出した画像(図8(a)の47a、47b、47c)と、拡大テンプレート画像50とが順次比較されて、それぞれの切り出し画像について差分Diffが算出される。そして、これらの差分Diffの内の最小の値を示す切り出し画像が、テンプレート画像48または拡大テンプレート画像50に最も類似している、類似度が高い画像となる。
For example, as shown in FIG. 8A, images sequentially cut out from the search area 49 (47a, 47b, 47c in FIG. 8A) and the
なお、図6(d)にて示したように、ズームアップの倍率が異なる複数種類の拡大テンプレート画像50_1、50_2、50_3が生成された場合については、演算部192は、変数tに、比較するテンプレート画像の種類の数を代入して上記の式(5)を演算する。この場合、演算部192は、1種類の初期テンプレート画像48と3種類の拡大テンプレート画像50_1、50_2、50_3とを合わせた数である4を変数tに代入する。式(5)を用いた演算により、演算部192は、生成されたテンプレート画像48および複数の拡大テンプレート画像50_1、50_2、50_3のそれぞれについて差分Diffを算出する。
As illustrated in FIG. 6D, when a plurality of types of enlarged template images 50_1, 50_2, and 50_3 having different zoom-up magnifications are generated, the
ステップ7においては、新しい追尾被写体位置を決定するための新追尾被写体位置決定処理を行う。演算部192により上記(5)式を用いて差分Diffが算出されると、選択部193は、複数の差分Diffの値のうち最も小さい値(最小差分値MinDiff)を選択する。最小差分値MinDiffが選択されると、検出部194は、最小差分値MinDiffとなるときの差分Diffの座標値(Mindx,Mindy)を検出する。そして、図8(b)に示すように、設定部196は、検出部194により検出された座標値(Mindx,Mindy)を中心として新たな追尾被写体領域47を設定する。換言すると、設定部196は、テンプレート画像48または拡大テンプレート画像50との類似度が最も高い切り出し領域を新たな追尾被写体領域47に設定する。
In
検出部194は、さらに、最小差分値MinDiffを与える変数tが1であるか否かを判定する。変数tが1である場合には、検出部194は、カウンタのカウント数を1増やし、変数tが0の場合には、カウンタのカウント数を0にリセットする。このカウンタは、後述するテンプレート画像48を拡大テンプレート画像50に置換する際に、更新部195により参照される。
The detecting
ステップS8では、追尾制御部19hは、最小差分値MinDiffと、予め設定された類似閾値Dthとを比較することにより、ステップS7で決定された新しい追尾被写体領域47がテンプレート画像48または拡大テンプレート画像50と類似しているか否かの判定を行う。なお、類似閾値Dthは、通常の撮影シーンにおいて適切に類似判定が可能な値として設定されている。ステップS8の判定結果は、後述するステップS12における焦点調節の際に用いられる。
In step S8, the
ステップS9では、更新部195は、予め設定された更新閾値Upthを用いて、テンプレート画像48の更新処理の要否を判定する。更新閾値Upthは、通常の撮影シーンにおいて適切に類似判定が可能な値として設定されている。ステップS9において、新しい追尾被写体領域47とテンプレート画像48との類似度が高いと判定された場合に、テンプレート画像48の更新処理を行う。更新部195は、最小差分値MinDiffの値が更新閾値Upth以下の場合に、テンプレート画像48の更新処理が必要と判断する。本実施の形態では、更新部195は、元のテンプレート画像48の色情報や輝度情報などの画像情報の、たとえば80%に、新しい追尾被写体領域47の画像情報の20%を加えて、新しいテンプレート画像48を生成する。すなわち、更新部195は、更新処理が必要と初めて判定した場合には初期テンプレート画像48に更新処理を施して新たにテンプレート画像48を生成し、以後の処理では、順次、新たなテンプレート画像48に対して更新処理を施す。更新処理の演算は、以下の(6)式のように表すことができる。
Ref[0,RG,i,j]=0.8×Ref[0,RG,i,j]+0.2×RG[x+i−1,y+j−1]、
Ref[0,BG,i,j]=0.8×Ref[0,BG,i,j]+0.2×BG[x+i−1,y+j−1]、
Ref[0,L,i,j]=0.8×Ref[0,L,i,j]+0.2×L[x+i−1,y+j−1]、
i=1〜TmpSize、j=1〜TmpSize、x、yは新たな追尾被写体領域47の位置 ・・・(6)
In step S <b> 9, the
Ref [0, RG, i, j] = 0.8 × Ref [0, RG, i, j] + 0.2 × RG [x + i−1, y + j−1],
Ref [0, BG, i, j] = 0.8 × Ref [0, BG, i, j] + 0.2 × BG [x + i−1, y + j−1],
Ref [0, L, i, j] = 0.8 × Ref [0, L, i, j] + 0.2 × L [x + i−1, y + j−1],
i = 1 to TmpSize, j = 1 to TmpSize, x, y are positions of the new tracking subject region 47 (6)
テンプレート画像48の更新処理の結果、元のテンプレート画像48の画像情報に対して、最新の画像情報が少しずつ追加されることにより更新される。このため、何らかの原因による追尾被写体の変化(たとえば被写体の顔の向きの変化など)の影響を抑制して被写体追尾の信頼性を向上させることができる。なお、元のテンプレート画像48の画像情報の割合と新しい追尾被写体領域47の画像情報の割合とは最小差分値MinDiffの値に応じて可変にしてもよい。
As a result of the update process of the
ステップS10において、更新部195は、図12に示す拡大テンプレート画像50の更新処理を行う。ステップS201では、予め設定された拡大更新閾値Sclupthを用いて、拡大テンプレート画像50の更新処理の要否を判定する。拡大更新閾値Sclupthは、通常の撮影シーンにおいて適切に類似判定が可能な値として設定されている。更新部195は、最小差分値MinDiffの値が拡大更新閾値Sclupth以下の場合に、拡大テンプレート画像50の更新処理が必要と判断する。
In step S10, the
続くステップS202では、更新部195は、上述したテンプレート画像48の更新処理の場合と同様にして、拡大テンプレート画像50を更新する。すなわち、更新部195は、元の拡大テンプレート画像50の色情報や輝度情報などの画像情報の、たとえば80%に、新しい追尾被写体領域47の画像情報の20%を加えることにより新たな拡大テンプレート画像50を生成する。なお、ステップS2において、初期テンプレート画像48のサイズが小さく、初期テンプレート画像48と同一の画像を拡大テンプレート画像50として設定した場合には、更新部195は、新しい追尾被写体領域47の画像情報を加える割合を上記の20%よりも増やして、新しい追尾被写体領域47の画像情報をたとえば40%加えて新たな拡大テンプレート画像50を生成する。
In subsequent step S202, the updating
ステップS203では、更新部195は、撮影周期ごとに上記の処理を繰り返す間に、拡大テンプレート画像50で検出された追尾被写体の位置を新たな追尾被写体領域47として設定した回数が、連続してm回となったか否かを判定する。すなわち、更新部195は、追尾被写体がカメラ1に接近しているために、被写界における追尾被写体が大きくなっているか否かを判定する。この場合、更新部195は、カウンタによるカウント数がmであるか否かを判定する。カウント数がmではない場合には、以下の処理を行わずに拡大テンプレート画像更新処理を終了する。
In step S203, the updating
カウント数がmの場合には、更新部195は、ステップS204において、以下の式(7)を用いて、テンプレート画像48を拡大テンプレート画像50によって置換する。
Ref[0,RG,i,j]=Ref[1,RG,i,j]
Ref[0,BG,i,j]=Ref[1,BG,i,j]
Ref[0,L,i,j]=Ref[1,L,i,j]
なお、i=1〜TmpSize、j=1〜TmpSize ・・・(7)
When the count number is m, the updating
Ref [0, RG, i, j] = Ref [1, RG, i, j]
Ref [0, BG, i, j] = Ref [1, BG, i, j]
Ref [0, L, i, j] = Ref [1, L, i, j]
Note that i = 1 to TmpSize, j = 1 to TmpSize (7)
カウント数がm未満の場合には、追尾制御部19hは、図9(a)に示すテンプレート画像48と拡大テンプレート画像50とを用いて追尾被写体検出処理を行っていた。カウント数がmに達し更新部195が上記の置換処理を行うと、追尾制御部19hは、次回以降の被写体位置決定処理において、図9(a)に示す拡大テンプレート画像50を図9(b)に示すテンプレート画像48として用いる。なお、図9(a)に示すテンプレート画像48と拡大テンプレート画像50とはそれぞれ図6(b)に示すテンプレート画像48と図6(c)に示す拡大テンプレート画像50と同一のものである。
When the count number is less than m, the
ステップS204でテンプレート画像48の置換処理を行った場合には、ステップS205において、更新部195は、新たな拡大テンプレート画像50を生成する。すなわち、更新部195は、新たな追尾対象領域47に内部画像領域50aを決定して、補間処理によりテンプレート画像48と同一のサイズとなるように拡大することにより拡大テンプレート画像50を生成する。その結果、図8(b)に示す新たな追尾対象領域47の内部の破線で囲んだ内部画像領域50aに対応する拡大テンプレート画像50(図9(b))が生成される。換言すると、更新部195は、カウンタのカウント数がmの場合には、新たな追尾被写体領域47の位置を基準として拡大テンプレート画像50を生成する。
If the
以上で拡大テンプレート画像50の更新処理を終了し、図10のステップS11へリターンする。リターン後のステップS11では、焦点検出演算部19fは、ステップS7における被写体位置決定処理で決定した新しい追尾被写体領域47を用いて焦点制御を行う。この場合、新しく決定された追尾被写体領域47がテンプレート画像48または拡大テンプレート画像50と類似していると追尾制御部19hによって判定された場合(ステップS8)は、焦点検出演算部19fは、新しい追尾被写体領域47内に含まれる追尾対象に対して合焦制御を行う。焦点検出演算部19fは、新しい追尾被写体領域47内に焦点検出エリア45a〜45gの少なくとも一つが含まれる場合には、新しい追尾被写体領域47内に含まれる焦点検出エリア45a〜45gで検出されたデフォーカス量のうち最も小さいものを採用し、そのデフォーカス量に基づいて撮影レンズ8の焦点調節を行う。新しい追尾被写体領域47内に焦点検出エリア45a〜45gが含まれない場合には、焦点検出演算部19f新しい追尾被写体領域47との距離、または前回の追尾結果で採用された焦点検出エリア45a〜45gとの距離の少なくとも一方に基づいて採用する焦点検出エリア45a〜45gを決定してもよい。新しく決定された追尾被写体領域47がテンプレート画像48または拡大テンプレート画像50と類似していないと追尾制御部19hによって判定された場合(ステップS8)は、焦点検出演算部19fは、前回の処理で検出されたデフォーカス量を用いて焦点調節を行う。上記処理が終了するとステップS3へ戻る。
The update process of the
ステップS3で操作部材20のレリーズボタンの全押し操作が検出されるとステップS12へ進み、マイクロコンピューター19cは、撮影制御を実行する。なお、撮像制御に際しては、露出演算部19eはステップS7で決定した新しい追尾被写体領域47の輝度情報に基づいて露出演算を行い、絞り値とシャッター速度を算出する。これらの露出値にしたがって、マイクロコンピューター19cはシャッター7および絞り21を駆動制御し、第1撮像素子4に撮像を行わせる。
If the full pressing operation of the release button of the
以上で説明した実施の形態によれば、以下の作用効果が得られる。
(1)第2撮像素子16は、撮影レンズ8により結像される像を繰り返し撮像して、被写界画像を生成する。テンプレート生成部191は、被写界画像に含まれる追尾対象領域である追尾被写体領域47に基づいて、少なくとも1つの拡大テンプレート画像50を含む複数のテンプレート画像48、50を生成する。演算部192は、被写界画像の内部の探索領域49と、テンプレート生成部191により生成された複数のテンプレート画像48、50のそれぞれとの間の相関関係を演算する。選択部193は、演算部192による複数のテンプレート画像48,50のそれぞれに対する演算結果を比較し、比較結果に基づいて、演算結果を選択する。検出部194は、選択部193により選択された演算結果に基づいて、被写界画像における追尾対象被写体の位置を検出する。上記の拡大テンプレート画像50を生成する際には、テンプレート生成部191は、追尾対象領域47に含まれる画像領域を補間処理により拡大し、拡大された画像領域に基づいて、拡大テンプレート画像50を生成するようにした。具体的には、テンプレート生成部191は、追尾被写体領域47の画像情報に基づいて拡大テンプレート画像50とは異なる初期テンプレート画像48を生成する。そして、テンプレート生成部191は、初期テンプレート画像48の内部に内部画像領域50aを設定し、設定された内部画像領域50aを初期テンプレート画像48の大きさとなるように補間処理により拡大することによって拡大テンプレート画像50を生成するようにした。したがって、拡大テンプレート画像50は、初期テンプレート画像48をズームアップした場合に得られる画像に相当するので、追尾対象被写体がカメラ1に接近してくる場合であっても、拡大テンプレート画像50によって追尾対象を検出できる。
According to the embodiment described above, the following operational effects can be obtained.
(1) The
(2)設定部196は、検出部194により検出された追尾対象被写体の位置に基づいて、新たな追尾対象領域47を設定する。そして、演算部192による演算結果に基づいて、複数のテンプレート画像48、50を更新すると判定した場合、更新部195は、設定部196により設定された新たな追尾対象領域47の画像情報を用いて、複数のテンプレート画像48、50を更新するようにした。したがって、更新処理の結果、元のテンプレート画像48または拡大テンプレート画像50の画像情報に対して、最新の画像情報が少しずつ追加されることにより更新される。このため、何らかの原因による追尾被写体の変化(たとえば被写体の顔の向きの変化など)の影響を抑制して被写体追尾の信頼性を向上させることができる。
(2) The
(3)演算部192は、拡大テンプレート画像50の画像情報と、探索領域49内の画像情報との差分値を演算し、更新部195は、演算部192により算出された差分値に応じて拡大テンプレート画像50の更新の要否を判定するようにした。この場合、更新部195は、新たな追尾対象領域47内の画像情報と、拡大テンプレート画像50の画像情報とを所定の割合で合成して拡大テンプレート画像50を更新するようにした。したがって、最小差分値MinDiffの値が拡大更新閾値Sclupth以下、すなわち類似度が高い場合には、拡大テンプレート画像50に最新の画像情報が加わる。その結果、次回以降の処理において、拡大テンプレート画像50による追尾対象被写体の検出精度を向上させることができる。さらに、上記(2)のように、拡大テンプレート画像50の画像情報に対して、最新の画像情報が少しずつ追加されることにより更新されるので、何らかの原因による追尾被写体の変化の影響を抑制して被写体追尾の信頼性を向上させることができる。
(3) The
(4)テンプレート生成部191は、初期テンプレート画像48内に内部画像領域50aを設定できない場合には、初期テンプレート画像48の画像情報と同一の画像情報を用いて拡大テンプレート画像50を生成する。そして、テンプレート生成部191により初期テンプレート画像48の画像情報と同一の画像情報を用いて拡大テンプレート画像50が生成された場合には、更新部195は拡大テンプレート画像50の画像情報に対して新たな追尾対象領域47の画像情報を合成する割合を高くするようにした。したがって、初期テンプレート画像48と同一の拡大テンプレート画像50を用いる場合には、拡大テンプレート画像50を早い段階の更新処理で初期テンプレート画像48をズームアップした場合に相当する画像に更新できる。その結果、追尾対象被写体がカメラ1に接近してくる場合であっても、拡大テンプレート画像50によって追尾対象を検出できる。
(4) When the
(5)選択部193により連続して所定の回数(m回)、拡大テンプレート画像50に対する演算結果が選択された場合には、更新部195は、新たな追尾対象領域47内の画像情報に基づいて新たな拡大テンプレート画像50を生成するようにした。さらに、更新部195は、新たな拡大テンプレート画像50を生成する前の拡大テンプレート画像50の画像情報を新たなテンプレート画像48として置換するようにした。したがって、最新の追尾対象領域47の画像情報を用いて拡大テンプレート画像50を生成し直すので、連続して拡大テンプレート画像50の演算結果が選択されている場合、すなわち追尾対象被写体がカメラ1に対して相対的に接近している場合であっても、追尾対象被写体を検出し続けることができる。
(5) When the calculation result for the
(6)選択部193は、複数のテンプレート画像48,50のそれぞれに対応する複数の演算結果のうち、テンプレート画像48,50と探索領域49との間の類似度が最も高いことを示す演算結果を選択するようにした。具体的には、演算部192は、複数のテンプレート画像48,50内の画像情報のそれぞれと、探索領域49の画像情報との差分値を演算し、選択部193は、演算部192により算出された差分値が最小の場合に、類似度が最も高いと判定するようにした。したがって、複数のテンプレート画像48、50を用いたテンプレートマッチングを行った場合であっても、誤検出等の発生を抑制して追尾精度を維持できる。
(6) The
以上で説明した実施の形態の撮像装置1を以下のように変形できる。
(1)更新部195は初期テンプレート画像48を更新しなくてもよい。この場合、更新部195は、ステップS9で更新処理を行うと判定すると、初期テンプレート画像48をコピーして複製テンプレート画像を生成する。そして、更新部195は、複製テンプレート画像に対して上述した更新処理を施して、新たにテンプレート画像(更新テンプレート画像)を生成する。2回目以降に更新処理を行うと判定した場合、更新部195は、更新テンプレート画像に対して更新処理を施す。すなわち、更新部195は、一連の処理において、更新テンプレート画像および/または拡大テンプレート画像50に対して更新処理を行う。そして、追尾制御部19hは、初期テンプレート画像48と、更新テンプレート画像と、拡大テンプレート画像50とを用いて、探索領域49内で上述した追尾演算処理を行えばよい。この結果、初期テンプレート画像48を更新することなく保持し続けているので、追尾対象被写体がカメラ1に対して再び遠ざかったような場合等には、再度初期テンプレート画像48を用いて追尾対象被写体を検出できる。
The
(1) The updating
さらに加えて、拡大テンプレート画像50で検出された位置を新たな追尾被写体領域47として設定した回数が、連続して所定回数となった場合には、追尾制御部19hは、初期テンプレート画像48で検出された位置が新たな追尾被写体領域47として採用されにくくなるように処理を加える。この場合、上記のカウンタによるカウント数がnのときには、演算部192は初期テンプレート画像48と探索領域49との差分Diff[0,sx,sy]の値に所定の係数kを加算することにより、初期テンプレート画像45の演算結果が選択部193により選択されにくくなるように補正を施す。すなわち、差分Diff[0,sx,sy]の値を大きくすることにより、初期テンプレート画像48による演算結果が最小差分値MinDiffとして採用されにくくなる。この結果、追尾対象の被写体がカメラ1に接近している場合、すなわち被写界画像中の追尾対象が大きくなった場合に、追尾対象とは異なる背景の被写体(すなわち小さな被写体)を追尾対象として誤検出することを防ぐことができる。
In addition, when the number of times the position detected in the
さらに、拡大テンプレート画像50で検出された位置を新たな追尾被写体領域47として設定した回数が、連続して所定回数となった場合には、追尾制御部19hは、初期テンプレート画像48で検出された位置が選択部193によって選択されることを禁止してもよい。この場合、初期テンプレート画像48と拡大テンプレート画像50の2つを用いて追尾処理をする場合であれば、上記のカウンタによるカウント数がnのときには、選択部193は、拡大テンプレート画像50と探索領域49との差分Diff[1,sx,sy]の値のみを選択する。
Furthermore, when the number of times that the position detected in the
(2)テンプレート生成部191は、初期テンプレート画像48内の内部画像領域50aを補間処理により拡大して拡大テンプレート画像50を生成するものに代えて、初期テンプレート画像48を補間処理により拡大して拡大テンプレート画像を生成してもよい。すなわち、図13に示すように、テンプレート生成部191は、初期テンプレート画像48の画像情報がズームアップされた拡大テンプレート画像50’を生成する。
(2) The
(3)テンプレート生成部191は、初期テンプレート画像48の内部画像領域50aから拡大テンプレート画像50を生成するものに代えて、被写体領域47の画像情報から拡大テンプレート画像50を生成してもよい。この場合、図14に示すように、テンプレート生成部191は、被写界画像内に設定された被写体追尾領域47の内部に、内部画像領域50a’を設定する。そして、テンプレート生成部191は、内部画像領域50a’を補間処理により拡大して拡大テンプレート画像50を生成すればよい。
(3) The
(4)交換レンズ3のレンズ駆動制御装置22からレンズマウント部の接点23を介して入力されたレンズ情報に基づいて、選択部193は、拡大テンプレート画像50を用いた演算結果を優先して演算してもよい。レンズ情報に基づいて、交換レンズ3がズームアップされている、または被写体の距離が近づいていると判定された場合、すなわち撮影画面内で追尾被写体の大きさが大きくなる場合には、選択部193は拡大テンプレート画像50を用いた演算結果を優先して選択する。優先する方法としては、拡大テンプレート画像50の演算結果の差分値が類似閾値以内であれば他のテンプレート画像の結果によらずに拡大テンプレート画像50の結果を選択すればよい。または、拡大テンプレート画像50以外の演算結果に重みを付けたうえで、最も差分値が小さい結果を選択すればよい。この結果、被写界画像中の追尾対象が大きくなった場合に、追尾対象とは異なる背景の被写体(すなわち小さな被写体)を追尾対象として誤検出することを防ぐことができる。
(4) Based on the lens information input from the lens
(5)検出部194は、最小差分値MinDiffを与える変数tが1のときにカウンタのカウント数を1増やすものに代えて、焦点検出演算部19fによる合焦制御の結果に基づいて、カウンタのカウント数を1増やしてもよい。この場合、焦点検出演算部19fが前回のデフォーカス量と今回のデフォーカス量とに基づいて、追尾対象被写体が撮影レンズ8の光軸方向に沿って、カメラ1に接近していると判定した場合、検出部194は、カウンタのカウント数を1増やす。そして、カウント数がmの場合には、選択部193は拡大テンプレート画像50を用いた演算結果を選択すればよい。この結果、追尾対象の被写体がカメラ1に接近している場合、すなわち被写界画像中の追尾対象が大きくなった場合に、追尾対象とは異なる背景の被写体(すなわち小さな被写体)を追尾対象として誤検出することを防ぐことができる。
(5) The
(6)演算部192は、差分Diffを算出するものに限らない。演算部192は、テンプレート画像48の画像情報および拡大テンプレート画像50の画像情報のそれぞれと、切り出し画像の画像情報との間で加算や、除算等の四則演算を行ってもよいし、最小二乗法等を用いてもよい。この場合も、選択部193は、値が最小となる演算結果、すなわち類似度が最大であることを示す演算結果を選択する。
(6) The
また、本発明の特徴を損なわない限り、本発明は上記実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。説明に用いた実施の形態および変形例は、それぞれを適宜組合わせて構成しても構わない。 In addition, the present invention is not limited to the above-described embodiment as long as the characteristics of the present invention are not impaired, and other forms conceivable within the scope of the technical idea of the present invention are also within the scope of the present invention. included. The embodiments and modifications used in the description may be configured by appropriately combining them.
1 撮像装置、 16 第2撮像素子、
19 ボディ駆動制御装置、 19c マイコン、
19f 焦点検出演算部、 19h 追尾制御部、
23 接点、 191 テンプレート生成部、
192 演算部、 193 選択部、
194 検出部、 195 更新部、
196 設定部
1 imaging device, 16 second imaging element,
19 body drive control device, 19c microcomputer,
19f focus detection calculation unit, 19h tracking control unit,
23 contact points, 191 template generation unit,
192 calculation unit, 193 selection unit,
194 detector, 195 updater,
196 Setting section
Claims (14)
前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、
前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、
前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果を比較し、比較結果に基づいて前記演算結果を選択する選択部と、
前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の画像の位置を検出する検出部と、
前記選択部により連続して所定の回数、前記第2のテンプレート画像に対する演算結果が選択された場合に、前記選択部によって選択された演算結果に対する前記第2のテンプレート画像の画像情報を、前記第1のテンプレート画像として置換する更新部と、を備える画像追尾装置。 An imaging unit that repeatedly captures an image formed by the imaging optical system and generates an object scene image;
A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a tracking target region in the object scene image;
A computing unit for computing a correlation between an image in a search area provided in the scene image and each of the first and second template images;
A selection unit that compares the calculation results for each of the first and second template images by the calculation unit, and selects the calculation results based on the comparison results;
A detection unit that detects a position of an image to be tracked in the object scene image based on the calculation result selected by the selection unit;
When the calculation result for the second template image is selected a predetermined number of times continuously by the selection unit, the image information of the second template image for the calculation result selected by the selection unit is An image tracking device comprising: an updating unit that replaces the first template image.
前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、
前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、
前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果を比較し、比較結果に基づいて前記演算結果を選択する選択部と、
前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の画像の位置を検出する検出部と、を備え、
前記選択部は、連続して所定の回数、前記第2のテンプレート画像に対する演算結果を選択した場合には、前記第1のテンプレート画像に対する演算結果の選択を禁止する画像追尾装置。 An imaging unit that repeatedly captures an image formed by the imaging optical system and generates an object scene image;
A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a tracking target region in the object scene image;
A computing unit for computing a correlation between an image in a search area provided in the scene image and each of the first and second template images;
A selection unit that compares the calculation results for each of the first and second template images by the calculation unit, and selects the calculation results based on the comparison results;
A detection unit that detects a position of an image to be tracked in the object scene image based on the calculation result selected by the selection unit;
The image tracking device that prohibits selection of a calculation result for the first template image when the selection unit continuously selects a calculation result for the second template image a predetermined number of times.
前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、
前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、
前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果を比較し、比較結果に基づいて前記演算結果を選択する選択部と、
前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の画像の位置を検出する検出部と、を備え、
前記選択部により、連続して所定の回数、前記第2のテンプレート画像に対する演算結果が選択された場合、前記演算部は、次回以降に算出した前記第1のテンプレート画像の演算結果に対して、前記第1のテンプレート画像の演算結果が前記選択部によって選択されにくくさせるための補正を施す画像追尾装置。 An imaging unit that repeatedly captures an image formed by the imaging optical system and generates an object scene image;
A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a tracking target region in the object scene image;
A computing unit for computing a correlation between an image in a search area provided in the scene image and each of the first and second template images;
A selection unit that compares the calculation results for each of the first and second template images by the calculation unit, and selects the calculation results based on the comparison results;
A detection unit that detects a position of an image to be tracked in the object scene image based on the calculation result selected by the selection unit;
When the selection unit selects a calculation result for the second template image continuously a predetermined number of times, the calculation unit calculates the calculation result of the first template image calculated after the next time, An image tracking device that performs correction for making the calculation result of the first template image difficult to be selected by the selection unit.
前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、
前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、
前記被写界画像内で追尾対象が相対的に大きくなることを判定する判定部と、
前記判定部により前記追尾対象が相対的に大きくなると判定された場合には、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果のうち、前記第2のテンプレート画像に対する演算結果を優先して選択し、前記判定部により前記追尾対象が相対的に大きくなると判定されない場合には、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果を比較し、比較結果に基づいて前記演算結果を選択する選択部と、
前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の画像の位置を検出する検出部と、を備える画像追尾装置。 An imaging unit that repeatedly captures an image formed by the imaging optical system and generates an object scene image;
A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a tracking target region in the object scene image;
A computing unit for computing a correlation between an image in a search area provided in the scene image and each of the first and second template images;
A determination unit that determines that the tracking target is relatively large in the object scene image;
When the determination unit determines that the tracking target is relatively large, out of the calculation results for the first and second template images by the calculation unit, the calculation results for the second template image If the determination unit does not determine that the tracking target is relatively large, the calculation unit compares the calculation result for each of the first and second template images, and compares the result. A selection unit for selecting the calculation result based on :
An image tracking device comprising: a detection unit that detects a position of an image to be tracked in the object scene image based on the calculation result selected by the selection unit.
前記結像光学系は、ズーミングレンズを含み、
前記判定部は、前記ズーミングレンズがズームアップされているときに前記追尾対象が相対的に大きくなることを判定する画像追尾装置。 The image tracking device according to claim 4,
The imaging optical system includes a zooming lens,
The determination unit is an image tracking device that determines that the tracking target is relatively large when the zooming lens is zoomed up.
前記結像光学系は、フォーカシングレンズを含み、
前記フォーカシングレンズのレンズ情報が被写体距離が近づいていることを示しているときに、前記追尾対象が相対的に大きくなることを判定する画像追尾装置。 The image tracking device according to claim 4,
The imaging optical system includes a focusing lens,
An image tracking device that determines that the tracking target is relatively large when lens information of the focusing lens indicates that the subject distance is approaching.
前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、
前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、
前記結像光学系の焦点状態を演算して、焦点調節を行う焦点調節部と、
前記焦点調節部による演算結果に基づいて、追尾対象が前記結像光学系の光軸方向に対して接近しているか否かを判定する判定部と、
前記判定部により前記追尾対象が接近していると判定された場合には、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果のうち、前記第2のテンプレート画像に対する演算結果を優先して選択し、前記判定部により前記追尾対象の接近が判定されない場合には、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果を比較し、比較結果に基づいて前記演算結果を選択する選択部と、
前記選択部により選択された前記演算結果に基づいて、前記被写界画像における前記追尾対象の画像の位置を検出する検出部と備える画像追尾装置。 An imaging unit that repeatedly captures an image formed by the imaging optical system and generates an object scene image;
A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a tracking target region in the object scene image;
A computing unit for computing a correlation between an image in a search area provided in the scene image and each of the first and second template images;
A focus adjustment unit that calculates a focus state of the imaging optical system and performs focus adjustment;
A determination unit that determines whether or not the tracking target is approaching the optical axis direction of the imaging optical system, based on a calculation result by the focus adjustment unit;
When the determination unit determines that the tracking target is approaching, the calculation result for the second template image among the calculation results for the first and second template images by the calculation unit If the approach of the tracking target is not determined by the determination unit, the calculation unit compares the calculation results for each of the first and second template images, and based on the comparison result A selection unit for selecting the calculation result;
An image tracking apparatus provided with the detection part which detects the position of the image of the said tracking object in the said scene image based on the said calculation result selected by the said selection part.
前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像の一部を拡大した第2のテンプレート画像とを生成する生成部と、
前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、
前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果を比較し、比較結果に基づいて前記演算結果を選択する選択部と、
前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の画像の位置を検出する検出部と、
前記検出部により検出された前記追尾対象の画像の位置に基づいて、新たな追尾対象領域を設定する設定部と、
前記新たな追尾対象領域内の画像情報と前記第2のテンプレート画像の画像情報とを所定の割合で合成して前記第2のテンプレート画像を更新する更新部と、を備え、
前記生成部は、前記第1のテンプレート画像が小さい場合に前記第1のテンプレート画像全体を拡大して前記第2のテンプレート画像を生成し、
前記更新部は、前記生成部により前記第1のテンプレート画像全体を拡大して前記第2のテンプレート画像が生成された場合には、前記新たな追尾対象領域内の画像情報と前記第2のテンプレート画像の画像情報との合成割合について前記新たな追尾対象領域内の画像情報の割合を高くする画像追尾装置。 An imaging unit that repeatedly captures an image formed by the imaging optical system and generates an object scene image;
A generating unit that generates a first template image and a second template image obtained by enlarging a part of the first template image based on a tracking target region in the object scene image;
A computing unit for computing a correlation between an image in a search area provided in the scene image and each of the first and second template images;
A selection unit that compares the calculation results for each of the first and second template images by the calculation unit, and selects the calculation results based on the comparison results;
A detection unit that detects a position of an image to be tracked in the object scene image based on the calculation result selected by the selection unit;
A setting unit for setting a new tracking target area based on the position of the tracking target image detected by the detection unit;
An update unit that combines the image information in the new tracking target area and the image information of the second template image at a predetermined ratio to update the second template image;
The generating unit generates the second template image by enlarging the entire first template image when the first template image is small;
When the generation unit generates the second template image by enlarging the entire first template image, the update unit generates image information in the new tracking target region and the second template. An image tracking device that increases a ratio of image information in the new tracking target area with respect to a composition ratio of the image with the image information.
前記演算部は、前記探索領域内の画像と前記第1のテンプレート画像との差分を算出して第1の差分値を出力すると共に、前記探索領域内の画像と前記第2のテンプレート画像との差分を算出して第2の差分値を出力し、
前記選択部は、前記第1の差分値と前記第2の差分値との小さい方の差分値を選択する画像追尾装置。 The image tracking device according to claim 1, 2, 3, or 8.
The calculation unit calculates a difference between the image in the search area and the first template image and outputs a first difference value, and calculates the difference between the image in the search area and the second template image. Calculate the difference and output the second difference value,
The selection unit is an image tracking device that selects a smaller difference value between the first difference value and the second difference value.
前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、
前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、
前記演算部による前記第1及び第2のテンプレート画像のいずれかの演算結果を選択する選択部と、
前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の位置を検出する検出部と、
新たな被写界画像が生成されると、前記新たな被写界画像に基づき前記第1のテンプレート画像と前記第2のテンプレート画像を更新する更新部とを備え、
前記更新部は、前記選択部により連続して所定の回数、前記第2のテンプレート画像に対する演算結果が選択された場合に、前記選択部によって選択された演算結果に対する前記第2のテンプレート画像を、前記第1のテンプレート画像とする画像追尾装置。 An imaging unit that repeatedly captures an image formed by the imaging optical system and generates an object scene image;
A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a tracking target region in the object scene image;
A computing unit for computing a correlation between an image in a search area provided in the scene image and each of the first and second template images;
A selection unit for selecting any one of the calculation results of the first and second template images by the calculation unit;
A detection unit that detects a position of a tracking target in the object scene image based on the calculation result selected by the selection unit;
When a new scene image is generated, and a update unit for updating the second template image and the first template image based on the new scene image,
The update unit, when the calculation result for the second template image is selected a predetermined number of times continuously by the selection unit, the second template image for the calculation result selected by the selection unit, An image tracking device as the first template image.
前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、
前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、
前記演算部による前記第1及び第2のテンプレート画像のいずれかの演算結果を選択する選択部と、
前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の位置を検出する検出部と、
新たな被写界画像が生成されると、前記新たな被写界画像に基づき前記第1のテンプレート画像と前記第2のテンプレート画像を更新する更新部とを備え、
前記選択部は、連続して所定の回数、前記第2のテンプレート画像に対する演算結果を選択した場合には、前記第1のテンプレート画像に対する演算結果の選択を禁止する画像追尾装置。 An imaging unit that repeatedly captures an image formed by the imaging optical system and generates an object scene image;
A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a tracking target region in the object scene image;
A computing unit for computing a correlation between an image in a search area provided in the scene image and each of the first and second template images;
A selection unit for selecting any one of the calculation results of the first and second template images by the calculation unit;
A detection unit that detects a position of a tracking target in the object scene image based on the calculation result selected by the selection unit;
When a new scene image is generated, and a update unit for updating the second template image and the first template image based on the new scene image,
The image tracking device that prohibits selection of a calculation result for the first template image when the selection unit continuously selects a calculation result for the second template image a predetermined number of times.
前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、
前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、
前記演算部による前記第1及び第2のテンプレート画像のいずれかの演算結果を選択する選択部と、
前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の位置を検出する検出部と、
新たな被写界画像が生成されると、前記新たな被写界画像に基づき前記第1のテンプレート画像と前記第2のテンプレート画像を更新する更新部とを備え、
前記選択部により、連続して所定の回数、前記第2のテンプレート画像に対する演算結果が選択された場合、前記演算部は、次回以降に算出した前記第1のテンプレート画像の演算結果に対して、前記第1のテンプレート画像の演算結果が前記選択部によって選択されにくくさせるための補正を施す画像追尾装置。 An imaging unit that repeatedly captures an image formed by the imaging optical system and generates an object scene image;
A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a tracking target region in the object scene image;
A computing unit for computing a correlation between an image in a search area provided in the scene image and each of the first and second template images;
A selection unit for selecting any one of the calculation results of the first and second template images by the calculation unit;
A detection unit that detects a position of a tracking target in the object scene image based on the calculation result selected by the selection unit;
When a new scene image is generated, and a update unit for updating the second template image and the first template image based on the new scene image,
When the selection unit selects a calculation result for the second template image continuously a predetermined number of times, the calculation unit calculates the calculation result of the first template image calculated after the next time, An image tracking device that performs correction for making the calculation result of the first template image difficult to be selected by the selection unit.
前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、
前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、
前記被写界画像内で追尾対象が相対的に大きくなることを判定する判定部と、
新たな被写界画像が生成されると、前記新たな被写界画像に基づき前記第1のテンプレート画像と前記第2のテンプレート画像を更新する更新部と、
前記判定部により前記追尾対象が相対的に大きくなると判定された場合には、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果のうち、前記第2のテンプレート画像に対する演算結果を優先して選択し、前記判定部により前記追尾対象が相対的に大きくなると判定されない場合には、前記演算部による前記第1及び第2のテンプレート画像のいずれかの演算結果を選択する選択部と、
前記選択部により選択された前記演算結果に基づいて、前記被写界画像における追尾対象の画像の位置を検出する検出部と、を備える画像追尾装置。 An imaging unit that repeatedly captures an image formed by the imaging optical system and generates an object scene image;
A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a tracking target region in the object scene image;
A computing unit for computing a correlation between an image in a search area provided in the scene image and each of the first and second template images;
A determination unit that determines that the tracking target is relatively large in the object scene image;
When a new scene image is generated, an update unit for updating the second template image and the first template image based on the new scene image,
When the determination unit determines that the tracking target is relatively large, out of the calculation results for the first and second template images by the calculation unit, the calculation results for the second template image A selection unit that selects one of the calculation results of the first and second template images by the calculation unit when the determination unit does not determine that the tracking target is relatively large. and,
An image tracking device comprising: a detection unit that detects a position of an image to be tracked in the object scene image based on the calculation result selected by the selection unit.
前記被写界画像の中の追尾対象領域に基づいて、第1のテンプレート画像と前記第1のテンプレート画像を拡大した第2のテンプレート画像とを生成する生成部と、
前記被写界画像に設けられた探索領域内の画像と、前記第1及び第2のテンプレート画像のそれぞれとの間の相関を演算する演算部と、
新たな被写界画像が生成されると、前記新たな被写界画像に基づき前記第1のテンプレート画像と前記第2のテンプレート画像を更新する更新部と、
前記結像光学系の焦点状態を演算して、焦点調節を行う焦点調節部と、
前記焦点調節部による演算結果に基づいて、追尾対象が前記結像光学系の光軸方向に対して接近しているか否かを判定する判定部と、
前記判定部により前記追尾対象が接近していると判定された場合には、前記演算部による前記第1及び第2のテンプレート画像のそれぞれに対する演算結果のうち、前記第2のテンプレート画像に対する演算結果を優先して選択し、前記判定部により前記追尾対象の接近が判定されない場合には、前記演算部による前記第1及び第2のテンプレート画像のいずれかの演算結果を選択する選択部と、
前記選択部により選択された前記演算結果に基づいて、前記被写界画像における前記追尾対象の位置を検出する検出部と備える画像追尾装置。
An imaging unit that repeatedly captures an image formed by the imaging optical system and generates an object scene image;
A generating unit that generates a first template image and a second template image obtained by enlarging the first template image based on a tracking target region in the object scene image;
A computing unit for computing a correlation between an image in a search area provided in the scene image and each of the first and second template images;
When a new scene image is generated, an update unit for updating the second template image and the first template image based on the new scene image,
A focus adjustment unit that calculates a focus state of the imaging optical system and performs focus adjustment;
A determination unit that determines whether or not the tracking target is approaching the optical axis direction of the imaging optical system, based on a calculation result by the focus adjustment unit;
When the determination unit determines that the tracking target is approaching, the calculation result for the second template image among the calculation results for the first and second template images by the calculation unit When the determination unit does not determine the approach of the tracking target, a selection unit that selects one of the calculation results of the first and second template images by the calculation unit;
An image tracking device provided with the detection part which detects the position of the said tracking object in the said scene image based on the said calculation result selected by the said selection part.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011052711A JP5966249B2 (en) | 2011-03-10 | 2011-03-10 | Image tracking device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011052711A JP5966249B2 (en) | 2011-03-10 | 2011-03-10 | Image tracking device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012191399A JP2012191399A (en) | 2012-10-04 |
JP5966249B2 true JP5966249B2 (en) | 2016-08-10 |
Family
ID=47084091
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011052711A Active JP5966249B2 (en) | 2011-03-10 | 2011-03-10 | Image tracking device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5966249B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9811731B2 (en) * | 2013-10-04 | 2017-11-07 | Qualcomm Incorporated | Dynamic extension of map data for object detection and tracking |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3475026B2 (en) * | 1996-10-24 | 2003-12-08 | 富士通株式会社 | Shape tracking method and apparatus |
JP2001243476A (en) * | 2000-03-02 | 2001-09-07 | Mitsubishi Heavy Ind Ltd | Method and device for monitoring moving body |
JP2007072665A (en) * | 2005-09-06 | 2007-03-22 | Fujitsu Ten Ltd | Object discrimination device, object discrimination method and object discrimination program |
JP2007334810A (en) * | 2006-06-19 | 2007-12-27 | Toshiba Corp | Image area tracking device and method therefor |
WO2008114683A1 (en) * | 2007-03-16 | 2008-09-25 | Nikon Corporation | Object tracking computer program product, object tracking device, and camera |
JP5157256B2 (en) * | 2007-05-28 | 2013-03-06 | 株式会社ニコン | Image tracking device and imaging device |
JP4872834B2 (en) * | 2007-07-04 | 2012-02-08 | 株式会社ニコン | Image recognition device, focus adjustment device, and imaging device |
JP5181781B2 (en) * | 2008-03-31 | 2013-04-10 | 富士通株式会社 | Image tracking device, image tracking method, and image tracking program |
JP5247419B2 (en) * | 2008-12-26 | 2013-07-24 | キヤノン株式会社 | Imaging apparatus and subject tracking method |
-
2011
- 2011-03-10 JP JP2011052711A patent/JP5966249B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012191399A (en) | 2012-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4872834B2 (en) | Image recognition device, focus adjustment device, and imaging device | |
JP5247076B2 (en) | Image tracking device, focus adjustment device, and imaging device | |
JP5176483B2 (en) | Image recognition device, image tracking device, and imaging device | |
JP5157256B2 (en) | Image tracking device and imaging device | |
JP2009015117A (en) | Focusing device and image pickup apparatus | |
JP2009109839A (en) | Image tracking device and imaging device | |
JP5879736B2 (en) | Image tracking device and imaging device | |
JP5403111B2 (en) | Image tracking device | |
JP5056136B2 (en) | Image tracking device | |
JP4888249B2 (en) | Focus detection apparatus and imaging apparatus | |
JP4985155B2 (en) | Focus adjustment device and imaging device | |
JP5966249B2 (en) | Image tracking device | |
JP2010200138A (en) | Photographic subject tracking device | |
JP5541396B2 (en) | Image tracking device | |
JP5018932B2 (en) | Imaging device | |
JP5176845B2 (en) | Image tracking device and imaging device | |
JP5446660B2 (en) | Image recognition apparatus and imaging apparatus | |
JP5447579B2 (en) | Tracking device, focus adjustment device, and photographing device | |
JP5233646B2 (en) | Image tracking device, imaging device, and image tracking method | |
JP5789937B2 (en) | Image tracking device and imaging device | |
JP5347834B2 (en) | Image tracking device | |
JP2010054586A (en) | Focusing device and imaging apparatus | |
JP2012093775A (en) | Focus detector and imaging apparatus | |
JP5772933B2 (en) | Imaging device | |
JP2018063439A (en) | Focus adjustment device and imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140306 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150330 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160607 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160620 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5966249 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |