JPH1186004A - Moving body tracking device - Google Patents

Moving body tracking device

Info

Publication number
JPH1186004A
JPH1186004A JP9247325A JP24732597A JPH1186004A JP H1186004 A JPH1186004 A JP H1186004A JP 9247325 A JP9247325 A JP 9247325A JP 24732597 A JP24732597 A JP 24732597A JP H1186004 A JPH1186004 A JP H1186004A
Authority
JP
Japan
Prior art keywords
template
moving object
image
differential
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9247325A
Other languages
Japanese (ja)
Other versions
JP3481430B2 (en
Inventor
Jun Wakitani
潤 脇谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP24732597A priority Critical patent/JP3481430B2/en
Priority to US09/017,313 priority patent/US6031568A/en
Priority to DE69828346T priority patent/DE69828346T2/en
Priority to EP98101910A priority patent/EP0902396B1/en
Publication of JPH1186004A publication Critical patent/JPH1186004A/en
Application granted granted Critical
Publication of JP3481430B2 publication Critical patent/JP3481430B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve the real-time performance and tracking performance by finding color information, differential information, and target position information based upon the prediction of movement based upon movement in the past in the form of two-dimensional maps and detecting the target position according to the map obtained by integrating them. SOLUTION: This device consists of a color space distortion map generation part 10, a differentiating process part 20, a differential space distortion map generation part 30, an evaluated value map generation part 40, a minimum position detection part 50,a movement prediction value and map generation part 60, and a color template update part 70. Further, a correlator 80 is provided and shared by the color space distortion map generation part 10, differentiating process part 20, and differential space distortion map generation part 30. Then, the color information, the differential information, and the target position information based upon the prediction of the movement based upon the movement in the past are found in the form of the two-dimensional maps, which are integrated to detect the target position on the basis of the integrated map.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、1つ以上の移動値
を含むシーンが撮影されてなる、順次連続する複数のフ
レームからなる原画像を入力し、その原画像中に映し出
された被追跡用移動体を追跡する移動体追跡装置にに関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method of inputting an original image composed of a plurality of frames which are successively formed by photographing a scene including one or more movement values, and tracking the image displayed in the original image. The present invention relates to a moving object tracking device that tracks a moving object.

【0002】[0002]

【従来の技術】例えば広いフィールドでサッカーゲーム
を行っている様子を撮影して得た動画像上で、そのサッ
カーゲームを行っている複数の選手の中から指定された
特定の選手をリタルタイムで追跡することができるよう
な装置の出現が望まれている。従来より、例えば上記の
選手などのような被追跡用移動体(ターゲット)を追跡
した結果を動画像中に表示する装置は既に何種類か存在
している。しかし、それらの装置は、撮影済の動画像を
ソフトウェアでオフラインで処理する装置であり、処理
時間が非常に長く、動画像を撮影しその場で特定の選手
を追跡するというリアルタイム性が要求される場合には
全く役に立たないものである。また、上記のようなサッ
カーゲームにおける特定の選手を追跡するような場面に
おいては、その選手は、走ったり止まったり、あるいは
向きを変えたり、さらには転倒したりなど、撮影された
画像上で大きく変形するため、従来の装置では、オフラ
イン処理であっても、その目標とする選手の追跡が直ぐ
に不能となり、自動追跡不能の区間をオペレータがマニ
ュアルでつなぐ必要があり、十分な自動化が実現できて
いないという問題もある。
2. Description of the Related Art For example, on a moving image obtained by photographing a state where a soccer game is being played in a wide field, a specific player specified from among a plurality of players who are playing the soccer game is written in a literal time. The advent of devices that can be tracked is desired. 2. Description of the Related Art Conventionally, there are already some types of devices that display the result of tracking a moving object to be tracked (target) such as the above-mentioned player in a moving image. However, these devices are devices that process captured moving images offline with software, and the processing time is extremely long, requiring real-time capability of capturing moving images and tracking specific players on the spot. It is useless at all. Also, in a scene where a specific player is tracked in a soccer game as described above, the player may run, stop, change direction, or even fall, and may have a large size on the captured image. Because of the deformation, in the conventional device, even in the offline processing, the tracking of the target player is immediately impossible, and the operator must manually connect the section where the automatic tracking cannot be performed, and sufficient automation can be realized. There is another problem.

【0003】近年、リアルタイム性を重視する移動体追
跡手法として、相関演算に基づくテンプレートマッチン
グによる手法が開発されてきている。この手法では、画
像上の、追跡のための探索領域を局所領域に限定するこ
とで計算量を減らし、また計算原理上、処理の並列化が
可能であるため、リアルタイム処理を可能としている。
しかしながら、この手法は、テンプレートをあらかじめ
作成しておき、そのあらかじめ作成されたテンプレート
との相関演算を行なうだけのものであるため、上記のサ
ッカゲームの選手のように画像上大きく変形するような
ターゲットに対してはそのターゲットをすぐに見失って
しまうという弱点があり、リアルタイム性は向上してい
るものの追跡性能の面で満足できるものではない。
In recent years, as a moving object tracking method that attaches importance to real-time properties, a method using template matching based on a correlation operation has been developed. In this method, the amount of calculation is reduced by limiting the search area for tracking to a local area on the image, and processing can be parallelized on the calculation principle, so that real-time processing is possible.
However, since this method only creates a template in advance and performs a correlation operation with the template created in advance, a target that greatly deforms on an image like the player in the sucker game described above is used. Has the disadvantage that the target is immediately lost, and although the real-time property is improved, the tracking performance is not satisfactory.

【0004】また、追跡のための情報として何を採用す
るかという点に関しては、色情報を用いて動きベクトル
を求めるのがよいという提案(特開平8−130675
号公報参照)、通常の観察に供するような画像ではな
く、その画像を空間的に微分した微分画像を用いて相関
演算を行なうのがよいという提案(特開昭60−209
104号公報参照)、追跡しているターゲットの過去の
動きの情報から次の動きを予測するのがよいという提案
(特開昭60−195682号公報参照)等、従来より
種々の提案がなされているが、何れの提案もリアルタイ
ム性と、実用上十分な追跡性能とを両立させるという要
求を満足するものではない。
[0004] As for what to adopt as information for tracking, it is suggested that a motion vector be obtained using color information (Japanese Patent Laid-Open No. Hei 8-130675).
(See Japanese Patent Application Laid-Open No. 60-209), it is better to perform a correlation operation using a differential image obtained by spatially differentiating the image instead of an image used for ordinary observation.
Various proposals have been made in the past, such as a proposal that the next movement should be predicted from information on past movements of a tracked target (see Japanese Patent Application Laid-Open No. 60-195682). However, none of the proposals satisfies the requirement to achieve both real-time performance and practically sufficient tracking performance.

【0005】本発明は、上記事情に鑑み、リアルタイム
性と追跡性能の向上が図られた移動体追跡装置を提供す
ることを目的とする。
[0005] In view of the above circumstances, it is an object of the present invention to provide a mobile object tracking device that has improved real-time performance and tracking performance.

【0006】[0006]

【発明が解決しようとする課題】上記目的を達成する本
発明の移動体追跡装置は、1つ以上の移動体を含むシー
ンが撮影されてなる、順次連続する複数のフレームから
なる原画像を入力し、その原画像に映し出された移動体
の中から選択された被追跡用移動体を追跡する移動体追
跡装置において、原画像を構成する色分解画像に映し出
された被追跡用移動体と対比される色テンプレートと、
色分解画像との第1の相関値の分布を求める第1の相関
値分布演算部と、原画像を空間的微分することにより微
分画像を求める微分処理部と、微分画像に映し出された
被追跡用移動体と対比される微分テンプレートと、微分
画像との第2の相関値の分布を求める第2の相関値分布
演算部と、被追跡用移動体の過去の動きに基づいて、該
被追跡用の移動体が存在する蓋然性をあらわす動き予測
値の分布を求める動き予測値分布演算部と、上記第1の
相関値、上記第2の相関値、および上記動き予測値を統
合して評価値を求めることにより、被追跡用の移動体の
存在位置を表わす評価値の分布を求める評価値分布演算
部と、評価値分布演算部で求められた評価値の分布に基
づいて、被追跡用移動体の存在位置を検出する位置検出
部とを備えたことを特徴とする。
A moving object tracking apparatus according to the present invention, which achieves the above object, inputs an original image consisting of a plurality of consecutive frames in which a scene including one or more moving objects is photographed. In a moving object tracking device that tracks a moving object to be tracked selected from the moving objects displayed in the original image, the moving object tracking device is compared with the moving object to be tracked displayed in a color separation image constituting the original image. Color template and
A first correlation value distribution operation unit for obtaining a distribution of a first correlation value with the color separation image, a differentiation processing unit for obtaining a differential image by spatially differentiating the original image, and a tracking target displayed on the differential image A second correlation value distribution calculating unit for calculating a distribution of a second correlation value between the differential template and the differential image, and a tracking object based on a past movement of the tracking mobile object Predicted value distribution calculating unit for obtaining a distribution of motion predicted values representing the probability that a moving object exists, and integrating the first correlation value, the second correlation value, and the motion prediction value into an evaluation value Calculating the distribution of the evaluation value representing the position of the moving object to be tracked. A position detection unit that detects the position of the body And it features.

【0007】ここで、本発明にいう「原画像を構成する
色分解画像」は、明度だけの情報を有する白黒画像のと
きは、いわば1色分の画像しかないため、その色分解画
像は原画像そのものであり、原画像が、例えばR(レッ
ド)、G(グリーン)、B(ブルー)、それぞれの画像
からなる場合は、それら各色の画像それぞれが色分解画
像である。本発明では、色分解画像が複数存在すると
き、ある1色分の色分解画像のみを採用してもよく、複
数色分の色分解画像それぞれを採用してもよい。複数色
分の色分解画像を採用するときは、色テンプレートも、
各色分解画像それぞれとの対比用に複数色分用意され
る。
Here, the "color-separated image forming the original image" referred to in the present invention is a black-and-white image having only lightness information, since there is only an image for one color. When the original image is composed of, for example, R (red), G (green), and B (blue) images, the images of the respective colors are color separation images. In the present invention, when there are a plurality of color separation images, only one color separation image may be employed, or each of the plurality of color separation images may be employed. When using color separation images for multiple colors, the color template
A plurality of colors are prepared for comparison with each color separation image.

【0008】また、上記第1の相関値分布演算部、第2
の相関値分布演算部で求められる第1の相関値、第2の
相関値は、数学的な意味における相関演算により求めら
れる相関値である必要はなく、テンプレートと一部領域
との近似の度合いを指標する値であればよい。ここで
は、近似の度合いを指標する値を「相関値」と称し、そ
の相関値を求める演算を「相関演算」と称する。
In addition, the first correlation value distribution calculator, the second
The first correlation value and the second correlation value calculated by the correlation value distribution calculation unit need not be the correlation values calculated by the correlation calculation in a mathematical sense, but the degree of approximation between the template and the partial area. Any value may be used as an index. Here, a value indicating the degree of approximation is referred to as a “correlation value”, and a calculation for obtaining the correlation value is referred to as a “correlation calculation”.

【0009】上記第1の相関値分布演算部では、例え
ば、色テンプレートと、色分解画像から切り出された、
色テンプレートの寸法と同一寸法の一部領域との近似の
度合いを表わす第1の相関値を求めて求めた第1の相関
値をその一部領域内の1つの画素に対応づける操作を、
その色分解画像からの一部領域の切り出し位置を順次変
更しながら順次実行することにより、原画像の全領域も
しくは一部領域からなる所定の探索領域内の第1の相関
値の分布が求められ、上記第2の相関値分布演算部で
は、例えば、微分テンプレートと、微分画像から切り出
された、微分テンプレートの寸法と同一寸法の一部領域
との近似の度合いを表わす第2の相関値を求めて求めた
第2の相関値をその一部領域内の1つの画素に対応づけ
る操作を、微分画像からの一部領域の切り出し位置を順
次変更しながら順次実行することにより、上記探索領域
内の第2の相関値の分布が求められる。
In the first correlation value distribution calculator, for example, a color template and a color separation image
The operation of associating the first correlation value obtained by obtaining the first correlation value representing the degree of approximation of the size of the color template with a partial region having the same size as one pixel in the partial region,
By sequentially changing the cutout position of a partial region from the color separation image while sequentially changing the position, the distribution of the first correlation value within a predetermined search region including the entire region or the partial region of the original image is obtained. In the second correlation value distribution calculating section, for example, a second correlation value representing the degree of approximation between the differential template and a partial region cut out from the differential image and having the same dimensions as the dimensions of the differential template is obtained. By sequentially executing the operation of associating the second correlation value obtained as described above with one pixel in the partial area while sequentially changing the cutout position of the partial area from the differential image, A second correlation value distribution is determined.

【0010】さらに、本発明にいう探索領域は、原画像
の全域であってもよく一部領域であってもよいが、原画
像の寸法、および被追跡用移動体(ターゲット)の寸法
や動きの速さ等を考慮し、できるだけ局所的な領域に制
限する方が、演算量の低減という観点から好ましい。前
述したように、従来より、ターゲットの追跡にあたっ
て、色情報を採用すると言う提案、画像を微分するとい
う提案、ターゲットの過去の動きに基づいてターゲット
の動きを予測するという提案のいずれもが存在する。し
かしながら、これらをどのように組み合わせると、リア
ルタイム性を確保することができ、かつ追跡性能を向上
させることができるか、という点が重要である。
Further, the search area according to the present invention may be the whole area of the original image or a partial area. However, the size of the original image and the size and movement of In consideration of the speed and the like, it is preferable to limit the region to a local region as much as possible from the viewpoint of reducing the amount of calculation. As described above, conventionally, there have been proposals for adopting color information for tracking a target, proposals for differentiating images, and proposals for predicting the movement of a target based on past movements of the target. . However, it is important how these are combined to ensure real-time performance and improve tracking performance.

【0011】本発明は、色分解画像と色テンプレートと
の相関演算により、第1の相関値の分布(以下、この第
1の相関値の分布を「色空間ディストーションマップ」
と称することがある)を求め、かつ微分画像と微分テン
プレートとの相関演算により第2の相関値の分布(以
下、この第2の相関値の分布を「微分空間ディストーシ
ョンマップ」と称することがある)を求め、本発明では
このように相関演算を基調として、2つのディストーシ
ョンマップを求めるとともに、さらに、ターゲットの過
去の動きに基づいてターゲットの動きを予測し、その動
きの予測を動き予測値の分布(以下、この動き予測値の
分布を「動き予測値マップ」と称することがある)を求
めるものであり、このように、3つの手法による結果を
同一の探索領域における3つの分布(マップ)の形式に
揃えたことに本発明の特徴の1つがあり、このように3
つの分布(マップ)の形式に揃えたことから、それら3
つの分布の統合、すなわち3つの手法による追跡結果の
統合が容易となり、リアルタイム性を確保した上で、そ
れら3つの手法による追跡結果を統合した追跡性能の高
い自動追跡が可能となる。
According to the present invention, a distribution of a first correlation value (hereinafter referred to as a "color space distortion map") is calculated by a correlation operation between a color separation image and a color template.
), And a second correlation value distribution (hereinafter, this second correlation value distribution may be referred to as a “differential space distortion map”) by calculating a correlation between the differential image and the differential template. ), And in the present invention, two distortion maps are obtained based on the correlation operation as described above, and furthermore, the motion of the target is predicted based on the past motion of the target. A distribution (hereinafter, this distribution of motion prediction values is sometimes referred to as a “motion prediction value map”) is obtained. Is one of the features of the present invention.
Three distributions (maps)
The integration of the three distributions, that is, the integration of the tracking results by the three methods becomes easy, and the automatic tracking with high tracking performance by integrating the tracking results by the three methods can be performed while ensuring the real-time property.

【0012】ここで、上記本発明の移動体追跡装置にお
いて、上記評価値分布演算部が、第1の相関値の分布の
信頼性を評価する信頼性評価部を含み、信頼性が低いと
判定された第1の相関値の分布を、評価値の分布を求め
る処理から除外した上で、評価値の分布を求めるもので
あることが好ましい。あるいは、上記評価値分布演算部
は、第1の相関値の分布の信頼性および第2の相関値の
分布の信頼性の双方を評価する信頼性評価部を含み、信
頼性が低いと判定された第1の相関値の分布、および信
頼性が低いと判定された第2の相関値の分布を、評価値
の分布を求める処理から除外した上で、評価値の分布を
求めるものであってもよい。
Here, in the moving object tracking apparatus of the present invention, the evaluation value distribution calculating section includes a reliability evaluating section for evaluating the reliability of the distribution of the first correlation value, and determines that the reliability is low. It is preferable that the distribution of the evaluation values is obtained after excluding the distribution of the obtained first correlation values from the processing for obtaining the distribution of the evaluation values. Alternatively, the evaluation value distribution calculation unit includes a reliability evaluation unit that evaluates both the reliability of the first correlation value distribution and the reliability of the second correlation value distribution, and is determined to have low reliability. Calculating the distribution of the evaluation values after excluding the distribution of the first correlation values and the distribution of the second correlation values determined to have low reliability from the processing for obtaining the distribution of the evaluation values. Is also good.

【0013】ターゲットの変形等によりターゲットの位
置がうまく捉えられていない相関値の分布(ディストー
ションマップ)が求められることがある。そこで、例え
ばしきい値処理等の手法により、そのディストーション
マップの信頼性を評価し、信頼性の低いディストーショ
ンマップを総合評価用の‘評価値の分布’を求めるため
の統合化から除外すると、信頼性の高い‘評価値の分
布’が求められ、追跡性能の一層の向上が図られる。
A distribution (distortion map) of a correlation value in which the position of the target is not well captured due to deformation of the target or the like may be obtained. Therefore, for example, the reliability of the distortion map is evaluated by a method such as threshold processing, and if the distortion map with low reliability is excluded from integration for obtaining the 'distribution of evaluation values' for comprehensive evaluation, A highly-reliable 'evaluation value distribution' is required, and the tracking performance is further improved.

【0014】なお、信頼性の低いディストーションマッ
プが求められる可能性は色空間ディストーションマップ
の方が微分空間ディストーションマップよりも格段に高
く、従って上記の信頼性評価部は、色空間ディストーシ
ョンマップと微分空間ディストーションマップの双方に
ついて信頼性を評価することがより好ましいものの、時
間的な制約あるいは回路規模上の制約があるときは、色
空間ディストーションマップのみの信頼性を評価するも
のであってもよい。
The probability that a distortion map with low reliability is required is much higher in the color space distortion map than in the differential space distortion map. Therefore, the reliability evaluation section described above uses the color space distortion map and the differential space Although it is more preferable to evaluate the reliability of both of the distortion maps, when there is a time limitation or a limitation on the circuit scale, the reliability of only the color space distortion map may be evaluated.

【0015】また、本発明の移動体追跡装置において、
上記色テンプレートが、順次更新されるテンポラリテン
プレートを含むものであって、色分解画像内の、位置検
出部で検出された、被追跡用移動体の存在位置を含む画
像領域を、そのテンポラリテンプレートに統合すること
により、テンポラリテンプレートを更新する色テンプレ
ート更新部を備えることが好ましい。
Further, in the moving object tracking device of the present invention,
The color template includes a temporary template that is sequentially updated, and an image area in the color separation image that includes the position of the tracked moving object detected by the position detection unit is included in the temporary template. It is preferable to include a color template update unit that updates the temporary template by integrating the color templates.

【0016】上述したように、微分空間ディストーショ
ンマップと比べ色空間ディストーションマップは信頼性
に劣る。これは、色分解画像上では、ターゲットを捕ら
えにくいことを意味する。そこで、色テンプレートの1
つとしてテンポラリテンプレートを用意し、そのテンポ
ラリテンプレートをそのときそのときの状況に応じて更
新することにより、現在の状況に合った色テンプレート
が構成され、色空間ディストーションマップの信頼性を
向上させることができる。
As described above, the color space distortion map is inferior in reliability to the differential space distortion map. This means that it is difficult to catch the target on the color separation image. Therefore, one of the color templates
By preparing a temporary template and updating the temporary template according to the situation at that time, a color template suitable for the current situation is constructed, and the reliability of the color space distortion map can be improved. it can.

【0017】ここで、テンポラリテンプレートを更新す
るための構成として、上記評価値分布演算部が、第1の
相関値と第2の相関値とを各画素毎に統合して各画素毎
の統合化相関値を求めることにより統合化相関値の分布
を求める第1の統合化処理部と、その第1の統合化処理
部で求められた統合化相関値と、動き予測値演算部で求
められた動き予測値とを各画素毎に統合して各画素毎の
評価値を求めることにより評価値の分布を求める第2の
統合化処理部とを有し、テンプレート更新部が、上記統
合化相関値の分布に基づいて被追跡用移動体に近似した
物体の存在位置を、複数位置の検出を許容して検出する
近似物体検出部と、色分解画像内の、位置検出部で検出
された、被追跡用移動体の存在位置を含む第1の画像領
域とテンポラリテンプレートとの近似の度合いをあらわ
す第1の近似度、および上記第1の画像領域と、近似物
体検出部で検出された、近似物体の存在位置を含む第2
の画像領域との近似の度合いをあらわす第2の近似度を
求め、第1の近似度の方が第2の近似度よりも近似の度
合が大きいことをあらわしている場合に上記第1の画像
領域をテンポラリテンプレートに統合することにより、
テンポラリテンプレートを更新する評価・統合部とを有
するものであることが好ましい。
Here, as a configuration for updating the temporary template, the evaluation value distribution calculation unit integrates the first correlation value and the second correlation value for each pixel and integrates each pixel. A first integrated processing unit for obtaining an integrated correlation value distribution by obtaining a correlation value, an integrated correlation value obtained by the first integrated processing unit, and a motion prediction value calculation unit A second integrated processing unit that obtains an evaluation value distribution by integrating the motion prediction value for each pixel and obtains an evaluation value for each pixel, wherein the template updating unit includes the integrated correlation value An approximate object detection unit that detects the existence position of an object approximated to the moving object to be tracked based on the distribution of the plurality of positions while allowing detection of a plurality of positions; A first image area including the position of the tracking mobile unit and a temporary image First approximation degree representing the degree of approximation of the plate, and in the first image area, detected by the approximation object detecting unit, the including the presence position of the approximate object 2
A second degree of approximation representing the degree of approximation to the image area of the first image is obtained. If the first degree of approximation indicates that the degree of approximation is greater than the second degree of approximation, By integrating the area into a temporary template,
It is preferable to have an evaluation / integration unit that updates the temporary template.

【0018】テンプレートは、ターゲットを精度良く検
出することができるものである必要があり、このために
は、ターゲットには強く反応し、ターゲットではないも
のには反応しにくいことが望まれる。そこで、上記の構
成を採用することにより、それまでのテンポラリテンプ
レートに近似した画像領域が求められたときのみ、その
画像領域を用いてテンポラリテンプレートが更新され、
ターゲットの現在の状態に適合した、かつ他の移動体等
との識別がより確実に行われるテンポラリテンプレート
が生成される。
The template must be capable of accurately detecting the target. For this purpose, it is desired that the template reacts strongly to the target and hardly reacts to a non-target. Therefore, by adopting the above configuration, the temporary template is updated using the image area only when an image area similar to the previous temporary template is obtained,
A temporary template that matches the current state of the target and that is more reliably distinguished from other moving objects is generated.

【0019】また、上記本発明の第1の相関値分布演算
部および第2の相関値分布演算部に共用される、もしく
はこれら第1の相関値分布演算部および第2の相関値分
布演算部それぞれに配備された、2つの画像ないし画像
領域の、互いに対応する画素に割り当てられた画素値ど
うしの差分の絶対値を、それら2つの画像ないし画像領
域にわたって積算してなる相関値を求める相関器を備
え、微分処理部が、その相関器に、原画像を微分して微
分画像を求める微分演算のうちの一部の演算を実行させ
るものであることも好ましい態様である。
Further, the first correlation value distribution operation unit and the second correlation value distribution operation unit are shared by the first correlation value distribution operation unit and the second correlation value distribution operation unit of the present invention. A correlator for determining a correlation value obtained by integrating the absolute value of a difference between pixel values assigned to mutually corresponding pixels of two images or image regions over the two images or image regions, respectively, provided for each of them. In another preferred embodiment, the differential processing unit causes the correlator to execute a part of differential operations for differentiating an original image to obtain a differential image.

【0020】本発明の移動体追跡装置における第1の相
関値分布演算部および第2の相関値分布演算部における
相関演算アルゴリズムの好ましい態様の1つとして、2
つの画像ないし画像領域の互いに対応する画素に割り当
てられた画素値どうしの差分の絶対値を、それら2つの
画像ないし画像領域にわたって積算してなる相関値を求
める相関演算アルゴリズムを採用することができる。こ
のような相関演算アルゴリズムを採用すると、数学的な
意味における相関演算における掛け算が引き算に置き換
わり、相関値を極めて迅速に求めることができる。
As one preferable embodiment of the correlation calculation algorithm in the first correlation value distribution calculation unit and the second correlation value distribution calculation unit in the mobile unit tracking apparatus of the present invention, 2
It is possible to employ a correlation calculation algorithm for obtaining a correlation value obtained by integrating the absolute value of the difference between pixel values assigned to mutually corresponding pixels in one image or image region over the two images or image regions. When such a correlation calculation algorithm is employed, the multiplication in the correlation calculation in the mathematical sense is replaced with the subtraction, and the correlation value can be obtained very quickly.

【0021】このような相関器を備えた場合、後述する
ように、原画像から微分画像を求めるときの微分演算の
うちの一部の演算をその相関器に行わせることもでき
る。本発明の微分処理部では微分演算を行うにあたりそ
の微分演算を実行する独自のモジュールを構成してもよ
いが、上記の相関器を共用してもよい。その相関器を共
用すると、その分、回路規模が削減される。
When such a correlator is provided, it is possible to cause the correlator to perform a part of the differential operation for obtaining a differential image from an original image, as described later. In the differential processing unit of the present invention, when performing the differential operation, a unique module that executes the differential operation may be configured, or the above-described correlator may be shared. Sharing the correlator reduces the circuit scale accordingly.

【0022】また、本発明の移動体追跡装置において、
上記動き予測値分布演算部は、被追跡用移動体の、現時
点から次の時点までの間の動きを予測した予測動きベク
トルを求め、その予測動きベクトルがあらわす、次の時
点における被追跡用移動体の存在予測位置に最大の蓋然
性、その存在予測位置から離れるに従って低下した蓋然
性をあらわす動き予測値を、探索領域内の各画素に対応
づけるものであることが好ましい。
Also, in the moving object tracking device of the present invention,
The motion prediction value distribution calculation unit obtains a predicted motion vector that predicts the motion of the tracked moving object from the current time to the next time, and the predicted motion vector represents the tracked movement at the next time. It is preferable to associate a motion prediction value representing the maximum probability at the predicted body presence position and the probability of decreasing with distance from the predicted body presence position with each pixel in the search area.

【0023】本発明の移動体追跡装置は、ターゲットの
過去の動きからそのターゲットの動きを予測するにあた
り、従来技術のように動きベクトルのみを求めるのでは
なく、動き予測値の分布(動き予測値マップ)を求める
ことに1つの特徴があるが、やはり、予測動きベクトル
があらわすターゲットの移動予測位置にターゲットが移
動する可能性が一番高い。そこで、予測動きベクトルを
求め、その予測動きベクトルが表わす、ターゲットの移
動予測位置に、その位置にターゲットが移動する蓋然性
として最大の蓋然性、そこから離れるに従って低下した
蓋然性をあらわす動き予測値マップを作成することによ
り、より確実な追跡が可能となる。
In predicting the movement of a target from the past movement of the target, the moving object tracking apparatus of the present invention does not calculate only the motion vector as in the prior art, but distributes the motion prediction value (motion prediction value). There is one characteristic in obtaining the map), but again, the target is most likely to move to the target movement predicted position indicated by the predicted motion vector. Therefore, a predicted motion vector is calculated, and a predicted motion value map is created that indicates the maximum probability of the target moving to the target movement predicted position represented by the predicted motion vector and the probability of the target moving to that position, and the probability of decreasing as the distance from the target increases. By doing so, more reliable tracking becomes possible.

【0024】ここで、予測動きベクトルを求めるにあた
っては、上記動き予測値分布演算部が、現時点における
被追跡用移動体の存在予測位置をあらわす、過去の時点
で求められた予測動きベクトルと、位置検出部により上
記過去の時点と現時点との双方で検出された被追跡用移
動体の存在位置どうしの位置の相違から求められる被追
跡用移動体の実際の動きをあらわす動きベクトルとに基
づいて、被追跡用移動体の、現時点から次の時点までの
間の動きを予測した予測動きベクトルを求めるものであ
ることが好ましい。
Here, when obtaining the predicted motion vector, the motion predicted value distribution calculation unit calculates the predicted motion vector obtained at the past time, which indicates the predicted position of the moving object to be tracked at the present time, and the position. Based on a motion vector representing the actual motion of the tracked moving body determined from the difference between the positions of the existing positions of the tracked moving body detected at both the past time and the current time by the detection unit, It is preferable to obtain a predicted motion vector that predicts the motion of the tracked moving object from the current time to the next time.

【0025】このようなアルゴリズムにより求められる
予測動きベクトルは、過去のターゲットが実際に通った
軌跡の集大成の意味を持っている。そこで、上記のよう
に、ターゲットの過去の軌跡の集大成である予測動きベ
クトルとそのターゲトの直近の動きを表わす動きベクト
ルとに基づいて次の予測動きベクトルを求めることによ
り、そのターゲットの過去の動きも考慮された、より確
度の高い予測動きベクトルが求められ、ひいてはターゲ
ットの追跡性能が向上する。
The predicted motion vector obtained by such an algorithm has the meaning of the culmination of the trajectory actually passed by the past target. Therefore, as described above, by calculating the next predicted motion vector based on the predicted motion vector that is the culmination of the past trajectory of the target and the motion vector representing the latest motion of the target, the past motion of the target is obtained. In consideration of the above, a more accurate predicted motion vector is obtained, and the tracking performance of the target is improved.

【0026】また、予測動きベクトルを求めた後の動き
予測値マップを求めるにあたっては、動き予測値分布演
算部が、予測動きベクトルがあらわす被追跡用移動体の
存在予測位置を中心とした距離の関数としての動き予測
値を、探索領域内の各画素に対応づけるものであっても
よいが、上記動き予測値分布演算部が、予測動きベクト
ルがあらわす被追跡用移動体の存在予測位置を中心と
し、その予測動きベクトルの方向の距離に対する重みと
その方向に対し交わる方向の距離に対する重みとが異な
る重みをもつ、これら2つの距離の関数としての動き予
測値を、探索領域内の各画素に対応づけるものであるこ
とが、より好ましい。
In obtaining a motion predicted value map after obtaining a predicted motion vector, the motion predicted value distribution calculating section calculates a distance of a distance around the predicted position of the tracked moving object represented by the predicted motion vector. The motion prediction value as a function may be associated with each pixel in the search area. However, the motion prediction value distribution calculation unit may be configured to center the predicted motion position of the tracked moving object represented by the predicted motion vector. The motion prediction value as a function of these two distances having different weights for the distance in the direction of the predicted motion vector and the distance in the direction intersecting the direction is assigned to each pixel in the search area. It is more preferable that they are associated.

【0027】通常は、ある速度で移動しているターゲッ
トは、次の時点でも同じ方向に進んでいる可能性が高
い。例えば、このような状況があてはまる状況において
は、例えば予測動きベクトルの方向に長軸を持つ楕円体
形状の動き予測値マップを作成することにより、より安
定的な追跡を行なうことができる。ただし、本発明の移
動体追跡装置では、予測動きベクトルの方向に長軸を持
っていることは必ずしも必要ではなく、例えば本発明の
移動体追跡装置をカーブの多い動きをするターゲットに
適用するときは、動き予測ベクトルの方向に対し交わる
方向に長軸を持っていることが好ましく、あるいは本発
明の移動体追跡装置を直進とカーブとのいずれが多いと
もいえない動きが予測されるターゲットに適用するとき
は、いずれの方向にも長軸、短軸を持たない等方な形状
の動き予測値マップを採用してもよい。
Normally, a target moving at a certain speed is likely to be moving in the same direction at the next point in time. For example, in such a situation, more stable tracking can be performed by creating an ellipsoidal motion predicted value map having a major axis in the direction of the predicted motion vector. However, in the moving object tracking device of the present invention, it is not always necessary to have a long axis in the direction of the predicted motion vector. For example, when the moving object tracking device of the present invention is applied to a target that moves with many curves. Preferably has a long axis in a direction intersecting the direction of the motion prediction vector, or applies the moving object tracking device of the present invention to a target in which a motion that cannot be said to be either straight or curved is predicted. In such a case, an isotropic motion prediction value map having no major axis or minor axis in any direction may be employed.

【0028】また、動き予測値マップを求めるにあた
り、動き予測値分布演算部が、予測動きベクトルの大き
さを変数とした関数としての動き予測値を、探索領域内
の各画素に対応づけるものであることも好ましい形態で
ある。例えばサッカーゲームにおけるある選手をターゲ
ットとしたとき、ターゲットの動きが早いと次の時点で
もその動きが継続されている可能性が高く、ターゲット
の動きが遅いと次の時点では別の動きに移行する可能性
が高まる。そこで、予測動きベクトルの大きさを考慮し
てターゲットの動きに追随した動き予測値マップを作成
することにより、ターゲットをより安定的に追跡するこ
とが可能となる。
Further, in obtaining a motion predicted value map, the motion predicted value distribution calculation unit associates a motion predicted value as a function with the size of the predicted motion vector as a variable with each pixel in the search area. This is also a preferred embodiment. For example, when targeting a certain player in a soccer game, if the target moves fast, it is highly likely that the movement continues even at the next point in time, and if the target moves slowly, it shifts to another movement at the next point in time The possibilities increase. Therefore, by creating a motion prediction value map that follows the motion of the target in consideration of the size of the predicted motion vector, the target can be tracked more stably.

【0029】尚、本発明において、予測動きベクトルの
方向と予測動きベクトルの大きさとの双方を考慮した動
き予測値マップを作成してもよいことはもちろんであ
る。また本発明の移動体追跡装置において、上記第2の
相関値分布演算部は、被追跡用移動体の追跡に先立って
指定された原画像上の所定位置と同一の、微分画像上の
所定位置を含む、その微分画像内の所定の画像領域を、
微分テンプレートとして設定するものであってもよい。
In the present invention, it goes without saying that a motion prediction value map may be created in consideration of both the direction of the predicted motion vector and the size of the predicted motion vector. Further, in the moving object tracking apparatus of the present invention, the second correlation value distribution calculating section includes a predetermined position on the differential image which is the same as a predetermined position on the original image designated prior to tracking of the tracked moving object. Including, a predetermined image area in the differential image,
It may be set as a differential template.

【0030】追跡に先立って原画像上のある初期のフレ
ーム上でターゲットが指定されると、微分画像内の、そ
のターゲットを含む画像領域をそのまま微分テンプレー
トとして設定することにより、以後、その設定された微
分テンプレートを用いてそのターゲットを追跡すること
ができる。あるいは、本発明の移動体追跡装置におい
て、上記第2の相関値分布演算部が、被追跡用移動体の
追跡に先立って指定された原画像上の所定位置と同一
の、微分画像上の所定位置を含む、その微分画像内の、
微分テンプレートの寸法よりも大きな寸法の画像領域内
で、被追跡用移動体として指定され得る移動体に対し共
通的に設定された共通テンプレートとの近似の度合の高
い、微分テンプレートの寸法と同一の一部領域を検出
し、その一部領域を微分テンプレートとして設定するも
のであることが好ましい。
When a target is specified on a certain initial frame on the original image prior to tracking, the image area including the target in the differential image is set as it is as a differential template. The target can be tracked using the derived derivative template. Alternatively, in the moving object tracking apparatus according to the present invention, the second correlation value distribution calculating unit may include a predetermined position on the differential image that is the same as a predetermined position on the original image specified prior to tracking of the tracked moving object. In the derivative image, including the position,
Within the image area of a size larger than the size of the derivative template, the same size as the size of the derivative template, which has a high degree of approximation with the common template that is commonly set for the moving body that can be designated as the tracked moving body, It is preferable that a partial area is detected and the partial area is set as a differential template.

【0031】原画像上でターゲットを指定する際に、特
に動画像上ではターゲットが動いていることも多く、そ
のターゲットを正確には指定しにくい場面もある。この
ような場合に、そのターゲットを含む、そのターゲット
に近似した移動体等のいずれにも反応するような共通テ
ンプレートを用意しておいて、あるターゲットを指定し
ようとしてそのターゲットの近傍が指定されると、その
指定された点を含む広めの領域の中からそのターゲット
を捜し、捜し出したターゲットを切りだして微分テンプ
レートを設定する。このように構成することにより、タ
ーゲットの指定位置に誤差があっても、正しい微分テン
プレートが設定される。
When a target is specified on the original image, the target often moves, especially on a moving image, and there are situations where it is difficult to specify the target accurately. In such a case, a common template including the target and reacting to any moving object similar to the target is prepared, and the vicinity of the target is specified in order to specify a target. Then, the target is searched from a wide area including the specified point, and the searched target is cut out to set a differential template. With this configuration, a correct differential template is set even if there is an error in the designated position of the target.

【0032】ここで、上記のように共通テンプレートを
用意しておいて、ターゲットの位置指定の誤差を許容す
るように構成した場合に、さらに、上記第2の相関値分
布演算部が、微分テンプレートを初回に設定した時点よ
りも後の1つ以上の各時点において、微分画像内の、位
置検出部で検出された、被追跡用移動体の存在位置を含
む画像領域を微分テンプレートに統合することにより、
微分テンプレートを更新する、被追跡用移動体の追跡を
開始した後の所定の初期段階で動作する微分テンプレー
ト更新部を備えることがさらに好ましい。
Here, when the common template is prepared as described above and the target position is designated so as to allow an error, the second correlation value distribution calculator further includes a differential template. At one or more times after the time when the is set for the first time, integrating the image area including the position of the moving object to be tracked, which is detected by the position detection unit, in the differential image into the differential template By
It is further preferable that the apparatus further includes a derivative template updating unit that operates at a predetermined initial stage after the tracking of the tracked moving object is started, which updates the derivative template.

【0033】上記のように共通テンプレートを用いて微
分画像の一部領域を切りだし、その切り出した一部領域
を微分テンプレートとして設定するように構成した場
合、共通テンプレートはターゲットのみでなくかなり広
範な移動体等に反応するように作成されるため、上記の
ようにして切り出した一部領域にも多少の誤差を含む可
能性がある。そこで、上記微分テンプレート更新部を備
え、追跡を開始した後の初期の段階では微分テンプレー
トを更新するように構成すると、一層正確な微分テンプ
レートが設定され、ターゲットを一層安定的に追跡する
ことができる。
As described above, when a partial area of the differential image is cut out using the common template and the cut-out partial area is set as a differential template, the common template is not only a target but also a considerably wide area. Since the region is created so as to respond to a moving body or the like, there is a possibility that the partial region cut out as described above may include some errors. Therefore, when the differential template updating unit is provided and the differential template is updated in the initial stage after the tracking is started, a more accurate differential template is set, and the target can be tracked more stably. .

【0034】一方、色テンプレートに関しては、色テン
プレートが、固定された固定テンプレートを含むもので
あって、第1の相関値分布演算部が、微分テンプレート
が設定もしくは最終的に更新された時点における、色分
解画像内の、位置検出部で検出された被追跡用移動体の
存在位置を含む画像領域を固定テンプレートとして設定
するものであることが好ましい。
On the other hand, with respect to the color template, the color template includes a fixed template, and the first correlation value distribution calculating unit determines whether or not the differential template is set or finally updated at the time of It is preferable that an image area in the color-separated image that includes the position of the tracked moving object detected by the position detection unit is set as a fixed template.

【0035】微分画像上の、微分テンプレートとして切
り出す一部領域が定まると、その微分画像上の一部領域
と同一の、色分解画像上の一部領域を色テンプレートと
して用いることができる。色テンプレートが順次更新さ
れるテンポラリテンプレートを含む場合については上述
したが、色テンプレートが、一度設定されあとは固定的
に用いられる固定テンプレートを含むものである場合、
微分テンプレートとして切り出す、微分画像上の一部領
域と同一の、色分解画像上の一部領域を切り出して固定
テンプレートとして用いることにより、正確な色テンプ
レートを設定することができる。
When a partial area to be cut out as a differential template on the differential image is determined, the same partial area on the color separation image as the partial area on the differential image can be used as a color template. The case where the color template includes the temporary template that is sequentially updated has been described above. However, in the case where the color template includes a fixed template that is set once and is used fixedly,
An accurate color template can be set by cutting out a partial area on the color separation image, which is the same as a partial area on the differential image, which is cut out as a differential template and using it as a fixed template.

【0036】色テンプレートを設定するにあたっては、
色分解画像上で作用させる共通テンプレートを設定して
おいて色分解画像上で色テンプレートとして設定される
一部領域を検出するよりも、上記のように微分画像上で
検出した方が、一般的に高い検出精度を得ることができ
る。また、本発明の移動体追跡装置は、移動体を含むシ
ーンが撮影されてなる、複数のフレームからなる原画像
を順次連続して入力する入力手段、該複数のフレーム間
で該移動体の位置が異なる移動体を追跡し、該フレーム
内の移動体の位置を、上記連続して入力される時間で順
次出力する移動体追跡手段、および上記入力手段で入力
された原画像の、移動体追跡手段で追跡した移動体の位
置にマークを表示するためのマーク発生手段を備えた構
成としてもよい。
In setting a color template,
Rather than detecting a partial region set as a color template on a color-separated image by setting a common template to act on the color-separated image, it is generally more preferable to detect on a differential image as described above. High detection accuracy can be obtained. Further, the moving object tracking apparatus of the present invention includes an input means for sequentially and sequentially inputting an original image composed of a plurality of frames obtained by photographing a scene including the moving object, and a position of the moving object between the plurality of frames. Moving object tracking means for tracking different moving objects and sequentially outputting the position of the moving object in the frame at the continuous input time, and moving object tracking of the original image input by the input means It may be configured to include a mark generating means for displaying a mark at the position of the moving body tracked by the means.

【0037】このようなマークを発生させることによ
り、ある移動体の存在や動きを注目させる動画像を得る
ことができる。
By generating such a mark, it is possible to obtain a moving image in which the presence or movement of a certain moving object is noticed.

【0038】[0038]

【発明の実施の形態】以下、本発明の実施形態について
説明する。図1は本発明の移動体追跡装置の一実施形態
を含む自動追跡システムの模式図である。図1に示す自
動追跡システムでは、本発明の一実施形態としての移動
体追跡装置は、コンピュータシステム1の内部に実現さ
れている。
Embodiments of the present invention will be described below. FIG. 1 is a schematic diagram of an automatic tracking system including one embodiment of a moving object tracking device according to the present invention. In the automatic tracking system shown in FIG. 1, a moving object tracking device as one embodiment of the present invention is realized inside a computer system 1.

【0039】ビデオカメラ2は、サーボシステム3によ
り駆動され上下左右に向きが変更されるように構成され
ている。ビデオカメラ2での撮影により得られた画像
は、コンピュータシステム1に取り込まれ、コンピュー
タシステム1の内部では、その画像中に映し出されたあ
る移動物体(ターゲット)が検出され、そのターゲット
がビデオカメラ2での撮影により得られる画像内に常に
含まれるようにサーボシステム3を制御して、ビデオカ
メラ2の上下方向および左右方向の向きを変更させる。
The video camera 2 is configured to be driven by a servo system 3 to change its direction up, down, left, and right. An image obtained by shooting with the video camera 2 is taken into the computer system 1, and inside the computer system 1, a certain moving object (target) shown in the image is detected, and the target is set to the video camera 2. The vertical and horizontal directions of the video camera 2 are changed by controlling the servo system 3 so that the video system 2 is always included in the image obtained by the photographing.

【0040】ビデオカメラ2で得られた画像は、コンピ
ュータシステム1に取り込まれるほか、コンピュータシ
ステム1から出力された、画像上のターゲットの位置情
報とともに、他の機器、例えば図示しない放送用機器に
伝えられ、その放送用機器では、そのターゲットのみ目
立つように特別な色で表示するなどの画像処理を施し
て、最終的に電波で放映し、あるいは後の放映等のため
に録画される。
The image obtained by the video camera 2 is taken into the computer system 1 and transmitted to another device, for example, a broadcasting device (not shown), together with the target position information on the image output from the computer system 1. The broadcast equipment performs image processing such as displaying the target in a special color so as to be conspicuous, and finally broadcasts it by radio waves or records it for later broadcast.

【0041】ここで、図1に示すコンピュータシステム
1は、本体部101、キーボード102、マウス10
3、およびCRT表示部104から構成されており、本
体部101には、プログラムを実行するCPU、プログ
ラムやデータを保存しておくためのハードディスク、ビ
デオカメラ2からの画像を内部に取り込んだりコンピュ
ータシステム1からサーボシステム3や他の機器に伝え
る信号を出力するためのI/Oボード、フロッピィディ
スクが装填され装填されたフロッピィディスクをアクセ
スするフロッピィディスクドライブ装置、および、この
コンピュータシステム1に特有なものとして、後述する
相関器が搭載されたボード等が内蔵されている。
Here, the computer system 1 shown in FIG.
And a CRT display unit 104. The main unit 101 includes a CPU for executing programs, a hard disk for storing programs and data, and a computer system for fetching images from the video camera 2 therein. I / O board for outputting a signal to be transmitted from 1 to the servo system 3 and other devices, a floppy disk drive device which is loaded with a floppy disk and accesses the loaded floppy disk, and a device unique to the computer system 1 A board or the like on which a correlator described later is mounted is built in.

【0042】図2は、図1に示すコンピュータシステム
内に構築された本発明の一実施形態としての移動体追跡
装置の機能構成図である。この移動体追跡装置に入力さ
れる原画像は、順次連続する一連の多数のフレームから
なる動画像であり、各フレームそれぞれについて以下の
処理が行われて、ある指定されたターゲットの位置が各
フレーム毎に検出され、これにより、そのターゲットの
自動追跡が行なわれる。ただし、以下の説明では、説明
の煩わしさを避けるため、特に明示的に表現する必要が
ないときは、各フレーム毎の画像と全体としての動画像
とを区別せずに単に原画像と称する。その原画像を構成
する分解画像やその原画像を微分して得た微分画像につ
いても同様である。
FIG. 2 is a functional block diagram of a moving object tracking apparatus as one embodiment of the present invention constructed in the computer system shown in FIG. The original image input to this moving object tracking device is a moving image composed of a series of a large number of frames that are successively consecutive. The following processing is performed for each frame, and the position of a specified target is determined for each frame. Each time, which results in automatic tracking of that target. However, in the following description, in order to avoid the complexity of the description, when there is no need to express explicitly, an image for each frame and a moving image as a whole are simply referred to as an original image without discrimination. The same applies to a decomposed image constituting the original image and a differential image obtained by differentiating the original image.

【0043】ここでは各部の作用の説明は後にまわし、
図2に示す移動体追跡装置の構成について説明する。こ
の図2に示す移動体追跡装置は、色空間ディストーショ
ンマップ作成部10、微分処理部20、微分空間ディス
トーションマップ作成部30、評価値マップ作成部4
0、最小位置検出部50、動き予測値、マップ作成部6
0、および、色テンプレート更新部70から構成されて
いる。
Here, the operation of each part will be described later.
The configuration of the moving object tracking device shown in FIG. 2 will be described. The moving object tracking apparatus shown in FIG. 2 includes a color space distortion map creating unit 10, a differentiation processing unit 20, a differential space distortion map creating unit 30, and an evaluation value map creating unit 4.
0, minimum position detection unit 50, motion prediction value, map creation unit 6
0 and a color template updating unit 70.

【0044】ここで、色空間ディストーションマップ作
成部10は本発明にいう第1の相関値分布演算部の一例
に相当し、微分処理部20は本発明にいう微分処理部の
一例に相当し、微分空間ディストーションマップ作成部
30は本発明にいう第2の相関値分布演算部に相当す
る。また、評価値マップ作成部40は、本発明にいう評
価値分布演算部の一例に相当し、最小値位置検出部50
は、本発明にいう位置検出部の一例に相当し、動き予測
値マップ作成部60は、本発明にいう動き予測値分布演
算部の一例に相当する。さらに、色テンプレート更新部
70は、本発明にいう色テンプレート更新部の一例に相
当する。以下、各部の内部構成について説明する。
Here, the color space distortion map creating section 10 corresponds to an example of a first correlation value distribution calculating section according to the present invention, and the differential processing section 20 corresponds to an example of a differential processing section according to the present invention. The differential space distortion map creation unit 30 corresponds to the second correlation value distribution calculation unit according to the present invention. The evaluation value map creation unit 40 corresponds to an example of the evaluation value distribution calculation unit according to the present invention, and the minimum value position detection unit 50
Corresponds to an example of a position detecting unit according to the present invention, and the motion predicted value map creating unit 60 corresponds to an example of a motion predicted value distribution calculating unit according to the present invention. Further, the color template updating unit 70 corresponds to an example of the color template updating unit according to the present invention. Hereinafter, the internal configuration of each unit will be described.

【0045】尚、以下に説明する各種のテンプレートや
各種のマップは、いずれも二次元的な広がりを持つ、一
種の画像としての形態を有している。図2に示す移動体
追跡装置には、相関器80が備えられており、この相関
器80は、色空間ディストーションマップ作成部10、
微分処理部20、および微分空間ディストーションマッ
プ作成部30に共用されている。
Each of the various templates and maps described below has a form of a kind of image having a two-dimensional spread. The moving object tracking device shown in FIG. 2 includes a correlator 80, and the correlator 80 includes a color space distortion map creating unit 10,
It is shared by the differential processing unit 20 and the differential space distortion map creating unit 30.

【0046】この相関器80では、入力された2つの画
像(画像の一部領域やテンプレートを含む)の各画素に
対応づけられたデータをAxy,Bxyとしたとき、各画素
毎のデータの差分の絶対値をそれら2つの画像の全画素
にわたって積算した値dが求められる。すなわち、
In this correlator 80, when data corresponding to each pixel of two input images (including a partial area of an image and a template) is A xy and B xy , the data for each pixel Is obtained by integrating the absolute value of the difference between all the pixels of the two images. That is,

【0047】[0047]

【数1】 (Equation 1)

【0048】の演算が実行される。ここでは、この演算
をSAD(Sum of Absolute Diff
erence)処理と称し、このSAD処理により得ら
れた値dをディストーション値と称する。このSAD処
理は、相関演算の一例であり、ディストーション値は本
発明にいう相関値の一例に相当する。このディストーシ
ョン値dは、その値が小さいほど、2つの画像
{Axy},{Bxy}の近似の度合いが大きいことを意味
している。
Is performed. Here, this operation is referred to as SAD (Sum of Absolute Diff
The value d obtained by this SAD processing is called a distortion value. This SAD processing is an example of a correlation operation, and the distortion value corresponds to an example of the correlation value according to the present invention. This distortion value d means that the smaller the value, the greater the degree of approximation of the two images { Axy } and { Bxy }.

【0049】色空間ディストーションマップ作成部10
には、固定テンプレートとテンポラリプレートと名づけ
られた2種類の色テンプレートが設定されており、その
色空間ディストーションマップ作成部10を構成する演
算部11では、相関器80を用いて、入力された原画像
を構成する色分解画像と、固定テンプレートおよびテン
ポラリプレートそれぞれとの間でSAD処理が行われて
色空間ディストーションマップが作成される。この色空
間ディストーションマップは、本発明にいう‘第1の相
関値’の分布の一例である。詳細は後述する。以下の各
部の説明においてもここでは概要のみ説明し、詳細説明
は後にまわす。
Color Space Distortion Map Creation Unit 10
Is set with two types of color templates named a fixed template and a temporary plate. SAD processing is performed between the color separation image forming the image and each of the fixed template and the temporary plate to create a color space distortion map. This color space distortion map is an example of the distribution of the “first correlation value” according to the present invention. Details will be described later. In the following description of each part, only the outline is described here, and the detailed description will be given later.

【0050】微分処理部20では、入力された原画像が
空間的に微分されて微分画像が作成される。この微分処
理部20には微分演算部21が備えられており、この微
分演算部21は、相関器80にその微分演算のうちの一
部の演算を分担させながら微分画像を生成する。微分空
間ディストーションマップ作成部30には、微分空間デ
ィストーションマップ作成用の微分テンプレートと、微
分テンプレート設定用の共通テンプレートが設定されて
おり、この微分空間ディストーションマップ作成部30
を構成する演算部31では、相関器80を用いて、入力
された微分画像と、微分テンプレートとの間のSAD処
理が行われ、本発明にいう‘第2の相関値の分布’の一
例である微分空間ディストーションマップが作成され
る。また、この演算部31では、微分テンプレート設定
時には、相関器80を用いて、入力された微分画像と共
通テンプレートとの間のSAD処理が行なわれ、その微
分画像中の、微分テンプレートとして設定すべき一部領
域が検出されてその一部領域が切り出され、その切り出
された一部領域が微分テンプレートとして設定される。
また、この微分空間ディストーションマップ作成部30
には、微分テンプレート更新部32が備えられており、
この微分テンプレート更新部32には、設定された微分
テンプレートと、微分画像と、最小値位置検出部50か
らの出力とが入力され、この微分テンプレート更新部3
2では、最小値位置検出部50からの出力に基づいて、
微分画像中の、追跡を開始した後の初期のターゲットが
映し出された一部領域が切り出され、この切り出された
一部領域が微分テンプレートにマージ(統合)されて新
たな微分テンプレートが作成され、それまで設定されて
いた微分テンプレートがその新たに作成された微分テン
プレートに更新される。この微分テンプレート更新部3
2は、本発明にいう微分テンプレート更新部の一例であ
り、この微分テンプレート更新部32による微分テンプ
レートの更新処理は、ターゲットの追跡を開始した初期
の段階でのみ行われ、その後は微分テンプレートは更新
されず、固定されたまま、その微分テンプレートが微分
空間ディストーションマップの作成に使用される。
In the differentiation processing section 20, the input original image is spatially differentiated to create a differentiated image. The differential processing unit 20 is provided with a differential operation unit 21, and the differential operation unit 21 generates a differential image while causing the correlator 80 to perform a part of the differential operation. In the differential space distortion map creating section 30, a differential template for creating a differential space distortion map and a common template for setting a differential template are set.
In the calculation unit 31 constituting the above, the SAD process between the input differential image and the differential template is performed using the correlator 80, and is an example of the “distribution of the second correlation value” according to the present invention. A differential space distortion map is created. In addition, when the differential template is set, the arithmetic unit 31 performs SAD processing between the input differential image and the common template using the correlator 80, and should set the differential template in the differential image. A partial region is detected, the partial region is cut out, and the cut out partial region is set as a differential template.
The differential space distortion map creating unit 30
Is provided with a differential template updating unit 32,
The set differential template, the differential image, and the output from the minimum value position detecting unit 50 are input to the differential template updating unit 32.
In 2, based on the output from the minimum value position detection unit 50,
In the differential image, a partial area in which the initial target after the start of tracking is projected is cut out, and the cut out partial area is merged (integrated) with the differential template to create a new differential template, The previously set differential template is updated to the newly created differential template. This derivative template updating unit 3
Reference numeral 2 denotes an example of a differential template updating unit according to the present invention. The processing of updating the differential template by the differential template updating unit 32 is performed only at an initial stage of starting tracking of the target, and thereafter, the differential template is updated. Instead, the derivative template remains fixed and is used to create a differential spatial distortion map.

【0051】評価値マップ作成部40は、信頼性評価部
41、重み付け加算部42、およびもう1つの重み付け
加算部43から構成されており、これらは、それぞれ、
本発明にいう信頼性評価部、第1の統合化処理部、およ
び第2の統合化処理部の各一例に相当する。信頼性評価
部41では、色空間ディストーションマップ作成部10
で作成された色空間ディストーションマップの信頼性お
よび微分空間ディストーションマップ作成部30で作成
された微分空間ディストーションマップの信頼性が評価
され、それぞれ所定の信頼性に達していると判定され
た、ディストーションマップ(色空間ディストーション
マップと微分空間ディストーションマップとの総称を、
ここではディストーションマップと称する)が重み付け
加算部42に向けて出力される。
The evaluation value map creator 40 is composed of a reliability evaluator 41, a weighted adder 42, and another weighted adder 43, each of which is
This corresponds to an example of each of the reliability evaluation unit, the first integrated processing unit, and the second integrated processing unit according to the present invention. In the reliability evaluation section 41, the color space distortion map creation section 10
And the reliability of the differential space distortion map created by the differential space distortion map creation unit 30 are evaluated, and the distortion maps are determined to have reached the predetermined reliability, respectively. (A generic term for color space distortion map and differential space distortion map is
Here, this is referred to as a distortion map).

【0052】重み付け加算部42には、通常は、信頼性
評価部41を経由した所定の信頼性に達している色空間
ディストーションマップと微分空間ディストーションマ
ップとの双方が入力され、それら2つのディストーショ
ンマップが、互いに対応する画素毎に重み付け加算され
て統合化ディストーションマップが作成される。この統
合化ディストーションマップは、本発明にいう‘統合化
相関値の分布’の一例である。尚、重み付け加算部42
における各ディストーションマップに対する重みは、あ
らかじめ固定的に定めておいてもよく、入力される原画
像の種類や性質に応じて切り替え可能に構成してもよ
い。この重み付け加算部42で作成された統合化ディス
トーションマップは、もう1つの重み付け加算部43
と、色テンプレート更新部70に入力される。色テンプ
レート更新部70については後述することとし、ここで
は、もう1つの重み付け加算部43について説明する。
この重み付け加算部43には統合化ディストーションマ
ップのほか、動き予測値マップ作成部60で作成された
動き予測値マップも入力され、この重み付け加算部43
では、それら統合化ディストーションマップと動き予測
値マップが互いに対応する画素毎に重み付け加算されて
評価値マップが作成される。この評価値マップは、本発
明にいう‘評価値の分布’の一例である。この重み付け
加算部43における統合化ディストーションマップおよ
び動き予測値マップに対する各重みは、重み付け加算部
42における重みと同様、あらかじめ固定的に定めてお
いてもよく、入力される原画像の種類や性質に応じて切
り換え可能に構成してもよい。
Normally, both the color space distortion map and the differential space distortion map that have reached the predetermined reliability via the reliability evaluation unit 41 are input to the weighting addition unit 42, and the two distortion maps are input. Are weighted and added for each pixel corresponding to each other to create an integrated distortion map. This integrated distortion map is an example of the “distribution of integrated correlation values” in the present invention. Note that the weighting addition section 42
May be fixedly determined in advance, or may be configured to be switchable according to the type and nature of the input original image. The integrated distortion map created by the weighting and adding unit 42 is added to another weighting and adding unit 43.
Is input to the color template updating unit 70. The color template updating unit 70 will be described later, and here, another weighting and adding unit 43 will be described.
In addition to the integrated distortion map, the motion estimation value map created by the motion estimation value map creation unit 60 is also input to the weighting addition unit 43.
Then, the integrated distortion map and the motion prediction value map are weighted and added for each corresponding pixel to create an evaluation value map. This evaluation value map is an example of the “evaluation value distribution” according to the present invention. Each weight for the integrated distortion map and the motion prediction value map in the weighting and adding unit 43 may be fixedly determined in advance, similarly to the weight in the weighting and adding unit 42, and may be different depending on the type or property of the input original image. It may be configured to be switchable in response to the request.

【0053】ここで、ディストーションマップを構成す
る各画素値は、前述したディストーション値dであり、
その値が小さいほどテンプレートとの近似の度合いが大
きいことを意味しており、動き予測値マップ作成部60
で作成される動き予測値マップを構成する各画素値、す
なわち動き予測値も、その値が小さいほどその画素の位
置にターゲットが存在する可能性が高くなるように値が
定められている。したがって評価値マップ作成部40で
作成される評価値マップは、2つのディストーションマ
ップと1つの動き予測値マップの各画素毎の重み付け加
算により得られたものであるから、その評価値マップ内
の最小値位置がターゲットが存在する位置をあらわして
ることになる。
Here, each pixel value forming the distortion map is the above-mentioned distortion value d,
The smaller the value is, the larger the degree of approximation to the template is.
The values of the respective pixel values constituting the motion prediction value map created by the above, that is, the motion prediction values, are determined such that the smaller the value is, the higher the possibility that the target exists at the position of the pixel is. Therefore, since the evaluation value map created by the evaluation value map creation unit 40 is obtained by weighting and adding the two distortion maps and one motion prediction value map for each pixel, the minimum value in the evaluation value map is used. The value position indicates the position where the target exists.

【0054】上記の重み付け加算部43で作成された、
すなわち評価値マップ作成部40で作成された評価値マ
ップは、最小値位置検出部50に入力される。最小値位
置検出部50では、入力された評価値マップの中から最
小の評価値を持つ画素が検出され、その画素の位置情報
がターゲットの存在位置をあらわすターゲット位置情報
として出力される。
The weighting and adding unit 43 creates
That is, the evaluation value map created by the evaluation value map creation unit 40 is input to the minimum value position detection unit 50. In the minimum value position detection unit 50, a pixel having the minimum evaluation value is detected from the input evaluation value map, and the position information of the pixel is output as target position information representing the target position.

【0055】このターゲット位置情報は、例えば、図1
を参照して説明したように、カメラの向きの制御や、そ
のターゲットを特別に処理するために用いられる。動き
予測値マップ作成部60は、次フレーム予測動きベクト
ル計算部61と予測関数生成部62とから構成されてい
る。次フレーム予測動きベクトル計算部61には、最小
値位置検出部50で得られたターゲット位置情報が入力
され、その次フレーム予測動きベクトル計算部61で
は、次のフレームではそのターゲットがそのターゲット
位置情報があらわすターゲット位置からどの方向にどれ
だけ移動しているかを予測した予測動きベクトルが計算
により求められる。この求められた予測動きベクトル
は、予測関数生成部62に入力され、予測関数生成部6
2では、その予測動きベクトルで示される位置を中心と
して、ターゲットが次フレームでどの位置に移動するか
を確率的に予測した予測関数が生成され、この予測関数
に従って動き予測値マップ各画素毎の動き予測値の集合
が定められる。この動き予測値マップを構成する動き予
測値は、その値が小さいほど、ターゲットが次フレーム
でそこに移動している可能性が高いことを意味してお
り、次フレーム予測動きベクトル計算部61で求められ
た、予測動きベクトルにより指定される画素に最も値の
小さい動き予測値が割り当てられる。この動き予測値マ
ップは、本発明でいう‘動き予測値の分布’の一例に相
当する。
The target position information is, for example, as shown in FIG.
Is used to control the camera orientation and to specially process the target. The motion predicted value map creator 60 includes a next frame predicted motion vector calculator 61 and a prediction function generator 62. The target position information obtained by the minimum value position detection unit 50 is input to the next frame prediction motion vector calculation unit 61, and the next frame prediction motion vector calculation unit 61 sets the target position information in the next frame. A predicted motion vector that predicts in which direction and how much the object has moved from the target position represented by is calculated. The obtained predicted motion vector is input to the prediction function generation unit 62 and the prediction function generation unit 6
In step 2, a prediction function that probabilistically predicts to which position the target will move in the next frame is generated around the position indicated by the predicted motion vector, and the motion prediction value map for each pixel is generated according to the prediction function. A set of motion prediction values is determined. The smaller the value of the motion prediction value constituting the motion prediction value map, the higher the possibility that the target has moved there in the next frame. The motion prediction value having the smallest value is assigned to the pixel specified by the calculated motion vector. This motion predicted value map corresponds to an example of “distribution of motion predicted values” in the present invention.

【0056】動き予測値マップ作成部60で作成された
動き予測値マップは、前述したように、重み付け加算部
43に入力され、もう1つの重み付け加算部42で生成
された統合化ディストーションマップとの間で重み付け
加算される。色テンプレート更新部70は、近似物体検
出部71と、評価・統合部72とからなる。これら近似
物体検出部71および評価・統合部72は、それぞれ、
本発明にいう近似物体検出部および評価・統合部の各一
例に相当する。また、本実施形態では、近似物体検出部
71は、極小値位置検出部71aと干渉物体監視部71
bとから構成されている。
As described above, the motion predicted value map created by the motion predicted value map creating section 60 is input to the weighted adding section 43 and combined with the integrated distortion map generated by the other weighted adding section 42. Are weighted and added. The color template update unit 70 includes an approximate object detection unit 71 and an evaluation / integration unit 72. These approximate object detection unit 71 and evaluation / integration unit 72
This corresponds to an example of each of the approximate object detection unit and the evaluation / integration unit according to the present invention. Further, in the present embodiment, the approximate object detection unit 71 includes the minimum value position detection unit 71a and the
b.

【0057】評価値マップ作成部40を構成する重み付
け加算部42で生成された統合化ディストーションマッ
プは、前述したように、重み付け加算部43に入力され
るほか、色テンプレート更新部70にも入力される。こ
の色テンプレート更新部70に入力された統合化ディス
トーションマップは、この色テンプレート更新部70を
構成する近似物体検出部71をさらに構成している極小
値位置検出部71aに入力される。
The integrated distortion map generated by the weighting and adding section 42 constituting the evaluation value map creating section 40 is input to the weighting and adding section 43 and also to the color template updating section 70 as described above. You. The integrated distortion map input to the color template updating unit 70 is input to a local minimum position detecting unit 71a that further configures the approximate object detecting unit 71 included in the color template updating unit 70.

【0058】極小値位置検出部71aでは、統合化ディ
ストーションマップの極小値の位置が検出される。この
極小値の位置は、そこにターゲットに近似した近似物体
が存在しているものと一応推定される、この極小値の位
置は、1つとは限らず複数検出され得る。この極小値位
置検出部71aでは真のターゲット自身も検出され得る
が、真のターゲットの位置は最小値位置検出部50で検
出されそのターゲット位置情報が評価・統合部72に入
力されて真のターゲットと近似物体とが区別されるた
め、極小値位置検出部71aで真のターゲットも含めて
検出されても問題はない。
The minimum value position detecting section 71a detects the position of the minimum value in the integrated distortion map. It is presumed that the position of the minimum value is where an approximate object close to the target exists. The position of the minimum value is not limited to one, and a plurality of positions can be detected. Although the true target itself can be detected by the local minimum position detecting section 71a, the position of the true target is detected by the minimum position detecting section 50, and its target position information is input to the evaluation / integration section 72, and the true target is detected. And the approximate object are distinguished from each other, so that there is no problem even if the true target is detected by the local minimum position detecting unit 71a.

【0059】干渉物体監視部71bでは、色空間ディス
トーションマップの極小値位置付近のディストーション
値の変化の様子に基づいて、極小値位置検出部71aで
検出された極小値位置に、ターゲットと近似した近似物
体(ここではこの近似物体を、ターゲットと干渉する
(ターゲットの位置検出の邪魔をする)物体という意味
で干渉物体とも称する)が存在するか否かを判定する。
The interference object monitoring unit 71b approximates the local minimum position detected by the local minimum position detection unit 71a to the target based on the state of the change of the distortion value near the local minimum position of the color space distortion map. It is determined whether or not an object (here, this approximate object is also referred to as an interference object in the sense of an object that interferes with the target (disturbs the target position detection)) is present.

【0060】評価・統合部72には、干渉物体監視部7
1bにより検出された干渉物体の位置情報および最小値
位置検出されたターゲットの位置情報が入力され、現在
設定されているテンポラリテンプレート、ターゲットの
画像、干渉物体の画像が総合的に考慮されてテンポラリ
テンプレートを更新するか否かが評価され、テンポラリ
テンプレートを更新する旨の判定が判定がなされると、
現在設定されているテンポラリテンプレートに、色分解
画像から切り出された現在のターゲットの画像がマージ
(統合)され、これにより、テンポラリテンプレートが
そのマージされたテンポラリテンプレートに更新され
る。
The evaluation / integration section 72 includes the interference object monitoring section 7
1b, the position information of the interfering object detected by step 1b and the position information of the target at which the minimum value position is detected are input, and the temporary template, the target image, and the image of the interfering object that are currently set are comprehensively taken into account. Is updated or not, and when a determination to update the temporary template is made,
The current target image cut out from the color separation image is merged (integrated) with the currently set temporary template, whereby the temporary template is updated to the merged temporary template.

【0061】以上で、図2に示す移動体追跡装置を構成
する各部の概括的な説明を終了し、以下、各部の具体的
な動作について説明する。図3は、色空間ディストーシ
ョンマップ作成部10における色空間ディストーション
マップの作成過程の説明図である。色テンプレートを構
成する固定テンプレート、テンポラリテンプレートの設
定方法の説明はあとに譲り、ここでは、固定テンプレー
ト、テンポラリテンプレートとも既に設定されているも
のとして説明する。
The general description of each unit constituting the moving object tracking device shown in FIG. 2 has been completed, and the specific operation of each unit will be described below. FIG. 3 is an explanatory diagram of a process of creating a color space distortion map in the color space distortion map creating unit 10. The method of setting the fixed template and the temporary template that constitute the color template will be described later, and here, it is assumed that both the fixed template and the temporary template have already been set.

【0062】本実施形態では、入力される原画像は、R
(レッド)、G(グリーン)、B(ブルー)の3色の、
すなわち3種類の色分解画像から構成されており、固定
テンプレート、テンポラリテンプレートは、いずれも、
R,G,Bの3種類の色分解画像それぞれに対応して3
種類ずつ設定される。したがってここでは、途中段階で
は、3種類の色分解画像と、各色別に設定された固定テ
ンプレートとの間のSAD処理により3つの色空間ディ
ストーションマップが作成され、さらに、3種類の色分
解画像と各色別に設定されたテンポラリテンプレートと
の間のSAD処理により3つの色空間ディストーション
マップが作成されるが、その後、このようにして作成さ
れた6つの色空間ディストーションマップが各画素毎に
平均され1つの色空間ディストーションマップに統合さ
れる。色空間ディストーションマップ作成部10から
は、このようにして1つに統合された色空間ディストー
ションマップが出力され、評価値マップ作成部40に入
力される。ただし、図3の説明にあたっては、代表的
に、1つの色分解画像と1つのテンプレートとのSAD
処理について説明する。
In this embodiment, the input original image is R
(Red), G (green), B (blue)
That is, it is composed of three types of color separation images, and both the fixed template and the temporary template
3 corresponding to each of the three types of color separation images of R, G, and B
Set by type. Therefore, here, at an intermediate stage, three color space distortion maps are created by SAD processing between three types of color separation images and a fixed template set for each color, and further, three types of color separation images and each color Three color space distortion maps are created by SAD processing with a separately set temporary template. Thereafter, the six color space distortion maps created in this way are averaged for each pixel and one color space distortion map is created. It is integrated into the spatial distortion map. The color space distortion map creation unit 10 outputs the color space distortion map integrated as described above and inputs the evaluation value map creation unit 40. However, in the description of FIG. 3, typically, the SAD of one color separation image and one template
The processing will be described.

【0063】動き予測値マップ作成部60を構成する次
フレーム予測動きベクトル計算部61で求められた予測
動きベクトルの情報に基づいて、ターゲットが次のフレ
ームまでの間に移動しているであろう位置を中心として
色分解画像内に探索領域が設定され、その探索領域内の
各画素に対応して各ディストーション値が求められる。
この演算を行なうために、色分解画像内に、その探索領
域よりも広い図3に示す切り出し領域Dが設定され、そ
の切り出し領域Dの中から各一部領域P1 ,P 2 ,…,
n が順次切り出される。ここでは、先ず切り出し領域
Dの中の一番上かつ一番左の隅を1つの頂点としてテン
プレートと同一形状の一部領域P1 が切り出され、その
切り出された一部領域P1 とテンプレートとの間で、相
関器80によりSAD処理、すなわち前述の(1)式に
示す演算が実行され、1つのディストーション値dが求
められ、この求められたディストーション値が切り出さ
れ一部領域P1 の中央の画素に対応づけられる。以下で
は、説明の都合上、SAD処理により求められた値を画
素に対応づける処理までを含めて、単にSAD処理と称
する。
Next, the motion prediction value map forming unit 60 will be described.
The prediction obtained by the frame prediction motion vector calculation unit 61
The target moves to the next frame based on the motion vector information.
Around the position that would have moved before
A search area is set in the color separation image, and the search area
Each distortion value is obtained for each pixel.
In order to perform this operation, the search area
The cutout area D shown in FIG.
Each partial area P from the cutout area D1 , P Two ,…,
PnAre sequentially cut out. Here, first, the cutout area
Set the top and leftmost corner of D as one vertex
Partial area P of the same shape as the plate1 Is cut out and its
Cut out partial area P1 And the template
The SAD processing is performed by the function 80, that is, the equation (1) is used.
Is performed, and one distortion value d is obtained.
The calculated distortion value is extracted
Part area P1 Is associated with the center pixel. Below
Indicates the value obtained by SAD processing for convenience of explanation.
It is simply called SAD processing, including the process of associating elements.
I do.

【0064】次に一番隅の一部領域P1 からx方向に一
画素分ずれた一部領域P2 が切り出され、この新たに切
り出された一部領域P2 とテンプレートとの間でSAD
処理が実行される。これを繰り返し、切出し領域Dの一
番右側まで達すると、一番左に戻り、今度はy方向に一
画素分ずれた一部領域が切り出され上記と同様のSAD
処理が実行され、さらにx方向に順次一画素分ずつずれ
た一部領域が切り出されてはSAD処理が実行される。
これがさらに繰り返され、最終的には、切出し領域Dの
一番下かつ一番右隅の領域Pn が切り出されて、SAD
処理が実行される。
Next, a partial area P 2 shifted by one pixel in the x direction from the partial area P 1 at the corner is cut out, and the SAD is placed between the newly cut out partial area P 2 and the template.
The processing is executed. This operation is repeated, and when reaching the rightmost side of the cutout area D, it returns to the leftmost. This time, a partial area shifted by one pixel in the y direction is cut out, and the same SAD as described above is performed.
The processing is executed, and furthermore, a partial area sequentially shifted by one pixel in the x direction is cut out, and the SAD processing is executed.
This is further repeated, and finally, the lowermost and rightmost area Pn of the cutout area D is cut out, and the SAD
The processing is executed.

【0065】これらの一連のSAD処理により、探索領
域Pの各画素にそれぞれ対応づけられたディストーショ
ン値の二次元的なマップ、すなわち色空間ディストーシ
ョンマップが作成される。前述したように、色空間ディ
ストーションマップ作成部10では、上記のようにして
6つの色空間ディストーションマップが一旦作成され、
それら6つの色空間ディストーションマップが各画素毎
に平均されて1つの色空間ディストーションマップに統
合される。ただし、後述するように、固定テンプレート
は使用されずテンポラリテンプレートのみ使用される状
況もあり、そのときはテンポラリテンプレートのみを用
いて作成された3つの色空間ディストーションマップが
1つの色空間ディストーションマップに統合される。
By a series of these SAD processes, a two-dimensional map of distortion values corresponding to each pixel of the search area P, that is, a color space distortion map is created. As described above, the color space distortion map creation unit 10 once creates six color space distortion maps as described above,
The six color space distortion maps are averaged for each pixel and integrated into one color space distortion map. However, as will be described later, there is also a situation where a fixed template is not used and only a temporary template is used. In this case, three color space distortion maps created using only the temporary template are integrated into one color space distortion map. Is done.

【0066】図4は、微分処理部20における微分処理
の過程を示した説明図である。微分処理部20には原画
像が入力され、本実施形態では、先ずその原画像を構成
している3つ(R,G,B)の色分解画像から、色の情
報が捨象され、画像の明度(輝度、濃度)の情報のみを
持った、白黒の原画像が作成され、その白黒の原画像に
ついて空間微分が施されて、その白黒の原画像に対応す
る微分画像が生成される。以下では特に白黒画像である
ことは明記しない。
FIG. 4 is an explanatory diagram showing the process of the differential processing in the differential processing section 20. The original image is input to the differential processing unit 20, and in the present embodiment, first, color information is discarded from three (R, G, B) color separation images constituting the original image, and A black-and-white original image having only brightness (luminance, density) information is created, and a spatial differentiation is performed on the black-and-white original image to generate a differential image corresponding to the black-and-white original image. In the following, it is not specified that the image is a monochrome image.

【0067】図4(A)は、画像をy方向に微分するy
方向微分フィルタの一例、図4(B)は、画像をx方向
に微分するx方向微分フィルタの一例を示した図であ
る。これらの微分フィルタを原画像の一部領域と重ね合
わせ、重ね合わされた原画像の画素の画素値とフィルタ
の画素の画素値とを重ね合わせた画素どうしで乗算し、
それらの乗算結果を、その重ね合わされた領域全域にわ
たって加算し、その加算結果を重ね合わされた領域の中
央の画素に対応づける演算を、その重ね合わされる領域
を順次変更しながら実行することにより、その原画像
が、y方向微分フィルタを用いたときはy方向に微分さ
れ、x方向微分フィルタを用いたときはx方向に微分さ
れる。
FIG. 4A is a diagram showing a case where y is differentiated in the y direction.
FIG. 4B is a diagram illustrating an example of an x-direction differential filter that differentiates an image in the x-direction. These differential filters are overlapped with a partial region of the original image, and the pixel values of the pixels of the overlapped original image and the pixel values of the pixels of the filter are multiplied with each other by overlapping the pixels.
The multiplication results are added over the entire area of the superimposed region, and an operation of associating the addition result with the pixel at the center of the superimposed region is performed while sequentially changing the superimposed region. The original image is differentiated in the y direction when using the y direction differential filter, and differentiated in the x direction when using the x direction differential filter.

【0068】図2に示す微分処理部20では、これと同
じ演算を、相関器80を使用しながら行なう。すなわ
ち、ここでは、図4(A),(B)に示す微分フィルタ
は使用せずに、図4(C),(D)に示す2つのテンプ
レートを用い、図3を参照して説明した、SAD処理
(中央の画素への値の対応づけの処理を含む)が実行さ
れる。その後、微分演算部21において、以下に説明す
る演算により、原画像がy方向に微分されたy方向微分
画像、および原画像がx方向に微分されたx方向微分画
像が求められる。すなわち、図4(C)に示すテンプレ
ート1を用いたときのSAD処理により得られた画像の
各画素(x,y)の画素値をFs (x,y)、図4
(D)に示すテンプレート2を用いたときのSAD処理
により得られた画像の各画素(x,y)の画素値をFss
(x,y)、y方向微分画像の各画素(x,y)の画素
値をΔPy (x,y)、x方向微分画像の各画素(x,
y)の画素値をΔPx (x,y)、としたとき、微分制
御部21では、 ΔPy (x,y)=Fs (x,y+1)−Fs (x,y−1) …(2) ΔPx(x,y)=Fss(x+1,y)−Fss(x−1,y) …(3) が演算される。これらの演算は、図4(A),(B)に
示す微分フィルタを用いた微分演算と等価である。
The differential processing unit 20 shown in FIG. 2 performs the same operation while using the correlator 80. That is, here, the differential filter shown in FIGS. 4A and 4B is not used, and two templates shown in FIGS. 4C and 4D are used and described with reference to FIG. An SAD process (including a process of associating a value with a central pixel) is performed. After that, the differential operation unit 21 obtains a y-direction differential image obtained by differentiating the original image in the y direction and an x-direction differential image obtained by differentiating the original image in the x direction by the operation described below. That is, the pixel value of each pixel (x, y) of the image obtained by the SAD processing when the template 1 shown in FIG. 4C is used is represented by F s (x, y).
The pixel value of each pixel (x, y) of the image obtained by the SAD processing using the template 2 shown in (D) is represented by F ss
(X, y), the pixel value of each pixel (x, y) of the y-direction differential image is ΔP y (x, y), and each pixel (x, y) of the x-direction differential image
Assuming that the pixel value of y) is ΔP x (x, y), the differential control unit 21 calculates ΔP y (x, y) = F s (x, y + 1) −F s (x, y−1). (2) ΔPx (x, y) = F ss (x + 1, y) −F ss (x−1, y) (3) is calculated. These operations are equivalent to the differential operations using the differential filters shown in FIGS.

【0069】微分演算部21では、各画素毎に、これら
2つの微分画像{ΔPy (x,y)},{ΔPx (x,
y)}の画素値のうちの大きい方の画素値が採用され、
1つの微分画像が作成される。微分空間ディストーショ
ンマップ作成部30では、図3に示す切り出し領域Dが
微分画像内に設定された切り出し領域であり、図3に示
すテンプレートが微分テンプレートであるという相違を
除き、色空間ディストーションマップ作成部10と同様
のSAD処理が実行されて微分空間ディストーションマ
ップが作成される。ただし、微分処理部20では1種類
の微分画像が作成されるため、微分空間ディストーショ
ンマップも一種類のみ作成される。この微分空間ディス
トーションマップ作成部30では、状況により、SAD
処理を実行するためのテンプレートとして共通テンプレ
ートが使用されることもある。
In the differential operation section 21, these two differential images {ΔP y (x, y)} and {ΔP x (x,
y) The larger pixel value of the pixel values of 採用 is adopted,
One differential image is created. In the differential space distortion map creating unit 30, except for the difference that the cutout region D shown in FIG. 3 is a cutout region set in the differential image and the template shown in FIG. SAD processing similar to that in step 10 is executed to create a differential space distortion map. However, since one type of differential image is created in the differential processing unit 20, only one type of differential space distortion map is created. In the differential space distortion map creation unit 30, the SAD
A common template may be used as a template for executing a process.

【0070】尚、ここでも、色空間ディストーションマ
ップ作成部10の説明と同様、微分テンプレートおよび
共通テンプレートは既に設定されているものとする。図
5は、評価値マップ作成部40を構成する信頼性評価部
41の動作説明図である。信頼性評価部41には、前述
したように、色空間ディストーションマップ作成部10
で作成された色空間ディストーションマップ(ここでは
これをD1 であらわす)と、微分空間ディストーション
マップ作成部30で作成された微分空間ディストーショ
ンマップ(ここではこれをD2 であらわす)が入力され
るが、この信頼性評価部41では、これら入力された2
つのディストーションマップD1 ,D2 が参照され(ス
テップ5_1))、それら2つのディストーションマッ
プD 1 ,D2 それぞれの最小値D1min,D2minが求めら
れる(ステップ5_2))。尚、図5においては、ディ
ストーションマップD1 ,D2 やそれらの最小値
1m in,D2minが、各フレーム毎に求められるもの、す
なわち時間tの関数であることを明示するために、D1
(t),D2 (t),D1min(t),D2min(t)と表
記している。
Note that the color space distortion
Similar to the description of the map creation unit 10, the differentiation template and
It is assumed that the common template has already been set. Figure
5 is a reliability evaluation unit constituting the evaluation value map creation unit 40
FIG. 41 is an explanatory diagram of the operation of the controller 41. The reliability evaluation unit 41
As described above, the color space distortion map creating unit 10
Color space distortion map created in
This is D1And differential space distortion
Differential space distortion created by map creation unit 30
Map (this is DTwoIs entered)
However, in the reliability evaluation section 41, these input 2
Distortion maps D1, DTwoIs referenced
Step 5_1)), those two distortion maps
Step D 1, DTwoEach minimum value D1min, D2minSought
(Step 5_2)). Incidentally, in FIG.
Distortion map D1, DTwoOr their minimum
D1m in, D2minIs required for each frame.
That is, to make it clear that it is a function of time t, D1
(T), DTwo(T), D1min(T), D2min(T) and table
It is written.

【0071】次いで、ステップ5_3において、それら
の最小値D1min,D2minが、あらかじめ設定された各し
きい値TH1,TH2と比較される。ここで、D1min
TH1であるということは、色空間ディストーションマ
ップD1 の信頼性が低いことを意味しており、また、D
2min>TH2であるということは、微分空間ディストー
ションマップD2 の信頼性が低いということを意味して
いる。
Next, in step 5_3, the minimum values D 1min and D 2min are compared with preset threshold values TH1 and TH2. Here, D 1min >
TH1 means that the reliability of the color space distortion map D 1 is low.
That 2min> is a TH2, it means that there is low reliability of the differential space distortion map D 2.

【0072】ステップ5_3における比較の結果、D
1min>TH1、かつ、D2min>TH2(双方のディスト
ーションマップD1 ,D2 とも信頼性が低い)と判定さ
れたときは、ステップ5_4に進み、これ以降のターゲ
ットの追跡が断念される。ステップ5 3における比較
の結果、D1min≦TH1、かつD2min>TH2(2つの
ディストーションマップのうち、微分空間ディストーシ
ョンマップD2 のみ信頼性が低い)と判断されたとき
は、ステップ5 5に進み、微分空間ディストーション
マップD2 が無視され、色空間ディストーションマップ
1 のみ、重み付け加算部42に入力される。この場
合、重み付け加算部42では微分空間ディストーション
マップD2 は入力されず、従って重み付け加算は行われ
ず、入力された色空間ディストーションマップD1 がそ
のまま、統合化ディストーションマップとして、この重
み付け加算部42から出力される。
As a result of the comparison in step 5_3, D
1min> TH1 and,, D 2min> TH2 (low distortion map D 1, D 2 both reliability both) and when it is determined, the process proceeds to step 5_4, which is tracking the subsequent target are abandoned. Step 5 Results of the comparison in 3, D 1min ≦ TH1, and D 2min> TH2 (of the two distortion map, only the differential space distortion map D 2 unreliable) and when it is determined in step 5 Proceed to 5, the differential space distortion map D 2 is ignored, only the color space distortion map D 1, is input to the weighted addition unit 42. In this case, the differential space distortion map D 2 In the weighted addition unit 42 is not input, therefore the weighted sum is not performed, it is input color space distortion map D 1, as integrated distortion map from the weighted addition unit 42 Is output.

【0073】ステップ5 3における比較の結果、D
1min以下>TH1、かつ、D2min≦TH2(2つのディ
ストーションマップのうち、色空間ディストーションマ
ップD 1 のみ信頼性が低い)と判断されたときは、ステ
ップ5 6に進み、色空間ディストーションマップD1
が無視され、微分空間ディストーションマップD2
み、重み付け加算部42に入力される。重み付け加算部
42では、重み付け加算は行われず、入力された微分空
間ディストーションマップD1 がそのまま統合化ディス
トーションマップとなってその重み付け加算部42から
出力される。
Step 5 As a result of the comparison in FIG.
1minThe following> TH1 and D2min≤ TH2 (two
Of the distortion map, the color space distortion map
Top D 1 Only low reliability).
Top 5 Proceed to Step 6 to get the color space distortion map D1 
Is ignored, and the differential space distortion map DTwo of
, And is input to the weighting and adding unit 42. Weight adder
At 42, the weighted addition is not performed, and the input differential
Distortion map D1 Is integrated
It becomes a torsion map and its weighted addition unit 42
Is output.

【0074】また、ステップ5 3における比較の結
果、D1min≦TH1、かつ、D2min≦TH2と判定され
たときは、ステップ5 7に進み、双方のディストーシ
ョンマップD1 ,D2 が重み付け加算部42に入力さ
れ、それら双方のディストーションマップD1 ,D2
各画素毎に互いに重み付け加算される。図6は、2つの
ディストーションマップD1 ,D2 の各最小値D1min
2minの時間的な変化、および2つのディストーション
マップD1 ,D2 をその後の処理に使用する(信頼性が
高い)か否かの時間的な変化を示す図である。
Step 5 If it is determined that D 1min ≤ TH1 and D 2min ≤ TH2 as a result of the comparison in step 3, Proceeding to 7, the two distortion maps D 1 and D 2 are input to the weighting and adding unit 42, and the two distortion maps D 1 and D 2 are weighted and added to each other for each pixel. 6, two distortion map D 1, each of the D 2 minimum D 1min,
FIG. 7 is a diagram showing a temporal change of D 2min and a temporal change of whether or not two distortion maps D 1 and D 2 are used (highly reliable) in subsequent processing.

【0075】図6(A)は、色空間ディストーションマ
ップD1 の最小値D1minの時間的な変化を示す図であ
り、時間領域Bと時間領域Cとの間でしきい値TH1を
越えている。図6(B)は、微分空間ディストーション
マップD2 の最小値D2minの時間的な変化を示す図であ
り、時間領域Aと時間領域Bとの間、および時間領域C
の後でしきい値TH2を越えている。
FIG. 6A is a diagram showing a temporal change of the minimum value D 1min of the color space distortion map D 1 , and the difference between the time domain B and the time domain C exceeds the threshold value TH 1. I have. FIG. 6B is a diagram showing a temporal change of the minimum value D 2min of the differential space distortion map D 2 , between the time domain A and the time domain B, and the time domain C
Exceeds the threshold value TH2.

【0076】このような、図6(A)(B)に示す状況
のときは、図6(C)に示すように、ハッチングを施し
た時間領域において、いずれかのディストーションマッ
プD 1 ,D2 が無視される(重み付け加算部42に向け
て出力されない)という状況が発生する。尚、ここでは
色空間ディストーションマップと微分空間ディストーシ
ョンマップとの双方を対等に扱って双方のディストーシ
ョンマップについて信頼性を評価する例について説明し
たが、2つのディストーションマップを比べると、一般
に色空間ディストーションマップの方が信頼性が低く、
従って図2に示す信頼性評価部41を、色空間ディスト
ーションマップの信頼性のみ評価し微分空間ディストー
ションマップについては、無条件に重み付け加算部42
に向けて出力するように構成してもよい。
The situation shown in FIGS. 6A and 6B
In the case of, hatching is applied as shown in FIG.
In the time domain
Step D 1 , DTwo Is ignored (toward the weighting addition unit 42).
Is not output). Here,
Color space distortion map and differential space distortion
Distortion of both sides by treating both
An example of evaluating the reliability of the
However, comparing the two distortion maps,
Color space distortion maps are less reliable,
Therefore, the reliability evaluation unit 41 shown in FIG.
Differential space distortion
The weighting and adding unit 42 unconditionally
May be output.

【0077】図7は、評価値マップ作成部40を構成す
る2つの重み付け加算部42,43の作用の説明図であ
る。ここでは、信頼性評価部41からは、色空間ディス
トーションマップD1 と微分空間ディストーションマッ
プD2 との双方が出力されて、重み付け加算部42に入
力されたものとする。図7では、色空間ディストーショ
ンマップD1 を、その色空間ディストーションマップD
1 の各画素(x,y)の画素値D1xy の集合{D1xy
で表わし、微分空間ディストーションマップD2 を同様
に{D2XY }で表わし、動き予測値マップ作成部60で
作成された動き予測値マップを同様に{EXY}で表わし
ている。
FIG. 7 is an explanatory diagram of the operation of the two weighting and adding units 42 and 43 constituting the evaluation value map creating unit 40. Here, it is assumed that both the color space distortion map D 1 and the differential space distortion map D 2 are output from the reliability evaluation unit 41 and input to the weighting addition unit 42. In FIG. 7, the color space distortion map D 1 is represented by the color space distortion map D.
Set of pixel values D 1Xy of each pixel 1 (x, y) {D 1xy}
, And the differential spatial distortion map D 2 is similarly represented by {D 2XY }, and the motion predicted value map created by the motion predicted value map creating section 60 is similarly represented by {E XY }.

【0078】ここで、2つの重み付け加算部42,43
のうちの前段側の重み付け加算部42では、2つのディ
ストーションマップ{D1xy },{D2XY }が、対応す
る画素毎に重み付け加算され、統合化ディストーション
マップ{FXY}が作成される。すなわち、重み付け加算
部42では、各画素毎に、 FXY=a×D1xy +(1−a)×D2XY ……(4) 但し、aは1以下の正の値であり、a,1−aは各重み
を表わす。が演算される。
Here, the two weighting addition units 42 and 43
In the weighting addition unit 42 on the front stage, the two distortion maps {D 1xy } and {D 2XY } are weighted and added for each corresponding pixel, and an integrated distortion map {F XY } is created. That is, in the weighting addition unit 42, for each pixel, F XY = a × D 1xy + (1−a) × D 2XY (4) where a is a positive value of 1 or less, and a, 1 -A represents each weight. Is calculated.

【0079】2つの重み付け加算部42,43のうちの
もう一方の重み付け加算部43には、重み付け加算部4
2における、(4)式に示す演算により求められた統合
化ディストーションマップ{Fxy}と、動き予測値マッ
プ作成部60で作成された動き予測化マップ{Exy}が
入力され、重み付け加算部43では、それら2つのマッ
プ{Fxy},{Exy}が、対応する画素毎に重み付け加
算され、評価値マップ{Gxy}が作成される。すなわ
ち、重み付け加算部43では、各画素毎に、 Gxy=b×F1xy +(1−b)×Exy ……(5) 但し、bは1以下の正の値であり、b,1−bは各重み
を表わす。が演算される。このようにして求められた評
価値マップ{Gxy}は、最小値位置検出部50に入力さ
れる。
The other one of the two weighting addition units 42 and 43 has a weighting addition unit 4
2, the integrated distortion map {F xy } obtained by the operation shown in the equation (4) and the motion prediction map {E xy } created by the motion prediction value map creation unit 60 are input, and the weighting addition unit At 43, the two maps {F xy }, {E xy } are weighted and added for each corresponding pixel, and an evaluation value map {G xy } is created. That is, in the weighting addition unit 43, for each pixel, G xy = b × F 1xy + (1−b) × E xy (5) where b is a positive value of 1 or less, and b, 1 -B represents each weight. Is calculated. The evaluation value map {G xy } obtained in this way is input to the minimum value position detection unit 50.

【0080】最小値位置検出部50では入力された評価
値マップ{Gxy}を構成する各画素の画素値Gxyの中の
最小値Gmin を持った画素の位置が求められる。ここで
は画素値Gxyの集合{Gxy}の中が最小値Gmin を検出
し、その最小値Gmin を持つ画素を見つけるだけの演算
であり、図面を参照しての更なる説明は省略する。図8
は、動き予測値マップ作成部60の動作説明図である。
In the minimum value position detecting section 50, the position of the pixel having the minimum value G min in the pixel value G xy of each pixel constituting the input evaluation value map {G xy } is obtained. Here, only the operation of detecting the minimum value G min in the set {G xy } of the pixel values G xy and finding the pixel having the minimum value G min is omitted, and further description with reference to the drawings is omitted. I do. FIG.
8 is an explanatory diagram of the operation of the motion prediction value map creating unit 60.

【0081】動き予測値マップ作成部60を構成する次
フレーム予測動きベクトル計算部61では、以下に説明
するようにして、現フレームtと次フレームt+1との
間のターゲットの動きを予測した予測動きベクトルmt
が求められる。前フレームt−1に関し同様にして求め
た予測動きベクトルをmt-1 とし、前フレームt−1か
ら現フレームtの間の、ターゲットの実際の動きをあら
わす動きベクトルをvt としたとき、現フレームtと次
フレームt+1との間の、ターゲットの動きを予測した
予測動きベクトルmt が、 mt =(vt +4・mt-1 )/5 ……(6) の演算により求められる。ここで、前フレームと現フレ
ームとの間の、ターゲットの実際の動きをあらわす動き
ベクトルvt は、前フレームに関し、最小値位置検出部
50で求められた、ターゲット位置から、現フレームに
関し同様に求められたターゲット位置に向かうベクトル
である。ここでは、vt とmt-1 の重みをそれぞれ1/
5,4/5としているが、これは一例であり、他の重み
を採用してもよい。
The next-frame predicted motion vector calculation section 61 constituting the predicted motion value map creating section 60 performs the predicted motion prediction based on the predicted motion of the target between the current frame t and the next frame t + 1 as described below. Vector m t
Is required. The predicted motion vector obtained in the same manner as relates the previous frame t-1 and m t-1, between the previous frame t-1 in the current frame t, when the motion vector representing the actual movement of the target was set to v t, between the current frame t and the next frame t + 1, the predicted motion vector m t predicted the motion of the target is obtained by calculation of the m t = (v t +4 · m t-1) / 5 ...... (6) . Here, a motion vector v t representing the actual motion of the target between the previous frame and the current frame is similarly calculated for the current frame from the target position obtained by the minimum value position detection unit 50 for the previous frame. It is a vector headed for the determined target position. Here, the weights of v t and m t−1 are respectively 1 /
Although it is set to 5, 4/5, this is an example, and another weight may be adopted.

【0082】(6)式からわかるように、過去の動きベ
クトル、過去の予測動きベクトルに基づいて次の動き予
測ベクトルが求められており、過去の予測動きベクトル
にはさらに過去の情報が含まれており、従って(6)式
を採用することにより、一連の過去の情報の集大成とし
ての予測動きベクトルが求められる。次フレーム予測動
きベクトル計算部61における、(6)式に従って求め
られた予測動きベクトルmt は、予測関数生成部62に
入力される。本実施形態では、予測関数生成部62で
は、以下の(7)式で定義される動き予測関数PP(x,y)
に従って、探索領域内の各画素に対応する動き予測値が
求められる。
As can be seen from equation (6), the next motion prediction vector is obtained based on the past motion vector and the past prediction motion vector, and the past prediction motion vector further includes the past information. Therefore, by using the equation (6), a predicted motion vector as a compilation of a series of past information is obtained. The predicted motion vector m t obtained according to the equation (6) in the next frame predicted motion vector calculation unit 61 is input to the prediction function generation unit 62. In the present embodiment, the prediction function generator 62 calculates the motion prediction function P P (x, y) defined by the following equation (7 ).
, A motion prediction value corresponding to each pixel in the search area is obtained.

【0083】 PP(x,y)=(x2 +y2 )・(1+α・|mt |) ……(7) 但し、αは正の値を持つ重みである。この(7)式は、
基本的にはパラボラ形状を有しており、予測動きベクト
ルmtの大きさ|mt |が大きくなる程、急峻に立ち上
がるパラボラ形状となる。但し、(7)式のパラボラ形
状の頂点は、予測動きベクトルmt により予測された、
次フレームにおけるターゲット位置(本発明にいう存在
予測位置)に一致させる。
[0083] P P (x, y) = (x 2 + y 2) · (1 + α · | m t |) ...... (7) However, α is a weight having a positive value. This equation (7) is
Basically it has a parabolic shape, the magnitude of the prediction motion vector m t | m t | higher the increase, a parabolic shape that rises steeply. However, (7) the vertex of the parabola shape of the formula was predicted by the prediction motion vector m t,
The target position in the next frame (predicted presence position in the present invention) is made to coincide with the target position.

【0084】このようにして、(7)式に従って、探索
領域の各画素に対応させて各動き予測値PP(x,y)が求め
られ、それらの動き予測値の集合としての動き予測値マ
ップが作成される。尚、ここでは予測されたターゲット
位置を中心とした距離の関数であって、かつ予測動きベ
クトルmt の大きさ|mx |によって変化する動き予測
値を求める例について説明したが、さらに、予測動きベ
クトルmt の方向と、それに直交する方向とで、動き予
測値を示す関数であるパラボラの立上りの急峻度を変化
させてもよい。
In this way, the motion prediction values P P (x, y) are obtained corresponding to each pixel of the search area according to the equation (7), and the motion prediction values as a set of the motion prediction values are obtained. A map is created. Incidentally, there where a function of the distance around the predicted target position, and the magnitude of the prediction motion vector m t | m x | example has been described for obtaining the motion prediction value that varies with further prediction the direction of the motion vector m t, in a direction perpendicular thereto, may be changed parabolic rising steepness is a function indicating a motion prediction value.

【0085】図9は、色テンプレート更新部70を構成
する近似物体検出部71の作用説明図である。ここで
は、前述した3つの(R,G,B)の色分解画像を区別
せずに単に色分解画像と表記し、各色分解画像に対応す
る各テンポラリテンプレートを区別せずに単にテンポラ
リテンプレートと表記する。図9(A)は、色分解画像
内の、最小値位置検出部50で検出されたターゲット位
置(図9(A)に斜線で示す位置)およびそのターゲッ
ト位置を中心とした、テンプレートと同一寸法の近似斜
線Aを示す図である。
FIG. 9 is a diagram for explaining the operation of the approximate object detecting section 71 constituting the color template updating section 70. Here, the three (R, G, B) color separation images described above are simply referred to as color separation images without distinction, and the temporary templates corresponding to the respective color separation images are simply referred to as temporary templates without distinction. I do. FIG. 9A shows a target position (a position indicated by oblique lines in FIG. 9A) detected by the minimum value position detection unit 50 in the color separation image and the same dimensions as the template centered on the target position. It is a figure which shows the approximate oblique line A of.

【0086】図9(B)は、色テンプレート更新部70
を構成する極小値位置検出部71aで検出された極小値
位置(図9(B)に斜線で示す位置)と、各極小値位置
を中心とした、テンプレートと同一寸法の画像領域A,
B,C,Dを示す図である。ここに示す例では、極小値
位置検出部71aでは、最小値位置検出部50で検出さ
れたターゲット位置を含め、4つの極小値位置が検出さ
れている。
FIG. 9B shows a color template updating unit 70.
The minimum value position detected by the minimum value position detection unit 71a (the position indicated by oblique lines in FIG. 9B) and the image areas A and
It is a figure showing B, C, and D. In the example shown here, the minimum value position detection unit 71a detects four minimum value positions including the target position detected by the minimum value position detection unit 50.

【0087】図9(B)は、次に説明する干渉物体監視
部71bの説明中では、重み付け加算部42で作成され
た統合化ディストーションマップを意味し、その次に説
明する評価・統合部72の説明中では色分解画像を意味
する。ただし統合化ディストーションマップ上では、画
像領域A,B,C,Dの図示は意味を持たない。干渉物
体監視部71bでは、極小値位置検出部71aで検出さ
れた4つの極小値位置に関し、統合化ディストーション
マップ上の、各極小値位置に、図9(C)に示すフィル
タを作用させる。このフィルタの作用のさせ方は、図4
(A)を参照して説明した微分フィルタの作用のさせ方
と同一であるため、ここでは重複説明は省略する。
FIG. 9B shows the integrated distortion map created by the weighting and adding section 42 in the description of the interference object monitoring section 71b described next, and the evaluation / integrating section 72 described next. Means a color-separated image. However, the illustration of the image areas A, B, C and D has no meaning on the integrated distortion map. The interfering object monitoring unit 71b applies the filter shown in FIG. 9C to each minimum value position on the integrated distortion map for the four minimum value positions detected by the minimum value position detection unit 71a. The way this filter works is shown in FIG.
Since the operation is the same as that of the differential filter described with reference to FIG.

【0088】この図9(C)に示すフィルタは、図9
(D)に示すように、その極小値位置の画素値(図9
(D)に模式的に〇印で示す)とその極小値位置の周囲
の画素の画素値(図9(D)に模式的に×印で示す)と
の間の隔たり(深さdepth)を抽出するフィルタで
あり、この深さdepthがあらかじめ定められたしき
い値と比較され、その深さdepthが、しきい値が示
す深さよりも深いときに、その極小値位置にターゲット
と干渉する干渉物体が存在すると判定される。ここで
は、図9(B)に示す画像領域B、C内の各極小値位置
には、干渉物体が存在し、画像領域D内の極小値位置に
は干渉物体は存在しないと判定されたものとする。
The filter shown in FIG. 9C corresponds to FIG.
As shown in FIG. 9D, the pixel value at the minimum value position (FIG. 9)
(D) schematically shows the distance (depth) between a pixel value of a pixel around the minimum value position (indicated by X in FIG. 9D). A filter to be extracted. This depth is compared with a predetermined threshold, and when the depth is deeper than the depth indicated by the threshold, the interference at the minimum value position interferes with the target. It is determined that an object exists. Here, it is determined that an interference object exists at each minimum value position in the image areas B and C shown in FIG. 9B, and that no interference object exists at the minimum value position in the image area D. And

【0089】図10は、色テンプレート更新部70を構
成する評価・統合部72の作用説明図である。ここで
は、図9(A)、(B)に示すように、最小値位置検出
部50で検出されたターゲット位置を中心とした、色分
解画像上のテンプレートと同一寸法の画像領域Aと、近
似物体検出部71で検出された、近似物体(干渉物体)
が存在すると判定された極小値位置を中心とした、色分
解画像上のテンプレートと同一寸法の各画像領域B、C
それぞれとの間で、前述した(1)式に示す演算が実行
され、各ディストーション値d1 ,d2 が求められる。
これらのディストーション値d1 ,d2 は、本発明にい
う第2の近似度の一例に相当する。またこれと同様に、
テンポラリテンプレートと画像領域Aとの間でも前述し
た(1)式に示す演算が実行され、ディストーション値
3 が求められる。このディストーション値d3 は、本
発明にいう第1の近似度の一例に相当する。次いで、こ
のようにして求められたディストーション値どうしが比
較され、テンポラリテンプレートと画像領域Aとの間で
求められたディストーション値d3 が、画像領域Aと、
干渉物体が存在すると判定された各画像領域B、Cそれ
ぞれとの間で求められた各ディストーション値d1 ,d
2 のいずれよりも小さい値(前述したように値が小さい
ほど近似の度合いが大きいことをあらわしている)を有
する場合に、テンポラリテンプレートの各画素の画素値
と、画像領域Aの各画素の画素値が対応する画素毎に平
均されて新たなテンポラリテンプレートが求められ、そ
れまでのテンポラリテンプレートがこの新たに求められ
たテンポラリテンプレートに更新される。テンポラリテ
ンプレートは、このようにして順次更新される。ここで
は、d3 <d1 ,d2 の場合のみテンポラリテンプレー
トを更新するようにしたため、更新後のテンポラリテン
プレートは、ターゲットに強く反応するとともに干渉物
体への反応の度合いが低減され、ターゲットを干渉物体
から区別して安定的に追跡することができる。
FIG. 10 is a diagram for explaining the operation of the evaluation / integration section 72 constituting the color template update section 70. Here, as shown in FIGS. 9A and 9B, an image area A having the same size as the template on the color separation image centered on the target position detected by the minimum value position detection unit 50 is approximated. Approximate object (interfering object) detected by the object detecting unit 71
Image areas B and C having the same dimensions as the template on the color separation image, centered on the local minimum position where it is determined that
The calculation shown in the above-described equation (1) is executed between each of them, and the respective distortion values d 1 and d 2 are obtained.
These distortion values d 1 and d 2 correspond to an example of the second approximation according to the present invention. Also, like this,
Even between the temporary template and the image area A and the operation is executed as shown in the aforementioned equation (1) is the distortion value d 3 is determined. This distortion value d 3 corresponds to an example of the first approximation according to the present invention. Next, the distortion values determined in this way are compared with each other, and the distortion value d 3 determined between the temporary template and the image area A is compared with the image area A,
Distortion values d 1 and d obtained between the respective image regions B and C determined to have an interference object
2 (smaller value indicates higher degree of approximation as described above), the pixel value of each pixel of the temporary template and the pixel value of each pixel of the image area A The value is averaged for each corresponding pixel to obtain a new temporary template, and the previous temporary template is updated with the newly obtained temporary template. The temporary templates are sequentially updated in this manner. Here, the temporary template is updated only when d 3 <d 1 , d 2. Therefore, the updated temporary template reacts strongly to the target and the degree of reaction to the interfering object is reduced. The object can be stably tracked separately from the object.

【0090】次に、微分テンプレートおよび固定テンプ
レートの設定方法、およびテンポラリテンプレートの初
期設定方法について説明する。図11は、各テンプレー
トの設定方法の第1例を示す説明図である。図1に示す
CRT表示部104にターゲットとして指定しようとす
る移動体を含む原画像を表示し、マウス103を操作し
てその原画像の所望の移動体を指し示す。そうすると、
その指し示された原画像上の位置情報がその原画像とと
もに図2に示す移動体追跡装置に入力され、色空間ディ
ストーションマップ作成部10を構成する演算部11で
は、その原画像上の、マウス103によって指し示され
た位置を中心とした、テンプレートと同一寸法の画像領
域が切り出され、その切り出された画像領域が固定テン
プレートとして設定されるとともにテンポラリテンプレ
ートとしても初期設定される。また、これと同時に、微
分空間ディストーションマップ作成部30を構成する演
算部31では、微分画像上の、マウス103によって指
し示された位置を中心とした、テンプレートと同一寸法
の画像領域が切り出されて、その切り出された画像領域
が微分テンプレートとして設定される。
Next, a method of setting a differential template and a fixed template, and a method of initial setting of a temporary template will be described. FIG. 11 is an explanatory diagram illustrating a first example of a method of setting each template. An original image including a moving object to be designated as a target is displayed on the CRT display unit 104 shown in FIG. 1, and the mouse 103 is operated to indicate a desired moving object in the original image. Then,
The position information on the pointed original image is input to the moving object tracking device shown in FIG. 2 together with the original image, and the arithmetic unit 11 constituting the color space distortion map creating unit 10 executes the mouse An image area centered on the position pointed by 103 and having the same size as the template is cut out, and the cut out image area is set as a fixed template and also initialized as a temporary template. At the same time, the calculation unit 31 constituting the differential space distortion map creation unit 30 cuts out an image area of the same size as the template centered on the position indicated by the mouse 103 on the differential image. Is set as a differential template.

【0091】図12は、各テンプレートの設定方法の第
2例を示す説明図である。図2に示す移動体追跡装置に
は、共通テンプレートが設定されている。この共通テン
プレートは、ターゲットとして指定される可能性のある
移動体であればどの移動体であっても検出するように設
定されたテンプレートである。この共通テンプレートは
あらかじめマニュアルで設定される。ここでは、この共
通テンプレートが用いられる。
FIG. 12 is an explanatory diagram showing a second example of the setting method of each template. A common template is set in the mobile object tracking device shown in FIG. This common template is a template set so as to detect any moving object that may be specified as a target. This common template is manually set in advance. Here, this common template is used.

【0092】図1に示すCRT表示部104に、ターゲ
ットとして指定しようとする移動体を含む原画像を表示
し、マウス103を操作して、所望の移動体を指定す
る。このときCRT表示部104には動画像が表示され
ており、ターゲットとして指定しようとした移動体が動
いている場合もあり、必ずしも正確にターゲットの位置
が指定されるとは限らない。そこで、ここに示す例で
は、微分空間ディストーションマップ作成部30を構成
する演算部31において、微分画像上で、その指定され
た位置を中心とした、テンプレートよりも広い領域(図
12に一点鎖線で示す領域)が設定され、その領域内
で、共通テンプレートとの間でSAD処理が実行され、
その最小値位置が検出され、その最小値位置を中心とし
た、テンプレートと同一寸法の画像領域が切り出され
て、その切り出された画像領域が微分テンプレートとし
て設定される。また、色空間ディストーションマップ作
成部10を構成する演算部11は、微分空間ディストー
ションマップ作成部30を構成する演算部31からその
最小値位置の情報を受け取り、色分解画像上の、その最
小値位置を中心とした、テンプレートと同一寸法の画像
領域が切り出されて、その切り出された画像領域が固定
テンプレートとして設定され、かつテンポラリテンプレ
ートとして初期設定される。
An original image including a moving object to be designated as a target is displayed on the CRT display unit 104 shown in FIG. 1, and a desired moving object is designated by operating the mouse 103. At this time, a moving image is displayed on the CRT display unit 104, and a moving object to be specified as a target may be moving, and the position of the target is not always specified accurately. Therefore, in the example shown here, the arithmetic unit 31 configuring the differential space distortion map creating unit 30 has a region centered on the designated position on the differential image and larger than the template (in FIG. Area) is set, and within that area, SAD processing is performed with the common template,
The minimum value position is detected, an image area centered at the minimum value position and having the same size as the template is cut out, and the cut out image area is set as a differential template. The arithmetic unit 11 constituting the color space distortion map creating unit 10 receives information on the minimum value position from the arithmetic unit 31 constituting the differential space distortion map creating unit 30, and receives the minimum value position on the color separation image. , An image area of the same size as the template is cut out, and the cut out image area is set as a fixed template and is initialized as a temporary template.

【0093】図13は、各テンプレートの設定方法の第
3例を示す説明図である。この図13を参照して説明す
る処理は、図12を参照して説明した処理に続く処理で
ある。ただし、固定テンプレートは、図12を参照して
説明した処理の段階では未だ設定されず、微分テンプレ
ートとテンポラリテンプレートのみが設定される。この
ような状況下でターゲットの追跡を開始する。ただし、
色空間ディストーションマップ作成部10では、固定テ
ンプレートは未だ設定されていないため、テンポラリテ
ンプレートのみが用いられる。
FIG. 13 is an explanatory diagram showing a third example of the setting method of each template. The processing described with reference to FIG. 13 is processing subsequent to the processing described with reference to FIG. However, the fixed template is not yet set at the stage of the processing described with reference to FIG. 12, and only the differential template and the temporary template are set. Under such circumstances, the tracking of the target is started. However,
In the color space distortion map creation unit 10, since no fixed template has been set yet, only the temporary template is used.

【0094】このようにして、最小値位置検出部50に
よりターゲット位置が検出されると、そのターゲット位
置情報が、微分空間ディストーションマップ作成部30
を構成する微分テンプレート更新部32に入力される。
図13に斜線を付して示した位置が最小値検出部50に
より検出されたターゲット位置であるとする。微分テン
プレート更新部32では、微分画像上の最小値検出部5
0により検出されたターゲット位置を中心とした、テン
プレートと同一寸法の画像領域が切り出され、その切り
出された画像領域と、既に設定されている微分テンプレ
ートとが、対応する画素毎に平均されて新たな微分テン
プレートが求められ、それまで設定されていた微分テン
プレートが、その求められた新たな微分テンプレートに
更新される。また、テンポラリテンプレートは、色テン
プレート更新部70により更新される。以上の更新処理
が、あらかじめ設定された数のフレームだけ繰り返さ
れ、その後は、微分テンプレート更新部32はその動作
を停止し、従ってその後は微分テンプレートは更新され
ずその時点の微分テンプレートに固定される。テンポラ
リテンプレートに関しては、色テンプレート更新部70
により引き続き更新処理が継続される。
In this manner, when the target position is detected by the minimum value position detecting section 50, the target position information is transferred to the differential space distortion map forming section 30.
Is input to the differential template updating unit 32 constituting
It is assumed that hatched positions in FIG. 13 are target positions detected by the minimum value detection unit 50. In the differential template updating unit 32, the minimum value detecting unit 5 on the differential image
An image area of the same size as the template centered on the target position detected by 0 is cut out, and the cut-out image area and the differential template already set are averaged for each corresponding pixel and newly obtained. Is obtained, and the previously set differential template is updated with the obtained new differential template. The temporary template is updated by the color template updating unit 70. The above updating process is repeated for a preset number of frames, and thereafter, the differential template updating unit 32 stops its operation, so that the differential template is not updated thereafter and is fixed at the current differential template. . Regarding the temporary template, the color template updating unit 70
, The update process is continued.

【0095】また、固定テンプレートに関しては、微分
テンプレート更新部32で更新動作を停止する直前の、
最小値位置検出部50で検出されたターゲット位置情報
が、その微分テンプレート更新部32から、色空間ディ
ストーションマップ作成部10を構成する演算部11に
伝えられ、演算部11は、色分解画像上の、その時点に
おけるターゲット位置を中心とした、テンプレートと同
一寸法の画像領域を切り出し、その切り出した画像領域
を固定テンプレートとして設定する。
Further, regarding the fixed template, immediately before the updating operation is stopped by the differential template updating unit 32,
The target position information detected by the minimum value position detecting unit 50 is transmitted from the differential template updating unit 32 to the calculating unit 11 constituting the color space distortion map creating unit 10, and the calculating unit 11 Then, an image area centered on the target position at that time and having the same size as the template is cut out, and the cut out image area is set as a fixed template.

【0096】図2に示す移動体追跡装置は、図1に示す
コンピュータシステムの内部に実現され、相関器80を
除きソフトウェアで構成されたものであるが、このよう
にソフトウェアで構成されたままでもかなりのリアルタ
イム性が確保される。さらに、図2に示す移動体追跡装
置は、ハードウェア化も可能であり、この図2に示す装
置をハードウェアで構成すればリアルタイム性をさらに
向上させることができる。またこの図2に示す移動体追
跡装置は、ターゲットの持つ様々な情報を捉え、それら
を二次元マップの形式で統合してターゲット位置を検出
するようにしたため、ターゲットの大きな変形等にも強
く、実用上問題のない精度でのターゲットの追跡が可能
である。
The mobile object tracking device shown in FIG. 2 is realized inside the computer system shown in FIG. 1, and is configured by software except for the correlator 80. A considerable real-time property is secured. Further, the moving object tracking device shown in FIG. 2 can be implemented by hardware. If the device shown in FIG. 2 is constituted by hardware, the real-time property can be further improved. In addition, the moving object tracking device shown in FIG. 2 captures various information of the target and integrates them in the form of a two-dimensional map to detect the target position. It is possible to track the target with a practically accurate accuracy.

【0097】図14は、本発明の移動体追跡装置のもう
1つの実施形態を示すブロック図である。カメラ100
で撮影された画像は、移動体追跡装置200の入力手段
201で逐次リアルタイムに取り込まれ移動体追跡手段
202で追跡処理される。移動体追跡手段の内容は、図
2に示す装置全体が対応し、これまで説明してきたとお
りのものである。マーク発生手段203は、予め作成し
ておいた縦長の楕円形のマークを移動体追跡手段202
で演算された移動体位置に形成する。マーク発生手段2
02で発生したマークはテロップ表示装置300により
カメラ100で撮影された画像と合成され、放送装置4
00で放送される。
FIG. 14 is a block diagram showing another embodiment of the moving object tracking apparatus according to the present invention. Camera 100
The image photographed by the moving object tracking device 200 is sequentially captured in real time by the input means 201 of the moving object tracking device 200 and tracked by the moving object tracking means 202. The contents of the moving object tracking means correspond to the entire apparatus shown in FIG. 2 and are as described above. The mark generating means 203 converts a vertically long elliptical mark created in advance into a moving object tracking means 202.
Is formed at the position of the moving body calculated by Mark generating means 2
02 is combined with the image captured by the camera 100 by the telop display device 300, and the broadcast device 4
Broadcast at 00.

【0098】この放送装置400で放送された画像は、
図示しない受像機(例えばテレビ)で受像され、その表
示画面上に画像が表示されるが、その表示された画像上
ではある移動体に縦長の楕円形のマークが付されてお
り、従って、その移動体が移動しても見失うことなく常
にその移動体を注目することができる。
The image broadcasted by the broadcasting device 400 is
An image is received by a receiver (not shown) (for example, a television), and an image is displayed on the display screen. On the displayed image, a moving object is marked with a vertically long elliptical mark. Even if the moving object moves, the moving object can always be noticed without being lost.

【0099】[0099]

【発明の効果】以上説明したように、本発明によれば、
リアルタイム性と追跡性能の向上が図られた移動体追跡
装置が実現する。
As described above, according to the present invention,
A mobile object tracking device with improved real-time performance and tracking performance is realized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の移動体追跡装置の一実施形態を含む自
動追跡システムの模式図である。
FIG. 1 is a schematic diagram of an automatic tracking system including an embodiment of a moving object tracking device according to the present invention.

【図2】図1に示すコンピュータシステム内に構築され
た本発明の一実施形態としての移動体追跡装置の機能構
成図である。
FIG. 2 is a functional configuration diagram of a mobile object tracking device as one embodiment of the present invention constructed in the computer system shown in FIG. 1;

【図3】色空間ディストーションマップの作成過程の説
明図である。
FIG. 3 is an explanatory diagram of a process of creating a color space distortion map.

【図4】微分フィルタおよびテンプレートを示した図で
ある。
FIG. 4 is a diagram showing a differential filter and a template.

【図5】信頼性評価部の動作説明図である。FIG. 5 is an operation explanatory diagram of a reliability evaluation unit.

【図6】2つのディストーションマップD1 ,D2 の各
最小値D1min,D2minの時間的な変化、および2つのデ
ィストーションマップD1 ,D2 をその後の処理に使用
する(信頼性が高い)か否かの時間的な変化を示す図で
ある。
[6] Two distortion map D 1, D 2 of the minimum value D 1min, temporal changes in the D 2min, and uses two distortion map D 1, D 2 in the subsequent processing (reliable It is a figure which shows the time change of whether or not.

【図7】2つの重み付け加算部の作用の説明図である。FIG. 7 is an explanatory diagram of the operation of two weighting addition units.

【図8】動き予測値マップ作成部の動作説明図である。FIG. 8 is an explanatory diagram of an operation of a motion predicted value map creating unit.

【図9】近似物体検出部の作用説明図である。FIG. 9 is a diagram illustrating the operation of an approximate object detection unit.

【図10】評価・統合部の作用説明図である。FIG. 10 is an operation explanatory diagram of an evaluation / integration unit.

【図11】各テンプレートの設定方法の第1例を示す説
明図である。
FIG. 11 is an explanatory diagram showing a first example of a setting method of each template.

【図12】各テンプレートの設定方法の第2例を示す説
明図である。
FIG. 12 is an explanatory diagram showing a second example of a setting method of each template.

【図13】各テンプレートの設定方法の第3例を示す説
明図である。
FIG. 13 is an explanatory diagram showing a third example of a setting method of each template.

【図14】本発明の移動体追跡装置のもう1つの実施形
態を示すブロック図である。
FIG. 14 is a block diagram showing another embodiment of the moving object tracking device of the present invention.

【符号の説明】 1 コンピュータシステム 2 ビデオカメラ 3 サーボシステム 10 色空間ディストーションマップ作成部 11 演算部 20 微分処理部 21 微分演算部 30 微分空間ディストーションマップ作成部 31 演算部 40 評価値マップ作成部 41 信頼性評価部 42,43 重み付け加算部 50 最小値位置検出部 60 動き予測値マップ作成部 61 次フレーム予測動きベクトル計算部 62 予測関数生成部 70 色テンプレート更新部 71 近似物体検出部 71a 極小値位置検出部 71b 干渉物体監視部 72 評価・統合部 100 カメラ 101 本体部 102 キーボード 103 マウス 104 CRT表示部 200 移動体追跡装置 201 入力手段 202 移動体追跡手段 203 マーク発生手段 204 テロップ表示装置 205 放送装置[Description of Signs] 1 Computer system 2 Video camera 3 Servo system 10 Color space distortion map creation unit 11 Operation unit 20 Differential processing unit 21 Differential operation unit 30 Differential space distortion map creation unit 31 Operation unit 40 Evaluation value map creation unit 41 Reliability Sex evaluation sections 42, 43 weighting addition section 50 minimum value position detection section 60 motion prediction value map creation section 61 next frame prediction motion vector calculation section 62 prediction function generation section 70 color template update section 71 approximate object detection section 71a detection of minimum value position Unit 71b Interference object monitoring unit 72 Evaluation / integration unit 100 Camera 101 Main unit 102 Keyboard 103 Mouse 104 CRT display unit 200 Moving object tracking device 201 Input means 202 Moving object tracking means 203 Mark generation means 204 Telop display device 20 Broadcast equipment

Claims (16)

【特許請求の範囲】[Claims] 【請求項1】 1つ以上の移動体を含むシーンが撮影さ
れてなる、順次連続する複数のフレームからなる原画像
を入力し、該原画像に映し出された移動体の中から選択
された被追跡用移動体を追跡する移動体追跡装置におい
て、 前記原画像を構成する色分解画像に映し出された被追跡
用移動体と対比される色テンプレートと、前記色分解画
像との第1の相関値の分布を求める第1の相関値分布演
算部と、 前記原画像を空間的に微分することにより微分画像を求
める微分処理部と、 前記微分画像に映し出された被追跡用移動体と対比され
る微分テンプレートと、前記微分画像との第2の相関値
の分布を求める第2の相関値分布演算部と、 被追跡用移動体の過去の動きに基づいて、該被追跡用移
動体が存在する蓋然性をあらわす動き予測値の分布を求
める動き予測値分布演算部と、 前記第1の相関値、前記第2の相関値、および前記動き
予測値を統合して評価値を求めることにより、被追跡用
移動体の存在位置を表わす評価値の分布を求める評価値
分布演算部と、 前記評価値分布演算部で求められた評価値の分布に基づ
いて、被追跡用移動体の存在位置を検出する位置検出部
とを備えたことを特徴とする移動体追跡装置。
1. An original image comprising a plurality of consecutive frames, which is obtained by capturing a scene including one or more moving objects, is input, and an object selected from the moving objects reflected in the original image is input. In a moving object tracking apparatus for tracking a tracking moving object, a first correlation value between a color template to be compared with a tracked moving object projected on a color separation image constituting the original image and the color separation image A first correlation value distribution calculating unit for obtaining a distribution of the differential image; a differential processing unit for obtaining a differential image by spatially differentiating the original image; and a tracking target moving object displayed on the differential image. A differential template, a second correlation value distribution calculation unit for obtaining a distribution of a second correlation value with the differential image, and the tracked moving object is present based on past movement of the tracked moving object. Motion prediction value representing probability And a motion prediction value distribution calculation unit that calculates the first correlation value, the second correlation value, and the motion prediction value to obtain an evaluation value, thereby indicating the position of the moving object to be tracked. An evaluation value distribution calculating unit that obtains an evaluation value distribution; and a position detecting unit that detects an existing position of the tracked moving object based on the evaluation value distribution obtained by the evaluation value distribution calculating unit. A moving object tracking device characterized by the above-mentioned.
【請求項2】 前記評価値分布演算部が、前記第1の相
関値の分布の信頼性を評価する信頼性評価部を含み、信
頼性が低いと判定された第1の相関値の分布を前記評価
値の分布を求める処理から除外した上で、該評価値の分
布を求めるものであることを特徴とする請求項1記載の
移動体追跡装置。
2. The evaluation value distribution calculation unit includes a reliability evaluation unit that evaluates reliability of the distribution of the first correlation value, and calculates a distribution of the first correlation value determined to be low in reliability. 2. The moving object tracking apparatus according to claim 1, wherein the evaluation value distribution is obtained after excluding the evaluation value distribution from the processing for obtaining the evaluation value distribution.
【請求項3】 前記評価値分布演算部が、前記第1の相
関値の分布の信頼性および前記第2の相関値の分布の信
頼性を評価する信頼性評価部を含み、信頼性が低いと判
定された第1の相関値の分布、および信頼性が低いと判
定された第2の相関値の分布を、前記評価値の分布を求
める処理から除外した上で、該評価値の分布を求めるも
のであることを特徴とする請求項1記載の移動体追跡装
置。
3. The evaluation value distribution calculation unit includes a reliability evaluation unit that evaluates the reliability of the distribution of the first correlation value and the reliability of the distribution of the second correlation value, and the reliability is low. After excluding the distribution of the first correlation value determined to be and the distribution of the second correlation value determined to be low in reliability from the process of obtaining the distribution of the evaluation values, the distribution of the evaluation values is 2. The moving object tracking device according to claim 1, wherein the moving object tracking device is obtained.
【請求項4】 前記色テンプレートが、順次更新される
テンポラリテンプレートを含むものであって、前記色分
解画像内の、前記位置検出部で検出された、被追跡用移
動体の存在位置を含む画像領域を該テンポラリテンプレ
ートに統合することにより、テンポラリテンプレートを
更新する色テンプレート更新部を備えたことを特徴とす
る請求項1記載の移動体追跡装置。
4. An image in which the color template includes a sequentially updated temporary template, and includes an existing position of the tracked moving object detected by the position detection unit in the color separation image. 2. The moving object tracking apparatus according to claim 1, further comprising a color template updating unit that updates the temporary template by integrating an area into the temporary template.
【請求項5】 前記評価値分布演算部が、前記第1の相
関値と前記第2の相関値とを各画素毎に統合して各画素
毎の統合化相関値を求めることにより統合化相関値の分
布を求める第1の統合化処理部と、該第1の統合化処理
部で求められた統合化相関値と前記動き予測値分布演算
部で求められた動き予測値とを各画素毎に統合して各画
素毎の評価値を求めることにより前記評価値の分布を求
める第2の統合化処理部とを有し、 前記テンプレート更新部が、 前記統合化相関値の分布に基づいて、被追跡用移動体に
近似した近似物体の存在位置を、複数位置の検出を許容
して検出する近似物体検出部と、 前記色分解画像内の、前記位置検出部で検出された、被
追跡用移動体の存在位置を含む第1の画像領域と、前記
テンポラリプレートとの近似の度合いをあらわす第1の
近似度、および該第1の画像領域と、前記近似物体検出
部で検出された、近似物体の存在位置を含む第2の画像
領域との近似の度合いをあらわす第2の近似度を求め、
前記第1の近似度の方が前記第2の近似度よりも近似の
度合いが大きいことをあらわしている場合に前記第1の
画像領域をテンポラリテンプレートに統合することによ
り、テンポラリテンプレートを更新する評価・統合部と
を有することを特徴とする請求項4記載の移動体追跡装
置。
5. The integrated correlation value calculation unit calculates an integrated correlation value for each pixel by integrating the first correlation value and the second correlation value for each pixel. A first integrated processing unit for obtaining a value distribution, and an integrated correlation value obtained by the first integrated processing unit and a motion prediction value obtained by the motion predicted value distribution calculation unit for each pixel. And a second integrated processing unit that obtains an evaluation value for each pixel to obtain a distribution of the evaluation values, wherein the template updating unit performs, based on the distribution of the integrated correlation values, An approximate object detection unit that detects the existence position of an approximate object that approximates the tracked moving object by allowing detection of a plurality of positions; and in the color-separated image, A first image area including the position of the moving object, and an approximation of the temporary plate. A first degree of approximation representing a degree, and a second degree of approximation between the first image area and a second image area including the position of the approximate object detected by the approximate object detection unit. Find the degree of approximation,
When the first degree of approximation indicates that the degree of approximation is greater than the second degree of approximation, the first image area is integrated with the temporary template to evaluate the updating of the temporary template. The moving object tracking device according to claim 4, further comprising: an integration unit.
【請求項6】 前記第1の相関値分布演算部および前記
第2の相関値分布演算部に共用される、もしくはこれら
第1の相関値分布演算部及び第2の相関値分布演算部そ
れぞれに配備された、2つの画像ないし画像領域の、互
いに対応する画素に割り当てられた画素値どうしの差分
の絶対値を、該2つの画像ないし画像領域にわたって積
算してなる相関値を求める相関器を備え、 前記微分処理部が、前記相関器に、前記原画像を微分し
て微分画像を求める微分演算のうちの一部の演算を実行
させるものであることを特徴とする請求項1記載の移動
体追跡装置。
6. The first correlation value distribution calculator and the second correlation value distribution calculator, which are shared by the first correlation value distribution calculator and the second correlation value distribution calculator. A correlator for determining a correlation value obtained by integrating an absolute value of a difference between pixel values assigned to pixels corresponding to each other between two images or image areas over the two images or image areas; 2. The moving body according to claim 1, wherein the differential processing unit causes the correlator to execute a part of differential operations for differentiating the original image to obtain a differential image. Tracking device.
【請求項7】 前記動き予測値分布演算部が、被追跡用
移動体の、現時点から次の時点までの間の動きを予測し
た予測動きベクトルを求め、該予測動きベクトルがあら
わす該次の時点における被追跡用移動体の存在予測位置
に最大の蓋然性、該存在予測位置から離れるに従って低
下した蓋然性をあらわす動き予測値を、前記探索領域内
の各画素に対応づけるものであることを特徴とする請求
項1記載の移動体追跡装置。
7. The motion prediction value distribution calculating unit obtains a motion vector predicting the motion of the moving object to be tracked from the current time to the next time, and calculates the next time point represented by the motion vector predictor. The motion prediction value representing the maximum probability of the predicted position of the tracked moving object in the above, and the probability of decreasing as the distance from the predicted position increases, is associated with each pixel in the search area. The moving object tracking device according to claim 1.
【請求項8】 前記動き予測値分布演算部が、現時点に
おける被追跡用移動体の存在予測位置をあらわす、過去
の時点で求められた予測動きベクトルと、前記位置検出
部により前記過去の時点と現時点との双方で検出された
被追跡用移動体の存在位置どうしの位置の相違から求め
られる被追跡用移動体の実際の動きをあらわす動きベク
トルとに基づいて、該被追跡用移動体の、現時点から次
の時点までの間の動きを予測した予測動きベクトルを求
めるものであることを特徴とする請求項7記載の移動体
追跡装置。
8. A motion vector predictor calculated by the motion detector, the motion vector predictor being calculated at a past time, the motion vector indicating a predicted position of the moving object to be tracked at the present time. Based on the motion vector representing the actual movement of the tracked moving object determined from the difference between the positions of the tracked moving object detected both at the current time and the current position, 8. The moving object tracking device according to claim 7, wherein a motion vector predicting a motion from a current time to a next time is obtained.
【請求項9】 前記動き予測値分布演算部が、前記予測
動きベクトルがあらわす被追跡用移動体の存在予測位置
を中心とした距離の関数としての動き予測値を、前記探
索領域内の各画素に対応づけるものであることを特徴と
する請求項7記載の移動体追跡装置。
9. The motion prediction value distribution calculation unit calculates a motion prediction value as a function of a distance centered on a predicted position of the tracked moving object represented by the predicted motion vector for each pixel in the search area. 8. The moving object tracking device according to claim 7, wherein
【請求項10】 前記動き予測値分布演算部が、前記予
測動きベクトルがあらわす被追跡用移動体の存在予測位
置を中心とし、該予測動きベクトルの方向の距離に対す
る重みと該方向に対し交わる方向の距離に対する重みと
が異なる重みをもつ、これら2つの距離の関数としての
動き予測値を、前記探索領域内の各画素に対応づけるも
のであることを特徴とする請求項7記載の移動体追跡装
置。
10. The motion prediction value distribution calculation unit, wherein the predicted motion vector represents a center of a predicted position of a tracked moving object, and a weight for a distance in a direction of the predicted motion vector and a direction intersecting the direction. The moving object tracking according to claim 7, wherein a motion prediction value as a function of the two distances having different weights from the distance is associated with each pixel in the search area. apparatus.
【請求項11】 前記動き予測値演算部が、前記予測動
きベクトルの大きさを変数とした関数としての動き予測
値を、前記探索領域内の各画素に対応づけるものである
ことを特徴とする請求項7記載の移動体追跡装置。
11. The motion prediction value calculation unit associates a motion prediction value as a function with the magnitude of the prediction motion vector as a variable with each pixel in the search area. The mobile object tracking device according to claim 7.
【請求項12】 前記第2の相関値演算部が、被追跡用
移動体の追跡に先立って指定された原画像上の所定位置
と同一の、微分画像上の所定位置を含む、該微分画像内
の所定の画像領域を、前記微分テンプレートとして設定
するものであることを特徴とする請求項1記載の移動体
追跡装置。
12. The differential image, wherein the second correlation value calculating section includes a predetermined position on a differential image, which is the same as a predetermined position on an original image designated prior to tracking of the tracked moving object. 2. The moving object tracking device according to claim 1, wherein a predetermined image area in the moving object is set as the differential template.
【請求項13】 前記第2の相関値分布演算部が、被追
跡用移動体の追跡に先立って指定された原画像上の所定
位置と同一の、微分画像上の所定位置を含む、該微分画
像内の、前記微分テンプレートの寸法よりも大きな寸法
の画像領域内で、被追跡用移動体として指定され得る移
動体に対し共通的に設定された共通テンプレートとの近
似の度合の高い、前記微分テンプレートの寸法と同一寸
法の一部領域を検出し、該一部領域を前記微分テンプレ
ートとして設定するものであることを特徴とする請求項
1記載の移動体追跡装置。
13. The differential correlation value calculating section, wherein the second correlation value distribution calculating section includes a predetermined position on a differential image which is the same as a predetermined position on an original image designated prior to the tracking of the moving object to be tracked. In the image, within the image area of a size larger than the size of the derivative template, the derivative having a high degree of approximation with a common template commonly set for a moving body that can be designated as a tracked moving body. 2. The moving object tracking apparatus according to claim 1, wherein a partial area having the same size as the template is detected, and the partial area is set as the differential template.
【請求項14】 前記第2の相関値分布演算部が、前記
微分テンプレートを初回に設定した時点よりも後の1つ
以上の各時点において、前記微分画像内の、前記位置検
出部で検出された、被追跡用移動体の存在位置を含む画
像領域を、該微分テンプレートに統合することにより、
該微分テンプレートを更新する、被追跡用移動体の追跡
を開始した後の所定の初期段階で動作する微分テンプレ
ート更新部を備えたことを特徴とする請求項13記載の
移動体追跡装置。
14. The method according to claim 1, wherein the second correlation value distribution calculation unit detects the differential template in the differential image at one or more times after the time when the differential template is set for the first time. In addition, by integrating the image area including the position of the target to be tracked into the differential template,
14. The moving object tracking apparatus according to claim 13, further comprising a differential template updating unit that operates at a predetermined initial stage after starting tracking of the tracked moving object, for updating the differential template.
【請求項15】 前記色テンプレートが、固定された固
定テンプレートを含むものであって、前記第1の相関値
分布演算部が、前記微分テンプレートが設定もしくは最
終的に更新された時点における、前記色分解画像内の、
前記位置検出部で検出された、被追跡用移動体の存在位
置を含む画像領域を、前記固定テンプレートとして設定
するものであることを特徴とする請求項12から14の
うちのいずれか1項記載の移動体追跡装置。
15. The color template includes a fixed template which is fixed, and wherein the first correlation value distribution calculating section sets the color template when the differential template is set or finally updated. In the decomposition image,
15. The image processing apparatus according to claim 12, wherein an image area including the position of the tracked moving object detected by the position detection unit is set as the fixed template. Mobile tracking device.
【請求項16】 移動体を含むシーンが撮影されてな
る、複数のフレームからなる原画像を順次連続して入力
する入力手段、 該複数のフレーム間で該移動体の位置が異なる移動体を
追跡し、該フレーム内の移動体の位置を、前記連続して
入力される時間で順次出力する移動体追跡手段、および
前記入力手段で入力された原画像の該移動体追跡手段で
追跡した移動体の位置にマークを表示するためのマーク
発生手段を備えたことを特徴とする移動体追跡装置。
16. An input means for sequentially and sequentially inputting an original image composed of a plurality of frames obtained by photographing a scene including a moving body, tracking a moving body having a different position of the moving body between the plurality of frames. Moving body tracking means for sequentially outputting the position of the moving body in the frame at the continuous input time; and a moving body tracked by the moving body tracking means of the original image input by the input means. A moving object tracking device comprising a mark generating means for displaying a mark at a position of the moving object.
JP24732597A 1997-09-11 1997-09-11 Mobile tracking device Expired - Fee Related JP3481430B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP24732597A JP3481430B2 (en) 1997-09-11 1997-09-11 Mobile tracking device
US09/017,313 US6031568A (en) 1997-09-11 1998-02-02 Moving-target tracking apparatus
DE69828346T DE69828346T2 (en) 1997-09-11 1998-02-04 Device for tracking a moving target
EP98101910A EP0902396B1 (en) 1997-09-11 1998-02-04 Moving-target tracking apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24732597A JP3481430B2 (en) 1997-09-11 1997-09-11 Mobile tracking device

Publications (2)

Publication Number Publication Date
JPH1186004A true JPH1186004A (en) 1999-03-30
JP3481430B2 JP3481430B2 (en) 2003-12-22

Family

ID=17161728

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24732597A Expired - Fee Related JP3481430B2 (en) 1997-09-11 1997-09-11 Mobile tracking device

Country Status (4)

Country Link
US (1) US6031568A (en)
EP (1) EP0902396B1 (en)
JP (1) JP3481430B2 (en)
DE (1) DE69828346T2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000054784A (en) * 2000-06-23 2000-09-05 이성환 system for tracking the movement of the multiple object using an Appearance Model Based on Temporal Color and controlling method therefore
JP2007157069A (en) * 2005-12-08 2007-06-21 Nippon Telegr & Teleph Corp <Ntt> Movement prediction device, movement prediction method and program
JP2007272733A (en) * 2006-03-31 2007-10-18 Sony Corp Image processing device and method, and program
JP2008113071A (en) * 2006-10-27 2008-05-15 Matsushita Electric Works Ltd Automatic tracking device
JP2009104245A (en) * 2007-10-19 2009-05-14 Sony Corp Information processor and method, and program
JP2009104244A (en) * 2007-10-19 2009-05-14 Sony Corp Information processor and method, and program
JP2010524113A (en) * 2007-04-15 2010-07-15 エクストリーム リアリティー エルティーディー. Man-machine interface device system and method
JP2011086163A (en) * 2009-10-16 2011-04-28 Mitsubishi Heavy Ind Ltd Mobile object tracking apparatus and method for the same
JP2011090488A (en) * 2009-10-22 2011-05-06 Nikon Corp Object tracking device, object tracking program, and camera
US8194134B2 (en) 2006-10-27 2012-06-05 Panasonic Corporation Target moving object tracking device
US8254690B2 (en) 2007-10-19 2012-08-28 Sony Corporation Information processing apparatus, information processing method, and program
JP2013192151A (en) * 2012-03-15 2013-09-26 Casio Comput Co Ltd Electronic device, remote operation control system, remote operation control method, and program
JP2014112888A (en) * 2014-01-08 2014-06-19 Mitsubishi Heavy Ind Ltd Moving object tracking apparatus and method thereof
JP2015139476A (en) * 2014-01-27 2015-08-03 日立アロカメディカル株式会社 ultrasonic image processing apparatus
JP7117593B1 (en) * 2021-07-08 2022-08-15 パナソニックIpマネジメント株式会社 Imaging device

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100327103B1 (en) * 1998-06-03 2002-09-17 한국전자통신연구원 Method for objects sehmentation in video sequences by object tracking and assistance
US6233007B1 (en) * 1998-06-22 2001-05-15 Lucent Technologies Inc. Method and apparatus for tracking position of a ball in real time
ATE336011T1 (en) * 1998-07-13 2006-09-15 Contraves Ag METHOD FOR TRACKING MOVING OBJECTS USING SPECIFIC CHARACTERISTICS
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US20010008561A1 (en) * 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US7121946B2 (en) * 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
US6243494B1 (en) * 1998-12-18 2001-06-05 University Of Washington Template matching in 3 dimensions using correlative auto-predictive search
US7177447B2 (en) * 1999-02-23 2007-02-13 Lockheed Martin Corporation Real-time multi-stage infrared image-based tracking system
US6499025B1 (en) * 1999-06-01 2002-12-24 Microsoft Corporation System and method for tracking objects by fusing results of multiple sensing modalities
FR2794880B1 (en) * 1999-06-10 2001-12-14 Philippe Crochat AUTOMATIC PROCESS FOR TRACKING A MOVING TARGET BY AN ELECTRONIC CAMERA AND DEVICE FOR IMPLEMENTING IT
US6879705B1 (en) * 1999-07-14 2005-04-12 Sarnoff Corporation Method and apparatus for tracking multiple objects in a video sequence
US7050606B2 (en) * 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
US6963425B1 (en) * 2000-08-14 2005-11-08 National Instruments Corporation System and method for locating color and pattern match regions in a target image
US7136525B1 (en) * 1999-09-20 2006-11-14 Microsoft Corporation System and method for background maintenance of an image sequence
JP2001149642A (en) * 1999-12-01 2001-06-05 Namco Ltd Game device and after image display method for the same
US7015976B1 (en) * 2000-08-07 2006-03-21 Ati International Srl Automatic panning of digital content while zoomed
US7106885B2 (en) * 2000-09-08 2006-09-12 Carecord Technologies, Inc. Method and apparatus for subject physical position and security determination
US6445832B1 (en) * 2000-10-10 2002-09-03 Lockheed Martin Corporation Balanced template tracker for tracking an object image sequence
KR20040035593A (en) 2001-03-07 2004-04-29 피티에스 코포레이션 Local constraint for motion matching
KR100614433B1 (en) * 2001-05-14 2006-08-22 엔티티 도꼬모 인코퍼레이티드 Application management server, mobile terminal and application management method
US7590286B2 (en) * 2002-07-26 2009-09-15 National Institute Of Information And Communications Technology Incorporated Administrative Agency Image recognition apparatus and program for recognizing the substance of an image, particularly in a motion picture environment
US7194110B2 (en) * 2002-12-18 2007-03-20 Intel Corporation Method and apparatus for tracking features in a video sequence
US7657059B2 (en) * 2003-08-08 2010-02-02 Lockheed Martin Corporation Method and apparatus for tracking an object
KR101017362B1 (en) * 2004-01-08 2011-02-28 삼성전자주식회사 Automatic zoom apparatus and method for dynamic playing of image
US20050283062A1 (en) * 2004-06-22 2005-12-22 Cerner Innovation, Inc. Computerized method and system for associating a portion of a diagnostic image with an electronic record
JP4488804B2 (en) * 2004-06-23 2010-06-23 株式会社トプコン Stereo image association method and three-dimensional data creation apparatus
US20110123067A1 (en) * 2006-06-12 2011-05-26 D & S Consultants, Inc. Method And System for Tracking a Target
JP4985155B2 (en) * 2007-07-03 2012-07-25 株式会社ニコン Focus adjustment device and imaging device
JP4872834B2 (en) * 2007-07-04 2012-02-08 株式会社ニコン Image recognition device, focus adjustment device, and imaging device
US8165345B2 (en) * 2007-12-07 2012-04-24 Tom Chau Method, system, and computer program for detecting and characterizing motion
US9684968B2 (en) * 2007-12-07 2017-06-20 Tom Chau Method, system and computer program for detecting and characterizing motion
DE102010030616A1 (en) * 2010-06-28 2011-12-29 Robert Bosch Gmbh Method and device for detecting a disturbing object in a camera image
JP5690539B2 (en) 2010-09-28 2015-03-25 株式会社トプコン Automatic take-off and landing system
US9104909B2 (en) * 2010-12-15 2015-08-11 Canon Kabushiki Kaisha Image processing apparatus and method of processing image
JP5618840B2 (en) 2011-01-04 2014-11-05 株式会社トプコン Aircraft flight control system
US9074848B1 (en) * 2011-04-13 2015-07-07 Litel Instruments Precision geographic location system and method utilizing an image product
JP5775354B2 (en) 2011-04-28 2015-09-09 株式会社トプコン Takeoff and landing target device and automatic takeoff and landing system
CN102789642B (en) * 2011-05-16 2017-08-25 索尼公司 Direction of extinction determines method and apparatus, camera self-calibration method and device
JP5498454B2 (en) * 2011-09-15 2014-05-21 株式会社東芝 TRACKING DEVICE, TRACKING METHOD, AND PROGRAM
JP5787695B2 (en) 2011-09-28 2015-09-30 株式会社トプコン Image acquisition device
CA2793180A1 (en) * 2011-11-02 2013-05-02 Eads Deutschland Gmbh Method and device for the detection of moving objects in a video image sequence
US8704904B2 (en) 2011-12-23 2014-04-22 H4 Engineering, Inc. Portable system for high quality video recording
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
WO2013131036A1 (en) 2012-03-01 2013-09-06 H4 Engineering, Inc. Apparatus and method for automatic video recording
AU2013225635B2 (en) 2012-03-02 2017-10-26 H4 Engineering, Inc. Waterproof Electronic Device
US9723192B1 (en) 2012-03-02 2017-08-01 H4 Engineering, Inc. Application dependent video recording device architecture
JP6312991B2 (en) * 2013-06-25 2018-04-18 株式会社東芝 Image output device
US9870620B2 (en) 2015-06-18 2018-01-16 The Johns Hopkins University Non-linear associator and motion discriminator
CN112887592A (en) * 2021-01-13 2021-06-01 河南工业和信息化职业学院 Balance car control method and balance car
US11562555B2 (en) * 2021-06-02 2023-01-24 The Nielsen Company (Us), Llc Methods, systems, articles of manufacture, and apparatus to extract shape features based on a structural angle template

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60195682A (en) * 1984-03-16 1985-10-04 Komatsu Ltd Tracking method of moving body
JPS60209104A (en) * 1984-04-02 1985-10-21 Komatsu Ltd Tracking method of moving body
JP2797830B2 (en) * 1992-03-31 1998-09-17 日本ビクター株式会社 Object Tracking Method for Video Camera
US5473369A (en) * 1993-02-25 1995-12-05 Sony Corporation Object tracking apparatus
US5434927A (en) * 1993-12-08 1995-07-18 Minnesota Mining And Manufacturing Company Method and apparatus for machine vision classification and tracking
JP3075937B2 (en) * 1994-11-02 2000-08-14 三洋電機株式会社 Motion vector detection circuit and subject tracking camera device using the same
JPH08186761A (en) * 1994-12-30 1996-07-16 Sony Corp Video camera device and video camera exposure control method
JP3268953B2 (en) * 1995-02-27 2002-03-25 三洋電機株式会社 Tracking area setting device, motion vector detection circuit, and subject tracking device using the same
FR2734911B1 (en) * 1995-06-01 1997-08-01 Aerospatiale METHOD AND DEVICE FOR DETECTING THE MOVEMENT OF A TARGET AND THEIR APPLICATIONS
US5808695A (en) * 1995-06-16 1998-09-15 Princeton Video Image, Inc. Method of tracking scene motion for live video insertion systems
US5764283A (en) * 1995-12-29 1998-06-09 Lucent Technologies Inc. Method and apparatus for tracking moving objects in real time using contours of the objects and feature paths
US5864630A (en) * 1996-11-20 1999-01-26 At&T Corp Multi-modal method for locating objects in images

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000054784A (en) * 2000-06-23 2000-09-05 이성환 system for tracking the movement of the multiple object using an Appearance Model Based on Temporal Color and controlling method therefore
JP2007157069A (en) * 2005-12-08 2007-06-21 Nippon Telegr & Teleph Corp <Ntt> Movement prediction device, movement prediction method and program
JP4627256B2 (en) * 2005-12-08 2011-02-09 日本電信電話株式会社 Movement prediction apparatus, movement prediction method, and program
JP2007272733A (en) * 2006-03-31 2007-10-18 Sony Corp Image processing device and method, and program
US8194134B2 (en) 2006-10-27 2012-06-05 Panasonic Corporation Target moving object tracking device
JP2008113071A (en) * 2006-10-27 2008-05-15 Matsushita Electric Works Ltd Automatic tracking device
JP2010524113A (en) * 2007-04-15 2010-07-15 エクストリーム リアリティー エルティーディー. Man-machine interface device system and method
JP2009104245A (en) * 2007-10-19 2009-05-14 Sony Corp Information processor and method, and program
JP2009104244A (en) * 2007-10-19 2009-05-14 Sony Corp Information processor and method, and program
US8254690B2 (en) 2007-10-19 2012-08-28 Sony Corporation Information processing apparatus, information processing method, and program
JP2011086163A (en) * 2009-10-16 2011-04-28 Mitsubishi Heavy Ind Ltd Mobile object tracking apparatus and method for the same
JP2011090488A (en) * 2009-10-22 2011-05-06 Nikon Corp Object tracking device, object tracking program, and camera
JP2013192151A (en) * 2012-03-15 2013-09-26 Casio Comput Co Ltd Electronic device, remote operation control system, remote operation control method, and program
JP2014112888A (en) * 2014-01-08 2014-06-19 Mitsubishi Heavy Ind Ltd Moving object tracking apparatus and method thereof
JP2015139476A (en) * 2014-01-27 2015-08-03 日立アロカメディカル株式会社 ultrasonic image processing apparatus
JP7117593B1 (en) * 2021-07-08 2022-08-15 パナソニックIpマネジメント株式会社 Imaging device

Also Published As

Publication number Publication date
EP0902396A2 (en) 1999-03-17
DE69828346T2 (en) 2005-12-08
EP0902396A3 (en) 2004-03-24
JP3481430B2 (en) 2003-12-22
DE69828346D1 (en) 2005-02-03
US6031568A (en) 2000-02-29
EP0902396B1 (en) 2004-12-29

Similar Documents

Publication Publication Date Title
JP3481430B2 (en) Mobile tracking device
US10417503B2 (en) Image processing apparatus and image processing method
US8089515B2 (en) Method and device for controlling auto focusing of a video camera by tracking a region-of-interest
US9437012B2 (en) Multiple-object tracking and team identification for game strategy analysis
US8369574B2 (en) Person tracking method, person tracking apparatus, and person tracking program storage medium
US8503726B2 (en) Image processing device, object tracking device, and image processing method
US9600760B2 (en) System and method for utilizing motion fields to predict evolution in dynamic scenes
JP4467838B2 (en) Image recognition apparatus and image recognition method
US8374392B2 (en) Person tracking method, person tracking apparatus, and person tracking program storage medium
CN112883819A (en) Multi-target tracking method, device, system and computer readable storage medium
JP4373840B2 (en) Moving object tracking method, moving object tracking program and recording medium thereof, and moving object tracking apparatus
JP2009015827A (en) Object tracking method, object tracking system and object tracking program
JP2012529691A (en) 3D image generation
CN107240120B (en) Method and device for tracking moving target in video
US11882363B2 (en) Control apparatus and learning apparatus and control method
JP4728795B2 (en) Person object determination apparatus and person object determination program
KR20020028578A (en) Method of displaying and evaluating motion data using in motion game apparatus
CN114529587B (en) Video target tracking method and device, electronic equipment and storage medium
JP2007510994A (en) Object tracking in video images
JP4441354B2 (en) Video object extraction device, video object trajectory synthesis device, method and program thereof
JPH09265538A (en) Automatic tracking device
CN113544701A (en) Method and device for detecting associated object
JP2000099744A (en) Method and device for detecting moving vector of image
JP3437087B2 (en) Feature point tracking method and apparatus, and recording medium storing feature point tracking program
US10965876B2 (en) Imaging system, imaging method, and not-transitory recording medium

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030924

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071010

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081010

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081010

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091010

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091010

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101010

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101010

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121010

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121010

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131010

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees