JP3673578B2 - Correlation tracking system - Google Patents

Correlation tracking system Download PDF

Info

Publication number
JP3673578B2
JP3673578B2 JP34232095A JP34232095A JP3673578B2 JP 3673578 B2 JP3673578 B2 JP 3673578B2 JP 34232095 A JP34232095 A JP 34232095A JP 34232095 A JP34232095 A JP 34232095A JP 3673578 B2 JP3673578 B2 JP 3673578B2
Authority
JP
Japan
Prior art keywords
template
matching
degree
reference block
templates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP34232095A
Other languages
Japanese (ja)
Other versions
JPH09185708A (en
Inventor
桂樹 岡林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP34232095A priority Critical patent/JP3673578B2/en
Publication of JPH09185708A publication Critical patent/JPH09185708A/en
Application granted granted Critical
Publication of JP3673578B2 publication Critical patent/JP3673578B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像上で対象物を追跡する相関追跡システムに関するものである。
【0002】
【従来の技術】
従来、カメラによって撮影した画像上で相関演算によってテンプレートとの一致度を計算し、最も一致する場所へ参照ブロック(ウィンドウ)を移動させて追跡することが行われている。
【0003】
【発明が解決しようとする課題】
上述した従来の単一のテンプレートとカメラで撮影した画像上で相関演算して最も一致度の大きい場所に参照ブロックを移動させて追跡していたため、形状が変化した対象物に対しては、誤差を最小とするように追跡できず、安定した追跡が困難であるという問題があった。
【0004】
これを解決するために、特開昭5−295591号公報に記載されているように、上部に配置したカメラの画像から、走っている車を認識する際に、車の全体ではなく、特徴的な部分を複数個追跡して、ブロック毎の追跡ブロックの速度関係などから追跡の妥当性を評価し、安定な追跡を実現する技術がある。この技術では、形状が変化してしまう場合、テンプレートの更新処理を行って実現するものであり、追跡開始時点からすでに形状が変化したり、急激な形状変化している物体を追跡できないという問題がある。
【0005】
本発明は、これらの問題を解決するため、参照ブロックの周囲に設けた探索ブロック内で参照ブロックの複数のテンプレートのうち最も一致度の大きい位置を探索し移動ベクトルや一致テンプレートに対応するデータ、指令を出力し、対象物の形状が急激に変化しても安定に精度良好に追跡することを目的としている。
【0006】
【課題を解決するための手段】
図1を参照して課題を解決するための手段を説明する。
図1において、テンプレート1は、対象物の変化する形状あるいは対象物の人の異なる表情などを表す複数のテンプレートである。
【0007】
マッチング手段2は、画像上の対象物と複数のテンプレート1とをマッチングして最も一致度が大きいテンプレートを見つけるものである。
次に、動作を説明する。
【0008】
マッチング手段2が画像上で複数のテンプレート1について順次マッチングを行って最も一致度の大きいテンプレート1を見つけて当該テンプレート1の位置への移動ベクトルを逐次算出して更新し対象物を追跡するようにしている。
【0009】
また、マッチング手段2が画像上で複数のテンプレート1について順次マッチングを行って最も一致度の大きいテンプレート1を見つけ、この見つけたテンプレート1に対応したデータあるいは指令などを計算機システムに出力させたりするようにしている。
【0010】
この際、対象物の変化する形状を表す複数のテンプレート1が、手の形状が表す意味に対応づけた手の画像のテンプレート1とするようにしている。
また、対象物の変化する形状を表す複数のテンプレート1が、人の顔などの異なる表情に対応づけたテンプレート1とするようにしている。
【0011】
従って、参照ブロックの周囲に設けた探索ブロック内で参照ブロックの複数のテンプレート1のうち最も一致度の大きいテンプレート1を算出して直前の位置から現在の位置への移動ベクトル5を求めたり、最も一致度の大きいテンプレート1に対応するデータ、指令あるいは表情を出力したりなどすることにより、対象物の形状が変化しても安定に精度良好に追跡することが可能となると共に、対象物の形状の変化に対応したデータ、指令、表情などを認識して出力することが可能となる。
【0012】
【発明の実施の形態】
次に、図1から図5を用いて本発明の実施の形態および動作を順次詳細に説明する。
【0013】
図1は、本発明の動作説明フローチャートを示す。
図1において、S1は、画像を取り込む。これは、ビデオカメラで対象物を撮影した画像を取り込む。
【0014】
S2は、全画面を指定する。これは、S1で取り込んだ画像について、画面上に表示された全体について探索する旨を指定する。
S3は、テンプレートを1つ選択する。これは、対象物の形状や表情などを表す予め作成した複数のテンプレート1のうちから1つのテンプレートを選択する。
【0015】
S4は、マッチングして一致度を算出する。これは、S2で指定した画面全体についてテンプレートを順次ずらしながらパターンマッチングを行い、一致度を算出する。
【0016】
S5は、最も一致する位置と一致度を記憶する。
S6は、終わりか判別する。YESの場合には、全てのテンプレートについてマッチングを終わったので、S7に進む。NOの場合には、S3で次のテンプレートを取り出し、S4以降を繰り返す。
【0017】
S7は、一致度が最も大きいテンプレートの位置から追跡を開始する。
以上のS1からS7の処理によって、取り込んだ画像について複数のテンプレート1のそれぞれについて最も一致する位置と一致度を算出し、そのうちの最も一致度が大きいテンプレート1を見つけることができたこととなる。
【0018】
S8は、画像を取り込む。
S9は、探索ブロックを設定する。これは、後述する図2に示すように、S7で見つけた最も一致度の大きいテンプレート1の位置を追跡開始点とし、当該追跡開始点を中心に所定の大きさの探索ブロックを設定し、マッチングする領域を小さくする。
【0019】
S10は、テンプレートを1つ選択する。
S11は、探索ブロック内で一致度が最も大きくなる位置を探す。これは、後述する図2に示すように、S9で設定した探索ブロック内でテンプレート1の大きさの参照ブロックを設けて順次移動させつつパターンマッチングを行い、最も一致度の大きい位置を探す。
【0020】
S12は、一致度と位置を記憶する。
S13は、終わりか判別する。YESの場合には、全てのテンプレート1についてマッチングを終わったので、S14に進む。一方、NOの場合には、S10で次のテンプレート1を1つ取り出し、S11以降を繰り返す。
【0021】
S14は、一致度の最も大きいテンプレートが示す位置へ参照ブロックを移動させる。これは、後述する図2に示すように、全てのテンプレート1についてマッチングを行い、最も一致度の大きいテンプレート1の位置に、参照ブロックを移動させ、このときの移動ベクトルを求める。
【0022】
S15は、終了指示ありか判別する。YESの場合には、終了する。NOの場合には、S8に戻り次の画像を取り込み、S9以降を繰り返す。
以上のS7からS15によって、画像上で最も一致度の大きいテンプレートの位置を中心に所定大きさの探索ブロックを設定しこの探索ブロック内で取り込んだ画像について複数のテンプレート1をずらしながらマッチングを行い最も一致度の大きい位置および一致度を求め、これらのうちから最も一致度の大きいテンプレート1を見つこのテンプレート1への移動ベクトルを求めることを繰り返し、対象物を追跡する。これにより、対象物の形状が変化してもいずれかのテンプレート1に一致し、精度良好に追跡することが可能となる。
【0023】
図2は、本発明の概念説明図を示す。
図2の(a)は、探索ブロック/参照ブロックを示す。
図2の(a−1)は直前のビデオフレームを示し、図2の(a−2)は現在のビデオフレームを示す。ここで、直前のビデオフレーム中の探索ブロック3は、最も一致度が大きいテンプレート1を中心に所定サイズのブロックであって、探索する領域を表す。参照ブロック4は、テンプレート1の大きさのブロックであって、当該参照ブロック4のテンプレート1について、探索ブロック3内を順次ずらしながら一致度を求め、最も大きい一致度を算出する。図示の最もマッチングが取れた参照ブロック4が算出できた場合、移動ベクトル5を図示のように、前回の最も一致度が大きいテンプレート1の参照ブロック4の中心位置から、今回の最も一致度が大きいテンプレート1の参照ブロック4の中心位置への移動ベクトル5として求める。
【0024】
以上のように、直前のビデオフレームで最も一致度の大きいテンプレート1の中心位置から、現在のビデオフレームで最も一致度の大きいテンプレート1の中心位置までの移動ベクトル5を図示のように求めることにより、対象物が変化しても予め作成した複数のテンプレート1のいずれかに一致する限り、極めて精度良好に対象物を追跡することが可能となる。
【0025】
図2の(b)は、追跡対象物が変化する場合の様子を示す。
図2の(b−1)は、直前のビデオフレームの参照ブロック4内に存在する対象物を示す。この直前のビデオフレームのときの対象物は、図2の(b−2)の複数のテンプレート1のうちのテンプレート▲1▼との一致度が最も高いとして算出されたものである。
【0026】
図2の(b−2)は、テンプレート例を示す。ここでは、対象物の形状が、図示の▲1▼ないし▲4▼の4つのテンプレート1のいずれかに変わるので、図示のように4つのテンプレート1を予め登録したものである。
【0027】
図2の(b−3)は、現在のビデオフレームについて移動ベクトルを算出した様子を示す。ここで、右下の参照ブロック(直前)4は、図2の(b−1)の直前の対象物の参照ブロック4であって、テンプレート▲1▼との一致度が最も大きい。一方、左上の参照ブロック(現在)4は、現在の対象物の参照ブロック4であって、テンプレート▲2▼との一致度が最も大きいとしてその位置および一致度が求められたものである。これにより、移動ベクトル5が参照ブロック(直前)4のテンプレート▲1▼でマッチングした中心位置から参照ブロック(現在)4のテンプレート▲2▼でマッチングした中心位置までの移動ベクトル5として算出されることとなる。
【0028】
以上のように、直前のビデオフレームから現在のビデオフレームになったときに対象物と最も一致するテンプレート1がテンプレート▲1▼からテンプレート▲2▼に変化しても、本願発明では予め変化すると予想される形状のテンプレート1を登録しておき、急激に変化してもいずれかのテンプレート1に一致するものとして安定かつ精度良好に位置および移動距離(移動ベクトル)を追跡することが可能となる。
【0029】
次に、図3のフローチャートに示す順序に従い、複数のテンプレートによるマッチング時の動作を詳細に説明する。
図3は、本発明のマッチングフローチャートを示す。
【0030】
図3において、S21は、n=1と初期設定する。
S22は、n番目のテンプレートを読み出す。
S23は、テンプレートとマッチングし、一致度および移動ベクトルを算出する。これは、既述したように、テンプレートをずらしながら画像とのマッチングを行い、一致度を算出して最も大きい一致度の位置を求め、次に、直前の位置から現在の位置までの移動ベクトルを算出する。
【0031】
S24は、テンプレート番号と対応する一致度、移動ベクトルを格納して記憶する。
S25は、登録されているテンプレートをすべて処理したか判別する。YESの場合には、S27に進む。NOの場合には、S26でn=n+1して次のテンプレートについて、S22以下を繰り返す。
【0032】
以上のS21からS26の処理によって、複数のテンプレート毎に、直前の対象物の位置から、現在のテンプレートが最も一致した一致度およびこの一致した位置までの移動ベクトルをそれぞれ算出できたこととなる。
【0033】
S27は、一致度の最も大きいテンプレート番号と移動ベクトルを抽出する。
S28は、抽出した移動ベクトルで参照ブロックの位置を更新する。
S29は、マッチングしたテンプレートの意味を出力する。これは、S27で抽出した一致度の最も大きいテンプレート番号に対応づけて予め登録されている情報を取り出す。。
【0034】
S30は、S29で取り出した情報がデータか指令か判別する。指令の場合には、S31で対応する処理を起動する。データの場合には、S32でそのデータを出力する(例えば後述する複数のテンプレートのうち最も一致度が大きいテンプレートが後述する図4の▲1▼の場合には、対応づけて登録されている数字“0”を出力する)。
【0035】
以上のS27からS32によって、複数のテンプレートのうち最も一致度の大きいテンプレートのテンプレート番号と移動ベクトルを抽出し、この移動ベクトルおよびテンプレート番号に対応するデータを出力したり、指令に応じた処理を起動したりなどすることが可能となる。
【0036】
図4は、本発明の手形状の認識例を示す。
図4の(a)は直前のフレームを示し、図4の(b)は現在のフレームを示す。ここで、直前の参照ブロック4内の対象物が手を開いた図4の(c−1)のテンプレート▲6▼との一致度が最も大きく、現在の参照ブロック4内の対象物が2本の指を出した図4の(c−1)のテンプレート▲3▼との一致度が最も大きい場合の例である。この場合には、参照ブロック(直前)4の最も一致度の大きいテンプレート▲6▼が、参照ブロック(現在)4の最も一致度の大きいテンプレート▲3▼として算出されるので、このときの移動ベクトル5は図示のように得られ、そのときのテンプレート番号▲3▼として得られることとなり、数字“2”を出力する(図3のS32)。
【0037】
図4の(c)はテンプレート例を示す。
図4の(c−1)は、テンプレートに対応づけて数字を登録した例を示す。ここでは、図示の形状のテンプレート▲1▼ないし▲8▼に対応づけて、数字“0”ないし“5”を登録している(尚、数字“5”については回転したイメージも登録している。この回転したイメージを登録しなくても、画面上でテンプレート1を回転させてマッチングを行うようにしてもよい)。
【0038】
図4の(c−2)は、テンプレートに対応づけて意味を登録した例を示す。ここでは、図示の形状のテンプレート▲9▼ないし(16)に対応づけて、意味“ok”、“good”、“no good”などを図示のように登録する。これにより、図示のテンプレート1のうちの最も一致度の大きいテンプレート番号に対応する意味が出力されることとなる。
【0039】
図5は、本発明の表情の認識例を示す。
図5の(a)は、人の上半身の画像をカメラで撮影し、そのときの目の位置を検出して設定した参照ブロック(直前)4を示す。ここでは、図5の(b)のテンプレート1のうちのテンプレート▲1▼に最も一致度が大きいとしてマッチングされる。
【0040】
図5の(b)は、テンプレートの例を示す。ここでは、人の目の形状の変化として、テンプレート▲1▼ないし▲4▼を予め登録する。
図5の(c)は、目を閉じた状態の参照ブロック(現在)を示す。この場合には、図5の(b)のテンプレート▲4▼と最も一致度が大きいとして算出されるので、このときのテンプレート▲4▼に対応づけて登録されている人の表情(例えば“目を閉じた状態”という表情、あるいは他の任意の表情)を出力することが可能となる。
【0041】
図5の(d)は、首を傾けた状態の参照ブロック(現在)を示す。この場合には、図5の(b)のテンプレート▲2▼と最も一致度が大きいとして算出されるので、このときのテンプレート▲2▼に対応づけて登録されている人の表情(例えば“首を傾けた状態”という表情、あるいは他の任意の表情)を出力することが可能となる。
【0042】
【発明の効果】
以上説明したように、本発明によれば、参照ブロック4の周囲に設けた探索ブロック3内で参照ブロック4の複数のテンプレート1のうち最も一致度の大きいテンプレート1を算出して直前の位置から現在の位置への移動ベクトル5を求めたり、最も一致度の大きいテンプレート1に対応するデータ、指令あるいは表情を出力したりなどする構成を採用しているため、対象物の形状が変化しても安定に精度良好に追跡することができると共に、対象物の形状の変化に対応したデータ、指令、表情などを認識して出力することができる。
【図面の簡単な説明】
【図1】本発明の動作説明フローチャートである。
【図2】本発明の概念説明図である。
【図3】本発明のマッチングフローチャートである。
【図4】本発明の手形状の認識例である。
【図5】本発明の表情の認識例である。
【符号の説明】
1:テンプレート
2:マッチング手段
3:探索ブロック
4:参照ブロック
5:移動ベクトル
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a correlation tracking system for tracking an object on an image.
[0002]
[Prior art]
Conventionally, the degree of coincidence with a template is calculated by correlation calculation on an image photographed by a camera, and a reference block (window) is moved to the most coincident place for tracking.
[0003]
[Problems to be solved by the invention]
Since the reference block is moved to the place where the degree of coincidence is the highest and the tracking is performed on the image taken with the conventional single template and the camera, the error is detected for the object whose shape has changed. Therefore, there is a problem that it is difficult to keep track of the image so as to minimize it, and that stable tracking is difficult.
[0004]
In order to solve this problem, as described in Japanese Patent Application Laid-Open No. 5-295591, when recognizing a running car from the image of a camera placed at the top, it is not the whole car but a characteristic feature. There is a technique for realizing stable tracking by tracking a plurality of such parts and evaluating the validity of the tracking from the speed relationship of the tracking block for each block. With this technology, if the shape changes, it is realized by performing a template update process, and there is a problem that it is not possible to track an object whose shape has already changed from the start of tracking or that has suddenly changed its shape. is there.
[0005]
In order to solve these problems, the present invention searches for a position having the highest degree of matching among a plurality of templates of the reference block in a search block provided around the reference block, and data corresponding to the movement vector and the matching template, The purpose is to output a command, and to track accurately and stably even if the shape of the object changes suddenly.
[0006]
[Means for Solving the Problems]
Means for solving the problem will be described with reference to FIG.
In FIG. 1, a template 1 is a plurality of templates that represent the shape of the object that changes or the different facial expressions of the object.
[0007]
The matching means 2 finds a template having the highest degree of matching by matching an object on the image with a plurality of templates 1.
Next, the operation will be described.
[0008]
The matching unit 2 sequentially matches a plurality of templates 1 on the image to find the template 1 having the highest degree of matching, and sequentially calculates and updates the movement vector to the position of the template 1 to track the object. ing.
[0009]
In addition, the matching unit 2 sequentially matches a plurality of templates 1 on the image to find the template 1 having the highest degree of matching, and causes the computer system to output data or commands corresponding to the found template 1. I have to.
[0010]
At this time, the plurality of templates 1 representing the shape of the object to be changed are set as the template 1 of the hand image associated with the meaning represented by the hand shape.
In addition, the plurality of templates 1 representing the shape of the object to be changed are templates 1 associated with different facial expressions such as human faces.
[0011]
Accordingly, the template 1 having the highest degree of matching among the plurality of templates 1 of the reference block in the search block provided around the reference block is calculated to obtain the movement vector 5 from the immediately preceding position to the current position, By outputting data, commands, or facial expressions corresponding to the template 1 having a high degree of coincidence, it becomes possible to track stably and accurately even if the shape of the object changes, and the shape of the object It is possible to recognize and output data, commands, facial expressions, etc. corresponding to changes in
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Next, embodiments and operations of the present invention will be sequentially described in detail with reference to FIGS.
[0013]
FIG. 1 is a flowchart for explaining the operation of the present invention.
In FIG. 1, S1 captures an image. This captures an image obtained by photographing an object with a video camera.
[0014]
S2 designates the entire screen. This designates that the entire image displayed on the screen is searched for the image captured in S1.
In S3, one template is selected. In this case, one template is selected from a plurality of templates 1 created in advance representing the shape and expression of the object.
[0015]
In S4, matching is calculated. This performs pattern matching while sequentially shifting the template for the entire screen designated in S2, and calculates the degree of coincidence.
[0016]
In S5, the most matched position and the degree of coincidence are stored.
In S6, it is determined whether or not the end. In the case of YES, since matching has been completed for all templates, the process proceeds to S7. In the case of NO, the next template is taken out in S3 and S4 and subsequent steps are repeated.
[0017]
In S7, tracking is started from the position of the template having the highest degree of matching.
Through the processes from S1 to S7 described above, the position and the degree of coincidence that are most coincident for each of the plurality of templates 1 are calculated for the captured image, and the template 1 having the largest degree of coincidence among them can be found.
[0018]
In S8, an image is captured.
S9 sets a search block. As shown in FIG. 2, which will be described later, the position of the template 1 having the highest degree of matching found in S7 is set as a tracking start point, a search block of a predetermined size is set around the tracking start point, and matching is performed. Make the area to be smaller.
[0019]
In S10, one template is selected.
In step S11, a search is made for a position having the highest degree of matching in the search block. As shown in FIG. 2, which will be described later, pattern matching is performed while providing a reference block having the size of template 1 in the search block set in S9 and sequentially moving to search for a position with the highest degree of matching.
[0020]
S12 memorize | stores a coincidence degree and a position.
In S13, it is determined whether the process is over. In the case of YES, since matching has been completed for all templates 1, the process proceeds to S14. On the other hand, in the case of NO, one next template 1 is taken out in S10, and S11 and subsequent steps are repeated.
[0021]
In S14, the reference block is moved to the position indicated by the template having the highest degree of matching. As shown in FIG. 2, which will be described later, all the templates 1 are matched, the reference block is moved to the position of the template 1 having the highest degree of matching, and the movement vector at this time is obtained.
[0022]
In S15, it is determined whether there is an end instruction. If YES, the process ends. In the case of NO, the process returns to S8, the next image is captured, and S9 and subsequent steps are repeated.
Through S7 to S15, a search block having a predetermined size is set around the position of the template having the highest degree of coincidence on the image, and matching is performed by shifting a plurality of templates 1 with respect to the image taken in the search block. The position and the degree of coincidence having a high degree of coincidence are obtained, and the object 1 is tracked by repeatedly obtaining the movement vector to the template 1 by finding the template 1 having the largest degree of coincidence. As a result, even if the shape of the object changes, it matches any template 1 and can be tracked with good accuracy.
[0023]
FIG. 2 is a conceptual explanatory diagram of the present invention.
FIG. 2A shows a search block / reference block.
(A-1) in FIG. 2 shows the previous video frame, and (a-2) in FIG. 2 shows the current video frame. Here, the search block 3 in the immediately preceding video frame is a block of a predetermined size centering on the template 1 having the highest degree of matching, and represents a search area. The reference block 4 is a block having the size of the template 1, and for the template 1 of the reference block 4, the matching degree is obtained while sequentially shifting the search block 3, and the largest matching degree is calculated. When the reference block 4 having the best matching shown in the figure can be calculated, the movement vector 5 has the highest matching degree this time from the center position of the reference block 4 of the template 1 having the highest matching degree as shown in the figure. The movement vector 5 to the center position of the reference block 4 of the template 1 is obtained.
[0024]
As described above, the movement vector 5 from the center position of the template 1 having the highest matching degree in the immediately preceding video frame to the center position of the template 1 having the highest matching degree in the current video frame is obtained as shown in the figure. Even if the object changes, as long as the object matches one of the plurality of templates 1 created in advance, the object can be tracked with extremely high accuracy.
[0025]
FIG. 2B shows a state where the tracking object changes.
(B-1) in FIG. 2 shows an object existing in the reference block 4 of the immediately preceding video frame. The object at the time of the immediately preceding video frame is calculated with the highest degree of coincidence with the template {circle around (1)} of the plurality of templates 1 in FIG.
[0026]
FIG. 2B-2 shows an example template. Here, since the shape of the object is changed to any one of the four templates 1 of (1) to (4) shown in the figure, the four templates 1 are registered in advance as shown in the figure.
[0027]
(B-3) of FIG. 2 shows a state where the movement vector is calculated for the current video frame. Here, the lower right reference block (immediately before) 4 is the reference block 4 of the object immediately before (b-1) in FIG. 2, and has the highest degree of coincidence with the template (1). On the other hand, the reference block (current) 4 in the upper left is the reference block 4 of the current object, and the position and the degree of coincidence are obtained assuming that the degree of coincidence with the template (2) is the highest. Thus, the movement vector 5 is calculated as the movement vector 5 from the center position matched with the template (1) of the reference block (immediately) 4 to the center position matched with the template (2) of the reference block (current) 4. It becomes.
[0028]
As described above, even if the template 1 that most closely matches the object changes from the previous video frame to the current video frame, the template 1 is expected to change in advance even if the template 1 changes from the template 1 to the template 2. It is possible to register a template 1 having a shape to be traced, and to track the position and moving distance (moving vector) stably and with good accuracy as matching with any template 1 even if it changes rapidly.
[0029]
Next, according to the order shown in the flowchart of FIG. 3, the operation at the time of matching with a plurality of templates will be described in detail.
FIG. 3 shows a matching flowchart of the present invention.
[0030]
In FIG. 3, S21 is initially set to n = 1.
In step S22, the nth template is read.
In step S23, matching is performed with the template, and a matching degree and a movement vector are calculated. As described above, this is performed by matching the image while shifting the template, calculating the degree of coincidence to obtain the position of the largest degree of coincidence, and then calculating the movement vector from the immediately preceding position to the current position. calculate.
[0031]
In step S24, the matching degree and the movement vector corresponding to the template number are stored and stored.
S25 determines whether all registered templates have been processed. If YES, the process proceeds to S27. In the case of NO, n = n + 1 in S26, and S22 and subsequent steps are repeated for the next template.
[0032]
Through the processes from S21 to S26 described above, for each of a plurality of templates, the degree of coincidence that the current template most closely matches and the movement vector to this coincident position can be calculated from the position of the immediately preceding object.
[0033]
In S27, the template number and the movement vector having the highest degree of coincidence are extracted.
In S28, the position of the reference block is updated with the extracted movement vector.
S29 outputs the meaning of the matched template. This extracts information registered in advance in association with the template number having the highest degree of matching extracted in S27. .
[0034]
In S30, it is determined whether the information extracted in S29 is data or a command. In the case of a command, the corresponding process is activated in S31. In the case of data, the data is outputted in S32 (for example, in the case of (1) in FIG. “0” is output).
[0035]
Through the above S27 to S32, the template number and the movement vector of the template having the highest degree of coincidence are extracted from the plurality of templates, the data corresponding to the movement vector and the template number are output, and the processing according to the command is started. And so on.
[0036]
FIG. 4 shows an example of hand shape recognition according to the present invention.
4A shows the previous frame, and FIG. 4B shows the current frame. Here, the degree of coincidence with the template {circle around (6)} in FIG. 4C in which the object in the immediately preceding reference block 4 has opened its hand is the largest, and there are two objects in the current reference block 4. This is an example in which the degree of coincidence with the template (3) in FIG. In this case, the template (6) having the highest degree of matching of the reference block (immediately) 4 is calculated as the template (3) having the highest degree of matching of the reference block (current) 4. Therefore, the movement vector at this time 5 is obtained as shown and is obtained as the template number {circle over (3)} at that time, and the number “2” is output (S32 in FIG. 3).
[0037]
FIG. 4C shows an example template.
FIG. 4C-1 shows an example in which numbers are registered in association with templates. Here, numbers “0” to “5” are registered in correspondence with the templates (1) to (8) of the shape shown in the figure (note that a rotated image is also registered for the number “5”). Even if the rotated image is not registered, the template 1 may be rotated on the screen for matching.
[0038]
(C-2) in FIG. 4 shows an example in which meanings are registered in association with templates. Here, the meanings “ok”, “good”, “no good”, etc. are registered as shown in the figure in association with the templates {circle around (9)} to (16) shown in the figure. As a result, the meaning corresponding to the template number having the highest degree of matching in the illustrated template 1 is output.
[0039]
FIG. 5 shows an example of facial expression recognition according to the present invention.
FIG. 5A shows a reference block (immediately before) 4 set by detecting an eye position at the time when an image of a person's upper body is photographed by a camera. Here, the template 1 in the template 1 in FIG. 5B is matched with the highest degree of matching.
[0040]
FIG. 5B shows an example of a template. Here, templates (1) to (4) are registered in advance as changes in the shape of the human eye.
FIG. 5C shows the reference block (current) with the eyes closed. In this case, since the degree of coincidence is highest with the template (4) in FIG. 5B, the facial expression (for example, “eyes” registered in association with the template (4) at this time is calculated. It is possible to output the expression “closed” or any other expression).
[0041]
FIG. 5D shows the reference block (current) with the head tilted. In this case, since the degree of coincidence is the highest with the template (2) in FIG. 5B, the facial expression of the person registered in association with the template (2) at this time (for example, “neck” It is possible to output an expression “in a tilted state” or any other expression).
[0042]
【The invention's effect】
As described above, according to the present invention, the template 1 having the highest matching degree among the plurality of templates 1 of the reference block 4 within the search block 3 provided around the reference block 4 is calculated and the position immediately before is calculated. Since a configuration is employed in which the movement vector 5 to the current position is obtained, or data, commands or facial expressions corresponding to the template 1 having the highest degree of coincidence are output, the shape of the object changes. In addition to being able to track stably and accurately, it is possible to recognize and output data, commands, facial expressions, etc. corresponding to changes in the shape of the object.
[Brief description of the drawings]
FIG. 1 is a flowchart illustrating the operation of the present invention.
FIG. 2 is a conceptual explanatory diagram of the present invention.
FIG. 3 is a matching flowchart of the present invention.
FIG. 4 is an example of hand shape recognition according to the present invention.
FIG. 5 is an example of facial expression recognition according to the present invention.
[Explanation of symbols]
1: Template 2: Matching means 3: Search block 4: Reference block 5: Movement vector

Claims (1)

画面上で対象物を追跡する相関追跡システムにおいて、
対象物の回転を含む変化する形状や表情などを表す、予めその変化を予測する複数のテンプレートと、
画面上で上記テンプレートの大きさの参照ブロック、およびその参照ブロックの周囲に所定の大きさの探索ブロックを設定する手段と、
探索ブロック内において上記参照ブロックをずらしながら複数のテンプレートを順次マッチングさせ、その一致度が最も大きくなる位置までの移動ベクトルを算出し、逐次当該位置を更新しつつ対象物を追跡する手段と、
この見つけたテンプレートに対応づけられたデータあるいは指令を出力する手段と
を備えたことを特徴とする相関追跡システム。
In a correlation tracking system that tracks objects on the screen,
A plurality of templates that represent changes in shape and expression including the rotation of the object, and predict the change in advance ,
Means for setting a reference block of the size of the template on the screen and a search block of a predetermined size around the reference block;
Means for sequentially matching a plurality of templates while shifting the reference block in the search block, calculating a movement vector up to a position where the degree of coincidence becomes the largest, and tracking the object while sequentially updating the position;
A correlation tracking system comprising: means for outputting data or commands associated with the found template.
JP34232095A 1995-12-28 1995-12-28 Correlation tracking system Expired - Fee Related JP3673578B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34232095A JP3673578B2 (en) 1995-12-28 1995-12-28 Correlation tracking system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34232095A JP3673578B2 (en) 1995-12-28 1995-12-28 Correlation tracking system

Publications (2)

Publication Number Publication Date
JPH09185708A JPH09185708A (en) 1997-07-15
JP3673578B2 true JP3673578B2 (en) 2005-07-20

Family

ID=18352820

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34232095A Expired - Fee Related JP3673578B2 (en) 1995-12-28 1995-12-28 Correlation tracking system

Country Status (1)

Country Link
JP (1) JP3673578B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8682414B2 (en) 2009-11-27 2014-03-25 Mitsubishi Heavy Industries, Ltd. Radiation therapy apparatus control method and radiation therapy apparatus controller
KR101404653B1 (en) * 2013-03-07 2014-06-09 국방과학연구소 Template Reconstruction Method for Correlation Video Tracking

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3688489B2 (en) 1998-12-25 2005-08-31 株式会社東芝 Image recognition method and image recognition apparatus
JP2005055931A (en) * 2001-07-05 2005-03-03 Advantest Corp Image processor and image processing method
US8509482B2 (en) 2009-12-21 2013-08-13 Canon Kabushiki Kaisha Subject tracking apparatus, subject region extraction apparatus, and control methods therefor

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62247410A (en) * 1985-12-04 1987-10-28 Aisin Seiki Co Ltd Energization controller for electric apparatus
JPH05165968A (en) * 1991-12-18 1993-07-02 Komatsu Ltd Device for recognizing position and attitude of body
JP3346799B2 (en) * 1992-08-24 2002-11-18 株式会社日立製作所 Sign language interpreter
JPH07271986A (en) * 1994-03-28 1995-10-20 Yusaku Fujii Pool monitoring method
JPH07303289A (en) * 1994-05-02 1995-11-14 Murata Mfg Co Ltd On-vehicle infrared remote controller
JPH07325619A (en) * 1994-06-01 1995-12-12 Nec Corp Remote control device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8682414B2 (en) 2009-11-27 2014-03-25 Mitsubishi Heavy Industries, Ltd. Radiation therapy apparatus control method and radiation therapy apparatus controller
KR101404653B1 (en) * 2013-03-07 2014-06-09 국방과학연구소 Template Reconstruction Method for Correlation Video Tracking

Also Published As

Publication number Publication date
JPH09185708A (en) 1997-07-15

Similar Documents

Publication Publication Date Title
US20220366576A1 (en) Method for target tracking, electronic device, and storage medium
EP1139286A1 (en) Dynamic image processing method and device and medium
CN110688929B (en) Human skeleton joint point positioning method and device
JP2002251234A (en) Human interface system by plural sensor
CN105825268A (en) Method and system for data processing for robot action expression learning
CN111931654A (en) Intelligent monitoring method, system and device for personnel tracking
CN108830170A (en) A kind of end-to-end method for tracking target indicated based on layered characteristic
CN111191630A (en) Performance action identification method suitable for intelligent interactive viewing scene
CN111650558B (en) Method, device and computer equipment for positioning sound source user
CN111932579A (en) Method and device for adjusting equipment angle based on motion trail of tracked target
JP2961264B1 (en) Three-dimensional object model generation method and computer-readable recording medium recording three-dimensional object model generation program
JP3673578B2 (en) Correlation tracking system
JP7364041B2 (en) Object tracking device, object tracking method, and program
JP2003256850A (en) Movement recognizing device and image processor and its program
CN108664918B (en) Intelligent vehicle front pedestrian tracking method based on background perception correlation filter
CN110309729A (en) Tracking and re-detection method based on anomaly peak detection and twin network
Kerdvibulvech et al. Vision-based detection of guitar players' fingertips without markers
EP1881484B1 (en) Change information recognition apparatus
WO2002007096A1 (en) Device for tracking feature point on face
JP3505872B2 (en) Moving object tracking device in image
EP1246129B1 (en) Method of and apparatus for searching corresponding points between images, and computer program
CN114663796A (en) Target person continuous tracking method, device and system
JP4537645B2 (en) Object tracking device and object tracking device control method
KR100387901B1 (en) image tracking and insertion system using camera sensors
CN106874839A (en) The method and device of facial information identification

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040608

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040728

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040907

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041028

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20041119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050425

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080428

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090428

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090428

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100428

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110428

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110428

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120428

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130428

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees