JP2001076156A - Device for monitoring image - Google Patents

Device for monitoring image

Info

Publication number
JP2001076156A
JP2001076156A JP25042699A JP25042699A JP2001076156A JP 2001076156 A JP2001076156 A JP 2001076156A JP 25042699 A JP25042699 A JP 25042699A JP 25042699 A JP25042699 A JP 25042699A JP 2001076156 A JP2001076156 A JP 2001076156A
Authority
JP
Japan
Prior art keywords
image
tracking
template
camera
tracking point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP25042699A
Other languages
Japanese (ja)
Other versions
JP3644668B2 (en
Inventor
Tetsuji Hashimo
哲司 羽下
Hideto Fujiwara
秀人 藤原
Kazuhiko Washimi
和彦 鷲見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP25042699A priority Critical patent/JP3644668B2/en
Publication of JP2001076156A publication Critical patent/JP2001076156A/en
Application granted granted Critical
Publication of JP3644668B2 publication Critical patent/JP3644668B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain an image processor capable of correcting a template position so that the center of a trace object can reliably be the center of a template area all the time even when either the reliability of template search or the reliability of a correcting means is low. SOLUTION: This device is provided with an image difference extracting means 7 extracting a moving object by performing differential processing between continuous images, a template searching means 5, a tracing mode selecting means 9 which evaluates the reliabilities of the both means and selects any among a 1st tracing mode in which results of the means 5 are used in accordance with the reliability of the tracing mode, a 2nd tracing mode in which the results of the means 7 are used and a 3rd tracing mode in which the results of the both means are used, and a tracing point deciding means 10 deciding a tracing point in accordance with each of the tracing modes.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、プラント機器や
公共システム、ビル、住居等への人や不審物体の侵入を
カメラから得られる画像を用いて自動的に監視し、自動
的に追尾する画像監視装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image for automatically monitoring the intrusion of a person or a suspicious object into plant equipment, a public system, a building, a dwelling, or the like using an image obtained from a camera and automatically tracking the image. It relates to a monitoring device.

【0002】[0002]

【従来の技術】重要施設などさまざまな場所で、防犯、
防災を目的として監視カメラが設置され、その画像を人
が監視し、カメラを操作する監視業務が行われている。
そしてこの監視業務の省力化を目的としてその自動化が
試みられている。例えば、第5回画像センシングシンポ
ジウム講演論文集(1999/06)の第13頁〜18
頁、伊藤/上田「画像認識ハードウェア内蔵カメラを用
いた自律移動物体追尾監視カメラ」には、カメラから得
られる画像をいわゆるテンプレートマッチング処理を行
って対象を抽出し、自動追尾する上での問題点と、その
対処方法が示されている。
[Prior Art] Crime prevention in various places such as important facilities,
A surveillance camera is installed for the purpose of disaster prevention, and a person monitors the image, and a surveillance operation for operating the camera is performed.
Then, for the purpose of labor saving of this monitoring work, its automation has been attempted. For example, pages 13 to 18 of the 5th Image Sensing Symposium Proceedings (1999/06)
Page, Ito / Ueda "Autonomous moving object tracking surveillance camera using camera with built-in image recognition hardware" has a problem in extracting the target by performing so-called template matching processing on the image obtained from the camera and automatically tracking it. Points and how to deal with them are shown.

【0003】ここで、まず、公知のいわゆるテンプレー
トマッチングによる移動物体の追尾処理方法について説
明する。図9〜12は、テンプレートマッチングによる
移動物体の追尾処理を説明する画面の図である。監視カ
メラからの出力画像は言うまでもなく連続した画像(以
下フレームと言う)で構成されている。以下の説明で
は、現時点に得られた画像を「現フレームの画像」1
6、この現フレームの画像16の一フレーム前の画像を
「前フレームの画像」15という。図9において、67
は前フレームの画像15中から公知の差分処理などによ
り切り出したテンプレート、68は入力された現フレー
ムの画像16の画像上でテンプレートマッチングを計算
する動作の説明図である。図10において、69は説明
の都合上、平面的に表したテンプレートマッチングの一
致の度合いを色の濃さで表した平面的結果スコア、70
はテンプレートマッチングの平面的結果スコア69を立
体的に表示した立体的結果スコアである。図11は連続
する画像フレーム間でテンプレートを逐次更新しながら
トラッキングを行う動作の説明図である。
[0003] First, a method of tracking a moving object by a known so-called template matching will be described. 9 to 12 are screen diagrams illustrating a moving object tracking process based on template matching. Needless to say, the output image from the surveillance camera is composed of continuous images (hereinafter referred to as frames). In the following description, the image obtained at the present time is referred to as “the current frame image” 1
6. The image one frame before the image 16 of the current frame is referred to as a “previous frame image” 15. In FIG.
Is a template cut out from the image 15 of the previous frame by known difference processing or the like, and 68 is an explanatory diagram of an operation of calculating template matching on the input image of the image 16 of the current frame. In FIG. 10, reference numeral 69 denotes a planar result score in which the degree of matching of template matching represented in a plane is represented by a color density for convenience of description;
Is a three-dimensional result score in which the two-dimensional result score 69 of the template matching is displayed three-dimensionally. FIG. 11 is an explanatory diagram of an operation of performing tracking while sequentially updating the template between successive image frames.

【0004】次に図9〜11によりテンプレートマッチ
ング動作について説明する。まず前回の追尾点を中心に
前フレームの画像15から切り出されたテンプレート6
7と、現フレームの画像16内で最も類似度が高い画像
小領域を探索する。その方法は図9の68に示すよう
に、現フレームの画像16にテンプレート67を1 画素
づつずらしながら重ね合わせ、テンプレート67と同じ
サイズの画像小領域の各1 点1 点について、輝度値の差
の絶対値を合計する。このようにして得られる一致の程
度を表す平面的結果スコア69は立体的に表示すると7
0のようになる。ここで、結果スコア69は必ずゼロま
たは正の値であり完全に一致した場合はゼロで、一致度
が低い程スコア値が大きくなる。したがって結果スコア
の立体表示70では、理解を助けるためZ軸は上側を負
にして表している点に注意が必要である。以後、本明細
書では立体表示はZ軸の上側が負になるように表してい
る。結果スコアが極大となる点が最も一致度の高い点で
あるとして追尾点が求められる。連続する画像間でテン
プレートを逐次更新しながら前述の一致の程度を順次調
べるトラッキングを行うと、図11の71のようにな
る。テンプレート67は毎フレーム毎に最も類似度の高
かった小領域とそのまま入れ換え67、67’、67”
のように更新される。
Next, a template matching operation will be described with reference to FIGS. First, a template 6 cut out from the image 15 of the previous frame centering on the previous tracking point
7 and the image small area having the highest similarity in the image 16 of the current frame is searched. As shown by 68 in FIG. 9, the template 67 is superimposed on the image 16 of the current frame while shifting it by one pixel, and the difference of the luminance value is obtained for each point of the image small area of the same size as the template 67. The absolute values of The flat result score 69 indicating the degree of matching obtained in this way is 7 when displayed three-dimensionally.
It will be like 0. Here, the result score 69 is always zero or a positive value, and is zero when completely matched, and the score value increases as the matching degree decreases. Therefore, it should be noted that in the three-dimensional display 70 of the result score, the Z axis is shown with a negative value on the upper side to facilitate understanding. Hereinafter, in this specification, the three-dimensional display is expressed such that the upper side of the Z axis becomes negative. A tracking point is determined as a point where the result score is maximum is a point having the highest matching degree. When tracking is performed to sequentially check the degree of coincidence while sequentially updating the template between successive images, the result is as shown by 71 in FIG. The template 67 is replaced with a small area having the highest similarity every frame as it is 67, 67 ′, 67 ″.
Will be updated as follows.

【0005】前述の予稿集では、前記のような従来のテ
ンプレートマッチング技術を用いた場合の問題として、 (1)奥行きのある対象物体(例えば車両)の向きが変
化した場合に、得られるテンプレートが、徐々に対象物
体の中心からずれてしまい、やがて対象から外れてしま
う。 (2)対象物体の手前を他のものが横切った場合に、対
象のすり替えが起こってしまう。の2点が示され、この
ような現象に対する対応手段が開示されている。
In the above-mentioned proceedings, problems when using the conventional template matching technique as described above are as follows. (1) When the direction of a deep target object (for example, a vehicle) changes, the template obtained is Gradually deviates from the center of the target object, and eventually comes off the target. (2) When another object crosses the target object, the target is replaced. The following two points are shown, and a countermeasure against such a phenomenon is disclosed.

【0006】前述の予稿集には、装置の構成は示されて
いないが、記載されている内容(対象物体とテンプレー
トの位置ずれに対しては、エッジ累積分布計算手段を、
また、対象物体のすれ違いに対しては複数のテンプレー
ト間の一致度の比較によって対処する)から予想される
装置の構成は図12に示す様なものであろうと推定され
る。図において、1は監視カメラ、2は画像入力手段、
3は画像記憶手段、4はテンプレート設定手段、5はテ
ンプレート探索手段、6は最一致点抽出手段、52はエ
ッジ累積分布計算手段、8は重心抽出手段、10は追尾
点決定手段、11は追尾点情報記憶手段、12はカメラ
制御判定手段、13は雲台制御手段である。
[0006] Although the structure of the apparatus is not shown in the above-mentioned proceedings, the contents described (for the positional displacement between the target object and the template, the edge cumulative distribution calculating means is used.
In addition, it is presumed that the expected configuration of the apparatus will be as shown in FIG. 12 based on the comparison of the degree of coincidence between a plurality of templates. In the figure, 1 is a monitoring camera, 2 is an image input unit,
3 is an image storage means, 4 is a template setting means, 5 is a template search means, 6 is a closest matching point extracting means, 52 is an edge cumulative distribution calculating means, 8 is a center of gravity extracting means, 10 is a tracking point determining means, and 11 is a tracking point. Point information storage means, 12 is a camera control determination means, and 13 is a pan head control means.

【0007】次に図12のものの動作について説明す
る。監視カメラ1は監視対象を撮像する。画像入力手段
2はカメラ1が撮像した画像をランダムアクセス可能な
メモリー(図示しない)に入力して、現フレームの画像
16とする。画像記憶手段3は、現フレームの画像16
を、設定したフレーム間隔数に相当する時間だけ遅らせ
てランダムアクセス可能なメモリーに送出し、前フレー
ムの画像15とする。
Next, the operation of FIG. 12 will be described. The monitoring camera 1 captures an image of a monitoring target. The image input unit 2 inputs an image captured by the camera 1 into a memory (not shown) that can be randomly accessed, and sets the image as a current frame image 16. The image storage means 3 stores the image 16 of the current frame.
Is transmitted to a randomly accessible memory with a delay corresponding to the set number of frame intervals, and is set as the image 15 of the previous frame.

【0008】テンプレート設定手段4は、前フレームの
画像15から前回の追尾点の周辺の画像小領域をテンプ
レート67として読みだし、テンプレート用メモリ(図
示しない)に登録する。テンプレート探索手段5は、現
フレームの画像16中の各点を中心とする画像領域の各
々と前述のテンプレート67との類似度を計算し、類似
度(又は一致度)を表す結果スコア69としてランダム
アクセス可能なメモリーに書き込む。最一致点抽出手段
6は、テンプレート探索結果により得られた結果スコア
69の中で、前回の追尾点の周辺で最も一致度の高い点
を抽出する。以後、説明の都合上、この処理をテンプレ
ートマッチングと呼ぶ。
The template setting means 4 reads a small image area around the previous tracking point from the image 15 of the previous frame as a template 67 and registers it in a template memory (not shown). The template searching means 5 calculates the similarity between each of the image regions centered on each point in the image 16 of the current frame and the above-described template 67, and randomly calculates a result score 69 representing the similarity (or the degree of coincidence). Write to accessible memory. The closest matching point extracting means 6 extracts a point having the highest matching degree around the previous tracking point from among the result scores 69 obtained from the template search result. Hereinafter, for convenience of explanation, this processing is referred to as template matching.

【0009】次にエッジ累積分布計算手段52はテンプ
レートマッチングにより求められた追尾点の周辺でX、
Y各方向の輝度微分値であるエッジの累積分布を計算
し、重心抽出手段8は、X、Y各方向のエッジ累積分布
を用いて追尾対象の重心を求める。この場合テンプレー
トマッチングを用いないでエッジ累積分布を用いて対象
の重心を求めているので対象の向きが変わるなどの変化
があっても重心位置を間違って求める恐れが少なくなっ
ている。
Next, the edge cumulative distribution calculating means 52 calculates X, X around the tracking point obtained by the template matching.
The cumulative distribution of the edge, which is the luminance differential value in each of the Y directions, is calculated, and the center-of-gravity extracting means 8 obtains the center of gravity of the tracking target using the edge cumulative distribution in the X, Y directions. In this case, since the center of gravity of the target is obtained by using the edge cumulative distribution without using the template matching, there is less possibility that the position of the center of gravity is erroneously obtained even when the direction of the target changes.

【0010】そして、追尾点決定手段10は、テンプレ
ートマッチングにより求められた追尾点を、エッジ累積
分布を用いて求めた追尾対象の重心を用いて補正し新た
な追尾点を決定する。
The tracking point determining means 10 corrects the tracking point obtained by template matching using the center of gravity of the tracking target obtained by using the edge cumulative distribution, and determines a new tracking point.

【0011】追尾点情報記憶手段11は、決定された最
新の追尾点情報を一時記憶する。この追尾点情報は次回
フレームで、テンプレート設定手段4、最一致点抽出手
段6に入力される。
[0011] The tracking point information storage means 11 temporarily stores the determined latest tracking point information. This tracking point information is input to the template setting means 4 and the best matching point extracting means 6 in the next frame.

【0012】カメラ制御判定手段12は、最新の追尾点
情報に基づいてカメラの変位制御(カメラの首振り動
作、ズーム制御など)を実行する。
The camera control determining means 12 executes camera displacement control (camera swing operation, zoom control, etc.) based on the latest tracking point information.

【0013】雲台制御手段13は、カメラ制御判定手段
12の判定結果に基づいて、カメラ雲台の方向や移動速
度を制御する。
The camera head control means 13 controls the direction and the moving speed of the camera camera head based on the result of the judgment by the camera control judgment means 12.

【0014】このように、テンプレートマッチングによ
りテンプレート67を逐次更新しながら対象を追尾し、
追尾対象が変形する場合でも安定な追尾を可能としよう
とするものである。また、テンプレートマッチングによ
って求められた追尾点を、その周囲から求められる輝度
の累積分布を用いて補正することにより、常に追尾対象
の中心をテンプレートの中心として設定し、安定な追尾
を行おうとするものである。
As described above, the target is tracked while sequentially updating the template 67 by the template matching.
It is intended to enable stable tracking even when the tracking target is deformed. In addition, by correcting the tracking point obtained by template matching using the cumulative distribution of luminance obtained from the surroundings, the center of the tracking target is always set as the center of the template, and stable tracking is performed. It is.

【0015】以上に説明した従来のテンプレートマッチ
ング技術を用いた画像監視装置の問題点を説明するた
め、図13にテンプレート67の内部の追尾対象以外の
背景部分に、例えば地面に描かれた白線等、追尾対象よ
りもコントラストが高く、その輝度分布の偏りが大きい
ものがある場合について説明する。
To explain the problem of the image monitoring apparatus using the conventional template matching technique described above, FIG. 13 shows a background portion other than the tracking target inside the template 67, for example, a white line drawn on the ground. A case where the contrast is higher than that of the tracking target and the bias of the luminance distribution is large will be described.

【0016】図13に於いて、72〜79はこの符号の
順に変化するフレームを示しており、符号の番号順に画
像が変化しているものとする。721〜791はそれぞ
れフレーム72〜79のフレームにおいて抽出されたテ
ンプレートを示している。80は各フレーム72〜79
の中に写っているコントラストが極めて高い背景、例え
ば床面の白線、床と壁の区切り線などである。コントラ
ストが極めて高い背景80のコントラストは、監視すべ
き対象(ここでは人の像)のコントラストよりも高いの
で、最初のテンプレート721の中では、輝度の中心が
人の像の中心から若干外側へ移動する。そしてテンプレ
ート731の中では同じことが再度生じて、輝度中心が
更に外側へ移動する。このような動作が繰り返されるこ
とによって、テンプレート791ではついにテンプレー
トが監視すべき対象から外れてしまう。
In FIG. 13, reference numerals 72 to 79 denote frames that change in the order of the reference numerals, and it is assumed that the images change in the order of the reference numbers. Reference numerals 721 to 791 denote templates extracted in the frames 72 to 79, respectively. 80 is each frame 72-79
A background having a very high contrast, such as a white line on the floor surface or a dividing line between the floor and the wall, is displayed in the image. Since the contrast of the background 80 having a very high contrast is higher than the contrast of the object to be monitored (here, a human image), in the first template 721, the center of luminance moves slightly outward from the center of the human image. I do. Then, the same occurs again in the template 731 so that the luminance center moves further outward. By repeating such an operation, the template 791 finally falls out of the monitoring target.

【0017】また、例えば上半身は背景と同様な色、下
半身は背景に対してコントラストのある色といったよう
に、追尾対象自身に輝度分布の偏りがある場合にも、テ
ンプレートが更新されるたびに輝度の中心が少しづつ移
動し、ついには外れてしまう現象が生じやすい。
Even when the tracking target itself has a biased luminance distribution, for example, the upper body has a color similar to the background and the lower body has a color contrasting with the background, the luminance is changed every time the template is updated. Tends to move little by little and finally come off.

【0018】[0018]

【発明が解決しようとする課題】以上に説明したよう
に、従来の画像監視装置は、それ以前のものに比して相
当程度改善されているとはいえ、追尾対象自身に輝度分
布の偏りがある場合や、背景部分に追尾対象よりもコン
トラストがいちじるしく高くその輝度分布の偏りが大き
いものがある場合などには、テンプレートとして切り出
す領域が対象の中心からずれ、逐次テンプレートを更新
しながら追尾処理を続けると、いずれは追尾対象を外し
てしまうという現象が生じることが多い。
As described above, although the conventional image monitoring apparatus is considerably improved compared to the previous image monitoring apparatus, the tracking target itself has a bias in the luminance distribution. In some cases, or when there is a background part whose contrast is significantly higher than that of the tracking target and the bias of the luminance distribution is large, the area to be cut out as a template is shifted from the center of the target, and the tracking processing is performed while updating the template sequentially. If it continues, a phenomenon that the tracking target is eventually removed often occurs.

【0019】即ち、従来の画像監視装置は常にテンプレ
ート探索によって追尾点を求め、更にその追尾点周辺の
輝度のX軸、Y軸の累積分布を用いて補正するという方
法を繰り返し行う為、例えばテンプレート探索の信頼
性、あるいはその補正手段である追尾点周辺の輝度のX
軸、Y軸の累積分布の信頼性のいずれか一方が低い場合
は、低い方の信頼性に伴う誤差が累積して、やがて誤っ
た追尾点を追尾してしまうという問題点があった。
That is, the conventional image monitoring apparatus repeatedly performs a method of always finding a tracking point by searching for a template and correcting the luminance using the cumulative distribution of the X and Y axes of the luminance around the tracking point. X of the luminance around the tracking point which is the reliability of the search or the correction means.
When one of the reliability of the cumulative distribution on the axis and the Y axis is low, there is a problem that an error associated with the lower reliability is accumulated and eventually an erroneous tracking point is tracked.

【0020】この発明は、以上のような課題を解決する
ためになされたもので、テンプレート探索の信頼性、補
正手段の信頼性のいずれか一方が低い場合でも、常に安
定して追尾対象の中心がテンプレートの領域の中心に来
るようにテンプレート位置を補正することができる画像
処理装置を得ようとするものである。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems. Even when one of the reliability of the template search and the reliability of the correction means is low, the center of the tracking target is always stabilized. It is an object of the present invention to obtain an image processing apparatus that can correct the position of a template so that the position of the template is located at the center of the area of the template.

【0021】[0021]

【課題を解決するための手段】本発明の画像監視装置
は、連続して画像を取り込み可能でかつ変位可能なカメ
ラと、画像を処理して移動物体を発見する画像処理部
と、移動物体の移動に応じてカメラを変位させるカメラ
制御手段とを有する画像監視装置であって、画像処理部
は、連続する画像の前フレームの画像における移動物体
を含む画像領域をテンプレートとして記憶するテンプレ
ート設定手段と、現フレームの画像中でテンプレートと
類似する画像領域を探索し、テンプレートに代わる新た
なテンプレートとして更新記憶するテンプレート探索手
段と、連続する画像間で差分処理を行うことにより、移
動物体を抽出する画像差分抽出手段と、テンプレート探
索手段の探索結果と、画像差分抽出手段の差分結果の信
頼度を評価して、その信頼度に応じてカメラの追尾モー
ドをテンプレート探索手段の結果を用いる第1の追尾モ
ード、画像差分抽出手段の結果を用いる第2の追尾モー
ド、その両方の結果を用いる第3の追尾モードのいずれ
とするかを選択する追尾モード選択手段と、選択した追
尾モードに応じて追尾点を決定する追尾点決定手段とを
備えるものである。
According to the present invention, there is provided an image monitoring apparatus comprising: a camera capable of continuously capturing and displacing an image; an image processing unit for processing the image to find a moving object; An image monitoring device having camera control means for displacing a camera in accordance with movement, wherein the image processing unit includes a template setting means for storing, as a template, an image region including a moving object in an image of a previous frame of a continuous image. A template search means for searching for an image area similar to the template in the image of the current frame and updating and storing the updated image as a new template instead of the template, and an image for extracting a moving object by performing a difference process between successive images The reliability of the search result of the difference extracting means, the search result of the template searching means, and the difference result of the image difference extracting means is evaluated. One of a first tracking mode using the result of the template searching means, a second tracking mode using the result of the image difference extracting means, and a third tracking mode using both results according to the reliability. And a tracking point determining means for determining a tracking point in accordance with the selected tracking mode.

【0022】また、カメラ制御手段は、追尾点決定手段
が決定した追尾点が画像内に設けたカメラ制御不要領域
内に位置するようにカメラを制御するものである。
Further, the camera control means controls the camera such that the tracking point determined by the tracking point determination means is located in a camera control unnecessary area provided in the image.

【0023】また、追尾モード選択手段が、第3の追尾
モードを選択したとき、追尾点決定手段は画像差分抽出
手段の結果から求めた追尾点の位置に、テンプレート探
索手段により得られる追尾点の移動ベクトルの半分の大
きさのベクトルを加えた位置を新しい追尾点とするもの
である。
When the tracking mode selecting means selects the third tracking mode, the tracking point determining means sets the tracking point obtained by the template searching means at the position of the tracking point obtained from the result of the image difference extracting means. A position to which a vector of half the movement vector is added is set as a new tracking point.

【0024】また、追尾モード選択手段は、画像差分抽
出手段の差分出力画像のエッジ部の画面占有率があらか
じめ定めた所定のレベルより大きいときはカメラが変位
動作している途中に得られた画像であると判定して第1
の追尾モードを選択するようにしたものである。
Further, the tracking mode selecting means, if the screen occupancy of the edge portion of the difference output image of the image difference extracting means is larger than a predetermined level, the image obtained during the displacement operation of the camera. And the first
The tracking mode is selected.

【0025】また、追尾モード選択手段は、テンプレー
ト探索手段のスコアがあらかじめ定めた所定のレベルよ
り大きいときはテンプレート探索の信頼度が低いとして
第2の追尾モードを選択するようにしたものである。
The tracking mode selection means selects the second tracking mode when the score of the template search means is larger than a predetermined level, assuming that the reliability of the template search is low.

【0026】また、カメラ制御手段はこのカメラの画面
内の外側に接する範囲にカメラ制御必要領域を設定し、
追尾点決定手段が決定した追尾点がカメラ制御必要領域
内にあるとき、前記カメラを制御して前記追尾点がほぼ
画面の中心位置に来るよう制御するようにしたものであ
る。
Further, the camera control means sets a camera control required area in a range in contact with the outside of the camera screen,
When the tracking point determined by the tracking point determination means is within the camera control required area, the camera is controlled so that the tracking point is substantially at the center of the screen.

【0027】また、追尾モード選択手段は、追尾対象を
見失ったとき、見失う直前の追尾対象の方向を中心に、
あらかじめ定めた所定の角度幅でカメラを左右又は上下
に変位させる発見モードを備えたものである。
Further, when the tracking mode selecting means loses sight of the tracking object, the tracking mode selecting means focuses on the direction of the tracking object immediately before losing it.
The camera is provided with a discovery mode in which the camera is displaced left and right or up and down at a predetermined angular width.

【0028】[0028]

【発明の実施の形態】本発明の実施の形態について説明
する前に、その理解を助けるため、画像監視装置により
得られる画像の状態がさまざまであることを図8により
説明する。図において、58はあらかじめ取り込んだ背
景画像(前フレームの画像15に相当)、59は入力さ
れた画像(現フレームの画像16に相当)、60は背景
画像58と入力された画像59の差分から抽出された侵
入物体、61、62、63は発見された侵入物体をカメ
ラ固定のまま追尾している情景、64、65、66は追
尾対象が視野内におさまるようにカメラ1を(あるいは
雲台を)旋回しながら(変位させながら)追尾している
情景である。このように、画面内の変化は、監視する対
象物体の移動によって生じる場合と、変位、ズーム制御
などカメラ1の側の撮影条件の変化によって生じる場合
と、それらが同時に起こる場合とがあるので、画像監視
装置はこれらのいずれの場合にも安定して動作するもの
とする必要がある。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Before describing the embodiments of the present invention, various states of images obtained by the image monitoring apparatus will be described with reference to FIG. In the figure, 58 is a previously captured background image (corresponding to the image 15 of the previous frame), 59 is an input image (corresponding to the image 16 of the current frame), and 60 is a difference between the background image 58 and the input image 59. The extracted intruding objects, 61, 62, and 63 are scenes in which the discovered intruding object is being tracked with the camera fixed, and 64, 65, and 66 are cameras 1 (or pan head) so that the tracking target falls within the field of view. This is a scene in which the player is tracking while turning (displacing). As described above, the change in the screen may be caused by the movement of the target object to be monitored, may be caused by a change in the shooting conditions of the camera 1 such as displacement and zoom control, or may occur simultaneously. The image monitoring device needs to operate stably in any of these cases.

【0029】実施の形態1.本発明の画像監視装置につ
いて、図1に基づいて説明する.図1は本発明の画像監
視装置の構成図である。なお、以下の図に於いて従来の
ものと同一又は相当部分には同じ符号を付してその詳細
な説明を省略する。図1において, 1は連続して画像を
取込み可能で、かつ、変位可能な首振りあるいはズーム
機能を有する監視用のテレビカメラ(以下単にカメラと
いう)、2 はカメラ1の出力画像を入力して現フレーム
の画像16とする画像入力手段、3 は現フレームの画像
16を設定したフレーム数に相当する時間だけ遅らせ
て、前フレームの画像15として送出する画像記憶手
段、4 は前フレームの画像15において追尾点の周辺の
画像小領域をテンプレート17として登録するテンプレ
ート設定手段、5 は前述のテンプレート17と現フレー
ムの画像16中の各画像領域との類似度を計算するテン
プレート探索手段、6 はテンプレート探索手段5の出力
結果から前回の追尾点の周辺で最も一致度の高い点を抽
出する最一致点抽出手段である。以上は従来の図12の
ものと同じである。
Embodiment 1 The image monitoring device of the present invention will be described with reference to FIG. 1. FIG. 1 is a configuration diagram of the image monitoring device of the present invention. In the drawings, the same or corresponding parts as those in the related art are denoted by the same reference numerals, and detailed description thereof will be omitted. In FIG. 1, reference numeral 1 denotes a surveillance television camera (hereinafter simply referred to as a camera) having a swinging or zooming function capable of continuously capturing and displacing an image, and 2 an input of an output image of the camera 1. Image input means 3 for the image 16 of the current frame, 3 is image storage means for delaying the image 16 of the current frame by a time corresponding to the set number of frames and sending it as the image 15 of the previous frame, and 4 is the image 15 of the previous frame. A template setting means for registering an image small area around a tracking point as a template 17; a template searching means 5 for calculating the similarity between the template 17 and each image area in the image 16 of the current frame; This is the best matching point extracting means for extracting the point with the highest matching degree around the previous tracking point from the output result of the searching means 5. The above is the same as that of the conventional FIG.

【0030】7 は現フレームの画像16と前フレームの
画像15との差分を計算する画像差分抽出手段、8 は画
像差分抽出手段7により得られた差分結果について前回
の追尾点の周辺でモーメントを計算することによって重
心位置を求める重心抽出手段、9 はテンプレート探索手
段5により得られたテンプレート探索結果と、画像差分
抽出手段7により得られた画像差分結果と、追尾点情報
記憶手段11が記憶している前回の追尾点の情報とか
ら、追尾モードを選択する追尾モード選択手段、10は
追尾モード選択手段9の結果にもとづいて最一致点抽出
手段6と重心抽出手段8の結果を追尾モードに応じて単
独で使用したり融合して使用したりして(具体的な融合
の方法は後述する)、最新の追尾点を決定する追尾点決
定手段である。画像入力手段2〜追尾点決定手段10に
至る構成は画像処理部を構成している。11は決定され
た最新の追尾点情報を一時記憶する追尾点情報記憶手
段、12は最新の追尾点情報に基づいてカメラの制御方
法を決定するカメラ制御手段、13はカメラ制御手段1
2の結果に基づいてカメラ雲台を制御する雲台制御手
段、14はカメラ制御手段12の結果に基づいて、ズー
ム率を制御するズーム手段である。
Reference numeral 7 denotes an image difference extracting means for calculating a difference between the image 16 of the current frame and the image 15 of the previous frame. 8 denotes a moment around the previous tracking point for the difference result obtained by the image difference extracting means 7. A center-of-gravity extracting means 9 for calculating the position of the center of gravity by calculation, a template search result obtained by the template searching means 5, an image difference result obtained by the image difference extracting means 7, and a tracking point information storage means 11 are stored. The tracking mode selecting means 10 for selecting the tracking mode from the information of the previous tracking point which has been set, sets the result of the best matching point extracting means 6 and the center of gravity extracting means 8 to the tracking mode based on the result of the tracking mode selecting means 9. It is a tracking point determining means for determining the latest tracking point by using it alone or combining (using a specific method of fusion will be described later). The configuration from the image input unit 2 to the tracking point determination unit 10 constitutes an image processing unit. Reference numeral 11 denotes tracking point information storage means for temporarily storing the determined latest tracking point information, 12 denotes camera control means for determining a camera control method based on the latest tracking point information, and 13 denotes camera control means 1.
A pan head control unit 14 for controlling the camera pan head based on the result of 2 and a zoom unit 14 for controlling the zoom ratio based on the result of the camera control unit 12.

【0031】次に図1のものの動作を図2を用いて説明
する。図2において, 15は前フレームの画像、16は
現フレームの画像、17は前フレームの画像15から前
回の追尾点位置を中心に切り出したテンプレート、18
は現フレームの画像16上でテンプレート17の位置を
変化させて、一致する位置を見いだすことにより抽出し
た(即ち、テンプレートマッチングにより抽出した)追
尾点、19は前回の追尾点(図示しない)とテンプレー
トマッチングにより抽出した追尾点18との間の移動ベ
クトル、20は前フレームの画像15と現フレームの画
像16との差分結果、21は差分結果20から求めた重
心位置を示している。ここで、追尾点18は新しいテン
プレートの中心にあるが、重心位置21は旧いテンプレ
ートと新しいテンプレートとの中間点にあることに注意
する必要がある。
Next, the operation of FIG. 1 will be described with reference to FIG. In FIG. 2, 15 is the image of the previous frame, 16 is the image of the current frame, 17 is a template cut out from the image 15 of the previous frame centering on the previous tracking point position, 18
Is a tracking point extracted by changing the position of the template 17 on the image 16 of the current frame and finding a matching position (that is, extracted by template matching), and 19 is a tracking point of the previous tracking point (not shown) and the template. A motion vector between the tracking point 18 extracted by the matching, 20 indicates a difference result between the image 15 of the previous frame and the image 16 of the current frame, and 21 indicates a center of gravity calculated from the difference result 20. Here, it should be noted that the tracking point 18 is located at the center of the new template, but the center of gravity 21 is located at an intermediate point between the old template and the new template.

【0032】カメラ1は図示しない雲台に搭載されて監
視対象の方向を撮像する。画像入力手段2はカメラ1が
撮像した画像を図示しないランダムアクセス可能なメモ
リーに入力して現フレームの画像16とする。画像記憶
手段3は現フレームの画像16を、設定したフレーム間
隔数に相当する時間だけ遅らせてランダムアクセス可能
なメモリーに送出し、前フレームの画像15とする。
The camera 1 is mounted on a camera platform (not shown) and captures an image of the direction of the monitored object. The image input unit 2 inputs an image captured by the camera 1 into a random accessible memory (not shown) to obtain an image 16 of the current frame. The image storage means 3 delays the image 16 of the current frame by a time corresponding to the set number of frame intervals and sends it to a memory that can be randomly accessed, to obtain the image 15 of the previous frame.

【0033】テンプレート設定手段4は前フレームの画
像15から前回の追尾点(図示しないが前フレームの画
像15内の人物像付近にある)の周辺の画像小領域をテ
ンプレート17として読み出しテンプレート用メモリに
登録する。テンプレート探索手段5は現フレームの画像
16中の各点を中心とする画像領域の各々と前述のテン
プレート17との類似度を計算し、類似度を表す結果ス
コアとしてランダムアクセス可能なメモリーに書き込
む。最一致点抽出手段6はテンプレート探索手段5の結
果により得られた結果スコアの中で、前回の追尾点の周
辺で最も一致度の高い点を追尾点18として抽出する。
The template setting means 4 reads a small image area around the previous tracking point (not shown, but near the human image in the image 15 of the previous frame) from the image 15 of the previous frame as a template 17 and reads it into the template memory. register. The template search means 5 calculates the similarity between each of the image areas centered on each point in the image 16 of the current frame and the above-described template 17, and writes the similarity as a result score representing the similarity in a randomly accessible memory. The closest matching point extracting means 6 extracts a point having the highest matching degree around the previous tracking point as the tracking point 18 from the result scores obtained as a result of the template searching means 5.

【0034】次に画像差分抽出手段7は、現フレームの
画像16と前フレームの画像15との差分20を計算す
る。重心抽出手段8は画像差分抽出手段7により得られ
た差分結果20について、前回の追尾点の周辺でモーメ
ントを計算することによって重心位置21を求める。以
後この処理をフレーム間差分の重心抽出と呼ぶ。
Next, the image difference extracting means 7 calculates a difference 20 between the image 16 of the current frame and the image 15 of the previous frame. The center-of-gravity extracting means 8 obtains a center-of-gravity position 21 by calculating a moment around the previous tracking point for the difference result 20 obtained by the image difference extracting means 7. Hereinafter, this processing is referred to as extraction of the center of gravity of the difference between frames.

【0035】そして、追尾モード選択手段9は、前述の
テンプレート探索手段5により得られたテンプレート探
索結果と、前述の画像差分抽出手段7により得られた画
像差分結果と、前回の追尾点の情報から下記の3つの追
尾モード中のいずれかを選択する(具体的な選択方法に
ついては後述する)。即ち、第1の追尾モード「テンプ
レートマッチングにより得た追尾点をそのまま用い
る。」第2の追尾モード「差分処理により得た追尾点
(重心点)をそのまま用いる。」第3の追尾モード「テ
ンプレートマッチングにより得た追尾点と差分処理によ
り得た追尾点(重心点)を融合して用いる。」追尾点決
定手段10は追尾モード選択手段9の結果にもとづい
て、最一致点抽出手段6の抽出結果18と重心抽出手段
8の抽出結果21とを融合し(具体的な融合方法につい
ては以下の実施の形態で順次説明する)最新の追尾点を
決定する。
Then, the tracking mode selection means 9 calculates the template search result obtained by the template search means 5 described above, the image difference result obtained by the image difference extraction means 7 described above, and the information of the previous tracking point. One of the following three tracking modes is selected (a specific selection method will be described later). That is, the first tracking mode “the tracking point obtained by template matching is used as it is.” The second tracking mode “the tracking point (centroid point obtained by difference processing) is used as it is.” The third tracking mode “template matching. The tracking point obtained by the above is used in combination with the tracking point (centroid point) obtained by the difference processing. ”The tracking point determining means 10 extracts the result of the best match point extracting means 6 based on the result of the tracking mode selecting means 9. The latest tracking point is determined by fusing the extraction result 18 with the extraction result 21 of the center-of-gravity extraction means 8 (a specific fusing method will be described in the following embodiments).

【0036】追尾点情報記憶手段11は決定された最新
の追尾点情報を一時記憶する。この追尾点情報は次回の
フレームでテンプレート設定手段4、最一致点抽出手段
6、重心抽出手段8、追尾モード選択手段9に入力され
る。
The tracking point information storage means 11 temporarily stores the determined latest tracking point information. This tracking point information is input to the template setting means 4, the best matching point extracting means 6, the center of gravity extracting means 8, and the tracking mode selecting means 9 in the next frame.

【0037】カメラ制御手段12は最新の追尾点情報に
基づいてカメラの制御方法を判定する。雲台制御手段1
3はカメラ制御手段12の結果に基づいて、カメラ雲台
を制御する。ズーム手段14はカメラ制御手段12の結
果に基づいてズーム率を制御する。なお、以上の説明に
おいて、雲台が首振り動作することをカメラが変位する
という表現をしている場合があるが同じ意味である。
The camera control means 12 determines a camera control method based on the latest tracking point information. Head control means 1
Reference numeral 3 controls the camera platform based on the result of the camera control means 12. The zoom unit 14 controls the zoom ratio based on the result of the camera control unit 12. In the above description, the movement of the pan head swinging is sometimes referred to as the displacement of the camera, but this has the same meaning.

【0038】実施の形態2.図3は本発明の実施の形態
2による画像監視装置の動作、特に前述の第3の追尾モ
ードの詳細について説明するための画像の図である。図
3において, 15は前フレームの画像、16は現フレー
ムの画像、17は前フレームの画像から前回の追尾点位
置を中心に切り出したテンプレート、18はテンプレー
トマッチングにより抽出した追尾点、19は前回の追尾
点とテンプレートマッチングにより抽出した追尾点18
との間の移動ベクトル、20は前フレームの画像15と
現フレームの画像16との差分結果、21は前フレーム
の画像15と現フレームの画像16との差分結果20か
ら求めた重心位置、22は移動ベクトル19の大きさを
半分にしたベクトル、23は前フレームの画像15と現
フレームの画像16との差分結果20から求めた重心位
置21に、移動ベクトル19を半分にしたベクトル22
を加えた点である。
Embodiment 2 FIG. 3 is a diagram of an image for explaining the operation of the image monitoring apparatus according to the second embodiment of the present invention, particularly the details of the third tracking mode described above. In FIG. 3, 15 is the image of the previous frame, 16 is the image of the current frame, 17 is a template cut out from the image of the previous frame centering on the previous tracking point position, 18 is the tracking point extracted by template matching, and 19 is the previous tracking point. Tracking point and tracking point 18 extracted by template matching
20 is the difference result between the image 15 of the previous frame and the image 16 of the current frame, 21 is the position of the center of gravity obtained from the difference result 20 between the image 15 of the previous frame and the image 16 of the current frame, 22 Is a vector obtained by halving the size of the movement vector 19, and 23 is a vector 22 obtained by halving the movement vector 19 at the barycentric position 21 obtained from the difference result 20 between the image 15 of the previous frame and the image 16 of the current frame.
Is added.

【0039】次に動作について説明する。前フレームの
画像15から、前回の追尾点位置を中心に切り出したテ
ンプレート17を、現フレームの画像16中でテンプレ
ートマッチングにより抽出し追尾点18を得る。一方、
前フレームの画像15と現フレームの画像16との差分
結果20において、テンプレートマッチングにより抽出
した追尾点18の周辺でモーメント計算を行い重心位置
21を求める。前回の追尾点とテンプレートマッチング
により抽出した追尾点18との間の移動ベクトル19を
半分にしたベクトル22を、前フレームの画像15と現
フレームの画像16との差分結果から求めた重心位置2
1に加え追尾点23を得る。
Next, the operation will be described. From the image 15 of the previous frame, a template 17 cut out centering on the position of the previous tracking point is extracted from the image 16 of the current frame by template matching to obtain a tracking point 18. on the other hand,
In the difference result 20 between the image 15 of the previous frame and the image 16 of the current frame, moment calculation is performed around the tracking point 18 extracted by template matching, and the position of the center of gravity 21 is obtained. A vector 22 obtained by halving the movement vector 19 between the previous tracking point and the tracking point 18 extracted by the template matching is calculated as the center of gravity 2 obtained from the difference between the image 15 of the previous frame and the image 16 of the current frame.
A tracking point 23 is obtained in addition to 1.

【0040】ここで、重心抽出は追尾点周辺の限定され
た領域内で、画像差分結果20をあるしきい値で2値化
したものについて、0 次と1 次のモーメントを計算する
方法としてもよい。
Here, the centroid extraction is a method of calculating the zero-order and first-order moments for the binarized image difference result 20 with a certain threshold value within a limited area around the tracking point. Good.

【0041】あるいはまた、重心抽出は、追尾点周辺の
限定された領域内で、画像差分結果の絶対値を、重み付
け値として、0 次と1 次のモーメントを計算する方法と
してもよい。
Alternatively, the center of gravity may be extracted by calculating the zero-order and first-order moments using the absolute value of the image difference result as a weighting value within a limited area around the tracking point.

【0042】また、テンプレートマッチングにより得ら
れた追尾点18と、テンプレートマッチングにより得ら
れた移動ベクトル19と、フレーム間差分の重心21と
により得られた追尾点とを比較し、両者のX、Y各成分
の差があるしきい値以下ならば、後者をそのまま補正後
の追尾点とし、両者のX、Y各成分の差分があるしきい
より大きければ、それぞれの差をそのしきい値でリミッ
トし、テンプレートマッチング探索結果の追尾点に差分
のしきい値を加えたものを補正後の追尾点とする方法と
してもよい。
The tracking point 18 obtained by the template matching, the motion vector 19 obtained by the template matching, and the tracking point obtained by the center of gravity 21 of the inter-frame difference are compared. If the difference between the components is less than a certain threshold, the latter is used as it is as the corrected tracking point. If the difference between the X and Y components of the two is larger than a threshold, each difference is limited by the threshold. Then, a method in which a threshold value of the difference is added to the tracking point of the template matching search result may be used as the corrected tracking point.

【0043】実施の形態3.図4、5は本発明の実施の
形態3による画像監視装置の動作を説明する図である。
図4において, 24はカメラ揺れのない(カメラが変位
していない)場合の前フレームの画像、25はカメラ揺
れのない場合の現フレームの画像、26はカメラ揺れの
ない場合の前フレームの画像24と現フレームの画像2
5との差分結果、26Aは差分結果26のY軸方向につ
いてエッジ抽出を行ったデータを示すものである。ここ
でエッジ抽出はX、Y両軸について行うのがよいが説明
の都合上、図にはY軸についてのみ示している。27は
カメラ揺れのある(カメラが変位している途中)場合の
前フレームの画像、28はカメラ揺れのある場合の現フ
レームの画像、29はカメラ揺れのある場合の前フレー
ムの画像27と現フレームの画像28との差分結果、2
9Aは差分結果29のY軸方向のエッジ抽出データを示
す。ここでもエッジ抽出データは説明の都合上、Y軸に
ついてのみ示している。
Embodiment 3 4 and 5 are diagrams for explaining the operation of the image monitoring device according to the third embodiment of the present invention.
In FIG. 4, reference numeral 24 denotes an image of the previous frame when there is no camera shake (the camera is not displaced), 25 denotes an image of the current frame when there is no camera shake, and 26 denotes an image of the previous frame when there is no camera shake. 24 and current frame image 2
The result 26A of the difference from the data 5 indicates data obtained by performing edge extraction in the Y-axis direction of the result 26 of the difference. Here, the edge extraction is preferably performed for both the X and Y axes, but for convenience of explanation, only the Y axis is shown in the figure. Reference numeral 27 denotes an image of the previous frame when the camera is shaken (during movement of the camera), 28 denotes an image of the current frame when the camera is shaken, and 29 denotes an image of the previous frame when the camera is shaken and the current image. Difference result from frame image 28, 2
9A shows edge extraction data in the Y-axis direction of the difference result 29. Here, the edge extraction data is shown only for the Y axis for convenience of explanation.

【0044】図5に於いて、30は追尾対象が明瞭な場
合の前フレームの画像から切り出したテンプレート、3
1は追尾対象が明瞭な場合の現フレームの画像、32は
追尾対象が明瞭な場合のテンプレートマッチングの結果
スコア、33はテンプレートマッチングの有効性を検証
する為の、スコアデータの最一致点からの離し量、34
はテンプレートマッチングの有効性を評価する為の、ス
コアデータの最一致点におけるスコア値と最一致点から
のある一定距離離れた点におけるスコア値との差、35
は追尾対象が不明瞭な場合の前フレームの画像から切り
出したテンプレート、36は追尾対象が不明瞭な場合の
現フレームの画像、37は追尾対象が不明瞭な場合のテ
ンプレートマッチングの結果スコア、38はテンプレー
トマッチングの有効性を検証する為の、スコアデータの
最一致点からの離し量、39はテンプレートマッチング
の有効性を評価する為の、スコアデータの最一致点にお
けるスコア値と最一致点からのある一定距離離れた点に
おけるスコア値との差である。
In FIG. 5, reference numeral 30 denotes a template cut out from the image of the previous frame when the tracking target is clear;
1 is the image of the current frame when the tracking target is clear, 32 is the score of the template matching result when the tracking target is clear, and 33 is the score from the highest matching point of the score data for verifying the effectiveness of the template matching. Release amount, 34
Is the difference between the score value at the closest match point of the score data and the score value at a point at a certain distance from the best match point to evaluate the effectiveness of template matching, 35
Is a template cut out from the previous frame image when the tracking target is unclear, 36 is the current frame image when the tracking target is unclear, 37 is the template matching result score when the tracking target is unclear, 38 Is the amount of separation from the most matching point of the score data for verifying the effectiveness of the template matching, and 39 is the distance from the score value and the most matching point at the most matching point of the score data for evaluating the effectiveness of the template matching. Is a difference from the score value at a point at a certain distance apart from the score value.

【0045】次に動作について説明する。まず、カメラ
雲台又は変位させる機構が静止しており、ズーム率も変
化していないとき、エッジ抽出データ26Aは占有率が
低く、差分が一か所に集中しているので、その信頼性が
高く、画像差分抽出手段7の結果26から得られる重心
位置は追尾対象の移動前後の重心位置であると判断して
間違いがない。よってテンプレートマッチングにより求
まった前回の追尾点から、今回の追尾点までの移動ベク
トルの半分を、画像差分の重心抽出結果に加えて、追尾
対象の中心がテンプレートの中心となるように補正され
た新しい追尾点を決定することができる。
Next, the operation will be described. First, when the camera pan or the mechanism for displacing is stationary and the zoom ratio has not changed, the edge extraction data 26A has a low occupancy and the difference is concentrated in one place, so that its reliability is low. It is high, and it is determined that the position of the center of gravity obtained from the result 26 of the image difference extracting means 7 is the position of the center of gravity before and after the movement of the tracking target, and there is no mistake. Therefore, half of the movement vector from the previous tracking point obtained by template matching to the current tracking point is added to the center of gravity of the image difference, and the center of the tracking target is corrected to be the center of the template. A tracking point can be determined.

【0046】次に、画像差分抽出手段7の結果がゼロと
なるときは、対象が静止しており、カメラ雲台も静止し
ている。従って、テンプレートマッチングにより得られ
た追尾点をそのまま用い、追尾点の補正を行わない。
Next, when the result of the image difference extracting means 7 becomes zero, the object is stationary and the camera platform is also stationary. Therefore, the tracking point obtained by the template matching is used as it is, and the tracking point is not corrected.

【0047】あるいは、画像差分抽出手段7の結果がゼ
ロとなるときは、ターゲットの移動が無いものとして、
テンプレートマッチングにより得られた追尾点を破棄
し、前回の追尾点をそのまま用いるという方法としても
よい。
Alternatively, when the result of the image difference extracting means 7 becomes zero, it is determined that there is no movement of the target, and
A method in which the tracking point obtained by template matching is discarded and the previous tracking point is used as it is may be used.

【0048】一方、カメラ又は雲台が変位動作中であ
る、あるいはズーム率が移動(変動)中もしくは安定し
ていないとき、エッジ抽出結果29Aは占有率が高く画
像中のあらゆる場所で大きな値を示すので信頼性が低
く、画像間差分の結果29も画像中のあらゆる場所に表
れ、画像差分抽出手段7の結果から追尾対象の移動前後
の重心位置を正確に求めることができない。このような
場合はテンプレートマッチングのみで追尾を行えばよ
い。カメラの移動が収まった後、再びテンプレートマッ
チングとフレーム間差分とを併用した追尾を行う。
On the other hand, when the camera or the camera platform is being displaced, or the zoom ratio is moving (fluctuating) or is not stable, the edge extraction result 29A has a high occupation ratio and a large value everywhere in the image. Therefore, the reliability 29 is low, and the result 29 of the difference between images also appears everywhere in the image, and the center of gravity position before and after the movement of the tracking target cannot be accurately obtained from the result of the image difference extracting means 7. In such a case, tracking may be performed only by template matching. After the movement of the camera stops, tracking is performed again using both the template matching and the inter-frame difference.

【0049】また、追尾対象が明瞭な場合、テンプレー
トマッチングの結果スコア32は最一致点付近で急峻で
あり、スコアデータの最一致点におけるスコア値と最一
致点からのある一定距離33だけ離れた点におけるスコ
ア値との差34は、大きな値となる。
When the object to be tracked is clear, the score 32 as a result of the template matching is steep in the vicinity of the closest matching point, and the score value at the closest matching point of the score data is a certain distance 33 from the closest matching point. The difference 34 from the score value at the point is a large value.

【0050】一方、追尾対象が不明瞭な場合、テンプレ
ートマッチングの結果スコア37は最一致点付近でなだ
らかであり、スコアデータの最一致点におけるスコア値
と最一致点からのある一定距離33だけ離れた点におけ
るスコア値との差39は、小さな値となる。
On the other hand, when the tracking target is ambiguous, the template matching result score 37 is gentle near the closest match point, and the score value at the closest match point of the score data is a certain distance 33 from the best match point. The difference 39 from the score value at that point is a small value.

【0051】このように、テンプレートマッチングのス
コア結果34、39からテンプレートマッチングの有効
性を評価し、例えば、テンプレートマッチングのスコア
結果が最一致点の付近でほぼ同じ値(なだらか)である
等、テンプレートマッチングが有効ではない場合、対象
の移動ベクトルを前回までの移動ベクトルから推定し、
その半分をフレーム間差分結果の重心位置に加えて新し
い追尾点とし、その追尾点を中心とする画像小領域を用
いてテンプレートを更新しながら画像差分抽出手段7の
みで追尾を行い、テンプレートマッチングが有効になっ
た後、再びテンプレートマッチングと画像差分抽出手段
7とを併用した追尾を行う。
As described above, the effectiveness of template matching is evaluated based on the template matching score results 34 and 39. For example, the template matching score results are almost the same value (smooth) near the closest matching point. If the matching is not valid, the target motion vector is estimated from the previous motion vector,
Half of that is added to the position of the center of gravity of the inter-frame difference result as a new tracking point, tracking is performed only by the image difference extracting means 7 while updating the template using the image small area centered on the tracking point, and template matching is performed. After the validation, the tracking using the template matching and the image difference extracting means 7 together is performed again.

【0052】さらに、差分結果が29Aの状態が続くと
き、あるいはテンプレートマッチングの結果が39の状
態が続くときは、追尾対象の見失いと判定して、カメラ
を、対象を見失う直前のカメラの方向を中心に、あらか
じめ定めた所定の角度幅でカメラを左右又は上下に変位
させる発見モードで制御する。また、テンプレート更新
の要不要、カメラ制御の可、不可を判断することも可能
である。
Furthermore, when the state of the difference result of 29A continues or the state of the template matching of 39 continues, it is determined that the object to be tracked is lost, and the direction of the camera immediately before losing the object is determined. Control is performed in a discovery mode in which the camera is displaced left and right or up and down at a predetermined angular width at the center. It is also possible to determine whether template update is necessary or not, and whether camera control is possible or not.

【0053】実施の形態4.図6、7は本発明の実施の
形態4による画像監視装置の動作の説明図である。図6
において, 40Aは画面内に設けたカメラ制御不要領域
(点線の内側)、40Bはカメラ制御必要領域を示し、
40は追尾対象がカメラ制御不要領域40A内に存在す
る場合のカメラ画像である。41は追尾対象がカメラ制
御不要領域40Aから外に出た場合のカメラ画像であ
る。常にカメラ制御不要領域40Aの外側にカメラ制御
必要領域40Bがある。42は追尾対象がカメラ制御必
要領域40B内に入った場合にカメラのパン、チルト操
作を行って画像をカメラ制御不要領域40A内あるい
は、画面のほぼ中央に移動させた画像である。また、図
7に於いて、43はカメラ1のズームがワイド端の場合
の監視カメラ画像である。44はカメラのズームをワイ
ド端から望遠側に移動した場合の監視カメラ画像であ
る。45はカメラのズームをさらに望遠側に移動した場
合の監視カメラ画像である。
Embodiment 4 6 and 7 are explanatory diagrams of the operation of the image monitoring device according to the fourth embodiment of the present invention. FIG.
, 40A indicates a camera control unnecessary area (inside the dotted line) provided in the screen, 40B indicates a camera control unnecessary area,
Reference numeral 40 denotes a camera image when the tracking target exists in the camera control unnecessary area 40A. Reference numeral 41 denotes a camera image when the tracking target goes out of the camera control unnecessary area 40A. There is always a camera control required area 40B outside the camera control unnecessary area 40A. Reference numeral 42 denotes an image obtained by performing a pan and tilt operation of the camera when the tracking target enters the camera control required area 40B and moving the image to the camera control unnecessary area 40A or almost to the center of the screen. In FIG. 7, reference numeral 43 denotes a surveillance camera image when the zoom of the camera 1 is at the wide end. Reference numeral 44 denotes a surveillance camera image when the zoom of the camera is moved from the wide end to the telephoto side. Reference numeral 45 denotes a surveillance camera image when the zoom of the camera is further moved to the telephoto side.

【0054】次に動作について説明する。カメラ視野の
内部にカメラ制御不要領域40A、とその外側のカメラ
制御必要領域40Bを設定し、追尾対象がカメラ制御不
要領域40A内に存在する場合はカメラ雲台の制御は行
わず、カメラを固定したトラッキングを行う。また41
のように、追尾対象がカメラ制御必要領域40B内に入
った場合、監視カメラの雲台を追尾対象がカメラ制御不
要領域40A内に、好ましくは対象が画面のほぼ中央に
なるように制御し、図6の42のような画像を得る。
Next, the operation will be described. The camera control unnecessary area 40A and the camera control unnecessary area 40B outside the camera control unnecessary area are set inside the camera field of view. If the tracking target is within the camera control unnecessary area 40A, the camera pan head is not controlled and the camera is fixed. Tracking. Also 41
When the tracking target enters the camera control required area 40B, the camera platform of the surveillance camera is controlled so that the tracking target is in the camera control unnecessary area 40A, preferably, the target is located substantially at the center of the screen. An image like 42 in FIG. 6 is obtained.

【0055】対象を画面の中央に移動するようにカメラ
制御するとき、カメラ雲台への制御命令は、結果的に連
続的ではなく間欠的に行われる。また、制御命令の判定
しきい値に増加側と減少側とでヒステリシスを設け、カ
メラ雲台の機構部への負担を軽減すると共に、画像差分
抽出手段7の情報を追尾に用いるフレーム数を増加さ
せ、安定な対象の追尾を可能にする。追尾点をカメラ制
御不要領域40B内に位置するようにカメラを制御する
場合、カメラ1の動きが必要最小限に制約され、無駄な
動きが少なくなる。
When the camera is controlled so as to move the object to the center of the screen, the control command to the camera platform is intermittently performed instead of continuously. In addition, hysteresis is provided on the increasing side and the decreasing side of the judgment threshold value of the control command to reduce the load on the mechanism section of the camera platform and increase the number of frames used for tracking the information of the image difference extracting means 7. To enable stable tracking of the object. When the camera is controlled so that the tracking point is located within the camera control unnecessary area 40B, the movement of the camera 1 is restricted to a necessary minimum, and unnecessary movement is reduced.

【0056】また、図7の43のように、カメラ1のズ
ームがワイド端の場合、追尾対象の識別が困難である。
このとき、カメラ制御手段12によって追尾対象の識別
が可能な解像度になるまで図7の44、45のようにズ
ームの制御をする。
When the zoom of the camera 1 is at the wide end, as shown at 43 in FIG. 7, it is difficult to identify the tracking target.
At this time, zoom control is performed as indicated by 44 and 45 in FIG. 7 until the camera control unit 12 has a resolution that allows the tracking target to be identified.

【0057】ここで、追尾対象の詳細が識別可能な解像
度を得る為にカメラズーム比を制御する際に、ズーム制
御手段14への制御命令を連続的ではなく、間欠的に行
い、また、制御命令の判定しきい値に増加側と減少側と
でヒステリシスを設け、ズーム制御手段14の機構部へ
の負担を軽減すると共に、画像差分抽出手段7が有効に
使えるフレームを増加させ、安定な対象の追尾を可能に
する。
Here, when controlling the camera zoom ratio in order to obtain a resolution at which the details of the object to be tracked can be identified, the control command to the zoom control means 14 is intermittently executed instead of continuously. Hysteresis is provided on the increase and decrease sides of the command determination threshold to reduce the load on the mechanism of the zoom control means 14 and increase the number of frames that can be effectively used by the image difference extraction means 7 to provide a stable target. To enable tracking.

【0058】[0058]

【発明の効果】以上に説明したように、本発明の画像監
視装置は、テンプレート探索手段の探索結果と、画像差
分抽出手段の結果の信頼度を評価して、その信頼度に応
じてカメラの追尾モードをテンプレート探索手段の結果
を用いる第1の追尾モード、フレーム間処理部の結果を
用いる第2の追尾モード、その両方の結果を用いる第3
の追尾モードのいずれとするかを選択する追尾モード選
択手段を備えているので、安定な追尾対象の追尾ができ
るという効果がある。
As described above, the image monitoring apparatus according to the present invention evaluates the reliability of the search result of the template searching means and the result of the image difference extracting means, and, depending on the reliability, the camera of the camera. The first tracking mode uses the result of the template search means as the tracking mode, the second tracking mode uses the result of the inter-frame processing unit, and the third tracking mode uses both results.
Tracking mode selection means for selecting which one of the following tracking modes is used, there is an effect that stable tracking of the tracking target can be performed.

【0059】また、カメラ制御手段は決定された追尾点
を画像内に設けたカメラ制御不要領域内に位置するよう
にカメラを制御するので、カメラの動きが必要最小限に
制約され、無駄な動きが少なくなるという効果がある。
Further, since the camera control means controls the camera so that the determined tracking point is located within the camera control unnecessary area provided in the image, the movement of the camera is restricted to a necessary minimum, and the unnecessary movement is restricted. This has the effect of reducing

【0060】また、追尾モード選択手段が、第3の追尾
モードを選択したとき、追尾点決定手段は画像差分抽出
手段の結果から求めた追尾点の位置に、テンプレート探
索手段により得られる追尾点の移動ベクトルの半分の大
きさのベクトルを加えた位置を新しい追尾点とするの
で、撮影条件の変化に影響されない安定した追尾が可能
であるという効果が得られる。
When the tracking mode selecting means selects the third tracking mode, the tracking point determining means sets the tracking point obtained from the result of the image difference extracting means at the position of the tracking point obtained by the template searching means. Since a position to which a vector having a size half of the movement vector is added is set as a new tracking point, an effect is obtained in that stable tracking can be performed without being affected by changes in imaging conditions.

【0061】また、追尾モード選択手段は、画像差分抽
出手段の差分出力画像のエッジ部の画面占有率があらか
じめ定めた所定のレベルより大きいときはカメラの向き
が移動中に得られた画像であると判定して画像差分抽出
手段の出力を無視する第1の追尾モードを選択するよう
にしたので、撮影条件の変化に影響されない安定した追
尾が可能であるという効果が得られる。
When the screen occupancy of the edge portion of the difference output image of the image difference extracting means is larger than a predetermined level, the tracking mode selecting means is an image obtained while the camera is moving. Is determined and the first tracking mode in which the output of the image difference extracting means is ignored is selected, so that an effect is obtained in which stable tracking can be performed without being affected by changes in imaging conditions.

【0062】また、追尾モード選択手段は、テンプレー
ト探索手段のスコアがあらかじめ定めた所定のレベルよ
り大きいときはテンプレート探索の信頼度が低いとして
テンプレート探索手段の出力を無視する第2の追尾モー
ドを選択するようにしたので、撮影条件の変化に影響さ
れない安定した追尾が可能であるという効果が得られ
る。
When the score of the template searching means is higher than a predetermined level, the tracking mode selecting means determines that the reliability of the template search is low and selects a second tracking mode in which the output of the template searching means is ignored. As a result, it is possible to obtain an effect that stable tracking can be performed without being affected by changes in imaging conditions.

【0063】また、カメラ制御手段はこのカメラの画面
内の外側に接する範囲にカメラ制御必要領域を設定し、
追尾点決定手段が決定した追尾点が前記カメラ制御必要
領域内にあるとき、前記カメラを制御して前記追尾点が
ほぼ前記画面の中心位置に来るよう制御するようにした
ので、撮影条件の変化に影響されない安定した追尾が可
能であるという効果が得られる。
Further, the camera control means sets a camera control required area in a range in contact with the outside of the camera screen,
When the tracking point determined by the tracking point determination means is within the camera control required area, the camera is controlled to control the tracking point to be substantially at the center position of the screen. An effect is obtained that stable tracking that is not affected by is possible.

【0064】また、追尾モード選択手段は、追尾対象を
見失ったとき、見失う直前の追尾対象の方向を中心に、
あらかじめ定めた所定の角度幅でカメラを左右又は上下
に変位させる発見モードを備えるようにしたので、撮影
条件の変化に影響されない安定した追尾が可能であると
いう効果が得られる。
Further, when the tracking mode selection means loses track of the tracking target, the tracking mode selecting means focuses on the direction of the tracking target immediately before the tracking target is lost.
Since the camera is provided with the discovery mode in which the camera is displaced left and right or up and down with a predetermined angle width, it is possible to obtain an effect that stable tracking can be performed without being affected by changes in imaging conditions.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の実施の形態1による画像監視装置の
構成図である。
FIG. 1 is a configuration diagram of an image monitoring device according to a first embodiment of the present invention.

【図2】 図1の画像監視装置の動作を説明する図であ
る。
FIG. 2 is a diagram illustrating the operation of the image monitoring device of FIG. 1;

【図3】 本発明の実施の形態2による画像監視装置の
動作を説明する図である。
FIG. 3 is a diagram illustrating an operation of the image monitoring device according to the second embodiment of the present invention.

【図4】 本発明の実施の形態3による画像監視装置の
動作を説明する図である。
FIG. 4 is a diagram illustrating an operation of an image monitoring device according to a third embodiment of the present invention.

【図5】 本発明の実施の形態3による画像監視装置の
動作を説明する図である。
FIG. 5 is a diagram illustrating an operation of the image monitoring device according to the third embodiment of the present invention.

【図6】 本発明の実施の形態4による画像監視装置の
動作を説明する図である。
FIG. 6 is a diagram illustrating an operation of the image monitoring device according to the fourth embodiment of the present invention.

【図7】 本発明の実施の形態4による画像監視装置の
動作を説明する図である。
FIG. 7 is a diagram illustrating an operation of the image monitoring device according to the fourth embodiment of the present invention.

【図8】 画像監視装置により得られる画像の状態を説
明するための図である。
FIG. 8 is a diagram for explaining a state of an image obtained by the image monitoring device.

【図9】 従来のテンプレートマッチングについて説明
する図である。
FIG. 9 is a diagram for explaining conventional template matching.

【図10】 図9のマッチングスコアの説明図である。FIG. 10 is an explanatory diagram of the matching score of FIG. 9;

【図11】 従来のテンプレートマッチングによる画像
監視の動作について説明する図である。
FIG. 11 is a diagram illustrating an operation of image monitoring by conventional template matching.

【図12】 従来の画像監視装置の構成を示す図であ
る。
FIG. 12 is a diagram illustrating a configuration of a conventional image monitoring device.

【図13】 従来のテンプレートマッチング動作の失敗
を説明する動作説明図である。
FIG. 13 is an operation explanatory diagram illustrating a failure of a conventional template matching operation.

【符号の説明】[Explanation of symbols]

1 監視カメラ、 2 画像入力手段、
3 画像記憶手段、4 テンプレート設定手段、
5 テンプレート探索手段、6 最一致点抽出手段、
7 画像差分抽出手段、8 重心抽出手
段、 9 追尾モード選択手段、10
追尾点決定手段、 11 追尾点情報記憶手
段、12 カメラ制御手段、 15 前フレーム
の画像、16 現フレームの画像、 17 テンプ
レート、19 移動ベクトル、 20 差分結
果、21 重心位置、 22 移動ベクト
ルを半分にしたベクトル、23 重心位置に追尾点の移
動ベクトルの半分を加えたもの、30 対象が明瞭な場
合のテンプレート、32 テンプレートマッチングのス
コア結果、35 対象が不明瞭な場合のテンプレート、
37 テンプレートマッチングのスコア結果、40A
カメラ制御不要領域、 40B カメラ制御必要領域、
43 ズームワイド端の画像、 45 ズームが望遠端
の画像、58 予め取り込んだ背景画像、 59 現画
像、60 差分画像、 61〜63:カメラ固定の追尾
画像、64〜66:カメラ変位による追尾画像。
1 surveillance camera, 2 image input means,
3 image storage means, 4 template setting means,
5 template searching means, 6 best matching point extracting means,
7 image difference extracting means, 8 center of gravity extracting means, 9 tracking mode selecting means, 10
Tracking point determination means, 11 Tracking point information storage means, 12 Camera control means, 15 Image of previous frame, 16 Image of current frame, 17 Template, 19 Movement vector, 20 Difference result, 21 Center of gravity position, 22 Movement vector halved 23, a vector obtained by adding half of the movement vector of the tracking point to the position of the center of gravity, 30 a template when the target is clear, 32 a score result of template matching, 35 a template when the target is unclear,
37 Template matching score result, 40A
Camera control unnecessary area, 40B Camera control required area,
43 Image at the zoom wide end, 45 Image at the telephoto end of the zoom, 58 Background image previously captured, 59 Current image, 60 Difference image, 61 to 63: Tracking image fixed to the camera, 64 to 66: Tracking image by camera displacement.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 鷲見 和彦 東京都千代田区丸の内二丁目2番3号 三 菱電機株式会社内 Fターム(参考) 5B057 AA19 BA02 CH18 DA07 DC06 DC32 5C054 CF06 CG01 CG04 CG06 FC01 FC12 FC13 FC14 GB01 GB12 HA18 HA31 5L096 BA02 CA02 FA60 GA08 HA05 JA09  ────────────────────────────────────────────────── ─── Continuing from the front page (72) Inventor Kazuhiko Sumi 2-3-2 Marunouchi, Chiyoda-ku, Tokyo F-term in Mitsubishi Electric Corporation (reference) 5B057 AA19 BA02 CH18 DA07 DC06 DC32 5C054 CF06 CG01 CG04 CG06 FC01 FC12 FC13 FC14 GB01 GB12 HA18 HA31 5L096 BA02 CA02 FA60 GA08 HA05 JA09

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 連続して画像を取り込み可能で、かつ変
位可能なカメラと、前記画像を処理して移動物体を発見
する画像処理部と、前記移動物体の移動に応じて前記カ
メラを変位させるカメラ制御手段とを有する画像監視装
置であって、 前記画像処理部は、 前記連続する画像の前フレームの画像における前記移動
物体を含む画像領域をテンプレートとして記憶するテン
プレート設定手段と、 現フレームの画像中で前記テンプレートと類似する画像
領域を探索し、前記テンプレートに代わる新たなテンプ
レートとして更新記憶するテンプレート探索手段と、 前記連続する画像間で差分処理を行うことにより、移動
物体を抽出する画像差分抽出手段と、 前記テンプレート探索手段の探索結果と、前記画像差分
抽出手段の差分結果の信頼度を評価して、その信頼度に
応じて前記カメラの追尾モードを前記テンプレート探索
手段の結果を用いる第1の追尾モード、前記画像差分抽
出手段の結果を用いる第2の追尾モード、その両方の結
果を用いる第3のモードのいずれとするかを選択する追
尾モード選択手段と、 前記選択した追尾モードに応じて追尾点を決定する追尾
点決定手段とを備えるものであることを特徴とする画像
監視装置。
A camera capable of continuously capturing and displacing an image, an image processing unit for processing the image to find a moving object, and displacing the camera in accordance with the movement of the moving object An image monitoring device comprising: a camera control unit; wherein the image processing unit includes: a template setting unit configured to store, as a template, an image area including the moving object in an image of a previous frame of the continuous image; and an image of a current frame. A template searching means for searching for an image area similar to the template in the image area and updating and storing the image area as a new template instead of the template; and performing a difference processing between the continuous images to extract a moving object. Means for evaluating the reliability of the search result of the template searching means and the difference result of the image difference extracting means The first tracking mode using the result of the template searching means, the second tracking mode using the result of the image difference extracting means, and the second tracking mode using the result of the image difference extracting means are performed according to the reliability. 3. An image monitoring apparatus comprising: a tracking mode selection unit that selects any one of the three modes; and a tracking point determination unit that determines a tracking point according to the selected tracking mode.
【請求項2】 カメラ制御手段は、追尾点決定手段が決
定した追尾点が前記画像内に設けたカメラ制御不要領域
内に位置するようにカメラを制御するものであることを
特徴とする請求項1に記載の画像監視装置。
2. The camera control means for controlling the camera such that the tracking point determined by the tracking point determination means is located within a camera control unnecessary area provided in the image. 2. The image monitoring device according to 1.
【請求項3】 追尾モード選択手段が、第3の追尾モー
ドを選択したとき、 追尾点決定手段は画像差分抽出手段の結果から求めた追
尾点の位置に、テンプレート探索手段により得られる追
尾点の移動ベクトルの半分の大きさのベクトルを加えた
位置を新しい追尾点とすることを特徴とする請求項1に
記載の画像監視装置。
3. When the tracking mode selecting means selects the third tracking mode, the tracking point determining means sets the tracking point obtained by the template searching means at the position of the tracking point obtained from the result of the image difference extracting means. 2. The image monitoring apparatus according to claim 1, wherein a position to which a vector having a half size of the movement vector is added is set as a new tracking point.
【請求項4】 追尾モード選択手段は、画像差分抽出手
段の差分出力画像のエッジ部の画面占有率があらかじめ
定めた所定のレベルより大きいときはカメラが変位中に
得られた画像であると判定して第1の追尾モードを選択
するようにしたことを特徴とする請求項1に記載の画像
監視装置。
4. The tracking mode selecting means determines that the image is obtained during the displacement of the camera when the screen occupancy of the edge portion of the difference output image of the image difference extracting means is larger than a predetermined level. 2. The image monitoring device according to claim 1, wherein the first tracking mode is selected.
【請求項5】 追尾モード選択手段は、テンプレート探
索手段のスコアがあらかじめ定めた所定のレベルより大
きいときはテンプレート探索の信頼度が低いとして第2
の追尾モードを選択するようにしたことを特徴とする請
求項1に記載の画像監視装置。
5. The tracking mode selecting means determines that the reliability of the template search is low when the score of the template search means is larger than a predetermined level.
The image monitoring apparatus according to claim 1, wherein a tracking mode is selected.
【請求項6】 カメラ制御手段はこのカメラの画面内の
外側に接する範囲にカメラ制御必要領域を設定し、追尾
点決定手段が決定した追尾点が前記カメラ制御必要領域
内にあるとき、前記カメラを変位して前記追尾点がほぼ
前記画面の中心位置に来るよう制御することを特徴とす
る請求項1に記載の画像監視装置。
6. A camera control means sets a camera control required area in a range in contact with the outside of a screen of the camera, and when the tracking point determined by the tracking point determination means is within the camera control required area, the camera control means sets the camera control required area. 2. The image monitoring apparatus according to claim 1, wherein the tracking point is controlled so that the tracking point is substantially at the center of the screen.
【請求項7】 追尾モード選択手段は、追尾対象を見失
ったとき、見失う直前の追尾対象の方向を中心に、あら
かじめ定めた所定の角度幅でカメラを左右又は上下に変
位させる発見モードを備えたことを特徴とする請求項1
〜4のいずれかに記載の画像監視装置。
7. A tracking mode selection means includes a discovery mode for displacing a camera left and right or up and down at a predetermined angular width around a direction of the tracking target immediately before the tracking target is lost when the tracking target is lost. 2. The method according to claim 1, wherein
The image monitoring device according to any one of claims 1 to 4,
JP25042699A 1999-09-03 1999-09-03 Image monitoring device Expired - Lifetime JP3644668B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25042699A JP3644668B2 (en) 1999-09-03 1999-09-03 Image monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25042699A JP3644668B2 (en) 1999-09-03 1999-09-03 Image monitoring device

Publications (2)

Publication Number Publication Date
JP2001076156A true JP2001076156A (en) 2001-03-23
JP3644668B2 JP3644668B2 (en) 2005-05-11

Family

ID=17207719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25042699A Expired - Lifetime JP3644668B2 (en) 1999-09-03 1999-09-03 Image monitoring device

Country Status (1)

Country Link
JP (1) JP3644668B2 (en)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003346123A (en) * 2002-05-23 2003-12-05 Av Planning Center:Kk Method and device for counting articles
JP2005312018A (en) * 2004-03-23 2005-11-04 Canon Inc Monitoring system, imaging control apparatus, imaging setting apparatus, control method, and program
JP2005346425A (en) * 2004-06-03 2005-12-15 Matsushita Electric Ind Co Ltd Automatic tracking system and automatic tracking method
US6993158B2 (en) 2001-08-07 2006-01-31 Samsung Electronic Co., Ltd. Device for and method of automatically tracking a moving object
JP2006311099A (en) * 2005-04-27 2006-11-09 Matsushita Electric Ind Co Ltd Device and method for automatic tracking
WO2008038606A1 (en) * 2006-09-25 2008-04-03 Panasonic Corporation Animal body automatic tracking device
JP2009038777A (en) * 2007-08-06 2009-02-19 Chiba Univ Automatic tracking apparatus
JP2010157924A (en) * 2008-12-26 2010-07-15 Canon Inc Subject tracking apparatus, method for controlling the same, imaging apparatus, display apparatus and program
EP2211306A1 (en) 2009-01-23 2010-07-28 Casio Computer Co., Ltd. Imaging apparatus, subject tracking method and storage medium
JP2011077617A (en) * 2009-09-29 2011-04-14 Saxa Inc Moving body imaging apparatus
JP2011519527A (en) * 2008-04-14 2011-07-07 トムソン ライセンシング Technology that automatically tracks objects
JP2011138226A (en) * 2009-12-25 2011-07-14 Canon Inc Object tracking device, method for controlling the same and program
JP2011220904A (en) * 2010-04-13 2011-11-04 Advanced Telecommunication Research Institute International Position detection system
JP2012058854A (en) * 2010-09-06 2012-03-22 Nippon Telegr & Teleph Corp <Ntt> Gesture recognition device and method
US8411997B2 (en) 2008-01-31 2013-04-02 Casio Computer Co., Ltd. Image capture device and program storage medium
JP2017028655A (en) * 2015-07-28 2017-02-02 日本電気株式会社 Tracking system, tracking method and tracking program
JP2017121042A (en) * 2015-12-08 2017-07-06 キヤノン株式会社 Subject tracking apparatus, control method of the same, control program, and imaging apparatus
WO2018105246A1 (en) * 2016-12-07 2018-06-14 ソニーセミコンダクタソリューションズ株式会社 Image sensor
WO2018105248A1 (en) * 2016-12-07 2018-06-14 ソニーセミコンダクタソリューションズ株式会社 Image sensor
JP2020109579A (en) * 2019-01-07 2020-07-16 株式会社デンソーテン Adhering matter detection device and adhering matter detection method
CN112929567A (en) * 2021-01-27 2021-06-08 咪咕音乐有限公司 Shooting position determining method, electronic device and storage medium
WO2021168749A1 (en) * 2020-02-27 2021-09-02 Qualcomm Incorporated Dynamic adjustment of a region of interest for image capture

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6993158B2 (en) 2001-08-07 2006-01-31 Samsung Electronic Co., Ltd. Device for and method of automatically tracking a moving object
KR100792283B1 (en) * 2001-08-07 2008-01-07 삼성전자주식회사 Device and method for auto tracking moving object
JP2003346123A (en) * 2002-05-23 2003-12-05 Av Planning Center:Kk Method and device for counting articles
JP2005312018A (en) * 2004-03-23 2005-11-04 Canon Inc Monitoring system, imaging control apparatus, imaging setting apparatus, control method, and program
JP4578864B2 (en) * 2004-06-03 2010-11-10 パナソニック株式会社 Automatic tracking device and automatic tracking method
JP2005346425A (en) * 2004-06-03 2005-12-15 Matsushita Electric Ind Co Ltd Automatic tracking system and automatic tracking method
JP2006311099A (en) * 2005-04-27 2006-11-09 Matsushita Electric Ind Co Ltd Device and method for automatic tracking
JP2008079216A (en) * 2006-09-25 2008-04-03 Matsushita Electric Ind Co Ltd Automatic moving object tracing apparatus
JP4558696B2 (en) * 2006-09-25 2010-10-06 パナソニック株式会社 Automatic body tracking device
WO2008038606A1 (en) * 2006-09-25 2008-04-03 Panasonic Corporation Animal body automatic tracking device
US8144199B2 (en) 2006-09-25 2012-03-27 Panasonic Corporation Moving object automatic tracking apparatus
JP2009038777A (en) * 2007-08-06 2009-02-19 Chiba Univ Automatic tracking apparatus
US8411997B2 (en) 2008-01-31 2013-04-02 Casio Computer Co., Ltd. Image capture device and program storage medium
US9741129B2 (en) 2008-04-14 2017-08-22 Gvbb Holdings S.A.R.L. Technique for automatically tracking an object by a camera based on identification of an object
JP2011519527A (en) * 2008-04-14 2011-07-07 トムソン ライセンシング Technology that automatically tracks objects
US10489917B2 (en) 2008-04-14 2019-11-26 Gvbb Holdings S.A.R.L. Technique for automatically tracking an object in a defined tracking window by a camera based on identification of an object
JP2010157924A (en) * 2008-12-26 2010-07-15 Canon Inc Subject tracking apparatus, method for controlling the same, imaging apparatus, display apparatus and program
EP2211306A1 (en) 2009-01-23 2010-07-28 Casio Computer Co., Ltd. Imaging apparatus, subject tracking method and storage medium
JP2011077617A (en) * 2009-09-29 2011-04-14 Saxa Inc Moving body imaging apparatus
JP2011138226A (en) * 2009-12-25 2011-07-14 Canon Inc Object tracking device, method for controlling the same and program
JP2011220904A (en) * 2010-04-13 2011-11-04 Advanced Telecommunication Research Institute International Position detection system
JP2012058854A (en) * 2010-09-06 2012-03-22 Nippon Telegr & Teleph Corp <Ntt> Gesture recognition device and method
JP2017028655A (en) * 2015-07-28 2017-02-02 日本電気株式会社 Tracking system, tracking method and tracking program
JP2017121042A (en) * 2015-12-08 2017-07-06 キヤノン株式会社 Subject tracking apparatus, control method of the same, control program, and imaging apparatus
WO2018105246A1 (en) * 2016-12-07 2018-06-14 ソニーセミコンダクタソリューションズ株式会社 Image sensor
WO2018105248A1 (en) * 2016-12-07 2018-06-14 ソニーセミコンダクタソリューションズ株式会社 Image sensor
US10904429B2 (en) 2016-12-07 2021-01-26 Sony Semiconductor Solutions Corporation Image sensor
JP2020109579A (en) * 2019-01-07 2020-07-16 株式会社デンソーテン Adhering matter detection device and adhering matter detection method
JP7274867B2 (en) 2019-01-07 2023-05-17 株式会社デンソーテン Attached matter detection device and attached matter detection method
WO2021168749A1 (en) * 2020-02-27 2021-09-02 Qualcomm Incorporated Dynamic adjustment of a region of interest for image capture
CN115136580A (en) * 2020-02-27 2022-09-30 高通股份有限公司 Dynamic adjustment of regions of interest for image capture
CN112929567A (en) * 2021-01-27 2021-06-08 咪咕音乐有限公司 Shooting position determining method, electronic device and storage medium
CN112929567B (en) * 2021-01-27 2023-04-28 咪咕音乐有限公司 Shooting position determining method, electronic device and storage medium

Also Published As

Publication number Publication date
JP3644668B2 (en) 2005-05-11

Similar Documents

Publication Publication Date Title
JP2001076156A (en) Device for monitoring image
KR102126513B1 (en) Apparatus and method for determining the pose of the camera
US10948297B2 (en) Simultaneous location and mapping (SLAM) using dual event cameras
JP4241742B2 (en) Automatic tracking device and automatic tracking method
KR101725060B1 (en) Apparatus for recognizing location mobile robot using key point based on gradient and method thereof
JP4931218B2 (en) Imaging apparatus, object detection method, and attitude parameter calculation method
EP2460629B1 (en) Control method for localization and navigation of mobile robot and mobile robot using same
CN109829933B (en) Image target tracking method and device
JP5875453B2 (en) Automatic tracking device
JP2017212581A (en) Tracker, tracking method and program
CN108198199B (en) Moving object tracking method, moving object tracking device and electronic equipment
US20050052533A1 (en) Object tracking method and object tracking apparatus
JP2008176504A (en) Object detector and method therefor
Chereau et al. Robust motion filtering as an enabler to video stabilization for a tele-operated mobile robot
JP4699056B2 (en) Automatic tracking device and automatic tracking method
JP6798609B2 (en) Video analysis device, video analysis method and program
Sun et al. An object tracking and global localization method using omnidirectional vision system
KR102411612B1 (en) Thermal imaging monitoring system using multiple cameras
JP3828096B2 (en) Object tracking device
CN113011212B (en) Image recognition method and device and vehicle
JP2002027480A (en) Dynamic image processing method and apparatus thereof
CN113344981A (en) Pose data processing method and device and electronic equipment
JP2726180B2 (en) Correlation tracking device
JPH03238566A (en) Vanishing point detection device
JP5178905B2 (en) Imaging apparatus, object detection method, and attitude parameter calculation method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050131

R151 Written notification of patent or utility model registration

Ref document number: 3644668

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080210

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090210

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100210

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100210

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110210

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120210

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130210

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130210

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140210

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term