JP2006012013A - Mobile object tracking device - Google Patents

Mobile object tracking device Download PDF

Info

Publication number
JP2006012013A
JP2006012013A JP2004191176A JP2004191176A JP2006012013A JP 2006012013 A JP2006012013 A JP 2006012013A JP 2004191176 A JP2004191176 A JP 2004191176A JP 2004191176 A JP2004191176 A JP 2004191176A JP 2006012013 A JP2006012013 A JP 2006012013A
Authority
JP
Japan
Prior art keywords
moving object
tracking
moving
region
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004191176A
Other languages
Japanese (ja)
Inventor
雅弘 ▲ハマ▼田
Masahiro Hamada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiwa Electric Mfg Co Ltd
Original Assignee
Seiwa Electric Mfg Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiwa Electric Mfg Co Ltd filed Critical Seiwa Electric Mfg Co Ltd
Priority to JP2004191176A priority Critical patent/JP2006012013A/en
Publication of JP2006012013A publication Critical patent/JP2006012013A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To sufficiently exhibit the function of mobile object tracking without performing parameter adjustment. <P>SOLUTION: This device comprises a mobile object area extraction part 41 extracting a mobile object area A from an image taken by an ITV camera 200; a parameter acquisition part 42 determining and setting, based on the mobile object area A, an approach detection area B and an object tracking template C necessary for tracking a mobile object; an object tracking part 31 tracking the mobile object in the taken image by use of the template; a brightness environment monitoring part 53 monitoring the change in brightness in the vicinity of a shooting position; a parameter adjustment part 43 re-operating the parameter acquisition part 42 in case that the brightness in the vicinity of the shooting position is changed; an angle-of-view monitoring part 52 monitoring the change in angle of view of the ITV camera 200; a mobile object area monitoring part 51 monitoring the change in number of the mobile object areas A; and a mobile object area adjustment part 44 re-operating the mobile object area extraction part 41 in case that the angle of view or the number of the mobile object areas A is changed. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は例えば道路上の車両交通流や道路の人の流れ等を把握するのに利用される移動物体追跡装置に関する。   The present invention relates to a moving object tracking device used for grasping, for example, a vehicle traffic flow on a road and a flow of people on the road.

この種の移動物体追跡装置は、カメラの撮影画面からテンプレートマッチングにより移動物体を認識して個別に追跡する等の機能を有した装置であって、移動物体が進入してきたことを検出し、その一部又は全部を含めた部分を初期テンプレートとして扱う物体検出手段と、次の撮影画面の中からテンプレートマッチングにより類似度の高い部分を移動後の移動物体として把握し、これを繰り返し行って移動物体の追跡を行う物体追跡手段とを有した基本構成となっている(例えば、特許文献1 等がある) 。
特開2002−312890号公報
This type of moving object tracking device is a device having a function of recognizing a moving object by template matching from a shooting screen of a camera and individually tracking it, and detecting that a moving object has entered, Object detection means that handles a part or all of the part as an initial template, and a part with a high degree of similarity from the next shooting screen by template matching is recognized as a moving object after moving, and this is repeated to move the moving object It has a basic configuration including an object tracking means for tracking (for example, Patent Document 1).
JP 2002-31890 A

しかしながら、上記従来例による場合、装置設置時に行うことが必要なパラメータ調整に関しては、サンプル画像を用いて手順化された手作業により行っているのが現状であり、この作業が煩わしいという問題がある。特に、外乱による変動が発生したり対象移動物体の特徴が不均一であったりすると、パラメータ調整に多大な時間を要する。また、手作業で行っている以上、作業者間のバラツキが大きい。しかも追跡に影響する全てのサンプル画像を予め準備しておくことも不可能であり、そのため、例えば、落雷の発生や照明の球切れ等の突発的な状況に対応することが非常に困難である。これらの点が装置の追跡性能の向上を図る上で大きな障害になっている。   However, in the case of the above-described conventional example, the parameter adjustment required to be performed at the time of installation of the apparatus is currently performed manually by using a sample image as a procedure, and there is a problem that this operation is troublesome. . In particular, if fluctuation due to disturbance occurs or the characteristics of the target moving object are non-uniform, it takes a long time to adjust the parameters. Moreover, since it is performed manually, the variation between workers is large. Moreover, it is impossible to prepare in advance all sample images that affect the tracking, and it is therefore very difficult to cope with sudden situations such as lightning strikes or lighting breaks. . These points are major obstacles in improving the tracking performance of the apparatus.

また、運用時には撮影用カメラの方向を厳重に管理することも必要不可欠である。撮影用カメラの向きが変わるとパラメータ調整を再度行うことが必要だからである。さらに、同装置は旋回式のカメラに適用することは非常に困難であり、テンプレートマッチング方式を用いている以上、演算処理の負担が大きく、処理速度の向上を図ると装置自体が大幅なコスト高になるという別の欠点もある。   It is also essential to strictly manage the direction of the shooting camera during operation. This is because it is necessary to perform parameter adjustment again when the direction of the photographing camera changes. In addition, it is very difficult to apply this device to a revolving camera. As long as the template matching method is used, the processing load is heavy, and the improvement of the processing speed increases the cost of the device itself. There is another drawback of becoming.

本発明は上記した背景の下で創作されたものであり、その主たる目的とするところは、テンプレートのパラメータ調整を手作業で行うことなく装置本来の機能を十分に発揮させることが可能な移動物体追跡装置を提供することにある。   The present invention was created under the above-described background, and the main object of the present invention is a moving object that can fully perform the original function of the apparatus without manually adjusting the parameters of the template. It is to provide a tracking device.

本発明に係る移動物体追跡装置は、移動物体を撮影するカメラから入力された画像データを順次記録する画像メモリと、画像メモリ上の画像データに基づいて撮影画像から反復的な移動を繰り返す移動物体の軌跡である移動物体領域を抽出する移動物体領域抽出部と、移動物体領域に基づいて移動物体を追跡するのに必要な進入検出領域及び物体追跡テンプレートのパラメータを求めて設定するパラメータ取得部と、画像メモリ上の画像データに基づいて撮影画像中の移動物体を当該進入検出領域及び物体追跡テンプレートを用いて追跡してその位置情報を求める物体追跡部と、撮影箇所付近の明度の変化を監視する明度環境監視部と、撮影箇所付近の明度に変化が現れたときパラメータ取得部を再動作させるパラメータ調整部と、カメラ画角操作機から入力された画角信号に基づいてカメラの画角変化を監視する画角監視部と、移動物体領域抽出部により抽出された移動物体領域の数の変化を監視する移動物体領域監視部と、少なくともカメラの画角変化又は移動物体領域の数の変化が現れたとき移動物体領域抽出部及びパラメータ取得部を再動作させる移動物体領域調整部とを具備している。   A moving object tracking device according to the present invention includes an image memory that sequentially records image data input from a camera that captures a moving object, and a moving object that repeats repetitive movement from a captured image based on the image data on the image memory. A moving object region extracting unit that extracts a moving object region that is a trajectory of the object, a parameter acquiring unit that obtains and sets parameters of an entry detection region and an object tracking template necessary for tracking the moving object based on the moving object region, and , Tracking the moving object in the captured image based on the image data in the image memory using the entry detection area and the object tracking template to obtain the position information, and monitoring the change in brightness near the shooting location A brightness environment monitoring unit, a parameter adjustment unit that re-activates the parameter acquisition unit when there is a change in brightness near the shooting location, and a camera image An angle-of-view monitoring unit that monitors a change in the angle of view of the camera based on an angle-of-view signal input from the operating device, and a moving object region monitoring unit that monitors a change in the number of moving object regions extracted by the moving object region extraction unit And a moving object region adjusting unit that re-activates the moving object region extracting unit and the parameter acquiring unit when a change in the angle of view of the camera or a change in the number of moving object regions appears.

好ましくは、画像メモリ上の画像データに基づいて前記撮影画像中の移動物体が停止しているか否かを判定する停止判定部と、少なくとも撮影画像中に移動物体が存在していること又は移動物体が停止していることを外部出力する出力部とを構成的に付加するようにすると良い。   Preferably, a stop determination unit that determines whether or not the moving object in the captured image is stopped based on image data on the image memory, and that at least the moving object is present in the captured image or the moving object It may be configured to add an output unit for outputting that the output is stopped.

移動物体領域抽出部については、移動物体領域を抽出するに当たり、時間差分画像を順次求める一方、一定時間前の時間差分画像と現在の時問差分画像との間で共通する部分を移動物体領域候補として求め、当該移動物体領域候補の各画素に対して一定時間に候補となった回数を求め、候補となった回数がしきい値を超える画素を選別し、当該画素により構成される領域を移動物体領域とする機能を有した構成のものを用いると良い。   When extracting the moving object area, the moving object area extraction unit sequentially obtains the time difference image, while the common part between the time difference image of a predetermined time and the current time difference image is determined as the moving object area candidate. The number of candidates for the moving object region candidate for a certain time is obtained for each pixel of the moving object region candidate, the pixel whose number of candidates exceeds the threshold is selected, and the region constituted by the pixel is moved. A structure having a function as an object region may be used.

また、移動物体領域抽出部が移動物体の移動方向をオプティカルフローにより求める機能を有し且つ進入検出領域及び物体追跡テンプレートが長方形である場合、パラメータ取得部については、長方形の進入検出領域のパラメータに関して、移動物体領域を移動物体の移動方向に複数に分割し、分割された領域毎に移動物体の追跡を開始する進入検出領域をその中心位置が移動物体領域の移動方向の中心線上に略来る位置に各々設定し、当該進入検出領域の幅を当該移動物体領域の幅より若干大きめ、当該進入検出領域の長さを当該移動物体領域の縦横比に応じて各々設定する一方、長方形の物体追跡テンプレートのパラメータに関して、物体追跡テンプレートの中心位置が移動物体の中心に略来る位置に設定し、当該物体追跡テンプレートの幅を当該移動物体領域の幅と同じ、当該物体追跡テンプレートの長さをその幅に比べて小さく設定する構成となっているものを用いると良い。   Further, when the moving object region extraction unit has a function of obtaining the moving direction of the moving object by optical flow, and the approach detection region and the object tracking template are rectangular, the parameter acquisition unit is related to the parameters of the rectangular approach detection region. The moving object area is divided into a plurality of moving object movement directions, and the position of the approach detection area for starting the tracking of the moving object for each of the divided areas is approximately located on the center line of the moving object area in the moving direction. And setting the width of the approach detection area to be slightly larger than the width of the moving object area, and setting the length of the approach detection area according to the aspect ratio of the moving object area. With respect to the parameters of the object tracking template, the center position of the object tracking template is set to a position approximately coming to the center of the moving object. Same width as the width of the moving object region, the length of the object tracking templates may be used those which is configured to set smaller than its width.

より好ましくは、テンプレート画像を所定画素毎に間引いた間引きテンプレートを物体追跡テンプレートとして用い、その間引き割合を移動物体領域の幅に対応して設定する機能を有した構成となっているものを用いることが望ましい。   More preferably, a thinning template obtained by thinning a template image for each predetermined pixel is used as an object tracking template, and a structure having a function of setting the thinning ratio corresponding to the width of the moving object region is used. Is desirable.

物体追跡部については、移動物体領域の幅が所定値以下になった位置で当該移動物体の追跡を終了する及び/又は移動物体領域上の移動物体の追跡代表点が当該移動物体領域から外れたとき当該移動物体の追跡を中断させる機能を有した構成のものを用いることが望ましい。   As for the object tracking unit, tracking of the moving object is finished at a position where the width of the moving object area is equal to or smaller than a predetermined value and / or the tracking representative point of the moving object on the moving object area is out of the moving object area. It is sometimes desirable to use a configuration having a function of interrupting tracking of the moving object.

また、追跡中の移動物体の移動ベクトルを随時求め、当該移動べクトルの推移から次の移動先を推定し、移動物体を探索する範囲を当該移動先を中心とした範囲に設定する機能を有した構成のものを用いることが望ましい。   It also has a function to obtain the movement vector of the moving object being tracked at any time, estimate the next movement destination from the transition of the movement vector, and set the range to search for the moving object to the range centered on the movement destination. It is desirable to use the one having the structure described above.

以上、本発明に係る移動物体追跡装置による場合、進入検出領域及び物体追跡テンプレートのパラメータが自動的に調整されることから、人手によりパラメータ調整を行うことなく装置本来の機能を十分に発揮させることが可能になる。また、撮影箇所付近の明度の変化、カメラの画角変化又は移動物体の状況の変化等に応じて、そのパラメータがその都度再調整されることから、装置の追跡精度が高くなる。しかもカメラとして旋回式のものを用いることも可能であり、装置の適用範囲が広くなる。それ故、装置の高性能化を図る上で大きな意義がある。   As described above, in the case of the moving object tracking device according to the present invention, the parameters of the approach detection area and the object tracking template are automatically adjusted, so that the original function of the device can be sufficiently exerted without manually adjusting parameters. Is possible. In addition, since the parameters are readjusted each time according to a change in brightness near the shooting location, a change in the angle of view of the camera, a change in the situation of the moving object, and the like, the tracking accuracy of the apparatus increases. In addition, it is possible to use a swivel camera, which widens the application range of the apparatus. Therefore, there is a great significance in improving the performance of the apparatus.

以下、本発明の実施形態を図面を参照して説明する。図1は移動物体追跡装置の構成図、図2は同装置のフローチャート、図3は移動物体領域抽出のアルゴリズムを画像処理の流れで表した説明図、図4は抽出された移動物体領域を表す模式図、図5は移動物体領域上の移動物体の移動方向を求める方法を説明するための説明図、図6は移動物体領域に進入検出領域が設定される様子を示す模式図、図7は物体追跡テンプレートの形状を示す図、図8は移動物体領域に物体追跡テンプレートのパラメータが設定される様子を示す模式図、図9は移動物体の移動ベクトルの推移から予測された次の移動ベクトルを示す図、図10は予測ベクトルとテンプレート探索範囲との関係を示す図、図11は間引きテンプレートを示す図、図12は間引きテンプレートによる探索を示す模式図である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram of the moving object tracking device, FIG. 2 is a flowchart of the moving object tracking device, FIG. 3 is an explanatory diagram showing the moving object region extraction algorithm in the flow of image processing, and FIG. 4 shows the extracted moving object region. FIG. 5 is an explanatory diagram for explaining a method for obtaining a moving direction of a moving object on the moving object region, FIG. 6 is a schematic diagram showing a state where an approach detection region is set in the moving object region, and FIG. FIG. 8 is a diagram showing the shape of the object tracking template, FIG. 8 is a schematic diagram showing how the parameters of the object tracking template are set in the moving object region, and FIG. 9 shows the next movement vector predicted from the transition of the movement vector of the moving object. FIG. 10 is a diagram showing a relationship between a prediction vector and a template search range, FIG. 11 is a diagram showing a thinning template, and FIG. 12 is a schematic diagram showing a search using a thinning template.

ここに掲げる移動物体追跡装置100は、例えば、道路上の車両交通流や通路の人の流れを測定するのに使用される装置であって、図1に示されているように道路沿いや通路天井等に設置されたITVカメラ200から出力された画像データ及びITVカメラ200の画角を調整するカメラ画角調整機300から出力された画角信号が入力されており、これらの入力データに基づいて、ITVカメラ200により撮影された移動物体を個別に追跡するとともに、移動物体が監視範囲に存在することやその動きが停止することを検知する等の機能を有している。   The moving object tracking device 100 described here is, for example, a device used to measure the vehicle traffic flow on the road and the flow of people in the passage, and as shown in FIG. The image data output from the ITV camera 200 installed on the ceiling or the like and the angle-of-view signal output from the camera angle-of-view adjuster 300 that adjusts the angle of view of the ITV camera 200 are input. Based on these input data In addition, the moving object photographed by the ITV camera 200 is individually tracked, and functions such as detecting that the moving object exists in the monitoring range and that its movement stops are included.

同装置100は、ITVカメラ200から入力された画像を周期的に取り込んでA/D変換等を行う画像取込部10と、デジタル値に変換された画像データを順次保存する画像メモリ20と、画像メモリ20上の画像データが順次入力されたCPU等であってそのソフトウエアを順次実行して種々の機能を発揮する機能ブロック30、40、50と、装置としての検知結果を外部出力する出力部60とを備えた基本構成となっている。   The apparatus 100 includes an image capturing unit 10 that periodically captures an image input from the ITV camera 200 and performs A / D conversion, an image memory 20 that sequentially stores image data converted into digital values, A CPU or the like to which image data on the image memory 20 is sequentially input, and its function blocks 30, 40, and 50 that perform various functions by sequentially executing the software, and an output that outputs the detection results as an apparatus to the outside The basic configuration includes the unit 60.

機能ブロック30〜50は、説明の便宜上、構成に含めて記載しているものであり、具体的には以下のような機能を有している。即ち、機能ブロック30は物体追跡部31及び停止判定部32から構成されている。機能ブロック40は移動物体領域抽出部41、パラメータ取得部42、パラメータ調整部43と呼び移動物体領域調整部44から構成されている。機能ブロック50は移動物体領域監視部51、画角監視部52及び明度環境監視部53から構成されている。なお、スイッチや各種設定を行うための操作入力部については図示省略されている。以下、各部の詳細を説明する。   The functional blocks 30 to 50 are included in the configuration for convenience of explanation, and specifically have the following functions. That is, the functional block 30 includes an object tracking unit 31 and a stop determination unit 32. The functional block 40 includes a moving object region extraction unit 41, a parameter acquisition unit 42, a parameter adjustment unit 43, and a moving object region adjustment unit 44. The functional block 50 includes a moving object region monitoring unit 51, a field angle monitoring unit 52, and a brightness environment monitoring unit 53. A switch and an operation input unit for performing various settings are not shown. Details of each part will be described below.

移動物体領域抽出部41は、画像メモリ20上の画像データに基づいて撮影画像から反復的な移動を繰り返す移動物体の軌跡である移動物体領域A(図4参照)を抽出するとともに移動物体の移動方向をオプティカルフローにより求める基本構成となっている。移動物体領域を抽出するに当たっては、時間差分画像を順次求める一方、一定時間前の時間差分画像と現在の時問差分画像との間で共通する部分を移動物体領域候補として求め、この移動物体領域候補の各画素に対して一定時間に候補となった回数を求め、候補となった回数がしきい値を超える画素を選別し、この画素により構成される領域を移動物体領域とするようになっている。   The moving object area extraction unit 41 extracts a moving object area A (see FIG. 4) that is a locus of a moving object that repeats repetitive movement from the captured image based on the image data on the image memory 20, and moves the moving object. It is a basic configuration for determining the direction by optical flow. In extracting the moving object area, the time difference image is sequentially obtained, while the common part between the time difference image of a predetermined time and the current time difference image is obtained as a moving object area candidate. For each candidate pixel, the number of times that the candidate has become a candidate for a certain period of time is obtained, the pixels whose number of candidates has exceeded the threshold value are selected, and the region constituted by these pixels is set as the moving object region. ing.

即ち、撮影画像中の移動物体領域Aの抽出には、移動物体が移動している可能性の高い画素を画像メモリ20上に一定量蓄積(投票)するという方法により行う。移動物体を検出するに当たっては、周囲明度環境の変化に対して安定な時間差分をベースとして行っている。ただ、時間差分のみで移動物体を検出すると、対象外の物体の揺れや影、影像信号ノイズの影響を受け易いので、連続する時間差分の重なり部分だけを投票するようにしている。このような処理の方式において、画像中に映し出された移動物体が縦方向に移動している場合、時間差分が重なり易い画面の奥の方(撮影画像中の上部分)では投票効率が良く、逆に画面の手前の方(撮影画像中の下部分)では悪いことから、この投票の格差を無くすために1回の投票の割合を画面の奥側で小さく、手前で大きくなるように重み付けをするようにしている。   That is, the extraction of the moving object region A in the captured image is performed by a method of accumulating (voting) a certain amount of pixels on the image memory 20 that are likely to be moving. In detecting a moving object, the detection is performed based on a time difference that is stable against changes in ambient lightness environment. However, if a moving object is detected using only the time difference, it is likely to be affected by shaking, shadows, and image signal noise of non-target objects, so only overlapping portions of successive time differences are voted. In such a processing method, when the moving object projected in the image is moving in the vertical direction, the voting efficiency is good at the back of the screen where the time difference is likely to overlap (upper part in the captured image), On the other hand, it is bad at the front of the screen (lower part of the photographed image), so in order to eliminate this disparity, weighting is performed so that the ratio of one vote is small at the back of the screen and large at the front. Like to do.

具体的な処理の流れは図3に示す通りである。画像メモリ20上の画像データをここでは66ms毎に順次読み出す。これらの画像データの各画像を入力画像1、2、3、4、5、6、7・・・として表すこととする。そして、読み出した画像データに対して次のように画像処理を行う。   The specific processing flow is as shown in FIG. Here, the image data on the image memory 20 is sequentially read out every 66 ms. These images are represented as input images 1, 2, 3, 4, 5, 6, 7,. Then, image processing is performed on the read image data as follows.

まず、入力画像1及び入力画像2を差分して濃淡画像1を求め、その後、二値化処理して2値画像1を求め、ノイズ除去して2値画像2を求める。入力画像2及び入力画像3に対しても同様の処理を行い2値画像2’を求める。そして2値画像2と2値画像2’とを論理積して2値画像3を求め、その後、ノイズ除去を行って2値画像4を求め、膨張・収縮の処理を行って2値画像5を求める。   First, the grayscale image 1 is obtained by subtracting the input image 1 and the input image 2, and then binarization processing is performed to obtain the binary image 1, and noise is removed to obtain the binary image 2. Similar processing is performed on the input image 2 and the input image 3 to obtain a binary image 2 '. Then, the binary image 2 and the binary image 2 ′ are logically obtained to obtain the binary image 3, and then the noise is removed to obtain the binary image 4, and the expansion / contraction process is performed to obtain the binary image 5 Ask for.

そして、上記した重み付けを行うために予め用意しておいた濃淡画像2(重み画像)と2値画像5とを論理積して濃淡画像33を求め、その後、最大フィルタの処理を行って濃淡画像4を求め、最小フィルタの処理を行って濃淡画像5を求める。   Then, the grayscale image 2 (weighted image) and the binary image 5 prepared in advance for performing the above weighting are ANDed to obtain the grayscale image 33, and then the maximum filter processing is performed to perform the grayscale image. 4 is obtained, and the gray level image 5 is obtained by performing the processing of the minimum filter.

入力画像1、2、3に対して行った上記一連の処理にて生成された濃淡画像5の明度値と、移動物体領域抽出開始ときにリセットしておいた濃淡画像6の明度値を加算し濃淡画像6’を求め、次に入力画像2、3、4に対しても同様に濃淡画像5’と濃淡画像6’を加算し濃淡画像6''を求める。以後、上記処理が入力画像3、4、5・・・に対して順次行われる。   The brightness value of the gray image 5 generated by the above-described series of processing performed on the input images 1, 2, and 3 is added to the brightness value of the gray image 6 reset at the start of moving object region extraction. The gray image 6 ′ is obtained, and the gray image 5 ′ and the gray image 6 ′ are similarly added to the input images 2, 3 and 4 to obtain the gray image 6 ″. Thereafter, the above processing is sequentially performed on the input images 3, 4, 5,.

このような処理により撮影画像から移動物体領域Aのみが抽出され、抽出された部分のうち所定の基準を超えた画素のみを更に抽出するようにすると、移動物体領域画像が得られる。移動物体領域画像に示された移動物体領域Aは移動物体が移動している可能性が高い領域を示すことになる。   By such processing, only the moving object region A is extracted from the photographed image, and if only the pixels exceeding the predetermined reference are further extracted from the extracted portion, a moving object region image is obtained. The moving object area A shown in the moving object area image indicates an area where the moving object is highly likely to move.

図4は移動物体が撮影画像中の上下方向(縦方向)に移動している場合の移動物体領域画像を示している。この移動物体領域画像は移動物体の移動方向のデータとともにメインメモリ(図示省略)に随時記録される。移動物体領域Aが複数であるときには、各領域を区別するためにラベリングが行われ、ラベリングに係る番号も記録対象に含められる。   FIG. 4 shows a moving object region image when the moving object is moving in the vertical direction (vertical direction) in the captured image. This moving object region image is recorded in a main memory (not shown) along with data on the moving direction of the moving object. When there are a plurality of moving object areas A, labeling is performed to distinguish each area, and a number related to labeling is also included in the recording target.

移動物体の移動方向については次のようにして求めている。即ち、移動物体領域内の画素の点をオプティカルフローの対象とし(図5(a)参照)、オプティカルフローの対象とされた各点の移動ベクトルの成分を求めるとともにこれらの成分を加算し(図5(b)参照)、加算して得られた合成移動ベクトルに基づいて移動物体の移動方向を求めている。ここでは合成移動ベクトルの大きさが所定の最低基準を超えた移動物体について上方向、右方向、左方向、下方向の4種類で移動方向を求めている(図5(c)参照)。   The moving direction of the moving object is obtained as follows. That is, the pixel point in the moving object region is set as the target of the optical flow (see FIG. 5A), and the components of the moving vector of each point set as the target of the optical flow are obtained and added. 5 (b)), the moving direction of the moving object is obtained based on the combined movement vector obtained by the addition. Here, the moving direction of the moving object whose magnitude of the combined moving vector exceeds a predetermined minimum reference is obtained in four types of upward, rightward, leftward, and downward (see FIG. 5C).

これにより移動物体が撮影画像中において縦方向に移動しているのか(ITVカメラ200が移動物体の進行方向に向けて配置されている場合)、それとも横方向に移動しているのか(ITVカメラ200が移動物体の進行方向に対して直交する方向に向けて配置されている場合)が判る。   As a result, whether the moving object is moving in the vertical direction in the captured image (when the ITV camera 200 is arranged in the traveling direction of the moving object) or whether it is moving in the horizontal direction (ITV camera 200). Is arranged in a direction perpendicular to the traveling direction of the moving object).

このように移動物体の移動方向はITVカメラ200の向きに直接関係している。そのため、装置起動時だけでなく、カメラ画角操作機300の画角信号がITVカメラ200の向きの変化を検出したときは、移動物体の移動方向をその都度得るようにしている。この点の詳しいことは後述することにする。   Thus, the moving direction of the moving object is directly related to the direction of the ITV camera 200. Therefore, not only when the apparatus is activated, but also when the angle of view signal of the camera angle of view operating device 300 detects a change in the direction of the ITV camera 200, the moving direction of the moving object is obtained each time. Details of this point will be described later.

パラメータ取得部42は、移動物体領域抽出部41により抽出された移動物体領域Aに基づいて移動物体を追跡するのに必要な進入検出領域B及び物体追跡テンプレートCのパラメータを求めて設定する基本構成となっている。物体追跡部31においては、長方形の進入検出領域Bに進入した移動物体を長方形の物体追跡テンプレートCを用いて追跡しているが、進入検出領域B及び物体追跡テンプレートCのパラメータ調整をパラメータ取得部42が自動的に行っている。また、移動物体領域Aが複数あるときには、各領域毎にパラメータ調整を同様に行っている。   The parameter acquisition unit 42 obtains and sets the parameters of the approach detection region B and the object tracking template C necessary for tracking the moving object based on the moving object region A extracted by the moving object region extraction unit 41. It has become. In the object tracking unit 31, a moving object that has entered the rectangular approach detection region B is tracked using the rectangular object tracking template C, and parameter adjustment of the approach detection region B and the object tracking template C is performed by the parameter acquisition unit. 42 is automatically performed. When there are a plurality of moving object areas A, parameter adjustment is performed in the same manner for each area.

パラメータ取得部42は具体的には以下のような方法で進入検出領域B及び物体追跡テンプレートCのパラメータを求めている。ここでは移動物体が撮影画像中において縦方向に移動する場合について説明する。   Specifically, the parameter acquisition unit 42 obtains parameters of the entry detection region B and the object tracking template C by the following method. Here, a case where the moving object moves in the vertical direction in the captured image will be described.

まず、進入検出領域Bのパラメータに関しては、移動物体領域Aを移動物体の移動方向に複数に分割し(図示例では移動物体領域Aが3つに分割)、分割された領域(図4中において分割移動物体領域A1、A2、A3として示す)毎に移動物体の追跡を開始する長方形の進入検出領域B(図6中において進入検出領域B1、B2、B3として示す)をその中心位置が移動物体領域Aの中心線(移動物体の移動方向と同じ方向の中心線)上に略来る位置に設定する。そして進入検出領域B1、B2、B3の各幅(移動物体の移動方向に対して直交する横方向の進入検出領域の長さ)を分割移動物体領域A1、A2、A3の各幅(移動物体の移動方向に対して直交する横方向の分割移動物体領域の長さ)より若干大きめ、進入検出領域B1、B2、B3の各長さ(移動物体の移動方向と同じ縦方向の進入検出領域の長さ)を分割移動物体領域A1、A2、A3の縦横比に応じて各々設定する。ここでは分割移動物体領域A1、A2、A3の各長さについては、これらの各幅の約3/4に各々設定されている。   First, regarding the parameters of the approach detection area B, the moving object area A is divided into a plurality of moving objects in the moving direction (the moving object area A is divided into three in the illustrated example), and the divided areas (in FIG. 4) A rectangular approach detection area B (shown as entry detection areas B1, B2, and B3 in FIG. 6) that starts tracking a moving object for each of the divided moving object areas A1, A2, and A3) is centered on the moving object. It is set to a position approximately on the center line of the area A (center line in the same direction as the moving direction of the moving object). Then, the widths of the approach detection areas B1, B2, and B3 (the lengths of the approach detection areas in the lateral direction orthogonal to the moving direction of the moving object) are divided into the widths of the moving object areas A1, A2, and A3 (the moving object The length of each of the entry detection areas B1, B2, and B3 (the length of the entry detection area in the vertical direction that is the same as the movement direction of the moving object) is slightly larger than the length of the divided moving object area in the horizontal direction orthogonal to the movement direction. Is set according to the aspect ratio of the divided moving object areas A1, A2, A3. Here, the lengths of the divided moving object areas A1, A2, and A3 are set to about 3/4 of the respective widths.

一方、物体追跡テンプレートCのパラメータに関しては、図7及び図8に示す長方形の物体追跡テンプレートC1をその中心位置が移動物体の中心に略来る位置に設定する。そして、物体追跡テンプレートC1の幅(移動物体の移動方向に対して直交する横方向の物体追跡テンプレートの長さ)を移動物体領域Aの幅方向の寸法と同じ且つ移動物体の移動方向に沿った2辺の長さがこれ以外の2辺の長さに比べて短くなるように、例えばその幅の約1/2の高さとなるとなるように随時設定するようになっている。   On the other hand, with respect to the parameters of the object tracking template C, the rectangular object tracking template C1 shown in FIGS. 7 and 8 is set to a position where the center position is approximately at the center of the moving object. The width of the object tracking template C1 (the length of the object tracking template in the lateral direction orthogonal to the moving direction of the moving object) is the same as the dimension in the width direction of the moving object region A and along the moving direction of the moving object. For example, the length of the two sides is set to be shorter than the length of the other two sides, for example, to be about ½ of the width.

図7(a)に示す物体追跡テンプレートC1については移動物体が画面中縦方向に移動している場合に使用されるものである一方、図7(b)に示す物体追跡テンプレートC2については移動物体が画面中横方向に移動している場合に使用されるものであり、いずれについても同図中に示すような縦横比に設定される。   The object tracking template C1 shown in FIG. 7A is used when the moving object moves in the vertical direction in the screen, while the object tracking template C2 shown in FIG. Is used when moving in the horizontal direction in the screen, and the aspect ratio is set as shown in FIG.

移動物体が進入検出領域B1、B2、B3に順次進入すると、追跡処理が順次トリガーされるが、実際の追跡に使用されるのが物体追跡テンプレートC1である。進入検出領域B1、B2、B3に進入した後に使用される物体追跡テンプレートを便宜上、物体追跡テンプレートC11、C12、C13として表すことにする。   When a moving object sequentially enters the entry detection areas B1, B2, and B3, tracking processing is sequentially triggered, but the object tracking template C1 is used for actual tracking. For convenience, the object tracking templates used after entering the entry detection areas B1, B2, and B3 will be represented as object tracking templates C11, C12, and C13.

ところで、移動物体領域Aについては、図4、図6及び図8に示すように移動物体の移動方向に向かって幅が小さくなる。これは、移動物体が画面中縦方向に移動する場合だけでなく横方向に移動する場合も同様である。物体追跡テンプレートC1のパラメータは上記のように設定されることから、図8に示すように物体追跡テンプレートC1の幅もこれに合わせて小さくなる。即ち、物体追跡テンプレートC11、C12、C13の幅はこの順番で小さくなり、この結果、移動物体とその特徴が多く現れる背景との境界部分のみが含まれる。これは物体追跡テンプレートC2が用いられる場合も全く同様である。   By the way, the width of the moving object region A becomes smaller in the moving direction of the moving object as shown in FIGS. This is the same when the moving object moves in the horizontal direction as well as in the vertical direction in the screen. Since the parameters of the object tracking template C1 are set as described above, as shown in FIG. 8, the width of the object tracking template C1 decreases accordingly. That is, the widths of the object tracking templates C11, C12, and C13 are reduced in this order, and as a result, only the boundary portion between the moving object and the background in which many features appear is included. This is exactly the same when the object tracking template C2 is used.

パラメータ取得部42は、テンプレート画像を所定画素毎に間引いた間引きテンプレート(図11参照)を物体追跡テンプレートC1として用い、その間引き割合を移動物体領域Aの幅に対応して設定する機能も有している。即ち、物体追跡テンプレートC11、C12、C13の間引き率を分割移動物体領域A1、A2、A3の幅に比例した値に各々設定している。分割移動物体領域A1、A2、A3の幅は上記したようにこの順番で小さくなるので、間引き率は物体追跡テンプレートC11が最大になる。このようにするのは、画面の手前側の方で移動物体の大きさが相対的に大きくテンプレートの画素数が多いこと及び移動ベクトルが大きく探索範囲が広く、処理負荷が極端に大きくなるからであり、これによりマッチングに要する処理の高速化を図ることが可能になる。これは移動物体が画面中縦方向に移動する場合である。横方向に移動する場合、ITVカメラ200から移動物体までの距離が変化しないならば、このときに使用される物体追跡テンプレートC1の間引き率については基本的に一定にすれば良い。   The parameter acquisition unit 42 also has a function of using a thinning template (see FIG. 11) obtained by thinning a template image for each predetermined pixel as the object tracking template C1, and setting the thinning ratio corresponding to the width of the moving object region A. ing. That is, the thinning rates of the object tracking templates C11, C12, and C13 are set to values that are proportional to the widths of the divided moving object areas A1, A2, and A3, respectively. Since the widths of the divided moving object areas A1, A2, and A3 are reduced in this order as described above, the object tracking template C11 has the maximum thinning rate. This is because the size of the moving object is relatively large on the front side of the screen and the number of pixels of the template is large, the moving vector is large, the search range is wide, and the processing load becomes extremely large. This makes it possible to speed up the processing required for matching. This is a case where the moving object moves in the vertical direction in the screen. When moving in the horizontal direction, if the distance from the ITV camera 200 to the moving object does not change, the thinning rate of the object tracking template C1 used at this time may be basically constant.

物体追跡部31は、画像メモリ20上の画像データに基づいて撮影画像中の移動物体を進入検出領域B及び物体追跡テンプレートCを用いてテンプレートマッチングにより追跡してその位置情報を求める基本構成となっている。   The object tracking unit 31 has a basic configuration in which a moving object in a captured image is tracked by template matching using an approach detection region B and an object tracking template C based on image data on the image memory 20 and position information is obtained. ing.

具体的には、分割移動物体領域A1、A2、A3に順次進入した移動物体を進入検出領域B1、B2、B3を用いて時間差分等の周知の検出方法により各々検出している。   Specifically, the moving objects that have sequentially entered the divided moving object areas A1, A2, and A3 are respectively detected by using known detection methods such as time differences using the entry detection areas B1, B2, and B3.

その後、移動物体を物体追跡テンプレートC11、C12、C13を用いてテンプレートマッチングにより順次追跡する。例えば、物体追跡テンプレートC1、C2、C3として図12(A)に示すような間引きテンプレートが用いられるときには、マッチングの演算はこれが一回行われる毎に、図12(B)に示すように2画素飛ばしで順次移動して行われる。これは移動物体が画面中横方向に移動する場合に使用される物体追跡テンプレートC2を用いて追跡が行われる場合も同様である。その一方で、移動物体の追跡代表点の位置情報を順次求め、その位置変化から移動物体の移動ベクトルを求める。このようにして求められた位置情報及び移動ベクトルのデータは図外のメインメモリに順次保存される。   Thereafter, the moving object is sequentially tracked by template matching using the object tracking templates C11, C12, and C13. For example, when a thinning template as shown in FIG. 12A is used as the object tracking templates C1, C2, and C3, every time this matching is performed, two pixels as shown in FIG. It is performed by moving sequentially by skipping. The same applies to the case where tracking is performed using the object tracking template C2 used when the moving object moves in the horizontal direction in the screen. On the other hand, the position information of the tracking representative point of the moving object is sequentially obtained, and the movement vector of the moving object is obtained from the position change. The position information and movement vector data thus obtained are sequentially stored in a main memory (not shown).

なお、移動物体領域Aが複数ある場合、移動物体の追跡等が別々に行われるだけでその処理自体については上記と全く同様である。   When there are a plurality of moving object regions A, the processing itself is exactly the same as described above except that tracking of the moving object is performed separately.

物体追跡部31は、移動物体を誤って追跡するのを防止するために、移動物体領域抽出部41により抽出された移動物体領域Aの幅が所定値以下になった位置でその後の移動物体の追跡を終了したり、移動物体領域A上の移動物体の所定の追跡代表点が移動物体領域Aから外れたときその後の移動物体の追跡を中断する機能も有した構成となっている。また、移動物体の追跡処理の高速化を図るために、図9に示すように追跡中の移動物体の移動ベクトルの推移から予測ベクトルを求めて次の移動先を推定し、図10に示すように移動物体を探索する範囲を当該移動先を中心とした範囲に設定する機能も有した構成となっている。即ち、物体追跡テンプレートC1(又はC2)を用いて移動物体をマッチングにより走査して追跡するに当たり、走査する範囲を次の移動先を中心とした許容範囲に制限するようにする。   The object tracking unit 31 prevents subsequent moving objects at positions where the width of the moving object region A extracted by the moving object region extracting unit 41 is equal to or less than a predetermined value in order to prevent the tracking of the moving object by mistake. The tracking function is also completed, and when a predetermined tracking representative point of the moving object on the moving object area A deviates from the moving object area A, the tracking of the moving object thereafter is interrupted. Further, in order to increase the speed of the tracking process of the moving object, as shown in FIG. 9, the next moving destination is estimated by obtaining a prediction vector from the transition of the moving vector of the moving object being tracked, as shown in FIG. In addition, it has a function of setting a range for searching for a moving object to a range centered on the destination. That is, when scanning and tracking a moving object by matching using the object tracking template C1 (or C2), the scanning range is limited to an allowable range centered on the next moving destination.

明度環境監視部53は、撮影箇所付近の明度の変化を監視する機能を有した基本構成となっている。ここでは、画像メモリ20上の画像データから画素の明度値の平均と標準偏差を求め、これにより昼/夜、曇天等により撮影付近の明度が大きく変化したことを検出している。具体的には、撮影画像の画面中心付近(上下左右50ドットずつ除外した部分)の明度の平均値、標準偏差の2つの値に対してしきい値を設けて、主として昼間と夜間とを区別している。昼間については光量が多く影の影響もあるので、しきい値を高くして感度を下げた状態で検出する一方、夜問については光量が少ないため、しきい値を低くして感度を上げて検出する。このような昼間か夜間等であるかを区別した結果は、移動物体が追跡開始の進入検出領域に進入したか否かを判断する際のしきい値を設定するために使用している。   The brightness environment monitoring unit 53 has a basic configuration having a function of monitoring a change in brightness in the vicinity of the shooting location. Here, the average and standard deviation of the brightness values of the pixels are obtained from the image data on the image memory 20, and it is detected that the brightness in the vicinity of photographing has changed greatly due to day / night, cloudy weather, and the like. Specifically, a threshold is set for the average value and standard deviation of the brightness around the screen center of the captured image (excluding the upper, lower, left, and right 50 dots each), and the daytime and nighttime are mainly divided. Separated. Since there is a lot of light in the daytime and there is also an effect of shadows, it is detected with a high threshold and the sensitivity is lowered. To detect. The result of distinguishing whether it is daytime or nighttime is used to set a threshold value for determining whether or not the moving object has entered the entry detection area at the start of tracking.

パラメータ調整部43は、明度環境監視部53の検出結果が入力されており、撮影箇所付近の明度に変化が現れたときパラメータ取得部42を再動作させる基本構成となっている。即ち、撮影箇所付近の明度が変化したときには、パラメータ調整部43によりパラメータ取得部42が再動作することから、進入検出領域B及び物体追跡テンプレートCのパラメータCが求められて再設定され、その結果、これらのパラメータが撮影箇所付近の現在の明度に応じた適切なものに変更される。   The parameter adjustment unit 43 has a basic configuration in which the detection result of the brightness environment monitoring unit 53 is input, and the parameter acquisition unit 42 is reactivated when a change in the brightness near the shooting location appears. That is, when the brightness near the shooting location changes, the parameter acquisition unit 42 is restarted by the parameter adjustment unit 43, so that the parameters C of the approach detection region B and the object tracking template C are obtained and reset. These parameters are changed to appropriate values according to the current brightness near the shooting location.

移動物体領域監視部51は、移動物体領域抽出部41により抽出された移動物体領域Aの数の変化を監視する機能を有した基本構成となっている。即ち、現在の移動物体領域Aと、過去のある一定時間に移動物体領域侯補として投票された画素とを比較し、移動物体領域Aとして登録されていない部分でしきい値以上の投票が行われることを検出したときには、移動物体領域Aの数に変化が現れたとして、この監視結果を移動物体領域調整部44に出力するようになっている。   The moving object area monitoring unit 51 has a basic configuration having a function of monitoring a change in the number of moving object areas A extracted by the moving object area extraction unit 41. That is, the current moving object area A is compared with the pixels voted as the moving object area compensation for a certain fixed time in the past, and voting exceeding the threshold is performed in the part that is not registered as the moving object area A. When it is detected that there is a change in the number of moving object areas A, this monitoring result is output to the moving object area adjusting unit 44.

画角監視部52は、カメラ画角操作機300から入力された画角信号に基づいてカメラの画角変化を監視する機能を有した基本構成となっている。カメラ画角操作機300はITVカメラ200の向きを手動又は自動で変化させる装置であり、ITVカメラ200の仰角、旋回角度を各々示すデータを画角信号として出力している。また、ITVカメラ200は、撮影のズームアップ量を信号(図示省略)として出力している。画角監視部52は、上記画角信号等を通じてITVカメラ200の仰角、旋回角度、ズームアップ量を常に監視し、これらの監視結果を移動物体領域調整部44に出力するようになっている。   The view angle monitoring unit 52 has a basic configuration having a function of monitoring a change in the view angle of the camera based on the view angle signal input from the camera view angle operating device 300. The camera angle-of-view operating device 300 is a device that changes the orientation of the ITV camera 200 manually or automatically, and outputs data indicating the elevation angle and the turning angle of the ITV camera 200 as an angle-of-view signal. The ITV camera 200 outputs a zoom-up amount for shooting as a signal (not shown). The angle-of-view monitoring unit 52 constantly monitors the elevation angle, turning angle, and zoom-in amount of the ITV camera 200 through the angle-of-view signal and the like, and outputs these monitoring results to the moving object region adjustment unit 44.

移動物体領域調整部44は、移動物体領域監視部51及び画角監視部52の監視結果が入力され、ITVカメラ200の画角変化、ズームアップ量又は移動物体領域Aの数の変化が現れたときは、移動物体領域抽出部41を再動作させる基本構成となっている。即ち、 ITVカメラ200の画角変化等が変化したときには、移動物体領域調整部44により移動物体領域抽出部41が再動作することから、移動物体領域Aの抽出及び移動物体の移動方向等が求め直される。この場合、パラメータ取得部42も再動作し、進入検出領域パラメータ及び物体追跡パラメータが求められて再設定される。   The moving object region adjustment unit 44 receives the monitoring results of the moving object region monitoring unit 51 and the view angle monitoring unit 52, and changes in the angle of view of the ITV camera 200, the zoom-up amount, or the number of moving object regions A appear. In some cases, the moving object region extraction unit 41 is reactivated. That is, when the change in the angle of view of the ITV camera 200 changes, the moving object area extracting unit 41 is reactivated by the moving object area adjusting unit 44, so that the extraction of the moving object area A and the moving direction of the moving object are obtained. Will be fixed. In this case, the parameter acquisition unit 42 also operates again, and the entry detection area parameter and the object tracking parameter are obtained and reset.

停止判定部32は、画像メモリ20上の画像データに基づいて撮影画像中の移動物体の停止を判定する基本構成となっている。ここでは物体追跡部31により求められた移動物体の移動ベクトルの速度成分が0を示し、その状態が所定時間以上継続したときは、移動物体が停止していると判定するようになっている。   The stop determination unit 32 has a basic configuration for determining stop of a moving object in a captured image based on image data on the image memory 20. Here, when the velocity component of the moving vector of the moving object obtained by the object tracking unit 31 indicates 0 and the state continues for a predetermined time or more, it is determined that the moving object is stopped.

出力部60は、撮影画像中に移動物体が存在していること又は移動物体が停止していることを外部出力する基本構成となっている。また、出力部60は、移動物体領域抽出部41により撮影画像から移動物体領域Aが抽出されたとき、撮影画像中に反復的な移動を繰り返す移動物体が存在する旨を示す信号、停止判定部32により撮影画像中の移動物体の停止していると判定されたとき、その旨を示す信号、設定操作部(図示省略)の操作に応じてメモリ上の追跡データや移動ベクトル等のデータが読み出されたとき、このデータを含んだ信号も出力するようになっている。   The output unit 60 has a basic configuration for externally outputting that a moving object is present in the captured image or that the moving object is stopped. The output unit 60 also includes a signal indicating that there is a moving object that repeats repetitive movement in the captured image when the moving object region A is extracted from the captured image by the moving object region extraction unit 41, and a stop determination unit. 32, when it is determined that the moving object in the captured image is stopped, the tracking data in the memory and the data such as the movement vector are read in accordance with the signal indicating that and the operation of the setting operation unit (not shown). When output, a signal including this data is also output.

次に、上記のように構成された移動物体追跡装置の動作について図2を参照して説明する   Next, the operation of the moving object tracking apparatus configured as described above will be described with reference to FIG.

まず、電源スイッチが投入されると、初期設定を行う(S1)。すると、ITVカメラ200から入力された画像データが画像メモリ20に順次記録される一方、画像メモリ20上の画像データが66ms毎に順次読み出される。読み出された画像データに対して時間差分処理及び二値化処理等を順次行い、この過程で撮影画像中の移動物体領域Aを抽出するとともに移動物体の移動方向等を求める(S2)。   First, when the power switch is turned on, initialization is performed (S1). Then, the image data input from the ITV camera 200 is sequentially recorded in the image memory 20, while the image data on the image memory 20 is sequentially read out every 66 ms. A time difference process and a binarization process are sequentially performed on the read image data, and in this process, the moving object area A in the captured image is extracted and the moving direction of the moving object is obtained (S2).

このようにして求められた移動物体領域A及び移動物体の移動方向に基づいて進入検出領域B及び物体追跡テンプレートCのパラメータ等を求め(S3)、撮影画像中に映し出される移動物体をテンプレートマッチングにより追跡する(S4)。その後、移動物体が停止していないか否かを判定し(S5)、停止していると判定したときはその旨を信号として外部出力する(S6)。ITVカメラ200の画質が悪化したときも同様である。   Based on the moving object area A and the moving direction of the moving object thus obtained, parameters of the entry detection area B and the object tracking template C are obtained (S3), and the moving object displayed in the captured image is obtained by template matching. Track (S4). Thereafter, it is determined whether or not the moving object is stopped (S5). When it is determined that the moving object is stopped, the fact is output to the outside as a signal (S6). The same applies when the image quality of the ITV camera 200 deteriorates.

移動物体の追跡等の処理(S4、S5、S6)とは別に、撮影付近の明度の変化、ITVカメラ200の画角変化、移動物体領域Aの数に変化等を各々監視するという監視処理を並列して行う(S7、S8、S9)。   In addition to the process of tracking a moving object (S4, S5, S6), a monitoring process of monitoring changes in brightness near the shooting, changes in the angle of view of the ITV camera 200, changes in the number of moving object areas A, etc. Performed in parallel (S7, S8, S9).

この結果、撮影付近の明度等に変化がないときには、移動物体の追跡等の処理及び監視処理を繰り返し行う(S10)。一方、撮影付近の明度の変化が発生したときには、進入検出領域B及び物体追跡テンプレートCのパラメータ等を求め直して調整する(S2)。ITVカメラ200の画角変化等が発生したときには、移動物体領域A及び移動物体の移動方向等を求め直して調整する。移動物体領域Aの数が増加したとき同様であるが、このときにはその旨を信号として外部出力する一方、増加した分の移動物体領域A及び移動物体の移動方向等を求める(S3)。以後は、移動物体の追跡等の処理及び監視処理が上記と同様に行われる。   As a result, when there is no change in brightness or the like in the vicinity of shooting, processing such as tracking of a moving object and monitoring processing are repeatedly performed (S10). On the other hand, when a change in brightness near the photographing occurs, the parameters of the entry detection region B and the object tracking template C are obtained again and adjusted (S2). When a change in the angle of view of the ITV camera 200 occurs, the moving object region A and the moving direction of the moving object are obtained again and adjusted. The same applies when the number of moving object areas A increases. At this time, the fact is output to the outside as a signal, while the moving object area A and the moving direction of the moving object are obtained for the increased amount (S3). Thereafter, processing such as tracking of a moving object and monitoring processing are performed in the same manner as described above.

このように移動物体追跡装置による場合、進入検出領域B及び物体追跡テンプレートCのパラメータが自動的に調整されることから、従来とは異なり調整作業そのものが不要になる。しかもパラメータが撮影付近の明度の変化にも関係なく移動物体領域Aの幅等に応じて適切に調整されることから、移動物体の追跡を精度良く行うことが可能になる。また、間引きテンプレートを用いる等、処理の負担が小さくされているので、処理の高速化も図られている。ITVカメラ200の画角が変化してもパラメータが自動的に調整されることから、ITVカメラ200として旋回式のものを用いることが可能であり、装置の適用範囲が広くなる。加えて、テンプレートマッチングの演算処理負荷を小さくなってので、画素数の多い大きな移動物体の追跡にテンプレートマヅチングが適用可能となり、カメラの向きに対する自由度も大きくなる。これらの点で従来に比べて装置としての大幅な高性能化を実現することが可能になった。   Thus, in the case of using the moving object tracking device, the parameters of the entry detection area B and the object tracking template C are automatically adjusted, so that the adjustment work itself becomes unnecessary unlike the conventional case. Moreover, since the parameters are appropriately adjusted according to the width of the moving object area A, etc. regardless of the change in brightness near the photographing, it is possible to accurately track the moving object. Further, since the processing load is reduced by using a thinning template or the like, the processing speed is also increased. Since the parameters are automatically adjusted even if the angle of view of the ITV camera 200 changes, a swivel type can be used as the ITV camera 200, and the application range of the apparatus is widened. In addition, since the processing load of template matching is reduced, template matching can be applied to tracking a large moving object having a large number of pixels, and the degree of freedom with respect to the camera direction is increased. In these respects, it has become possible to achieve a significant increase in performance as a device as compared with the prior art.

以下、本発明の実施の形態を説明するための図であって、移動物体追跡装置の構成図である。Hereinafter, it is a figure for demonstrating embodiment of this invention, Comprising: It is a block diagram of a moving object tracking apparatus. 同装置のフローチャートである。It is a flowchart of the same apparatus. 移動物体領域抽出のアルゴリズムを画像処理の流れで表した説明図である。It is explanatory drawing showing the algorithm of moving object area | region extraction with the flow of the image processing. 抽出された移動物体領域を表す模式図である。It is a schematic diagram showing the extracted moving object area | region. 移動物体領域上の移動物体の移動方向を求める方法を説明するための説明図である。It is explanatory drawing for demonstrating the method of calculating | requiring the moving direction of the moving object on a moving object area | region. 移動物体領域に進入検出領域のパラメータが設定される様子を示す模式図である。It is a schematic diagram which shows a mode that the parameter of an approach detection area | region is set to a moving object area | region. 物体追跡テンプレートの形状を示す図である。It is a figure which shows the shape of an object tracking template. 移動物体領域に物体追跡テンプレートのパラメータが設定される様子を示す模式図である。It is a schematic diagram which shows a mode that the parameter of an object tracking template is set to a moving object area | region. 移動物体の移動ベクトルの推移から次の移動ベクトルを予測する様子を示す図である。It is a figure which shows a mode that the next movement vector is estimated from transition of the movement vector of a moving object. 予測ベクトルとテンプレート探索範囲との関係を示す図である。It is a figure which shows the relationship between a prediction vector and a template search range. 間引きテンプレートを示す図である。It is a figure which shows a thinning template. 間引きテンプレートによる探索を示す模式図である。It is a schematic diagram which shows the search by a thinning template.

符号の説明Explanation of symbols

100 移動物体追跡装置
10 画像取込部
20 画像メモリ
30 機能ブロック
31 物体追跡部
32 停止判定部
40 機能ブロック
41 移動物体領域抽出部
42 パラメータ取得部
43 パラメータ調整部
44 移動物体領域調整部
50 機能ブロック
51 移動物体領域監視部
52 画角監視部
53 明度環境監視部
60 出力部
200 ITVカメラ
300 カメラ画角操作機
DESCRIPTION OF SYMBOLS 100 Moving object tracking apparatus 10 Image capture part 20 Image memory 30 Functional block 31 Object tracking part 32 Stop determination part 40 Functional block 41 Moving object area extraction part 42 Parameter acquisition part 43 Parameter adjustment part 44 Moving object area adjustment part 50 Functional block 51 Moving Object Area Monitoring Unit 52 Angle of View Monitoring Unit 53 Brightness Environment Monitoring Unit 60 Output Unit 200 ITV Camera 300 Camera Angle of View Operating Machine

Claims (7)

移動物体を撮影するカメラから入力された画像データを順次記録する画像メモリと、画像メモリ上の画像データに基づいて撮影画像から反復的な移動を繰り返す移動物体の軌跡である移動物体領域を抽出する移動物体領域抽出部と、移動物体領域に基づいて移動物体を追跡するのに必要な進入検出領域及び物体追跡テンプレートのパラメータを求めて設定するパラメータ取得部と、画像メモリ上の画像データに基づいて撮影画像中の移動物体を当該進入検出領域及び物体追跡テンプレートを用いて追跡してその位置情報を求める物体追跡部と、撮影箇所付近の明度の変化を監視する明度環境監視部と、撮影箇所付近の明度に変化が現れたときパラメータ取得部を再動作させるパラメータ調整部と、カメラ画角操作機から入力された画角信号に基づいてカメラの画角変化を監視する画角監視部と、移動物体領域抽出部により抽出された移動物体領域の数の変化を監視する移動物体領域監視部と、少なくともカメラの画角変化又は移動物体領域の数の変化が現れたとき移動物体領域抽出部及びパラメータ取得部を再動作させる移動物体領域調整部とを具備したことを特徴とする移動物体追跡装置。 An image memory that sequentially records image data input from a camera that captures a moving object, and a moving object region that is a locus of the moving object that repeats repetitive movement is extracted from the captured image based on the image data on the image memory. Based on the moving object region extraction unit, the parameter acquisition unit that obtains and sets the parameters of the approach detection region and the object tracking template necessary for tracking the moving object based on the moving object region, and the image data on the image memory An object tracking unit that tracks a moving object in a captured image using the entry detection region and the object tracking template and obtains position information thereof, a brightness environment monitoring unit that monitors a change in brightness near the shooting location, and the vicinity of the shooting location The parameter adjustment unit that re-activates the parameter acquisition unit when a change in the brightness of the image appears, and the angle of view signal input from the camera angle of view An angle-of-view monitoring unit that monitors a change in the angle of view of the camera, a moving object region monitoring unit that monitors a change in the number of moving object regions extracted by the moving object region extraction unit, and at least a change or movement of the angle of view of the camera A moving object tracking device comprising: a moving object region extracting unit and a moving object region adjusting unit that re-activates a parameter acquiring unit when a change in the number of object regions appears. 請求項1記載の移動物体追跡装置において、画像メモリ上の画像データに基づいて前記撮影画像中の移動物体が停止しているか否かを判定する停止判定部と、少なくとも撮影画像中に移動物体が存在していること又は移動物体が停止していることを外部出力する出力部とを備えたことを特徴とする移動物体追跡装置。 2. The moving object tracking device according to claim 1, wherein a stop determining unit that determines whether or not the moving object in the captured image is stopped based on image data on an image memory, and at least the moving object is in the captured image. A moving object tracking apparatus comprising: an output unit that externally outputs that an object is present or that a moving object is stopped. 請求項1又は2記載の移動物体追跡装置において、移動物体領域抽出部は、移動物体領域を抽出するに当たり、時間差分画像を順次求める一方、一定時間前の時間差分画像と現在の時問差分画像との間で共通する部分を移動物体領域候補として求め、当該移動物体領域候補の各画素に対して一定時間に候補となった回数を求め、候補となった回数がしきい値を超える画素を選別し、当該画素により構成される領域を移動物体領域とする機能を有した構成となっていることを特徴とする移動物体追跡装置。 3. The moving object tracking device according to claim 1, wherein the moving object region extraction unit sequentially obtains the time difference image when extracting the moving object region, while the time difference image of a certain time ago and the current time difference image. And the number of times that the candidate number exceeds the threshold for each pixel of the moving object region candidate. A moving object tracking apparatus having a function of selecting and moving a region formed by the pixels into a moving object region. 移動物体領域抽出部が移動物体の移動方向をオプティカルフローにより求める機能を有し且つ進入検出領域及び物体追跡テンプレートが長方形である場合の請求項1、2又は3記載の移動物体追跡装置において、パラメータ取得部は、進入検出領域のパラメータに関して、移動物体領域を移動物体の移動方向に複数に分割し、分割された領域毎に移動物体の追跡を開始する進入検出領域をその中心位置が移動物体領域の移動方向の中心線上に略来る位置に各々設定し、当該進入検出領域の幅を当該移動物体領域の幅より若干大きめ、当該進入検出領域の長さを当該移動物体領域の縦横比に応じて各々設定する一方、物体追跡テンプレートのパラメータに関して、物体追跡テンプレートの中心位置が移動物体の中心に略来る位置に設定し、当該物体追跡テンプレートの幅を当該移動物体領域の幅と同じ、当該物体追跡テンプレートの長さをその幅に比べて小さく設定する構成となっていることを特徴とする移動物体追跡装置。 4. The moving object tracking device according to claim 1, wherein the moving object region extraction unit has a function of obtaining a moving direction of the moving object by optical flow, and the approach detection region and the object tracking template are rectangular. The acquisition unit divides the moving object region into a plurality of moving object movement directions with respect to the parameters of the approach detection region, and the center position of the approach detection region in which tracking of the moving object starts for each divided region is the moving object region Are set to positions approximately on the center line in the moving direction, the width of the entry detection area is slightly larger than the width of the moving object area, and the length of the entry detection area is set according to the aspect ratio of the moving object area. While setting each of the parameters of the object tracking template, the center position of the object tracking template is set to a position that is approximately at the center of the moving object. Body Tracking template width same as the width of the moving object region of the moving object tracking device, characterized in that has a length of the object tracking template configured to be smaller than its width. 請求項1、2、3又は4記載の移動物体追跡装置において、物体追跡部は、移動物体領域の幅が所定値以下になった位置で当該移動物体の追跡を終了する及び/又は移動物体領域上の移動物体の追跡代表点が当該移動物体領域から外れたとき当該移動物体の追跡を中断する機能を有した構成となっていることを特徴とする移動物体追跡装置。 5. The moving object tracking device according to claim 1, wherein the object tracking unit ends tracking of the moving object at a position where the width of the moving object area is equal to or less than a predetermined value and / or the moving object area. A moving object tracking device having a function of interrupting tracking of a moving object when a representative tracking point of the moving object deviates from the moving object region. 請求項1、2、3、4又は5記載の移動物体追跡装置において、物体追跡部は、追跡中の移動物体の移動ベクトルの推移から次の移動先を推定し、移動物体を探索する範囲を当該移動先を中心とした範囲に設定する機能を有した構成となっていることを特徴とする移動物体追跡装置。 6. The moving object tracking device according to claim 1, wherein the object tracking unit estimates a next moving destination from a transition of a moving vector of the moving object being tracked, and determines a range for searching for the moving object. A moving object tracking device having a function of setting a range around the moving destination. 請求項1、2、3、4、5又は6記載の移動物体追跡装置において、パラメータ取得部は、テンプレート画像を所定画素毎に間引いた間引きテンプレートを物体追跡テンプレートとして用い、その間引き割合を移動物体領域の幅に対応して設定する機能を有した構成となっていることを特徴とする移動物体追跡装置。 7. The moving object tracking device according to claim 1, wherein the parameter acquisition unit uses a thinning template obtained by thinning a template image for each predetermined pixel as an object tracking template, and uses the thinning ratio as a moving object. A moving object tracking device having a function of setting corresponding to the width of an area.
JP2004191176A 2004-06-29 2004-06-29 Mobile object tracking device Pending JP2006012013A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004191176A JP2006012013A (en) 2004-06-29 2004-06-29 Mobile object tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004191176A JP2006012013A (en) 2004-06-29 2004-06-29 Mobile object tracking device

Publications (1)

Publication Number Publication Date
JP2006012013A true JP2006012013A (en) 2006-01-12

Family

ID=35779186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004191176A Pending JP2006012013A (en) 2004-06-29 2004-06-29 Mobile object tracking device

Country Status (1)

Country Link
JP (1) JP2006012013A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007188294A (en) * 2006-01-13 2007-07-26 Central Res Inst Of Electric Power Ind Method for detecting moving object candidate by image processing, moving object detection method for detecting moving object from moving object candidate, moving object detection apparatus, and moving object detection program
JP2008151659A (en) * 2006-12-18 2008-07-03 Fuji Heavy Ind Ltd Object detector
KR20170041636A (en) * 2015-10-07 2017-04-17 캐논 가부시끼가이샤 Display control apparatus, display control method, and program
JPWO2017138245A1 (en) * 2016-02-08 2018-09-27 株式会社リコー Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP2020018004A (en) * 2019-10-17 2020-01-30 ソニー株式会社 Image processing apparatus, image processing method, and image processing system
KR20200061566A (en) * 2018-11-26 2020-06-03 이노뎁 주식회사 syntax-based method of extracting region of moving object out of compressed video with context consideration

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007188294A (en) * 2006-01-13 2007-07-26 Central Res Inst Of Electric Power Ind Method for detecting moving object candidate by image processing, moving object detection method for detecting moving object from moving object candidate, moving object detection apparatus, and moving object detection program
JP2008151659A (en) * 2006-12-18 2008-07-03 Fuji Heavy Ind Ltd Object detector
KR20170041636A (en) * 2015-10-07 2017-04-17 캐논 가부시끼가이샤 Display control apparatus, display control method, and program
KR102111935B1 (en) * 2015-10-07 2020-05-18 캐논 가부시끼가이샤 Display control apparatus, display control method, and program
JPWO2017138245A1 (en) * 2016-02-08 2018-09-27 株式会社リコー Image processing apparatus, object recognition apparatus, device control system, image processing method and program
KR20200061566A (en) * 2018-11-26 2020-06-03 이노뎁 주식회사 syntax-based method of extracting region of moving object out of compressed video with context consideration
KR102153093B1 (en) 2018-11-26 2020-09-07 이노뎁 주식회사 syntax-based method of extracting region of moving object out of compressed video with context consideration
JP2020018004A (en) * 2019-10-17 2020-01-30 ソニー株式会社 Image processing apparatus, image processing method, and image processing system
JP6996538B2 (en) 2019-10-17 2022-01-17 ソニーグループ株式会社 Image processing equipment, image processing methods, and image processing systems

Similar Documents

Publication Publication Date Title
US8050459B2 (en) System and method for detecting pedestrians
US8175806B2 (en) Car navigation system
JP4654163B2 (en) Vehicle surrounding environment recognition device and system
KR100879623B1 (en) Automated wide area surveillance system using ptz camera and method therefor
JP4157620B2 (en) Moving object detection apparatus and method
US20070127778A1 (en) Object detecting system and object detecting method
KR101845943B1 (en) A system and method for recognizing number plates on multi-lane using one camera
JP2001216519A (en) Traffic monitor device
JP5271227B2 (en) Crowd monitoring device, method and program
KR100820952B1 (en) Detecting method at automatic police enforcement system of illegal-stopping and parking vehicle using single camera and system thereof
JP2018005682A (en) Image processor
JP2010123012A (en) Wheel stop detection device and rearward image display apparatus
CN111967396A (en) Processing method, device and equipment for obstacle detection and storage medium
CN114140745A (en) Method, system, device and medium for detecting personnel attributes of construction site
KR101026778B1 (en) Vehicle image detection apparatus
JP7125843B2 (en) Fault detection system
JP2004086417A (en) Method and device for detecting pedestrian on zebra crossing
JP4594197B2 (en) Automatic tracking device
JP2006012013A (en) Mobile object tracking device
CN105206060B (en) A kind of vehicle type recognition device and its method based on SIFT feature
JP2010271969A (en) Traffic-lane detecting device
CN114882003A (en) Method, medium and computing device for detecting shooting pose change of camera
KR101154350B1 (en) Multiple Images Processing system using Detection of Objects and segmenting - recognizing of High- resolution Image and there of.
JP2006018339A (en) License plate recognition device and method
JP4842301B2 (en) Pedestrian detection device and program