JPH11266450A - Object area tracking system and object area tracking method - Google Patents

Object area tracking system and object area tracking method

Info

Publication number
JPH11266450A
JPH11266450A JP10066657A JP6665798A JPH11266450A JP H11266450 A JPH11266450 A JP H11266450A JP 10066657 A JP10066657 A JP 10066657A JP 6665798 A JP6665798 A JP 6665798A JP H11266450 A JPH11266450 A JP H11266450A
Authority
JP
Japan
Prior art keywords
image
size
tracking
stored
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10066657A
Other languages
Japanese (ja)
Other versions
JP3651745B2 (en
Inventor
Hisashi Kazama
久 風間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP06665798A priority Critical patent/JP3651745B2/en
Publication of JPH11266450A publication Critical patent/JPH11266450A/en
Application granted granted Critical
Publication of JP3651745B2 publication Critical patent/JP3651745B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To obtain the object area racking system that stably extracts an image area of a tracked object against a size change of the object in the image by utilizing it that the object moves on a plane fixed to a camera in the case of tracking the object through the use of a reference image segmented from the image. SOLUTION: A collation processing control section 13 allows an image size conversion section 14 to estimate a proper image size of a reference image at a collation position based on a past image or more and information related to the image stored in a passage information storage section 16, based on the assumption that a tracked object moves on a plane fixed to an installed camera, in the case of allowing an image collation section 15 to process the collation of an image entered by an image entry section 11 and stored in an input image storage section 12 with the reference image to extract a photographed area of the tracked object. The control section 13 allows the conversion section 14 to convert the size of the reference image into the estimated size. Thus, the collation of the image collation section 15 copes with a change in the size of the tracked object in its image.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、たとえば道路な
どに据え付けられた監視カメラが撮像する画像から交通
流の自動計測や突発事象の自動検出などを行なう監視シ
ステムの画像処理技術に係り、特にその画像処理によっ
てたとえば道路を走行する自動車の領域を追跡するため
の物体領域追跡装置および物体領域追跡方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing technology of a monitoring system for automatically measuring a traffic flow and automatically detecting an unexpected event from an image captured by a monitoring camera mounted on a road, for example, and more particularly to such a technology. The present invention relates to an object area tracking device and an object area tracking method for tracking, for example, an area of a car running on a road by image processing.

【0002】また、たとえば駅構内の監視カメラなどの
ように画像として撮像される範囲が広い場合に平面上を
移動する物体を追跡するためなどにも広く応用可能な画
像処理による物体領域追跡装置および物体領域追跡方法
に関する。
[0002] Further, an object area tracking device by image processing which can be widely applied to, for example, track an object moving on a plane when a range captured as an image is wide, such as a monitoring camera in a station yard, and the like. The present invention relates to an object area tracking method.

【0003】[0003]

【従来の技術】近年、高速道路や幹線道路などに据え付
けられた監視カメラが撮像する画像から交通流を自動計
測したり突発事象を自動的に検出する監視システムの開
発が求められている。
2. Description of the Related Art In recent years, there has been a demand for the development of a monitoring system that automatically measures a traffic flow from an image captured by a monitoring camera installed on a highway, a highway, or the like, and automatically detects an unexpected event.

【0004】交通流の計測としては、たとえば車両ごと
の走行速度の測定があり、このためには画像中で各時刻
での各車両の位置を精密に抽出する必要がある。突発事
象の検出としては、渋滞や急停止などの通常時と異なる
流れであることの検出や、事故や停止車両などのために
車線変更が頻発していることの検出などがあるが、これ
らの検出のためにも各車両の走行軌跡を抽出することは
重要な要素である。
[0004] The measurement of the traffic flow includes, for example, the measurement of the traveling speed of each vehicle. For this purpose, it is necessary to precisely extract the position of each vehicle at each time in an image. Examples of the detection of an unexpected event include detection of a flow different from the normal flow such as traffic jam or sudden stop, and detection of frequent lane changes due to an accident or a stopped vehicle. Extracting the running locus of each vehicle is also an important factor for detection.

【0005】画像中の車両の走行軌跡を抽出するための
従来の手法としては、まず背景画像と入力画像との差分
をとることによって車両の画像位置を抽出し、それを時
間的に累積することによって走行軌跡を抽出する手法が
多くとられる(たとえば、「特開平9−91439号
(物体監視装置)」や「特開平6−337938号(画
像処理装置及び距離測定装置)」など)。また、別の方
法としては、物体の特徴点を画像中で抽出して車両の画
像位置を抽出し、それを時間的に累積することによって
走行経路を抽出する手法がある(たとえば、「特開平6
−195464号(対象物体の検出装置)」など)。
As a conventional method for extracting a traveling trajectory of a vehicle in an image, an image position of the vehicle is first extracted by calculating a difference between a background image and an input image, and the position is temporally accumulated. For example, there are many methods for extracting a traveling locus (e.g., JP-A-9-91439 (object monitoring device) and JP-A-6-337938 (image processing device and distance measuring device)). As another method, there is a method of extracting a driving route by extracting a feature point of an object in an image, extracting an image position of a vehicle, and accumulating the extracted image position over time (for example, see Japanese Patent Application Laid-Open No. HEI 9-163572). 6
No. 195644 (detection device for target object) ").

【0006】しかしながら、背景画像を用いる手法で
は、画像中に車両の映っていない画像を背景画像として
用意する必要がある。この背景画像は、天候、時刻また
は照明状況などにより明るさも色も激しく変動するもの
であるため、頻繁な更新が必要となる。また、交通量の
多い道路では、車両の映らないタイミングは非常に稀で
あるため、背景画像の生成は困難である。さらに、複数
の車両が重なった場合には、一つになってしまった変化
領域を複数の領域に分割しなければならないという難し
い問題が残る。
However, in the method using a background image, it is necessary to prepare an image in which the vehicle is not shown in the image as the background image. Since the brightness and color of the background image fluctuate drastically depending on the weather, time, lighting conditions, and the like, frequent updating is required. In addition, on a road with a lot of traffic, the timing at which the vehicle is not reflected is very rare, so that it is difficult to generate a background image. Further, when a plurality of vehicles overlap, there remains a difficult problem that the changed region that has become one must be divided into a plurality of regions.

【0007】一方、物体の特徴点を画像中から抽出する
方法では、車両が重なって特徴点が隠れた場合に処理が
行き詰まってしまう問題がある。また、特徴点は天候、
時刻または照明状況などによって見え方が大きく変動す
るために、安定して抽出することは困難である。
On the other hand, the method of extracting the feature points of the object from the image has a problem that the processing is stalled when the feature points are hidden by overlapping vehicles. The feature points are weather,
It is difficult to extract stably because the appearance greatly changes depending on the time or lighting conditions.

【0008】したがって、交通流監視や突発事象の自動
検出など、それぞれの車両の移動軌跡を抽出する必要が
ある場合には、画像処理手法として背景画像を使った方
法や物体の特徴点を画像中から抽出する方法を用いるべ
きではない。
Therefore, when it is necessary to extract the movement trajectory of each vehicle, for example, in traffic flow monitoring or automatic detection of an unexpected event, a method using a background image as an image processing method or a feature point of an object in the image are used. Should not be used.

【0009】ところで、道路に設置された監視カメラに
車両が進入したタイミングを検出する方法は、これらと
は別にいくつか存在する。たとえば、走行経路を後方か
ら撮像するカメラであれば、車両は画面の下から進入し
て上に抜けるように撮像されることになる。このとき
は、画面下端の走査線だけに着目し、その輝度変化を観
測することで車両の進入を検知することができる。これ
は、一般に時空間画像による方法として知られている。
There are several methods for detecting the timing at which a vehicle enters a surveillance camera installed on a road. For example, in the case of a camera that captures an image of a traveling route from behind, the vehicle is imaged so as to enter from below the screen and exit upward. At this time, the approach of the vehicle can be detected by focusing on only the scanning line at the lower end of the screen and observing the change in luminance. This is generally known as a method using a spatiotemporal image.

【0010】車両の進入したタイミングが分かれば、進
入時の車両の領域を画像中から切り出してそれを参照画
像とし、各時刻の画像に対して参照画像に対応する画像
領域を画像間のパターンマッチング手法により抽出し、
その画像領域を切り出す処理を続けていけば、その車両
の走行軌跡が抽出できることになる。すなわち、画像領
域(ウィンドウ)を画像系列中で追跡することで、走行
軌跡を抽出する方法である。
[0010] When the timing at which the vehicle has entered is known, the region of the vehicle at the time of entry is cut out from the image and used as a reference image, and an image region corresponding to the reference image for each time image is subjected to pattern matching between the images. Extract by technique,
If the process of cutting out the image area is continued, the traveling locus of the vehicle can be extracted. In other words, this is a method of extracting a traveling locus by tracking an image area (window) in an image sequence.

【0011】この画像領域を追跡する方法は、その時点
の画像しか用いないという点で、背景画像を用いる方法
に比べて照明条件など環境の変化に耐性がある。また、
参照画像を画像系列で追跡する方法としては、大きく二
つの手法がある。第一は、車両進入時に車両を含むよう
な初期参照画像領域を設定し、それをテンプレートとし
て各時刻の画像と相関マッチングを行う手法であり、第
二は、時系列中の各時刻で、マッチングの結果得られた
画像領域を切り出してそれを次の時刻のためのテンプレ
ートとして更新する手法である。
The method of tracking an image area is more resistant to environmental changes such as lighting conditions than the method using a background image in that only the image at that time is used. Also,
There are roughly two methods for tracking a reference image in an image sequence. The first is a method of setting an initial reference image area including a vehicle when entering a vehicle and performing correlation matching with the image at each time using the template as a template, and the second is a method of matching at each time in a time series. Is a method of cutting out the image area obtained as a result of the above and updating it as a template for the next time.

【0012】ところが、たとえば車両の進行方向の後方
から撮影するカメラで入力された映像では、各車両は時
間の経過とともにその画像中のサイズが縮小していく。
したがって、初期参照画像をテンプレートとし、車両の
進入時から通過し終わるまで終始そのテンプレートを利
用し続ける手法は、車両の移動とともに追跡に失敗する
危険性が大きい。一方、テンプレートを時間更新する手
法であっても、参照画像として切り出す画像のサイズが
一定であれば、車両の大きさがテンプレートのサイズに
比べて小さくなっていくのは同様である。このため、参
照画像の画像パターンとしては、車両自体の濃淡パター
ンに比べて、背景の模様や濃淡パターンが時間経過とと
もに支配的になっていくため、やはり最終的には追跡に
失敗する。
However, for example, in an image input by a camera that shoots from behind in the traveling direction of the vehicle, the size of the image in each vehicle decreases with the passage of time.
Therefore, a method of using the initial reference image as a template and continuously using the template from the time of entry of the vehicle to the end of passing the vehicle has a great risk of failure in tracking as the vehicle moves. On the other hand, even in the method of updating the template over time, if the size of the image cut out as the reference image is constant, the size of the vehicle becomes smaller than the size of the template in the same manner. Therefore, as the image pattern of the reference image, the background pattern and the shading pattern become dominant over time as compared with the shading pattern of the vehicle itself, so that the tracking also ultimately fails.

【0013】監視カメラの撮像範囲を広くとれば、奥行
き方向も広い範囲で撮影されるのであって、このように
画像中で車両のサイズが変化する問題は必ず発生する。
また、テンプレートのサイズを可変にして追跡を行なう
手法も提案されているが、(たとえば、「Gregor
y D.Hager and Peter.Belhu
meur「Real−Time Tracking o
f ImageRegions with Chang
es in Geometry and Illumi
nation」“Proceedings Compu
terVision and Pattern Rec
ognition '96”pp.403−410」)、
これらの手法はサイズ変化を考慮して探索空間を拡大す
るだけであり、したがって処理量は一方的に増えるだけ
である。
If the imaging range of the surveillance camera is widened, images are taken in a wide range in the depth direction, and the problem that the size of the vehicle changes in the image inevitably occurs.
Further, a method of performing tracking with a variable template size has also been proposed (for example, “Gregor”).
yD. Hager and Peter. Belhu
meur "Real-Time Tracking o
f ImageRegions with Chang
es in Geometry and Illumi
nation "" Proceedings Compu
terVision and Pattern Rec
opinion '96 "pp. 403-410"),
These methods only expand the search space in consideration of the size change, and thus only unilaterally increase the processing amount.

【0014】つまり、従来の参照画像を画像系列で追跡
する方法では、このような画像中での車両のサイズの変
化に着目し、追跡性能を向上させるような手法は提案さ
れてこなかった。
That is, in the conventional method of tracking a reference image in an image sequence, no method has been proposed which focuses on a change in the size of a vehicle in such an image and improves tracking performance.

【0015】[0015]

【発明が解決しようとする課題】このように、従来の画
像中から車両の存在位置を抽出しそれを累積することで
車両の走行軌跡を抽出する方法では、第一の段階となる
車両位置の抽出処理が車両の重なりや環境の変化などに
対して不安定であるという問題があった。
As described above, in the conventional method of extracting the vehicle trajectory by extracting the vehicle location from the image and accumulating the same, the vehicle position at the first stage is extracted. There has been a problem that the extraction process is unstable with respect to vehicle overlap and environmental changes.

【0016】また、参照画像を各画像系列で追跡する方
法も、物体の運動が奥行き方向に生じた場合に発生する
対象物体のサイズの変化に対して不安定であるという問
題があった。
Also, the method of tracking the reference image in each image sequence has a problem that it is unstable with respect to a change in the size of the target object that occurs when the motion of the object occurs in the depth direction.

【0017】この発明は、このような実情に鑑みてなさ
れたものであり、画像から切り出した参照画像を用いて
物体を追跡する上で、物体がカメラに対して固定された
平面を移動することを利用して、物体の画像中のサイズ
変化に対しても安定して追跡対象物体の画像領域を抽出
することのできる物体領域追跡装置および物体領域追跡
方法を提供することを目的とする。
The present invention has been made in view of the above circumstances, and in tracking an object using a reference image cut out from the image, the object moves on a plane fixed to a camera. The object of the present invention is to provide an object area tracking apparatus and an object area tracking method that can stably extract an image area of a tracking target object even when the size of the object in the image changes.

【0018】[0018]

【課題を解決するための手段】前述した目的を達成する
ために、この発明は、物体が撮像された2次元の画像を
時系列に入力する画像入力手段と、前記画像入力手段に
より入力された画像を記憶する入力画像記憶手段と、過
去の時点における追跡対象物体を含む画像およびその画
像に関する情報を一組以上記憶する経過情報記憶手段
と、前記入力画像記憶手段に記憶された画像中での追跡
対象物体の位置およびそのサイズを推測し、その推測し
た追跡対象物体の位置およびそのサイズと前記経過情報
記憶手段に記憶された前記追跡対象物体を含む画像およ
びその画像に関する情報とから前記追跡対象物体の撮像
領域を抽出するための適切なサイズの参照画像を生成す
る画像サイズ変換手段と、前記画像サイズ変換手段によ
り生成された参照画像と前記入力画像記憶手段に記憶さ
れた画像とを照合して前記追跡対象物体の撮像領域を抽
出する画像照合手段と、前記画像照合手段により抽出さ
れた前記追跡対象物体の位置情報を出力する出力手段と
を具備することを特徴とする。
In order to achieve the above-mentioned object, the present invention provides an image input means for inputting a two-dimensional image of an object in time series, and an image input means for inputting the two-dimensional image. Input image storage means for storing an image, progress information storage means for storing at least one set of an image including a tracked object at a past time point and information on the image, and The position and size of the object to be tracked are estimated, and the position and size of the object to be tracked and the image including the object to be tracked stored in the progress information storage means and information on the image are used to determine the tracking object. Image size conversion means for generating a reference image of an appropriate size for extracting an imaging region of an object; and a reference image generated by the image size conversion means. Image matching means for comparing an image stored in the input image storage means with an image stored in the input image storage means, and an output for outputting position information of the tracking target object extracted by the image matching means Means.

【0019】すなわち、この発明は、追跡対象物体の撮
像領域を抽出するための参照画像と入力画像とを照合す
る際に、追跡対象物体が設置したカメラに対して固定さ
れた平面上を運動するという仮定に基づき、その照合位
置における参照画像の適切な画像サイズを推定し変換し
てから照合処理を行なうことによって、追跡対象物体の
サイズの変化に対応するようにしたものである。
That is, according to the present invention, when a reference image for extracting an imaging region of a tracking target object is collated with an input image, the tracking target object moves on a plane fixed with respect to a camera installed. Based on this assumption, an appropriate image size of the reference image at the collation position is estimated and converted, and then collation processing is performed to cope with a change in the size of the tracking target object.

【0020】これにより、物体の運動が奥行き方向に生
じた場合に発生する追跡対象物体のサイズの変化に対し
ても安定に画像領域を抽出できるようになり、画像処理
により自動化された監視システムの実現に途が開かれ
る。
This makes it possible to stably extract an image area even when the size of the tracking target object changes when the movement of the object occurs in the depth direction. The way is open to realization.

【0021】[0021]

【発明の実施の形態】以下、図面を参照してこの発明の
実施形態を説明する。 (第1 実施形態)図1はこの発明の第1実施形態に係る
物体領域追跡装置の構成を示すブロック図である。
Embodiments of the present invention will be described below with reference to the drawings. (First Embodiment) FIG. 1 is a block diagram showing a configuration of an object area tracking device according to a first embodiment of the present invention.

【0022】以下、時間的な順序にしたがってこの第1
実施形態の物体領域追跡装置の動作を説明する。画像入
力部11によって撮像された画像は、A/D変換されて
入力画像記憶部12に格納される。追跡対象となる物体
が画面に進入して来たばかりの初期段階(時刻t=0)
では、図示しない進入検知部から物体の画面中での初期
位置とこの初期領域の形状の情報とが経過情報記憶部1
6に送信される。
In the following, the first
The operation of the object area tracking device according to the embodiment will be described. The image captured by the image input unit 11 is A / D converted and stored in the input image storage unit 12. Initial stage when the object to be tracked has just entered the screen (time t = 0)
Then, the progress information storage unit 1 stores the initial position of the object on the screen and the information on the shape of the initial area from the entry detection unit (not shown).
6 is sent.

【0023】物体進入段階では、進入検知部から送信さ
れた物体の位置情報と領域情報とにしたがって入力画像
から当該位置の当該領域を切り出し、それを経過情報記
憶部16に物体識別番号とともに記憶する。つまり、入
力画像から対象物体を含む部分画像を切り出して経過情
報記憶部16に記憶する。
In the object entry stage, the area at the position is cut out from the input image in accordance with the position information and the area information of the object transmitted from the entry detection section, and stored in the progress information storage section 16 together with the object identification number. . That is, a partial image including the target object is cut out from the input image and stored in the progress information storage unit 16.

【0024】これからの説明では、抽出する物体の画像
領域をウィンドウとも表現し、「追跡ウィンドウ」や
「ウィンドウ内部の画像特徴」などと表現する。また、
照合処理のための参照画像として用いられるウィンドウ
をテンプレートと表現する。そして、この初期段階(時
刻t=0)で抽出されたテンプレートをテンプレートT
(0;i,j)と呼ぶことにする。
In the following description, the image area of the object to be extracted is also referred to as a window, such as a "tracking window" or an "image feature inside the window". Also,
A window used as a reference image for the matching processing is expressed as a template. The template extracted at this initial stage (time t = 0) is
(0; i, j).

【0025】なお、この第1 実施形態の物体領域追跡装
置においては、進入検知部は、この物体進入段階にのみ
動作するものであり、この発明の主目的である追跡処理
を行なう段階では不要である。
In the object area tracking device according to the first embodiment, the entry detecting section operates only in the object entry stage, and is unnecessary at the stage of performing the tracking process which is the main object of the present invention. is there.

【0026】初期段階以外の一般的時刻での動作を説明
する前に、まず、照合処理制御部13、画像サイズ変換
部14および画像照合部15の基本的な機能について説
明する。
Before explaining the operation at a general time other than the initial stage, first, the basic functions of the collation processing control unit 13, image size conversion unit 14, and image collation unit 15 will be described.

【0027】照合処理制御部13および画像照合部15
の基本的動作は、時刻tにおいて位置情報と領域情報と
が特定された部分画像T(t;i,j)をテンプレート
として、時刻t+1における画像I中から、テンプレー
トに対応する画像領域I(u,v;i,j)を求めるこ
とである。
Collation processing control unit 13 and image collation unit 15
Is based on the partial image T (t; i, j) in which the position information and the area information have been specified at the time t, and from the image I at the time t + 1, the image area I (u) corresponding to the template. , V; i, j).

【0028】テンプレートT(t;i,j)の(i,
j)は一般にテンプレートが大きさと形を持っているこ
との表現である。画像はU−Vの2軸で張られた2次元
空間である。たとえばテンプレートT(t;i,j)が
m×nの矩形であれば、
(I, j) of the template T (t; i, j)
j) is generally an expression that the template has size and shape. The image is a two-dimensional space spanned by two axes of UV. For example, if the template T (t; i, j) is an m × n rectangle,

【0029】[0029]

【数1】 ということを意味する。(Equation 1) Means that

【0030】テンプレートとなる部分画像領域は、追跡
対象物体を含むような形状であれば良く、たとえば矩
形、円形または平行四辺形などでも良いし、領域内部の
(i,j)の組合せを記憶すれば、どんな複雑な形状で
も扱うことができる。この第1実施形態においては、説
明の簡単化のために、最も分かりやすい例としてテンプ
レートの形状が矩形である場合について説明する。
The partial image area serving as a template may be of any shape including the object to be tracked, and may be, for example, a rectangle, a circle, a parallelogram, or a combination of (i, j) in the area. Any complex shape can be handled. In the first embodiment, for simplicity of explanation, a case where the template has a rectangular shape will be described as the most obvious example.

【0031】時刻tにおける画像領域(テンプレートT
(t;i,j))の時刻t+1における対応位置(u,
v)を求めるためには、時刻t+1の画像中から(2)
式で表される残差R(t;u,v)(添字のtはテンプ
レートT(t;i,j)との計算結果という意味であ
る)が最小となるような位置を求めれば良い。この機能
は画像照合部15により実現される。
The image area at time t (template T
(T; i, j)) at time t + 1 at the corresponding position (u,
To obtain v), (2) from the image at time t + 1
It is sufficient to find a position where the residual R (t; u, v) (subscript t means the calculation result with the template T (t; i, j)) expressed by the formula is minimized. This function is realized by the image matching unit 15.

【0032】[0032]

【数2】 (Equation 2)

【0033】ここで、m,nはテンプレートT(t;
i,j)の画像中のサイズであり、幅m画素、高さn画
素である。また、テンプレートと対応位置の対応の良さ
を示す値として、(2)式の代わりに相関係数C(t;
u,v)が最大となるような画像領域を求めるようにし
ても良い。
Here, m and n are templates T (t;
i, j) in the image, which is m pixels wide and n pixels high. In addition, as a value indicating the goodness of correspondence between the template and the corresponding position, a correlation coefficient C (t;
An image area in which u, v) is maximized may be obtained.

【0034】[0034]

【数3】 (Equation 3)

【0035】他にも画像輝度の差の絶対値の総和の最小
化なども適用できる。いずれにしろ部分画像間で明度の
相関による領域同士のパターンマッチングを行なう。以
後の説明では、これら「画像間の相関の良さを表現する
指標」をまとめて相関値と表現する。
In addition, minimization of the sum of the absolute values of the differences in image luminance can be applied. In any case, pattern matching between regions based on brightness correlation between partial images is performed. In the following description, these “indexes expressing good correlation between images” are collectively expressed as a correlation value.

【0036】ところで、道路に据え付けられた監視カメ
ラの画像により車両を追跡する状況を考えてみると、図
2に示したように、車両が道路上を奥の方向に移動する
につれて車両の画像中のサイズが変化(縮小)するとい
う問題がある。
Considering the situation where a vehicle is tracked by an image of a surveillance camera installed on a road, as shown in FIG. 2, as the vehicle moves on the road in the depth direction, the image of the vehicle There is a problem that the size of the image changes (reduces).

【0037】このため、テンプレートのサイズを固定に
したまま、(2)式または(3)〜(7)式によるパタ
ーンマッチングをしただけでは、正しい対応位置を求め
ることができない。
For this reason, a correct corresponding position cannot be obtained only by performing pattern matching using the equation (2) or the equations (3) to (7) while keeping the template size fixed.

【0038】そこで、この第1 実施形態においては、車
両の移動に伴なう画像中のサイズの変化に対応するため
に画像サイズ変換部14を用意する。具体的には、
(2)式の代わりに(8)式でパターンマッチングを行
なう。
Therefore, in the first embodiment, an image size conversion unit 14 is prepared in order to cope with a change in the size in the image accompanying the movement of the vehicle. In particular,
Pattern matching is performed by equation (8) instead of equation (2).

【0039】[0039]

【数4】 また、(3)式に対応する式は(9)式となる。(Equation 4) The equation corresponding to equation (3) is equation (9).

【0040】[0040]

【数5】 (Equation 5)

【0041】ここで、M(u,v)はテンプレートT
(t;i,j)が画像位置(u,v)に移動したときの
テンプレートTs(t;u,v;i,j)の幅であり、
N(u,v)は同様にテンプレートT(t;i,j)が
画像位置(u,v)に移動したときのテンプレートTs
(t;u,v;i,j)の高さである。また、テンプレ
ートTs(t;u,v;i,j)はT(t;i,j)を
M(u,v)×N(u,v)のサイズに縮小または拡大
したものである。そして、M(u,v)とN(u,v)
とはテンプレートの画像位置(u,v)と時刻tの時点
におけるテンプレートの大きさ(mとn)とから計算で
きる。
Here, M (u, v) is the template T
The width of the template Ts (t; u, v; i, j) when (t; i, j) moves to the image position (u, v),
Similarly, N (u, v) is the template Ts when the template T (t; i, j) moves to the image position (u, v).
(T; u, v; i, j). The template Ts (t; u, v; i, j) is obtained by reducing or expanding T (t; i, j) to a size of M (u, v) × N (u, v). Then, M (u, v) and N (u, v)
Can be calculated from the template image position (u, v) and the template size (m and n) at time t.

【0042】画像位置(u,v)におけるテンプレート
のサイズの計算のために、画像サイズ変換部14には、
図3 に示すように平面情報記憶部141が用意される。
この平面情報記憶部141には、道路上を走行する車両
が画像中でいかなる大きさに撮影されるかを計算するた
めのパラメータが予め測定されて記憶されている。
To calculate the size of the template at the image position (u, v), the image size conversion unit 14
As shown in FIG. 3, a plane information storage unit 141 is prepared.
In the plane information storage unit 141, parameters for calculating the size of a vehicle traveling on a road in an image are measured and stored in advance.

【0043】たとえば、図4に示すように、カメラの水
平レベルを水平に設置し、道路面が水平な面であると仮
定できる場合、カメラ光軸の伏角ψ、カメラの焦点位置
の高さHc、カメラレベルの焦点距離fをカメラパラメ
ータとして記憶する。このとき、車両の背面の高さをH
h 、車両の横幅をWとした場合、画像中の背面の縦の長
さhおよび画像中の車両の横幅wと画像中の座標値
(u,v)との間には以下の(10)〜(11)式の関
係が成り立つ。
For example, as shown in FIG. 4, when the horizontal level of the camera is set horizontally and the road surface can be assumed to be a horizontal surface, the inclination angle ψ of the optical axis of the camera, the height Hc of the focal position of the camera, , And the camera-level focal length f is stored as a camera parameter. At this time, the height of the back of the vehicle is H
h, when the width of the vehicle is W, the following formula (10) is provided between the vertical length h of the back surface in the image and the width w of the vehicle in the image and the coordinate value (u, v) in the image. The relationship of Expression (11) holds.

【0044】[0044]

【数6】 (Equation 6)

【0045】すなわち、追跡対象物体が水平な面上を移
動する場合、追跡対象物体の画像中の大きさは、座標値
(v座標値)と(10)式および(11)式で示される
ように1次式の関係にある。この関係は図2の(b−
1)および(b−2)のように曲線道路の場合であって
も同様に成り立つ。
That is, when the object to be tracked moves on a horizontal plane, the size of the object to be tracked in the image is represented by the coordinate value (v coordinate value) and the equations (10) and (11). Has a linear relationship. This relationship is shown in FIG.
The same holds true for curved roads as in 1) and (b-2).

【0046】あるいは、追跡物体の画像中の大きさと座
標値とが1次式の関係にあるという知識を使って、その
関係式をサンプル画像から計測することで求めてしまう
方法もある。
Alternatively, there is also a method in which the relational expression is obtained by measuring the relational expression from a sample image using the knowledge that the size of the tracking object in the image and the coordinate value have a linear relation.

【0047】具体的には、予め入力画像記憶部12から
サンプル画像を採取し、v座標とそのv座標上での画像
上の道路の幅とを道路のペイントのエッジ等を用いて計
測してテーブルに記憶する作業を行なう。実空間上の道
路の幅が一定であれば(そのような区間からサンプリン
グすれば良い)画像中の道路幅のv座標に対する変化率
が計算でき、その変化率は車両の横幅に対しても同値で
ある。
More specifically, a sample image is sampled from the input image storage unit 12 in advance, and the v-coordinate and the width of the road on the image on the v-coordinate are measured using the paint edge of the road or the like. Do the work of storing in the table. If the width of the road in the real space is constant (sampling from such a section is possible), the rate of change of the road width in the image with respect to the v coordinate can be calculated, and the rate of change is the same as the width of the vehicle. It is.

【0048】画像の歪みや道路の傾きを考慮する場合
は、v座標と道路幅の参照点を幾つかサンプルした後で
1次式や高次関数などで内挿して近似すれば良い。ある
いは、カメラパラメータや1次式として記憶するのでな
く、画像中のv座標と物体の大きさとをテーブルにして
記憶する方法もある。道路面に若干の傾きがある場合
や、カメラ据え付け時にカメラパラメータの測定ができ
なかった場合などは、こちらの方法の方が簡便である。
In order to take into account the distortion of the image and the inclination of the road, it is only necessary to sample several reference points of the v coordinate and the road width, and then approximate by interpolation using a linear expression or a higher-order function. Alternatively, there is a method of storing the v coordinate and the size of the object in an image in a table, instead of storing them as camera parameters or linear expressions. This method is simpler when the road surface has a slight inclination, or when the camera parameters cannot be measured when the camera is installed.

【0049】さらなる一般的条件で考えれば、物体の移
動方向は固定された平面上に限られる物ではなく、凹凸
や傾きのある面上と考えることができる。いずれにし
ろ、追跡対象物体が飛行機や虫など空中を飛ぶもので無
い限り、追跡対象物体はカメラに対して固定された一定
の面上を物体は移動するのである。したがって、この面
上を移動すると仮定した場合には、画面上の各位置でど
のようなサイズの映像となるかを事前に調べ、テーブル
として記憶すれば良いのであって、その意味でこの発明
は平面上の移動物体の監視だけに限られるものではな
い。
Under more general conditions, the moving direction of the object is not limited to a fixed plane, but can be considered to be on a surface having irregularities or inclination. In any case, as long as the object to be tracked does not fly in the air such as an airplane or an insect, the object to be tracked moves on a fixed surface fixed to the camera. Therefore, when it is assumed that the image moves on this plane, the size of the image at each position on the screen should be checked in advance and stored as a table. It is not limited to monitoring only a moving object on a plane.

【0050】以上のように、画像中のテンプレートの位
置(u,v)を受信すれば画像サイズ変換部14は当該
位置に最適なテンプレートのサイズM(u,v)×N
(u,v)を算出することができる。時刻tにおけるテ
ンプレートT(t;i,j)のサイズはm×nであるか
ら、計算された最適なテンプレートのサイズが異なる場
合は、各種の画像の幾何変換によりテンプレートのサイ
ズを変換すればよい。
As described above, when the position (u, v) of the template in the image is received, the image size conversion unit 14 determines the optimal template size M (u, v) × N for the position.
(U, v) can be calculated. Since the size of the template T (t; i, j) at time t is m × n, if the calculated optimal template size is different, the template size may be converted by geometric conversion of various images. .

【0051】以上説明したように、画像サイズ変換部1
4の機能は、幾何学的位置関係によるパラメータまたは
テーブルにより車の背面の高さと画像位置(u,v)と
の関係が記憶されており、対象物体を含む部分画像T
(t;i,j)が与えられると、車両の移動に伴なうサ
イズの変換を考慮して、各画像位置(u,v)に対して
適切な大きさのテンプレートを作成し、画像照合部15
に送信することである。
As described above, the image size conversion unit 1
The function of No. 4 stores the relationship between the height of the back of the car and the image position (u, v) by a parameter or table based on the geometrical positional relationship, and stores a partial image T including the target object.
Given (t; i, j), a template of an appropriate size is created for each image position (u, v) in consideration of the size conversion accompanying the movement of the vehicle, and image matching is performed. Part 15
Is to send to.

【0052】以上の照合処理制御部13、画像サイズ変
換部14および画像照合部15を持つ物体領域抽出装置
の一般的時刻(時刻t+1)の動作は以下のようにな
る。まず、新たな画像が画像入力部11によって入力さ
れ入力画像記憶部12に格納される。照合処理制御部1
3は、経過情報記憶部16から時刻tまでの対象物の軌
跡情報を利用して探索範囲を決定する。最も簡単に決め
るには、たとえば時刻tの位置(U,V)を中心として
ΔU×ΔVの矩形内で探索するように決めれば良い。ま
た、探索範囲の別の決定方法については、後述する第2
実施形態で説明する。
The operation at the general time (time t + 1) of the object region extracting apparatus having the above-described collation processing control unit 13, image size conversion unit 14, and image collation unit 15 is as follows. First, a new image is input by the image input unit 11 and stored in the input image storage unit 12. Collation processing control unit 1
3 determines the search range using the trajectory information of the target object from the progress information storage unit 16 to time t. The easiest way to determine this is to determine, for example, to search within a rectangle of ΔU × ΔV around the position (U, V) at time t. In addition, another method of determining the search range is described in a second method described later.
The embodiment will be described.

【0053】照合処理制御部13は、さらに経過情報記
憶部16に制御信号を送信し、経過情報記憶部16は、
参照画像となるテンプレートを生成して画像照合部15
に送信する。経過情報記憶部16には、時刻tにおける
入力画像、追跡対象物体を含む画像領域の位置(u,
v)および大きさm×nが保有されている。経過情報記
憶部16は、照合処理制御部13から制御信号を受信す
ると、当該領域の画像を切り出して(予め切り出した画
像を記憶しておいても良い)、それをテンプレートT
(t;i,j)とする。
The collation processing control unit 13 further transmits a control signal to the progress information storage unit 16, and the progress information storage unit 16
Generates a template to be a reference image and generates an image matching unit 15
Send to The progress information storage unit 16 stores the input image at time t and the position (u,
v) and the size m × n. When receiving the control signal from the collation processing control unit 13, the progress information storage unit 16 cuts out the image of the area (the image cut out in advance may be stored) and stores it in the template T.
(T; i, j).

【0054】照合処理制御部13は、ΔU×ΔVの矩形
内でテンプレートのサイズを適切に変換しながら、入力
画像とのマッチング処理を行なう。マッチング作業を模
式的に示したものが図5である。
The matching processing control unit 13 performs matching processing with the input image while appropriately converting the size of the template within the rectangle of ΔU × ΔV. FIG. 5 schematically shows the matching operation.

【0055】いま、たとえばテンプレートの制御点を図
6のように設定したとする。照合処理制御部13は、時
刻t+1における制御点の周囲ΔU×ΔVに制御点を走
査し、画像サイズ変換部14は、制御点のv座標に応じ
てテンプレートTs(t;u,v;i,j)のサイズM
(u,v)×N(u,v)を算出して、適応するサイズ
に変換された画像を生成し、画像照合部15が、生成さ
れたサイズ変換処理後のテンプレートTS (t;u,
v;i,j)と入力画像との相関の良さを(2)式や
(3)式などで計算し、相関値の最も大きい、あるいは
2乗誤差の最も小さい位置(umax (t+1),vmax
(t+1))を抽出するという作業を行なう。
Assume that the control points of the template are set as shown in FIG. The matching processing control unit 13 scans the control points around ΔU × ΔV around the control points at the time t + 1, and the image size conversion unit 14 determines the template Ts (t; u, v; i, j) size M
(U, v) × N (u, v) is calculated to generate an image converted to an appropriate size, and the image matching unit 15 generates the size-converted template TS (t; u, v).
v; i, j) and the correlation between the input image and the input image are calculated by the equations (2) and (3), and the position (umax (t + 1), vmax) where the correlation value is the largest or the square error is the smallest.
(T + 1)) is extracted.

【0056】以上の処理により、時刻t+1における対
象物体の画像位置(umax (t+1),vmax (t+
1))と画像領域のサイズM(umax (t+1),vma
x (t+1))×N(umax (t+1),vmax (t+
1))とが求められ、結果が出力部17から数値的ある
いは図的情報として出力される。さらに経過情報記憶部
16に時刻t+1における位置と領域として記憶され
る。
By the above processing, the image position (umax (t + 1), vmax (t +
1)) and the image area size M (umax (t + 1), vma
x (t + 1)) × N (umax (t + 1), vmax (t +
1)) are obtained, and the result is output from the output unit 17 as numerical or graphical information. Further, it is stored in the progress information storage unit 16 as the position and the area at the time t + 1.

【0057】以上で時刻t+1の段階の処理の流れが終
了し、次の時刻の処理に移る。図7にはこの第1実施形
態の物体領域追跡装置の基本的な処理手順が、図8には
照合処理の詳細な処理手順が示されている。
Thus, the flow of the process at the time t + 1 is completed, and the process proceeds to the next time. FIG. 7 shows a basic processing procedure of the object area tracking device of the first embodiment, and FIG. 8 shows a detailed processing procedure of the matching processing.

【0058】(第2実施形態)次に、この発明の第2実
施形態を説明する。この第2実施形態では、第1実施形
態で説明した矩形の探索領域の設定方法とは別の設定方
法について説明する。
(Second Embodiment) Next, a second embodiment of the present invention will be described. In the second embodiment, a setting method different from the setting method of the rectangular search area described in the first embodiment will be described.

【0059】第1実施形態では、車両の実際のサイズが
一定であれば画像中の座標値と画像中のサイズとの間に
は(10)式および(11)式のような1次式の関係が
あることを利用して、追跡のためのテンプレートの大き
さを能動的に変化させて車両を追跡した。
In the first embodiment, if the actual size of the vehicle is constant, a linear expression such as Expressions (10) and (11) is provided between the coordinate values in the image and the size in the image. Utilizing the relationship, the vehicle was tracked by actively changing the size of the template for tracking.

【0060】同様に、車両の移動距離が一定範囲内であ
れば、画像中の座標値と車両の画像中の移動距離(テン
プレートの移動画素数)との間にも、1次式の関係が成
り立つ。つまり、車両が奥に移動するにしたがって画像
中の移動距離も比例関係で小さくなり、その結果、テン
プレートの照合処理を行なう範囲は小さくて済む。
Similarly, if the moving distance of the vehicle is within a certain range, the linear relationship also exists between the coordinate value in the image and the moving distance (the number of moving pixels of the template) in the image of the vehicle. Holds. That is, as the vehicle moves deeper, the moving distance in the image also decreases in a proportional relationship, and as a result, the range in which the template matching process is performed can be reduced.

【0061】具体的には、たとえば、車両の最大時速を
120kmと仮定し、画像入力はテレビ信号のフレーム
レート(1/30秒)で行なわれていると仮定する。こ
のとき、車両は1フレーム当たり約1m進行することに
なるので、前述した図4のパラメータを用いて画像上で
移動する画素数の最大限を推測できる。
More specifically, for example, it is assumed that the maximum speed of the vehicle is 120 km, and that the image input is performed at the frame rate of the television signal (1/30 second). At this time, since the vehicle travels about 1 m per frame, the maximum number of pixels moving on the image can be estimated using the above-described parameters of FIG.

【0062】もっと簡単には、幾つかの画像サンプルを
用いて、まず、車両進入時の走行車両の画像中の移動量
を十分含むように照合領域ΔU(0)×ΔV(0)を設
定する。処理時間に余裕があるならば照合領域は大きめ
に設定すれば良い。
More simply, first, a collation area ΔU (0) × ΔV (0) is set using some image samples so as to sufficiently include the moving amount in the image of the traveling vehicle when the vehicle enters. . If there is enough processing time, the collation area may be set to be relatively large.

【0063】車両進入時の画像中の移動量と車両が移動
して画像中の車両の位置が変化してからの移動量とに
も、(10)式や(11)式と同様に1次式で近似でき
る関係があるので、画像サイズ変換部14が記憶する関
係にしたがって、照合領域の大きさΔU(0)×ΔV
(0)を当該位置に対応する大きさΔU(t)×ΔV
(t)に変更して、照合処理を行なえば良い。
Similarly to the equations (10) and (11), the amount of movement in the image at the time of vehicle entry and the amount of movement after the vehicle moves and the position of the vehicle in the image changes, as in equations (10) and (11). Since there is a relation that can be approximated by the equation, the size of the collation area is ΔU (0) × ΔV according to the relation stored in the image size conversion unit 14.
(0) is the size ΔU (t) × ΔV corresponding to the position
It is sufficient to change to (t) and perform the collation processing.

【0064】(第3実施形態)次に、この発明の第3実
施形態を説明する。第1実施形態では、時刻tにおける
画像から部分画像を抽出してテンプレートT(t;i,
j)とし、時刻t+1における画像から対応する位置と
領域とを求めた。この方法はテンプレートを逐次更新す
ることに相当する。
(Third Embodiment) Next, a third embodiment of the present invention will be described. In the first embodiment, a partial image is extracted from the image at the time t and the template T (t; i,
j), and the corresponding position and region were obtained from the image at time t + 1. This method corresponds to sequentially updating the template.

【0065】テンプレートの逐次更新は、路面位置によ
る照明条件の違い(手前が明るく、奥は暗い場合など)
や、走行車両の通過時間内の照明条件の変化(急に雲が
かかった場合など)や、車両を俯瞰する角度の変化によ
る車両の見え方の変化(カメラの真下の時点では車両の
屋根の部分が大きく見えるが、カメラから遠ざかるにし
たがって車両後方だけが見えるようになることなど)に
対しても、ロバストな追跡能力を発揮する。しかしその
反面、ウィンドウ内で背景が支配的になった場合などに
追跡能力が悪化する特性がある。
The sequential updating of the template is performed by changing the lighting conditions depending on the road surface position (for example, when the front is bright and the back is dark).
Or changes in lighting conditions during the transit time of the traveling vehicle (such as when a cloud suddenly hits), or changes in the appearance of the vehicle due to a change in the angle at which the vehicle looks down (at the point directly below the camera, Even if the part looks large, only the rear of the vehicle becomes visible as the camera moves away from the camera, etc.). However, on the other hand, there is a characteristic that the tracking ability deteriorates when the background becomes dominant in the window.

【0066】たとえば、図9のように道路脇に樹が植え
られている場合を想定してみる。図9(a)ではテンプ
レート内のほとんどを車両が占めているので車両の進行
とともに追跡ウィンドウは車両を追跡する。そして、図
9(b)の階段まで進行するとウィンドウ内部に樹木の
テクスチャが入り込んでくる。
Assume, for example, that a tree is planted beside the road as shown in FIG. In FIG. 9A, since the vehicle occupies most of the template, the tracking window tracks the vehicle as the vehicle advances. Then, when proceeding to the stairs in FIG. 9B, the texture of the tree enters the window.

【0067】車両の色が暗く道路に近い色の場合など、
車両の画像的特徴(テクスチャ)が乏しい場合には、
(2)式や(3)式などの画像間の相関の良さを示す値
に対して、樹木のテクスチャの部分の計算値への寄与が
車両のテクスチャによる計算値への寄与より大きくなる
場合がある。この場合、ウィンドウ内部では樹木のテク
スチャが支配的になる。
For example, when the color of the vehicle is dark and close to the road,
If the vehicle has poor image characteristics (texture),
With respect to the values indicating the good correlation between the images, such as Expressions (2) and (3), the contribution of the texture of the tree to the calculated value may be greater than the contribution of the vehicle texture to the calculated value. is there. In this case, the texture of the tree becomes dominant inside the window.

【0068】したがって、このままテンプレートの逐次
更新により追跡処理を続けると、図9(c)や図9
(d)のように追跡ウィンドウは樹木に貼りついたまま
になる。その他にも、たとえば図10のように低速車両
に後方から高速の車両が接近し画像上でオーバーラップ
する場合を想定してみる。この場合、図10(a),
(b)ではそれぞれが重なることのない別々の矩形で覆
われているので問題はないが、図10(c),(d)の
ような状態になると二つの領域が重なり合い、特に図1
0(d)の状態では、前方を走行する車両のための追跡
ウィンドウ内に後方の車両の一部が入り込んでしまう。
さらに時間が進むと後方の車両が前方の車両の追跡ウィ
ンドウ内で支配的になり、前方の車両のための追跡ウィ
ンドウは、後方の車両を追跡するようになってしまう。
Therefore, if the tracing process is continued by successively updating the template as it is, as shown in FIG.
As shown in (d), the tracking window remains attached to the tree. In addition, assume that a high-speed vehicle approaches a low-speed vehicle from behind as shown in FIG. 10 and overlaps on an image. In this case, FIG.
In FIG. 10B, there is no problem because each is covered with a separate rectangle that does not overlap. However, in the state shown in FIGS. 10C and 10D, the two areas overlap, and in particular, FIG.
In the state of 0 (d), a part of the vehicle behind enters the tracking window for the vehicle traveling ahead.
As time goes on, the vehicle behind will become dominant in the tracking window of the vehicle in front, and the tracking window for the vehicle in front will track the vehicle behind.

【0069】図9および図10のおのおの時刻間では、
追跡ウィンドウ同士の相関値は高く、このような現象が
おきていることを判別できない。また、車両が遠ざかる
にしたがってテンプレートが小さくなると、追跡のため
の十分なテクスチャが不足する場合がある。たとえば、
図11の場合、図11(a)の時点ではテンプレートの
大きさが十分大きいので(たとえば100×100画素
程度)、図11(a)の時刻J、図11(b)の時刻J
+1、のウィンドウとも十分なテクスチャを有してい
る。しかし、時間が進んで図11(c),(d)のよう
な状態になるとテンプレートの大きさが小さくなり(た
とえば10×10画素程度)、図11(c)の時刻N、
図11(d)の時刻N+1のテンプレート間の相関値を
計算するにはテクスチャが不足する場合がある。
Between the times shown in FIGS. 9 and 10,
The correlation value between the tracking windows is high, and it cannot be determined that such a phenomenon has occurred. Also, if the template becomes smaller as the vehicle moves further away, sufficient texture for tracking may be insufficient. For example,
In the case of FIG. 11, the size of the template is sufficiently large (for example, about 100 × 100 pixels) at the time of FIG. 11A, so that the time J in FIG. 11A and the time J in FIG.
Both +1 windows have sufficient texture. However, when the time advances and the state as shown in FIGS. 11C and 11D is reached, the size of the template becomes smaller (for example, about 10 × 10 pixels), and the time N in FIG.
To calculate the correlation value between the templates at time N + 1 in FIG. 11D, the texture may be insufficient.

【0070】この場合、テンプレートの逐次更新をや
め、車両進入時のテンプレートT(0;i,j)を車両
進入から車両が通り抜けるまで(サイズ変換して)、一
貫して利用する方法もあるが、この方法では、位置的な
あるいは時間的な照明条件の変化や車両の見え方の変化
に対して不安定になる。
In this case, there is a method of stopping the sequential updating of the template and using the template T (0; i, j) at the time of vehicle entry from the vehicle entry until the vehicle passes through (by converting the size) consistently. However, this method is unstable with respect to a change in the lighting conditions in terms of position or time and a change in the appearance of the vehicle.

【0071】図10の例では、複数の追跡ウィンドウが
画像上で重なった時点で前方の車両の追跡を終了して良
い場合には、時間的に古く発生したウィンドウ追跡を終
了し古いウィンドウを消去し新しいウィンドウだけを残
す処理によってこの問題に対処できる。
In the example shown in FIG. 10, when the tracking of the vehicle in front can be ended when a plurality of tracking windows overlap on the image, the window tracking that has occurred in time is ended and the old window is deleted. You can address this problem by leaving only the new window.

【0072】また、図9のように背景に追跡ウィンドウ
が張りつく現象には、予め背景領域を無視するように設
定できるのならば、背景領域との相関を計算しないこと
でこの問題に対処できる。
In the case where the tracking window sticks to the background as shown in FIG. 9, if the background area can be set to be ignored in advance, this problem can be dealt with by not calculating the correlation with the background area. .

【0073】しかし、このような対応ができない場合が
多々存在する。そこで、この第3実施形態では、車両の
サイズが小さくなった場合を含め、このような沢山の問
題を統一的に解決し、ロバストな追跡を可能とするため
の方法について説明する。
However, there are many cases where such measures cannot be taken. Therefore, in the third embodiment, a method for uniformly solving many of such problems, including a case where the size of the vehicle is reduced, and enabling robust tracking will be described.

【0074】以上説明したような問題点を解決するため
に、この第3実施形態の物体領域追跡装置では、経過情
報記憶部16に記憶された車両のこれまでの追跡結果の
情報を照合処理に利用する。
In order to solve the above-described problems, the object area tracking device according to the third embodiment uses the information of the tracking result of the vehicle stored in the progress information storage unit 16 so far in the collation processing. Use.

【0075】図12は経過情報記憶部16の内部構成を
示す図であり、経過情報記憶部16は画像系列記憶部1
61と位置系列記憶部12とにより構成されている。位
置系列記憶部162には、物体識別番号ごとに、画像番
号(入力画像のフレーム番号)と物体の画像中の位置
(テンプレートの制御点)および物体の画像中の大きさ
(テンプレートの大きさ)が記憶される。
FIG. 12 is a diagram showing the internal configuration of the progress information storage unit 16.
61 and the position sequence storage unit 12. The position series storage unit 162 stores, for each object identification number, an image number (frame number of the input image), a position in the image of the object (control point of the template), and a size in the image of the object (size of the template). Is stored.

【0076】また、画像系列記憶部161には、物体識
別番号ごとに、画像番号(フレーム番号)と当該画像番
号における物体の位置と領域とにしたがって抽出した部
分画像(テンプレート)が画像系列として記憶される。
もしくは、画像番号とともに入力画像そのものを系列と
して記憶しておき、必要な時に切り出しても良い。
The image sequence storage unit 161 stores, for each object identification number, a partial image (template) extracted according to the image number (frame number) and the position and area of the object in the image number as an image sequence. Is done.
Alternatively, the input image itself may be stored together with the image number as a series, and cut out when necessary.

【0077】したがって、時刻t+1において経過情報
記憶部16には部分画像系列T(0;i,j),T
(1;i,j),T(2;i,j),…,T(t;i,
j)が記憶されていることになる。
Therefore, at time t + 1, the progress information storage unit 16 stores the partial image sequences T (0; i, j), T
(1; i, j), T (2; i, j),..., T (t; i,
j) is stored.

【0078】時刻t+1におけるマッチング処理は、時
刻tの位置(u(t),v(t))を中心とするΔU
(t)×ΔV(t)の照合探索領域から、以下の(1
2)式で表される残差SR が最小となる位置を求める処
理になる。
The matching processing at time t + 1 is performed by using ΔU centered on the position (u (t), v (t)) at time t.
From the collation search area of (t) × ΔV (t), the following (1)
2) A process for finding a position where the residual SR represented by the equation is minimum.

【0079】[0079]

【数7】 (Equation 7)

【0080】ここでw(k)はk番目のテンプレートに
対する重み係数である。この重み係数は、追跡装置の仕
様(テンプレートの重なりがあった場合にどの程度まで
追跡を続行するかなど)に基づいて決めれば良い。
Here, w (k) is a weight coefficient for the k-th template. The weighting factor may be determined based on the specifications of the tracking device (eg, how much tracking is continued when templates overlap).

【0081】通常は、照明環境の空間的なあるいは時間
的な変化にロバストにするために、前時刻の画像から切
り出したテンプレートの重みを1/2に、それ以前の時
刻の画像から切り出したテンプレートの重みが全体で1
/2になるように設定すれば良い。
Normally, in order to be robust to the spatial or temporal change of the lighting environment, the weight of the template cut out from the image at the previous time is reduced by half, and the weight of the template cut out from the image at an earlier time is reduced. Weight is 1 in total
/ 2 may be set.

【0082】[0082]

【数8】 (Equation 8)

【0083】この第3実施形態では、複数のテンプレー
トに対して相関値の投票値の線形和を算出し、投票値が
最大となる位置(u,v)を抽出する処理によって、複
数のテンプレートの情報を利用した。
In the third embodiment, the linear sum of the voting values of the correlation values is calculated for a plurality of templates, and the position (u, v) at which the voting value is maximized is extracted. I used the information.

【0084】しかし、複数のテンプレートの利用方法は
これに限られたものではなく、様々な利用方法があるこ
とを付け加えておく。たとえばおのおのテンプレートT
(t;i,j)ごとに投票値を求め、投票値が最大とな
る位置(u(T(t)),v(T(t)))を求め、そ
の位置をまた新たな投票値として用いて最適な位置を抽
出する方法や、それぞれのテンプレートごとに得られた
位置(u(T(t)),v(T(t)))の重みつき重
心位置を計算して求めても良い。
However, the method of using a plurality of templates is not limited to this, and it should be added that there are various methods of using. For example, each template T
A voting value is obtained for each (t; i, j), a position (u (T (t)), v (T (t)) where the voting value is maximum is obtained, and the position is used as a new voting value. The method may be used to extract an optimum position using the method, or a weighted barycentric position of a position (u (T (t)), v (T (t)) obtained for each template may be calculated. .

【0085】また、実際にはメモリ容量や計算時間の制
約から、すべての時刻の画像領域を記憶し、(12)式
や(13)式の計算をすることが困難な場合もある。こ
の場合は、たとえば一定時間間隔で画像領域を記憶した
り(たとえば5フレームごとや1秒ごとに画像領域を記
憶する)、一定時間間隔のテンプレートだけで(12
2)式や(13)式の計算をするなどとすれば、記憶領
域や計算量の負荷が小さくなる。
In practice, it is sometimes difficult to store the image areas at all times and calculate the equations (12) and (13) due to the limitation of the memory capacity and the calculation time. In this case, for example, an image area is stored at a fixed time interval (for example, an image area is stored every 5 frames or every 1 second), or only a template at a fixed time interval (12
If the calculation of the expression 2) or the expression (13) is performed, the load on the storage area and the amount of calculation is reduced.

【0086】記憶あるいは計算対象のサンプリングを時
間間隔で制御することも可能であるが、テンプレートの
画像中の位置の間隔でサンプリングする方法もある。た
とえば、入力画像の大きさが高さ300画素であると
き、10画素ごとにサンプリングラインを設定し、追跡
ウィンドウがサンプリングラインを横切るたびにサンプ
ルを抽出すれば良いのである。位置間隔によるサンプリ
ングのメリットは、各車両ごとに記憶しなければならな
いテンプレート画像系列の数が車両の通過時間に関係な
く一定になるので、記憶装置の容量を一定にできること
である(たとえば渋滞時は通過時間が長くなるので、時
間間隔によるサンプリングでは大きな記憶装置が必要と
なる)。
Although the sampling of the storage or calculation object can be controlled at time intervals, there is also a method of sampling at intervals of positions in the template image. For example, when the size of the input image is 300 pixels high, a sampling line may be set every 10 pixels, and a sample may be extracted every time the tracking window crosses the sampling line. An advantage of sampling based on the position interval is that the number of template image sequences that must be stored for each vehicle is constant regardless of the passing time of the vehicle, so that the capacity of the storage device can be kept constant (for example, during traffic jams). Since the transit time becomes longer, sampling by time intervals requires a large storage device).

【0087】一方、時間間隔によるサンプリングは、テ
ンプレート系列を逐次更新していくことに相当するの
で、時間変化によって照明環境などに変化が生じた場合
でも、安定して追跡できるというメリットがある。
On the other hand, sampling at time intervals is equivalent to successively updating the template sequence, so that there is an advantage that stable tracking can be performed even when a change occurs in the illumination environment due to a time change.

【0088】以上のように、このような構成の経過情報
記憶部16を備えて追跡結果の系列画像を利用すること
によって、背景や車両の見え方の変化にロバストな追跡
が可能となる。
As described above, by using the sequence image of the tracking result provided with the progress information storage unit 16 having such a configuration, it is possible to perform tracking that is robust against changes in the background and the appearance of the vehicle.

【0089】(第4実施形態)次に、この発明の第4実
施形態を説明する。この発明の応用は、車両監視システ
ムに限らず、移動物体の移動方向がカメラに対して固定
された平面を移動する環境における追跡装置であれば何
にでも応用することができる。そこで、この第4実施形
態では、駅構内の監視カメラを例にして説明する。図1
3は監視カメラの設置環境を模式的に示した図であり、
図14は監視カメラの入力画像を模式的に示した図であ
る。
(Fourth Embodiment) Next, a fourth embodiment of the present invention will be described. The application of the present invention is not limited to the vehicle monitoring system, and can be applied to any tracking device in an environment in which the moving direction of the moving object moves on a plane fixed to the camera. Therefore, in the fourth embodiment, a surveillance camera in a station premises will be described as an example. FIG.
3 is a diagram schematically showing the installation environment of the monitoring camera,
FIG. 14 is a diagram schematically showing an input image of the monitoring camera.

【0090】駅構内の監視カメラの場合も、監視対象と
なる人物はカメラに対して固定された平面上を移動す
る。また、図14の模式図では背景を省略したが、監視
カメラの画角内には複雑な形や模様の物体が数多くあ
り、背景は極めて複雑である。
In the case of a surveillance camera in a station premises, a person to be monitored moves on a plane fixed to the camera. Although the background is omitted in the schematic diagram of FIG. 14, there are many objects having complicated shapes and patterns within the angle of view of the surveillance camera, and the background is extremely complicated.

【0091】このような環境下では、この発明を応用し
て追跡対象の移動による画像サイズの変化を考慮した追
跡処理を行なわなければ安定な追跡は困難である。この
発明の応用は、追跡対象の進入時に初期領域を設定して
しまえば、その後の追跡処理は全く同様に利用できる。
In such an environment, stable tracking is difficult unless the present invention is applied to perform tracking processing in consideration of a change in image size due to movement of a tracking target. In the application of the present invention, once the initial area is set when the tracking target enters, the subsequent tracking processing can be used in exactly the same manner.

【0092】この場合、道路上の車両監視と異なるの
は、画像サイズ変換部14に平面の位置情報を記憶させ
る段階で道路のペイントを利用できないこと位であり、
平面の位置情報は第1実施形態で説明したように、カメ
ラの設置角度や設置位置などのパラメータから計算すれ
ば良い。
In this case, the difference from the vehicle monitoring on the road is that the painting of the road cannot be used at the stage of storing the position information of the plane in the image size conversion unit 14.
As described in the first embodiment, the position information of the plane may be calculated from parameters such as the installation angle and the installation position of the camera.

【0093】また、この発明は、テンプレートの逐次更
新を基本としているので(第3実施形態では単なる逐次
更新よりさらに安定な手法を説明した)、追跡対象物体
が人間のように非剛体の場合でも適用できる。初期テン
プレートを車両進入から車両が通り抜けるまで一貫して
用いる方法では非剛体の追跡は困難であることは明らか
である。
Further, since the present invention is based on the sequential update of the template (the third embodiment has described a method more stable than the simple sequential update), even when the object to be tracked is a non-rigid body like a human. Applicable. Obviously, tracking non-rigid bodies is difficult with a method that uses the initial template consistently from vehicle entry to vehicle exit.

【0094】[0094]

【発明の効果】以上詳述したように、この発明によれ
ば、画像中の追跡対象物体を画像処理により自動的に追
跡する課題に対して、物体がカメラに対して固定された
平面を移動することを利用することによって、物体の画
像中のサイズ変化に対しても安定して追跡対象物体の画
像領域を抽出することが可能となる。この結果、道路や
駅構内に据え付けられた監視カメラの自動化に重要な役
割を果たすことが可能であり、この実用的効果はまこと
に多大である。
As described above in detail, according to the present invention, in order to automatically track a tracking target object in an image by image processing, the object moves on a plane fixed to the camera. This makes it possible to stably extract the image area of the tracking target object even when the size of the object changes in the image. As a result, it is possible to play an important role in the automation of the surveillance camera installed on the road or in the station premises, and this practical effect is very large.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の第1実施形態に係る物体領域追跡装
置の構成を示すブロック図。
FIG. 1 is a block diagram showing a configuration of an object area tracking device according to a first embodiment of the present invention.

【図2】同第1実施形態の車両が道路上を奥の方向に移
動するにつれて車両の画像中のサイズが変化(縮小)す
る事象を示すための図。
FIG. 2 is a diagram showing an event in which the size of an image of the vehicle changes (reduces) as the vehicle according to the first embodiment moves on a road in a depth direction.

【図3】同第1実施形態の画像サイズ変換部の内部構成
を示す図。
FIG. 3 is a diagram showing an internal configuration of an image size conversion unit according to the first embodiment.

【図4】同第1実施形態の画像サイズ変換部の平面情報
記憶部に記憶されるパラメータを説明するための図。
FIG. 4 is an exemplary view for explaining parameters stored in a plane information storage unit of the image size conversion unit according to the first embodiment;

【図5】同第1実施形態のマッチング作業を模式的に示
した図。
FIG. 5 is a diagram schematically showing a matching operation of the first embodiment.

【図6】同第1実施形態のテンプレートの制御点を例示
する図。
FIG. 6 is a diagram illustrating control points of the template according to the first embodiment;

【図7】同第1実施形態の物体領域追跡装置の基本的な
処理手順を示すフローチャート。
FIG. 7 is a flowchart showing a basic processing procedure of the object area tracking device according to the first embodiment;

【図8】図7中の照合処理の詳細な処理手順を示すフロ
ーチャート。
FIG. 8 is a flowchart showing a detailed processing procedure of a matching process in FIG. 7;

【図9】同第3実施形態の追跡ウインドウが背景に張り
付いてしまう事象を説明するための図。
FIG. 9 is a view for explaining an event in which the tracking window of the third embodiment is stuck to the background.

【図10】同第3実施形態の追跡ウインドウが重なって
しまう事象を説明するための図。
FIG. 10 is a view for explaining an event in which tracking windows overlap in the third embodiment.

【図11】同第3実施形態の追跡ウインドウのサイズが
非常に小さくなってしまう事象を説明するための図。
FIG. 11 is an exemplary view for explaining an event that the size of the tracking window according to the third embodiment becomes extremely small.

【図12】同第3実施形態の経過情報記憶部の内部構成
を示す図。
FIG. 12 is a diagram showing an internal configuration of a progress information storage unit according to the third embodiment.

【図13】同第4実施形態の監視カメラの設置環境を模
式的に示した図。
FIG. 13 is a diagram schematically showing an installation environment of the monitoring camera according to the fourth embodiment.

【図14】同第4実施形態の監視カメラの入力画像を模
式的に示した図。
FIG. 14 is a diagram schematically showing an input image of the monitoring camera according to the fourth embodiment.

【符号の説明】[Explanation of symbols]

11…画像入力部 12…入力画像記憶部 13…照合処理制御部 14…画像サイズ変換部 15…画像照合部 16…経過情報記憶部 17…出力部 141…平面情報記憶部 142…最適サイズ算出部 143…サイズ変換化画像生成部 161…画像系列記憶部 162…位置系列記憶部 DESCRIPTION OF SYMBOLS 11 ... Image input part 12 ... Input image storage part 13 ... Collation processing control part 14 ... Image size conversion part 15 ... Image collation part 16 ... Progress information storage part 17 ... Output part 141 ... Plane information storage part 142 ... Optimal size calculation part 143: size-converted image generation unit 161: image sequence storage unit 162: position sequence storage unit

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 物体が撮像された2次元の画像を時系列
に入力する画像入力手段と、 前記画像入力手段により入力された画像を記憶する入力
画像記憶手段と、 過去の時点における追跡対象物体を含む画像およびその
画像に関する情報を一組以上記憶する経過情報記憶手段
と、 前記入力画像記憶手段に記憶された画像中での追跡対象
物体の位置およびそのサイズを推測し、その推測した追
跡対象物体の位置およびそのサイズと前記経過情報記憶
手段に記憶された前記追跡対象物体を含む画像およびそ
の画像に関する情報とから前記追跡対象物体の撮像領域
を抽出するための適切なサイズの参照画像を生成する画
像サイズ変換手段と、 前記画像サイズ変換手段により生成された参照画像と前
記入力画像記憶手段に記憶された画像とを照合して前記
追跡対象物体の撮像領域を抽出する画像照合手段と、 前記画像照合手段により抽出された前記追跡対象物体の
位置情報を出力する出力手段とを具備することを特徴と
する物体領域追跡装置。
1. An image input unit for inputting a two-dimensional image of an object in a time series, an input image storage unit for storing an image input by the image input unit, and a tracking target object at a past time point And a progress information storage means for storing at least one set of images and information related to the images, and a position and a size of the tracking target object in the image stored in the input image storage means, and the estimated tracking target Generating a reference image of an appropriate size for extracting an imaging region of the tracking target object from the position and size of the object, an image including the tracking target object stored in the progress information storage unit, and information on the image Image size conversion means for comparing the reference image generated by the image size conversion means with the image stored in the input image storage means, An image matching means for extracting the image capturing area of the tracking target object, the image matching unit object region tracking apparatus characterized by comprising an output means for outputting the position information of the tracking target object extracted by.
【請求項2】 前記画像サイズ変換手段は、前記追跡対
象物体が移動する面と監視カメラとの位置関係に応じて
前記画像中での追跡対象物体の位置およびそのサイズを
算出する請求項1記載の物体領域追跡装置。
2. The image size conversion means calculates a position of a tracking target object in the image and its size according to a positional relationship between a surface on which the tracking target object moves and a surveillance camera. Object area tracking device.
【請求項3】 前記経過情報記憶手段に記憶された過去
の時点の追跡対象物体を含む画像それぞれが個別の参照
画像として利用され、前記入力画像記憶手段に記憶され
た画像との照合処理が総合的に施されるように前記画像
照合手段および画像サイズ変換手段照合処理を制御する
照合処理制御手段をさらに具備することを特徴とした請
求項1記載の物体領域追跡装置。
3. An image including a tracking target object at a past time point stored in the progress information storage means is used as an individual reference image, and a collation process with an image stored in the input image storage means is comprehensive. 2. The object area tracking apparatus according to claim 1, further comprising a matching processing control means for controlling the image matching means and the image size converting means matching processing so as to be applied.
【請求項4】 前記経過情報記憶手段に記憶された過去
の時点の追跡対象物体を含む画像それぞれが個別の参照
画像として利用され、前記入力画像記憶手段に記憶され
た画像との照合処理を個別に施して得られた照合値の線
形和が最適な値を示す位置と領域とが抽出されるように
前記画像照合手段および画像サイズ変換手段を制御する
照合処理制御手段をさらに具備することを特徴とした請
求項1記載の物体領域追跡装置。
4. An image including a tracking target object at a past time point stored in said progress information storage means is used as an individual reference image, and a matching process with an image stored in said input image storage means is individually performed. And a collation processing control means for controlling the image collating means and the image size converting means such that a position and an area at which the linear sum of the collation values obtained by applying the optimal value shows the optimum value are extracted. 2. The object area tracking device according to claim 1, wherein:
【請求項5】 監視対象が移動する面と監視カメラとの
位置関係とに応じて前記画像中の照合処理を施す必要の
ある画像領域を算出し、その算出した画像領域について
前記入力画像記憶手段に記憶された画像と参照画像との
照合処理が行なわれるように前記画像照合手段および画
像サイズ変換手段を制御する照合処理制御手段をさらに
具備することを特徴とした請求項1記載の物体領域追跡
装置。
5. An input image storage means for calculating an image area in the image which needs to be subjected to a matching process in accordance with a positional relationship between a surface on which a monitoring target moves and a monitoring camera, and the calculated image area. 2. The object area tracking according to claim 1, further comprising a matching processing control means for controlling the image matching means and the image size converting means so as to perform a matching processing between the image stored in the memory and the reference image. apparatus.
【請求項6】 物体が撮像された2次元の画像を時系列
として入力し、 前記入力された画像を記憶し、 過去の時点における追跡対象物体を含む画像およびその
画像に関する情報を一組以上記憶し、 前記記憶された画像中での追跡対象物体の位置およびそ
の画像に関する情報を一組以上記憶し、その推測した追
跡対象物体の位置およびそのサイズと前記記憶された前
記追跡対象物体を含む画像およびその画像に関する情報
とから前記追跡対象物体の撮像領域を抽出するための適
切なサイズの参照画像を生成し、 前記生成された参照画像と前記記憶された画像とを照合
して前記追跡対象物体の撮像領域を抽出し、 前記抽出された前記追跡対象物体の位置情報を出力する
ことを特徴とする物体領域追跡方法。
6. A two-dimensional image in which an object is captured is input as a time series, the input image is stored, and at least one set of an image including an object to be tracked at a past time and information on the image is stored. An image including at least one set of the position of the tracked object in the stored image and the information related to the image, and including the estimated position and size of the tracked object and the stored tracked object. And generating a reference image of an appropriate size for extracting an imaging area of the tracking target object from the information on the image and the image, and comparing the generated reference image with the stored image to obtain the tracking target object. An object area tracking method, comprising: extracting an imaging area of a target object; and outputting position information of the extracted tracking target object.
【請求項7】 前記画像中での追跡対象物体の位置およ
びそのサイズの算出は、前記追跡対象物体が移動する面
と監視カメラとの位置関係に応じて行なわれる請求項6
記載の物体領域追跡方法。
7. The calculation of the position and size of the tracking target object in the image is performed according to the positional relationship between the surveillance camera and the surface on which the tracking target object moves.
The tracking method of the object area according to the description.
【請求項8】 前記生成された参照画像と前記記憶され
た画像との照合は、前記記憶された過去の時点の追跡対
象物体を含む画像それぞれが個別の参照画像として利用
されて総合的に行なわれる請求項6記載の物体領域追跡
方法。
8. The collation between the generated reference image and the stored image is performed comprehensively by using each of the stored images including the tracking target object at a past time point as an individual reference image. 7. The object area tracking method according to claim 6, wherein the object area tracking method is performed.
【請求項9】 前記生成された参照画像と前記記憶され
た画像との照合は、前記記憶された過去の時点の追跡対
象物体を含む画像それぞれが個別の参照画像として利用
され、前記入力画像記憶手段に記憶された画像との照合
処理を個別に施して得られた照合値の線形和が最適な値
を示す位置と領域とが抽出されるように行なわれる請求
項6記載の物体領域追跡方法。
9. A method of comparing the generated reference image with the stored image, wherein each of the stored images including the tracking target object at the past time is used as an individual reference image, and the input image storage is performed. 7. The object area tracking method according to claim 6, wherein a position and an area in which a linear sum of collation values obtained by individually performing collation processing with the image stored in the means shows an optimum value are extracted. .
【請求項10】 前記生成された参照画像と前記記憶さ
れた画像との照合は、監視対象が移動する面と監視カメ
ラとの位置関係とに応じて前記画像中の照合処理を施す
必要のある画像領域として算出された画像領域について
行なわれる請求項6記載の物体領域追跡方法。
10. The collation between the generated reference image and the stored image needs to perform a collation process in the image according to a positional relationship between a surveillance target moving surface and a surveillance camera. 7. The object area tracking method according to claim 6, wherein the method is performed on an image area calculated as an image area.
JP06665798A 1998-03-17 1998-03-17 Object region tracking apparatus and object region tracking method Expired - Fee Related JP3651745B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP06665798A JP3651745B2 (en) 1998-03-17 1998-03-17 Object region tracking apparatus and object region tracking method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP06665798A JP3651745B2 (en) 1998-03-17 1998-03-17 Object region tracking apparatus and object region tracking method

Publications (2)

Publication Number Publication Date
JPH11266450A true JPH11266450A (en) 1999-09-28
JP3651745B2 JP3651745B2 (en) 2005-05-25

Family

ID=13322201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06665798A Expired - Fee Related JP3651745B2 (en) 1998-03-17 1998-03-17 Object region tracking apparatus and object region tracking method

Country Status (1)

Country Link
JP (1) JP3651745B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002358595A (en) * 2001-06-01 2002-12-13 Mitsubishi Electric Corp Instrument and method for measuring road traffic stream
JP2005092465A (en) * 2003-09-16 2005-04-07 Fuji Xerox Co Ltd Data recognition device
JPWO2003092291A1 (en) * 2002-04-25 2005-09-08 松下電器産業株式会社 Object detection apparatus, object detection server, and object detection method
JP2008250444A (en) * 2007-03-29 2008-10-16 Omron Corp Face detection device, face detection method, and face detection program
JP2009146406A (en) * 2007-12-11 2009-07-02 Honda Research Inst Europe Gmbh Visually tracking an object in real world using 2d appearance and multicue depth estimations
JP2009175802A (en) * 2008-01-21 2009-08-06 Toyota Central R&D Labs Inc Object detection system
JP2010066863A (en) * 2008-09-09 2010-03-25 Fujifilm Corp Face detection device and method
JP2010231269A (en) * 2009-03-25 2010-10-14 Fujitsu Ltd Apparatus, method, and program for processing image
JP2011508289A (en) * 2007-11-16 2011-03-10 シーリアル テクノロジーズ ソシエテ アノニム Binocular detection and tracking method and apparatus
JP2013168062A (en) * 2012-02-16 2013-08-29 Fujitsu Ten Ltd Object detection device and object detection method
WO2014087622A1 (en) * 2012-12-06 2014-06-12 日本電気株式会社 Appearance presentation system, method, and program
JP2016197018A (en) * 2015-04-02 2016-11-24 株式会社デンソー Collision avoidance assist device
WO2018020722A1 (en) * 2016-07-29 2018-02-01 オムロン株式会社 Image processing apparatus and image processing method
JP2019174292A (en) * 2018-03-28 2019-10-10 株式会社トプコン Surveying device and surveying method

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002358595A (en) * 2001-06-01 2002-12-13 Mitsubishi Electric Corp Instrument and method for measuring road traffic stream
JPWO2003092291A1 (en) * 2002-04-25 2005-09-08 松下電器産業株式会社 Object detection apparatus, object detection server, and object detection method
US7180050B2 (en) 2002-04-25 2007-02-20 Matsushita Electric Industrial Co., Ltd. Object detection device, object detection server, and object detection method
JP2005092465A (en) * 2003-09-16 2005-04-07 Fuji Xerox Co Ltd Data recognition device
JP2008250444A (en) * 2007-03-29 2008-10-16 Omron Corp Face detection device, face detection method, and face detection program
JP2011508289A (en) * 2007-11-16 2011-03-10 シーリアル テクノロジーズ ソシエテ アノニム Binocular detection and tracking method and apparatus
JP2009146406A (en) * 2007-12-11 2009-07-02 Honda Research Inst Europe Gmbh Visually tracking an object in real world using 2d appearance and multicue depth estimations
US8199971B2 (en) 2008-01-21 2012-06-12 Denso Corporation Object detection system with improved object detection accuracy
JP2009175802A (en) * 2008-01-21 2009-08-06 Toyota Central R&D Labs Inc Object detection system
JP2010066863A (en) * 2008-09-09 2010-03-25 Fujifilm Corp Face detection device and method
JP2010231269A (en) * 2009-03-25 2010-10-14 Fujitsu Ltd Apparatus, method, and program for processing image
JP2013168062A (en) * 2012-02-16 2013-08-29 Fujitsu Ten Ltd Object detection device and object detection method
JPWO2014087622A1 (en) * 2012-12-06 2017-01-05 日本電気株式会社 Visibility presentation system, method and program
WO2014087622A1 (en) * 2012-12-06 2014-06-12 日本電気株式会社 Appearance presentation system, method, and program
US9811738B2 (en) 2012-12-06 2017-11-07 Nec Corporation Appearance presentation system, method, and program
JP2016197018A (en) * 2015-04-02 2016-11-24 株式会社デンソー Collision avoidance assist device
US10442430B2 (en) 2015-04-02 2019-10-15 Denso Corporation Collision avoidance assistance device
WO2018020722A1 (en) * 2016-07-29 2018-02-01 オムロン株式会社 Image processing apparatus and image processing method
JP2018018393A (en) * 2016-07-29 2018-02-01 オムロン株式会社 Image processing device and image processing method
US10521917B2 (en) 2016-07-29 2019-12-31 Omron Corporation Image processing apparatus and image processing method for object tracking
JP2019174292A (en) * 2018-03-28 2019-10-10 株式会社トプコン Surveying device and surveying method

Also Published As

Publication number Publication date
JP3651745B2 (en) 2005-05-25

Similar Documents

Publication Publication Date Title
CN110472496B (en) Traffic video intelligent analysis method based on target detection and tracking
CN105711597B (en) Front locally travels context aware systems and method
KR100459476B1 (en) Apparatus and method for queue length of vehicle to measure
US5999877A (en) Traffic flow monitor apparatus
CN100544446C (en) The real time movement detection method that is used for video monitoring
JPH11266450A (en) Object area tracking system and object area tracking method
US20190057604A1 (en) Method, device and system for processing startup of preceding vehicle
US11061122B2 (en) High-definition map acquisition system
CN111369541A (en) Vehicle detection method for intelligent automobile under severe weather condition
CN110579771A (en) Airplane berth guiding method based on laser point cloud
JP2002074368A (en) Moving object recognizing and tracking device
JP3456339B2 (en) Object observation method, object observation device using the method, traffic flow measurement device and parking lot observation device using the device
CN112613509A (en) Railway wagon carriage number identification snapshot method and system
CN115113206B (en) Pedestrian and obstacle detection method for assisting driving of underground rail car
CN107506753B (en) Multi-vehicle tracking method for dynamic video monitoring
CN114926422B (en) Method and system for detecting passenger flow of getting on and off vehicles
US11120292B2 (en) Distance estimation device, distance estimation method, and distance estimation computer program
JP3629935B2 (en) Speed measurement method for moving body and speed measurement device using the method
JP3879874B2 (en) Logistics measuring device
CN110322508A (en) A kind of assisted location method based on computer vision
CN109591850A (en) A kind of track foreign matter detecting method and device
JP4106163B2 (en) Obstacle detection apparatus and method
CN108985197A (en) The automatic testing method of taximan's cigarette smoking based on more algorithm fusions
CN114905512A (en) Panoramic tracking and obstacle avoidance method and system for intelligent inspection robot
CN113917453A (en) Multi-sensor fusion method based on radar and video

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040427

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040611

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20041124

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050121

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20050126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050217

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080304

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090304

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100304

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees