JP2001229488A - Vehicle tracking method and traffic state tracking device - Google Patents

Vehicle tracking method and traffic state tracking device

Info

Publication number
JP2001229488A
JP2001229488A JP2000041419A JP2000041419A JP2001229488A JP 2001229488 A JP2001229488 A JP 2001229488A JP 2000041419 A JP2000041419 A JP 2000041419A JP 2000041419 A JP2000041419 A JP 2000041419A JP 2001229488 A JP2001229488 A JP 2001229488A
Authority
JP
Japan
Prior art keywords
vehicle
tracking
time
screen
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000041419A
Other languages
Japanese (ja)
Inventor
Miyako Hotta
堀田  都
Tadaaki Kitamura
忠明 北村
Takayoshi Yokota
孝義 横田
Yoshiyuki Sato
良幸 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2000041419A priority Critical patent/JP2001229488A/en
Publication of JP2001229488A publication Critical patent/JP2001229488A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a traffic state tracking device which can continue vehicle tracking and obtain a stable travel track if vehicles possibly over each other or are hidden in an image. SOLUTION: An image processor 2 inputs an image photographed by a television camera 1, detects a vehicle newly appearing on a screen at time (t), tracks a vehicle which was present on the screen at time t-1 on the screen at the time (t), and outputs the vehicle position and information on whether the tracking can be carried out as tracking results. A tracking complementing device 3 performs parallel processing with the image processor 2 and predicts the vehicle position at the time (t) from the vehicle position at the time t-1. Further, the tracking result at the time (t) obtained by the image processor 2 is checked and the image processor 2 is instructed to detects a vehicle which can not be tracked again according to predicted coordinate values at the time (t). When the vehicle can be detected through the redetection, the vehicle position is registered in a travel track storage part 305 as determined coordinates at the time (t). If the vehicle can not be detected even by the redetection, the predicted coordinate values at the time (t) are registered.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は画像処理装置を用い
た交通状況追跡装置に関する。
The present invention relates to a traffic situation tracking device using an image processing device.

【0002】[0002]

【従来の技術】道路上に設置したカメラの映像を画像処
理することで、車両軌跡をとらえ交通量、異常交通を計
測する方法が長大トンネルなどに用いられている。特開
平8−147591号には、画像処理装置の中に次周期
の座標の予測機能を設け、画像処理で検出した車両位置
と、あらかじめ記憶しておいた前周期の車両毎の位置や
速度から予測した位置との対応を取ることによって、車
両毎のトラッキングを行う交通流計測装置が開示されて
いる。
2. Description of the Related Art A method of measuring traffic volume and abnormal traffic by capturing a vehicle trajectory by processing a video image of a camera installed on a road has been used for a long tunnel or the like. Japanese Unexamined Patent Application Publication No. 8-147591 provides a function of predicting the coordinates of the next cycle in the image processing apparatus, and calculates the vehicle position detected by the image processing and the position and speed of each vehicle in the previous cycle stored in advance. A traffic flow measuring device that performs tracking for each vehicle by taking correspondence with a predicted position is disclosed.

【0003】一方、近年、車両走行挙動の解析のニーズ
が高まっている。特開平11−96494号には、広い
監視領域を複数のカメラにより監視する場合を想定し、
複数のカメラ間の死角での車両走行を補完し、監視領域
全体の状況を表示する方法が開示されている。ここで
は、画像処理で車両検出時の初速度などのパラメータを
車両走行模擬部の入力とし、車両追従モデルで車両の走
行を模擬して、カメラ間の死角での車両走行を上記追従
モデルで補完する。
[0003] On the other hand, in recent years, needs for analysis of vehicle running behavior have been increasing. Japanese Patent Application Laid-Open No. H11-96494 assumes that a wide monitoring area is monitored by a plurality of cameras,
There is disclosed a method of complementing a vehicle traveling in a blind spot between a plurality of cameras and displaying a state of the entire monitoring area. Here, parameters such as the initial speed at the time of vehicle detection in image processing are input to the vehicle running simulation unit, vehicle running is simulated by the vehicle following model, and vehicle running in the blind spot between cameras is complemented by the above following model. I do.

【0004】[0004]

【発明が解決しようとする課題】画像による交通流監視
や車両走行挙動解析においては継続性のある交通状況の
追跡、つまり画像による車両のトラッキングの精度向上
が重要な課題となる。しかし、画面上の車両の重なりに
よってトラッキングが途絶する問題があり、ことトラッ
キングに関しては従来型センサーに比べ精度上の問題が
あった。
In traffic flow monitoring and vehicle running behavior analysis using images, it is important to continuously track traffic conditions, that is, to improve the accuracy of vehicle tracking using images. However, there is a problem that the tracking is interrupted due to the overlap of vehicles on the screen, and there is a problem with respect to tracking in terms of accuracy as compared with the conventional sensor.

【0005】特開平8−147591号での車両位置の
予測方法は、前周期の車両の走行位置と、瞬間速度から
次周期の車両位置を推定するものであり、急激な速度変
化には対応できないなど、予測精度に問題がある。ま
た、特開平11−96494号では、カメラで撮影でき
ない区間の車両の走行挙動を予測することに止まり、カ
メラの視野内での車両の詳細な走行状況の補完について
は考慮されていない。この場合、重なりの影響で検出で
きなかった車両は表示できないことになる。
The method for predicting the vehicle position in Japanese Patent Application Laid-Open No. Hei 8-147591 estimates the vehicle position in the next cycle from the running position of the vehicle in the previous cycle and the instantaneous speed, and cannot cope with a sudden change in speed. There is a problem with the prediction accuracy. In Japanese Patent Application Laid-Open No. 11-96494, the running behavior of the vehicle in a section where the camera cannot be photographed is limited to prediction, and no consideration is given to complementing the detailed running state of the vehicle within the field of view of the camera. In this case, vehicles that could not be detected due to the overlap cannot be displayed.

【0006】カメラの視野内での車両の重なりを分離す
るためには、車両挙動に対するより高精度の予測が必要
になる。このためには、車両一台、一台の先行車両との
車間距離特性や、加減速等を詳細にモデル化する必要が
ある。画像処理装置が従来行っている検出処理や追跡処
理に加えてこれらの走行モデルの計算も付加すること
は、汎用の画像処理装置では限界があり、高性能の画像
処理装置を含む高価なシステムが必要になる。
[0006] Separating the overlap of vehicles in the field of view of the camera requires more accurate predictions of vehicle behavior. For this purpose, it is necessary to model the characteristics of the distance between one vehicle and one preceding vehicle, acceleration / deceleration, and the like in detail. The addition of these running model calculations in addition to the detection and tracking processes conventionally performed by image processing devices is limited in general-purpose image processing devices, and expensive systems including high-performance image processing devices are limited. Will be needed.

【0007】本発明の目的は、上記の問題点を解決し、
車両の重なり、隠れが生じ、画像処理のみでは車両間の
分離がし難い場合でも車両追跡が継続でき、安定した走
行軌跡が得られる車両追跡方法及び交通状況追跡装置を
提供することにある。
An object of the present invention is to solve the above problems,
It is an object of the present invention to provide a vehicle tracking method and a traffic condition tracking device that can continue vehicle tracking even when it is difficult to separate the vehicles by image processing alone, in which overlapping and hiding of vehicles occur, and a stable traveling trajectory can be obtained.

【0008】[0008]

【課題を解決するための手段】上記目的を達成する本発
明は、道路上に設置したテレビカメラより周期的に取り
込まれる画面上の映像から画像処理により車両を検出
し、前時刻(t−1)で検出された車両を次の時刻
(t)の画面上で探索して、車両毎にその走行状況を追
跡する車両追跡方法において、前記画像処理による追跡
ができない場合に予測位置に基づく補完処理を行って車
両追跡を継続する。
SUMMARY OF THE INVENTION In order to achieve the above object, according to the present invention, a vehicle is detected by image processing from an image on a screen periodically taken in by a television camera installed on a road, and the vehicle is detected at the previous time (t-1). In the vehicle tracking method for searching for the vehicle detected in the next time (t) on the screen at the next time (t) and tracking the running state of each vehicle, when the tracking by the image processing is not possible, the complementing process based on the predicted position To continue vehicle tracking.

【0009】前記補完処理は、時刻t−1における前記
画像処理と並行して、時刻t−1で検出された車両毎に
時刻tにおける予測車両位置を求め、時刻t−1で存在
していて時刻tの画面上で探索ができなかった車両に対
し、その予測車両位置に基づき前記画像処理による再探
索を行い、当該車両を検出できた場合はその検出位置を
時刻tの車両位置とし、当該車両を検出できなかった場
合は当該予測車両位置を時刻tの車両位置とみなすこと
を特徴とする。
In the complementing process, a predicted vehicle position at the time t is obtained for each vehicle detected at the time t-1 in parallel with the image processing at the time t-1, and exists at the time t-1. For the vehicle that could not be searched on the screen at time t, a re-search is performed by the image processing based on the predicted vehicle position. If the vehicle was detected, the detected position is set as the vehicle position at time t. If no vehicle is detected, the predicted vehicle position is regarded as the vehicle position at time t.

【0010】本発明によれば、画像処理で車両を追跡す
るための車両の特徴部分が画面上の車両の重なり等によ
り隠れた場合も、隠れていない他の部分を再検出して車
両の追跡処理を続行することができる。なお、時刻t−
1で検出され、時刻tでは探索できなかった車両のう
ち、テレビカメラの検出領域外に通過したものは、その
予測車両位置から除外できる。
According to the present invention, even when a characteristic portion of a vehicle for tracking a vehicle by image processing is hidden by overlapping of the vehicle on a screen, another portion that is not hidden is detected again to track the vehicle. Processing can continue. At time t−
Among the vehicles detected at 1 and that could not be searched at time t, those that passed outside the detection area of the television camera can be excluded from the predicted vehicle position.

【0011】また、前記予測車両位置は、前記画像処理
から得られる車両速度の変動に基づくt−1からt間の
最大、最小及び平均の移動条件によってそれぞれ求め、
ある移動条件による予測車両位置での再探索が不可能な
場合に、他の移動条件による予測車両位置によって再探
索を行う。これにより、再探索の精度を向上できる。
Further, the predicted vehicle position is obtained by maximum, minimum and average moving conditions from t-1 to t based on a change in vehicle speed obtained from the image processing.
When it is not possible to search again at the predicted vehicle position under a certain moving condition, the search is performed again at the predicted vehicle position under another moving condition. Thereby, the accuracy of the re-search can be improved.

【0012】また、前記予測車両位置に基づく再探索
は、該予測車両位置の周辺、または該予測車両位置を画
面上で後続車両との重なりを少なくする所定方向に移動
した位置の周辺に対して行う。例えば、車両が画面下部
から現れて画面上部へ通過する場合、予測車両位置の周
辺として設定される検知窓は、後続車両が重ならないよ
うに予測位置の左上方に所定距離だけ移動する。
Further, the re-search based on the predicted vehicle position may be performed by searching for the vicinity of the predicted vehicle position or the vicinity of a position where the predicted vehicle position is moved on a screen in a predetermined direction so as to reduce overlap with a following vehicle. Do. For example, when the vehicle appears from the lower part of the screen and passes to the upper part of the screen, the detection window set as the periphery of the predicted vehicle position moves a predetermined distance to the upper left of the predicted position so that the following vehicle does not overlap.

【0013】本発明の車両追跡方法を適用する交通状況
追跡装置は、道路の状況を周期的に撮影するテレビカメ
ラと、撮影した画面を入力して車両を検出し、次画面の
入力に応じて前画面で検出された車両を追跡する画像処
理装置と、前画面で検出された車両毎にその車両位置か
ら次画面における予測車両位置を求める車両位置予測手
段、及び、前記画像処理装置による次画面での追跡がで
きない車両について、その予測車両位置に基づく再追跡
を前記画像処理装置に対して指示する車両位置補正手段
を有する追跡補完装置を設けたことを特徴とする。
A traffic situation tracking device to which the vehicle tracking method of the present invention is applied is a television camera for periodically photographing a road condition, a screen shot is input to detect a vehicle, and a vehicle is detected in response to the next screen input. An image processing device that tracks a vehicle detected on the previous screen, a vehicle position prediction unit that obtains a predicted vehicle position on the next screen from the vehicle position for each vehicle detected on the previous screen, and a next screen by the image processing device A tracking complement device having a vehicle position correcting means for instructing the image processing device to perform retracking based on the predicted vehicle position for a vehicle that cannot be tracked by the vehicle is provided.

【0014】前記追跡補完装置は、前記画像処理装置に
よる前記次画面での追跡または再追跡が行えたか判定
し、追跡または再追跡が行えた場合はその検出車両の車
両位置、前記再追跡が行えなかった場合は前記予測車両
位置のいずれかを前記次画面の車両位置として決定する
手段(実施例では、追跡判定手段303及び車両位置補正・
確定手段304)と、この決定された車両位置を時系列の
走行軌跡として格納する手段を有している。
[0014] The tracking complementing device determines whether tracking or retracking on the next screen has been performed by the image processing device. If tracking or retracking has been performed, the vehicle position of the detected vehicle and the retracking can be performed. If there is no such vehicle, any of the predicted vehicle positions is determined as the vehicle position on the next screen (in the embodiment, the tracking determination unit 303 and the vehicle position correction /
And a means for storing the determined vehicle position as a time-series traveling locus.

【0015】これによれば、通常機能をもつ汎用の画像
処理装置に前記追跡補完装置を付加することで実現で
き、高機能をもつ高価な画像処理装置を利用しなくて済
む。また、前記追跡補完装置はその処理機能をプログラ
ムにして格納した記憶媒体とパソコンなどによって安価
に構成できる。
According to this, this can be realized by adding the tracking complementing device to a general-purpose image processing device having a normal function, and it is not necessary to use an expensive image processing device having a high function. Further, the tracking supplementing device can be inexpensively configured by a personal computer or the like and a storage medium storing its processing functions as programs.

【0016】さらに、本発明の交通状況追跡装置にアニ
メーション表示手段を付加し、走行軌跡格納手段に格納
した車両毎の走行軌跡をテレビカメラからの入力周期と
同期してアニメーション表示することにより、監視領域
の交通状況をカメラの画角以外の視点で表示することが
できる。
Further, an animation display means is added to the traffic condition tracking device of the present invention, and the running locus of each vehicle stored in the running locus storing means is displayed in animation in synchronization with the input cycle from the television camera, thereby monitoring. The traffic condition of the area can be displayed from a viewpoint other than the angle of view of the camera.

【0017】[0017]

【発明の実施の形態】以下、本発明の実施形態について
図面を用いながら詳細に説明する。図1は、本発明の一
実施例による交通状況追跡装置の構成を示すブロック図
である。交通状況追跡装置は、道路画像を撮影する1台
または複数のテレビカメラ1と、テレビカメラ1で撮影
された画像を入力して画像処理を行う画像処理装置2
と、画像処理装置2と並行して画像上に存在する車両の
次のサンプリング時刻の位置を予測し、車両追跡が途切
れた場合の再追跡を可能とするため、画像処理と並行し
て車両位置予測を行う追跡補完装置3からなる。
Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a traffic situation tracking device according to one embodiment of the present invention. The traffic situation tracking device includes one or a plurality of television cameras 1 for capturing road images and an image processing device 2 for inputting an image captured by the television camera 1 and performing image processing.
In order to predict the position of the next sampling time of the vehicle existing on the image in parallel with the image processing device 2 and enable re-tracking when the vehicle tracking is interrupted, the vehicle position is determined in parallel with the image processing. It consists of a tracking supplementary device 3 that makes predictions.

【0018】画像処理装置2は車両検出部201、車両
追跡部202及び追跡車両管理部203を有している。車
両検出部201は、最新の時刻tの画面上に新規に現れ
た車両を画像処理機能により検出する手段である。車両
追跡部202は、前回の時刻t−1に画面上に存在した
車両を個別に画面上から画像処理機能を用いて追跡する
手段である。追跡車両管理部203は、車両検出部201
と車両追跡部202により得られ、時刻tの画面上に存
在する車両に関する位置や速度などの情報を管理する手
段である。
The image processing device 2 has a vehicle detection unit 201, a vehicle tracking unit 202, and a tracking vehicle management unit 203. The vehicle detection unit 201 is means for detecting a vehicle newly appearing on the screen at the latest time t by the image processing function. The vehicle tracking unit 202 is means for individually tracking vehicles existing on the screen at the previous time t-1 from the screen using the image processing function. The tracking vehicle management unit 203 includes a vehicle detection unit 201.
And means for managing information such as the position and speed of the vehicle existing on the screen at time t, obtained by the vehicle tracking unit 202.

【0019】追跡補完装置3は車両位置予測部301、
予測座標管理部302、追跡判定部303、車両位置補
正・確定部304及び走行軌跡格納部305を有してい
る。車両位置予測部301は、時刻t−1の車両位置情
報から時刻tの車両位置を予測する手段である。予測座
標管理部302は、車両位置予測部301で予測した座
標値を車両毎に管理する手段である。追跡判定部303
は、時刻tの画面上に存在した各車両を車両追跡部20
2が追跡できたか否かを車両毎に判定する手段である。
The tracking supplementing device 3 includes a vehicle position predicting unit 301,
It has a predicted coordinate management unit 302, a tracking determination unit 303, a vehicle position correction / determination unit 304, and a traveling locus storage unit 305. The vehicle position prediction unit 301 is a unit that predicts the vehicle position at time t from the vehicle position information at time t-1. The predicted coordinate management unit 302 is a unit that manages the coordinate values predicted by the vehicle position prediction unit 301 for each vehicle. Tracking determination unit 303
Shows the respective vehicles existing on the screen at time t by the vehicle tracking unit 20.
2 is means for determining, for each vehicle, whether or not the vehicle 2 has been tracked.

【0020】車両位置補正・確定部304は追跡判定部
303で追跡できなかったと判定した車両について、車
両位置予測部301が算出した予測座標値に基づいて、
車両が存在すると予測される位置を画像処理装置2に指
示する。また、画像処理装置2から予測位置周辺に該当
車両が検出できたか否かの信号を受信し、検出できた場
合には検出車両の座標を画像処理装置2で追跡できなか
った当該車両の位置として確定し、検出できなかった場
合には予測座標値そのものを追跡できなかった当該車両
の位置とみなして確定する。走行軌跡格納部305は、
車両位置補正・確定部304で確定した車両位置を、時
刻tにおける車両位置として各車両の走行軌跡に追加し
て格納する。
The vehicle position correction / determination unit 304 determines, based on the predicted coordinate values calculated by the vehicle position prediction unit 301, for the vehicle determined to be unable to be tracked by the tracking determination unit 303.
A position where a vehicle is predicted to be present is instructed to the image processing device 2. Also, a signal indicating whether or not the corresponding vehicle has been detected around the predicted position is received from the image processing device 2, and if detected, the coordinates of the detected vehicle are determined as the position of the vehicle that could not be tracked by the image processing device 2. If the position is not detected, the predicted coordinate value itself is regarded as the position of the vehicle that could not be tracked, and is determined. The traveling locus storage unit 305 includes:
The vehicle position determined by the vehicle position correction / determination unit 304 is added to the traveling locus of each vehicle and stored as the vehicle position at time t.

【0021】次に、画像処理装置2と追跡補完装置3の
各部の構成と動作を詳細に説明する。テレビカメラ1で
撮影した道路画像は画像処理装置2に入力する。画像処
理装置2の画像処理機能によって実現される車両検出部
201および車両追跡部202は、第2回画像センシング
シンポジウム講演論文集293頁―296頁の「画像処
理による交通流・渋滞のリアルタイム計測」に記載の方
法と同様に、検知した車両の特徴部分をテンプレート登
録し、テンプレートマッチングにより車両追跡を行うも
のである。
Next, the configuration and operation of each part of the image processing device 2 and the tracking complement device 3 will be described in detail. The road image captured by the television camera 1 is input to the image processing device 2. The vehicle detection unit 201 and the vehicle tracking unit 202 realized by the image processing function of the image processing device 2 are described in “Real-time measurement of traffic flow and congestion by image processing” in the 2nd Image Sensing Symposium Proceedings, pp. 293-296. In a manner similar to the method described in (1), the detected characteristic part of the vehicle is registered as a template, and vehicle tracking is performed by template matching.

【0022】車両検出部201は画面上に検知領域を設
け、車両が新規に検知領域に現れたタイミングで検知領
域内の車両の水平方向のエッジなどの特徴部分を画像処
理機能により検出して、該水平エッジの存在する領域を
車両の追跡テンプレートとして登録する。車両が新規に
画面上に現れるタイミングは、例えば背景(路面)のパ
タンを記憶しておき、画像がテレビカメラから入力され
る毎にパタンとの相関を取って、相関が下がったときに
車両が通過したと判定するなどの方法により実現でき
る。図2〜図4を用いて、車両通過判定及びテンプレー
ト登録処理を具体的に説明する。
The vehicle detection unit 201 provides a detection area on the screen, and detects a characteristic portion such as a horizontal edge of the vehicle in the detection area at a timing when the vehicle newly appears in the detection area by an image processing function. The region where the horizontal edge exists is registered as a vehicle tracking template. The timing at which a vehicle newly appears on the screen is determined, for example, by storing a background (road surface) pattern, correlating the pattern with the pattern each time an image is input from a television camera, It can be realized by a method such as determining that it has passed. The vehicle passage determination and template registration processing will be specifically described with reference to FIGS.

【0023】図2は車両の存在しない画面例で、検出領
域の画面21に車両通過を判定するタイミングをはかるた
めのウインドウ22が設定されている。ウインドウ22の位
置は画像を撮影するテレビカメラの高さ、角度などから
画面内に車両が入ってくる位置に決定される。そして、
予め車両の存在しない画面21のウインドウ22から背景パ
タン23を記憶しておく。車両検出部21が処理を開始する
と、テレビカメラから入力される画面毎にウインドウ22
の入力画像と背景パタン23との相関値を計算する。
FIG. 2 shows an example of a screen in which no vehicle is present. A window 22 for determining the timing for determining whether or not the vehicle has passed is set on a screen 21 in the detection area. The position of the window 22 is determined based on the height, angle, and the like of the television camera that captures the image, so that the vehicle enters the screen. And
The background pattern 23 is stored in advance from the window 22 of the screen 21 where no vehicle exists. When the vehicle detection unit 21 starts processing, a window 22 is displayed for each screen input from the TV camera.
The correlation value between the input image and the background pattern 23 is calculated.

【0024】図3は車両が通過する前後の相関値の変化
の例を示す。図中の横軸は時間で、縦軸は相関値であ
る。相関値31、33、34はそれぞれ時刻t1、t2、t3のとき
の値である。時間帯32は、ウインドウ22中を車両が通過
中で相関値が低下している時間帯である。
FIG. 3 shows an example of a change in the correlation value before and after the vehicle passes. The horizontal axis in the figure is time, and the vertical axis is a correlation value. The correlation values 31, 33, and 34 are values at times t1, t2, and t3, respectively. The time zone 32 is a time zone in which the vehicle is passing through the window 22 and the correlation value is decreasing.

【0025】図4は図3の各相関値に対応する画面例を
示す。(a)(b)(c)の各画面中で、ウインドウ22は図2と
同様に車両の通過するタイミングをはかるためのウイン
ドウであり、(c)におけるウインドウ43は、テンプレー
ト登録するための車両の特徴部分を検出するための検出
窓である。ウインドウ22から車両が通過した瞬間に、ウ
インドウ22のすぐ上部に設定した検出窓43内で、車両後
尾下部の特徴部を検出する。
FIG. 4 shows an example of a screen corresponding to each correlation value in FIG. In each of the screens (a), (b) and (c), the window 22 is a window for measuring the timing at which the vehicle passes as in FIG. 2, and the window 43 in (c) is a vehicle for registering a template. Is a detection window for detecting the characteristic portion of. At the moment when the vehicle passes from the window 22, the characteristic portion at the lower rear part of the vehicle is detected in the detection window 43 set immediately above the window 22.

【0026】(a)の画面は、車両が存在しない画面な
ので、ウインドウ22のパタン42と背景パタン23との相関
値31も高い。(b)の画面は車両41が通過中の画面で、
ウインドウ22のパタン42が背景パタン23とは明らかに違
うため、相関値33も図3のように下がる。(c)の画面
はウインドウ22の領域から車両41が通過したので、パタ
ン42と背景パタン23の相関値34は再び高くなる。
Since the screen shown in (a) has no vehicle, the correlation value 31 between the pattern 42 of the window 22 and the background pattern 23 is also high. (B) is a screen in which the vehicle 41 is passing,
Since the pattern 42 of the window 22 is clearly different from the background pattern 23, the correlation value 33 also decreases as shown in FIG. Since the vehicle 41 has passed through the area of the window 22 in the screen of (c), the correlation value 34 between the pattern 42 and the background pattern 23 becomes high again.

【0027】(c)の画面のタイミングで、ウインドウ
22の上部に車両が存在するとし、検出窓43内で車両41の
特徴部分を探す。ここでは、車両41の水平エッジを画像
処理機能により検出し、その結果水平エッジの存在する
領域44を車両41の追跡テンプレート50として登録する。
登録した追跡テンプレート50は、車両追跡部202に渡
され、各車両別に以下に説明する車両追跡処理を行う。
At the timing of the screen shown in FIG.
Assuming that a vehicle is present above 22, a characteristic portion of vehicle 41 is searched for in detection window 43. Here, the horizontal edge of the vehicle 41 is detected by the image processing function, and as a result, the area 44 where the horizontal edge exists is registered as the tracking template 50 of the vehicle 41.
The registered tracking template 50 is passed to the vehicle tracking unit 202, and performs a vehicle tracking process described below for each vehicle.

【0028】また、車両検出時に、車長および車種も検
出することができる。この検出方法については、例え
ば、特開平10−307988号の交通流監視装置に記
載のように、ある領域の車両の通過時間と速度から車長
を算出し、その車長をもとに大型車か小型車かの判定を
行う。
Further, at the time of vehicle detection, a vehicle length and a vehicle type can also be detected. As for this detection method, for example, as described in the traffic flow monitoring device of JP-A-10-307988, the vehicle length is calculated from the transit time and speed of a vehicle in a certain area, and a large vehicle is calculated based on the vehicle length. Or small car.

【0029】車長や車種の情報は本発明の構成には必須
ではないが、車長情報が得られると、後述する車両位置
予測部301で車両の予測位置を算出する際に、車長情
報を考慮した詳細な予測が行える。また、大型/小型の
車種情報が得られると、後述する車両位置補正・確定部
304の処理で、車両の再検出を行う検出窓の大きさを大
型車/小型車により変更することも可能である。
Although the vehicle length and vehicle type information are not essential to the configuration of the present invention, once the vehicle length information is obtained, when the vehicle position prediction unit 301 calculates the predicted position of the vehicle, the vehicle length information is obtained. The detailed prediction in consideration of can be performed. When large / small vehicle type information is obtained, a vehicle position correction / determination unit described later
In the process of 304, it is also possible to change the size of the detection window for re-detecting the vehicle depending on the size of the large / small vehicle.

【0030】次に、画像処理装置2の車両追跡部202に
ついて説明する。図5は画像処理による車両追跡処理の
画面例で、走行中の車両51,52とそれぞれを追跡するテ
ンプレート53,54を示している。この例の場合は、2種
類の異なった特徴を持ったテンプレート53,54を記憶
し、次の周期に時間が進行して変化した画像が入力され
ると、テンプレート53,54と類似度の高い領域を画面中
から探し、その領域をそれぞれ車両51、車両52の位置と
して登録する。これが画像処理機能を用いた追跡処理で
ある。画面上の座標系は、左上隅を原点(0,0)とし、図
示のようなxy座標系とする。
Next, the vehicle tracking unit 202 of the image processing device 2 will be described. FIG. 5 shows an example of a screen of a vehicle tracking process by image processing, showing running vehicles 51 and 52 and templates 53 and 54 for tracking the respective vehicles. In the case of this example, templates 53 and 54 having two kinds of different characteristics are stored, and when an image whose time progresses and changes in the next cycle is input, the similarity between the templates 53 and 54 is high. An area is searched from the screen, and the area is registered as the positions of the vehicle 51 and the vehicle 52, respectively. This is tracking processing using the image processing function. The coordinate system on the screen is an xy coordinate system as shown in the figure, with the origin (0, 0) at the upper left corner.

【0031】なお、この追跡処理のとき、テンプレート
を探す範囲の設定方法について図6を用いて説明する。
これは、処理周期間隔と画面上の車両の進行方向からテ
ンプレートの存在範囲が限定できるのを利用し、テンプ
レートを探す範囲を限定することで処理にかかる負担を
軽減するためである。従って範囲の設定は、装置の処理
能力に余裕がある場合には必ずしも必須ではなく、画面
全体を探す設定でも構わない。
A method of setting a template search range in the tracking process will be described with reference to FIG.
This is to reduce the load on the processing by limiting the range in which the template is searched by using the fact that the range in which the template exists can be limited based on the processing cycle interval and the traveling direction of the vehicle on the screen. Therefore, the setting of the range is not necessarily required when the processing capacity of the apparatus has a margin, and the setting for searching the entire screen may be used.

【0032】図6は時刻tにおける画面例で、車両61の
追跡テンプレートは前時刻t−1において画面上の62の位
置に存在したとする。この道路上での進行方向が画面の
左上の方向であることから、時刻tの画面におけるテン
プレートの位置は画面上のx、y座標ともにマイナス方
向へ移動していることになる。このことから、テンプレ
ートを探す範囲は図中の63のように、時刻t−1でのテ
ンプレート62の位置(点線枠)からx、y方向へそれぞ
れ広げた範囲とする。広げる範囲は、時刻t−1とtの
時間間隔で移動した場合の最大値を想定するなどして設
定する。例えば、時刻t−1とtの間の時間が100msec
だったとすると、車両が速度100km/hで走行したとして
100msecでは約278m移動することになる。従って、時刻
t−1における位置から278m進行した範囲を画面上の
座標に換算し、63の範囲を設定する等の方法を取る。
FIG. 6 shows an example of a screen at time t. It is assumed that the tracking template of the vehicle 61 exists at the position 62 on the screen at the previous time t-1. Since the traveling direction on the road is the upper left direction of the screen, the position of the template on the screen at time t is moving in the minus direction in both the x and y coordinates on the screen. Accordingly, the range for searching for the template is set to a range extended in the x and y directions from the position (dotted frame) of the template 62 at the time t-1, as indicated by 63 in the drawing. The range to be widened is set by assuming a maximum value when moving at a time interval between time t-1 and time t. For example, the time between time t-1 and t is 100 msec.
If the vehicle ran at a speed of 100 km / h
At 100msec, it will travel about 278m. Therefore, a range of 278 m from the position at the time t-1 is converted into coordinates on the screen, and a range of 63 is set.

【0033】追跡処理は画像処理周期毎に行い、追跡の
結果得られた座標値は画像処理装置2のワークメモリで
ある追跡車両管理部203に記憶する。図7は追跡車両管
理部nに格納するデータの構成で、車両ID(#0,
1,...)毎に、周期の時刻、座標値、速度、加速
度、追跡不可フラグ、車長、車種等が時系列に格納され
る。
The tracking processing is performed for each image processing cycle, and the coordinate values obtained as a result of the tracking are stored in a tracking vehicle management unit 203 which is a work memory of the image processing apparatus 2. FIG. 7 shows the structure of data stored in the tracked vehicle management unit n.
1,. . . ), Time of cycle, coordinate value, speed, acceleration, tracking impossible flag, vehicle length, vehicle type, etc. are stored in time series.

【0034】画像処理で得られる画面上の座標の位置
は、撮影するテレビカメラの高さと角度から、図8の俯
瞰図で見るような平面上の座標に換算してある。この換
算の方法は、例えば、中前栄八郎著の「3次元コンピュ
ータグラフィックス」(昭晃堂)pp14〜47、および井口
征士著の「三次元画像計測」(昭晃堂)pp91〜99に記載
のような方法で行うことができる。
The positions of the coordinates on the screen obtained by the image processing are converted into coordinates on a plane as seen from the overhead view in FIG. The method of this conversion is described in, for example, "3D Computer Graphics" by Shoichiro Nakamae (Shokodo) pp. 14-47 and "3D Image Measurement" by Seiji Iguchi (Shokodo) pp. 91-99. It can be performed by a method such as

【0035】道路の場合、路上距離の基準になるような
マーキングが存在する場合も多く、例えば、図5中の55
から60に示すような中央線上のポールなどがある。通
常、このようなマーキングは一定間隔で設置されている
ため、このマーキングの位置と面上の車両位置との対応
で、平面上の座標位置が換算できる。このように、平面
上の座標に換算することで瞬間速度を求めたり、後述す
るアニメーション表示手段での俯瞰による走行状況の表
示が行える。
In the case of a road, there are many cases where a marking is used as a reference for the distance on the road, for example, 55 in FIG.
There are poles on the center line as shown from to 60. Usually, such markings are provided at regular intervals, so that the coordinate position on a plane can be converted according to the correspondence between the position of the marking and the vehicle position on the surface. As described above, the instantaneous speed can be obtained by converting the coordinates into the coordinates on the plane, and the running status can be displayed from a bird's-eye view by the animation display means described later.

【0036】図8におけるテンプレートの位置81,82
は、それぞれ図5における車両51,52のテンプレート5
3,54の平面上の位置に相当する。座標値は、例えば、
図8に示すように、車両最後尾の下部などに統一するも
のとする。速度は、画像処理周期毎に追跡の結果得られ
た平面上の座標値と、画像処理周期とから瞬間速度を算
出する。加速度は、前後の瞬間速度と画像処理周期よ
り、平均加速度を算出する。
Template positions 81 and 82 in FIG.
Are the templates 5 of the vehicles 51 and 52 in FIG. 5, respectively.
It corresponds to the position on the plane of 3,54. The coordinate values are, for example,
As shown in FIG. 8, it is assumed to be unified at the lower part of the rear end of the vehicle. As the speed, an instantaneous speed is calculated from a coordinate value on a plane obtained as a result of tracking for each image processing cycle and the image processing cycle. As the acceleration, an average acceleration is calculated from the instantaneous velocities before and after and the image processing cycle.

【0037】図9に、画像処理装置2の各手段により実
現される処理の流れを示す。まず、時刻tの画像を入力
し(s101)、車両検出領域内に新規に現れた車両の
検出を行い(s102)、新規に車両が検出できたか否
かを判定する(s103)。新規に車両が検出できた場
合は、新規車両を追跡車両管理部203に登録(s10
4)した後、新規車両が検出されなかった場合は直ち
に、追跡処理を行う(s105)。
FIG. 9 shows a flow of processing realized by each means of the image processing apparatus 2. First, an image at time t is input (s101), a vehicle newly appearing in the vehicle detection area is detected (s102), and it is determined whether a new vehicle has been detected (s103). If a new vehicle can be detected, the new vehicle is registered in the tracking vehicle management unit 203 (s10
After 4), if a new vehicle is not detected, a tracking process is immediately performed (s105).

【0038】ステップs105の追跡処理では、追跡車
両管理部203から追跡中の車両のテンプレート情報を順
次読み出し、時刻tの画像中でマッチング処理を行うこ
とで追跡を行う。追跡の結果の時刻tにおける座標は、
追跡車両管理部203に格納する。前時刻(t−1)で管
理されているIDの車両が、今回は見つからなかった場
合、追跡車両管理部203の該当車両データに追跡不可フ
ラグ“1”を立てる。追跡処理の終了後、処理のタイマ
を次時刻(t+1)へ進める(s106)、次周期の画
像取り込みを待つ。
In the tracking process at step s105, the template information of the vehicle being tracked is sequentially read from the tracked vehicle management unit 203, and the tracking is performed by performing the matching process in the image at time t. The coordinates of the tracking result at time t are
It is stored in the tracking vehicle management unit 203. If the vehicle with the ID managed at the previous time (t-1) is not found this time, a tracking impossible flag "1" is set in the corresponding vehicle data of the tracking vehicle management unit 203. After the tracking process is completed, the process timer is advanced to the next time (t + 1) (s106), and the process waits for the next cycle of image capture.

【0039】以上のように、画像処理装置2は車両の特
徴部分をテンプレートとして登録し、該テンプレートと
類似度の高い部分を、周期毎に入力する画像から検出す
ることで追跡する。この追跡方法では、テンプレートに
あたる車両部分が後続の車両などにより隠されてしまう
と、追跡が途絶してしまう。本実施例では、追跡が途絶
した場合に、追跡を継続するための追跡補完装置3を設
けている。
As described above, the image processing apparatus 2 registers a characteristic portion of a vehicle as a template, and tracks a portion having a high degree of similarity with the template by detecting the portion from the input image in each cycle. In this tracking method, if the vehicle portion corresponding to the template is hidden by a subsequent vehicle or the like, the tracking is interrupted. In the present embodiment, a tracking complement device 3 is provided for continuing the tracking when the tracking is interrupted.

【0040】追跡補完装置3の車両位置予測部301
は、テレビカメラ1から入力される画面上に存在する全
車両について、画像処理装置2と同じ周期で、走行軌跡
格納部305に格納された前時刻(t−1)の車両毎の位
置や速度等の情報を基に、次時刻(t)での予測座標値
を算出する処理である。
The vehicle position predicting unit 301 of the tracking complement device 3
Is the position and speed of each vehicle at the previous time (t−1) stored in the traveling locus storage unit 305 at the same cycle as the image processing device 2 for all vehicles existing on the screen input from the television camera 1 This is a process of calculating a predicted coordinate value at the next time (t) based on information such as

【0041】ここで、走行軌跡格納部305に格納され
るデータを説明する。走行軌跡格納部305は追跡判定
部303、車両位置補正・確定部304で決定された車
両毎の座標値を、通過時刻とともに記録する。実測の交
通流から得た車両相互の位置関係も含む走行軌跡である
ので、車両挙動解析などに利用価値の高いデータベース
として活用できる。
Here, data stored in the traveling locus storage unit 305 will be described. The traveling locus storage unit 305 records the coordinate values of each vehicle determined by the tracking determination unit 303 and the vehicle position correction / determination unit 304 together with the passing time. Since it is a traveling locus including the positional relationship between vehicles obtained from the measured traffic flow, it can be used as a highly useful database for vehicle behavior analysis and the like.

【0042】図10は走行軌跡格納部に格納されている
データ構成である。走行軌跡格納部305は車両ID毎、
画像処理周期毎に時刻、座標、速度(m/s)、加速度(m
/s2)を、また車両毎に車種、車長を格納する。さら
に、現在画面上で追跡中の車両であるか否かを判断する
ために、追跡を終了した車両については追跡終了フラグ
を立てる。追跡可の場合のデータは追跡車両管理部203
と同様になる。追跡不可の場合の座標は、後述のように
予測した車両位置に基づいて算出される。
FIG. 10 shows the data structure stored in the traveling locus storage unit. The traveling locus storage unit 305 stores information for each vehicle ID,
Time, coordinates, speed (m / s), acceleration (m
/ s 2 ) and the type and length of each vehicle. Further, in order to determine whether or not the vehicle is currently being tracked on the screen, a tracking end flag is set for the vehicle whose tracking has been completed. If the tracking is possible, the tracking vehicle management unit 203
Is the same as The coordinates when tracking is impossible are calculated based on the predicted vehicle position as described later.

【0043】車両位置予測部301では、走行軌跡格納
部305に格納された車両のうち時刻t−1に存在する
車両につき、上記各データを読み出して予測座標値を算
出する。
The vehicle position predicting section 301 reads out the above data for the vehicle stored at the time t-1 among the vehicles stored in the traveling locus storage section 305 and calculates a predicted coordinate value.

【0044】次周期の座標の予測方法は様々である。本
実施例では、画像処理装置2により車両毎の現在の瞬間
速度や位置、また、先行車両との相対速度や位置関係等
を求めることができるので、これらの値を基に例えば第
14回交通工学研究発表会論文集の17頁―20頁に記
載されているような方法で算出する。
There are various methods for predicting the coordinates of the next cycle. In the present embodiment, since the current instantaneous speed and position of each vehicle and the relative speed and positional relationship with the preceding vehicle can be obtained by the image processing apparatus 2, for example, the 14th traffic It is calculated by the method described on pages 17-20 of the Journal of Engineering Research Presentations.

【0045】本予測方法は、先行車両と車間を保ちなが
ら走行する追従走行モデルによっている。すなわち、車
両の走行挙動を単独行動時、追従行動時、停止行
動時の3パターンに分類し、それぞれのパターンに対応
する算出式を適用して時刻tの車両の予測位置を算出す
る。
The present prediction method is based on a follow-up traveling model that travels while keeping a distance between the preceding vehicle and the preceding vehicle. In other words, the running behavior of the vehicle is classified into three patterns, that is, a single action, a following action, and a stopping action, and the predicted position of the vehicle at time t is calculated by applying a calculation formula corresponding to each pattern.

【0046】図11は車両の予測方法の一実施例を示す
流れ図である。時刻tで処理を開始し、まず、前時刻t
−1で検出領域の画面上に存在する車両IDを、走行軌
跡格納部305から先頭から順に読み出す(s20
1)。読み出した先頭車両IDを車両iとし、車両iの
先行車である車両i−1に関するデータを読み出す(s
202)。
FIG. 11 is a flowchart showing one embodiment of the vehicle prediction method. The process starts at time t, and first, the previous time t
The vehicle IDs existing on the screen of the detection area at −1 are sequentially read from the traveling locus storage unit 305 from the top (s20).
1). The read first vehicle ID is set as a vehicle i, and data relating to a vehicle i-1 which is a preceding vehicle of the vehicle i is read (s
202).

【0047】次に、車両iと車両i−1の車間距離およ
び先行車両i−1との速度から、車両iの走行挙動(行
動パターン)を以下のように判定する(s203)。先
行車両i−1の速度をfv、先行車両の位置をfx、対
象車両i(最初は、先頭車両)の位置をbx、自由走行
可能な距離をdとする。車両iの走行挙動は、fv=0
のとき停止行動時、fv>0かつfx―bx>dのと
き単独行動時、fv>0かつfx―bx<dのとき追
従行動時と、それぞれ判定する。
Next, the running behavior (behavior pattern) of the vehicle i is determined from the inter-vehicle distance between the vehicle i and the vehicle i-1 and the speed of the preceding vehicle i-1 as follows (s203). The speed of the preceding vehicle i-1 is fv, the position of the preceding vehicle is fx, the position of the target vehicle i (the first vehicle) is bx, and the free travel distance is d. The running behavior of the vehicle i is fv = 0.
Is determined as a stop action, fv> 0 and fx−bx> d as a single action, and fv> 0 and fx−bx <d as a follow-up action.

【0048】ステップs203で、単独行動時と判定
されたとき数1を選択(s204)、追従行動時と判
定されたとき数2を選択(s205)、停止行動時と
判定されたとき数3を選択し(s206)、選択した数
式に基づき、車両iの時刻t−1からの移動距離を算出
し、時刻tにおける予測座標を算出し(s207)、予
測座標を予測座標管理部302に格納する(s20
8)。
In step s203, the number 1 is selected when it is determined to be the single action (s204), the number 2 is selected when it is determined to be the following action (s205), and the number 3 is determined when it is determined to be the stop action. Based on the selected formula, the moving distance of the vehicle i from time t-1 is calculated, the predicted coordinates at time t are calculated (s207), and the predicted coordinates are stored in the predicted coordinate management unit 302. (S20
8).

【0049】[0049]

【数1】 (Equation 1)

【0050】[0050]

【数2】 (Equation 2)

【0051】[0051]

【数3】 (Equation 3)

【0052】次に、i=i+1として、処理対象となる
車両IDを次の車両に進め(s209)、車両iが時刻t
−1において画面上に存在する車両の最後尾まで来たか
を判定する(s210)。最後尾まで来ていれば処理を
終了し、最後尾まで来ていなければ処理をs202に戻
し、上記の一連の処理を繰り返す。
Next, assuming that i = i + 1, the vehicle ID to be processed is advanced to the next vehicle (s209).
At -1, it is determined whether the vehicle has reached the end of the vehicle existing on the screen (s210). If the end has been reached, the process is terminated. If the end has not been reached, the process returns to s202, and the above series of processes is repeated.

【0053】以上の計算方法では、瞬間速度、加速度を
用いている。しかし、実際に画像処理を用いて車両追跡
より得られる速度は不安定に変化する。図12は車両追
跡結果の車両速度を例示している。図示のように、車両
追跡より得られる速度121は変動するので、車両毎に速
度特性の履歴を取り、時刻tにおける速度変化の特性を
平滑化した値122を用いることで、より安定した予測値
を得ることができる。
In the above calculation method, the instantaneous speed and the acceleration are used. However, the speed actually obtained from the vehicle tracking by using the image processing is unstable. FIG. 12 illustrates the vehicle speed as a result of the vehicle tracking. As shown in the figure, since the speed 121 obtained from the vehicle tracking fluctuates, a history of the speed characteristics is obtained for each vehicle, and the value 122 obtained by smoothing the speed change characteristics at the time t is used to obtain a more stable predicted value. Can be obtained.

【0054】または、上述の速度の不安定な変動を考慮
して、前時刻の車両速度Vt−1から数4により最大値V
t−1maxと最小値Vt−1minを求め、求めた最大値と最小
値を用いて移動距離を算出し、予測値に幅を持たせるこ
ともできる。
Alternatively, in consideration of the above-mentioned unstable fluctuation of the speed, the maximum value V
It is also possible to calculate t-1max and the minimum value Vt-1min, calculate the moving distance using the obtained maximum value and minimum value, and give a range to the predicted value.

【0055】[0055]

【数4】 (Equation 4)

【0056】以上のように、車両毎に算出した予測座標
値は、予測座標管理部305に格納しておく。
As described above, the predicted coordinate values calculated for each vehicle are stored in the predicted coordinate management unit 305.

【0057】図13は予測座標管理部の格納データを示
す。予測座標管理部305は車両毎に、条件0:車両速
度Vの平均値(条件0)、最大値Vmax(条件1)、
最小値Vmin(条件2)からそれぞれ求めた各予測車
両位置(座標値)を格納している。車両追跡部202に
よる追跡ができなかった場合、車両位置補正・確定部3
03は条件0、条件1、条件2の予測座標値を使用して
車両の再検出を行う。なお、車両速度の平均値、最大
値、最小値を条件としているが、必ずしもこの3つの値
に限られるものではない。
FIG. 13 shows data stored in the predicted coordinate management unit. The predicted coordinate management unit 305 determines, for each vehicle, Condition 0: average value of vehicle speed V (condition 0), maximum value Vmax (condition 1),
Each predicted vehicle position (coordinate value) obtained from the minimum value Vmin (condition 2) is stored. If the vehicle cannot be tracked by the vehicle tracking unit 202, the vehicle position correction / determination unit 3
03 performs vehicle re-detection using the predicted coordinate values of the condition 0, the condition 1, and the condition 2. Note that the average, maximum, and minimum values of the vehicle speed are assumed as conditions, but are not necessarily limited to these three values.

【0058】次に、追跡判定部303を説明する。追跡
判定部303は画像処理装置2の車両追跡部202で、
時刻t−1に画面上に存在した車両のそれぞれの追跡が
時刻tで行えたか否かを判定し、行えなかった車両につ
いては車両位置補正・確定部304の処理へ進める。ま
た、追跡が行えた車両については、追跡結果の座標を走
行軌跡格納部305に格納する。
Next, the tracking determination unit 303 will be described. The tracking determination unit 303 is a vehicle tracking unit 202 of the image processing device 2,
It is determined whether or not each of the vehicles existing on the screen at time t-1 has been tracked at time t. If the vehicle cannot be tracked, the process proceeds to the process of vehicle position correction / determination section 304. For the vehicle that has been tracked, the coordinates of the tracking result are stored in the travel locus storage unit 305.

【0059】図14は追跡判定部の処理の流れを示す。
まず、追跡車両管理部203から、追跡中の車両データ
を読み出し(s301)、読み出した車両iの時刻tに
おける追跡の可否を判定する(s302)。具体的に
は、時刻tにおける座標が書き込まれており、追跡不可
フラグが1でなければ、追跡ができたと判定する。
FIG. 14 shows the flow of processing of the tracking determination unit.
First, vehicle data being tracked is read from the tracked vehicle management unit 203 (s301), and it is determined whether or not the read vehicle i can be tracked at time t (s302). Specifically, if the coordinates at time t have been written and the tracking impossible flag is not 1, it is determined that tracking has been performed.

【0060】追跡可の場合、追跡車両管理部203に書
き込まれている車両iの時刻tにおける座標値を、時刻
tにおける確定座標値として走行軌跡格納部305に格
納する(s303)。そして、次車両(i+1)への処
理へ移す(s304)。
When the tracking is possible, the coordinate value of the vehicle i at the time t written in the tracking vehicle management unit 203 is stored in the traveling locus storage unit 305 as the determined coordinate value at the time t (s303). Then, the process proceeds to the process for the next vehicle (i + 1) (s304).

【0061】追跡不可の場合、つまり、時刻tの座標が
書き込まれていなくて追跡不可フラグが立っている場合
は、予測座標管理部302から車両iの予測座標値を読
み出し、車両iが画面内かを判定する(s305)。予
測座標値が画面外の場合は、車両iは検出領域から外へ
通過したとみなし、車両iの追跡処理は終了したとし
て、車両iに追跡終了フラグを立てる(s306)。
If the tracking is impossible, that is, if the coordinates at time t are not written and the tracking impossible flag is set, the predicted coordinate value of the vehicle i is read from the predicted coordinate management unit 302, and the vehicle i is displayed on the screen. Is determined (s305). If the predicted coordinate value is outside the screen, it is considered that the vehicle i has passed out of the detection area, and the tracking process of the vehicle i is completed, and a tracking end flag is set for the vehicle i (s306).

【0062】予測座標値が画面内である場合は、車両i
はまだ画面内に存在するが画像処理装置2による追跡が
失敗したので、車両iの再検出のために車両位置補正・
確定部303に処理を渡し(s308)、次車両へ処理
を移す(s309)。
When the predicted coordinate value is within the screen, the vehicle i
Is still present in the screen, but the tracking by the image processing device 2 has failed.
The process is passed to the determination unit 303 (s308), and the process moves to the next vehicle (s309).

【0063】次に、車両位置補正・確定部304を説明
する。本手段は、画面上に存在する車両iを追跡できな
かった場合に、予測座標管理部302に格納された車両
iの予測座標値をもとに、画像処理装置2に車両Iを再
度検出するための検知窓の位置を渡し、再検出を指示す
る。
Next, the vehicle position correcting / determining section 304 will be described. When the vehicle i present on the screen cannot be tracked, the image processing device 2 detects the vehicle I again based on the predicted coordinate value of the vehicle i stored in the predicted coordinate management unit 302. The position of the detection window for handover is passed, and re-detection is instructed.

【0064】画像処理装置2は、指示された検知窓の中
で車両iの再度の検出処理を行い、検出できた場合には
追跡のためのテンプレートを再登録し、その座標値を車
両iの確定座標として走行軌跡格納部305に格納す
る。再度、検出ができなかった場合は、車両位置予測部
301で得られた予測座標を車両iの仮の確定座標とし
て走行軌跡格納部305に格納する。
The image processing device 2 performs the detection processing of the vehicle i again in the designated detection window, and if it is detected, re-registers the template for tracking, and stores the coordinate values of the vehicle i. The coordinates are stored in the travel locus storage unit 305 as fixed coordinates. If the detection cannot be performed again, the predicted coordinates obtained by the vehicle position prediction unit 301 are stored in the traveling locus storage unit 305 as temporary fixed coordinates of the vehicle i.

【0065】この車両位置補正・確定部304により、
画面上で車両の重なりなどが生じ、画像処理装置2によ
る追跡処理が途絶した場合にも、予測座標を基に追跡を
継続することができる。また、車両位置予測部301で
は、画像処理装置2の検出処理で検出した車両の実測値
を用いて予測した座標値を補正し、その値を用いて次時
刻の予測を行うことで、より精度の高い予測を実現でき
る。
The vehicle position correction / determination unit 304
Even when the vehicle overlaps on the screen and the tracking processing by the image processing device 2 is interrupted, the tracking can be continued based on the predicted coordinates. In addition, the vehicle position prediction unit 301 corrects the predicted coordinate value using the actual measurement value of the vehicle detected in the detection processing of the image processing apparatus 2, and performs the prediction of the next time using the value, thereby achieving higher accuracy. High prediction can be realized.

【0066】本手段のポイントは、追跡補完装置3で扱
う各車両の平面上の座標値から、画面上の車両の存在範
囲を換算して推定することにある。図5と図8を用いた
説明で既に述べたように、平面上の座標は画面上の座標
へ換算できるので、図15に示すように、車両1501,150
2の平面(a)上での座標値1503,1504から、その座標値を
最後尾下部とする標準的な大きさの車両の画面(b)上で
の存在範囲は、それぞれ1505,1506のように推定でき
る。
The point of this means is that the vehicle existence range on the screen is converted and estimated from the coordinate values on the plane of each vehicle handled by the tracking complement device 3. As already described with reference to FIGS. 5 and 8, the coordinates on the plane can be converted into the coordinates on the screen, and therefore, as shown in FIG.
From the coordinate values 1503, 1504 on the plane (a) of 2, the existence range on the screen (b) of a vehicle of a standard size with the coordinate values at the lower end is like 1505, 1506, respectively. Can be estimated.

【0067】また、本手段の目的は、再検出したい車両
iの検出窓の位置を車両Iの予測座標から設定して画像
処理装置に渡すことであるが、車両iは画像処理装置2
の追跡処理で追跡できなかったことから、後続の車両に
前回のテンプレートが隠されている可能性が大きい。従
って、図15(c)に示すように、再検出する車両を1501
とすると、画面上の推定領域1505から、車両1502(1501
の後続車両)の画面上の推定領域1506を除いた領域1507
を検知窓として、画像処理装置2に渡すものとする。こ
こで、後続車両については、画像処理による追跡処理で
既に時刻tにおける座標位置が求まっている場合はその
座標を用い、求まっていない場合は予測座標値を用い
る。
The purpose of this means is to set the position of the detection window of the vehicle i to be re-detected from the predicted coordinates of the vehicle I and pass it to the image processing device.
It is highly likely that the preceding template is hidden in the succeeding vehicle because the tracking process could not be performed in the following tracking process. Therefore, as shown in FIG.
Then, from the estimated area 1505 on the screen, the vehicle 1502 (1501
Area 1507 excluding the estimated area 1506 on the screen of the following vehicle
To the image processing apparatus 2 as a detection window. Here, for the following vehicle, if the coordinate position at the time t has already been obtained in the tracking processing by the image processing, the coordinate is used, and if not, the predicted coordinate value is used.

【0068】また、画像処理装置2で、車長・車種情報
が得られる構成の場合には、得られた車種情報に基づい
て検知窓の大きさを普通車と大型車のいずれかに設定す
ることができる。
When the image processing device 2 is configured to obtain vehicle length / vehicle type information, the size of the detection window is set to one of a normal vehicle and a large vehicle based on the obtained vehicle type information. be able to.

【0069】図16に車両位置補正・確定部304の処
理の流れを示す。本処理は、追跡判定処理302で、車
両iを見失ったと判定されたときに起動する。処理s4
01〜s409までが車両位置補正・確定部304の処
理の流れ、処理s501〜s506までが車両位置補正
・確定部304からの指示を受けて再起動される画像処
理装置2内の処理の流れである。
FIG. 16 shows the flow of the process performed by the vehicle position correction / determination unit 304. This processing is started when it is determined in the tracking determination processing 302 that the vehicle i has been lost. Processing s4
01 to s409 are the processing flow of the vehicle position correction / determination unit 304, and the processing s501 to s506 are the processing flow in the image processing apparatus 2 that is restarted in response to the instruction from the vehicle position correction / determination unit 304. is there.

【0070】まず、画像処理装置2に指示する予測座標
の条件を、条件0(j=0)に設定し(s401)、予
測座標管理部302から読み出した車両iの座標値およ
び予測座標管理部302もしくは走行軌跡格納部305か
ら読み出した後続車両i+1の座標値から、画面上の検
出窓の位置を算出し(s402)、算出した検知窓の位
置を画像処理装置2に送信する(s403)。そして、
ステップs404で、画像処理装置2からのテンプレー
ト登録信号を待機する。
First, the condition of the predicted coordinates instructed to the image processing apparatus 2 is set to condition 0 (j = 0) (s401), and the coordinate value of the vehicle i read from the predicted coordinate management unit 302 and the predicted coordinate management unit The position of the detection window on the screen is calculated from the coordinate values of the following vehicle i + 1 read out from 302 or the running locus storage unit 305 (s402), and the calculated position of the detection window is transmitted to the image processing device 2 (s403). And
In step s404, the process waits for a template registration signal from the image processing apparatus 2.

【0071】画像処理装置2は、車両位置補正・確定部
304から指示された検出窓の位置に検知窓を設ける
(s501)。次に、設定した検知窓内で、水平エッジ
など車両の特徴部分を検出するなどして車両検出を行う
(s502)。ここでの処理は、図4を用いて説明した
車両検出処理と同様である。
The image processing device 2 provides a detection window at the position of the detection window specified by the vehicle position correction / determination unit 304 (s501). Next, vehicle detection is performed by detecting a characteristic portion of the vehicle such as a horizontal edge in the set detection window (s502). The processing here is the same as the vehicle detection processing described using FIG.

【0072】次に、車両が検出できたか否かの判定を行
う(s503)。検出できなかった場合は「未登録」信
号を車両位置補正・確定部304に送信する(s50
4)。検出できたと判定された場合は、「登録」信号
と、検出した車両の座標を車両位置補正・確定部304
に送信する(s505)。そして、車両を検出できた位
置にテンプレートを再登録し(s506)、画像処理装
置2の再検出処理を終了する。
Next, it is determined whether or not the vehicle has been detected (s503). If it cannot be detected, an “unregistered” signal is transmitted to the vehicle position correction / determination unit 304 (s50).
4). If it is determined that the detection is successful, the “registration” signal and the coordinates of the detected vehicle are used as the vehicle position correction / determination unit 304.
(S505). Then, the template is re-registered at the position where the vehicle can be detected (s506), and the re-detection processing of the image processing device 2 is terminated.

【0073】車両位置補正・確定部304は、画像処理
装置2からの信号を受信すると処理を再開し(s40
4)、受信信号がテンプレートが登録できた「登録」信
号か、登録できなかった「未登録」信号かを判定する
(s405)。「登録」の場合は新しいテンプレートの
座標値を走行軌跡格納部305に登録し(s406)、処
理を終了する。「未登録」の場合は、画像処理装置に指
示する条件jを1つすすめ(s407)、処理s402
に戻り上記の一連の処理を繰り返す。条件jが最大条件
数(図12では、jmax=3)より大きくなった場合
は、予測座標管理部302から車両iの予測座標値(た
とえば、条件0の平均値)を時刻tの座標値として走行
軌跡格納部305に格納する。
Upon receiving the signal from the image processing device 2, the vehicle position correcting / determining section 304 restarts the processing (s40).
4) It is determined whether the received signal is a “registered” signal for which the template has been registered or an “unregistered” signal for which the template has not been registered (s405). In the case of "registration", the coordinate values of the new template are registered in the traveling locus storage unit 305 (s406), and the process ends. In the case of “unregistered”, one condition j to be instructed to the image processing apparatus is recommended (s407), and processing s402 is performed.
And the above series of processing is repeated. When the condition j is larger than the maximum condition number (jmax = 3 in FIG. 12), the predicted coordinate value of the vehicle i (for example, the average value of the condition 0) is set as the coordinate value of the time t from the predicted coordinate management unit 302. It is stored in the traveling locus storage unit 305.

【0074】以上のように、車両位置補正・確定部30
4では、予測座標管理部302に格納された車両iの複
数条件の予測座標を順に読み出し、画像処理装置2に送
信することで、画像処理装置では送信された予測座標値
を基に追跡できなかった車両を再度検出しなおし、検出
できた場合には新しいテンプレートの座標値を、できな
かった場合には予測座標値を時刻tにおける車両iの座標
値として走行軌跡格納部305に登録することができ
る。
As described above, the vehicle position correction / determination unit 30
In No. 4, the predicted coordinates of the plurality of conditions of the vehicle i stored in the predicted coordinate management unit 302 are sequentially read and transmitted to the image processing device 2, so that the image processing device cannot perform tracking based on the transmitted predicted coordinate values. The detected vehicle may be detected again, and if detected, the coordinate value of the new template may be registered in the travel locus storage unit 305 as the coordinate value of the vehicle i at the time t. it can.

【0075】図17に、画像処理装置が予測座標値に基
づいて行う再検出処理のイメージを示す。(a)は時刻
t−1の画面、(b)、(c)、(d)は次の時刻tに
おける同一の画面である。
FIG. 17 shows an image of the re-detection processing performed by the image processing apparatus based on the predicted coordinate values. (A) is the screen at time t-1, and (b), (c), and (d) are the same screen at the next time t.

【0076】画面(a)で、時刻t−1における任意の
車両171に追跡テンプレート172が設定されている。通常
の追跡処理では、時刻tの画面(b)で、テンプレート
172を用いて類似した領域を検出しようとする。しか
し、該当する領域が、画面上で後続の車両173と重なっ
ているため類似した領域を検出できない。その場合、車
両位置補正・確定部303では、車両171の予測座標値
から画面上の検出窓位置を算出して画像処理装置2に渡
し、画像処理装置2では画面(c)の174のように渡さ
れた検出窓を設定し、再度、水平エッジを検出するなど
の車両検出処理を行う。そして、検出が可能であった場
合、検出できた領域のテンプレート175を車両171の新規
のテンプレートとして再登録する。
On the screen (a), a tracking template 172 is set for an arbitrary vehicle 171 at time t-1. In the normal tracking process, the screen (b) at time t
Attempt to detect similar regions using 172. However, a similar area cannot be detected because the corresponding area overlaps the following vehicle 173 on the screen. In that case, the vehicle position correction / determination unit 303 calculates the detection window position on the screen from the predicted coordinate value of the vehicle 171 and passes it to the image processing device 2, and the image processing device 2 performs the operation as indicated by 174 in the screen (c). The passed detection window is set, and vehicle detection processing such as detecting a horizontal edge is performed again. If the detection is possible, the template 175 in the detected area is re-registered as a new template of the vehicle 171.

【0077】以上の処理を行うことにより、任意の車両
iに登録されたテンプレートの領域が隠れてしまっては
いるが、車両iそのものは画面上に存在するような場合
は、隠れの無い領域をテンプレートとして再登録するこ
とで車両の追跡を継続することが可能になる。このよう
に、後続車両等により登録されたテンプレート領域が隠
れて画像処理による追跡が途絶するが、車両予測部で予
測した座標をもとに任意の位置での車両検出領域を再設
定し、隠れのない特徴領域を車両の追跡テンプレートと
して再登録することができる。
By performing the above processing, the area of the template registered for an arbitrary vehicle i is hidden, but if the vehicle i itself exists on the screen, the area without occlusion is deleted. By re-registering as a template, vehicle tracking can be continued. As described above, the template region registered by the following vehicle or the like is hidden and tracking by image processing is interrupted, but the vehicle detection region at an arbitrary position is reset based on the coordinates predicted by the vehicle prediction unit, and the hidden region is hidden. The feature area without the feature can be re-registered as a vehicle tracking template.

【0078】図18に、具体的なデータ例による画像処
理装置と追跡補完装置の処理の説明図を示す。図中で、
時刻は左から右へ順にt、t+1、t+2とし、図中に
示す処理は上段が画像処理装置2での処理、下段が追跡
補完装置3での処理である。
FIG. 18 is an explanatory diagram of the processing of the image processing apparatus and the tracking complementing apparatus based on specific data examples. In the figure,
The times are t, t + 1, t + 2 in order from left to right, and the processing shown in the figure is the processing in the image processing device 2 in the upper part and the processing in the tracking complementing device 3 in the lower part.

【0079】図中の(a)〜(c)は、時刻t〜t+2
の入力画像を示し、184〜186は時刻t〜t+2の
画像処理装置2の追跡の結果得られ、追跡車両管理部2
03に格納されている座標値及び追跡不可フラグであ
る。また、195、196、197はそれぞれ車両の固
有番号を示す。
(A) to (c) in the figure correspond to times t to t + 2
184 to 186 are obtained as a result of tracing of the image processing device 2 from time t to t + 2, and the tracked vehicle management unit 2
03 is a coordinate value and a tracking impossible flag stored in the same. Reference numerals 195, 196, and 197 denote unique numbers of the vehicle, respectively.

【0080】図中の(d)〜(f)は、追跡補完装置で
予測した車両の位置を俯瞰画像として投影したものであ
る。190〜192は、時刻t〜t+2の車両位置予測
部で予測し、予測座標管理部302に格納された座標値で
ある。また、193と194は車両位置補正・確定部30
3の処理の結果、走行軌跡格納部305に格納される座標で
ある。
(D) to (f) in the figure are obtained by projecting the position of the vehicle predicted by the tracking complement device as an overhead view image. 190 to 192 are coordinate values predicted by the vehicle position prediction unit from time t to t + 2 and stored in the predicted coordinate management unit 302. 193 and 194 are vehicle position correction / determination units 30.
The coordinates stored in the travel locus storage unit 305 as a result of the process of 3.

【0081】実際の処理の流れに従って説明する。ま
ず、本装置を立ち上げると時刻tの画像(a)を入力す
る。初期状態では記憶しているテンプレートが無いので
画面上から検出処理のみを行い、車両195、車両196の時
刻tの座標値(50,80)、(50,120)を得て、追跡車両管理
部203に格納する。この座標値184は追跡補完装置3
に入力し、追跡判定部303で、追跡不可フラグが0で
あるので、時刻tにおける座標値とし、走行軌跡格納部
305に格納する。
The description will be made according to the flow of actual processing. First, when the apparatus is started up, an image (a) at time t is input. In the initial state, since there is no stored template, only the detection processing is performed from the screen, and the coordinate values (50, 80) and (50, 120) of the vehicle 195 and the vehicle 196 at time t are obtained. Store. This coordinate value 184 is the tracking complement device 3
And the tracking determination unit 303 sets the coordinate value at time t to 0 because the tracking impossible flag is 0, and stores the coordinate value in the traveling locus storage unit 305.

【0082】追跡補完装置の車両位置予測部301で
は、次に時刻tの座標値,速度,加速度などから時刻t
+1における車両位置を予測する。車両195、車両196の
予測した座標値を191に示す。次に、画像処理装置2で
は、時刻t+1の画像(b)の入力を受けて、新規車両
の検出処理と車両195、車両196の追跡処理を行う。画像
(b)には新規車両がないので、車両195、車両196を追
跡した結果の座標185を追跡補完装置3に入力する。追
跡補完装置3の追跡判定部303では、車両195、車両1
96共に追跡座標が得られており、追跡不可フラグも0で
あるので、追跡座標185を時刻t+1における座標値と
して走行軌跡格納部304に格納する。
The vehicle position estimating unit 301 of the tracking complementing device then calculates the time t based on the coordinate value, speed, acceleration, etc. at time t.
Predict the vehicle position at +1. The predicted coordinate values of the vehicle 195 and the vehicle 196 are shown at 191. Next, in response to the input of the image (b) at time t + 1, the image processing device 2 performs a process of detecting a new vehicle and a process of tracking the vehicles 195 and 196. Since there is no new vehicle in the image (b), the coordinates 185 obtained by tracking the vehicles 195 and 196 are input to the tracking complement device 3. In the tracking determination unit 303 of the tracking complement device 3, the vehicle 195, the vehicle 1
Since the tracking coordinates are obtained for all 96 and the tracking disabled flag is also 0, the tracking coordinates 185 are stored in the traveling locus storage unit 304 as the coordinate values at time t + 1.

【0083】同様に、時刻t+2においても、追跡補完
装置3の車両位置予測部301では走行軌跡格納部30
5の時刻t+1の座標値から時刻t+2の予測座標値19
2を算出する。算出した予測座標値からは、車両195のy
座標がマイナスとなり、画面外となることが予測され
る。
Similarly, at time t + 2, the vehicle position predicting section 301 of the tracking complement device 3 also stores the traveling locus storing section 30
5 from the coordinate value at time t + 1 to the predicted coordinate value 19 at time t + 2
Calculate 2. From the calculated predicted coordinate values, y of the vehicle 195 is calculated.
It is predicted that the coordinates will be negative and will be off the screen.

【0084】次に、時刻t+2の画像入力を受けて、画
像処理装置2では新規車両の検出処理と車両195、車両1
96の追跡処理を行う。新規車両197を検出し、また追跡
処理では車両195が追跡できないので、車両195の追跡不
可フラグを1とし、他2台の車両の座標186を追跡補完
装置3に入力する。追跡補完装置3の追跡判定部303
では、車両195は追跡不可フラグが1で、予測座標値も
画面外となったので画面外へ通過したとして、走行軌跡
格納部305の車両195の追跡終了フラグを1とする。
車両196は追跡ができて、追跡不可フラグが0なので追
跡座標値を走行軌跡格納部305に格納し、車両197は
新規に検出した車両として座標186を時刻t+2におけ
る座標値として走行軌跡格納部305に格納する。
Next, upon receiving the image input at time t + 2, the image processing device 2 detects the new vehicle and performs the vehicle 195 and vehicle 1
Perform 96 tracking operations. Since the new vehicle 197 is detected and the vehicle 195 cannot be tracked in the tracking process, the tracking disabled flag of the vehicle 195 is set to 1 and the coordinates 186 of the other two vehicles are input to the tracking complement device 3. Tracking determination unit 303 of tracking complementing device 3
Then, since the tracking impossible flag of the vehicle 195 is 1 and the predicted coordinate value is also outside the screen, it is determined that the vehicle 195 has passed the outside of the screen, and the tracking end flag of the vehicle 195 in the traveling locus storage unit 305 is set to 1.
Since the vehicle 196 can be tracked and the tracking impossible flag is 0, the tracking coordinate value is stored in the travel locus storage unit 305, and the vehicle 197 is a newly detected vehicle and the coordinate 186 is the travel locus storage unit 305 as the coordinate value at time t + 2. To be stored.

【0085】以上のように、画像入力⇒追跡処理⇒座標
決定処理⇒予測処理を繰り返して、毎時刻毎の車両の位
置を求めることで、走行軌跡格納部305に車両の走行
軌跡が順次格納されることになる。
As described above, the position of the vehicle at each time is obtained by repeating the image input ⇒ tracking process ⇒ coordinate determination process ⇒ prediction process, so that the trajectory of the vehicle is sequentially stored in the trajectory storage unit 305. Will be.

【0086】次に、本発明の他の実施例について説明す
る。図19は、実施例2の交通状況追跡装置の構成で、
実施例1の構成にアニメーション表示手段を付加してい
る。道路上に設置されたテレビカメラ1からの映像は、
通常一定の高さ、角度によるものである。このため、実
際の速度や車間距離などは映像のみからでは直感的に理
解しにくいものが多い。
Next, another embodiment of the present invention will be described. FIG. 19 illustrates a configuration of the traffic situation tracking device according to the second embodiment.
An animation display unit is added to the configuration of the first embodiment. The image from the TV camera 1 installed on the road is
Usually it depends on a certain height and angle. For this reason, the actual speed, the distance between vehicles, and the like are often difficult to understand intuitively only from the video.

【0087】本実施例のアニメーション表示手段4は、
テレビカメラ1からの動画像の入力と同期して、走行軌
跡格納部304に時刻毎に格納される車両毎の座標に基
づき、道路上の車両を俯瞰して表示する。このとき、車
両は予め用意してある形状によりアニメーション表示す
る。これにより、路上の車両を俯瞰の走行状況として捕
らえ、画像上では重なって見える複数車両も分離して走
行位置を視覚的に表示することができる。また、走行軌
跡格納部304に格納された軌跡データとのインターフ
ェースをとることで、過去の走行状況の再現を行うこと
も可能である。
The animation display means 4 of the present embodiment
In synchronization with the input of the moving image from the television camera 1, the vehicle on the road is displayed as a bird's-eye view based on the coordinates of each vehicle stored in the travel locus storage unit 304 at each time. At this time, the vehicle displays an animation in a shape prepared in advance. As a result, vehicles on the road can be perceived as a bird's-eye view running condition, and a plurality of vehicles that appear to be overlapped on the image can be separated and the running position can be visually displayed. In addition, by using an interface with the locus data stored in the traveling locus storage unit 304, it is also possible to reproduce past traveling conditions.

【0088】以上の実施例1、2の交通状況追跡装置
は、簡単のため1台のテレビカメラと1台の画像処理装
置を用いた例で説明した。本発明は、複数のテレビカメ
ラと複数の画像処理装置を組み合わせる構成でも実現可
能である。実際に、本発明を適用する長大トンネルの監
視装置などでは、一路線に数百mおきに設置したテレビ
カメラからの映像を取り込んでいる。
The traffic condition tracking devices of the first and second embodiments have been described by way of example using one television camera and one image processing device for simplicity. The present invention can also be realized by a configuration in which a plurality of television cameras and a plurality of image processing devices are combined. In fact, a monitoring device for a long tunnel to which the present invention is applied captures an image from a television camera installed at intervals of several hundred meters on one line.

【0089】図20は、複数のテレビカメラと複数の画
像処理装置を用いるシステム構成を示している。テレビ
カメラ1a、1b、1cで撮影した画像から、画像処理
装置2a、2b、2cがそれぞれの撮影領域を走行中の
車両を検出し、追跡処理を行っている。ここの画像処理
装置2の構成は実施例1と同じである。
FIG. 20 shows a system configuration using a plurality of television cameras and a plurality of image processing devices. From the images taken by the television cameras 1a, 1b, 1c, the image processing devices 2a, 2b, 2c detect vehicles running in the respective photographing areas and perform tracking processing. The configuration of the image processing device 2 here is the same as that of the first embodiment.

【0090】追跡補完装置3は一つで、各画像処理装置
2a〜2cで検知した車両に関しての情報を管理し、車
両位置の予測、追跡可否の判定、追跡不可の場合の車両
位置補正、確定処理は共通に行う。この場合、一つの車
両位置予測部301が複数の画像処理装置から得られた
車両に関する情報の予測を共通に行うので、各画像処理
装置内で追跡した車両同志の対応を取ることも可能とな
る。これにより路線全体での各車両の走行状況が一度に
把握でき、更に、アニメーション表示手段で路線全体を
表示することで、全体の状況を視覚的に把握することが
できる。
The tracking supplementing device 3 manages information on the vehicle detected by each of the image processing devices 2a to 2c, predicts the vehicle position, determines whether or not tracking is possible, corrects the vehicle position when tracking is not possible, and fixes it. The processing is performed in common. In this case, since one vehicle position prediction unit 301 commonly predicts information on vehicles obtained from a plurality of image processing apparatuses, it is possible to take correspondence between vehicles tracked in each image processing apparatus. . Thereby, the traveling state of each vehicle on the entire route can be grasped at a time, and furthermore, the entire situation can be visually grasped by displaying the entire route by the animation display means.

【0091】図21に、複数のテレビカメラからの映像
をアニメーション表示する画面の例を示す。画面
(a),(b),(c)はそれぞれテレビカメラ215、
テレビカメラ216、テレビカメラ217により撮影される画
面領域である。画面(d)はこれら複数のテレビカメラ
により撮影される画面領域を走行している車両を、アニ
メーション表示手段4でアニメーション表示した例であ
る。撮影画面(a),(b),(c)上の車両218から
車両225は、アニメーション画面(d)上の車両218から
車両225にそれぞれ対応する。
FIG. 21 shows an example of a screen on which images from a plurality of television cameras are displayed as an animation. Screens (a), (b), and (c) are TV camera 215,
This is a screen area captured by the television camera 216 and the television camera 217. The screen (d) is an example in which the vehicle running in the screen area captured by the plurality of television cameras is displayed as an animation by the animation display unit 4. The vehicles 218 to 225 on the shooting screens (a), (b), and (c) correspond to the vehicles 218 to 225 on the animation screen (d), respectively.

【0092】各テレビカメラの映像からではその領域内
での車両の位置関係のみしか検出できないが、画像処理
装置から検出した座標と,車両位置予測部で予測した座
標とで相互に補正することにより、画面211の車両218と
車両219のような車両の重なりも除去した上で、連続し
た路線上に存在する車両群の座標情報を視覚的に捕らえ
ることができる。
Although only the positional relationship of the vehicle within the area can be detected from the image of each TV camera, the coordinates detected by the image processing device and the coordinates predicted by the vehicle position predicting unit are mutually corrected. In addition, after eliminating the overlap between vehicles such as the vehicle 218 and the vehicle 219 on the screen 211, it is possible to visually capture the coordinate information of the vehicle group existing on the continuous route.

【0093】[0093]

【発明の効果】本発明によれば、画面上で車両の重なり
や隠れが生じる場合でも、車両走行モデルを有した交通
流予測機能で車両位置を予測し、予測した位置をもとに
車両を再検出または補完して追跡を継続するので、安定
した走行軌跡が得られる交通状況追跡方法及び装置を提
供することができる。
According to the present invention, even when the vehicle overlaps or hides on the screen, the vehicle position is predicted by the traffic flow prediction function having the vehicle running model, and the vehicle is controlled based on the predicted position. Since the tracking is continued by re-detecting or supplementing, it is possible to provide a traffic condition tracking method and device capable of obtaining a stable traveling trajectory.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の交通状況追跡装置の一実施例を示す構
成図。
FIG. 1 is a configuration diagram showing one embodiment of a traffic situation tracking device of the present invention.

【図2】車両の通過の検知窓及びテンプレート登録処理
の説明図。
FIG. 2 is an explanatory diagram of a detection window of vehicle passage and template registration processing.

【図3】車両が通過する前後の相関値の変化を示す説明
図。
FIG. 3 is an explanatory diagram showing a change in a correlation value before and after a vehicle passes.

【図4】車両が通過する前後の画面例を示す説明図。FIG. 4 is an explanatory diagram showing an example of a screen before and after a vehicle passes.

【図5】画像処理による車両追跡処理の画面例を示す説
明図。
FIG. 5 is an explanatory diagram showing a screen example of a vehicle tracking process by image processing.

【図6】追跡処理のとき、テンプレートを探す範囲の設
定方法を示す説明図。
FIG. 6 is an explanatory diagram showing a method of setting a range in which a template is searched in a tracking process.

【図7】追跡車両管理部における情報記憶形式の説明
図。
FIG. 7 is an explanatory diagram of an information storage format in a tracking vehicle management unit.

【図8】画面上の座標位置を平面の座標位置に換算する
ときの位置関係を示す俯瞰図。
FIG. 8 is an overhead view showing a positional relationship when a coordinate position on a screen is converted into a coordinate position on a plane.

【図9】画像処理装置による車両検出及び車両追跡処理
の流れ図。
FIG. 9 is a flowchart of vehicle detection and vehicle tracking processing by the image processing apparatus.

【図10】走行軌跡格納部における情報記憶形式の説明
図。
FIG. 10 is an explanatory diagram of an information storage format in a traveling locus storage unit.

【図11】車両位置予測部による予測処理の流れ図。FIG. 11 is a flowchart of a prediction process performed by a vehicle position prediction unit.

【図12】画像処理の車両追跡で得られる速度の変動を
示す説明図。
FIG. 12 is an explanatory diagram showing a change in speed obtained by vehicle tracking in image processing.

【図13】予測座標管理部における情報記憶形式の説明
図。
FIG. 13 is an explanatory diagram of an information storage format in a predicted coordinate management unit.

【図14】追跡判定部による判定処理の流れ図。FIG. 14 is a flowchart of a determination process performed by a tracking determination unit.

【図15】検知窓の設定方法を示す説明図。FIG. 15 is an explanatory diagram showing a setting method of a detection window.

【図16】車両位置補正・確定部による処理と画像処理
装置による再処理の流れ図。
FIG. 16 is a flowchart of processing by a vehicle position correction / determination unit and reprocessing by an image processing device.

【図17】画像処理装置が予測座標値の周辺について再
度、車両検出をし直す処理の説明図。
FIG. 17 is an explanatory diagram of a process in which the image processing device performs vehicle detection again around the predicted coordinate value.

【図18】画像処理装置と追跡補完装置の並行処理の具
体例を示す説明図。
FIG. 18 is an explanatory diagram showing a specific example of parallel processing of the image processing device and the tracking complement device.

【図19】本発明の交通状況追跡装置の他の実施例を示
す構成図。
FIG. 19 is a configuration diagram showing another embodiment of the traffic situation tracking device of the present invention.

【図20】他の実施例(図19)を、複数のテレビカメ
ラと複数の画像処理装置で実現する構成図。
FIG. 20 is a configuration diagram that realizes another embodiment (FIG. 19) with a plurality of television cameras and a plurality of image processing apparatuses.

【図21】長い距離に亘る複数の車両を追跡した交通状
況のアニメーション表示の画面例を示す説明図。
FIG. 21 is an explanatory view showing a screen example of an animation display of a traffic situation in which a plurality of vehicles are tracked over a long distance.

【符号の説明】[Explanation of symbols]

1…テレビカメラ、2…画像処理装置、3…追跡補完装
置、4…アニメーション表示手段、201…車両検出
部、202…車両追跡部、203…追跡車両管理部、3
01…車両位置予測部、302…予測座標管理部、30
3…追跡判定部、304…車両位置補正・確定部、30
5…走行軌跡格納部。
DESCRIPTION OF SYMBOLS 1 ... TV camera, 2 ... Image processing apparatus, 3 ... Tracking complement apparatus, 4 ... Animation display means, 201 ... Vehicle detection part, 202 ... Vehicle tracking part, 203 ... Tracking vehicle management part, 3
01: vehicle position prediction unit, 302: predicted coordinate management unit, 30
3: tracking determination unit, 304: vehicle position correction / determination unit, 30
5. Running trajectory storage unit.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 横田 孝義 茨城県日立市大みか町七丁目1番1号 株 式会社日立製作所日立研究所内 (72)発明者 佐藤 良幸 茨城県日立市大みか町五丁目2番1号 株 式会社日立製作所大みか事業所内 Fターム(参考) 5H180 AA01 BB15 CC04 CC30 EE01 EE02 5L096 BA04 CA04 FA06 FA34 FA66 FA69 HA03 HA05 JA09  ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Takayoshi Yokota 7-1-1, Omika-cho, Hitachi City, Ibaraki Prefecture Inside the Hitachi Research Laboratory, Hitachi, Ltd. (72) Inventor Yoshiyuki Sato 5-chome, Omika-cho, Hitachi City, Ibaraki Prefecture No. 1 F term in Hitachi Ltd. Omika Works (reference) 5H180 AA01 BB15 CC04 CC30 EE01 EE02 5L096 BA04 CA04 FA06 FA34 FA66 FA69 HA03 HA05 JA09

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 道路上に設置したテレビカメラより時系
列に取り込まれる画面上の映像から画像処理により車両
を検出し、前時刻(t−1)で検出された車両を次の時
刻(t)の画面上で探索して追跡する車両追跡方法にお
いて、時刻t−1における前記画像処理と並行して、検
出された車両の時刻tにおける予測車両位置を求め、 時刻tの画面上で追跡できなかった車両に対し、その予
測車両位置に基づき時刻tの画面上で前記画像処理によ
る再探索を行い、当該車両が検出できた場合はその検出
位置を時刻tの車両位置となし、当該車両が検出できな
かった場合は当該予測車両位置を時刻tの車両位置とみ
なすことを特徴とする車両追跡方法。
1. A vehicle is detected by image processing from an image on a screen taken in time series from a television camera installed on a road, and the vehicle detected at the previous time (t-1) is detected at the next time (t). In the vehicle tracking method of searching and tracking on the screen of (1), the predicted vehicle position at time t of the detected vehicle is obtained in parallel with the image processing at time t-1, and the vehicle cannot be tracked on the screen at time t. The vehicle is searched again by the image processing on the screen at time t based on the predicted vehicle position based on the predicted vehicle position. If the vehicle can be detected, the detected position is determined as the vehicle position at time t, and the vehicle is detected. A vehicle tracking method characterized by considering the predicted vehicle position as the vehicle position at time t when the vehicle position cannot be determined.
【請求項2】 請求項1において、 前記予測車両位置は、前記画像処理から得られる速度の
変動に基づく時刻t−1から時刻tへの最大、最小及び
平均の移動条件によってそれぞれ求め、ある移動条件に
よる予測車両位置での再探索が不可能な場合に他の移動
条件に変更して再探索を行うことを特徴する車両追跡方
法。
2. The vehicle according to claim 1, wherein the predicted vehicle position is determined by maximum, minimum, and average movement conditions from time t-1 to time t based on speed fluctuations obtained from the image processing. A vehicle tracking method characterized in that when a re-search at a predicted vehicle position based on a condition is not possible, the vehicle is re-searched by changing to another moving condition.
【請求項3】 請求項1または2において、 前記予測車両位置に基づく再探索は該予測車両位置の周
辺、または該予測車両位置を画面上で後続車両との重な
りを少なくする方向に移動した位置の周辺に対して行う
車両追跡方法。
3. The re-search based on the predicted vehicle position according to claim 1, wherein the re-search based on the predicted vehicle position is a position around the predicted vehicle position or a position where the predicted vehicle position is moved on the screen in a direction to reduce overlap with a subsequent vehicle. Tracking method for the surrounding area.
【請求項4】 道路の状況を撮影するテレビカメラと、
撮影した画面を周期的に入力して車両を検出し、次画面
の入力に応じて前画面で検出された車両を追跡する画像
処理装置を備えた交通状況追跡装置において、 前記画像処理装置で検出された車両毎に前画面での車両
位置から次画面における予測車両位置を求める車両位置
予測手段と、前記画像処理装置による前記次画面で追跡
ができない車両について、その予測車両位置に基づく再
追跡を前記画像処理装置に対して指示する車両位置補正
手段を有する追跡補完装置を設けたことを特徴とする交
通状況追跡装置。
4. A television camera for photographing road conditions,
A traffic condition tracking device including an image processing device that periodically inputs a captured screen to detect a vehicle and tracks the vehicle detected in the previous screen in response to the input of the next screen, wherein the detection is performed by the image processing device. Vehicle position prediction means for obtaining a predicted vehicle position on the next screen from a vehicle position on the previous screen for each vehicle, and re-tracking based on the predicted vehicle position for a vehicle that cannot be tracked on the next screen by the image processing device. A traffic condition tracking device, comprising a tracking complement device having a vehicle position correcting means for instructing the image processing device.
【請求項5】 請求項4において、 前記追跡補完装置は、前記画像処理装置による前記次画
面での追跡または再追跡が行えたか判定し、追跡または
再追跡が行えた場合はその検出車両の車両位置、前記再
追跡が行えなかった場合は前記予測車両位置のいずれか
を前記次画面の車両位置として決定する手段、この決定
された車両位置を時系列の走行軌跡として格納する手段
を有していることを特徴とする交通状況追跡装置。
5. The tracking complementary device according to claim 4, wherein the tracking complementing device determines whether tracking or retracking on the next screen has been performed by the image processing device, and if tracking or retracking has been performed, a vehicle of the detected vehicle. Means for determining one of the predicted vehicle positions as the vehicle position of the next screen when the re-tracking is not performed, and means for storing the determined vehicle position as a time-series running locus. A traffic condition tracking device characterized by the following.
【請求項6】 請求項4または5において、 前記道路の状況を俯瞰する俯瞰画面上で車両毎の車両位
置に、予め用意したアニメ形状の車両を表示するアニメ
表示手段を設けたことを特徴とする交通状況追跡装置。
6. The vehicle according to claim 4, wherein an animation display means for displaying a vehicle having an animation shape prepared in advance is provided at a vehicle position for each vehicle on an overhead view screen for overhead view of the road condition. Traffic condition tracking device.
【請求項7】 請求項4〜6のいずれかにおいて、 前記道路に沿って離間して設けられる複数のテレビカメ
ラと、それぞれ対応するカメラの映像を入力して画像処
理する複数の画像処理装置を設け、これら画像処理装置
の処理結果を補完する一つの前記追跡補完装置とからな
る交通状況追跡装置。
7. A plurality of television cameras provided apart from each other along the road, and a plurality of image processing devices for inputting images of the corresponding cameras and performing image processing, respectively. A traffic condition tracking device provided with one of the tracking complement devices that complements the processing results of these image processing devices.
JP2000041419A 2000-02-15 2000-02-15 Vehicle tracking method and traffic state tracking device Pending JP2001229488A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000041419A JP2001229488A (en) 2000-02-15 2000-02-15 Vehicle tracking method and traffic state tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000041419A JP2001229488A (en) 2000-02-15 2000-02-15 Vehicle tracking method and traffic state tracking device

Publications (1)

Publication Number Publication Date
JP2001229488A true JP2001229488A (en) 2001-08-24

Family

ID=18564665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000041419A Pending JP2001229488A (en) 2000-02-15 2000-02-15 Vehicle tracking method and traffic state tracking device

Country Status (1)

Country Link
JP (1) JP2001229488A (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085685A (en) * 2001-09-10 2003-03-20 I Transport Lab Co Ltd Vehicle traveling track observing device and method using a plurality of video cameras
JP2003217082A (en) * 2002-01-21 2003-07-31 Nippon Signal Co Ltd:The Image type speed detecting system and image type speed detecting method
JP2005190142A (en) * 2003-12-25 2005-07-14 Foundation For The Promotion Of Industrial Science Intersection traffic measuring system and intersection traffic measurement method
JP2007094919A (en) * 2005-09-30 2007-04-12 Mitsubishi Electric Corp Traffic flow measurement device
JP2007172052A (en) * 2005-12-19 2007-07-05 Toyota Motor Corp Traveling object recognition device
JP2007235952A (en) * 2006-02-28 2007-09-13 Alpine Electronics Inc Method and device for tracking vehicle
JP2007287093A (en) * 2006-04-20 2007-11-01 Fujitsu Frontech Ltd Program, method and device for detecting mobile object
JP2008003660A (en) * 2006-06-20 2008-01-10 Nissan Motor Co Ltd Approaching vehicle detector
GB2455195A (en) * 2007-11-28 2009-06-03 Boeing Co Predicting vehicle movement when a vehicle is not in the field of view of a camera.
JP2009122808A (en) * 2007-11-13 2009-06-04 Mazda Motor Corp Drive support device for vehicle
JP2009169776A (en) * 2008-01-18 2009-07-30 Hitachi Ltd Detector
JP2010055628A (en) * 2009-11-30 2010-03-11 Mitsubishi Electric Corp Traffic flow measurement device
JP2010092248A (en) * 2008-10-08 2010-04-22 Nec Corp Vehicle tracking device and vehicle tracking method
JP2010176302A (en) * 2009-01-28 2010-08-12 Mitsubishi Electric Corp Vehicle detection device, vehicle detection system, vehicle detection method for vehicle detection device, and vehicle detection program
WO2019059090A1 (en) * 2017-09-21 2019-03-28 株式会社日立国際電気 Vehicle number measuring system
JP2019532431A (en) * 2016-10-14 2019-11-07 富士通株式会社 Vehicular retrograde detection device, detection method, and electronic apparatus
JP2020177457A (en) * 2019-04-18 2020-10-29 株式会社デンソー Target detection device, target detection method, and operation support system
CN112396631A (en) * 2019-08-16 2021-02-23 纬创资通股份有限公司 Object tracking method and computer system thereof
CN114399899A (en) * 2021-12-01 2022-04-26 武汉微创光电股份有限公司 Method and system for realizing high-temperature vehicle track tracking in tunnel operation
JP7445441B2 (en) 2020-01-28 2024-03-07 アマノ株式会社 Parking lot control system, parking lot control method, and program

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4673521B2 (en) * 2001-09-10 2011-04-20 株式会社アイ・トランスポート・ラボ Vehicle traveling locus observation apparatus and method using a plurality of video cameras
JP2003085685A (en) * 2001-09-10 2003-03-20 I Transport Lab Co Ltd Vehicle traveling track observing device and method using a plurality of video cameras
JP2003217082A (en) * 2002-01-21 2003-07-31 Nippon Signal Co Ltd:The Image type speed detecting system and image type speed detecting method
JP2005190142A (en) * 2003-12-25 2005-07-14 Foundation For The Promotion Of Industrial Science Intersection traffic measuring system and intersection traffic measurement method
JP2007094919A (en) * 2005-09-30 2007-04-12 Mitsubishi Electric Corp Traffic flow measurement device
JP4668754B2 (en) * 2005-09-30 2011-04-13 三菱電機株式会社 Traffic flow measuring device
JP2007172052A (en) * 2005-12-19 2007-07-05 Toyota Motor Corp Traveling object recognition device
JP4661578B2 (en) * 2005-12-19 2011-03-30 トヨタ自動車株式会社 Mobile object recognition device
JP2007235952A (en) * 2006-02-28 2007-09-13 Alpine Electronics Inc Method and device for tracking vehicle
JP2007287093A (en) * 2006-04-20 2007-11-01 Fujitsu Frontech Ltd Program, method and device for detecting mobile object
JP4697063B2 (en) * 2006-06-20 2011-06-08 日産自動車株式会社 Approaching vehicle detection device
JP2008003660A (en) * 2006-06-20 2008-01-10 Nissan Motor Co Ltd Approaching vehicle detector
JP2009122808A (en) * 2007-11-13 2009-06-04 Mazda Motor Corp Drive support device for vehicle
GB2455195B (en) * 2007-11-28 2010-09-08 Boeing Co System and method for tracking traffic moving behind an obstruction
GB2455195A (en) * 2007-11-28 2009-06-03 Boeing Co Predicting vehicle movement when a vehicle is not in the field of view of a camera.
US8321122B2 (en) 2007-11-28 2012-11-27 The Boeing Company System and method for evidential reasoning for transportation scenarios
JP2009169776A (en) * 2008-01-18 2009-07-30 Hitachi Ltd Detector
JP2010092248A (en) * 2008-10-08 2010-04-22 Nec Corp Vehicle tracking device and vehicle tracking method
JP2010176302A (en) * 2009-01-28 2010-08-12 Mitsubishi Electric Corp Vehicle detection device, vehicle detection system, vehicle detection method for vehicle detection device, and vehicle detection program
JP2010055628A (en) * 2009-11-30 2010-03-11 Mitsubishi Electric Corp Traffic flow measurement device
JP2019532431A (en) * 2016-10-14 2019-11-07 富士通株式会社 Vehicular retrograde detection device, detection method, and electronic apparatus
JPWO2019059090A1 (en) * 2017-09-21 2020-07-30 株式会社日立国際電気 Vehicle number measurement system
WO2019059090A1 (en) * 2017-09-21 2019-03-28 株式会社日立国際電気 Vehicle number measuring system
JP2020177457A (en) * 2019-04-18 2020-10-29 株式会社デンソー Target detection device, target detection method, and operation support system
JP7180521B2 (en) 2019-04-18 2022-11-30 株式会社デンソー Target detection device, target detection method, and driving support system
CN112396631A (en) * 2019-08-16 2021-02-23 纬创资通股份有限公司 Object tracking method and computer system thereof
CN112396631B (en) * 2019-08-16 2023-08-25 纬创资通股份有限公司 Object tracking method and computer system thereof
JP7445441B2 (en) 2020-01-28 2024-03-07 アマノ株式会社 Parking lot control system, parking lot control method, and program
CN114399899A (en) * 2021-12-01 2022-04-26 武汉微创光电股份有限公司 Method and system for realizing high-temperature vehicle track tracking in tunnel operation
CN114399899B (en) * 2021-12-01 2022-12-30 武汉微创光电股份有限公司 Method and system for realizing high-temperature vehicle track tracking in tunnel operation

Similar Documents

Publication Publication Date Title
JP2001229488A (en) Vehicle tracking method and traffic state tracking device
US11333517B1 (en) Distributed collection and verification of map information
JP5968064B2 (en) Traveling lane recognition device and traveling lane recognition method
CN112907678B (en) Vehicle-mounted camera external parameter attitude dynamic estimation method and device and computer equipment
JP2007178182A (en) Device for determining one&#39;s own vehicle location
JP5946420B2 (en) Navigation device, own vehicle position correction program, and own vehicle position correction method
CN105654031B (en) System and method for object detection
CN112200830A (en) Target tracking method and device
JP2007147458A (en) Location detector, location detection method, location detection program, and recording medium
CN111707258B (en) External vehicle monitoring method, device, equipment and storage medium
CN109360225A (en) A kind of optimization system and method for motion model
CN112445204A (en) Object movement navigation method and device in construction site and computer equipment
CN114593739B (en) Vehicle global positioning method and device based on visual detection and reference line matching
CN114663804A (en) Driving area detection method, device, mobile equipment and storage medium
JP6419260B1 (en) Traffic information acquisition device, traffic information acquisition system, traffic information acquisition method, and traffic information acquisition program
JPH08279093A (en) Traffic flow measuring instrument
JP3470172B2 (en) Traffic flow monitoring device
US20230245323A1 (en) Object tracking device, object tracking method, and storage medium
CN112263188A (en) Correction method and device for moving direction of mobile robot
JPH0688732A (en) Navigation apparatus for vehicle
CN110764526B (en) Unmanned aerial vehicle flight control method and device
JPH11345392A (en) Device and method for detecting obstacle
JP2010025709A (en) Driving support apparatus, driving support method, driving support program, and computer-readable storage medium
CN113762030A (en) Data processing method and device, computer equipment and storage medium
JP4697761B2 (en) Queue detection method and queue detection apparatus