JP5212004B2 - Vehicle tracking device and vehicle tracking method - Google Patents

Vehicle tracking device and vehicle tracking method Download PDF

Info

Publication number
JP5212004B2
JP5212004B2 JP2008261183A JP2008261183A JP5212004B2 JP 5212004 B2 JP5212004 B2 JP 5212004B2 JP 2008261183 A JP2008261183 A JP 2008261183A JP 2008261183 A JP2008261183 A JP 2008261183A JP 5212004 B2 JP5212004 B2 JP 5212004B2
Authority
JP
Japan
Prior art keywords
vehicle
tracking
current time
route
likelihood
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008261183A
Other languages
Japanese (ja)
Other versions
JP2010092248A (en
Inventor
伸一 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2008261183A priority Critical patent/JP5212004B2/en
Publication of JP2010092248A publication Critical patent/JP2010092248A/en
Application granted granted Critical
Publication of JP5212004B2 publication Critical patent/JP5212004B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は車両追跡装置及び車両追跡方法に関し、特にカメラによる撮像画像中に存在する車両を追跡する車両追跡方式に関するものである。   The present invention relates to a vehicle tracking device and a vehicle tracking method, and more particularly to a vehicle tracking system for tracking a vehicle present in an image captured by a camera.

近年の自動車開発のキーワードとして、「安全・安心」がある。日本社会の高齢化に伴い、ドライバーの高齢者人口が今後増大していくのは避けられないが、判断力、注意力、体力などが衰えた高齢者ドライバに対して安全で安心できる運転をサポートすることは、自動車業界にとって強く望まれていることである。自動車にとっての安全、安心とは、交通事故の発生を回避するか、発生した場合にその損害を最小限に食い止めることと考えることができる。   “Safety and security” is a keyword in recent automobile development. As the Japanese society ages, it is inevitable that the elderly population of drivers will increase in the future, but support safe and reliable driving for elderly drivers whose judgment, attention, and physical strength have declined. To do is highly desirable for the automotive industry. Safety and security for automobiles can be thought of as avoiding the occurrence of traffic accidents or minimizing the damage if they occur.

自動車の高性能化や道路交通法の改正等により、交通事故死者数は平成9年の9,640人から平成18年の6,352人と着実に減少を続けているものの、負傷者数はほぼ横ばいであり、自動車の安全性に関しては更なる向上が求められている。自動車と人や物との衝突を回避するために必要な自動車周辺状況認識技術として、例えばミリ波レーダを用いた前方車両衝突回避システムや、遠赤外線画像をカーナビゲーション画面に表示することによる夜間道路画像明瞭化システム、更には前方カメラを用いて白線を認識することによる車線逸脱警報システムなどが実用化されている。   Although the number of fatalities in traffic accidents has been steadily decreasing from 9,640 in 1997 to 6,352 in 2006 due to improvements in the performance of automobiles and revisions to the Road Traffic Law, It is almost flat, and further improvements are demanded regarding the safety of automobiles. For example, a vehicle collision avoidance system using a millimeter-wave radar and a night road by displaying a far-infrared image on a car navigation screen as a technology for recognizing the surrounding situation of a vehicle necessary for avoiding a collision between a vehicle and a person or an object An image clarification system and a lane departure warning system by recognizing a white line using a front camera have been put into practical use.

これらは、1台の車両で処理が完結する技術であるが、より高度な状況認識を実現するアプローチとして、車車連携技術や路車連携技術がある。車車連携では、道路上を走行する各車両が互いに無線通信を行い、自車両の周辺状況を他車両に対して提供することによって、自車両のみでは把握が困難な周辺状況の取得が可能となる。車車連携が実現することにより、例えば死角から他車両が飛び出してくることによる出会い頭の衝突事故の回避が期待される。   These are technologies in which processing is completed with one vehicle, but there are vehicle-vehicle cooperation technology and road-vehicle cooperation technology as approaches for realizing higher-level situation recognition. With vehicle-to-vehicle cooperation, each vehicle traveling on the road communicates wirelessly with each other, and the surrounding situation of the own vehicle is provided to other vehicles, so that it is possible to acquire the surrounding situation that is difficult to grasp only with the own vehicle. Become. By realizing vehicle-vehicle cooperation, for example, it is expected to avoid a collision accident at the time of encounter due to another vehicle popping out from the blind spot.

路車連携では、道路脇に設置したセンサを用いて個々の車両の走行状態をモニタリングし、これらの走行情報を各車両に配信する。路車連携が実現することにより、例えば渋滞末尾の検出と通知が可能となる。また、路車連携で用いるセンサの一つとしてカメラを用いることがあるが、カメラで取得した道路画像から個々の車両を検出しその走行経路を追跡することで、交差点内での右折車と直進車の衝突防止警告システムの構築も可能となる。カメラをセンサとして用いることの利点には、簡易な設定および低コストで広範囲をモニタリングでき、また個々の車両を道路上の任意の位置で計測できることが挙げられる。   In road-vehicle cooperation, the running state of each vehicle is monitored using a sensor installed beside the road, and the running information is distributed to each vehicle. By realizing road-vehicle cooperation, for example, it becomes possible to detect and notify the end of a traffic jam. A camera may be used as one of the sensors used in road-vehicle cooperation. By detecting individual vehicles from the road images acquired by the cameras and tracking their travel routes, the vehicle goes straight with a right turn car at the intersection. It is also possible to construct a car collision prevention warning system. Advantages of using a camera as a sensor include that it is possible to monitor a wide range with simple setting and low cost, and that an individual vehicle can be measured at an arbitrary position on the road.

一方、大きな問題点として、注目車両が他車両に遮蔽されることにより画像上で注目車両の一部が欠落して観測されるいわゆるオクルージョンの場合、注目車両が未検出扱いとなる可能性が高くなるという点が挙げられる。特に、路車連携技術が強く望まれている交差点付近では、信号待ち時に車両が停車して画像上でオクルージョンが多発する。従って、画像センサを使った路車連携では、オクルージョンに頑健な車両追跡技術が必須である。路側に設置したセンサから車両を検出し、その走行経路を追跡する従来技術には、以下のようなものが知られている。   On the other hand, as a major problem, in the case of so-called occlusion where a vehicle of interest is shielded by another vehicle and part of the vehicle of interest is observed missing on the image, the vehicle of interest is likely to be undetected. The point that becomes. In particular, in the vicinity of an intersection where road-vehicle cooperation technology is strongly desired, the vehicle stops when waiting for a signal, and occlusion occurs frequently on the image. Therefore, in vehicle-vehicle cooperation using an image sensor, a vehicle tracking technique that is robust against occlusion is essential. The following are known as conventional techniques for detecting a vehicle from a sensor installed on the roadside and tracking the travel route.

特許文献1を参照すると、注目車両を構成する部分毎にテンプレートを用意し、これらのテンプレートを入力画像中のオブジェクトにマッチングすることにより個々の車両を検出する。その際、車両位置に対してカルマンフィルタ(Kalman Filter )を適用して得られる1時刻先の予測位置付近に限定してマッチングを行うことによって、車両追跡の高精度化を図っている。   With reference to Patent Document 1, templates are prepared for each portion constituting the vehicle of interest, and individual vehicles are detected by matching these templates with objects in the input image. At that time, by performing matching only in the vicinity of the predicted position one hour ahead obtained by applying a Kalman Filter to the vehicle position, the vehicle tracking is improved in accuracy.

また、特許文献2を参照すると、ミリ波レーダを用いた自動追従走行機能のように、先行車両の位置および速度情報が必要な状況において、先行車両の速度低下により先行車両を車両として検出できなくなった場合、それまでの先行車両の速度と位置の情報から現時刻における先行車両の位置を推定している。   In addition, referring to Patent Document 2, in a situation where the position and speed information of the preceding vehicle is required, such as an automatic following traveling function using a millimeter wave radar, the preceding vehicle cannot be detected as a vehicle due to a decrease in the speed of the preceding vehicle. In this case, the position of the preceding vehicle at the current time is estimated from the information on the speed and position of the preceding vehicle so far.

更に、特許文献3を参照すると、路側に車両感知センサが密に設置されていない道路区間での交通状態の推定精度を上げるために、図22に示すように、実際の道路を車線毎(車線の総数をLaneNum と記す)に等間隔に分割した「セル」を導入する(以下では、このセルを画像化したものをセル画像と記す)。そして、交通流を圧縮性流体と見なし、各セルにおける車両の密度、空間平均速度などをモデル内部状態として、その推定にKalman Filter を用いている。   Further, referring to Patent Document 3, in order to improve the estimation accuracy of the traffic state in the road section where the vehicle detection sensors are not densely installed on the road side, as shown in FIG. "Cells" divided into equal intervals (hereinafter referred to as cell images). The traffic flow is regarded as a compressible fluid, and the density of vehicles in each cell, the spatial average speed, etc. are used as model internal states, and the Kalman Filter is used for the estimation.

また、非特許文献1に示される交通流シミュレーションモデルには、セルオートマトン(Cell Automaton:CA)を利用したものもよく知られている。このCAでは、セル画像の各セルを車両の存在/不在セルに分ける。注目する車両存在セルが更新条件を満たす時に注目車両存在セルを移動させる。更新条件としては、例えば、ルール184や、Nagel-Schreckenberg アルゴリズムなどがある。   Further, a traffic flow simulation model disclosed in Non-Patent Document 1 is well known that uses a Cell Automaton (CA). In this CA, each cell of the cell image is divided into a vehicle presence / absence cell. When the vehicle presence cell of interest meets the update condition, the vehicle presence cell of interest is moved. Examples of the update condition include a rule 184 and a Nagel-Schreckenberg algorithm.

いま、セル画像の左から右が車両進行方向と仮定した場合、ルール184では、図23に示すように、現時刻における各車両存在セルに注目し、注目車両存在セルの右隣のセルが車両不在セルの場合には、次時刻において注目車両存在セルを右隣のセルに移動させ、車両存在セルの場合には、注目車両存在セルの位置を移動させない。   Now, assuming that the left to right of the cell image is the vehicle traveling direction, the rule 184 pays attention to each vehicle existing cell at the current time as shown in FIG. In the case of an absent cell, the target vehicle presence cell is moved to the cell on the right at the next time, and in the case of a vehicle presence cell, the position of the target vehicle presence cell is not moved.

Nagel-Schreckenberg アルゴリズムは、上記のルール184に実際の車両の挙動(加速や減速)を考慮したものであり、その内容は以下のようにまとめることができる。
(1)注目車両の現時刻での速度をv(セル単位)とする。
(2)加速:v<vmax でかつ前方車との距離がv+1以上であれば、速度を1つ上げる(v→v+1)。
(3)減速:注目車両がセルiにいて、前方車がセルi+j(j<v)にあるとき、速度をj−1まで落とす(v→j−1)。
(4)ランダム化:v>0のとき、確率pで速度を一つ下げる(v→v−1)。
(5)移動:vセル進む。
The Nagel-Schreckenberg algorithm considers actual vehicle behavior (acceleration and deceleration) in the above-mentioned rule 184, and the contents can be summarized as follows.
(1) Let v (cell unit) be the speed of the vehicle of interest at the current time.
(2) Acceleration: If v <vmax and the distance to the vehicle ahead is v + 1 or more, the speed is increased by 1 (v → v + 1).
(3) Deceleration: When the vehicle of interest is in cell i and the vehicle ahead is in cell i + j (j <v), the speed is reduced to j−1 (v → j−1).
(4) Randomization: When v> 0, the speed is decreased by one with probability p (v → v−1).
(5) Move: Advance v cells.

このようなNagel-Schreckenberg アルゴリズムから分かるとおり、Cell Automatonを用いた交通流シミュレーションモデルでは、同一車線上の車両の追い越しという現実にはあり得ない状況を排除したシミュレーションが可能となる。   As can be seen from the Nagel-Schreckenberg algorithm, the traffic flow simulation model using Cell Automaton enables simulation that eliminates the situation that is impossible in reality, such as overtaking vehicles on the same lane.

なお、他の技術として、特許文献4に開示のものもある。特許文献4では、複数物体の検出、追跡におけるオクルージョンの影響を極力抑圧すべく、観測領域の周辺にカメラを複数台設置しておき、これらのカメラから得られる各物体の複数方向からのアパーチャ情報を統合して、確率的に尤もらしい各物体の内部状態(位置や方向及びそれらの変化量)を推定するようになっている。   As another technique, there is one disclosed in Patent Document 4. In Patent Document 4, in order to suppress the influence of occlusion in the detection and tracking of a plurality of objects as much as possible, a plurality of cameras are installed around the observation region, and aperture information from each direction of each object obtained from these cameras is obtained. Are integrated to estimate the internal state (position and direction and the amount of change thereof) of each object that is probabilistically plausible.

特開2001−357403号公報JP 2001-357403 A 特開2001−043499号公報JP 2001-043499 A 特開2004−078482号公報Japanese Patent Application Laid-Open No. 2004-077842 特開2004−220292号公報JP 2004-220292 A 杉山雄規著「交通流の物理」、ながれ22,2003,p95−p108Sugiyama Yuuki, “Physics of Traffic Flow”, Nagare 22, 2003, p95-p108

特許文献1の技術では、オブジェクトの追跡に従来のカルマンフィルタを用いている。カルマンフィルタは与えられた観測データを用いて隠れ状態を推定する方法であり、現時刻における隠れ状態を算出するろ過処理と1時刻先の隠れ状態を算出する予測処理から構成される。時刻nにおける観測データを、

Figure 0005212004
として、ろ過処理の結果得られる隠れ状態が従う正規分布の平均ベクトルと分散共分散行列とを、それぞれ、
Figure 0005212004
とする。 In the technique of Patent Document 1, a conventional Kalman filter is used for tracking an object. The Kalman filter is a method for estimating a hidden state using given observation data, and includes a filtering process for calculating a hidden state at the current time and a prediction process for calculating a hidden state one hour ahead. The observation data at time n is
Figure 0005212004
As a mean vector and a variance covariance matrix of normal distributions obeyed by the hidden state obtained as a result of filtration,
Figure 0005212004
And

同様に、予測処理の結果得られる隠れ状態が従う正規分布の平均ベクトルと分散共分散行列とを、それぞれ、

Figure 0005212004
とすると、カルマンフィルタでは異なる時刻の隠れ状態間でマルコフ性が、隠れ変数と観測データの間では線形の演算がそれぞれ成り立つと見なして、
Figure 0005212004
Figure 0005212004
と、それぞれ定式化する。 Similarly, the mean vector of the normal distribution and the variance-covariance matrix that the hidden state obtained as a result of the prediction process follows,
Figure 0005212004
Then, in the Kalman filter, it is assumed that Markov property is established between hidden states at different times, and linear operations are established between hidden variables and observed data.
Figure 0005212004
Figure 0005212004
And formulate each.

式(1)はシステム方程式、式(2)は観測方程式と呼ばれる。また、行列Fは状態遷移行列、Hは観測行列であり、

Figure 0005212004
は、それぞれ行列分散がQ,Rのホワイトノイズである。このときろ過処理、予測処理は、それぞれ、
Figure 0005212004
Figure 0005212004
Figure 0005212004
Figure 0005212004
で逐次計算される。 Equation (1) is called a system equation, and Equation (2) is called an observation equation. Matrix F is a state transition matrix, H is an observation matrix,
Figure 0005212004
Are white noises with matrix variances of Q and R, respectively. At this time, the filtration process and the prediction process are respectively
Figure 0005212004
Figure 0005212004
Figure 0005212004
Figure 0005212004
Is calculated sequentially.

なお、式(3),(4)の行列Kはカルマンゲインと呼ばれ、

Figure 0005212004
で計算される。例えば、隠れ状態を現時刻および1時刻前の真の車両位置
Figure 0005212004
を用いて、
Figure 0005212004
と定義し、隣接した3時刻間での車両運動が等速直線運動で近似できるとすると、状態遷移行列と観測行列は、
Figure 0005212004
Figure 0005212004
の形で記述できる。 Note that the matrix K in equations (3) and (4) is called Kalman gain,
Figure 0005212004
Calculated by For example, if the hidden state is the current vehicle time and the true vehicle position one hour before
Figure 0005212004
Using,
Figure 0005212004
If the vehicle motion between three adjacent times can be approximated by constant velocity linear motion, the state transition matrix and the observation matrix are
Figure 0005212004
Figure 0005212004
Can be described in the form of

式(1)〜(10)から分かるとおり、カルマンフィルタは観測データが毎時刻与えられることを前提とした時に精度が保証される処理である。注目車両のオクルージョンが著しい場合には検出漏れが発生し、対応した観測データが存在しないことになる(以下、欠測状態と略す)。観測データが存在しない場合には、一般的に、1時刻前に算出した予測位置を現時刻のろ過位置とするが、欠測状態が長くなればなるほど、実際の車両の挙動との乖離が大きくなり、追跡精度は低下する。   As can be seen from the equations (1) to (10), the Kalman filter is a process in which the accuracy is guaranteed when it is assumed that the observation data is given every time. When the occlusion of the vehicle of interest is significant, a detection failure occurs, and corresponding observation data does not exist (hereinafter abbreviated as a missing measurement state). When there is no observation data, the predicted position calculated one time ago is generally used as the filtering position at the current time. However, the longer the missing state, the greater the deviation from the actual vehicle behavior. As a result, tracking accuracy decreases.

特許文献2の技術では、先行車両の速度が予め設定した閾値以下となった場合、自車両の絶対位置と絶対速度、それまでに蓄積した自車両の位置との相対速度、相対速度の変化量から、最尤推定法により現時刻における先行車両の絶対位置と絶対速度を求めているが、特許文献1の技術と同じく、閾値以下の低速走行状態が長くなる程、実際の先行車両の挙動との乖離が大きくなる。   In the technique of Patent Document 2, when the speed of the preceding vehicle is equal to or lower than a preset threshold value, the absolute position and the absolute speed of the host vehicle, the relative speed between the position of the host vehicle accumulated so far, and the amount of change in the relative speed From the maximum likelihood estimation method, the absolute position and the absolute speed of the preceding vehicle at the current time are obtained. As in the technique of Patent Document 1, the actual behavior of the preceding vehicle becomes longer as the low-speed traveling state below the threshold becomes longer. The divergence increases.

特許文献3の技術では、交通量シミュレーションモデルに対してプローブ情報を発信している車両の走行速度情報と、路側に設置した車両感知センサからの交通流および速度に関する情報とを入力として、カルマンフィルタの状態変数を推定しているが、これらの情報の欠測状態が長くなると推定精度が劣化するのは前記の特許文献1や2と同じである。   In the technique of Patent Document 3, the travel speed information of a vehicle that transmits probe information to the traffic volume simulation model and the information on the traffic flow and speed from the vehicle detection sensor installed on the road side are input, and the Kalman filter Although the state variables are estimated, the estimation accuracy deteriorates when the missing state of these pieces of information becomes long, as in the above-mentioned Patent Documents 1 and 2.

また、特許文献1〜3の技術は、同一車両に同一車両番号が割当てられていることが前提であり、この割当てが正しくない場合には処理が破綻する。オクルージョンが発生しているカメラ画像からの車両検出のように、欠測状態が長期化しやすい状況下で従来どおりカルマンフィルタを用いると、推定した状態と実際の先行車両の挙動との乖離から実際の車両と車両番号とにずれが生じ、前記の同一車両/同一車両番号の前提が成り立たなくなる。   In addition, the techniques of Patent Documents 1 to 3 are based on the premise that the same vehicle number is assigned to the same vehicle. If this assignment is not correct, the process fails. If the Kalman filter is used as usual in situations where the missing state is likely to be prolonged, such as when detecting a vehicle from a camera image where occlusion occurs, the actual vehicle will be deviated from the difference between the estimated state and the actual behavior of the preceding vehicle. And the vehicle number are shifted, and the premise of the same vehicle / the same vehicle number is not satisfied.

特許文献4の技術では、物体番号iと内部状態xとを一対一で対応付けして内部状態を確率分布で表現している。よって、時刻毎の確率分布の更新計算において、オクルージョンの影響で物体iと物体jの確率分布の入れ替りが発生する可能性があり、この場合には、元の物体番号の対応関係に回復することはできず、よって信頼性が乏しいという問題がある。   In the technique of Patent Literature 4, the object number i and the internal state x are associated with each other one-to-one, and the internal state is expressed by a probability distribution. Therefore, in the update calculation of the probability distribution at each time, there is a possibility that the probability distribution of the object i and the object j may be switched due to the influence of occlusion, and in this case, the original object number correspondence is restored. Therefore, there is a problem that reliability is poor.

本発明の目的は、追跡対象の車両オブジェクトと車両番号との時間的な連続性が途絶えることを防止しつつオクルージョンに対して頑健で高精度かつ高効率な車両追跡が可能な車両追跡装置及び車両追跡方法ならびにそのプログラムを提供することである。   SUMMARY OF THE INVENTION An object of the present invention is to provide a vehicle tracking device and a vehicle capable of highly accurate and highly efficient vehicle tracking that are robust against occlusion while preventing the temporal continuity between a tracking target vehicle object and a vehicle number from being interrupted. It is to provide a tracking method and its program.

本発明による車両追跡装置は、道路画像から個々の車両をオブジェクトとして検出する車両検出手段と、この検出された個々のオブジェクトに対して複数の車両番号を割当てる車両番号割当て手段と、前記車両番号割当て手段により割当てられた車両番号の各々に基づいて走行経路を追跡する走行経路追跡手段と、前記行経路追跡手段により得られた追跡経路情報から各経路の確率的な確からしさを尤度として算出する経路尤度算出手段と、前記車両番号割当て手段により割当てられた前記車両番号のうち前記経路尤度算出手段により算出された尤度が小なる経路に対応した車両番号を削除する車両番号枝刈り手段とを含むことを特徴とする。   The vehicle tracking device according to the present invention includes vehicle detection means for detecting individual vehicles as objects from road images, vehicle number assignment means for assigning a plurality of vehicle numbers to the detected individual objects, and the vehicle number assignment. A travel route tracking means for tracking the travel route based on each of the vehicle numbers assigned by the means, and a probability probability of each route is calculated as a likelihood from the tracking route information obtained by the route route tracking means. Route likelihood calculating means and vehicle number pruning means for deleting a vehicle number corresponding to a route having a smaller likelihood calculated by the route likelihood calculating means from among the vehicle numbers assigned by the vehicle number assigning means It is characterized by including.

本発明による車両追跡方法は、道路画像から個々の車両をオブジェクトとして検出する車両検出ステップと、この検出された個々のオブジェクトに対して複数の車両番号を割当てる車両番号割当てステップと、この割当てられた車両番号の各々に基づいて走行経路を追跡する走行経路追跡ステップと、追跡経路情報から各経路の確率的な確からしさを尤度として算出する経路尤度算出ステップと、前記割当てられた車両番号のうち前記経路尤度算出ステップにより算出された尤度が小なる経路に対応した車両番号を削除する車両番号枝刈りステップとを含むことを特徴とする。   The vehicle tracking method according to the present invention includes a vehicle detection step for detecting individual vehicles as objects from a road image, a vehicle number assignment step for assigning a plurality of vehicle numbers to the detected individual objects, and the assigned A travel route tracking step for tracking a travel route based on each of the vehicle numbers, a route likelihood calculation step for calculating the probability of each route from the track route information as a likelihood, and the assigned vehicle number A vehicle number pruning step for deleting a vehicle number corresponding to a route having a small likelihood calculated by the route likelihood calculating step.

本発明によるプログラムは、車両追跡方法をコンピュータにより実行するためのプログラムであって、道路画像から個々の車両をオブジェクトとして検出する処理と、この検出された個々のオブジェクトに対して複数の車両番号を割当てる処理と、この割当てられた車両番号の各々に基づいて走行経路を追跡する処理と、追跡経路情報から各経路の確率的な確からしさを尤度として算出する処理と、前記割当てられた車両番号のうち前記経路尤度算出ステップにより算出された尤度が小なる経路に対応した車両番号を削除する処理とを含むことを特徴とする。   A program according to the present invention is a program for executing a vehicle tracking method by a computer, and includes a process for detecting individual vehicles as objects from road images, and a plurality of vehicle numbers for the detected individual objects. A process of assigning, a process of tracking a travel route based on each of the assigned vehicle numbers, a process of calculating the probability of each route from the tracking route information as a likelihood, and the assigned vehicle number And a process of deleting a vehicle number corresponding to a route having a smaller likelihood calculated by the route likelihood calculating step.

本発明によれば、道路画像を用いた車両追跡において欠測状態が生じた場合に、車両検出結果に複数の車両番号を割当てることにより、車両検出結果と車両番号との時間的な連続性を確保すると共に、該車両番号のうち追跡処理の結果得られる尤度が小さいものは削除することによって、追跡処理の効率化を図ることができるという効果がある。また、本発明によれば、観測データが存在する場合には尤度を大きく、欠測状態である場合には尤度を小さくすることにより、追跡処理の精度向上を図ることができるという効果がある。   According to the present invention, when a missing state occurs in vehicle tracking using a road image, by assigning a plurality of vehicle numbers to the vehicle detection result, temporal continuity between the vehicle detection result and the vehicle number is increased. In addition to securing the vehicle number, the vehicle number having a low likelihood obtained as a result of the tracking process is deleted, so that the efficiency of the tracking process can be improved. In addition, according to the present invention, the accuracy of tracking processing can be improved by increasing the likelihood when observation data exists and decreasing the likelihood when observation data is present. is there.

以下に、図面を参照しつつ本発明について詳細に説明する。図1は本発明の実施の形態の概略機能ブロック図である。図1を参照すると、本発明の実施の形態による車両追跡装置は、道路画像から個々の車両を検出して座標と共に出力する車両検出部1と、車両検出部1の処理結果である個々の車両を車両オブジェクトと見なして複数の車両番号を割当てる車両番号割当て部2と、車両検出部1から得られた個々の車両オブジェクトの位置情報及び車両番号割当て部2で割当てられた車両番号を用いて、個々の車両番号に対応した車両オブジェクトの走行経路を追跡、記録する走行経路追跡部3と、走行経路追跡部3の出力結果である追跡経路情報から、各経路の確率的な尤もらしさを尤度として算出する経路尤度算出部4と、車両番号割当て部2で割当てられた車両番号のうち、経路尤度算出部4で算出された尤度が小さい経路に対応した車両番号を車両オブジェクトから削除する車両番号枝刈り部5とから構成されている。   Hereinafter, the present invention will be described in detail with reference to the drawings. FIG. 1 is a schematic functional block diagram of an embodiment of the present invention. Referring to FIG. 1, a vehicle tracking device according to an embodiment of the present invention detects a vehicle from a road image and outputs it together with coordinates, and an individual vehicle that is a processing result of the vehicle detection unit 1. Vehicle number allocating unit 2 for allocating a plurality of vehicle numbers by regarding the vehicle as a vehicle object, and using the position information of each vehicle object obtained from vehicle detecting unit 1 and the vehicle number allocated by vehicle number allocating unit 2, From the travel route tracking unit 3 that tracks and records the travel route of the vehicle object corresponding to each vehicle number, and the tracking route information that is the output result of the travel route tracking unit 3, the probabilistic likelihood of each route is estimated. Of the vehicle numbers assigned by the route likelihood calculating unit 4 and the vehicle number assigning unit 2, the vehicle number corresponding to the route having the smaller likelihood calculated by the route likelihood calculating unit 4 And a vehicle number pruning unit 5 for removed from objects.

次に、図1に示した本実施の形態の全体の動作について説明する。車両検出部1では、路側に設置したカメラから得られる道路画像から車両を検出する。車両番号割当て部2では、車両検出部1で検出されて走行経路の追跡を開始すると判定された車両オブジェクトに対して車両番号の割当てを行う。車両番号割当て部2の動作を、時刻t=Tにおける車両オブジェクトの追跡状況を表す図2を用いて説明する。   Next, the overall operation of the present embodiment shown in FIG. 1 will be described. The vehicle detection unit 1 detects a vehicle from a road image obtained from a camera installed on the road side. The vehicle number assigning unit 2 assigns a vehicle number to a vehicle object that is detected by the vehicle detecting unit 1 and determined to start tracking the travel route. The operation of the vehicle number assigning unit 2 will be described with reference to FIG. 2 showing the tracking state of the vehicle object at time t = T.

図2において、車両オブジェクトαが走行経路の追跡を開始するオブジェクトと判定されたと仮定する。車両番号割当て部2では、先ず、車両オブジェクトαが走行する車線2上に存在する追跡中の車両オブジェクトのうち、車両オブジェクトαの前方、後方で最も近い位置にある車両オブジェクトの位置を算出する(図2では車両オブジェクトA,Bで表現)。   In FIG. 2, it is assumed that the vehicle object α is determined to be an object for starting tracking of the travel route. The vehicle number assigning unit 2 first calculates the position of the vehicle object that is closest to the front and rear of the vehicle object α among the tracking vehicle objects existing on the lane 2 on which the vehicle object α travels ( In FIG. 2, vehicle objects A and B are represented).

更に、車両オブジェクトαに隣接した車線1、車線3上に存在する追跡中の車両オブジェクトのうち、車両進行方向で車両オブジェクトαと同じ位置(図2の破線)を基点として、前方および後方を探索し、基点に最も近い車両オブジェクトの位置を算出する(図2では、車両オブジェクトC,Dで表現)。車両オブジェクトαには、これらの追跡中の車両オブジェクトに割当ててある車両番号に合わせて、未使用の車両番号を新規に1つ採用して割当てる。   Further, among the tracked vehicle objects existing on the lane 1 and the lane 3 adjacent to the vehicle object α, search forward and backward from the same position (dashed line in FIG. 2) as the vehicle object α in the vehicle traveling direction. Then, the position of the vehicle object closest to the base point is calculated (represented by vehicle objects C and D in FIG. 2). A new unused vehicle number is adopted and assigned to the vehicle object α in accordance with the vehicle numbers assigned to the vehicle objects being tracked.

図2の場合、車両オブジェクトA〜Dにそれぞれ、{10,21}、{18}、{33、47}、{53}の車両番号が割当てられているので、未使用の車両番号80とこれらの車両番号を合わせて{80/10,21,18,33,47,53}の7つの車両番号が割り当てられる。なお、車両番号集合のうち、/の右側が継承した車両番号、左側が新規に採用した車両番号を表す。   In the case of FIG. 2, since vehicle numbers {10, 21}, {18}, {33, 47}, {53} are assigned to the vehicle objects A to D, the unused vehicle numbers 80 and these are assigned. The seven vehicle numbers {80/10, 21, 18, 33, 47, 53} are assigned. In the vehicle number set, the right side of / represents the inherited vehicle number, and the left side represents the newly adopted vehicle number.

走行経路追跡部3では、前記車両番号割当て部2で割り当てた車両番号を用いて、個々の車両オブジェクトの走行経路を追跡してその結果を記録する。この走行経路追跡部3の動作を図3、図4を用いて説明する。図3は、車両オブジェクトαに車両オブジェクトA,Bが保持している車両番号を割当てることによって発生する経路の分岐を表す。図3から分かるとおり、車両オブジェクトαに対して車両番号10を割当てて走行経路を追跡することは、車両オブジェクトαを車両番号10の2番目の経路を走行する車両と仮定して追跡を行うことを意味する。   The traveling route tracking unit 3 tracks the traveling route of each vehicle object using the vehicle number assigned by the vehicle number assigning unit 2 and records the result. The operation of the travel route tracking unit 3 will be described with reference to FIGS. FIG. 3 shows a branch of a route that occurs by assigning the vehicle number held by the vehicle objects A and B to the vehicle object α. As can be seen from FIG. 3, the tracking of the travel route by assigning the vehicle number 10 to the vehicle object α is performed on the assumption that the vehicle object α is a vehicle traveling on the second route of the vehicle number 10. Means.

同様に考えることで、車両オブジェクトαは、車両番号10の2番目の経路、車両番号18の2番目の経路、車両番号21の2番目の経路、車両番号80の1番目の経路のそれぞれを走行経路として保持し得る車両を表現していることになる。車両オブジェクトαが保持し得るこれら複数の経路のうち、最も尤度が高い経路を用いて車両オブジェクトαの位置計算などを行う。   Considering similarly, the vehicle object α travels on the second route of the vehicle number 10, the second route of the vehicle number 18, the second route of the vehicle number 21, and the first route of the vehicle number 80. It represents a vehicle that can be held as a route. The position of the vehicle object α is calculated using the route having the highest likelihood among the plurality of routes that the vehicle object α can hold.

図4は、図3で説明した各車両番号が持つ複数の経路における車両位置推定を説明するもので、車両番号10が割当てられた車両オブジェクトの走行経路を表す。図2より、時刻t=Tにおいて車両番号10が割当てられている車両実オブジェクトには、車両オブジェクトαとAとがある。   FIG. 4 explains vehicle position estimation in a plurality of routes possessed by each vehicle number described in FIG. 3, and represents a travel route of a vehicle object to which the vehicle number 10 is assigned. From FIG. 2, there are vehicle objects α and A as the actual vehicle objects to which the vehicle number 10 is assigned at time t = T.

図4の太破線で示した時刻t=T−1までの車両番号10の走行経路情報を用い、車両検出部1の出力結果のうち、図4の黒丸印「・」で示した車両オブジェクトAの観測位置を、時刻t=Tにおける車両番号10の車両オブジェクトの観測位置と見なした場合(=車両番号10の1番目の経路)、及び図4のバツ印「×」で示した車両オブジェクトαの観測位置を、時刻t=Tにおける車両番号10の車両オブジェクトの観測位置と見なした場合(=車両番号10の2番目の経路)のそれぞれについて真の車両位置を推定し、その値を走行経路追跡部3の処理結果として出力する。   Using the travel route information of the vehicle number 10 up to time t = T−1 indicated by the thick broken line in FIG. 4, among the output results of the vehicle detection unit 1, the vehicle object A indicated by the black circle “•” in FIG. 4. 4 is regarded as the observation position of the vehicle object of the vehicle number 10 at the time t = T (= the first route of the vehicle number 10), and the vehicle object indicated by the cross mark “×” in FIG. When the observation position of α is regarded as the observation position of the vehicle object of the vehicle number 10 at time t = T (= the second route of the vehicle number 10), the true vehicle position is estimated and the value is The result is output as a processing result of the travel route tracking unit 3.

経路尤度算出部4では、走行経路追跡部3で推定した車両オブジェクトの真の位置と観測データの位置とを用いて、推定した走行経路の確率的な確からしさやスコアを尤度として算出する。スコアSとしては、例えば1時刻前に推定した車両実オブジェクトの現時刻iでの予測位置及び観測位置を、それぞれ、

Figure 0005212004
とし、更に、任意の微小正数をεとし、また、時刻Tにおける車両実オブジェクトの前後関係に基づいて調整を行う係数をηとして、
Figure 0005212004
と定義することにより、推定した予測位置と観測位置とのずれが小さいほど大きな値をとるスコア関数を採用することが可能である。 The route likelihood calculation unit 4 uses the true position of the vehicle object estimated by the travel route tracking unit 3 and the position of the observation data to calculate the probability probability and score of the estimated travel route as likelihood. . As the score S, for example, the predicted position and the observed position at the current time i of the vehicle real object estimated one hour ago are respectively
Figure 0005212004
Further, an arbitrary minute positive number is ε, and a coefficient for adjustment based on the front-rear relationship of the vehicle real object at time T is η,
Figure 0005212004
It is possible to adopt a score function that takes a larger value as the deviation between the estimated predicted position and the observed position is smaller.

車両番号枝刈り部5では、追跡中の各車両オブジェクトに割当てられた車両番号のうち、経路尤度算出部4で算出された尤度が小さい経路に対応した車両番号を削除する。図2において、進行方向を逆走する車両がないという前提の下で、車両実オブジェクトαにおける車両番号枝刈り部5の動作を説明する。走行経路追跡部3と経路尤度算出部4において、車両実オブジェクトαに割当てられた各車両番号の時刻t=T−1までで持つ走行経路情報を用い、時刻t=Tにおける観測位置が車両検出部1で得られた車両実オブジェクトαの位置と見なした時の真の車両位置と尤度とが、各車両番号に対して計算される。   The vehicle number pruning unit 5 deletes the vehicle number corresponding to the route with the low likelihood calculated by the route likelihood calculating unit 4 from the vehicle numbers assigned to each vehicle object being tracked. In FIG. 2, the operation of the vehicle number pruning unit 5 in the actual vehicle object α will be described on the assumption that there is no vehicle that runs backward in the traveling direction. The travel route tracking unit 3 and the route likelihood calculation unit 4 use the travel route information of each vehicle number assigned to the vehicle real object α up to time t = T−1, and the observation position at time t = T is the vehicle. The true vehicle position and likelihood when it is regarded as the position of the actual vehicle object α obtained by the detection unit 1 is calculated for each vehicle number.

車両が逆走することはないので、車両実オブジェクトαの前方を走行する車両Aから継承した車両番号10,21については、式(11)のηを小さくすることにより、その尤度を小さくすることができる。車両番号枝刈り部5では、車両実オブジェクトαに割当てられた車両番号のうち、車両番号10,21が削除される。   Since the vehicle does not run backward, the likelihood of the vehicle numbers 10 and 21 inherited from the vehicle A traveling in front of the vehicle actual object α is reduced by reducing η in the equation (11). be able to. The vehicle number pruning unit 5 deletes the vehicle numbers 10 and 21 among the vehicle numbers assigned to the vehicle actual object α.

本実施の形態における車両検出部1において、車両検出方法には、多層Neural Network、SVM(Support Vector Machine) 、Adaboost等の学習済みの識別器を用いることができる。また、オプティカルフロー法、背景差分法、モーションステレオ法、複眼ステレオ法等を用いて検出を行ってもよい。   In the vehicle detection unit 1 according to the present embodiment, a learned classifier such as a multilayer Neural Network, SVM (Support Vector Machine), or Adaboost can be used as a vehicle detection method. Alternatively, detection may be performed using an optical flow method, a background difference method, a motion stereo method, a compound eye stereo method, or the like.

また、本実施の形態における車両番号割当て部2において、車線変更を考慮しない場合には、隣接車線上の車両実オブジェクトが持つ車両番号の継承を除外してもよい。更に、本実施の形態における走行経路追跡部3では、HMM(Hidden Markov Model)、Kalman Filter 、DBN(Dynamic Bayesian Network) のように、観測データから隠れ状態を推定する統計的な手法を用いてもよい。また、Cell Automatonのように隣接する車両間の挙動に制限を加えるモデルを用いてもよい。   Further, in the vehicle number assignment unit 2 in the present embodiment, when the lane change is not considered, the inheritance of the vehicle number possessed by the actual vehicle object on the adjacent lane may be excluded. Further, the travel route tracking unit 3 in the present embodiment may use a statistical method for estimating a hidden state from observation data, such as HMM (Hidden Markov Model), Kalman Filter, DBN (Dynamic Bayesian Network). Good. Moreover, you may use the model which restrict | limits the behavior between adjacent vehicles like Cell Automaton.

更にはまた、本実施の形態における走行経路追跡部3では、観測データと車両オブジェクトとの対応が付いている場合には、Kalman Filter などの隠れ状態推定法、対応が付かない場合には、Cell Automatonなどの車両挙動制限モデルを組み合わせて用いてもよい。隠れ状態推定法としてKalman Filter、車両挙動制限モデルとしてCell Automatonを用いた場合の走行経路追跡方法を、図5を用いて説明する。   Furthermore, in the travel route tracking unit 3 according to the present embodiment, when there is a correspondence between the observation data and the vehicle object, a hidden state estimation method such as Kalman Filter, and when there is no correspondence, Cell A vehicle behavior restriction model such as Automaton may be used in combination. A travel route tracking method using Kalman Filter as a hidden state estimation method and Cell Automaton as a vehicle behavior restriction model will be described with reference to FIG.

観測データに基づき走行経路追跡を行っている車両オブジェクトを車両実オブジェクトと記す。また、車両実オブジェクト間に車両が存在するものと見なして配置する車両オブジェクトを車両仮想オブジェクトと記す。Kalman Filter を用いて走行経路追跡を行っている車両実オブジェクトについては、車両仮想オブジェクトの存在に関係なく、尤度の高い走行経路から算出される真の車両位置に基づいてセル画像上でその位置を更新し、同一車線後方に存在する他の車両実オブジェクトの手前まで車両仮想オブジェクトを、図6に示すように設定する。   A vehicle object that is tracking a travel route based on observation data is referred to as a vehicle real object. In addition, a vehicle object that is disposed assuming that a vehicle exists between the actual vehicle objects is referred to as a vehicle virtual object. For a vehicle real object that is being tracked using the Kalman Filter, regardless of the presence of the vehicle virtual object, its position on the cell image based on the true vehicle position calculated from the highly likely travel route , And the vehicle virtual object is set as shown in FIG. 6 until the other vehicle real object existing behind the same lane.

Cell Automatonを用いて走行経路追跡を行っている車両実オブジェクトおよび車両仮想オブジェクトについては、同一車線前方に存在する車両実/仮想オブジェクトの追い越しが発生しないように、車両オブジェクトのセル画像上の位置を更新する。   For the vehicle real object and the vehicle virtual object that are tracking the route using Cell Automaton, the position of the vehicle object on the cell image is set so that the vehicle real / virtual object existing in front of the same lane does not pass. Update.

本実施の形態における経路尤度算出部4において用いられる尤度は、車両実オブジェクトの真の位置と観測位置との差が小さいほど大きくなる関数であれば、どのようなものを用いてもよい。   The likelihood used in the route likelihood calculation unit 4 in the present embodiment may be any function as long as it is a function that increases as the difference between the true position of the vehicle real object and the observation position decreases. .

以下に、本発明の実施の形態の動作の詳細について、図7から図17のフローチャートを参照して説明する。図7は全体の処理の流れを表しており、図7のステップA1が車両検出部1の動作であり、ステップA2〜A5が車両番号割当て部2の動作を示し、ステップA7〜A8が走行経路追跡部3の動作を示し、またステップA10〜A12が経路尤度算出部4の動作を示す。そして、ステップA6,A9が車両番号枝刈り部5の動作を表している。   Details of the operation of the embodiment of the present invention will be described below with reference to the flowcharts of FIGS. FIG. 7 shows the overall processing flow. Step A1 in FIG. 7 shows the operation of the vehicle detection unit 1, steps A2 to A5 show the operation of the vehicle number assignment unit 2, and steps A7 to A8 show the travel route. The operation of the tracking unit 3 is shown, and steps A10 to A12 show the operation of the route likelihood calculating unit 4. Steps A6 and A9 represent the operation of the vehicle number pruning unit 5.

図8は図7におけるステップA3の処理の流れの詳細を示し、図9は図8におけるステップB3の動作の詳細を示す。図10は図8におけるステップB14の動作の詳細を示し、図11は図10におけるステップD4の動作の詳細を示し、図12は図11におけるステップE9の動作の詳細を示す。   FIG. 8 shows details of the processing flow in step A3 in FIG. 7, and FIG. 9 shows details of the operation in step B3 in FIG. 10 shows details of the operation of step B14 in FIG. 8, FIG. 11 shows details of the operation of step D4 in FIG. 10, and FIG. 12 shows details of the operation of step E9 in FIG.

また、図13は図11におけるステップE15の動作の詳細を示し、図14は図13におけるステップG5の動作の詳細を示し、図15は図8におけるステップB15の動作の詳細を示す。更に、図16は図7におけるステップA4の動作の詳細を示し、図17は図7におけるステップA8の動作の詳細を示したものである。   13 shows details of the operation of step E15 in FIG. 11, FIG. 14 shows details of the operation of step G5 in FIG. 13, and FIG. 15 shows details of the operation of step B15 in FIG. Further, FIG. 16 shows details of the operation of step A4 in FIG. 7, and FIG. 17 shows details of the operation of step A8 in FIG.

なお、図10のステップD2,D5,D10及び図15のステップI2,I6が車両番号割当て部2の動作に対応し、図12のステップF4、図14のステップH5が経路尤度算出部4の動作にに対応し、それ以外が走行経路追跡部3の動作に対応する。   Note that steps D2, D5, D10 in FIG. 10 and steps I2, I6 in FIG. 15 correspond to the operation of the vehicle number assignment unit 2, and step F4 in FIG. 12 and step H5 in FIG. It corresponds to the operation, and the others correspond to the operation of the travel route tracking unit 3.

以下の説明では、車両オブジェクトの1時刻前の真の位置(ろ過位置と略す)と現時刻の観測位置との対応が取れている、もしくは欠測状態の継続時間が予め定めた閾値以下の場合は、Kalman Filter (以下KMと略す)、それ以外の場合はCell Automaton(以下CAと略す)を用いることとし、セル画像上に図5で示した車両実オブジェクト及び車両仮想オブジェクトを設定して、車両オブジェクトの挙動制御を行うものとする。   In the following description, when the true position (abbreviated as filtration position) one hour before the vehicle object corresponds to the observation position at the current time, or the duration of the missing measurement state is less than a predetermined threshold value Is Kalman Filter (hereinafter abbreviated as KM), otherwise Cell Automaton (hereinafter abbreviated as CA) is used, and the vehicle real object and vehicle virtual object shown in FIG. It is assumed that the behavior control of the vehicle object is performed.

また、各車両実オブジェクト及び各車両番号が持つ走行経路追跡情報を保存するための構造体を、図18及び図19に示し、処理に共通な情報を保存するための構造体を図20のように定義する。図18及び図19において、追跡状態、追跡モードは、注目車両番号の走行経路追跡状態と、走行経路追跡に用いている手法を表す。追跡状態は、初期状態(=0)、待機状態(=1)、実行状態(=2)の3状態、及び追跡モードは、初期モード(=0)、KMを用いるモード(=1)、CAを用いるモード(=2)の3モードを取り、これらの状態間、モード間を図21のように遷移するものとする。また、MaxObjは車両番号の最大数、MaxPath は車両番号1つ当りに対して許容する走行経路の最大数である。   Also, FIGS. 18 and 19 show a structure for storing the travel route tracking information of each vehicle real object and each vehicle number, and a structure for storing information common to the processing is shown in FIG. Defined in In FIG. 18 and FIG. 19, the tracking state and the tracking mode represent the traveling route tracking state of the vehicle number of interest and the method used for the traveling route tracking. The tracking state is an initial state (= 0), a standby state (= 1), an execution state (= 2), and the tracking mode is an initial mode (= 0), a mode using KM (= 1), CA It is assumed that three modes (= 2) using, and transition between these states and modes as shown in FIG. MaxObj is the maximum number of vehicle numbers, and MaxPath is the maximum number of travel routes allowed for each vehicle number.

ステップA1では、車両検出処理により画像上の座標系(画像座標)で算出された車両の観測データ座標を、道路上に設定した実スケールの座標系(世界座標)に変換して、現時刻における観測データ座標として構造体od[1][i].info[j].Obs.{x/y}に保存する。なお、i(=0,1, …,LaneNum-1)は、観測座標が存在する車線番号、j(=0,1, …,od[1][i].DatNum−1 )は車両実オブジェクトの識別番号であり、od[1][i].DatNum は、現時刻において車線番号iの車線上に存在する観測座標の総数となる。   In step A1, the observation data coordinates of the vehicle calculated in the coordinate system (image coordinates) on the image by the vehicle detection process are converted into a real scale coordinate system (world coordinates) set on the road, and at the current time. Stored in the structure od [1] [i] .info [j] .Obs. {X / y} as observation data coordinates. Note that i (= 0, 1, ..., LaneNum-1) is the lane number where the observation coordinates exist, and j (= 0, 1, ..., od [1] [i] .DatNum-1) is the actual vehicle object. Od [1] [i] .DatNum is the total number of observation coordinates existing on the lane of lane number i at the current time.

ステップA2では、現時刻における各車両の観測座標od[1][i].info[j].Obs.{x/y}(i=0,1, …,LaneNum-1、j=0,1,…,od[1][i].DatNum-1)と、1時刻前の車両実オブジェクトの予測位置od[0][k].info[l].Prd.{x/y}(k=0,1,…,LaneNum-1,l=0,1, …,od[1][k].DatNum-1)の距離を比較し、その値が予め設定した閾値以外の組を対応付ける。od[1][i].info[j].Obs.{x/y}とod[0][k].info[l].Prd.{x,y}が対応付けられた場合(オブジェクト対応状態と略す)には、対応関係をod[1][i].info[j].CorObsLane=k 、od[1][i].info[j].CorObsNo=l として保存する。   In step A2, the observation coordinates od [1] [i] .info [j] .Obs. {X / y} of each vehicle at the current time (i = 0,1,..., LaneNum-1, j = 0,1 , ..., od [1] [i] .DatNum-1) and the predicted position od [0] [k] .info [l] .Prd. {X / y} (k = 0,1, ..., LaneNum-1, l = 0,1, ..., od [1] [k] .DatNum-1) are compared, and a pair whose value is other than a preset threshold is associated. When od [1] [i] .info [j] .Obs. {x / y} is associated with od [0] [k] .info [l] .Prd. {x, y} The correspondence is stored as od [1] [i] .info [j] .CorObsLane = k, od [1] [i] .info [j] .CorObsNo = l.

更に、od[0][k].info[l]のメンバの値をod[1][i].info[j]にコピーする。現時刻の車両実オブジェクトに対してはステップA3で、1時刻前の車両実オブジェクトのうち現時刻の車両実オブジェクトと対応付いていないものに対してはステップA4で走行経路追跡を実行する。   Further, the value of the member of od [0] [k] .info [l] is copied to od [1] [i] .info [j]. In step A3, the actual vehicle object at the current time is tracked in step A4 for those objects that are not associated with the actual vehicle object at the current time among the actual vehicle objects one hour before.

ステップA5では、各車両実オブジェクトに注目し、割振られている車両番号、すなわちod[i][j].info[k].UseFlg[l]=1(i=0,1 j=0, …,LaneNum-1 k=0, …,od[i][j].DatNum-1 l=0, …,MaxObj-1)となるlの経路m(m=0,…,MaxPath-1)で注目車両実オブジェクトを含むもののうち、そのスコアiif[l].info[m][1].Score が最大となる車両番号ObjNo と経路番号PathNoが算出される。   At step A5, paying attention to each vehicle real object, the assigned vehicle number, that is, od [i] [j] .info [k] .UseFlg [l] = 1 (i = 0,1 j = 0,... , LaneNum-1 k = 0,…, od [i] [j] .DatNum-1 l = 0,…, MaxObj-1) l path m (m = 0,…, MaxPath-1) Among the objects including the vehicle real object, the vehicle number ObjNo and the path number PathNo having the maximum score iif [l] .info [m] [1] .Score are calculated.

そして、
od[i][j].info[k].CurPosi.{x/y}=iif[ObjNo].info[PathNo][1].FltMean[0/1]
od[i][j].info[k].Prd.{x/y}=iif[ObjNo].info[PathNo][1].PrdMean[0/1]
od[i][j].info[k].Obs.{x/y}=iif[ObjNo].info[PathNo][1].Obs.{x/y}
od[i][j].info[k].Velo.{x/y}=追跡開始から現時刻までの注目実オブジェクトの平均速度
od[i][j].info[k].CurTrkStat=iif[ObjNo].info[PathNo][1].TrkStat
od[i][j].info[k].CurTrkMode=iif[ObjNo].info[PathNo][1].TrkMode
od[i][j].info[k].ObsLack=iif[ObjNo].info[PathNo][1].ObsLack
の関係により、個々の車両番号に基づく追跡情報を車両実オブジェクトに対応付ける。
And
od [i] [j] .info [k] .CurPosi. {x / y} = iif [ObjNo] .info [PathNo] [1] .FltMean [0/1]
od [i] [j] .info [k] .Prd. {x / y} = iif [ObjNo] .info [PathNo] [1] .PrdMean [0/1]
od [i] [j] .info [k] .Obs. {x / y} = iif [ObjNo] .info [PathNo] [1] .Obs. {x / y}
od [i] [j] .info [k] .Velo. {x / y} = Average speed of the real object of interest from the start of tracking to the current time
od [i] [j] .info [k] .CurTrkStat = iif [ObjNo] .info [PathNo] [1] .TrkStat
od [i] [j] .info [k] .CurTrkMode = iif [ObjNo] .info [PathNo] [1] .TrkMode
od [i] [j] .info [k] .ObsLack = iif [ObjNo] .info [PathNo] [1] .ObsLack
Therefore, the tracking information based on the individual vehicle numbers is associated with the actual vehicle object.

ステップA6では、各車両実オブジェクトが保持している車両番号と走行経路の組み合わせの中から、スコアの値が予め定めた閾値より小さいものを特定し、該当するものを車両番号毎の追跡情報構造体iif から削除すると共に、必要に応じて該当車両番号に対応した車両実オブジェクト毎の追跡情報構造体odのメンバ配列UseFlgの値を0に初期化する。   In step A6, a combination of a vehicle number and a travel route held by each vehicle real object is specified with a score value smaller than a predetermined threshold value, and the corresponding information is tracked for each vehicle number. In addition to deleting from the field iif, the value of the member array UseFlg of the tracking information structure od for each vehicle real object corresponding to the corresponding vehicle number is initialized to 0 as necessary.

ステップA7では、1時刻前と現時刻における車両実オブジェクトのうち、棄却扱いされなかったものを現時刻における車両実オブジェクト毎の追跡情報構造体od[1] に保存し直す。ステップA8では、車両仮想オブジェクトの設定並びに全車両オブジェクトのセル画像上での位置座標の更新が行わなわれ、その結果がpc.CellImg[1] 、pc.ObjPosInfo[1]、pc.ObjVeloInfo[1] に保存される。   In step A7, the unrejected vehicle real objects one hour before and at the current time are stored again in the tracking information structure od [1] for each vehicle real object at the current time. In step A8, the setting of the vehicle virtual object and the update of the position coordinates on the cell images of all vehicle objects are performed, and the results are pc.CellImg [1], pc.ObjPosInfo [1], pc.ObjVeloInfo [1. ] Is saved.

ステップA9では、棄却扱いと判定された現時刻の車両実オブジェクトが保持している車両番号と走行経路を、対応した車両番号毎の追跡情報構造体から削除する。ステップA10では、棄却扱いされなかった現時刻の車両実オブジェクトを1時刻前における車両実オブジェクト毎の追跡情報構造体od[0] に保存する。   In step A9, the vehicle number and the travel route held by the actual vehicle object at the current time determined to be rejected are deleted from the corresponding tracking information structure for each vehicle number. In step A10, the actual vehicle object at the current time that was not treated as being rejected is stored in the tracking information structure od [0] for each actual vehicle object one hour before.

なお、追跡状態と追跡モードに関しては、
od[0][i].info[j].PastTrkStat=od[1][i].info[j].CurTrkStat
od[0][i].info[j].PastTrkMode=od[1][i].info[j].CurTrkMode
で更新する。
Regarding tracking status and tracking mode,
od [0] [i] .info [j] .PastTrkStat = od [1] [i] .info [j] .CurTrkStat
od [0] [i] .info [j] .PastTrkMode = od [1] [i] .info [j] .CurTrkMode
Update with.

ステップA11では、現時刻における車両番号毎の追跡情報構造体iif[i].info[j][1](i=0,, …,MaxObj −1 j=0,…,MaxPath−1)を1時刻前の車両番号毎の追跡情報構造体iif[i].info[j][0] に保存する。ステップA12では、現時刻におけるセル情報pc.CellImg[1] 、pc.ObjPosInfo[1]、pc.ObjVeloInfo[1] を、1時刻前のセル情報として、pc.CellImg[0、pc.ObjPosInfo[0]、pc.ObjVeloInfo[0] に保存し、現時刻におけるセル情報の初期化を行う。   In step A11, the tracking information structure iif [i] .info [j] [1] (i = 0,..., MaxObj−1 j = 0,..., MaxPath−1) for each vehicle number at the current time is set to 1. Saved in the tracking information structure iif [i] .info [j] [0] for each vehicle number before the time. In step A12, cell information pc.CellImg [1], pc.ObjPosInfo [1], pc.ObjVeloInfo [1] at the current time are set as cell information one time before, pc.CellImg [0, pc.ObjPosInfo [0]. ], Pc.ObjVeloInfo [0], and initialize the cell information at the current time.

図7のステップA3の処理を図8を用いて説明する。なおステップB8、B11は同じ処理である。図8のステップB1において、現時刻の車両実オブジェクト構造体をA=od[1][i].info[j]として、可能な全てのi,jに対してステップB2〜ステップB15が行われる。ステップB2では、構造体AをCAへの入力構造体InCAに設定し、現時刻の車両実オブジェクトろ過位置A.CurPosi をInCA.FltMean、速度ベクトルA.VeloCAをInCA.Velo とする。   The process of step A3 in FIG. 7 will be described with reference to FIG. Steps B8 and B11 are the same process. In step B1 in FIG. 8, the actual vehicle object structure at the current time is A = od [1] [i] .info [j], and steps B2 to B15 are performed for all possible i and j. . In step B2, the structure A is set as the input structure InCA to the CA, the vehicle actual object filtering position A.CurPosi at the current time is set to InCA.FltMean, and the velocity vector A.VeloCA is set to InCA.Velo.

ステップB3では、入力InCAに対してCAによる車両位置NewPosi.{x/y} と速度ベクトルNewVelo.{x/y} を算出する。ステップB4では、ステップB3の出力NewPosi 、NewVelo をそれぞれA.PosCA 、A.VeloCAに保存する。ステップB5では、注目オブジェクトの識別のため、TimeNo=1、LaneNo=i、ObsNo=j とされる。   In step B3, the vehicle position NewPosi. {X / y} and the velocity vector NewVelo. {X / y} by CA are calculated for the input InCA. In step B4, the outputs NewPosi and NewVelo of step B3 are stored in A.PosCA and A.VeloCA, respectively. In step B5, TimeNo = 1, LaneNo = i, and ObsNo = j are set to identify the object of interest.

ステップB6では、追跡状態TSおよび追跡モードTMを、TS=od[1][i].info[j].CurTrkStat、TM=od[1][i].info[j].CurTrkModeとしてそれぞれ設定する。ステップB7では、注目車両実オブジェクトAの1時刻前の車両実オブジェクトとの対応状態について判定が行われ、対応関係が存在する場合はステップB9、存在しない場合はステップB8に処理がそれぞれ移る。ステップB8では、A.CurTrkStat=0、A.CurTrkMode=1として注目車両実オブジェクトAを追跡準備状態に遷移させる。ステップB9では、TMの値の判定が行われ、TM=0の場合はステップB10へ、それ以外の場合はB13へ処理がそれぞれ移る。   In step B6, the tracking state TS and the tracking mode TM are set as TS = od [1] [i] .info [j] .CurTrkStat and TM = od [1] [i] .info [j] .CurTrkMode, respectively. . In step B7, a determination is made as to the state of correspondence between the vehicle real object of interest A and the vehicle real object one hour before, and the process moves to step B9 if a correspondence relationship exists, and to step B8 if no correspondence relationship exists. In step B8, the target vehicle real object A is changed to the tracking preparation state with A.CurTrkStat = 0 and A.CurTrkMode = 1. In step B9, the TM value is determined. If TM = 0, the process proceeds to step B10, and otherwise the process proceeds to B13.

ステップB10では、TSの値の判定が行われ、TS=0の場合はステップB11へ、それ以外の場合はB12へ処理がそれぞれ移る。ステップB12では、フラグを立てることにより、注目車両実オブジェクトAを棄却扱いとする。ステップB13では、TMの値の判定が行われ、TM=1の場合はステップB14へ、それ以外の場合はB15へ処理がそれぞれ移る。ステップB14では、A.Obs.{x/y} を観測座標として、注目車両実オブジェクトが現時刻において保持している全ての車両番号(現時刻に新規に生成した車両番号も含む)に対して、KMをベースとした走行経路の追跡を行う。ステップB15では、ステップB14と同じ走行経路の追跡をCAをベースに用いて行う。   In step B10, the TS value is determined. If TS = 0, the process proceeds to step B11, and otherwise, the process proceeds to B12. In step B12, the target vehicle real object A is treated as a rejection by raising a flag. In step B13, the value of TM is determined. If TM = 1, the process proceeds to step B14, and otherwise, the process proceeds to B15. In step B14, with respect to all vehicle numbers (including the vehicle number newly generated at the current time) held by the target vehicle real object at the current time with A.Obs. {X / y} as the observation coordinates. , KM based travel route tracking. In step B15, tracking of the same travel route as in step B14 is performed using CA as a base.

図8におけるステップB3の動作を図9を用いて説明する。ステップC1では、車両位置を表すInCA.FltMean[0/1] を座標Pos1.{x/y}に設定する。ステップC2では、セル画像上においてPos1.{x/y}に対応したセル座標C1.{x/y}が設定される。ステップC3では、1時刻前のセル画像pc.CellImg[0] において、C1と同一x座標(すなわち同一車線上)の前方を探索し、pc.CellImg[0][C2] ≠0 (後述の図17で説明するとおり、車両オブジェクトが存在するセルを表す)となるセル座標C2.{x/y}およびそれに対応した車両位置Pos2.{x/y}を算出する。   The operation in step B3 in FIG. 8 will be described with reference to FIG. In step C1, InCA.FltMean [0/1] representing the vehicle position is set to coordinates Pos1. {X / y}. In step C2, cell coordinates C1. {X / y} corresponding to Pos1. {X / y} are set on the cell image. In step C3, a cell image pc.CellImg [0] one hour before is searched ahead of the same x coordinate (that is, on the same lane) as C1, and pc.CellImg [0] [C2] ≠ 0 As described in FIG. 17, cell coordinates C2. {X / y} and a corresponding vehicle position Pos2. {X / y} corresponding to the cell in which the vehicle object exists are calculated.

ステップC4では、乱数Randomが生成され、ステップC5でy方向速度Velo.y=InCA.Velo.y+Random が設定される。ステップC6では、Pos3.y=Pos1.y+Velo.y、Pos3.x=Pos1.x の関係式で座標Pos3.{x/y}を設定する。ステップC7では、Pos3とPos2の位置関係が判定される。Pos3がPos2より前方となる場合は、同一車線上での車両の追い越しというあり得ない状況を意味しているため、ステップC8でPos3.y=Pos2.y と設定し直す。ステップC9では、Pos3.{x/y}をNewPosi.{x/y} 、NewVelo.{x/y}=Pos3.{x/y}-Pos1.{x/y} として保存する。   In step C4, a random number Random is generated, and in step C5, the y-direction velocity Velo.y = InCA.Velo.y + Random is set. In step C6, coordinates Pos3. {X / y} are set by the relational expression of Pos3.y = Pos1.y + Velo.y and Pos3.x = Pos1.x. In step C7, the positional relationship between Pos3 and Pos2 is determined. If Pos3 is ahead of Pos2, it means that it is impossible to overtake the vehicle on the same lane, so that Pos3.y = Pos2.y is set again in step C8. In step C9, Pos3. {X / y} is saved as NewPosi. {X / y}, NewVelo. {X / y} = Pos3. {X / y} -Pos1. {X / y}.

なお、ステップC5のRandomの加算は車両の加減速を再現するものである。また、x方向速度についても乱数を加算し、ステップC6で車線変更の可能性を加味して良い。   Note that the addition of Random in Step C5 reproduces the acceleration / deceleration of the vehicle. Also, random numbers may be added for the x-direction speed, and the possibility of changing lanes may be taken into consideration in step C6.

図8のステップB14の処理を図10を用いて説明する。なお、ステップD4とD8とD12とは同じ処理であり、またステップD6とD10とは同じ処理であり、更にステップD7とD11とは同じ処理を表す。ステップD1では、TSの値の判定が行われ、TS=0の場合はステップD2へ、それ以外の場合はステップD9へ処理がそれぞれ移る。   The process of step B14 in FIG. 8 will be described with reference to FIG. Note that steps D4, D8, and D12 are the same processing, steps D6 and D10 are the same processing, and steps D7 and D11 represent the same processing. In step D1, the TS value is determined. If TS = 0, the process proceeds to step D2, and otherwise the process proceeds to step D9.

ステップD2では、現時刻において未使用の車両番号を新規車両番号として生成し、その値をNewNo とする。ステップD3では、KMへの入力車両番号をステップD2で生成したNewNo とする。ステップD4では、入力車両番号に対して観測座標A.Obs.{x/y} を用いてKMもしくはCAを用いた走行経路追跡処理を実行する。   In step D2, an unused vehicle number at the current time is generated as a new vehicle number, and the value is set to NewNo. In step D3, the input vehicle number to KM is set to NewNo generated in step D2. In step D4, a travel route tracking process using KM or CA is executed on the input vehicle number using the observation coordinates A.Obs. {X / y}.

ステップD5では、NewNo を既存車両番号扱いするためにA.UseFlg[NewNo]=1 、pc.UseFlg[NewNo]=1としてフラグを立てた上で、A.CurTrkStat=2として追跡状態を実行状態に遷移させる。ステップD6では、注目車両実オブジェクトAの観測位置A.Obs.{x/y} を基準として、自走車線、隣接車線の前後に存在する1時刻前の車両実オブジェクトを探索する。そして、各車線、各方向(前後)で最も注目車両実オブジェクトAに近い車両実オブジェクト(図2を用いた説明を参照)が保持する車両番号を継承し、それらの車両番号xに対してA.UseFlg[x]=1 としてフラグを立て、保持既存車両番号と見なす。   In Step D5, in order to treat NewNo as an existing vehicle number, a flag is set as A.UseFlg [NewNo] = 1 and pc.UseFlg [NewNo] = 1, and a tracking state is set to an execution state as A.CurTrkStat = 2. Transition. In step D6, the vehicle actual object one hour before that exists before and after the self-propelled lane and the adjacent lane is searched based on the observation position A.Obs. {X / y} of the target vehicle real object A. And the vehicle number which the vehicle real object (refer description using FIG. 2) closest to the attention vehicle real object A in each lane and each direction (front and back) is inherited, and A for those vehicle numbers x Flag as .UseFlg [x] = 1 and consider it as an existing vehicle number.

ステップD7では、現時刻における注目実車両オブジェクトAの保持既存車両番号をKMへの入力番号として設定する。ステップD9では、現時刻における注目車両実オブジェクトの欠測状態継続フレーム数A.ObsLack の値の判定が行われ、A.ObsLack ≠0 の場合はステップD10へ、それ以外の場合はステップD11へ処理がそれぞれ移る。   In step D7, the holding existing vehicle number of the actual vehicle object of interest A at the current time is set as the input number to KM. At step D9, the value of the missing state continuation frame number A.ObsLack of the real vehicle of interest at the current time is determined. If A.ObsLack ≠ 0, the process goes to step D10, otherwise the process goes to step D11. Each move.

図10のステップD4の処理を図11を用いて説明する。ステップE1で、車両番号i(=0,1, …,MaxObj-1 )を設定し、全てのiに対してステップE2〜E16の処理を実行する。ステップE2では、pc.UseFlg[i]の値の判定が行われ、その値が1の場合は、走行経路追跡に使用中の車両番号と見なして処理をステップE3に移す。ステップE3では、車両番号iが新規に生成した車両番号か否かの判定が行われ、Yes の場合はステップE4で探索経路上限数End を1に設定し、Noの場合はステップE5でEnd=MaxPath に設定する。   The process of step D4 in FIG. 10 will be described with reference to FIG. In step E1, a vehicle number i (= 0, 1,... MaxObj-1) is set, and the processes of steps E2 to E16 are executed for all i. In step E2, the value of pc.UseFlg [i] is determined. If the value is 1, the process proceeds to step E3 assuming that the vehicle number is being used for tracking the travel route. In Step E3, it is determined whether or not the vehicle number i is a newly generated vehicle number. If Yes, the search route upper limit number End is set to 1 in Step E4, and if No, End = in Step E5. Set to MaxPath.

ステップE6では、経路番号j(=0,1, …,End-1)を設定し、全てのjに対してステップE7〜E15の処理を行う。ステップE7では、車両番号iのj番目の経路の1時刻前の追跡状態をTS=iif[i].info[j][0].TrkStatとし、追跡モードをTM=iif[i].info[j][0].TrkModeとする。ステップE8では、TMの値の判定が行われ、1の場合はステップE9へ、それ以外の場合はステップE10へ処理をそれぞれ移す。   In step E6, a route number j (= 0, 1,..., End-1) is set, and steps E7 to E15 are performed for all j. In step E7, the tracking state one hour before the j-th route of the vehicle number i is TS = iif [i] .info [j] [0] .TrkStat, and the tracking mode is TM = iif [i] .info [ j] [0] .TrkMode. In step E8, the value of TM is determined. If the value is 1, the process goes to step E9. Otherwise, the process goes to step E10.

ステップE9では、車両番号iのj番目の走行経路情報iif[i].info[j][0] と、与えられている観測座標を用いてKMを実行する。ステップE10では、TMの値の判定が行われ、TMの値が2の場合はステップE11及びE12でTSの値の判定が行われる。TS=1の場合はステップE13で、mode=1と設定され、TS=2の場合はステップE14でmode=0と設定される。ステップE15で、車両番号iのj番目の走行経路情報iif[i].info[j][0] 及び与えらたmodeの値をモジュール実行モードとしてCAを実行する。   In step E9, KM is executed using the jth travel route information iif [i] .info [j] [0] of the vehicle number i and given observation coordinates. In step E10, the TM value is determined. When the TM value is 2, the TS value is determined in steps E11 and E12. If TS = 1, mode = 1 is set in step E13, and if TS = 2, mode = 0 is set in step E14. In step E15, CA is executed using the jth travel route information iif [i] .info [j] [0] of the vehicle number i and the given mode value as the module execution mode.

ステップE16では、更新された走行経路追跡情報iif[i].info[j][1] をそのスコアiif[i].info[j][1].Score の降順に並び替える。後述のとおり、車両のろ過位置、予測位置、スコアの計算結果はiif[i].info[MaxPath][1] に保存される。ステップE16を行うことにより、iif[i].info[j][1] は常にスコアの大きい順に並んでいることになり、図7のステップA5で行う各車両番号に対する最大スコア経路の探索が容易になる。   In step E16, the updated travel route tracking information iif [i] .info [j] [1] is rearranged in descending order of the score iif [i] .info [j] [1] .Score. As described later, the filtered position, predicted position, and score calculation result of the vehicle are stored in iif [i] .info [MaxPath] [1]. By performing step E16, iif [i] .info [j] [1] are always arranged in descending order of score, and it is easy to search for the maximum score route for each vehicle number performed in step A5 of FIG. become.

図11におけるステップE9の動作を図12を用いて説明する。ステップF1では、車両番号iのj番目の走行経路追跡情報iif[i].info[j][0] のろ過分布平均ベクトルFltMean 、分散共分散行列FltVar、予測分布平均ベクトルPrdMean 、分散共分散行列PrdVarを、それぞれ式(1)〜(10)で示した

Figure 0005212004
とする。ステップF2で、これらのベクトル、行列と与えられた観測座標を用いてろ過処理と予測処理とを行う。 The operation of step E9 in FIG. 11 will be described with reference to FIG. In step F1, filtration distribution average vector FltMean, variance-covariance matrix FltVar, prediction distribution average vector PrdMean, variance-covariance matrix of j-th travel route tracking information iif [i] .info [j] [0] of vehicle number i PrdVar is represented by the formulas (1) to (10), respectively.
Figure 0005212004
And In step F2, filtration processing and prediction processing are performed using these vectors and matrices and given observation coordinates.

ステップF3では、ステップF2で得られた

Figure 0005212004
を、MaxPath+1 番目の走行経路追跡情報iif[i].info[MaxPath][1] のFltMean 、FltVar、PrdMean 、PrdVarにそれぞれ保存する。 In step F3, it was obtained in step F2.
Figure 0005212004
Are stored in FltMean, FltVar, PrdMean and PrdVar of MaxPath + 1st travel route tracking information iif [i] .info [MaxPath] [1], respectively.

ステップF4では、iif[i].info[j][0].PrdMean[0/1](すなわち1時刻前に予測した現時刻での車両位置)と与えられた観測座標から、例えば式(11)等を用いて経路スコアが計算される。ステップF5では、ステップF4で得られたスコアがiif[i].info[MatPath][1].Score に保存され、追跡状態iif[i].info[MaxPath][1].TrkStat=2 、追跡モードiif[i].info[MaxPath][1].TrkMode=1 が設定される。   In step F4, from iif [i] .info [j] [0] .PrdMean [0/1] (that is, the vehicle position at the current time predicted one time ago) and given observation coordinates, for example, the equation (11 ) Etc. are used to calculate the route score. In step F5, the score obtained in step F4 is stored in iif [i] .info [MatPath] [1] .Score, and tracking state iif [i] .info [MaxPath] [1] .TrkStat = 2 Mode iif [i] .info [MaxPath] [1] .TrkMode = 1 is set.

ステップF6において、注目車両実オブジェクトが1時刻前の車両実オブジェクトと対応付いていると判定された場合にはステップF7に、未対応と判定された場合にはステップF9に処理がそれぞれ移る。ステップF7では、iif[i].info[MaxPath][1].Obs.{x/y} に入力観測座標が保存される。ステップF8では、欠測状態継続フレーム数を表すiif[i].info[MaxPath][1].ObsLack の値が0に設定される。ステップF9では、iif[i].info[j][0].ObsLack の値をiif[i].info[MaxPath][1].ObsLack にコピーした上で、ステップF10で、iif[i].info[MaxPath][1].ObsLack に1を加算して欠測状態継続フレーム数を更新する。   If it is determined in step F6 that the target vehicle real object is associated with the vehicle real object one hour before, the process proceeds to step F7. If it is determined that the target vehicle real object is not compatible, the process proceeds to step F9. In step F7, the input observation coordinates are stored in iif [i] .info [MaxPath] [1] .Obs. {X / y}. In step F8, the value of iif [i] .info [MaxPath] [1] .ObsLack indicating the number of missing measurement state continuing frames is set to zero. In step F9, the value of iif [i] .info [j] [0] .ObsLack is copied to iif [i] .info [MaxPath] [1] .ObsLack, and then in step F10, iif [i]. Add 1 to info [MaxPath] [1] .ObsLack to update the number of missing frames.

ステップF11では、注目車両実オブジェクトが欠測状態、すなわち対応する観測座標が存在しない状態であるため、ステップF3で得られたろ過処理の平均ベクトルの第0、1成分を観測座標と見なして、iif[i].info[MaxPath][1].Obs.{x/y} に保存される。ステップF12で、iif[i].info[MaxPath][1].ObsLack が予め設定した閾値ObsLackThre と一致したと判定された場合は、CAによる追跡へ追跡モードを遷移させるために、ステップF13で、追跡モードiif[i].info[MaxPath][1].TrkMode の値を2に設定する。   In step F11, since the target vehicle real object is in a missing state, that is, in a state where the corresponding observation coordinates do not exist, the 0th and 1st components of the average vector of the filtering process obtained in step F3 are regarded as the observation coordinates, Stored in iif [i] .info [MaxPath] [1] .Obs. {x / y}. If it is determined in step F12 that iif [i] .info [MaxPath] [1] .ObsLack matches the preset threshold value ObsLackThre, in order to shift the tracking mode to tracking by CA, in step F13, Set the value of tracking mode iif [i] .info [MaxPath] [1] .TrkMode to 2.

図11におけるステップE15の動作を図13を用いて説明する。なお、ステップG7は図11のステップE9と、ステップG8は図11のステップE16とそれぞれ同じであるため、説明を省略する。ステップG1では、1時刻前の予測処理で得られた予測位置iif[i].info[j][0].PrdMean[0/1]と、入力観測座標との変位ベクトルΔx,Δyとがそれぞれ算出される。ステップG2では、入力されたmodeの値が判定され、0の場合はステップG3に、それ以外の場合はステップG4にそれぞれ処理が移る。   The operation of step E15 in FIG. 11 will be described with reference to FIG. Note that step G7 is the same as step E9 in FIG. 11 and step G8 is the same as step E16 in FIG. In step G1, the predicted position iif [i] .info [j] [0] .PrdMean [0/1] obtained by the prediction process one time ago and the displacement vectors Δx and Δy between the input observation coordinates are respectively Calculated. In step G2, the value of the input mode is determined. If 0, the process proceeds to step G3, and otherwise, the process proceeds to step G4.

ステップG3において、Δx,Δyが共に予め設定された閾値以下となる場合はステップG6に、それ以外の場合はステップG5にそれぞれ処理が移る。ステップG4において、Δx,Δy共に予め設定された閾値以下となる場合はステップG7に、それ以外の場合はステップG5にそれぞれ処理が移る。ステップG5では、注目車両実オブジェクトに対してCAが実行される。ステップG6では、CAで追跡を実行中の注目車両実オブジェクトの追跡状態を実行状態から待機状態へ遷移させる処理が行われる。   In step G3, if both Δx and Δy are equal to or smaller than a preset threshold value, the process proceeds to step G6, and otherwise, the process proceeds to step G5. In step G4, the process moves to step G7 if both Δx and Δy are equal to or less than a preset threshold value, and to step G5 otherwise. In step G5, CA is executed on the target vehicle real object. In step G6, a process of changing the tracking state of the target vehicle real object being tracked by CA from the execution state to the standby state is performed.

図13におけるステップG5の動作を図14を用いて説明する。なお、図14のステップH7,H8はそれぞれ図12のステップF9,F10とそれぞれ同一であるため説明を省略する。ステップH1では、図8のステップB5や後述する図16のステップJ5で設定した車両実オブジェクトを識別するTimeNo、LaneNo、ObsNo を用いて、od[TimeNo][LaneNo].info[ObsNo]が構造体Aにコピーされる。ステップH2では、与えられている観測座標とCAを用いた更新後の座標との差Disp.{x/y}がDisp.{x/y}=A.PosCA.{x/y}−A.Obs.{x/y} で計算される。   The operation in step G5 in FIG. 13 will be described with reference to FIG. Steps H7 and H8 in FIG. 14 are the same as steps F9 and F10 in FIG. In step H1, od [TimeNo] [LaneNo] .info [ObsNo] is a structure using TimeNo, LaneNo, ObsNo for identifying the actual vehicle object set in step B5 in FIG. 8 or step J5 in FIG. Copied to A. In step H2, the difference Disp. {X / y} between the given observation coordinates and the updated coordinates using CA is Disp. {X / y} = A.PosCA. {X / y} −A. Calculated as Obs. {X / y}.

ステップH3では、1時刻前のろ過処理分布iif[i].info[j][0].{FltMean,FltVar}と、予測処理分布iif[i].info[j][0].{PrdMean,PrdVar}とが、それぞれiif[i].info[MaxPath][1].{FltMean,FltVar}、iif[i].info[MaxPath][1].{PrdMean,PrdVar}にそれぞれ保存される。ステップH4では、iif[i].info[MaxPath][1].{PrdMean,FltMean}[0/2]にはDisp.xが、iif[i].info[MaxPath][1].{PrdMean,FltMean}[1/3]にはDisp.yがそれぞれ加算される。   In step H3, the filtration processing distribution iif [i] .info [j] [0]. {FltMean, FltVar} one hour ago and the prediction processing distribution iif [i] .info [j] [0]. {PrdMean, PrdVar} is stored in iif [i] .info [MaxPath] [1]. {FltMean, FltVar} and iif [i] .info [MaxPath] [1]. {PrdMean, PrdVar}, respectively. In step H4, Disp.x is stored in iif [i] .info [MaxPath] [1]. {PrdMean, FltMean} [0/2], iif [i] .info [MaxPath] [1]. {PrdMean, Disp.y is added to FltMean} [1/3].

ステップH5では、注目車両番号iの注目走行経路jについて、例えば式(11)を用いたスコア計算が行われ、iif[i].info[MaxPath][1].Score にその値が保存される。ステップH6では、現時刻における追跡状態iif[i].info[MaxPath][1].TrkStat が追跡実行状態を表す2に設定され、追跡モードiif[i].info[MaxPath][1].TrkMode にはCAを表す2が設定される。   In step H5, score calculation using, for example, Expression (11) is performed for the target travel route j of the target vehicle number i, and the value is stored in iif [i] .info [MaxPath] [1] .Score. . In step H6, the tracking state iif [i] .info [MaxPath] [1] .TrkStat at the current time is set to 2 indicating the tracking execution state, and the tracking mode iif [i] .info [MaxPath] [1] .TrkMode is set. Is set to 2 representing CA.

また、CAで走行経路の追跡を行うのは欠測状態のときであるので、入力観測座標には、注目車両実オブジェクトのCAを用いた場合の更新座標od[TimeNo][LaneNo].info[ObsNo].PosCA.{x/y}を用いることとし、その値をiif[i].info[MaxPath][1].Obs.{x/y} に保存する。ステップH4の処理を行う理由を説明する。CAが実行モードである間は、ろ過と予測を行うことができないので、CAによる追跡開始時点におけるろ過位置と予測位置との位置関係を時間的に保持するために、CAで算出される車両オブジェクトの位置の分を逐次オフセットとして加算する処理がステップH4である。   In addition, since it is during the missing measurement state that the travel route is tracked by CA, the updated coordinates od [TimeNo] [LaneNo] .info [when the CA of the target vehicle real object is used as the input observation coordinates. ObsNo] .PosCA. {X / y} is used, and the value is stored in iif [i] .info [MaxPath] [1] .Obs. {X / y}. The reason why the process of step H4 is performed will be described. Since the filtration and prediction cannot be performed while the CA is in the execution mode, the vehicle object calculated by the CA in order to keep the positional relationship between the filtration position and the predicted position at the time of the tracking start by the CA temporally. Step H4 is a process of sequentially adding the positions of as offsets.

図13におけるステップG6の動作は、図14のステップH6において、追跡状態iif[i].info[MaxPath][1].TrkStat を、追跡待機状態を表す1に設定する以外は、全て図14と同一である。   The operation of Step G6 in FIG. 13 is the same as that in FIG. 14 except that the tracking state iif [i] .info [MaxPath] [1] .TrkStat is set to 1 representing the tracking standby state in Step H6 of FIG. Are the same.

図8におけるステップB15の動作を図16を用いて説明する。なお、図15のステップI2〜I8、I9〜I10はそれぞれ図10のステップD2〜D8、D11〜D12と同一であるため説明を省略する。ステップI1では、TSの値が判定され、TS=1の場合はステップI2に、それ以外の場合はステップI9にそれぞれ処理を移す。   The operation of step B15 in FIG. 8 will be described with reference to FIG. Steps I2 to I8 and I9 to I10 in FIG. 15 are the same as steps D2 to D8 and D11 to D12 in FIG. In step I1, the value of TS is determined. If TS = 1, the process proceeds to step I2, and otherwise, the process proceeds to step I9.

図7におけるステップA4の動作を図16を用いて説明する。なお、図16のステップJ2〜J4は図8のステップB2〜B4と同一であり、図16のステップJ16、ステップJ17は、それぞれ図11のステップE9、図13のステップG5と同一であるので説明を省略する。図16のステップJ1において、1時刻前の車両実オブジェクト構造体をA=od[0][i].info[j]として、可能な全てのi,jに対して、ステップJ2〜J17が行われる。   The operation of step A4 in FIG. 7 will be described with reference to FIG. Note that steps J2 to J4 in FIG. 16 are the same as steps B2 to B4 in FIG. 8, and steps J16 and J17 in FIG. 16 are the same as steps E9 and G5 in FIG. Is omitted. In step J1 of FIG. 16, steps J2 to J17 are performed for all possible i and j, with the vehicle real object structure one time ago as A = od [0] [i] .info [j]. Is called.

ステップJ5では、注目オブジェクトの識別のため、TimeNo=0、LaneNo=i、ObsNo=j とされる。ステップJ6では、追跡状態TSおよび追跡モードTMを、TS=od[0][i].info[j].CurTrkStat、TM=od[0][i].info[j].CurTrkModeとしてそれぞれ設定する。ステップJ7では、注目車両実オブジェクトAの1時刻前の車両実オブジェクトとの対応状態について判定が行われ、対応関係が存在しない場合はステップJ8に処理が移る。ステップJ8では、TSとTMの値の判定が行われ、TM=1かつTS=0の場合は、ステップJ9で注目車両実オブジェクトを棄却扱いとし、それ以外の場合はステップJ10に処理を移す。   In Step J5, TimeNo = 0, LaneNo = i, and ObsNo = j are set to identify the object of interest. In step J6, the tracking state TS and the tracking mode TM are set as TS = od [0] [i] .info [j] .CurTrkStat and TM = od [0] [i] .info [j] .CurTrkMode, respectively. . In step J7, a determination is made as to the state of correspondence between the vehicle real object of interest A and the vehicle real object one hour before. If no correspondence exists, the process moves to step J8. In step J8, the values of TS and TM are determined. If TM = 1 and TS = 0, the target vehicle real object is treated as a rejection in step J9, and otherwise the process proceeds to step J10.

ステップJ10では、車両番号k(=0,1, …,MaxObj-1 )を設定し、全てのkに対してステップJ11〜J17の処理を実行する。ステップJ11では、pc.UseFlg[k]の値の判定が行われ、その値が1の場合は走行経路追跡に使用中の車両番号と見なして処理をステップJ12に移す。ステップJ12では、経路番号l(=0,1, …,MaxPath-1)を設定し、全てのlに対してステップJ13〜J17の処理を行う。   In step J10, a vehicle number k (= 0, 1,..., MaxObj-1) is set, and the processes of steps J11 to J17 are executed for all k. In step J11, the value of pc.UseFlg [k] is determined. If the value is 1, the processing is shifted to step J12 on the assumption that the vehicle number is being used for tracking the travel route. In Step J12, a path number l (= 0, 1,..., MaxPath-1) is set, and Steps J13 to J17 are performed for all l.

ステップJ13では、1時刻前における車両番号kのl番目の経路の追跡モードiif[k].info[l][0].TrkMode がtmに保存される。ステップJ14において、tm=1の場合はステップJ16に、それ以外の場合はステップJ15に処理が移る。ステップJ15 においてtm=2と判定された場合はステップJ17 にそれぞれ処理が移る。   In step J13, the tracking mode iif [k] .info [l] [0] .TrkMode of the l-th route of the vehicle number k one hour before is stored in tm. In step J14, if tm = 1, the process proceeds to step J16. Otherwise, the process proceeds to step J15. If it is determined in step J15 that tm = 2, the process proceeds to step J17.

図7におけるステップA8の動作を図17わ用いて説明する。なお、図17のステップK5は図8のステップB3と同一であるため説明を省略する。ステップK1では、各車両実オブジェクトの車両位置od[1][i].info[j].CurPosi.{x/y}(i=0, …,LaneNum-1、j=0,…,od[1][i].DatNum-1) に対応したセル座標Cを求め、現時刻のセル画像上で対応した画素pc.CellImg[1][C]の値を1に設定する。ステップK2では、全てのk(=0, …,CellNum-1)に対してステップK3〜K7の処理を行う。   The operation of step A8 in FIG. 7 will be described with reference to FIG. Note that step K5 in FIG. 17 is the same as step B3 in FIG. In step K1, the vehicle position od [1] [i] .info [j] .CurPosi. {X / y} (i = 0, ..., LaneNum-1, j = 0, ..., od [ 1] [i] .DatNum-1) is obtained, and the value of the corresponding pixel pc.CellImg [1] [C] on the cell image at the current time is set to 1. In step K2, the processes of steps K3 to K7 are performed for all k (= 0,..., CellNum-1).

ステップK3では、1時刻前のセル画像における座標kでの画素値pc.CellImg[0][k]が判定され、その値が2の場合は、該当セル座標上に車両仮想オブジェクトが存在すると見なしてステップK4に処理を移す。ステップK4では、セル座標k上にある車両仮想オブジェクトが持つ位置情報pc.ObjPosInfo[0][k].{x/y} 及び速度情報pc.ObjVeloInfo[0][k].{x/y}がCAの入力InCAに設定される。   In step K3, the pixel value pc.CellImg [0] [k] at the coordinate k in the cell image one time before is determined. If the value is 2, it is assumed that the vehicle virtual object exists on the corresponding cell coordinate. The process is moved to step K4. In step K4, the position information pc.ObjPosInfo [0] [k]. {X / y} and the speed information pc.ObjVeloInfo [0] [k]. {X / y} possessed by the vehicle virtual object on the cell coordinate k. Is set as the CA input InCA.

ステップK6では、ステップK5で算出した車両仮想オブジェクトの更新後車両位置座標NewPosi.{x/y} に対応したセル座標C’が算出される。ステップK7では、更新後の車両仮想オブジェクトの情報が、現時刻の情報としてpc.CellImg[1][C ’]=2 、pc.ObjPosInfo[1][C’].{x/y}=NewPosi.{x/y} 、pc.ObjVeloInfo[1][C ’].{x/y}=NewVelo.{x/y} として保存される。ステップK8では、全てのm(=0, …,CellNum-1)に対してステップK9〜K13の処理を行う。   In step K6, cell coordinates C ′ corresponding to the updated vehicle position coordinates NewPosi. {X / y} of the vehicle virtual object calculated in step K5 are calculated. In step K7, the updated vehicle virtual object information is pc.CellImg [1] [C '] = 2, pc.ObjPosInfo [1] [C']. {X / y} = NewPosi as current time information. . {x / y}, pc.ObjVeloInfo [1] [C ']. {x / y} = NewVelo. {x / y} In step K8, the processes of steps K9 to K13 are performed for all m (= 0,..., CellNum-1).

ステップK9では、現時刻でのセル画像pc.CellImg[1][m]の値が判定され、その値が1の場合はステップK10に処理が移る。ステップK10では、セル座標m上に存在する車両実オブジェクトの現時刻における追跡モードがTrkMode に保存される。ステップK11では、TrkMode の値に対する判定が行われ、その値が1の場合はステップK12に処理が移る。ステップK12では、現時刻におけるセル画像pc.CellImg[1] 上においてセル座標mと同一x座標(すなわち同一車線)かつ後方において、車両実オブジェクトが存在するセルの探索が行われ、該当するセル座標がnとして保存される。   In step K9, the value of the cell image pc.CellImg [1] [m] at the current time is determined. If the value is 1, the process moves to step K10. In step K10, the tracking mode at the current time of the vehicle real object existing on the cell coordinate m is stored in TrkMode. In step K11, a determination is made for the value of TrkMode. If the value is 1, the process moves to step K12. In step K12, a search is made for a cell in which the actual vehicle object exists behind the same x coordinate (that is, the same lane) as the cell coordinate m on the cell image pc.CellImg [1] at the current time, and the corresponding cell coordinate. Is stored as n.

ステップK13では、セル座標mとセル座標nで挟まれた全てのセル座標C’’に対して、pc.CellImg[1][C ’’]=2 、pc.ObjPosInfo[1][C’’].{x/y}=C ’’に対応した世界座標、pc.ObjVeloInfo[1][C ’’].{x/y}=セル座標m上に存在する車両実オブジェクトが持つ速度ベクトルとして、車両仮想オブジェクトの設定が行われる(図6参照)。   In step K13, pc.CellImg [1] [C ''] = 2, pc.ObjPosInfo [1] [C '' for all cell coordinates C '' sandwiched between cell coordinates m and cell coordinates n. ]. {x / y} = World coordinates corresponding to C ″, pc.ObjVeloInfo [1] [C ″]. {x / y} = Velocity vector of the actual vehicle object on cell coordinates m The vehicle virtual object is set (see FIG. 6).

このように、欠測状態のように車両番号の一意的な割当てが困難な場合には、複数の車両番号の割当てを許容することで、車両オブジェクトと車両番号の時間的な連続性が途絶することを防止が可能なことである。また、車両オブジェクトと観測データとの対応付けの有無によって、追跡経路の尤度計算を制御し、この尤度の大小関係に基づいて割当てた車両番号の枝刈りを行うことにより、オクルージョンに頑健で高精度かつ高効率な車両追跡ができることになる。   As described above, when it is difficult to uniquely assign a vehicle number such as a missing measurement state, the temporal continuity between the vehicle object and the vehicle number is interrupted by allowing the assignment of a plurality of vehicle numbers. It is possible to prevent this. In addition, it is robust to occlusion by controlling the likelihood calculation of the tracking route according to the presence or absence of the association between the vehicle object and the observation data, and pruning the assigned vehicle number based on the magnitude relationship of this likelihood. Highly accurate and highly efficient vehicle tracking can be performed.

以上をまとめると、本発明によれば、車両走行経路追跡処理において車両オブジェクトと車両番号の時間的な連続性が途絶することを防止しつつ、オクルージョンに頑健で高精度かつ高効率な車両追跡ができることになる。   To summarize the above, according to the present invention, the vehicle continuity between the vehicle object and the vehicle number is prevented from being interrupted in the vehicle travel route tracking process, and the vehicle tracking that is robust to occlusion and highly accurate and highly efficient can be performed. It will be possible.

なお、上記の実施の形態における各動作フローは、予めその動作手順をプログラムとして記録媒体に格納しておき、これをコンピュータにより読込ませて実行させる様に構成できることは明白である。   It is obvious that each operation flow in the above embodiment can be configured such that the operation procedure is stored in advance in a recording medium as a program and is read and executed by a computer.

本発明の実施の形態の概略機能ブロック図である。It is a general | schematic functional block diagram of embodiment of this invention. 注目車両オブジェクトへの複数車両番号割当て方法を説明する図である。It is a figure explaining the multiple vehicle number allocation method to an attention vehicle object. 注目車両オブジェクトが保持する複数車両番号の複数経路を説明する図である。It is a figure explaining the several path | route of the several vehicle number which an attention vehicle object holds. 注目車両番号の複数経路に対して推定される真の車両位置を説明する図である。It is a figure explaining the true vehicle position estimated with respect to the several path | route of an attention vehicle number. 車両実オブジェクトと車両仮想オブジェクトとを用いた走行経路追跡を説明する図である。It is a figure explaining the driving | running route tracking using a vehicle real object and a vehicle virtual object. 車両仮想オブジェクトの設定方法を説明する図である。It is a figure explaining the setting method of a vehicle virtual object. 本発明の実施の形態の全体の動作を示すフローチャートである。It is a flowchart which shows the whole operation | movement of embodiment of this invention. 図7のステップA3の詳細を示すフローチャートである。It is a flowchart which shows the detail of step A3 of FIG. 図8のステップB3の詳細を示すフローチャートである。It is a flowchart which shows the detail of step B3 of FIG. 図8のステップB14の詳細を示すフローチャートである。It is a flowchart which shows the detail of step B14 of FIG. 図10のステップD4の詳細を示すフローチャートである。It is a flowchart which shows the detail of step D4 of FIG. 図11のステップE9の詳細を示すフローチャートである。It is a flowchart which shows the detail of step E9 of FIG. 図11のステップE15の詳細を示すフローチャートである。It is a flowchart which shows the detail of step E15 of FIG. 図13のステップG5の詳細を示すフローチャートである。It is a flowchart which shows the detail of step G5 of FIG. 図8のステップB15の詳細を示すフローチャートである。It is a flowchart which shows the detail of step B15 of FIG. 図7のステップA4の詳細を示すフローチャートである。It is a flowchart which shows the detail of step A4 of FIG. 図7のステップA8の詳細を示すフローチャートである。It is a flowchart which shows the detail of step A8 of FIG. 車両実オブジェクト毎の追跡情報構造体を説明する図表である。It is a graph explaining the tracking information structure for every vehicle real object. 車両番号毎の追跡情報構造体を説明する図表である。It is a chart explaining the tracking information structure for every vehicle number. 追跡処理共通情報構造体を説明する図表である。It is a chart explaining a tracking process common information structure. 注目車両番号に対する追跡状態と追跡モードとの遷移関係を示す図である。It is a figure which shows the transition relationship of the tracking state with respect to an attention vehicle number, and tracking mode. セル画像の概念を表す図である。It is a figure showing the concept of a cell image. Cell Automatonのルール184を説明する図である。It is a figure explaining the rule 184 of Cell Automaton.

符号の説明Explanation of symbols

1 車両検出部
2 車両番号割当部
3 走行経路追跡部
4 経路尤度算出部
5 車両番号枝刈り部
DESCRIPTION OF SYMBOLS 1 Vehicle detection part 2 Vehicle number allocation part 3 Travel route tracking part 4 Path | route likelihood calculation part 5 Vehicle number pruning part

Claims (27)

道路画像から個々の車両をオブジェクトとして検出する車両検出手段と、
この検出された個々のオブジェクトに対して複数の車両番号を割当てる車両番号割当て手段と、
前記車両番号割当て手段により割当てられた車両番号の各々に基づいて走行経路を追跡する走行経路追跡手段と、
前記行経路追跡手段により得られた追跡経路情報から各経路の確率的な確からしさを尤度として算出する経路尤度算出手段と、
前記車両番号割当て手段により割当てられた前記車両番号のうち前記経路尤度算出手段により算出された尤度が小なる経路に対応した車両番号を削除する車両番号枝刈り手段とを含むことを特徴とする車両追跡装置。
Vehicle detection means for detecting individual vehicles as objects from road images;
Vehicle number assigning means for assigning a plurality of vehicle numbers to the detected individual objects;
A travel route tracking means for tracking a travel route based on each of the vehicle numbers assigned by the vehicle number assigning means;
Path likelihood calculating means for calculating the probability of each path as likelihood from the tracking path information obtained by the line path tracking means;
Vehicle number pruning means for deleting a vehicle number corresponding to a route having a smaller likelihood calculated by the route likelihood calculating means from among the vehicle numbers assigned by the vehicle number assigning means. Vehicle tracking device.
前記経路尤度算出手段は、前記割当てられた車両番号の各々に対して、注目オブジェクトが該車両番号を持つ時間的に同一視されるオブジェクトとみなして、現時刻のろ過位置、1時刻先の予測位置、並びに現時刻までの追跡経路の確率的な確からしさを前記尤度として算出することを特徴とする請求項1記載の車両追跡装置。   The route likelihood calculating means regards each of the assigned vehicle numbers as a temporally identified object having the vehicle number as the object of interest, The vehicle tracking device according to claim 1, wherein the likelihood is calculated as the likelihood based on a predicted position and a probability of a tracking route up to the current time. 前記車両番号枝刈り手段は、前記割当てられた車両番号に対応した尤度が予め設定された閾値を下回る場合に、その車両番号を割当て対象の車両番号から除外することを特徴とする請求項1または2記載の車両追跡装置。   The vehicle number pruning means excludes the vehicle number from the allocation target vehicle number when the likelihood corresponding to the allocated vehicle number falls below a preset threshold value. Or the vehicle tracking apparatus of 2. 前記走行経路追跡手段は、1時刻前に算出した予測位置に現時刻における車両観測データが存在しない場合には、追跡方法を切替えることを特徴とする請求項2または3記載の車両追跡装置。   4. The vehicle tracking device according to claim 2, wherein the traveling route tracking means switches the tracking method when vehicle observation data at the current time does not exist at the predicted position calculated one time ago. 1時刻前に算出された予測位置に現時刻における観測データが存在しない注目オブジェクトに対して、現時刻で予測位置と観測データとの対応が付いている他オブジェクトとの位置関係に基づいて、前記注目オブジェクトの現時刻におけるろ過位置を算出することを特徴とする請求項4記載の車両追跡装置。   Based on the positional relationship between the object of interest for which the observation data at the current time does not exist at the predicted position calculated one time ago and the other object with the correspondence between the predicted position and the observed data at the current time, The vehicle tracking device according to claim 4, wherein the filtering position of the object of interest at the current time is calculated. 1時刻前に算出された予測位置に現時刻における観測データが存在しない注目オブジェクトの現在時刻におけるろ過位置を、現時刻で予測位置と観測データとの対応が付いている他オブジェクトのうち、前記注目オブジェクトと同一車線上に存在するオブジェクトのろ過位置を追い越さないように設定することを特徴とする請求項5記載の車両追跡装置。   The filtered position at the current time of the object of interest for which the observation data at the current time does not exist at the predicted position calculated one time before is the attention object among the other objects with the correspondence between the predicted position and the observation data at the current time. 6. The vehicle tracking device according to claim 5, wherein the vehicle tracking device is set so as not to overtake a filtering position of an object existing on the same lane as the object. 前記注目オブジェクトと他オブジェクトとの位置関係に基づく前記注目オブジェクトのろ過位置算出を、セルオートマトンなどのオブジェクト移動モデルに従って行うことを特徴とする請求項6記載の車両追跡装置。   The vehicle tracking device according to claim 6, wherein the filtering position calculation of the target object based on the positional relationship between the target object and another object is performed according to an object movement model such as a cellular automaton. 1時刻前に算出された予測位置に現時刻における観測データが存在しない注目オブジェクトに対して、予測位置と観測データとの未対応状態の継続時間が予め設定された閾値以下である場合には、この予測位置を現時刻における観測データとみなし、
閾値より大である場合には、1時刻前に算出された予測位置に現時刻における観測データが存在しない注目オブジェクトに対して、現時刻で予測位置と観測データとの対応が付いている他オブジェクトとの位置関係に基づいて、前記注目オブジェクトの現時刻におけるろ過位置を算出することを特徴とする請求項4記載の車両追跡装置。
For a target object for which observation data at the current time does not exist at the predicted position calculated one time ago, when the duration of the unsupported state between the predicted position and the observed data is equal to or less than a preset threshold value, Considering this predicted position as observation data at the current time,
If it is larger than the threshold, another object with a correspondence between the predicted position and the observation data at the current time for the target object for which the observation data at the current time does not exist at the predicted position calculated one time ago The vehicle tracking device according to claim 4, wherein the filtering position at the current time of the object of interest is calculated based on the positional relationship between
前記オブジェクトに対して1時刻前に算出された予測位置と現時刻におけるろ過位置との相違量に基づいて追跡方法を切替えることを特徴とする請求項2または3記載の車両追跡装置。   4. The vehicle tracking device according to claim 2, wherein the tracking method is switched based on a difference between a predicted position calculated one hour before the object and a filtered position at the current time. 現時刻のろ過位置、1時刻先の予測位置の算出をカルマンフィルタやパークフィルタなどの位置予測が可能な計算方法を用いることを特徴とする請求項2記載の車両追跡装置。   3. The vehicle tracking device according to claim 2, wherein a calculation method capable of predicting a position, such as a Kalman filter or a park filter, is used for calculating the filtering position at the current time and the predicted position one time ahead. 複数の車両番号の割当をオブジェクトの予測位置と観測データとの対応が未対応な状態から対応付いた状態に遷移したオブジェクトに対してのみ行い、オブジェクトの予測位置と観測データの対応付いた状態が継続しているオブジェクトに対しては、前時刻でのこのオブジェクトの車両番号を現時刻における該オブジェクトの車両番号として引継ぐことを特徴とする請求項1〜4いずれか記載の車両追跡装置。   Multiple vehicle numbers are assigned only to objects that have transitioned from a state in which the predicted position of the object and the observation data do not correspond to a corresponding state, and the state in which the predicted position of the object corresponds to the observation data. 5. The vehicle tracking device according to claim 1, wherein for a continuing object, the vehicle number of the object at the previous time is taken over as the vehicle number of the object at the current time. 追跡経路の尤度を1時刻前に算出されたろ過位置に基づいて算出することを特徴とする請求項2記載の車両追跡装置。   3. The vehicle tracking device according to claim 2, wherein the likelihood of the tracking route is calculated based on the filtering position calculated one time before. 走行経路追跡を実行中のオブジェクト間に仮想的なオブジェクトの存在を導入して、注目オブジェクトと同一車線上に存在する他オブジェクトのろ過位置を追い越さないように設定することを特徴とする請求項6記載の車両追跡装置。   7. The present invention introduces the existence of a virtual object between objects that are executing the travel route tracking, and sets so as not to overtake the filtering position of other objects existing on the same lane as the object of interest. The vehicle tracking device described. 道路画像から個々の車両をオブジェクトとして検出する車両検出ステップと、
この検出された個々のオブジェクトに対して複数の車両番号を割当てる車両番号割当てステップと、
この割当てられた車両番号の各々に基づいて走行経路を追跡する走行経路追跡ステップと、
追跡経路情報から各経路の確率的な確からしさを尤度として算出する経路尤度算出ステップと、
前記割当てられた車両番号のうち前記経路尤度算出ステップにより算出された尤度が小なる経路に対応した車両番号を削除する車両番号枝刈りステップとを含むことを特徴とする車両追跡方法。
A vehicle detection step of detecting individual vehicles as objects from the road image;
A vehicle number assignment step for assigning a plurality of vehicle numbers to the detected individual objects;
A travel route tracking step for tracking the travel route based on each of the assigned vehicle numbers;
A path likelihood calculating step for calculating the probability of each path from the tracking path information as a likelihood; and
A vehicle tracking method comprising: a vehicle number pruning step for deleting a vehicle number corresponding to a route having a smaller likelihood calculated by the route likelihood calculating step among the assigned vehicle numbers.
前記経路尤度算出ステップは、前記割当てられた車両番号の各々に対して、注目オブジェクトが該車両番号を持つ時間的に同一視されるオブジェクトとみなして、現時刻のろ過位置、1時刻先の予測位置、並びに現時刻までの追跡経路の確率的な確からしさを前記尤度として算出することを特徴とする請求項14記載の車両追跡方法。   The route likelihood calculating step regards each of the assigned vehicle numbers as an object in which the object of interest has the vehicle number and is identified with respect to time, and the filtering position at the current time, one hour ahead The vehicle tracking method according to claim 14, wherein the likelihood is calculated as the likelihood based on a predicted position and a probability of a tracking route up to the current time. 前記車両番号枝刈りステップは、前記割当てられた車両番号に対応した尤度が予め設定された閾値を下回る場合に、その車両番号を割当て対象の車両番号から除外することを特徴とする請求項14または15記載の車両追跡方法。   The vehicle number pruning step excludes the vehicle number from the allocation target vehicle number when the likelihood corresponding to the allocated vehicle number falls below a preset threshold value. Or the vehicle tracking method of 15. 前記走行経路追跡ステップは、1時刻前に算出した予測位置に現時刻における車両観測データが存在しない場合には、追跡方法を切替えることを特徴とする請求項15または16記載の車両追跡方法。   The vehicle tracking method according to claim 15 or 16, wherein the traveling route tracking step switches the tracking method when vehicle observation data at the current time does not exist at the predicted position calculated one time ago. 1時刻前に算出された予測位置に現時刻における観測データが存在しない注目オブジェクトに対して、現時刻で予測位置と観測データとの対応が付いている他オブジェクトとの位置関係に基づいて、前記注目オブジェクトの現時刻におけるろ過位置を算出することを特徴とする請求項17記載の車両追跡方法。   Based on the positional relationship between the object of interest for which the observation data at the current time does not exist at the predicted position calculated one time ago and the other object with the correspondence between the predicted position and the observed data at the current time, The vehicle tracking method according to claim 17, wherein the filtering position of the object of interest at the current time is calculated. 1時刻前に算出された予測位置に現時刻における観測データが存在しない注目オブジェクトの現在時刻におけるろ過位置を、現時刻で予測位置と観測データとの対応が付いている他オブジェクトのうち、前記注目オブジェクトと同一車線上に存在するオブジェクトのろ過位置を追い越さないように設定することを特徴とする請求項18記載の車両追跡方法。   The filtered position at the current time of the object of interest for which the observation data at the current time does not exist at the predicted position calculated one time before is the attention object among the other objects with the correspondence between the predicted position and the observation data at the current time. 19. The vehicle tracking method according to claim 18, wherein the vehicle tracking method is set so as not to overtake a filtering position of an object existing on the same lane as the object. 前記注目オブジェクトと他オブジェクトとの位置関係に基づく前記注目オブジェクトのろ過位置算出を、セルオートマトンなどのオブジェクト移動モデルに従って行うことを特徴とする請求項19記載の車両追跡方法。   The vehicle tracking method according to claim 19, wherein the filtering position calculation of the target object based on a positional relationship between the target object and another object is performed according to an object movement model such as a cellular automaton. 1時刻前に算出された予測位置に現時刻における観測データが存在しない注目オブジェクトに対して、予測位置と観測データとの未対応状態の継続時間が予め設定された閾値以下である場合には、この予測位置を現時刻における観測データとみなし、閾値より大である場合には、請求項18記載の方法を用いることを特徴とする請求項17記載の車両追跡方法。   For a target object for which observation data at the current time does not exist at the predicted position calculated one time ago, when the duration of the unsupported state between the predicted position and the observed data is equal to or less than a preset threshold value, The vehicle tracking method according to claim 17, wherein the predicted position is regarded as observation data at the current time, and if the predicted position is larger than a threshold value, the method according to claim 18 is used. 前記オブジェクトに対して1時刻前に算出された予測位置と現時刻におけるろ過位置との相違量に基づいて追跡方法を切替えることを特徴とする請求項15または16記載の車両追跡方法。   The vehicle tracking method according to claim 15 or 16, wherein the tracking method is switched based on a difference between a predicted position calculated one hour before the object and a filtered position at the current time. 現時刻のろ過位置、1時刻先の予測位置の算出をカルマンフィルタやパークフィルタなどの位置予測が可能な計算方法を用いることを特徴とする請求項15記載の車両追跡方法。   16. The vehicle tracking method according to claim 15, wherein a calculation method capable of predicting a position, such as a Kalman filter or a park filter, is used for calculating the filtering position at the current time and the predicted position one time ahead. 複数の車両番号の割当をオブジェクトの予測位置と観測データとの対応が未対応な状態から対応付いた状態に遷移したオブジェクトに対してのみ行い、オブジェクトの予測位置と観測データの対応付いた状態が継続しているオブジェクトに対しては、前時刻でのこのオブジェクトの車両番号を現時刻における該オブジェクトの車両番号として引継ぐことを特徴とする請求項14〜17いずれか記載の車両追跡方法。   Multiple vehicle numbers are assigned only to objects that have transitioned from a state in which the predicted position of the object and the observation data do not correspond to a corresponding state, and the state in which the predicted position of the object corresponds to the observation data. 18. The vehicle tracking method according to claim 14, wherein for a continuing object, the vehicle number of the object at the previous time is taken over as the vehicle number of the object at the current time. 追跡経路の尤度を1時刻前に算出されたろ過位置に基づいて算出することを特徴とする請求項15記載の車両追跡方法。   16. The vehicle tracking method according to claim 15, wherein the likelihood of the tracking route is calculated based on the filtering position calculated one time before. 走行経路追跡を実行中のオブジェクト間に仮想的なオブジェクトの存在を導入して、注目オブジェクトと同一車線上に存在する他オブジェクトのろ過位置を追い越さないように設定することを特徴とする請求項19記載の車両追跡方法。   The virtual object existence is introduced between the objects that are executing the travel route tracking, and the filtering position of other objects existing on the same lane as the object of interest is set not to be overtaken. The vehicle tracking method described. 車両追跡方法をコンピュータにより実行するためのプログラムであって、
道路画像から個々の車両をオブジェクトとして検出する処理と、
この検出された個々のオブジェクトに対して複数の車両番号を割当てる処理と、
この割当てられた車両番号の各々に基づいて走行経路を追跡する処理と、
追跡経路情報から各経路の確率的な確からしさを尤度として算出する処理と、
前記割当てられた車両番号のうち前記経路尤度算出ステップにより算出された尤度が小なる経路に対応した車両番号を削除する処理とを含むことを特徴とするコンピュータ読取り可能なプログラム。
A program for executing a vehicle tracking method by a computer,
Processing for detecting individual vehicles as objects from road images;
A process of assigning a plurality of vehicle numbers to the detected individual objects;
A process of tracking the travel route based on each of the assigned vehicle numbers;
A process of calculating the probability of each route from the tracking route information as a likelihood,
A computer-readable program comprising: deleting a vehicle number corresponding to a route having a small likelihood calculated by the route likelihood calculating step from among the assigned vehicle numbers.
JP2008261183A 2008-10-08 2008-10-08 Vehicle tracking device and vehicle tracking method Active JP5212004B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008261183A JP5212004B2 (en) 2008-10-08 2008-10-08 Vehicle tracking device and vehicle tracking method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008261183A JP5212004B2 (en) 2008-10-08 2008-10-08 Vehicle tracking device and vehicle tracking method

Publications (2)

Publication Number Publication Date
JP2010092248A JP2010092248A (en) 2010-04-22
JP5212004B2 true JP5212004B2 (en) 2013-06-19

Family

ID=42254901

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008261183A Active JP5212004B2 (en) 2008-10-08 2008-10-08 Vehicle tracking device and vehicle tracking method

Country Status (1)

Country Link
JP (1) JP5212004B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI425454B (en) * 2010-12-28 2014-02-01 Ind Tech Res Inst Method, system and computer program product for reconstructing moving path of vehicle
JP6186072B2 (en) * 2014-02-20 2017-08-23 エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. Positioning of moving objects in 3D using a single camera
JP6616093B2 (en) * 2014-04-25 2019-12-04 コンデュエント ビジネス サービシーズ エルエルシー Method and system for automatic ranking of vehicles in adjacent drive-through structures by appearance-based classification

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991588A (en) * 1995-09-20 1997-04-04 Hitachi Ltd Travel time measuring instrument for vehicle
JP3402263B2 (en) * 1999-06-10 2003-05-06 住友電気工業株式会社 Traffic information management device and traffic information management method
JP2001229488A (en) * 2000-02-15 2001-08-24 Hitachi Ltd Vehicle tracking method and traffic state tracking device
JP4771891B2 (en) * 2006-08-17 2011-09-14 富士通株式会社 Tracking reliability judgment program
JP2008217432A (en) * 2007-03-05 2008-09-18 Sumitomo Electric Ind Ltd Traveling track specification device, traveling track specification system, computer program and traveling track specification method
JP5128339B2 (en) * 2007-09-11 2013-01-23 株式会社日立製作所 Traffic flow measurement system

Also Published As

Publication number Publication date
JP2010092248A (en) 2010-04-22

Similar Documents

Publication Publication Date Title
US11023751B2 (en) Systems and methods for safe route determination
US11380193B2 (en) Method and system for vehicular-related communications
US20210150390A1 (en) Systems and methods for providing visual allocation management
JP4416020B2 (en) Travel plan generator
JP5938569B2 (en) Advanced driver support system considering azimuth information and operation method thereof
EP2560151B1 (en) Driving support device
Chang et al. Onboard measurement and warning module for irregular vehicle behavior
CN110576847A (en) Focus-based tagging of sensor data
JP2012128799A (en) Transition prediction device for driving scene and recommended driving operation presentation device for vehicle
JP2010033352A (en) Lane change alarm and program
JP2013242615A (en) Driving scene transition prediction device and recommended driving operation presentation device for vehicle
JP2020521978A (en) Systems and methods for determining safe routes
KR102592830B1 (en) Apparatus and method for predicting sensor fusion target in vehicle and vehicle including the same
JP5482323B2 (en) Driving support device and program
JP5212004B2 (en) Vehicle tracking device and vehicle tracking method
WO2019232022A1 (en) Systems and methods for safe route determination
JP7380616B2 (en) Automatic driving control device, automatic driving control method, and automatic driving control program
KR20200133856A (en) Autonomous driving apparatus and method
CN113525358A (en) Vehicle control device and vehicle control method
CN114599567A (en) Vehicle-mounted cluster tracking system
Balasubramani et al. A Predictive Decision Model for an Efficient Detection of Abnormal Driver Behavior in Intelligent Transport System
JP2010224786A (en) Collision risk degree estimating device and program
US20240043022A1 (en) Method, system, and computer program product for objective assessment of the performance of an adas/ads system
US20220028258A1 (en) Warning presentation control device, warning presentation control system, method of controlling warning presentation, and recording medium storing warning presentation control program
EP4219261A1 (en) Estimation of risk exposure for autonomous vehicles

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130211

R150 Certificate of patent or registration of utility model

Ref document number: 5212004

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160308

Year of fee payment: 3