JP6503267B2 - Group tracking device, group tracking method and program - Google Patents

Group tracking device, group tracking method and program Download PDF

Info

Publication number
JP6503267B2
JP6503267B2 JP2015171784A JP2015171784A JP6503267B2 JP 6503267 B2 JP6503267 B2 JP 6503267B2 JP 2015171784 A JP2015171784 A JP 2015171784A JP 2015171784 A JP2015171784 A JP 2015171784A JP 6503267 B2 JP6503267 B2 JP 6503267B2
Authority
JP
Japan
Prior art keywords
group
target state
center
subgroups
subgroup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015171784A
Other languages
Japanese (ja)
Other versions
JP2017049082A (en
Inventor
丸山 貴志子
貴志子 丸山
信博 知原
信博 知原
将史 藤田
将史 藤田
岡村 秀文
秀文 岡村
克己 長峰
克己 長峰
拓海 小渕
拓海 小渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2015171784A priority Critical patent/JP6503267B2/en
Publication of JP2017049082A publication Critical patent/JP2017049082A/en
Application granted granted Critical
Publication of JP6503267B2 publication Critical patent/JP6503267B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、複数の移動目標が群を成す場合に適した、群トラッキング装置、群トラッキング方法及びプログラムに関する。   The present invention relates to a group tracking device, a group tracking method, and a program, which are suitable when a plurality of moving targets form a group.

重要施設および重要地域の監視、災害地域の監視及び捜索または救護支援等、センサを用いて移動目標を監視するニーズがある。   There is a need to monitor movement targets using sensors, such as monitoring of critical facilities and areas, monitoring of disaster areas and search or rescue support.

特許文献1では、レーダによる観測データから、群(編隊)を成して飛行している複数の航空機目標を追尾し、航跡を推定する方法が開示されている。   Patent Document 1 discloses a method of tracking a plurality of aircraft targets flying in a group (formation) from observation data by a radar and estimating a track.

複数の移動目標を対象にした航跡推定方法としては、MHT(Multiple Hypothesis Tracking、多重仮説相関方式)と呼ばれるフィルタが広く用いられ、その派生方式も数多く提案されている。MHTは複数の移動目標と観測データの対応関係について複数の仮説を保持しながら、個々の移動目標の航跡を推定するフィルタである。   As a track estimation method for a plurality of moving targets, a filter called MHT (Multiple Hypothesis Tracking, multiple hypothesis correlation method) is widely used, and many derivation methods thereof have been proposed. MHT is a filter that estimates the tracks of individual moving targets while maintaining multiple hypotheses about the correspondence between multiple moving targets and observation data.

多数の移動目標が互いに近接している場合、観測データと個々の移動目標の対応付けができないため、観測データの欠損が発生することがある。このような場合には、MHTにより、個々の移動目標の航跡を精度よく推定することは困難である。特許文献1では、複数の航空機が群を成して飛行していることを検出し、個々の移動目標の運動を群全体の平均と、平均からの差分で近似し、MHTに活用する方法が開示されている。   When many movement targets are close to each other, observation data may be lost because the observation data can not be associated with individual movement targets. In such a case, it is difficult to accurately estimate the track of each moving target by MHT. In Patent Document 1, there is a method of detecting that a plurality of aircraft are flying in a group, approximating the motion of each moving target with the average of the entire group and the difference from the average, and using it for MHT. It is disclosed.

さらに、非特許文献1では、PHD(Probability Hypothesis Density、確率仮説密度法)と呼ばれる移動目標の密度分布を推定するフィルタが提案されている。また、非特許文献2では、グループ化した群を拡張された1つの移動目標と見なして航跡を推定するフィルタ(Extended Object and Group Tracking、以下EOGTと称す)が提案されている。   Further, Non-Patent Document 1 proposes a filter called PHD (Probability Hypothesis Density), which estimates a density distribution of moving targets. In addition, Non-Patent Document 2 proposes a filter (Extended Object and Group Tracking, hereinafter referred to as EOGT) that estimates a track by regarding a grouped group as one extended movement target.

このように解像度の異なる複数の目標トラッキングフィルタが存在し、MHTは個々の目標の航跡を、PHDは目標密度分布の変化を、EODTは群全体としての航跡をそれぞれ推定するフィルタである。特許文献2では、これら解像度の異なるフィルタを相補的に利用することで、個々の移動目標の航跡を精度よく推定する方法が開示されている。   As described above, there are a plurality of target tracking filters having different resolutions, MHT is a filter for estimating the track of each target, PHD is a filter for estimating changes in target density distribution, and EODT is a track for the group as a whole. Patent Document 2 discloses a method for accurately estimating the track of each moving target by complementarily using filters with different resolutions.

特表2000−505201号公報JP 2000-505201 gazette 特開2014−169865号公報JP, 2014-169865, A

B. Vo, S. Singh, and A. Doucet: "Sequential Monte Carlo Methods for Multi-Target Filtering with Random Finite Sets", IEEE Transactions on Aerospace and Electronic Systems, Vol.41, No.4, 2005B. Vo, S. Singh, and A. Doucet: "Sequential Monte Carlo Methods for Multi-Target Filtering with Random Finite Sets", IEEE Transactions on Aerospace and Electronic Systems, Vol. 41, No. 4, 2005 J. W. Koch: "Bayesian Approach to Extended Object Cluster Tracking using Random Matrices", IEEE Transactions on Aerospace and Electronic Systems, Vol.44, No.3, 2008J. W. Koch: "A Bayesian Approach to Extended Object Cluster Tracking Using Random Matrices", IEEE Transactions on Aerospace and Electronic Systems, Vol. 44, No. 3, 2008

上記のように、群に着目して個々の移動目標(または監視対象)の振る舞いを群全体の平均と、平均からの差分で近似しようとする方法が存在する。このような方法では、個々の移動目標が群全体と同じように振る舞うことが仮定されている。例えば、群を成す複数の車両が道路に沿って縦列走行している状況を想定した場合、曲がり角等で群全体と個々の移動目標の振る舞いが大きく異なり、群に着目した近似や推定を正確に行うことができないという問題が生じていた。   As described above, there is a method of focusing on the group and trying to approximate the behavior of each moving target (or the monitoring target) by the average of the entire group and the difference from the average. In such a method, it is assumed that the individual moving targets behave the same as the whole group. For example, assuming that a plurality of vehicles forming a group travels in parallel along a road, the behavior of the whole group and individual moving targets are greatly different at a corner, etc., and approximations and estimations focusing on the group are accurately performed. There was a problem that it could not be done.

本発明は、上記のような状況を鑑みてなされたものであり、全体平均と異なる振る舞いをする群の航跡を推定する、群トラッキング装置、群トラッキング方法及びプログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide a group tracking device, a group tracking method, and a program for estimating a track of a group which behaves differently from the overall average.

本発明は、プロセッサとメモリとを有し、物体を検出するセンサに接続された群トラッキング装置であって、前記センサからの観測データを受け付けるセンサ情報入力部と、前記観測データから移動物体を検出して当該移動物体の目標状態を推定する目標状態推定部と、前記目標状態推定部で推定された目標状態を出力する目標情報出力部と、を含み、前記目標状態推定部は、複数の移動物体から構成される群を検出し、当該群の内部を複数のサブグループに分割し、これらサブグループの中心を算出し、前記サブグループの中心を屈曲点とする折れ線で接続し、折れ線の2つ目以降のサブグループの中心が一つ前のサブグループの中心に対して、時間的な遅延を持って追従していると仮定してサブグループの中心の目標状態を推定する。   The present invention is a group tracking device connected to a sensor that detects an object, having a processor and a memory, the sensor information input unit receiving observation data from the sensor, and detecting a moving object from the observation data A target state estimation unit for estimating the target state of the moving object, and a target information output unit for outputting the target state estimated by the target state estimation unit, the target state estimation unit including a plurality of movements A group composed of objects is detected, the inside of the group is divided into a plurality of sub-groups, the centers of these sub-groups are calculated, and the sub-groups are connected by a broken line with the center as a bending point. Assuming that the center of the first and subsequent subgroups follows the center of the previous subgroup with a time delay, the target state of the center of the subgroup is estimated.

本発明によれば、全体平均と異なる振る舞いをする移動物体をサブグループによって表現することが可能になる。また、折れ線を用いることで道路の曲がり角等のような群全体と個々の移動目標の振る舞いが大きく異なる場合を表現することが可能になる。   According to the present invention, it is possible to represent moving objects that behave differently from the overall average by means of subgroups. Moreover, it becomes possible to express the case where the behavior of the whole group and each moving target differ greatly like the corner of a road, etc. by using a polygonal line.

本発明の第1の実施例における、群トラッキング装置の機能構成を示すブロック図である。It is a block diagram showing functional composition of a group tracking device in a 1st example of the present invention. 本発明の第1の実施例における、群トラッキングの観測対象となる、道路上を縦列走行する車両群の振る舞いの例を示す図である。It is a figure which shows the example of the behavior of the vehicle group which carries out parallel driving on the road used as the observation object of group tracking in 1st Example of this invention. 従来技術における群のモデル化(楕円モデル)を、図2に示した道路上を縦列走行する車両群に適用した場合の例を示す図である。It is a figure which shows the example at the time of applying the modeling (ellipse model) in a prior art to the vehicle group which carries out parallel traveling on the road shown in FIG. 本発明の第1の実施例における、群のモデル化(折れ線モデル)を、図2に示した道路上を縦列走行する車両群に適用した場合の例を示す図である。FIG. 5 is a diagram showing an example of the case where modeling of a group (broken line model) in the first embodiment of the present invention is applied to a vehicle group traveling in parallel on the road shown in FIG. 2; 本発明の第1の実施例における、群とサブグループと折れ線の関係を示す図である。It is a figure which shows the relationship of a group, a subgroup, and a broken line in the 1st Example of this invention. 本発明の第1の実施例における、群トラッキング装置の制御部にて実行される、群トラッキング処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the group tracking process performed by the control part of the group tracking apparatus in 1st Example of this invention. 本発明の第1の実施例の制御部において実行される、目標状態推定部の基本となる折れ線モデルの、第一の例を示す図である。It is a figure which shows the 1st example of the polygonal line model used as the basis of a target state estimation part performed in the control part of the 1st Example of this invention. 本発明の第1の実施例の制御部において実行される、目標状態推定部の一実施例である折れ線モデルの、第二の例を示す図である。It is a figure which shows the 2nd example of the polygonal line model which is one Example of the target state estimation part performed in the control part of the 1st Example of this invention. 本発明の第2の実施例における、群トラッキング装置の機能構成を示すブロック図である。It is a block diagram showing functional composition of a group tracking device in a 2nd example of the present invention. 本発明の第2の実施例において、複数の異種センサを利用して対象地域を観測する場合の例を示す図である。FIG. 11 is a diagram showing an example of observing a target area using a plurality of different types of sensors in the second embodiment of the present invention. 本発明の第2の実施例において、レーダを利用した場合の観測データの例を示す図である。FIG. 8 is a diagram showing an example of observation data when a radar is used in the second embodiment of the present invention. 本発明の第2の実施例において、UAVを利用した場合の観測データの例を示す図である。It is a figure which shows the example of the observation data at the time of utilizing UAV in the 2nd Example of this invention. 本発明の第2の実施例の変形例を示し、群トラッキング装置の機能構成を示すブロック図である。It is a block diagram which shows the modification of the 2nd Example of this invention, and shows the function structure of a group tracking apparatus.

本発明の1つの実施形態によれば、群トラッキング装置は、制御部と、前記制御部に接続される受信部と、を備え、前記受信部は、センサからの観測データを時々刻々と受信し、前記制御部は、前記受信部から前記観測データを受け取り、複数の移動目標(移動物体)から成る群を複数のサブグループに分割して、サブグループの中心を屈曲点とする折れ線で表現し、折れ線の2つ目以降のサブグループの中心は一つ前のサブグループの中心に対して、時間的な遅延を持って追従していると仮定して、目標状態を推定することを特徴とする。   According to one embodiment of the present invention, a group tracking device includes a control unit, and a receiving unit connected to the control unit, and the receiving unit receives observation data from a sensor every moment The control unit receives the observation data from the receiving unit, divides a group consisting of a plurality of moving targets (moving objects) into a plurality of sub-groups, and expresses the group as a broken line with the center of the sub-group as a bending point. , Assuming that the center of the second and subsequent subgroups of the polygonal line follows the center of the previous subgroup with a temporal delay, the target state is estimated. Do.

なお、本実施形態では移動目標の軌跡を「航跡」と表現するが、本発明が対象とする目標は移動する物体である限り、例えば、車両、人又は船舶等、いかなるものであってもよい。また、本発明が対象とするセンサは、例えばレーダ、カメラ(定点監視用固定型、移動プラットフォーム搭載型、携帯型等)、音響センサ、振動センサ、カウンタ、人(目視報告、ソーシャルネットワークサービスに登録された情報等)等、目標の存在や移動を捉えるいかなるセンサであってもよい。   In the present embodiment, the trajectory of the moving target is expressed as “track”, but any target such as a vehicle, a person or a ship may be used as long as the target targeted by the present invention is a moving object. . Further, the sensors targeted by the present invention include, for example, radar, camera (fixed type for fixed point monitoring, mobile platform mounted type, portable type, etc.), acoustic sensor, vibration sensor, counter, human (visual report, social network service registration) It may be any sensor that captures the presence or movement of a target, such as

以下、図面を用いて本発明の実施例を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

本発明の第一実施例における群トラッキング装置を、図1乃至図7を参照しながら説明する。   A group tracking apparatus according to a first embodiment of the present invention will be described with reference to FIGS.

図1は、本発明の第一実施例における、群トラッキング装置100の機能構成を示すブロック図である。   FIG. 1 is a block diagram showing a functional configuration of the group tracking device 100 in the first embodiment of the present invention.

本実施例1の群トラッキング装置100は、PCやサーバのような計算機上で後述するプログラムを実行することによって実現される。具体的には、群トラッキング装置100は、プロセッサ10と、メモリ20と、ストレージ30と、受信部120と、表示部130と、指示部140とを備える。メモリ20には、制御部110がロードされて、プロセッサ10によって実行される。群トラッキング装置100はさらに、ストレージ30にパラメータ記憶部151、及び目標状態記憶部152が格納される。   The group tracking device 100 of the first embodiment is realized by executing a program described later on a computer such as a PC or a server. Specifically, the group tracking device 100 includes a processor 10, a memory 20, a storage 30, a reception unit 120, a display unit 130, and an instruction unit 140. The control unit 110 is loaded into the memory 20 and executed by the processor 10. The group tracking device 100 further stores a parameter storage unit 151 and a target state storage unit 152 in the storage 30.

本実施例1の制御部110は、センサ情報(観測データ)入力部111と、目標状態推定部112、及び目標状態出力部113とを含む。これらは、メモリ20に格納され、プロセッサ10によって実行されるプログラムに含まれる。すなわち、制御部110は、PCやサーバのような計算機がプログラムを実行することにより実現される。この計算機は、上述のプロセッサ10、メモリ20、ストレージ(外部記憶装置)30、ネットワークインタフェース等を備え、これらの各構成要素はバス等を介して互いに接続される。   The control unit 110 of the first embodiment includes a sensor information (observation data) input unit 111, a target state estimation unit 112, and a target state output unit 113. These are stored in the memory 20 and included in a program executed by the processor 10. That is, the control unit 110 is realized by a computer such as a PC or a server executing a program. This computer includes the processor 10, the memory 20, the storage (external storage device) 30, the network interface and the like described above, and these components are connected to one another via a bus or the like.

プロセッサ10は、ストレージ30に格納された各種のプログラムやデータベースのデータをメモリ20にロードし、プログラムを実行する。プロセッサ10がプログラムを実行することによって、制御部110の群トラッキング処理に必要な、センサ情報入力部111、目標状態推定部112及び目標状態出力部113の各機能を実現できる。メモリ20は、プロセッサ10によって実行されるプログラム及び当該プログラムの実行に必要なデータを格納する。   The processor 10 loads data of various programs and databases stored in the storage 30 into the memory 20 and executes the program. When the processor 10 executes a program, each function of the sensor information input unit 111, the target state estimation unit 112, and the target state output unit 113 necessary for the group tracking processing of the control unit 110 can be realized. The memory 20 stores a program to be executed by the processor 10 and data required to execute the program.

受信部120は、センサ160と接続され、センサ160からの時系列データである観測データ(Z)を制御部110に取り込むためのインタフェース装置である。センサ160により時々刻々と取得される観測データの取り込みは、ステップ毎でもよいし、ストリーミングによって取り込まれてもよい。なお、センサ160は、例えば、上述のレーダなどで構成され、観測データ(Z)は、例えば、位置(方位と距離)に関する情報である。   The receiving unit 120 is an interface device that is connected to the sensor 160 and takes in observation data (Z) that is time-series data from the sensor 160 into the control unit 110. The acquisition of observational data acquired from time to time by the sensor 160 may be performed step by step or may be acquired by streaming. The sensor 160 is configured by, for example, the above-described radar or the like, and the observation data (Z) is, for example, information on a position (bearing and distance).

表示部130は、制御部110からの出力を表示するディスプレイ装置等であり、制御部110にて計算された群トラッキング処理の結果を表示するために用いる。指示部140は、制御部110への入力を行うマウスや、キーボード等の装置であり、群トラッキング装置を操作するオペレータによる指示を入力するために用いる。なお、表示部130と指示部140は、ユーザインタフェースとして入出力手段が一体的に構成されたものであっても良い。また、観測データの群トラッキング装置100への入力手段は、受信部120に限定されるものではなく、観測データを遂次群トラッキング装置100へ提供できるものであればよい。   The display unit 130 is a display device or the like that displays the output from the control unit 110, and is used to display the result of the group tracking process calculated by the control unit 110. The instruction unit 140 is a device such as a mouse or a keyboard that performs input to the control unit 110, and is used to input an instruction by an operator who operates the group tracking device. The display unit 130 and the instruction unit 140 may be integrally configured with input / output means as a user interface. Further, the means for inputting observation data to the group tracking device 100 is not limited to the receiving unit 120, and any means capable of providing observation data to the continuous group tracking device 100 may be used.

パラメータ記憶部151及び目標状態記憶部152は、制御部110に接続するHDD等の記憶装置を含むストレージ30に格納されるファイル又はデータベース、又はメモリに一時的に格納されるデータを示す。   The parameter storage unit 151 and the target state storage unit 152 indicate files or databases stored in the storage 30 including a storage device such as an HDD connected to the control unit 110 or data temporarily stored in the memory.

図2は、本発明の群トラッキング装置100の観測対象となる、道路50上を縦列走行する車両群(図中、移動目標)の振る舞いの例を示す図である。図中T1からT6までは車両を表し、これらの車両T1〜T6が群(車列)を形成し、道路に沿って縦列走行している状況を表している。図中t=k−1、t=k、t=k+1は時間が一定間隔で経過している様子を表している。   FIG. 2 is a view showing an example of the behavior of a group of vehicles (moving targets in the figure) traveling in parallel on the road 50, which is an observation target of the group tracking device 100 of the present invention. In the drawing, T1 to T6 represent vehicles, and these vehicles T1 to T6 form a group (car train), and represent a situation in which the vehicles travel in tandem along the road. In the figure, t = k−1, t = k, and t = k + 1 indicate that time elapses at regular intervals.

図中時刻t=k−1では、先頭の車両T1と、次の車両T2がカーブへ進入する。次の時刻t=kでは、先頭の車両T1が、カーブを抜け、次の車両T2と車両T3がカーブを通過する。さらに、時刻t=k+1では、中団の車両T4がカーブを抜け、次の車両T5、T6がカーブを通過する。   At time t = k-1 in the drawing, the leading vehicle T1 and the next vehicle T2 enter a curve. At the next time t = k, the leading vehicle T1 leaves the curve, and the next vehicle T2 and the vehicle T3 pass the curve. Furthermore, at time t = k + 1, the vehicle T4 in the middle group passes the curve, and the next vehicles T5 and T6 pass the curve.

図3は、前記従来技術の群トラッキングにおける群のモデル化(楕円モデル)を、図2に示した道路50上を縦列走行する車両(移動目標)群に適用した場合の例を示す図である。図中G1は図2の車両T1からT6に対応する車両群を表し、群全体の状態を、群の中心(位置)と、中心の平均速度ベクトル、及び車両の存在範囲(楕円)によって表している。   FIG. 3 is a diagram showing an example in which group modeling (elliptic model) in group tracking in the prior art is applied to a group of vehicles (moving targets) traveling in tandem on the road 50 shown in FIG. . In the figure, G1 represents a vehicle group corresponding to the vehicles T1 to T6 in FIG. 2, and the state of the entire group is represented by the center (position) of the group, the average velocity vector of the center, and the existing range of the vehicle (ellipse). There is.

道路50の直線部では、群G1全体と個々の移動目標とでは速度ベクトルの向きはほぼ揃っているが、曲がり角では、群全体と個々の移動目標の振る舞いが大きく異なり、前記従来例のように群に着目した近似がうまくいかないという問題が発生している。   In the straight part of the road 50, the direction of the velocity vector is almost the same between the whole group G1 and each moving target, but at the corner, the behavior of the whole group and each moving target is largely different. There is a problem that approximations focusing on groups fail.

すなわち、図3において、時刻t=k−1において、道路50の直線部を走行している車両T4〜T6の速度ベクトルは、前記従来例で述べたように、群G1の中心の平均速度ベクトルと、平均からの差分で近似することは可能である。   That is, in FIG. 3, at time t = k-1, the velocity vector of the vehicles T4 to T6 traveling on the straight part of the road 50 is the average velocity vector at the center of the group G1, as described in the conventional example. And it is possible to approximate by the difference from the mean.

しかし、道路50のカーブ(または交差点等)に侵入した車両T1、T2の速度ベクトルを、前記従来例で示した時刻t=k−1の群G1の中心の平均速度ベクトルと差分から推定するのは、速度ベクトルの方向成分が大きく異なるため困難である。   However, the velocity vector of the vehicles T1 and T2 entering the curve (or intersection etc.) of the road 50 is estimated from the average velocity vector of the center of the group G1 at time t = k-1 shown in the prior art and the difference Is difficult because the directional components of the velocity vector are largely different.

図4Aは、本発明の群トラッキング装置100における群のモデル化(折れ線モデル)を、図2に示した道路50上を縦列走行する車両群に適用した例を示す図である。図2の車両T1からT6と、図3の群G1に対応する車両群を、サブグループg1、g2、及びg3の3つに分割し、各サブグループg1〜g3の状態を、サブグループの中心c1〜c3と、平均速度ベクトルV1〜V3、及び存在範囲(楕円)によって表している。   FIG. 4A is a diagram showing an example in which modeling of a group (broken line model) in the group tracking device 100 of the present invention is applied to a vehicle group traveling in parallel on the road 50 shown in FIG. The vehicle group corresponding to the vehicles T1 to T6 in FIG. 2 and the group G1 in FIG. 3 is divided into three sub groups g1, g2 and g3 and the state of each sub group g1 to g3 is the center of the sub group It is represented by c1 to c3, average velocity vectors V1 to V3, and an existing range (ellipse).

図4Aのように車両群を折れ線L1,L2を表現すると、個々の移動目標(車両T1〜T6)の振る舞い(速度ベクトル)と、各車両T1〜T6に対応するサブグループg1〜g3の振る舞い(平均速度ベクトルV1〜V3)の差を小さくすることが可能になる。群全体の状態は、サブグループの中心c1〜c3を屈曲点として接続された折れ線L1、L2で近似できるので、このような群のモデル化を本実施例では折れ線モデルと呼ぶ。   When the vehicle group is expressed by broken lines L1 and L2 as shown in FIG. 4A, the behavior (velocity vector) of each moving target (vehicles T1 to T6) and the behavior of subgroups g1 to g3 corresponding to the respective vehicles T1 to T6 ( It is possible to reduce the difference between the average velocity vectors V1 to V3). Since the state of the entire group can be approximated by broken lines L1 and L2 connected with the centers c1 to c3 of the subgroups as inflection points, modeling of such a group is called a broken line model in this embodiment.

図4Bは、図3に示した群G1と、図4Aに示したサブグループg1〜g3と折れ線の関係を示す図である。   FIG. 4B is a diagram showing the relationship between the group G1 shown in FIG. 3 and the subgroups g1 to g3 shown in FIG. 4A and broken lines.

サブグループg1〜g3の中心c1〜c3を接続する折れ線L1、L2は、車列が直進しているときには直線となり、道路50のカーブを車列が通過する際に、折れ線L1、L2は、屈曲する。道路50のカーブにおいて、サブグループg1〜g3の間となるサブグループg2の中心c2が屈曲点となる。   The broken lines L1 and L2 connecting the centers c1 to c3 of the subgroups g1 to g3 become straight lines when the train is straight and when the train passes through the curve of the road 50, the broken lines L1 and L2 bend Do. In the curve of the road 50, the center c2 of the subgroup g2 between the subgroups g1 to g3 is the inflection point.

そして、折れ線L1、L2は、車列の変形に応じて直線または折れ線に変化するが、車列の状態にかかわらず前記従来例の群G1の内側に位置する。したがって、本実施例1では、折れ線L1、L2が車列の全体を示す群G1を表す。なお、本実施例1では、折れ線を2つの線分L1、L2で構成する例を示したが、線分の数はサブグループの分割数に応じて変化する。また、サブグループの分割数は、後述するように、クラスタリングによって決定される。   The broken lines L1 and L2 change to straight lines or broken lines according to the deformation of the train, but are located inside the group G1 of the conventional example regardless of the state of the train. Therefore, in the first embodiment, the broken lines L1 and L2 represent the group G1 indicating the entire vehicle train. In the first embodiment, an example in which a broken line is configured by two line segments L1 and L2 is shown, but the number of line segments changes according to the number of divisions of the sub group. Also, the number of subgroups is determined by clustering as described later.

図5は、本実施例1における群トラッキング装置100の制御部110にて実行される、群トラッキング処理の流れを示すフローチャートである。群トラッキング処理は、前回のステップから今回のステップまでの観測データを取り込みながら、逐次的に実施される処理である。なお、図5の処理は、群トラッキング装置100の起動後から終了までの間で繰り返して実行される。   FIG. 5 is a flowchart showing the flow of the group tracking process executed by the control unit 110 of the group tracking device 100 according to the first embodiment. The group tracking process is a process that is sequentially performed while capturing observation data from the previous step to the current step. The process of FIG. 5 is repeatedly performed from the start to the end of the group tracking device 100.

処理が開始されると、最初にセンサ情報入力部111において、センサ160からの観測データを入力する(ステップ1001)。観測データは、移動目標の位置、速度等を抽出した結果であるが、誤差や欠測、ノイズ等が含まれている。図5には明示されていないが、必要に応じて、センサの種別に応じて異なるデータ形式(例えば、座標系等)の変換や、観測タイミングの同期等の調整を群トラッキング装置100で実施し、以降の処理で使用するデータ形式に変換してもよい。   When the process is started, observation data from the sensor 160 is first input in the sensor information input unit 111 (step 1001). The observation data is the result of extracting the position, velocity, and the like of the movement target, but includes errors, missing data, noise, and the like. Although not clearly shown in FIG. 5, the group tracking device 100 performs adjustment such as conversion of different data format (for example, coordinate system etc.) according to the type of sensor, synchronization of observation timing, etc., if necessary. , May be converted to a data format used in the subsequent processing.

次に、目標状態推定部112において、ステップ1001にて入力された観測データと、前回のループで予測した目標状態とを対応付けるデータ相関が実施される(ステップ1002)。目標状態推定部112は、群レベルでの相関と、サブグループレベルでの相関と、個々の目標(車両)レベルでの相関とを段階的に行う。   Next, in the target state estimation unit 112, data correlation is performed to associate the observation data input in step 1001 with the target state predicted in the previous loop (step 1002). The target state estimation unit 112 performs the correlation at the group level, the correlation at the sub group level, and the correlation at the individual target (vehicle) level in stages.

目標状態推定部112は、観測データに対応する群が、前回予測した目標状態に存在するか否かの判定を行う(ステップ1003)。目標状態推定部112は、対応する群が存在しない観測データについて、新たな群の検出処理を実施する(ステップ1004)。   The target state estimation unit 112 determines whether the group corresponding to the observation data is present in the previously predicted target state (step 1003). The target state estimation unit 112 performs a new group detection process on observation data for which there is no corresponding group (step 1004).

目標状態推定部112は、検出された群をさらに、複数のサブグループに分割し、サブグループを生成する(ステップ1005)。ステップ1004の群検出及びステップ1005のサブグループの生成は、公知または周知のクラスタリング手法等に基づいて実施する。例えば、先頭の車両から所定数ごとや、全体の数に対して所定の比率ごとにサブグループへ分割するようにしてもよい。   The target state estimation unit 112 further divides the detected group into a plurality of subgroups, and generates a subgroup (step 1005). The group detection in step 1004 and the generation of subgroups in step 1005 are performed based on a known or known clustering method or the like. For example, the vehicle may be divided into subgroups by a predetermined number from the leading vehicle or by a predetermined ratio to the total number.

次に、目標状態推定部112は、観測データに基づいて目標状態を更新する(ステップ1006)。新たに検出された群に対応する目標状態(前回の予測結果)は、初期値をそのまま目標状態とする。既存の群に対応する目標状態は観測データに基づいて目標状態が更新される。また、目標状態推定部112は、サブグループg1〜g3の中心c1〜c3を算出し、各中心c1〜c3の目標状態(位置と平均速度ベクトル)についても算出する。なお、サブグループの中心c1〜c3の演算については、前記従来例の群G1の中心を算出する手法を用いることができる。   Next, the target state estimation unit 112 updates the target state based on the observation data (step 1006). The target state (previous prediction result) corresponding to the newly detected group has the initial value as it is. The target states corresponding to the existing groups are updated based on the observation data. Further, the target state estimation unit 112 calculates the centers c1 to c3 of the subgroups g1 to g3 and also calculates the target states (the position and the average velocity vector) of the centers c1 to c3. Note that a method of calculating the center of the group G1 of the conventional example can be used for the calculation of the centers c1 to c3 of the subgroups.

次に、目標状態出力部113において、更新された目標状態が出力される(ステップ1007)。出力された目標状態は、目標状態記憶部152に蓄積される。群トラッキング装置100の使用者の目視確認のため、目標状態出力部113が更新された目標状態を表示部130に出力するようにしてもよい。   Next, the target state output unit 113 outputs the updated target state (step 1007). The output target state is accumulated in the target state storage unit 152. The target state output unit 113 may output the updated target state to the display unit 130 for visual confirmation of the user of the group tracking device 100.

次に、目標状態推定部112は、終了条件が満足されているか否かの判定を行い(ステップ1008)、終了条件が満足されない場合には、次の目標状態を予測し(ステップ1009)、最初のステップ1001に戻って上記処理を繰り返す。なお、終了条件は、例えば群トラッキング装置100の終了や、処理の停止の受付などの所定の条件である。   Next, the target state estimation unit 112 determines whether the termination condition is satisfied (step 1008), and when the termination condition is not satisfied, predicts the next target state (step 1009). Return to step 1001 of and repeat the above process. The end condition is, for example, a predetermined condition such as the end of the group tracking device 100 or the acceptance of the stop of the process.

また、目標状態の予測(推定演算)は、次回の演算周期または所定時間後における個々の車両T1〜T6の目標状態(位置、速度)と、サブグループg1〜g3の中心c1〜c3の目標状態(位置、平均速度ベクトル)とを目標状態推定部112が推定する。なお、目標状態の推定演算については、前記従来例の特許文献や非特許文献の技術を適用すればよい。   Further, the prediction of the target state (estimation calculation) is the target state (position, speed) of each vehicle T1 to T6 after the next calculation cycle or a predetermined time, and the target state of the centers c1 to c3 of the subgroups g1 to g3. The target state estimation unit 112 estimates (position, average velocity vector). In addition, what is necessary is just to apply the technique of the patent document of the said prior art example, and a nonpatent literature about estimation operation of a target state.

なお、上記の例では、前回の予測結果(目標状態)に対応する群が存在しない観測データについて、新たな群の検出を行う例を示したが、これに限定されるものではなく、例えば、新たな観測データを検出すると、サブグループを更新するようにしてもよい。このサブグループの更新は、既存のサブグループに新たな観測データを対応付けたり、群G1内のサブグループの数を増加させることができる。   In the above example, a new group is detected for observation data in which there is no group corresponding to the previous prediction result (target state). However, the present invention is not limited to this. For example, When new observation data is detected, the subgroups may be updated. The update of this subgroup can associate new observation data with the existing subgroup or increase the number of subgroups in the group G1.

また、上記の例では、前回の予測結果(目標状態)に対応する群が存在しない観測データについて、新たな群の検出を行う例を示したが、これに限定されるものではなく、例えば、前回の目標状態が観測データから消失した場合に、サブグループを更新するようにしてもよい。このサブグループの更新は、既存の目標状態をサブグループから削除したり、群G1内のサブグループの数を減少させることができる。また、前回の目標状態が観測データから消失した場合は、ノイズなどによる影響もあるので、所定時間あるいは所定のループ数を超えて観測データから消失した場合、既存の目標状態を削除するようにしてもよい。   In the above example, a new group is detected for observation data in which there is no group corresponding to the previous prediction result (target state). However, the present invention is not limited to this. For example, The subgroup may be updated when the previous target state disappears from the observation data. This sub-group update can delete existing target states from the sub-groups or reduce the number of sub-groups in group G1. In addition, when the previous target state disappears from the observation data, there is also an influence by noise etc. Therefore, when it disappears from the observation data after a predetermined time or a predetermined number of loops, the existing target state is deleted. It is also good.

以上のように、目標状態推定部112では、センサ160からの観測データから移動物体(移動目標)の集合である群を検出し、さらに、群の内部を複数の移動物体の集合であるサブグループg1〜g3に分割する。そして、目標状態推定部112は、サブグループg1〜g3の代表点である中心を算出し、この中心について目標状態を推定し、先頭のサブグループから2つ目以降のサブグループの中心は一つ前のサブグループの中心に対して、時間的な遅延を持って追従していると仮定して目標状態を推定演算する。   As described above, the target state estimation unit 112 detects a group which is a set of moving objects (moving targets) from observation data from the sensor 160, and further, a sub group which is a set of a plurality of moving objects in the group Divide into g1 to g3. Then, the target state estimation unit 112 calculates the center which is a representative point of the subgroups g1 to g3, estimates the target state for this center, and the center of the second and subsequent subgroups from the first subgroup is one The target state is estimated and calculated on the assumption that the center of the previous subgroup is followed with a temporal delay.

また、目標状態推定部112では、センサ160からの観測データから個々の移動物体の個々の目標状態を算出し、航跡を推定する。そして、目標状態推定部112では、データ相関によってサブグループの目標状態と、個々の移動物体の目標状態を対応付ける。これによって、道路を移動する車列のように、複数のサブグループの中心が一つ前のサブグループの中心に対して時間的な遅延を持って追従する観測対象に対して、車両の台数や航跡を正確にトラッキングすることができる。   Further, the target state estimation unit 112 calculates individual target states of the individual moving objects from the observation data from the sensor 160, and estimates the track. Then, the target state estimation unit 112 associates the target states of the subgroups with the target states of the individual moving objects by data correlation. As a result, the number of vehicles and the number of vehicles for which the centers of the plurality of subgroups follow the center of the immediately preceding subgroup with a time delay, such as a train of cars traveling on a road Tracks can be tracked accurately.

目標状態推定部112では、サブグループの中心を線分で接続して目標状態出力部113へ出力することで、サブグループの中心を屈曲点とする折れ線モデルで表現することができる。   In the target state estimation unit 112, the centers of the subgroups are connected by line segments and output to the target state output unit 113, whereby the target state estimation unit 112 can be represented by a polygonal line model with the centers of the subgroups as bending points.

図6は、本実施例1の制御部110において実行される、目標状態推定部112の基本となる折れ線モデルの、第一の例を示す図である。   FIG. 6 is a diagram showing a first example of a broken line model, which is a basis of the target state estimation unit 112, executed in the control unit 110 of the first embodiment.

ここで、x1、k-1〜x3、k+1は各時刻におけるサブグループの状態を表し、xi,kは時刻t=kにおけるサブグループgの状態を表す。ただし、本実施例1ではi=1〜3とする例をしている。また、本実施例1では、時刻t=kにおけるサブグループiの状態xi,kを、サブグループgの中心cの座標(x,y)と速度ベクトルによって表す例を示している。 Here, x 1, k−1 to x 3, k + 1 represent the state of the subgroup at each time, and x i, k represents the state of the subgroup g i at time t = k. However, in the first embodiment, an example in which i = 1 to 3 is used. Further, in the first embodiment, an example is shown in which the state x i, k of the sub group i at time t = k is represented by the coordinates (x, y) of the center c i of the sub group g i and the velocity vector.

図中1は時刻t=kにおけるサブグループgの状態を示し、矢印2、3は次の時刻t=k+1への状態xi,kの伝搬を表す。この折れ線モデルは、ある時刻におけるサブグループgの状態は次の時刻の、自分自身gと一つ後ろのサブグループgi+1に影響を与えていることを表す。 In the figure, 1 indicates the state of the subgroup g i at time t = k, and arrows 2 and 3 indicate the propagation of the state x i, k to the next time t = k + 1. This polygonal line model indicates that the state of the subgroup g i at a certain time affects the next time self g i and the next subgroup g i + 1 .

すなわち、サブグループg1の状態x1、k-1は、次回の処理のサブグループg2の状態x2、kに影響を与え、次回の処理のサブグループg2の状態x2、kは、その次の処理のサブグループg3の状態x3、k+1に影響を与える。図4Aにおいて、道路50上を移動する群G1は、サブグループg1が通過した地点を、次のサブグループg2が通過し、さらに同じ地点をサブグループg3が通過することを示している。 That is, the state x1 , k-1 of the subgroup g1 affects the state x2 , k of the subgroup g2 of the next process, and the state x2 , k of the subgroup g2 of the next process is the next It affects the state x 3, k + 1 of the processing sub-group g 3 . In FIG. 4A, the group G1 moving on the road 50 indicates that the next subgroup g2 passes through the point where the subgroup g1 passes, and the subgroup g3 passes through the same point.

図6のモデルに基づく状態方程式及び観測方程式の一例を、以下の数式を用いて説明する。次の数式(1)〜(5)は図6のモデルに基づく状態方程式を示す。   An example of a state equation and an observation equation based on the model of FIG. 6 will be described using the following equation. The following equations (1) to (5) show the state equation based on the model of FIG.

Figure 0006503267
Figure 0006503267

数式(1)は、対象となる観測対象である群G1の状態Xkを表す。ここでは、群G1の状態Xkをすべてのサブグループgの状態xi,kからなるベクトルによって表している。サブグループgの状態xi,kは、サブグループの中心c1〜c3の座標と速度ベクトルによって表されている。なお、数式のTは転置行列を示す。 Formula (1) represents the state Xk of the group G1 that is the target observation target. Here, the state Xk of the group G1 is represented by a vector consisting of the states x i, k of all subgroups g i . The state x i, k of the subgroup g i is represented by the coordinates of the centers c1 to c3 of the subgroup and the velocity vector. Note that T in the equation indicates a transposed matrix.

Figure 0006503267
Figure 0006503267

数式(2)は、システムの状態の時間的な変化を表す状態方程式である。ここで、あるステップの群G1の状態Xkは、一つ前のループの群G1の状態Xkに依存する第一項(Fk−1)とランダムな撹乱(Gv)による第二項からなると仮定している。なお、ランダムな撹乱はノイズや誤差などを表す項である。また、a〜d、α、βは所定のパラメータや係数を示す。 Equation (2) is a state equation representing temporal changes in the state of the system. Here, the state Xk of the group G1 of a certain step is a first term ( Fk X k-1 ) depending on the state Xk of the group G1 of the immediately preceding loop and a second term by random disturbance (Gv k ) It is assumed that it consists of Note that random disturbance is a term that represents noise or an error. Further, a to d, α, and β indicate predetermined parameters and coefficients.

Figure 0006503267
Figure 0006503267

数式(3)は、第一項の係数行列Fを表す。図6の矢印2、3に対応する係数が0でない要素を持つようになっている。 Equation (3) represents the first term coefficient matrix F k . The coefficients corresponding to arrows 2 and 3 in FIG. 6 are designed to have non-zero elements.

Figure 0006503267
Figure 0006503267

数式(4)は、第二項の係数行列Gを表す単位行列である。   Equation (4) is an identity matrix that represents the second term coefficient matrix G.

Figure 0006503267
Figure 0006503267

数式(5)は、第二項のランダムな撹乱vを表す。ここで、ランダムな撹乱は正規分布に従うと仮定した。 Equation (5) represents the second term random disturbance v k . Here, it was assumed that random disturbances were normally distributed.

次の数式(6)〜(9)は図6のモデルに基づく観測方程式を示す。   The following equations (6) to (9) show observation equations based on the model of FIG.

Figure 0006503267
Figure 0006503267

数式(6)は、対象となる群G1の観測Zkを表す。ここでは、群G1の観測をすべてのサブグループgの観測からなるベクトルによって表している。サブグループgの観測は、中心c1〜c3の座標のみとしている。なお、数式(6)において「^」は前回のxやyとは異なるという意味である。 Expression (6) represents the observation Zk of the target group G1. Here, the observations of group G1 are represented by a vector consisting of the observations of all subgroups g i . The observation of the subgroup g i is only the coordinates of the centers c1 to c3. In equation (6), “^” means that it is different from the previous x and y.

Figure 0006503267
Figure 0006503267

数式(7)は、対象となる群G1の観測方程式を表す。ここで、あるループkの観測は、そのループkの群G1の状態に依存する第一項(HX)と、ランダムな撹乱項(w)からなると仮定している。 Formula (7) represents the observation equation of the group G1 which becomes object. Here, it is assumed that the observation of a certain loop k consists of a first term (HX k ) depending on the state of the group G1 of the loop k, and a random disturbance term (w k ).

Figure 0006503267
Figure 0006503267

数式(8)は、第一項の係数行列Hを表す。   Equation (8) represents the first term coefficient matrix H.

Figure 0006503267
Figure 0006503267

数式(9)は、第二項のランダムな撹乱wを表す。ここで、ランダムな撹乱は正規分布に従うと仮定した。 Equation (9) represents the random disturbance w k in paragraph. Here, it was assumed that random disturbances were normally distributed.

図7は、本実施例1の制御部110において実行される、目標状態推定部112の基本となる折れ線モデルの、第二の例を示す図である。図6と同様に、1は各ステップにおけるサブグループの状態を示し、矢印2は次のステップへの状態xi,kの伝搬を表す。双方向の矢印4は、サブグループg間の拘束条件を表す。 FIG. 7 is a diagram showing a second example of a broken line model, which is a basis of the target state estimation unit 112, executed in the control unit 110 of the first embodiment. As in FIG. 6, 1 indicates the state of the subgroup in each step, and arrow 2 indicates the propagation of the state x i, k to the next step. The double-headed arrow 4 represents the constraint between subgroups g i .

図7のモデルに基づくサブグループg間の拘束条件の一例を、数式を用いて説明する。 An example of the constraint conditions between the sub-groups g i based on the model of FIG. 7 will be described using formulas.

Figure 0006503267
Figure 0006503267

数式(10)は、サブグループg間の拘束条件を表す。数式(10)において、Di、i+1は車両T1〜T6間の距離を示す。この拘束条件では縦列走行する車列のサブグループgの距離がほぼ一定に保たれていることを表している。これにより、時間的な遅延を持って追従しているサブグループ同士は、距離がほぼ一定になるような拘束条件を課すことができる。ここで、距離がほぼ一定とは、サブグループの中心間の距離の誤差が所定の閾値以下となる拘束条件であればよい。なお、距離の誤差は、上記数式(2)のランダムな撹乱Gvに含まれる。 Equation (10) represents the constraint between subgroups g i . In equation (10), Di , i + 1 indicate the distance between the vehicles T1 to T6. In this restraint condition, it is indicated that the distance between the subgroups g i of the vehicle train traveling in parallel is kept substantially constant. As a result, it is possible to impose a constraint such that the distances between the subgroups following with a temporal delay become substantially constant. Here, it is sufficient that the distance is substantially constant as long as an error in the distance between the centers of the subgroups is equal to or less than a predetermined threshold. The error of the distance is included in the random disturbance Gv k of the above equation (2).

以上のように、本実施例1では、センサ160からの観測データを時々刻々と受信し、制御部110が、受信された観測データを受け付けて、観測データから複数の移動目標から成る群を検出し、検出した群の内部を複数のサブグループに分割し、サブグループの中心を屈曲点とする折れ線で各サブグループの中心c1〜c3を接続する。そして、制御部110は、折れ線の2つ目以降のサブグループ(gi−1)の中心ci−1が一つ前のサブグループgの中心cに対して、時間的な遅延を持って追従していると仮定して目標状態を推定する。 As described above, in the first embodiment, observation data from the sensor 160 is received every moment, the control unit 110 receives the received observation data, and detects a group consisting of a plurality of movement targets from the observation data. Then, the inside of the detected group is divided into a plurality of sub-groups, and the centers c1 to c3 of the respective sub-groups are connected by a broken line whose center is the bending point. Then, the control unit 110 delays the temporal delay of the center c i-1 of the second and subsequent subgroups (g i-1 ) of the broken line with respect to the center c i of the immediately preceding subgroup g i. The target state is estimated on the assumption that it is held and followed.

本実施例1によれば、全体平均と異なる振る舞いをする車列(移動目標)をサブグループg1〜g3によって表現することが可能になる。また、道路50のカーブや交差点等のように、群G1全体と個々の車両(移動目標)の振る舞いが大きく異なる場合であっても、サブグループg1〜g3内で目標状態(位置、速度)の予測を正確に行うことができる。すなわち、サブグループg1〜g3毎の平均速度ベクトルで、サブグループg1〜g3内の車両T1〜T6の目標状態(速度ベクトル)を推定することで、平均からの差分が乖離するのを防いで、予測演算の精度を向上させることが可能となる。   According to the first embodiment, it is possible to express a train of vehicles (moving targets) having a behavior different from the overall average by the subgroups g1 to g3. In addition, even if the behavior of the entire group G1 and individual vehicles (moving targets) differ greatly, such as curves and intersections of the road 50, target states (positions, speeds) in the subgroups g1 to g3 are The prediction can be made accurately. That is, by estimating the target states (velocity vectors) of the vehicles T1 to T6 in the subgroups g1 to g3 with the average velocity vector for each of the subgroups g1 to g3, it is possible to prevent the difference from the average from diverging, It is possible to improve the accuracy of the prediction operation.

本発明の実施例2における群トラッキング装置100を、図8乃至図11を参照しながら説明する。   Second Embodiment A group tracking device 100 according to a second embodiment of the present invention will be described with reference to FIGS. 8 to 11.

図8は、本発明の第2の実施例における、群トラッキング装置100の機能構成を示すブロック図である。   FIG. 8 is a block diagram showing a functional configuration of the group tracking device 100 in the second embodiment of the present invention.

本実施例2の群トラッキング装置100の受信部120は、通信ネットワーク170を介して、複数のセンサ160−a、160−b〜160−nと接続され、複数のセンサ160−a〜160−nから時々刻々と取得される観測データを制御部110に取り込む。群トラッキング装置100の構成は、前記実施例1と同様である。   The receiving unit 120 of the group tracking device 100 according to the second embodiment is connected to the plurality of sensors 160-a and 160-b to 160-n through the communication network 170, and the plurality of sensors 160-a to 160-n The observation data acquired from moment to moment is taken into the control unit 110. The configuration of the group tracking device 100 is the same as that of the first embodiment.

図9は、本実施例2において、複数のセンサ160−a〜160−nを利用して対象地域Ar1を観測する例を示す図である。なお、以下ではセンサ160−a〜160−nの全体を符号160で表す。また、センサ160は、異なる種類で構成することができる。   FIG. 9 is a diagram illustrating an example of observing a target area Ar1 using a plurality of sensors 160-a to 160-n in the second embodiment. In the following, the whole of the sensors 160-a to 160-n is denoted by reference numeral 160. Also, the sensors 160 can be configured in different types.

図中160−aは、対象地域Ar1への流入(または侵入)する物体または対象地域Ar1から流出(または離脱)する物体を検出するために道路50−aの所定の地点Pt1設置されたセンサを表す。   In the figure, 160-a indicates a sensor installed at a predetermined point Pt 1 of the road 50-a to detect an object flowing into (or entering into) the target area Ar 1 or an object flowing out (or leaving) from the target area Ar 1 Represent.

群トラッキング装置100は、地点Pt1を通過して道路50−bへ向かう移動目標を検出すると、前記実施例1に示したサブグループの生成または更新を行う。前記実施例1の図5に示した群トラッキング処理において、ステップ1004の群検出とステップ1005のサブグループ生成は、センサ160−aからの観測データに基づいて実施してもよい。   When the group tracking device 100 detects a movement target passing the point Pt1 toward the road 50-b, the group tracking device 100 generates or updates the subgroup shown in the first embodiment. In the group tracking process shown in FIG. 5 of the first embodiment, the group detection in step 1004 and the subgroup generation in step 1005 may be performed based on observation data from the sensor 160-a.

図中160−bは、対象地域Ar1の全体を観測するために設置されたレーダのような広域監視センサを表す。レーダのようなセンサは、広域を観測することができるものの、地形や植生等による遮蔽の影響を受けやすく、観測データの欠損が多いと考えられる。   In the figure, 160-b represents a wide area monitoring sensor such as a radar installed to observe the entire target area Ar1. A sensor such as a radar can observe a wide area, but is susceptible to shielding due to topography, vegetation and the like, and it is thought that there are many missing observation data.

図中160−nは、対象地域Ar1のうちの重要な箇所(または領域)Ar2を観測するために活用するUAV(Unmanned Air Vehicle)に搭載したレーダ等の機動的なセンサを表す。UAVに搭載されたセンサ160−nは、地形等による遮蔽の影響は少ないものの、センサ160−aに比して観測範囲は狭くなると考えられる。   In the figure, 160-n represents a mobile sensor such as a radar mounted on a UAV (Unmanned Air Vehicle) used to observe an important part (or area) Ar 2 of the target area Ar 1. The sensor 160-n mounted on the UAV is considered to have a narrower observation range than the sensor 160-a although the influence of the shielding due to the topography or the like is small.

本実施例2では、前記実施例1の図5に示した群トラッキング処理において、ステップ1002のデータ相関にセンサ160−b及びセンサ160−nからの観測データを使用する。   In the second embodiment, in the group tracking process shown in FIG. 5 of the first embodiment, observation data from the sensor 160-b and the sensor 160-n is used for data correlation in step 1002.

センサ160−b及びセンサ160−nからの観測データはそれぞれ欠損や誤差等が含まれるため、前記従来例の処理では、同じ目標に対応する観測データの対応付けがうまくいくとは限らない。そして、前記従来例においては、観測データの欠損や誤差などについてすべての可能性を考慮すると、推定演算の対象とする観測データの組合せの数が爆発的に増大するという問題が発生する。   The observation data from the sensor 160-b and the sensor 160-n respectively include defects, errors, and the like, so in the process of the conventional example, it is not always successful to associate observation data corresponding to the same target. Further, in the above-described conventional example, in consideration of all the possibilities with respect to the loss or error of the observation data, there arises a problem that the number of combinations of the observation data to be the target of the estimation operation explosively increases.

しかし、本発明のように、センサ160−a〜160−nから受け付けた観測データについて、群トラッキング装置100がデータ相関を前記実施例1に示したサブグループ単位で行い、目標状態推定部112でサブグループ単位の推定演算を行うことで、目標状態の推定精度を上げるとともに、推定演算を行う観測データの組合せ数を削減できるという効果が得られる。   However, as in the present invention, the group tracking device 100 performs data correlation on the observation data received from the sensors 160-a to 160-n in units of subgroups shown in the first embodiment, and the target state estimation unit 112 By performing the estimation operation in units of subgroups, it is possible to improve the estimation accuracy of the target state and to reduce the number of combinations of observation data for which the estimation operation is performed.

例えば、図10において、図中丸印は、センサ160−bが検出した移動目標を示し、群トラッキング装置100が目標状態を推定した観測データである。図中三角印は、群トラッキング装置100が目標状態を推定したが、対応する観測データがないものでデータ欠損が発生した例を示す。図中四角印は、センサ160−bが検出したノイズを示し、群トラッキング装置100が前回の目標状態では推定されていない観測データある。   For example, in FIG. 10, circle marks in the figure indicate moving targets detected by the sensor 160-b, and are observation data in which the group tracking device 100 estimates target states. A triangle mark in the figure indicates an example in which the group tracking device 100 estimates the target state but there is no corresponding observation data and a data loss occurs. Square marks in the figure indicate noise detected by the sensor 160-b, and are observation data that are not estimated in the previous target state of the group tracking device 100.

次に、図11は、観測の対象地域Ar1上空のUAVから地表の対象地域Ar2で移動物体(移動目標)をセンサ160−nで検出した例を示す。図11において、図中丸印は、センサ160−nが検出した移動目標を示し、群トラッキング装置100が目標状態を推定した観測データである。図中三角印は、群トラッキング装置100が目標状態を推定したが、対応する観測データがないものでデータ欠損が発生した例を示す。センサ160−nが検出した移動目標は、図10のセンサ160−bでデータ欠損が生じた目標状態に対応する。   Next, FIG. 11 shows an example in which a moving object (moving target) is detected by the sensor 160-n in the target area Ar2 of the ground surface from the UAV above the target area Ar1 of observation. In FIG. 11, circle marks in the figure indicate moving targets detected by the sensor 160-n, and are observation data in which the group tracking device 100 estimates the target state. A triangle mark in the figure indicates an example in which the group tracking device 100 estimates the target state but there is no corresponding observation data and a data loss occurs. The moving target detected by the sensor 160-n corresponds to the target state in which data loss has occurred in the sensor 160-b of FIG. 10.

群トラッキング装置100は、センサ160−a〜160−nの複数のセンサ160からの観測データを入力として、前記実施例1の図5に示した処理を実行する。これにより、群トラッキング装置100では、図10のように、対象地域Ar1の全体を観測するセンサ160−bにデータ欠損が発生した場合も、対象地域Ar1の一部分を観測する160−nからの観測データによってデータの補完を行うことが可能となる。   The group tracking apparatus 100 receives the observation data from the plurality of sensors 160 of the sensors 160-a to 160-n and executes the process shown in FIG. 5 of the first embodiment. Thereby, in the group tracking device 100, as shown in FIG. 10, even when data loss occurs in the sensor 160-b observing the entire target area Ar1, observation from 160-n observing a part of the target area Ar1 The data makes it possible to supplement the data.

これにより、群トラッキング装置100は、観測データの一部にデータ欠損が発生しても移動目標の追尾を継続することが可能となるのである。なお、群トラッキング装置100は、データ欠損が発生した位置へUAVを誘導するようにしてもよい。   As a result, the group tracking device 100 can continue to track the moving target even if data loss occurs in part of the observation data. The group tracking device 100 may guide the UAV to the position where the data loss has occurred.

図12は、第2の実施例の変形例を示し、群トラッキング装置100の機能構成を示すブロック図である。センサ160−a〜160−nは、それぞれ群トラッキング装置100−a〜100−nに接続される。そして、群トラッキング装置100−a〜100−nは、通信ネットワーク170を介して相互に接続されて、複数のセンサ160からの観測データを補完する例を示す。   FIG. 12 is a block diagram showing a modification of the second embodiment and showing a functional configuration of the group tracking device 100. As shown in FIG. Sensors 160-a to 160-n are connected to group tracking devices 100-a to 100-n, respectively. The group tracking devices 100-a to 100-n are connected to one another via the communication network 170 to complement the observation data from the plurality of sensors 160.

センサ160−a〜160−nは、図9と同様である。群トラッキング装置100−a〜100−nは、それぞれ前記実施例1の群トラッキング装置100と同様の構成である。   The sensors 160-a to 160-n are the same as in FIG. 9. The group tracking devices 100-a to 100-n each have the same configuration as the group tracking device 100 of the first embodiment.

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に記載したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加、削除、又は置換のいずれもが、単独で、又は組み合わせても適用可能である。   The present invention is not limited to the embodiments described above, but includes various modifications. For example, the embodiments described above are described in detail in order to illustrate the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the configurations described. Also, part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. In addition, addition, deletion, or replacement of other configurations may be applied singly or in combination with some of the configurations of the respective embodiments.

また、上記の各構成、機能、処理部、及び処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、及び機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。   Further, each of the configurations, functions, processing units, processing means, and the like described above may be realized by hardware, for example, by designing part or all of them with an integrated circuit. In addition, each configuration, function, and the like described above may be realized by software by a processor interpreting and executing a program that realizes each function. Information such as a program, a table, and a file for realizing each function can be placed in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.

また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。   Further, control lines and information lines indicate what is considered to be necessary for the description, and not all control lines and information lines in the product are necessarily shown. In practice, almost all configurations may be considered to be mutually connected.

1 サブグループの状態
2、3 サブグループの状態の遷移
4 サブグループの状態の制約
10 プロセッサ
20 メモリ
30 ストレージ
100、100−a、100−b 群トラッキング装置
110 制御部
111 センサ情報入力部
112 目標状態推定部
113 目標状態出力部
120 受信部
130 表示部
140 指示部
151 パラメータ記憶部
152 目標状態記憶部
160 センサ
160−a、160−b センサ
1 Subgroup state 2, 3 Subgroup state transition 4 Subgroup state restriction 10 Processor 20 Memory 30 Storage 100, 100-a, 100-b Group tracking device 110 Control part 111 Sensor information input part 112 Target state Estimation unit 113 Target state output unit 120 Reception unit 130 Display unit 140 Instruction unit 151 Parameter storage unit 152 Target state storage unit 160 Sensor 160-a, 160-b Sensor

Claims (12)

プロセッサとメモリとを有し、物体を検出するセンサに接続された群トラッキング装置であって、
前記センサからの観測データを受け付けるセンサ情報入力部と、
前記観測データから移動物体を検出して当該移動物体の目標状態を推定する目標状態推定部と、
前記目標状態推定部で推定された目標状態を出力する目標情報出力部と、を含み、
前記目標状態推定部は、
複数の移動物体から構成される群を検出し、当該群の内部を複数のサブグループに分割し、これらサブグループの中心を算出し、前記サブグループの中心を屈曲点とする折れ線で接続し、折れ線の2つ目以降のサブグループの中心が一つ前のサブグループの中心に対して、時間的な遅延を持って追従していると仮定してサブグループの中心の目標状態を推定することを特徴とする群トラッキング装置。
A group tracking device having a processor and a memory and connected to a sensor for detecting an object, the group tracking device comprising:
A sensor information input unit that receives observation data from the sensor;
A target state estimation unit that detects a moving object from the observation data and estimates a target state of the moving object;
A target information output unit that outputs the target state estimated by the target state estimation unit;
The target state estimation unit
A group composed of a plurality of moving objects is detected, the inside of the group is divided into a plurality of subgroups, the centers of these subgroups are calculated, and the segments are connected by a broken line with the centers of the subgroups as bending points. Estimate the target state of the center of the subgroup assuming that the center of the second and subsequent subgroups of the polygonal line follows the center of the previous subgroup with a temporal delay Group tracking device characterized by
請求項1に記載の群トラッキング装置であって、
前記目標状態推定部は、
時間的な遅延を持って追従しているサブグループ同士は、サブグループ間の距離の誤差が所定の閾値以下になるような拘束条件を有することを特徴とする群トラッキング装置。
The group tracking device according to claim 1, wherein
The target state estimation unit
A group tracking device characterized in that subgroups following with a temporal delay have a constraint such that an error in distance between subgroups is less than or equal to a predetermined threshold.
請求項1に記載の群トラッキング装置であって、
前記目標状態は、
前記サブグループの中心の位置と、サブグループの中心の平均速度ベクトルとを含むことを特徴とする群トラッキング装置。
The group tracking device according to claim 1, wherein
The target state is
A group tracking device comprising a position of the center of the sub group and an average velocity vector of the center of the sub group.
請求項3に記載の群トラッキング装置であって、
前記目標状態推定部は、
前記複数の移動物体のそれぞれについて目標状態を演算し、前記サブグループと移動物体とを対応付けることを特徴とする群トラッキング装置。
The group tracking device according to claim 3, wherein
The target state estimation unit
A group tracking device, which calculates a target state for each of the plurality of moving objects, and associates the sub group with the moving objects.
プロセッサとメモリとを有し、移動物体を検出するセンサに接続された計算機で移動物体を監視する群トラッキング方法であって、
前記計算機が、前記センサからの観測データを受け付ける第1のステップと、
前記計算機が、前記観測データから移動物体を検出し、複数の移動物体から構成される群を検出する第2のステップと、
前記計算機が、前記群の内部を複数のサブグループに分割し、これらサブグループの中心を算出し、前記サブグループの中心を屈曲点とする折れ線で接続し、折れ線の2つ目以降のサブグループの中心が一つ前のサブグループの中心に対して、時間的な遅延を持って追従していると仮定してサブグループの中心の目標状態を推定する第3のステップと、
前記計算機が、前記推定された目標状態を出力する第4のステップと、
を含むことを特徴する群トラッキング方法。
A group tracking method for monitoring a moving object with a computer having a processor and a memory and connected to a sensor for detecting the moving object, comprising:
A first step of the computer receiving observation data from the sensor;
A second step of the computer detecting a moving object from the observation data and detecting a group consisting of a plurality of moving objects;
The computer divides the inside of the group into a plurality of subgroups, calculates the centers of these subgroups, connects them by a broken line with the center of the subgroup as a bending point, and the second and subsequent subgroups of the broken line A third step of estimating the target state of the center of the subgroup assuming that the center of the center follows the center of the previous subgroup with a temporal delay;
A fourth step of the computer outputting the estimated target state;
A group tracking method characterized in that it comprises:
請求項5に記載の群トラッキング方法であって、
前記第3のステップは、
時間的な遅延を持って追従しているサブグループ同士は、サブグループ間の距離の誤差が所定の閾値以下になるような拘束条件を有することを特徴とする群トラッキング方法。
The group tracking method according to claim 5, wherein
The third step is
A group tracking method characterized in that subgroups following with a temporal delay have a constraint such that an error in distance between subgroups is less than or equal to a predetermined threshold.
請求項5に記載の群トラッキング方法であって、
前記目標状態は、
前記サブグループの中心の位置と、サブグループの中心の平均速度ベクトルとを含むことを特徴とする群トラッキング方法。
The group tracking method according to claim 5, wherein
The target state is
A group tracking method comprising the position of the center of the sub group and the average velocity vector of the center of the sub group.
請求項7に記載の群トラッキング方法であって、
前記第3のステップは、
前記複数の移動物体のそれぞれについて目標状態を演算し、前記サブグループと移動物体とを対応付けることを特徴とする群トラッキング方法。
The group tracking method according to claim 7, wherein
The third step is
A group tracking method comprising: calculating a target state for each of the plurality of moving objects, and associating the sub group with the moving object.
プロセッサとメモリとを有し、移動物体を検出するセンサに接続された計算機で実行されるプログラムであって、
前記センサからの観測データを受け付ける第1のステップと、
前記観測データから移動物体を検出し、複数の移動物体から構成される群を検出する第2のステップと、
前記群の内部を複数のサブグループに分割し、これらサブグループの中心を算出し、前記サブグループの中心を屈曲点とする折れ線で接続し、折れ線の2つ目以降のサブグループの中心が一つ前のサブグループの中心に対して、時間的な遅延を持って追従していると仮定してサブグループの中心の目標状態を推定する第3のステップと、
前記推定された目標状態を出力する第4のステップと、
を前記計算機に実行させることを特徴するプログラム。
A program executed by a computer that has a processor and a memory and is connected to a sensor that detects a moving object,
A first step of receiving observation data from the sensor;
A second step of detecting a moving object from the observation data and detecting a group consisting of a plurality of moving objects;
The inside of the group is divided into a plurality of sub-groups, the centers of these sub-groups are calculated, connected by a broken line with the centers of the sub-groups as bending points, and the centers of the second and subsequent sub-groups of the broken line are one A third step of estimating a target state at the center of the subgroup assuming that the center of the previous subgroup is followed with a temporal delay;
A fourth step of outputting the estimated target state;
A program that causes the computer to execute the program.
請求項9に記載のプログラムであって、
前記第3のステップは、
前記時間的な遅延を持って追従しているサブグループ同士は、サブグループ間の距離の誤差が所定の閾値以下になるような拘束条件を有することを特徴とするプログラム。
The program according to claim 9, wherein
The third step is
The program which is characterized in that the subgroups following with a temporal delay have a constraint condition such that an error in distance between subgroups is equal to or less than a predetermined threshold.
請求項9に記載のプログラムであって、
前記目標状態は、
前記サブグループの中心の位置と、サブグループの中心の平均速度ベクトルとを含むことを特徴とするプログラム。
The program according to claim 9, wherein
The target state is
A program comprising the position of the center of the subgroup and an average velocity vector of the center of the subgroup.
請求項11に記載のプログラムであって、
前記第3のステップは、
前記複数の移動物体のそれぞれについて目標状態を演算し、前記サブグループと移動物体とを対応付けることを特徴とするプログラム。
The program according to claim 11, wherein
The third step is
A program comprising computing a target state for each of the plurality of moving objects, and associating the sub group with the moving object.
JP2015171784A 2015-09-01 2015-09-01 Group tracking device, group tracking method and program Active JP6503267B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015171784A JP6503267B2 (en) 2015-09-01 2015-09-01 Group tracking device, group tracking method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015171784A JP6503267B2 (en) 2015-09-01 2015-09-01 Group tracking device, group tracking method and program

Publications (2)

Publication Number Publication Date
JP2017049082A JP2017049082A (en) 2017-03-09
JP6503267B2 true JP6503267B2 (en) 2019-04-17

Family

ID=58278719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015171784A Active JP6503267B2 (en) 2015-09-01 2015-09-01 Group tracking device, group tracking method and program

Country Status (1)

Country Link
JP (1) JP6503267B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7069944B2 (en) * 2018-03-28 2022-05-18 住友電気工業株式会社 Environment detectors, environment detection systems, environment detection methods, and computer programs
EP4350382A1 (en) * 2021-05-25 2024-04-10 Panasonic Intellectual Property Management Co., Ltd. Detection system, sensor system, detection method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3650296B2 (en) * 1999-09-30 2005-05-18 三菱電機株式会社 Tracking device
US6552679B2 (en) * 2001-09-24 2003-04-22 Northrop Grumman Corporation Track grouper
JP5163087B2 (en) * 2007-12-12 2013-03-13 トヨタ自動車株式会社 Object detection device
FR2940465B1 (en) * 2008-12-18 2010-12-31 Valeo Vision Sas METHOD FOR DETECTING A TARGET OBJECT FOR A MOTOR VEHICLE
JP2014169865A (en) * 2013-03-01 2014-09-18 Hitachi Ltd Target tracking device, target tracking program and target tracking method

Also Published As

Publication number Publication date
JP2017049082A (en) 2017-03-09

Similar Documents

Publication Publication Date Title
JP6455113B2 (en) Object tracking method and apparatus
JP2014169865A (en) Target tracking device, target tracking program and target tracking method
US11300663B2 (en) Method for predicting a motion of an object
US9946935B2 (en) Object tracking device, object tracking method, and object tracking program
KR102238522B1 (en) Vehicle and method for generating map corresponding to three-dimentional space
KR101402206B1 (en) Multiple target tracking method with kinematics and feature information of targets
US20150169979A1 (en) Trajectory modeling apparatus and method based on trajectory transformation
US20220397900A1 (en) Robot control model learning method, robot control model learning device, recording medium storing robot control model learning program, robot control method, robot control device, recording medium storing robot control program, and robot
EP3825073A1 (en) Simulation device, simulation program, and simulation method
JP6503267B2 (en) Group tracking device, group tracking method and program
KR101878617B1 (en) Method and system for processing traictory data
JP6439757B2 (en) Image processing apparatus and image processing method
JP2009501334A (en) Adaptation of model sets by stochastic mass diffusion
JP6920342B2 (en) Devices and methods for determining object kinematics for movable objects
JP6952914B2 (en) Exercise state judgment device
CN106470342B (en) Global motion estimation method and device
KR101426040B1 (en) Method for tracking moving object and apparatus in intelligent visual surveillance system
JP7273561B2 (en) Track prediction device and track prediction method
Xu et al. The multi-sensor PHD filter: Analytic implementation via Gaussian mixture and effective binary partition
JP2018146351A (en) Multisensor system, sensor bias estimation device, sensor bias estimation method, and sensor bias estimation program
JP7067373B2 (en) Signal tracking device, signal tracking system, signal tracking method and program
Westenberger et al. Impact of out-of-sequence measurements on the joint integrated probabilistic data association filter for vehicle safety systems
JPWO2020170301A1 (en) Information processing equipment, programs and information processing methods
KR20170082331A (en) Method and apparatus for predicting eye position
CN114817765A (en) Map-based target course disambiguation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190325

R150 Certificate of patent or registration of utility model

Ref document number: 6503267

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150