JP6139178B2 - Sensor integration apparatus and sensor integration method - Google Patents

Sensor integration apparatus and sensor integration method Download PDF

Info

Publication number
JP6139178B2
JP6139178B2 JP2013040442A JP2013040442A JP6139178B2 JP 6139178 B2 JP6139178 B2 JP 6139178B2 JP 2013040442 A JP2013040442 A JP 2013040442A JP 2013040442 A JP2013040442 A JP 2013040442A JP 6139178 B2 JP6139178 B2 JP 6139178B2
Authority
JP
Japan
Prior art keywords
target
information
group
sensor
collective
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013040442A
Other languages
Japanese (ja)
Other versions
JP2014169872A (en
Inventor
伸裕 石丸
伸裕 石丸
丸山 貴志子
貴志子 丸山
岡村 秀文
秀文 岡村
克己 長峰
克己 長峰
眞之 藤田
眞之 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2013040442A priority Critical patent/JP6139178B2/en
Publication of JP2014169872A publication Critical patent/JP2014169872A/en
Application granted granted Critical
Publication of JP6139178B2 publication Critical patent/JP6139178B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Burglar Alarm Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

本発明は、センサ統合装置に関する。   The present invention relates to a sensor integration device.

本技術分野の背景技術として、特開2012−163495号公報(特許文献1)がある。この公報には、「プロセッサと、前記プロセッサに接続される記憶装置と、前記プロセッサに接続される出力装置と、を備えるセンサ統合システムであって、前記記憶装置は、複数のセンサによって観測された観測データを保持し、前記観測データはあらかじめ規定された項目のうち選択的に記述された項目を含み、前記プロセッサは複数の前記観測データの選択記述された前記項目を組み合わせ、一つ以上の目標物の移動軌跡を推定し、前記出力装置は、前記移動軌跡を示す情報を出力する。」と記載されている。   As a background art in this technical field, there is JP 2012-163495 A (Patent Document 1). In this publication, “a sensor integrated system comprising a processor, a storage device connected to the processor, and an output device connected to the processor, wherein the storage device was observed by a plurality of sensors. Holding observation data, wherein the observation data includes items selectively described among predetermined items, and the processor combines the items described by selection of a plurality of the observation data, and includes at least one target The movement trajectory of the object is estimated, and the output device outputs information indicating the movement trajectory. "

特開2012−163495号公報JP 2012-163495 A

重要施設、環境若しくは災害地域の監視、又は捜索・救難支援など、センサを用いて広域を監視するニーズがある。   There is a need to monitor a wide area using sensors, such as monitoring important facilities, the environment or disaster areas, or search / rescue assistance.

広域監視では、単独センサでは関心領域をカバーしきれず、複数センサを組み合わせて利用することが必要な場合が多い。センサとしては、地上設置の固定型のレーダや監視カメラなどだけでなく、車両、飛行体、又は水上及び水中移動体など、様々な移動型センサプラットフォームに搭載されたセンサも利用可能となりつつある。これらの異なる種類のセンサ(異種センサ)を組み合わせて利用できれば、広域を効率的に監視できる。   In wide-area monitoring, it is often necessary to use a combination of multiple sensors because a single sensor cannot cover the area of interest. As sensors, not only fixed radars and surveillance cameras installed on the ground, but also sensors mounted on various mobile sensor platforms such as vehicles, flying objects, and water and underwater moving objects are becoming available. If these different types of sensors (heterogeneous sensors) can be used in combination, a wide area can be monitored efficiently.

例えば、特許文献1には、複数の異種センサを用いた目標追尾方法が開示されている。しかし、センサの観測範囲が重複していない場合の移動軌跡の推定方法は開示されていない。また、複数目標物モデルを用いた航跡仮説の生成および追尾方法が開示されているが、目標の数又は集団内に含まれる目標の種別など、位置以外の集団としての特性(属性情報)を考慮した追尾方法は開示されていない。   For example, Patent Document 1 discloses a target tracking method using a plurality of different types of sensors. However, a method for estimating a movement trajectory when the observation ranges of the sensors do not overlap is not disclosed. In addition, although a method for generating and tracking wake hypotheses using multiple target models is disclosed, characteristics (attribute information) as a group other than position, such as the number of targets or the type of target included in the group, are considered. This tracking method is not disclosed.

本発明は、上記のような課題に鑑みてなされたものであり、複数のセンサ観測範囲における観測データと地図情報とを組み合わせて、センサ観測範囲内外に渡る目標物の移動軌跡の推定を実現することを目的とする。   The present invention has been made in view of the above-described problems, and realizes estimation of the movement trajectory of a target that goes inside and outside the sensor observation range by combining observation data and map information in a plurality of sensor observation ranges. For the purpose.

上記の課題を解決するために、本発明は、プロセッサと、前記プロセッサに接続される記憶装置と、前記プロセッサに接続される出力装置と、を備えるセンサ統合装置であって、前記記憶装置は、センサ情報、目標物情報及び地図情報を保持し、前記センサ情報は、複数のセンサの観測範囲を示す情報を含み、前記目標物情報は、前記複数のセンサによって観測された、複数の前記観測範囲における複数の個別目標物の時刻ごとの位置情報と、各々が前記複数の個別目標物からなる集団目標物の時刻ごとの位置情報と、前記各集団目標物の前記位置情報以外の属性を示す情報と、を含み、前記各集団目標物の前記属性を示す情報は、前記属性の一つ以上の種類を示す情報と、前記各種類の属性値を示す情報と、を含み、前記各集団目標物の一つ以上の属性の種類は、前記各集団目標物に含まれる前記個別目標物の数及び位置関係の少なくとも一つ、及び、前記各集団目標物に含まれる少なくとも一つの前記個別目標物の種別、大きさ、色及び形の少なくとも一つを含み、前記地図情報は、前記各観測範囲に含まれる地域、及び、前記各観測範囲に隣接するいずれの前記観測範囲にも含まれない地域の道路ネットワーク情報を含み、前記プロセッサは、前記目標物情報に基づいて、前記各観測範囲を通過していずれの前記観測範囲にも含まれない地域に移動した各集団目標物が前記各観測範囲から出た地点である通過地点、前記通過地点の通過時刻及び通過速度を特定する第1手順と、前記目標物情報に基づいて、いずれの前記観測範囲にも含まれない地域からいずれかの前記観測範囲に侵入した集団目標物の侵入地点、侵入時刻及び侵入速度を特定する第2手順と、前記道路ネットワーク情報に基づいて、前記通過した各集団目標物の通過地点から前記侵入した集団目標物の侵入地点までの道路を経由する経路距離を特定する第3手順と、前記通過した各集団目標物の通過速度及び前記侵入した集団目標物の侵入速度の少なくとも一方と、前記通過した各集団目標物の通過地点から前記侵入した集団目標物の侵入地点までの経路距離と、に基づいて、前記通過した各集団目標物の通過地点から前記侵入した集団目標物の侵入地点までの経路距離の移動時間を推定する第4手順と、前記速度及び経路距離に基づいて推定された移動時間の長さと、前記目標物情報に基づいて特定された、前記通過した各集団目標物の前記通過時刻から前記侵入した集団目標物の前記侵入時刻までの時間の長さと、を照合することによって、前記通過した各集団目標物と前記侵入した集団目標物との同一性を評価する第5手順と、を実行し、前記出力装置は、前記同一性の評価の結果を出力する第6手順を実行し、前記プロセッサは、前記第5手順において、前記通過した各集団目標物の属性と前記侵入した集団目標物の属性との類似度が所定の条件を満たさない場合、前記通過した各集団目標物と前記侵入した集団目標物とが同一でないと判定し、前記第5手順において、前記目標物情報に基づいて特定された前記通過時刻から前記侵入時刻までの時間の長さが、前記速度及び経路距離に基づいて推定された移動時間の長さを含む所定の時間の長さの範囲に含まれない場合、前記通過した各集団目標物と前記侵入した集団目標物とが同一でないと判定し、前記出力装置は、前記第6手順において、前記侵入した集団目標物と同一であると判定された一つ以上の前記通過した集団目標物の識別情報を出力し、前記記憶装置は、前記複数の観測範囲の境界と道路とが交差する端点に関する端点情報と、複数の前記端点間の道路ネットワークに関する端点間ネットワーク情報とをさらに保持し、前記端点情報は、前記各端点の位置を示す情報を含み、前記端点間ネットワーク情報は、前記端点情報及び前記地図情報に基づいて生成された、前記各端点といずれの前記観測範囲にも含まれない領域の道路を経由して接続される他の前記端点とを関連付ける情報、及び、前記関連付けられた端点間の前記いずれの観測範囲にも含まれない領域の道路を経由する経路距離を示す情報を含み、前記プロセッサは、前記端点間ネットワーク情報を参照して、前記通過した各集団目標物の通過地点に相当する端点に関連付けられた一つ以上の端点を特定し、前記特定された一つ以上の端点と前記通過した各集団目標物とを関連付ける情報を前記端点情報に追加する第10手順と、前記端点情報を参照して、前記侵入した集団目標物の侵入地点に相当する端点に関連付けられた前記通過した各集団目標物を特定する第11手順と、をさらに実行し、前記第11手順において特定された前記通過した各集団目標物と、前記侵入した集団目標物と、を対象として前記第3手順乃至前記第5手順を実行し、前記第3手順において、前記プロセッサは、前記通過した各集団目標物の通過地点に相当する端点と、前記侵入した集団目標物の侵入地点に相当する端点と、の間の経路距離を、前記端点間ネットワーク情報から取得することを特徴とする。 In order to solve the above-described problem, the present invention provides a sensor integration device including a processor, a storage device connected to the processor, and an output device connected to the processor, and the storage device includes: It holds sensor information, target information, and map information, and the sensor information includes information indicating observation ranges of a plurality of sensors, and the target information is a plurality of observation ranges observed by the plurality of sensors. Position information for each time of a plurality of individual targets, information for each time of a group target composed of the plurality of individual targets, and information indicating attributes other than the position information of each group target And the information indicating the attribute of each group target includes information indicating one or more types of the attribute and information indicating the attribute value of each type, and each group target One Or more types of attributes, the at least one of said individual target number and positional relationships in each population target, and the type of at least one of said individual target included in each population target, size, The map information includes at least one of a color and a shape, and the map information includes road network information of a region included in each observation range and a region not included in any of the observation ranges adjacent to each observation range. The processor is a point where each collective target that has passed through each observation range and moved to an area not included in any of the observation ranges based on the target information has exited from each observation range. Based on the first procedure for specifying the passage point, the passage time and the passage speed of the passage point, and the target information, any one of the observation ranges from an area not included in any of the observation ranges. Point invasion population target penetrated into a second procedure for specifying the penetration time and penetration rate, based on said road network information, entry of a population target mentioned above penetrate the passing point of each population target that the passage A third procedure for specifying a route distance through the road to the point, at least one of a passing speed of each of the group targets that have passed and an intrusion speed of the group target that has entered, and each of the group targets that have passed Based on the path distance from the passing point to the intruding point of the invading collective target, the travel time of the path distance from the passing point of each passing group target to the intruding point of the intruding collective target is calculated. The fourth procedure to be estimated, the length of the travel time estimated based on the speed and the route distance, and the passing time of each passing group target specified based on the target information A fifth procedure for evaluating the identity of each of the group targets that have passed and the group target that has entered by comparing the time from the time to the time of entry of the group target that has entered , And the output device executes a sixth procedure for outputting the result of the identity evaluation, and the processor, in the fifth procedure, has intruded with the attribute of each group target passed through. When the similarity with the attribute of the collective target does not satisfy a predetermined condition, it is determined that the passed collective target and the intruded collective target are not the same, and in the fifth procedure, the target information The length of time from the passage time specified based on the time to the intrusion time is included in a range of a predetermined time length including the length of travel time estimated based on the speed and path distance. If not, said passing And determining that each of the collective targets is not the same as the intruded collective target, and wherein the output device determines, in the sixth procedure, that the at least one of the intruded collective targets is the same as the intruded collective target. Output identification information of the collective target that has passed, and the storage device includes end point information about an end point where a boundary between the plurality of observation ranges and a road intersect, and end-point network information about a road network between the end points. The end point information includes information indicating a position of each end point, and the end point network information is generated based on the end point information and the map information, and the end point information and any of the observations. Information relating to other end points connected via roads in areas not included in the range, and not included in any observation range between the related end points Including information indicating a route distance passing through a road in the area, wherein the processor refers to the network information between the end points, and the processor is associated with one or more end points corresponding to the passing points of the collective targets that have passed. A tenth step of identifying end points, and adding information that associates the identified one or more end points with each of the group objects that have passed to the end point information; and referring to the end point information, the intruded population An eleventh procedure for identifying each passed collective target associated with an endpoint corresponding to an entry point of the target, and each passed collective target identified in the eleventh procedure; The third procedure to the fifth procedure are executed for the invading collective target, and in the third procedure, the processor corresponds to a passing point of each collective target that has passed. The path distance between the end point to be intruded and the end point corresponding to the intrusion point of the invading collective target is acquired from the network information between end points .

本発明の一実施形態によれば、センサ観測範囲の内外に渡る、広域での目標物の追尾が可能となるため、少ない数のセンサによって効率的かつ安価な広域状況把握を実現できる。   According to an embodiment of the present invention, it is possible to track a target in a wide area that extends in and out of the sensor observation range, so that it is possible to efficiently and inexpensively grasp a wide-area situation with a small number of sensors.

本発明の実施形態のセンサ統合システムの構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the sensor integrated system of embodiment of this invention. 本発明の実施形態のセンサ統合システムのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the sensor integrated system of embodiment of this invention. 本発明の実施形態のセンサ統合システムのハードウェア構成の変形例を示すブロック図である。It is a block diagram which shows the modification of the hardware constitutions of the sensor integrated system of embodiment of this invention. 本発明の実施形態のセンサ統合システムのセンサ統合処理の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the sensor integration process of the sensor integration system of embodiment of this invention. 本発明の実施形態のセンサ統合装置の目標物情報DBに含まれる個別目標物情報テーブルの説明図である。It is explanatory drawing of the separate target object information table contained in target object information DB of the sensor integrated apparatus of embodiment of this invention. 本発明の実施形態のセンサ統合装置の目標物情報DBに含まれる集団目標物情報テーブルの説明図である。It is explanatory drawing of the group target object information table contained in target object information DB of the sensor integrated apparatus of embodiment of this invention. 本発明の実施形態のセンサ統合装置のセンサ情報DBに含まれるセンサ情報テーブルの説明図である。It is explanatory drawing of the sensor information table contained in sensor information DB of the sensor integrated apparatus of embodiment of this invention. 本発明の実施形態のセンサ統合装置の端点情報DBに含まれる端点情報テーブルの説明図である。It is explanatory drawing of the endpoint information table contained in the endpoint information DB of the sensor integrated apparatus of embodiment of this invention. 本発明の実施形態のセンサ統合装置の端点間ネットワークDBに含まれる端点間ネットワークテーブルの説明図である。It is explanatory drawing of the network table between end points contained in the network DB between end points of the sensor integrated apparatus of embodiment of this invention. 本発明の実施形態のセンサ統合装置が実行するセンサ前処理を示すフローチャートである。It is a flowchart which shows the sensor pre-processing which the sensor integration apparatus of embodiment of this invention performs. 本発明の実施形態のセンサ統合装置が実行するセンサ統合前処理を示すフローチャートである。It is a flowchart which shows the sensor integration pre-processing which the sensor integration apparatus of embodiment of this invention performs. 本発明の実施形態のセンサ統合装置が実行するセンサ観測範囲目標物通過処理を示すフローチャートである。It is a flowchart which shows the sensor observation range target passage process which the sensor integrated apparatus of embodiment of this invention performs. 本発明の実施形態のセンサ統合装置が実行するセンサ観測範囲目標物侵入処理を示すフローチャートである。It is a flowchart which shows the sensor observation range target penetration | invasion process which the sensor integrated apparatus of embodiment of this invention performs. 本発明の実施形態のセンサ統合装置が実行する目標物照合処理を示すフローチャートである。It is a flowchart which shows the target collation process which the sensor integrated apparatus of embodiment of this invention performs. 本発明の実施形態のセンサ統合装置が実行するセンサ統合処理の変形例を示す図である。It is a figure which shows the modification of the sensor integration process which the sensor integration apparatus of embodiment of this invention performs. 本発明の実施形態のセンサ統合装置によって出力される情報及びユーザインタフェースの説明図である。It is explanatory drawing of the information output by the sensor integration apparatus of embodiment of this invention, and a user interface. 本発明の実施形態のセンサ統合装置によって出力される情報の説明図である。It is explanatory drawing of the information output by the sensor integrated apparatus of embodiment of this invention.

以下、図面を用いて本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

なお、本実施形態では目標物の移動軌跡を「航跡」と表現するが、本発明が対象とする目標物は、移動する物体である限り、例えば車両、人又は船舶等、いかなるものであってもよい。また、本発明が対象とするセンサは、例えばレーダ、カメラ(定点監視用固定型、移動プラットフォーム搭載型、携帯型、等)、音響センサ、振動センサ、カウンタ、人(目視報告、ソーシャルネットワークサービスに登録された情報、等)など、目標物の存在又は移動を捉えられるいかなるセンサであってもよい。   In this embodiment, the movement trajectory of the target is expressed as “wake”, but the target targeted by the present invention is any object such as a vehicle, a person, or a ship as long as it is a moving object. Also good. The sensors targeted by the present invention include, for example, radar, camera (fixed type for fixed point monitoring, mobile platform mounted type, portable type, etc.), acoustic sensor, vibration sensor, counter, person (visual report, social network service) Any sensor that can capture the presence or movement of a target, such as registered information, etc., may be used.

図1は、本発明の実施形態のセンサ統合システムの構成を示す機能ブロック図である。本実施形態のセンサ統合システムは、センサ統合装置100、複数のセンサ、及び、センサ統合装置100と複数のセンサとを接続するネットワーク160によって構成される。本実施形態のセンサ統合システムは、さらに、ネットワーク160に接続された一つ以上の他センサ統合装置180を含んでもよい。また、センサ統合装置100は、入出力装置190を含む。   FIG. 1 is a functional block diagram showing a configuration of a sensor integrated system according to an embodiment of the present invention. The sensor integration system according to the present embodiment includes a sensor integration device 100, a plurality of sensors, and a network 160 that connects the sensor integration device 100 and the plurality of sensors. The sensor integration system according to the present embodiment may further include one or more other sensor integration devices 180 connected to the network 160. The sensor integration device 100 includes an input / output device 190.

複数のセンサは、目標物に関する情報を取得できるものであればどのようなものであってもよい。ここで、目標物に関する情報とは、例えば目標物の位置を示す情報又は属性を示す情報等である。図1には二つのセンサ、すなわちセンサ1_151及びセンサ2_152を示すが、本実施形態のセンサ統合システムは、さらに多くのセンサを含んでもよい。これらの複数のセンサは、一つの種類のセンサのみを含んでもよいが、複数の種類のセンサを含んでもよい。例えば、センサ1_151がレーダであり、センサ2_152がカメラであってもよい。   The plurality of sensors may be any sensor that can acquire information on the target. Here, the information regarding the target is, for example, information indicating the position of the target or information indicating the attribute. Although FIG. 1 shows two sensors, that is, a sensor 1_151 and a sensor 2_152, the sensor integrated system of this embodiment may include more sensors. The plurality of sensors may include only one type of sensor, but may include a plurality of types of sensors. For example, the sensor 1_151 may be a radar and the sensor 2_152 may be a camera.

センサ1_151及びセンサ2_152等は、センシングによって取得した観測データを含むセンサ情報171及びセンサ情報172等を、ネットワーク160を介してセンサ統合装置100に送信する。本実施形態のセンサ情報171等は、センサ属性、データ及びデータ属性を含む。センサ属性は、そのセンサ情報171等を送信したセンサの種別(たとえばそれがレーダ又はカメラ等のいずれであるかを示す情報)、識別子(ID)、及び当該センサの観測データに含まれる可能性がある項目(時刻、位置、速度、加速度、及び航跡)のような、センサの諸元を含む。さらにセンサ観測範囲や取得可能な属性などの情報を含んでも良い。データは、各センサによって取得された観測データ及びそれが取得された時刻等を含む。データ属性は、観測データの属性を示す情報、例えば観測データの精度等を含んでもよい。センサ統合装置100は、センサ情報171等をステップごとに取得してもよいし、ストリーミングによって取得してもよい。   The sensors 1_151 and 2_152 and the like transmit the sensor information 171 and the sensor information 172 including the observation data acquired by sensing to the sensor integration device 100 via the network 160. The sensor information 171 and the like of the present embodiment includes sensor attributes, data, and data attributes. The sensor attribute may be included in the type of sensor that transmitted the sensor information 171 or the like (for example, information indicating whether it is a radar or a camera), an identifier (ID), and observation data of the sensor. It includes sensor specifications such as certain items (time, position, speed, acceleration, and track). Furthermore, information such as sensor observation range and acquirable attributes may be included. The data includes observation data acquired by each sensor, the time when it was acquired, and the like. The data attribute may include information indicating the attribute of the observation data, for example, the accuracy of the observation data. The sensor integration device 100 may acquire the sensor information 171 and the like for each step or may acquire it by streaming.

各センサはセンサ統合装置100に固定的に接続されていてもよいが、新規のセンサの追加及び既存のセンサの削除を許容してもよい。追加されたセンサからの要求に基づいてセンサ統合装置100に新たなセンサが登録されてもよいし(すなわちPUSH登録)、センサ統合装置100がセンサを検索し、検索されたセンサを登録してもよい(すなわちPULL登録)。   Each sensor may be fixedly connected to the sensor integration apparatus 100, but addition of a new sensor and deletion of an existing sensor may be permitted. A new sensor may be registered in the sensor integration device 100 based on a request from the added sensor (that is, PUSH registration), or the sensor integration device 100 may search for a sensor and register the searched sensor. Good (ie PULL registration).

なお、以下の説明において、各センサが目標物を観測可能な範囲を各センサの観測範囲と記載する。また、図4を参照して後述するように、本実施形態では複数のセンサの観測範囲が重複も隣接もしない場合があるため、いずれの観測範囲にも含まれない領域が存在する場合がある。このようにいずれの観測範囲にも含まれない領域を観測範囲外の領域と記載する。   In the following description, the range in which each sensor can observe the target is described as the observation range of each sensor. In addition, as will be described later with reference to FIG. 4, in this embodiment, the observation ranges of a plurality of sensors may not overlap or be adjacent, and thus there may be a region that is not included in any of the observation ranges. . Thus, a region not included in any observation range is described as a region outside the observation range.

センサ統合装置100は、入出力部101、目標物情報処理部102、センサ情報処理部103、地図情報処理部104、地理情報システム105及びデータベース106を有する。   The sensor integration device 100 includes an input / output unit 101, a target information processing unit 102, a sensor information processing unit 103, a map information processing unit 104, a geographic information system 105, and a database 106.

センサ情報処理部103は、センサ1_151等の各種センサの属性及び各センサによって得られたセンサ観測データなどを扱う処理を行う。具体的には、センサ情報処理部103は、相関処理などによりセンサ観測データから目標物の移動軌跡を推定する航跡抽出処理部103A、センサの属性に観測範囲が含まれていない場合に観測範囲を特定する観測範囲特定処理部103B等を備える。   The sensor information processing unit 103 performs processing for handling attributes of various sensors such as the sensor 1_151 and sensor observation data obtained by the sensors. Specifically, the sensor information processing unit 103 is a wake extraction processing unit 103A that estimates the movement trajectory of the target from the sensor observation data by correlation processing or the like, and if the observation range is not included in the sensor attribute, The observation range specifying processing unit 103B to be specified is provided.

目標物情報処理部102は、複数のセンサ観測範囲にまたがる目標物を管理する目標物管理部102A、目標物がセンサ観測範囲から外に出る「通過」、及び目標物がセンサ観測範囲に入る「侵入」を判定する侵入・通過判定部102B、個別目標物をグループ化した集団目標物の属性を判定し、それぞれが別の観測範囲で観測された複数の集団目標物に関する情報が同一の集団に関する情報であるか否かを特定する集団属性照合部102C、同一集団であると判定された複数の集団目標物に関連付けられた複数の航跡を統合する航跡統合処理部102Dなどを備える。   The target information processing unit 102 manages a target that spans a plurality of sensor observation ranges, the target management unit 102A, “passing” the target out of the sensor observation range, and the target entering the sensor observation range “ An intrusion / passage determination unit 102B that determines “intrusion” determines attributes of a group target obtained by grouping individual targets, and information on a plurality of group targets observed in different observation ranges is related to the same group. A group attribute matching unit 102C that identifies whether or not the information is information, a track integration processing unit 102D that integrates a plurality of tracks associated with a plurality of group targets determined to be the same group, and the like.

地図情報処理部104は、地理情報システム105を用いて、地形及び地域状況の管理、道路地図などの経路情報の管理、並びに、後述の端点情報(端点に関連付ける通過・侵入目標物リストを含む)の管理などを実現する。   The map information processing unit 104 uses the geographic information system 105 to manage terrain and local conditions, manage route information such as road maps, and end point information (including a passing / intruding target list associated with end points) described later. Realize management.

地理情報システム105は、地図情報の管理機能及び検索機能、空間解析機能(ネットワーク解析、見通し解析等)、並びに編集機能などを備える。地理情報システム105は公知の技術によって実現できるため、これに関する詳細な説明は省略する。   The geographic information system 105 includes a map information management function and search function, a spatial analysis function (network analysis, perspective analysis, etc.), and an editing function. Since the geographic information system 105 can be realized by a known technique, a detailed description thereof will be omitted.

データベース106は、センサ情報データベース(DB)106A(センサ属性、センサ観測データを含む)、目標物情報DB106B(航跡を含む)、地図情報DB106C、処理パラメータDB106D、端点情報DB106E及び端点間ネットワークDB106Fなどを含む。センサ情報DB106Aは、センサ属性に関する情報及びセンサ観測データ等を含む。目標物情報DB106Bは、目標物の属性に関する情報及び目標物の航跡データ等を含む。また、目標物情報DB106Bは、個別の目標物に関するDBと、各々が複数の個別の目標物を含む集団の目標物に関するDBと、を含む。端点情報DB106Eは、各センサの観測範囲の端点(後述)の位置及びその端点から観測範囲に出入りする目標物に関する情報を含む。端点間ネットワークDB106Fは、端点から観測範囲外の領域を経由して別の端点に至る経路に関する情報を含む。これらのDBの詳細については後述する(図5A〜図5E等参照)。地図情報DB106Cは、複数の観測範囲と、少なくともそれらの観測範囲間をつなぐ観測範囲外の領域と、を含む領域の地図情報を含む。具体的には、地図情報DB106Cは、例えば、交差点に対応するノードと、交差点を接続する道路に対応するリンクとの接続関係、及び、道路の通行可否といった道路の属性等を示す道路ネットワークデータを含んでもよい。この道路ネットワークデータを用いて、通行可能な道路からなる目標物の移動経路を探索することができる。あるいは、地図情報DB106Cは、道路ネットワークデータの代わりに(又はそれに加えて)、標高、河川及び海岸線等に関する地形情報を含んでもよい。地図情報DB106Cとしては公知のものを使用することができるため、詳細な説明は省略する。処理パラメータDB106Dは、目標物情報処理部102及びセンサ情報処理部103等が実行する処理に使用される各種パラメータを保持する。例えば、図6Eを参照して後述するα、βのようなパラメータが処理パラメータDB106Dに保持されてもよい。   The database 106 includes a sensor information database (DB) 106A (including sensor attributes and sensor observation data), a target information DB 106B (including a track), a map information DB 106C, a processing parameter DB 106D, an end point information DB 106E, an end point network DB 106F, and the like. Including. The sensor information DB 106A includes information on sensor attributes, sensor observation data, and the like. The target information DB 106B includes information related to the attributes of the target, track data of the target, and the like. The target information DB 106B includes a DB related to individual targets and a DB related to a group of targets each including a plurality of individual targets. The end point information DB 106E includes information on the position of an end point (described later) of the observation range of each sensor and a target that enters and exits the observation range from the end point. The inter-endpoint network DB 106F includes information on a route from the end point to another end point via a region outside the observation range. Details of these DBs will be described later (see FIGS. 5A to 5E and the like). The map information DB 106C includes map information of a region including a plurality of observation ranges and at least a region outside the observation range connecting between the observation ranges. Specifically, the map information DB 106C stores road network data indicating, for example, road attributes such as connection relations between nodes corresponding to intersections and links corresponding to roads connecting the intersections, and whether or not roads are allowed to pass. May be included. Using this road network data, it is possible to search for a moving route of a target consisting of a road that can be passed. Alternatively, the map information DB 106C may include terrain information regarding altitude, rivers, coastlines, and the like instead of (or in addition to) the road network data. Since a well-known map information DB 106C can be used, detailed description is omitted. The processing parameter DB 106D holds various parameters used for processing executed by the target information processing unit 102, the sensor information processing unit 103, and the like. For example, parameters such as α and β described later with reference to FIG. 6E may be held in the processing parameter DB 106D.

入出力部101は、センサ統合装置100がネットワーク160を介してセンサ1_151等から受信したセンサ情報171等、センサ統合装置100がネットワーク160を介して他センサ統合装置180から受信した目標物情報181、及び、センサ統合装置のユーザが入出力装置190を使用して入力した情報等を、データベース106に格納する。また、入出力部101は、例えばユーザによる情報の入力を支援するためのGUI(Graphical User Interface)の画像情報及びセンサ統合装置100による処理結果をユーザに提示するための画像情報等を入出力装置190に出力させる。   The input / output unit 101 includes, for example, sensor information 171 received from the sensor 1_151 or the like via the network 160 by the sensor integration device 100, target information 181 received from the other sensor integration device 180 via the network 160 by the sensor integration device 100, And the information etc. which the user of the sensor integration apparatus input using the input / output device 190 are stored in the database 106. Further, the input / output unit 101 includes, for example, GUI (Graphical User Interface) image information for assisting the user in inputting information and image information for presenting the processing result by the sensor integration device 100 to the user. 190 is output.

他センサ統合装置180は、センサ統合装置100と同様のものであってよいため、詳細な説明は省略する。図1では省略されているが、他センサ統合装置180も一つ以上のセンサからセンサ情報を取得し、そのセンサ情報に基づいてセンサ統合装置100と同様の処理を行うことができる。例えば、他センサ統合装置180はセンサ統合装置100と同様の処理によって目標物情報DB106Bと同様の情報を生成し、それを目標物情報181としてセンサ統合装置100に送信してもよい。さらにそれら目標物情報とセンサ情報を統合処理してもよい。   Since the other sensor integration device 180 may be the same as the sensor integration device 100, a detailed description thereof will be omitted. Although omitted in FIG. 1, the other sensor integration device 180 can also acquire sensor information from one or more sensors and perform the same processing as the sensor integration device 100 based on the sensor information. For example, the other sensor integration device 180 may generate the same information as the target information DB 106B by the same processing as the sensor integration device 100 and transmit the same information as the target information 181 to the sensor integration device 100. Further, the target information and sensor information may be integrated.

図2は、本発明の実施形態のセンサ統合システムのハードウェア構成を示すブロック図である。本実施形態のセンサ統合装置100は、インターフェース(I/F)201、プロセッサ202、記憶装置203、入力装置204及び出力装置205を備える。これらは、通信線(例えばバス)206を介して相互に接続される。   FIG. 2 is a block diagram showing a hardware configuration of the sensor integrated system according to the embodiment of the present invention. The sensor integration device 100 of this embodiment includes an interface (I / F) 201, a processor 202, a storage device 203, an input device 204, and an output device 205. These are connected to each other via a communication line (for example, a bus) 206.

I/F201は、ネットワーク160に接続され、ネットワーク160を介して、センサ1_151等からセンサ情報171等を受信し、他センサ統合装置180から目標物情報181を受信する。ネットワーク160は、例えばIPネットワーク又はその他の種類のネットワーク等、いかなるものであってもよい。なお、図1にはセンサ情報等(すなわちセンサ情報171、172及び目標物情報181)がネットワーク160を介してセンサ統合装置100に入力される例を示したが、これらのセンサ情報等がネットワーク160を介さずにセンサ統合装置100に入力されてもよい。例えば、センサ1_151等がUSB(Universal Serial Bus)等のケーブルを介してセンサ統合装置100に接続され、そのケーブルを介してセンサ情報等がセンサ統合装置100に入力されてもよい。その場合、I/F201はUSBのインターフェースである。あるいは、センサ1_151等がセンサ情報等を持ち運び可能な記憶媒体(例えば持ち運び可能なフラッシュメモリ又は記憶ディスク)に格納し、その記憶媒体からセンサ情報等がセンサ統合装置100に入力されてもよい。その場合、I/F201は記憶媒体の読み出し装置である。あるいは、センサ1_151等がセンサ統合装置100に直結されてもよい。   The I / F 201 is connected to the network 160, receives the sensor information 171 and the like from the sensor 1_151 and the like, and receives the target information 181 from the other sensor integration device 180 via the network 160. The network 160 may be anything, such as an IP network or other types of networks. 1 shows an example in which sensor information and the like (that is, sensor information 171 and 172 and target object information 181) are input to the sensor integration apparatus 100 via the network 160. It may be input to the sensor integration device 100 without going through. For example, the sensor 1_151 or the like may be connected to the sensor integration device 100 via a cable such as a USB (Universal Serial Bus), and sensor information or the like may be input to the sensor integration device 100 via the cable. In this case, the I / F 201 is a USB interface. Alternatively, the sensor 1_151 or the like may store sensor information or the like in a portable storage medium (for example, a portable flash memory or storage disk), and sensor information or the like may be input to the sensor integration device 100 from the storage medium. In this case, the I / F 201 is a storage medium reading device. Alternatively, the sensor 1_151 or the like may be directly connected to the sensor integration device 100.

プロセッサ202は、センサ統合装置100の各部を制御することによって、センサ統合装置100の種々の機能を実現する。例えば、プロセッサ202は、記憶装置203に格納されたプログラムに従って、I/F201、入力装置204及び出力装置205を制御することによって、図1の入出力部101、目標物情報処理部102、センサ情報処理部103、地図情報処理部104及び地理情報システム105の機能を実現してもよい。その場合、図2に示すハードウェアとして一般的なPC(Personal Computer)が使用されてもよい。あるいは、プロセッサ202は、上記のような汎用プロセッサでなく、上記の各部の機能を実現する一つ以上の専用プロセッサであってもよい。   The processor 202 realizes various functions of the sensor integration device 100 by controlling each unit of the sensor integration device 100. For example, the processor 202 controls the I / F 201, the input device 204, and the output device 205 in accordance with a program stored in the storage device 203, whereby the input / output unit 101, target information processing unit 102, sensor information in FIG. The functions of the processing unit 103, the map information processing unit 104, and the geographic information system 105 may be realized. In that case, a general PC (Personal Computer) may be used as the hardware shown in FIG. Alternatively, the processor 202 may not be a general-purpose processor as described above, but may be one or more dedicated processors that realize the functions of the above-described units.

記憶装置203には、プロセッサ202が実行するプログラム及びプロセッサ202によって参照されるデータが格納される。例えば、図1に示したデータベース106が記憶装置203に格納される。記憶装置203は、例えば、DRAM(Dynamic Random Access Memory)のような揮発性の半導体メモリ、フラッシュメモリのような不揮発性の半導体メモリ、若しくはハードディスクドライブのようなディスク装置等、又はそれらの組み合わせであってもよい。   The storage device 203 stores a program executed by the processor 202 and data referred to by the processor 202. For example, the database 106 illustrated in FIG. 1 is stored in the storage device 203. The storage device 203 is, for example, a volatile semiconductor memory such as a DRAM (Dynamic Random Access Memory), a nonvolatile semiconductor memory such as a flash memory, a disk device such as a hard disk drive, or a combination thereof. May be.

入力装置204は、ユーザからの指示等を受け付けるために使用され、例えば、キーボード及びマウス等を含んでもよい。センサ統合装置100がユーザから指示を受ける必要がない場合には、入力装置204が省略されてもよい。出力装置205は、センサ統合装置100の処理結果(例えば抽出された航跡等)を出力する。さらに、出力装置205は、ユーザによる情報の入力を支援するためのGUI画像情報等を出力してもよい。例えば、出力装置205は、液晶表示装置のような画像表示装置であってもよい。図2の入力装置204及び出力装置205は、図1の入出力装置190に相当する。なお、図1に示した入出力部101は、API(Application Program Interface)、Webサービス又は記憶媒体を介して航跡等を出力してもよい。その場合、出力装置205は、ネットワークインターフェース又は記憶媒体への書き込み装置であってもよい。   The input device 204 is used for receiving an instruction from the user, and may include, for example, a keyboard and a mouse. If the sensor integration device 100 does not need to receive an instruction from the user, the input device 204 may be omitted. The output device 205 outputs a processing result of the sensor integration device 100 (for example, an extracted wake). Further, the output device 205 may output GUI image information or the like for assisting the user in inputting information. For example, the output device 205 may be an image display device such as a liquid crystal display device. The input device 204 and the output device 205 in FIG. 2 correspond to the input / output device 190 in FIG. Note that the input / output unit 101 illustrated in FIG. 1 may output a wake or the like via an API (Application Program Interface), a Web service, or a storage medium. In that case, the output device 205 may be a network interface or a writing device to a storage medium.

図3は、本発明の実施形態のセンサ統合システムのハードウェア構成の変形例を示すブロック図である。センサ統合システムは、ネットワークに接続された複数のセンサ統合装置100を有する。ここでは、複数のセンサ統合装置100の例としてセンサ統合装置100A〜100Cを示す。各センサ統合装置100A〜100Cのハードウェア構成は図2に示したセンサ統合装置100の構成と同様である。また、図3に示す各センサ統合装置100A〜100Cは、図1に示すセンサ統合装置100又は他センサ統合装置180に相当する。   FIG. 3 is a block diagram showing a modification of the hardware configuration of the sensor integrated system according to the embodiment of the present invention. The sensor integration system includes a plurality of sensor integration devices 100 connected to a network. Here, sensor integration apparatuses 100 </ b> A to 100 </ b> C are shown as examples of the plurality of sensor integration apparatuses 100. The hardware configuration of each of the sensor integration devices 100A to 100C is the same as the configuration of the sensor integration device 100 illustrated in FIG. Also, each of the sensor integration devices 100A to 100C illustrated in FIG. 3 corresponds to the sensor integration device 100 or the other sensor integration device 180 illustrated in FIG.

例えば、センサ統合装置100Aは、センサ1_151から取得したセンサ情報171に基づいて、センサ1_151の観測範囲内の目標物の航跡を抽出し、抽出した航跡データを含む目標物情報181をセンサ統合装置100Cに送信する。同様に、センサ統合装置100は、センサ2_152から取得したセンサ情報172に基づいて、センサ2_152の観測範囲内の目標物の航跡を抽出し、抽出した航跡データを含む目標物情報181をセンサ統合装置100Cに送信する。図3では省略されているが、さらに他のセンサ統合装置100が同様に目標物情報をセンサ統合装置100Cに送信してもよい。センサ統合装置100Cは、センサ統合装置100A及び100B等から受信した目標物情報181に基づいて、複数の観測範囲内の航跡を統合する。   For example, the sensor integration device 100A extracts the track of the target within the observation range of the sensor 1_151 based on the sensor information 171 acquired from the sensor 1_151, and uses the target information 181 including the extracted track data as the sensor integration device 100C. Send to. Similarly, the sensor integration device 100 extracts the track of the target within the observation range of the sensor 2_152 based on the sensor information 172 acquired from the sensor 2_152, and uses the target information 181 including the extracted track data as the sensor integration device. Send to 100C. Although omitted in FIG. 3, another sensor integration device 100 may similarly transmit the target information to the sensor integration device 100 </ b> C. The sensor integration device 100C integrates wakes within a plurality of observation ranges based on the target information 181 received from the sensor integration devices 100A and 100B.

上記のように、各観測範囲内の航跡の抽出と、複数の観測範囲内の航跡の統合とがそれぞれ別のセンサ統合装置100によって行われる場合には、それぞれのセンサ統合装置100が図1に示す全ての機能を有しなくてもよい場合がある。例えば、センサ統合装置100A及び100Bは、航跡の統合を行わないため、少なくとも航跡統合処理部102Dを有しなくてもよい。センサ統合装置100Cは、通常は各観測範囲内の航跡の抽出を行わないため、少なくとも航跡抽出処理部103Aを有しなくてもよい。ただし、センサ統合装置100Cは、実際には各観測範囲内の航跡の抽出をやり直す可能性もあるため、航跡抽出処理部103Aを有してもよい。   As described above, when extraction of wakes in each observation range and integration of wakes in a plurality of observation ranges are performed by different sensor integration devices 100, each sensor integration device 100 is shown in FIG. It may not be necessary to have all the functions shown. For example, the sensor integration apparatuses 100A and 100B do not perform wake integration, and therefore do not need to include at least the wake integration processing unit 102D. The sensor integrated device 100C does not normally extract a wake within each observation range, and therefore does not need to include at least the wake extraction processing unit 103A. However, the sensor integrated device 100C may include the wake extraction processing unit 103A because there is a possibility that the wake extraction in each observation range may actually be performed again.

また、図3に示すセンサ統合システムは、上記のセンサ統合装置100A〜100Cと同様のセンサ統合装置100のグループ(すなわち、各々が一つのセンサの観測範囲内の航跡を抽出する複数のセンサ統合装置100と、それらの複数のセンサ統合装置100からの目標物情報に基づいて複数の観測範囲内の航跡を統合する一つのセンサ統合装置100と、からなるグループ)を複数有してもよい。その場合、センサ統合システムは、複数の観測範囲内の航跡を統合する複数のセンサ統合装置100から目標物情報を収集して全ての観測範囲内の航跡を統合する階層構造のセンサ統合装置100をさらに有する。   Further, the sensor integration system shown in FIG. 3 includes a group of sensor integration devices 100 similar to the above-described sensor integration devices 100A to 100C (that is, a plurality of sensor integration devices each extracting a wake within the observation range of one sensor. 100 and one sensor integration device 100 that integrates tracks in a plurality of observation ranges based on target information from the plurality of sensor integration devices 100. In that case, the sensor integration system collects target information from a plurality of sensor integration devices 100 that integrate wakes in a plurality of observation ranges, and integrates the sensor integration device 100 having a hierarchical structure that integrates wakes in all observation ranges. Also have.

例えば、広域に多数のセンサが設置され、各センサにそのセンサの観測範囲内の航跡を抽出する一つのセンサ統合装置100が設けられ、各部分領域内の複数の観測範囲内の航跡を統合するセンサ統合装置100が設けられ、さらに、広域における全部分領域の全観測範囲内の航跡を統合するセンサ統合装置100が設けられてもよい。   For example, a large number of sensors are installed in a wide area, and each sensor is provided with one sensor integration device 100 that extracts a wake in the observation range of the sensor, and integrates wakes in a plurality of observation ranges in each partial region. A sensor integration device 100 may be provided, and further, a sensor integration device 100 that integrates wakes within the entire observation range of all partial areas in a wide area may be provided.

また、図3には各センサ統合装置100A及び100B等がそれぞれ一つのセンサから取得したセンサ情報を処理し、それらの複数のセンサ統合装置100から取得した目標物情報をセンサ統合装置100Cが処理する形態を示したが、各センサ統合装置100A及び100B等がそれぞれ複数のセンサから取得したセンサ情報に基づいて複数の観測範囲内の航跡を抽出し、それらの複数のセンサ統合装置100から取得した目標物情報に基づいて、センサ統合装置100Cが航跡を統合してもよい。   Further, in FIG. 3, the sensor integration devices 100 </ b> A and 100 </ b> B each process sensor information acquired from one sensor, and the sensor integration device 100 </ b> C processes target information acquired from the plurality of sensor integration devices 100. Although the embodiment is shown, the sensor integration devices 100A and 100B and the like extract the wakes in the plurality of observation ranges based on the sensor information acquired from the plurality of sensors, respectively, and the targets acquired from the plurality of sensor integration devices 100 Based on the object information, the sensor integration device 100C may integrate the wake.

上記のような階層構造または自律分散型の機能構成を採用することによって、本実施形態のセンサ統合システムは、一つのセンサ統合装置100が全てのセンサからの情報を処理する集中管理(図2参照)、又は複数のセンサ統合装置100の各々が一つ以上のセンサからの情報を処理する分散管理(図3参照)のいずれの形態を採用しても本発明を実現することができる。   By adopting the above-described hierarchical structure or autonomous distributed type functional configuration, the sensor integration system of the present embodiment is a centralized management in which one sensor integration device 100 processes information from all sensors (see FIG. 2). The present invention can be realized by adopting any form of distributed management (see FIG. 3) in which each of the plurality of sensor integration devices 100 processes information from one or more sensors.

以下、図1及び図2に示すセンサ統合装置100が保持する情報及び実行する処理を説明するが、図3に示す複数のセンサ統合装置100が保持する情報及び実行する処理も、情報が複数のセンサ統合装置100に分散して保持され、処理が複数のセンサ統合装置100によって分散して実行される点を除き、以下に説明するものと同様である。   Hereinafter, the information held by the sensor integration device 100 shown in FIG. 1 and FIG. 2 and the processing to be executed will be described. However, the information held by the plurality of sensor integration devices 100 shown in FIG. It is the same as that described below, except that it is distributed and held in the sensor integration device 100 and processing is executed in a distributed manner by a plurality of sensor integration devices 100.

図4は、本発明の実施形態のセンサ統合システムのセンサ統合処理の概要を示す説明図である。例として、センサ1_151の観測範囲401及びセンサ2_152の観測範囲402を示す。これらの観測範囲は隣接も重複もしておらず、一方の観測範囲内からもう一方の観測範囲内に移動する目標物は、必ず観測範囲外の領域を通過する。センサ1_151によって観測範囲401内で観測された目標物411A〜411C、及び、センサ2_152によって観測範囲402内で観測された目標物412A〜412Cを示す。図4の例において、これらの目標物は道路420に沿って移動する車両である。以下、本実施形態の説明においては、目標物の例として、車両又は人のように地上を走行又は歩行する移動体を挙げている。しかし、本実施形態は、車両又は人以外の任意の移動体(例えば船舶又は航空機等)にも適用することができる。   FIG. 4 is an explanatory diagram illustrating an overview of sensor integration processing of the sensor integration system according to the embodiment of this invention. As an example, the observation range 401 of the sensor 1_151 and the observation range 402 of the sensor 2_152 are shown. These observation ranges are neither adjacent nor overlapping, and a target that moves from one observation range to the other observation range always passes the region outside the observation range. The targets 411A to 411C observed in the observation range 401 by the sensor 1_151 and the targets 412A to 412C observed in the observation range 402 by the sensor 2_152 are shown. In the example of FIG. 4, these targets are vehicles that move along the road 420. Hereinafter, in the description of the present embodiment, a moving body that travels or walks on the ground like a vehicle or a person is cited as an example of the target. However, the present embodiment can also be applied to an arbitrary moving body other than a vehicle or a person (for example, a ship or an aircraft).

センサ統合装置100の航跡抽出処理部103Aは、目標物411A〜411Cの観測範囲401内における航跡を抽出する。さらに、航跡抽出処理部103Aは、目標物411A〜411Cからなる集団を一つの目標物411と認識し、その目標物411の観測範囲401内における航跡を抽出してもよい。以下、複数の目標物を含む目標物を集団目標物、集団目標物に含まれる目標物を個別目標物とも記載する場合がある。例えば個別目標物は1台の車両であり、集団目標物は複数の車両からなる車列である。   The track extraction processing unit 103A of the sensor integrated device 100 extracts tracks in the observation range 401 of the targets 411A to 411C. Further, the wake extraction processing unit 103 </ b> A may recognize a group including the targets 411 </ b> A to 411 </ b> C as one target 411 and extract a wake in the observation range 401 of the target 411. Hereinafter, a target including a plurality of targets may be referred to as a collective target, and a target included in the collective target may be referred to as an individual target. For example, the individual target is a single vehicle, and the collective target is a train of vehicles.

同様に、航跡抽出処理部103Aは、個別目標物412A〜412Cの観測範囲402内における航跡を抽出し、さらに、個別目標物412A〜412Cからなる集団目標物412の観測範囲402内における航跡を抽出してもよい。   Similarly, the wake extraction processing unit 103A extracts a wake in the observation range 402 of the individual targets 412A to 412C, and further extracts a wake in the observation range 402 of the collective target 412 including the individual targets 412A to 412C. May be.

航跡抽出処理部103Aは、任意の公知の方法(例えば特許文献1に記載された方法)を用いて各観測範囲内の目標物の航跡を抽出することができるため、その航跡抽出方法の詳細な説明は省略する。   The wake extraction processing unit 103A can extract the wake of the target within each observation range using any known method (for example, the method described in Patent Document 1). Description is omitted.

観測範囲401と402との間に目標物が移動可能な経路が存在していれば、例えば観測範囲401においてセンサ1_151によって観測された目標物が、その後観測範囲402に移動して、それと異なる時刻にもう一方の観測範囲において観測される場合がある。図4の例では観測範囲401と402とを接続する道路420があるため、例えば目標物411A等が道路420を通って観測範囲401から観測範囲402に移動し、目標物412A等として観測される可能性がある。そのような場合には、目標物411A等の観測範囲401内における航跡と、目標物412Aの観測範囲402内における航跡とを統合して、同一の目標物の航跡として扱うことによって、複数のセンサの観測範囲の内外にわたる領域を移動する目標物を追跡することが可能になる。   If there is a path through which the target can move between the observation ranges 401 and 402, for example, the target observed by the sensor 1_151 in the observation range 401 will move to the observation range 402 and a different time from that. It may be observed in the other observation range. In the example of FIG. 4, since there is a road 420 connecting the observation ranges 401 and 402, for example, the target 411A moves from the observation range 401 to the observation range 402 through the road 420 and is observed as the target 412A or the like. there is a possibility. In such a case, the wake in the observation range 401 such as the target 411A and the wake in the observation range 402 of the target 412A are integrated and handled as the wake of the same target, thereby providing a plurality of sensors. It is possible to track a target that moves in a region that extends within and outside the observation range.

しかし、観測範囲401と402との間の観測範囲外の領域における目標物の航跡は、各観測範囲内における航跡の抽出方法と同一の方法を用いても精度よく抽出することができない。本実施形態では、複数の観測範囲を地図情報(地図情報DB106Cに格納される)に基づいて関連付け、あるセンサの観測範囲内から観測範囲外に出た(以下、これを、「観測範囲を通過した」とも記載する)目標物と、別のセンサの観測範囲内に侵入した目標物とを照合する。これによって、異なる観測範囲における当該目標物の航跡を統合した航跡を推定できる。   However, the track of the target in the region outside the observation range between the observation ranges 401 and 402 cannot be extracted with high accuracy even if the same method as the method for extracting the track in each observation range is used. In this embodiment, a plurality of observation ranges are associated with each other based on map information (stored in the map information DB 106C) and out of the observation range from the observation range of a certain sensor (hereinafter referred to as “pass the observation range”). The target is also referred to as a “target” and a target that has entered the observation range of another sensor. This makes it possible to estimate a wake obtained by integrating the wakes of the target in different observation ranges.

特にセンサ観測範囲の間の距離が大きく、その間の観測範囲外の領域が広い場合、個別目標物の航跡を統合することは難しい場合が多い。一方、複数の個別目標物を一つの集団目標物として扱い、集団目標物としての大きな流れ、及び、集団目標物に含まれる個別目標物の属性情報(個別目標物の数、特徴的な種別の個別目標物の存在有無、等)を判定することで、航跡の統合が可能となる。   In particular, when the distance between the sensor observation ranges is large and the area outside the observation range is wide, it is often difficult to integrate the tracks of the individual targets. On the other hand, a plurality of individual targets are treated as one collective target, and a large flow as a collective target, and attribute information of the individual target included in the collective target (number of individual targets, individual targets of characteristic types) It is possible to integrate wakes by determining the presence or absence of an object.

ここで地図情報は、道路ネットワークなどのネットワークデータ、道路形状又は等高線などのベクトルデータ、土地利用又は地形などのラスタデータであってもよい。道路ネットワークデータは、一般的に利用されるものと同様に、交差点に対応するノード及び交差点間を接続する道路に対応するリンクに関する情報であってよいが、ノード及びリンクの属性情報は、移動時間の推定に利用可能な距離の情報だけでなく、通行容易性の判定に利用可能な交通規制情報等を含んでもよい。   Here, the map information may be network data such as a road network, vector data such as road shapes or contour lines, and raster data such as land use or topography. The road network data may be information related to a node corresponding to an intersection and a link corresponding to a road connecting between the intersections, as is generally used. In addition to the distance information that can be used for estimating the traffic, it may include traffic regulation information that can be used to determine ease of travel.

以下の説明において、目標物が各観測範囲に出入りするときに通る各観測範囲の境界上の地点を「端点」と記載する。実際に目標物が通ったと推定される地点だけでなく、目標物が通ることが予想される地点が端点として扱われてもよい。具体的には、例えば地図情報DB106Cに道路ネットワーク情報が含まれる場合、道路と各観測範囲の境界が交差する地点が端点となる。   In the following description, a point on the boundary of each observation range that passes when the target enters and exits each observation range is referred to as an “end point”. Not only the point where the target is actually estimated to pass but also the point where the target is expected to pass may be treated as the end point. Specifically, for example, when road network information is included in the map information DB 106C, a point where a road intersects with the boundary of each observation range is an end point.

図4の例において、端点430A及び430Bは、道路420と観測範囲401の境界とが交差する地点であり、端点430C及び430Dは、道路420と観測範囲402の境界とが交差する地点である。例えば、観測範囲401において目標物411として観測された目標物が道路420を走行して端点430Bを通過し、さらに道路420を走行して端点430Cから観測範囲402に侵入し、目標物412として観測される場合がある。なお、実際の道路は幅を持っているため、道路と観測範囲の境界が交差する端点は、一般に、幾何学上の厳密な定義に従う「点」ではなく、ある程度の大きさを持った範囲である。また、例えば目標物が道路以外の部分を走行する場合、あるいは地図情報DB106Cが当該領域の道路ネットワーク情報を含まない場合等には、観測された目標物の航跡に基づいて端点の位置が推定されてもよい。   In the example of FIG. 4, end points 430A and 430B are points where the road 420 and the boundary of the observation range 401 intersect, and end points 430C and 430D are points where the road 420 and the boundary of the observation range 402 intersect. For example, a target observed as the target 411 in the observation range 401 travels on the road 420 and passes through the end point 430B, and further travels on the road 420 and enters the observation range 402 from the end point 430C to be observed as the target 412. May be. Since actual roads have a width, the end point where the road and the observation range cross each other is generally not a “point” according to a strict geometric definition, but a range with a certain size. is there. For example, when the target travels on a portion other than the road, or when the map information DB 106C does not include the road network information of the area, the position of the end point is estimated based on the track of the observed target. May be.

なお、複数の個別目標物からの一つの集団目標物の生成(言い換えると、どの複数の個別目標物を一つの集団目標物として扱うかを決定すること)は、公知の方法を含む任意の方法によって実行することができるため、詳細な説明を省略する。例えば公知のクラスタリングを行って一つのクラスタに分類された複数の個別目標物を一つの集団目標物として扱ってもよいし、特許文献1に記載されているように所定のテンプレートと複数の個別目標物とを比較した結果に基づいて集団目標物を生成してもよいし、それ以外の個別目標と集団目標を対応付けて管理するいかなる方法を使用してもよい。   The generation of one collective target from a plurality of individual targets (in other words, determining which multiple individual targets are handled as one collective target) is an arbitrary method including a known method. Therefore, detailed description is omitted. For example, a plurality of individual targets classified into one cluster by performing known clustering may be handled as one collective target, or a predetermined template and a plurality of individual targets as described in Patent Document 1. A collective target may be generated based on a result of comparison with an object, or any other method of managing other individual targets and collective targets in association with each other may be used.

次に、センサ統合装置100が保持するデータベース106の内容について説明する。   Next, the contents of the database 106 held by the sensor integration device 100 will be described.

本実施形態の目標物情報DB106Bは、各センサによって観測された個別目標物の航跡及び属性に関する情報を保持する個別目標物情報テーブル500と、集団目標物の航跡及び属性に関する情報を保持する集団目標物情報テーブル510と、を含む。前者については図5Aを参照して説明し、後者については図5Bを参照して後述する。   The target object information DB 106B of the present embodiment includes an individual target information table 500 that holds information about the track and attributes of individual targets observed by each sensor, and a group target that holds information about the tracks and attributes of the group target. An object information table 510. The former will be described with reference to FIG. 5A, and the latter will be described later with reference to FIG. 5B.

図5Aは、本発明の実施形態のセンサ統合装置100の目標物情報DB106Bに含まれる個別目標物情報テーブル500の説明図である。個別目標物情報テーブル500は、個別目標物ID501、位置502、及び、各個別目標物の位置以外の一つ以上の属性に関する情報を含む。各個別目標物の一つ以上の属性に関する情報は、一つ以上の属性の種類とその種類の属性値とを対応付ける情報であり、図5Aの例では、属性1(全長)503、属性2(種別)504及び属性3(色)505を含む。   FIG. 5A is an explanatory diagram of the individual target information table 500 included in the target information DB 106B of the sensor integration device 100 according to the embodiment of this invention. The individual target information table 500 includes information regarding one or more attributes other than the individual target ID 501, the position 502, and the position of each individual target. Information on one or more attributes of each individual target is information that associates one or more attribute types with attribute values of those types. In the example of FIG. 5A, attribute 1 (full length) 503, attribute 2 ( Type) 504 and attribute 3 (color) 505.

個別目標物ID501は、各個別目標物の識別子である。例えば図4に示すように観測範囲401において個別目標物411A〜411Cが観測され、観測範囲402において個別目標物412A〜412Cが観測された場合、これらの6個の個別目標物に一意の識別子が与えられ、個別目標物ID501として保持される。個別目標物IDは観測されたセンサと対応付けたID体系としてもよい。   The individual target ID 501 is an identifier of each individual target. For example, as shown in FIG. 4, when the individual targets 411A to 411C are observed in the observation range 401 and the individual targets 412A to 412C are observed in the observation range 402, unique identifiers are assigned to these six individual targets. Given and held as an individual target ID 501. The individual target ID may be an ID system associated with the observed sensor.

位置502は、各センサによって観測された各個別目標物の各時刻における位置を示す座標値である。例えば、位置502として、ある個別目標物の時刻tにおける座標値pt、時刻t−1における座標値pt-1及び時刻t−2における座標値pt-2、以下同様に他の時刻における座標値が保持される。これらの時刻ごとの座標値が各個別目標物の航跡に相当する。 A position 502 is a coordinate value indicating the position of each individual target observed by each sensor at each time. For example, as a position 502, a coordinate value p t at a time t , a coordinate value p t-1 at a time t- 1, a coordinate value p t-2 at a time t-2 , and so on at another time. Coordinate values are retained. These coordinate values for each time correspond to the track of each individual target.

属性1(全長)503は、各個別目標物の大きさを示す情報の一例であり、例えば「aaメートル」のような値であってもよいし、「bbメートル〜ccメートル」のような幅を持った値であってもよい。あるいは「aaメートル(標準偏差dd)」のような精度の情報を持った値であってもよい。   The attribute 1 (full length) 503 is an example of information indicating the size of each individual target, and may be a value such as “aa meters” or a width such as “bb meters to cc meters”. It may be a value with Alternatively, it may be a value having accuracy information such as “aa meter (standard deviation dd)”.

属性2(種別)504は、各個別目標物の種別、例えば、各個別目標物が車両、船舶又は航空機といった移動体のうちいずれの種類のものであるかを示す情報である。本実施形態では一例として車両のような陸上を走行する目標物を扱うため、属性2(種別)504は、各個別目標物が車両又は歩行者のいずれであるか、車両である場合にはどのような種類の車両であるか、等を示す情報であってもよい。   The attribute 2 (type) 504 is information indicating the type of each individual target, for example, which type of each individual target is a moving object such as a vehicle, a ship, or an aircraft. In the present embodiment, as an example, a target traveling on land such as a vehicle is handled. Therefore, attribute 2 (type) 504 indicates whether each individual target is a vehicle or a pedestrian, or a vehicle. It may be information indicating whether the vehicle is of a kind.

属性3(色)505は、各個別目標物の色を示す情報である。   The attribute 3 (color) 505 is information indicating the color of each individual target.

個別目標物情報テーブル500は、各個別目標物の上記以外の属性(例えば各個別目標物の形)に関する情報をさらに含んでもよい。   The individual target information table 500 may further include information regarding attributes other than those described above (for example, the shape of each individual target).

なお、後述するように、目標物を観測するセンサ1_151等の種別によって、取得できる属性情報の種類が異なる場合がある。例えば、センサ1_151等がカラー画像を撮影できるカメラである場合、撮影した画像から個別目標物の色を特定することができるが、センサ1_151等がレーダである場合、取得された情報から個別目標物の色を特定することができない。このような場合には、個別目標物情報テーブル500の該当する項目(例えば属性3(色)505)は空となる。あるいは属性項目部分をサブテーブル化したり、または属性項目名とその値の組を管理してもよい。   As will be described later, the type of attribute information that can be acquired may differ depending on the type of the sensor 1_151 that observes the target. For example, when the sensor 1_151 or the like is a camera that can capture a color image, the color of the individual target can be specified from the captured image, but when the sensor 1_151 or the like is a radar, the individual target is obtained from the acquired information. Unable to determine the color of the. In such a case, the corresponding item (for example, attribute 3 (color) 505) in the individual target information table 500 is empty. Alternatively, the attribute item portion may be made into a sub-table, or a combination of the attribute item name and its value may be managed.

図5Bは、本発明の実施形態のセンサ統合装置100の目標物情報DB106Bに含まれる集団目標物情報テーブル510の説明図である。集団目標物情報テーブル510は、集団目標物ID511、位置512、個別目標物リスト513、及び、各集団目標物の位置以外の一つ以上の属性に関する情報を含む。各個別目標物の一つ以上の属性に関する情報は、一つ以上の属性の種類とその種類の属性値とを対応付ける情報であり、図5Bの例では、属性1(数)514及び属性2(位置パターン)515を含む。   FIG. 5B is an explanatory diagram of the collective target information table 510 included in the target information DB 106B of the sensor integration device 100 according to the embodiment of this invention. The collective target information table 510 includes collective target ID 511, position 512, individual target list 513, and information regarding one or more attributes other than the position of each collective target. Information on one or more attributes of each individual target is information that associates one or more attribute types with attribute values of those types. In the example of FIG. 5B, attribute 1 (number) 514 and attribute 2 ( Position pattern) 515.

集団目標物ID511は、各集団目標物の識別子である。例えば図4に示すように観測範囲401において集団目標物411が観測され、観測範囲402において集団目標物412が観測された場合、これらの2個の個別目標物に一意の識別子が与えられ、集団目標物ID511として保持される。   The collective target ID 511 is an identifier of each collective target. For example, as shown in FIG. 4, when a collective target 411 is observed in the observation range 401 and a collective target 412 is observed in the observation range 402, a unique identifier is given to these two individual targets, It is held as the target ID 511.

位置512は、各センサによって観測された各集団目標物の各時刻における位置を示す座標値であり、個別目標物に関する位置502と同様の形式のデータとして保持されてもよい。これらの時刻ごとの座標値が各集団目標物の航跡に相当する。   The position 512 is a coordinate value indicating the position of each collective target at each time observed by each sensor, and may be held as data in the same format as the position 502 related to the individual target. These coordinate values for each time correspond to the track of each collective target.

個別目標物リスト513は、各集団目標物に含まれる個別目標物の識別子のリストである。ここに保持される識別子は、個別目標物ID501として保持された識別子と対応する。   The individual target list 513 is a list of identifiers of individual targets included in each collective target. The identifier held here corresponds to the identifier held as the individual target ID 501.

属性1(数)514は、各集団目標物に含まれる個別目標物の数を示す。例えば、属性1(数)514は、「cc個」のような値であってもよいし、「aa個〜bb個」のような幅を持った値であってもよい。あるいは「aa個(標準偏差cc)」のような精度の情報を持った値であってもよい。   An attribute 1 (number) 514 indicates the number of individual targets included in each collective target. For example, the attribute 1 (number) 514 may be a value such as “cc” or a value having a width such as “aa to bb”. Alternatively, it may be a value having accuracy information such as “aa (standard deviation cc)”.

属性2(位置パターン)515は、各集団目標物に含まれる複数の個別目標物の相対的な位置関係(すなわち配置)を示す。   An attribute 2 (position pattern) 515 indicates a relative positional relationship (that is, arrangement) of a plurality of individual targets included in each collective target.

集団目標物情報テーブル510は、各集団目標物の上記以外の属性に関する情報をさらに含んでもよい。あるいは属性項目部分をサブテーブル化したり、または属性項目名とその値の組を管理してもよい。   The collective target information table 510 may further include information on attributes other than those described above for each collective target. Alternatively, the attribute item portion may be made into a sub-table, or a combination of the attribute item name and its value may be managed.

なお、各集団目標物の個別目標物リスト513の値をキーとして個別目標物情報テーブル500を検索することによって、各集団目標物に含まれる個別目標物の全長、種別といった属性を取得することができる。このような各集団目標物に含まれる個別目標物の属性を、各集団目標物の属性の一部として扱い、集団目標物の照合判定に利用することもできる。   By searching the individual target information table 500 using the value of the individual target list 513 of each group target as a key, attributes such as the total length and type of the individual target included in each group target can be acquired. it can. The attributes of the individual target included in each group target can be handled as part of the attributes of each group target and used for collation determination of the group target.

図5Cは、本発明の実施形態のセンサ統合装置100のセンサ情報DB106Aに含まれるセンサ情報テーブル520の説明図である。センサ情報テーブル520は、各センサ(例えばセンサ1_151及びセンサ2_152等)に関する情報を含む。図5Cの例では、センサ情報テーブル520は、センサID521、センサ種別522、観測範囲523、端点リスト524及び取得属性525等を含む。   FIG. 5C is an explanatory diagram of the sensor information table 520 included in the sensor information DB 106A of the sensor integration device 100 according to the embodiment of this invention. The sensor information table 520 includes information regarding each sensor (for example, sensor 1_151 and sensor 2_152). In the example of FIG. 5C, the sensor information table 520 includes a sensor ID 521, a sensor type 522, an observation range 523, an end point list 524, an acquisition attribute 525, and the like.

センサID521は、各センサの識別子である。センサ種別522は、各センサの種別、例えば各センサがレーダ、カメラ又はその他の種類のセンサのいずれであるかを示す情報である。センサ種別522は、各種処理の切り替え及びパラメータ調整等に用いられる。   The sensor ID 521 is an identifier of each sensor. The sensor type 522 is information indicating the type of each sensor, for example, whether each sensor is a radar, a camera, or another type of sensor. The sensor type 522 is used for switching various processes and adjusting parameters.

観測範囲523は、各センサの観測範囲の位置、大きさ、形状等を示す情報であり、例えば各センサの観測範囲の境界線(すなわち輪郭線)の座標値を含んでもよい。観測範囲に関する情報がセンサの属性情報に含まれていない場合、観測範囲特定処理部103Bにて計算生成してもよい。   The observation range 523 is information indicating the position, size, shape, and the like of the observation range of each sensor, and may include, for example, the coordinate value of the boundary line (that is, the contour line) of the observation range of each sensor. When the information regarding the observation range is not included in the sensor attribute information, the observation range identification processing unit 103B may calculate and generate the information.

端点リスト524は、各センサの観測範囲の端点の識別子のリストである。例えばセンサ1_151の観測範囲401に関する端点リスト524は、端点430A及び430Bの識別子を含む。なお、ここで使用される端点の識別子は、各観測範囲内で一意であれば、複数の観測範囲内で一意でなくてもよい。その場合、各センサの観測範囲内の各端点を複数の観測範囲内で一意に識別するためには、各センサの識別子と各端点の識別子とを組み合わせた識別子を使用する必要がある。後述する端点情報テーブル530及び端点間ネットワークテーブル540において使用される端点の識別子は、上記のように各端点を複数の観測範囲内で識別する情報である。あるいは端点リスト524はセンサ情報テーブル520で保持せず、端点情報テーブル530側で管理し、必要に応じて端点情報テーブル530を検索して利用してもよい。   The endpoint list 524 is a list of identifiers of endpoints of the observation range of each sensor. For example, the end point list 524 regarding the observation range 401 of the sensor 1_151 includes the identifiers of the end points 430A and 430B. Note that the identifier of the end point used here may not be unique within a plurality of observation ranges as long as it is unique within each observation range. In that case, in order to uniquely identify each end point within the observation range of each sensor within a plurality of observation ranges, it is necessary to use an identifier that combines the identifier of each sensor and the identifier of each end point. The endpoint identifiers used in the endpoint information table 530 and the endpoint network table 540, which will be described later, are information for identifying each endpoint within a plurality of observation ranges as described above. Alternatively, the end point list 524 may not be held in the sensor information table 520 but may be managed on the end point information table 530 side, and the end point information table 530 may be searched and used as necessary.

取得属性525は、各センサによって取得される属性の情報を示す。例えば、センサがレーダである場合、目標物の位置に関する情報を取得することができるが、色に関する情報を取得することはできない。この場合、レーダに関する取得属性525として、「位置」が(さらに他の属性の情報も取得できる場合は、その属性も)保持される。   The acquisition attribute 525 indicates attribute information acquired by each sensor. For example, when the sensor is a radar, information about the position of the target can be acquired, but information about the color cannot be acquired. In this case, “position” is retained as the acquisition attribute 525 related to the radar (if another attribute information can be acquired, that attribute is also retained).

なお、図5Cでは省略されているが、センサ情報テーブル520は、各センサが取得した観測データ及びそれが取得された時刻等の情報をさらに含む。あるいは別テーブルに格納し、関連付けて管理してもよい。   Although omitted in FIG. 5C, the sensor information table 520 further includes information such as observation data acquired by each sensor and the time when the sensor was acquired. Alternatively, it may be stored in another table and managed in association.

図5Dは、本発明の実施形態のセンサ統合装置100の端点情報DB106Eに含まれる端点情報テーブル530の説明図である。端点情報テーブル530は、各端点(例えば端点430A〜430D等)に関する情報を含む。図5Dの例では、端点情報テーブル530は、端点ID531、位置532、通過目標物リスト533、侵入目標物リスト534及び侵入予測リスト535等を含む。   FIG. 5D is an explanatory diagram of the endpoint information table 530 included in the endpoint information DB 106E of the sensor integration device 100 according to the embodiment of this invention. The end point information table 530 includes information on each end point (for example, end points 430A to 430D). In the example of FIG. 5D, the end point information table 530 includes an end point ID 531, a position 532, a passing target list 533, an intrusion target list 534, an intrusion prediction list 535, and the like.

端点ID531及び位置532は、それぞれ、各端点の識別子、及び、各端点の位置を示す座標値である。通過目標物リスト533は、各端点を通過して観測範囲外に出た目標物の識別子のリストである。侵入目標物リスト534は、各端点から観測範囲内に侵入した目標物の識別子のリストである。   The end point ID 531 and the position 532 are an identifier of each end point and a coordinate value indicating the position of each end point. The passing target list 533 is a list of identifiers of the targets that have passed through the end points and have come out of the observation range. The intrusion target list 534 is a list of identifiers of targets that have entered the observation range from each end point.

侵入予測リスト535は、各端点から観測範囲内にこれから侵入する可能性があると予測された目標物の識別子のリストである。侵入する可能性の予測は、後述する端点間ネットワークテーブル540による端点間の関連付けに基づいて行われる。   The intrusion prediction list 535 is a list of identifiers of target objects that are predicted to possibly enter the observation range from each end point. Prediction of the possibility of intrusion is performed based on association between end points by an end point network table 540 described later.

端点情報テーブル530は、図5Dに示すようにあらかじめ侵入予測リスト535を計算生成してテーブルに含んでもよいが、これを含めず、必要に応じて通過目標物リスト533を検索して侵入する可能性がある目標物を特定してもよい。これらの情報の生成及び利用の方法については、図6C及び図6D等を参照して後述する。   As shown in FIG. 5D, the end point information table 530 may calculate and generate the intrusion prediction list 535 in advance and include it in the table. However, the end point information table 530 may be included in the table by searching the passing target list 533 as necessary. You may identify a target that has sex. A method of generating and using such information will be described later with reference to FIGS. 6C and 6D.

なお、図5Dに示したように、各端点に、各端点を通過した目標物、各端点から侵入した目標物、及び侵入することが予測される目標物等を関連付けて管理することによって、リアルタイム処理等における処理の簡略化及び高速化を実現することができる。   As shown in FIG. 5D, each end point is managed in association with a target that has passed through each end point, a target that has entered from each end point, a target that is predicted to enter, and the like. Simplification and speeding up of processing in processing and the like can be realized.

図5Eは、本発明の実施形態のセンサ統合装置100の端点間ネットワークDB106Fに含まれる端点間ネットワークテーブル540の説明図である。端点間ネットワークテーブル540は、目標物が観測範囲外の領域を経由してそれらの間を移動可能な二つの端点を関連付ける情報、及び、その観測範囲外の領域を経由する経路に関する情報を含む。図5Eの例では、端点間ネットワークテーブル540は、端点始点541、端点終点542、距離543、関連地図図形ID544及び仮想フラグ545等を含む。   FIG. 5E is an explanatory diagram of the end-to-end network table 540 included in the end-to-end network DB 106F of the sensor integration device 100 according to the embodiment of this invention. The end-to-end point network table 540 includes information that associates two end points where the target can move between the regions outside the observation range and information about the route that passes through the region outside the observation range. In the example of FIG. 5E, the inter-endpoint network table 540 includes an end point start point 541, an end point end point 542, a distance 543, a related map graphic ID 544, a virtual flag 545, and the like.

端点始点541及び端点終点542は、観測範囲外の領域の目標物が移動可能な経路の始点となる端点及び終点となる端点の識別子であり、距離543はその経路の経路距離であり、関連地図図形ID544はその経路の形状を示す図形の識別子である。例えば図4に示すように目標物411等が端点430Bから430Cまで観測範囲外の道路420上を移動可能である場合、端点430B及び430Cの識別子が端点始点541及び端点終点542として、道路420の端点430Bから430Cまでの区間の経路距離が距離543として、その区間の形状を示す図形の識別子が関連地図図形ID544としてそれぞれ保持されてもよい。   The end point start point 541 and the end point end point 542 are identifiers of the end point and the end point that are the start point and the end point of the route in which the target in the region outside the observation range can move, and the distance 543 is the route distance of the route, and the related map The graphic ID 544 is a graphic identifier indicating the shape of the route. For example, as shown in FIG. 4, when the target 411 or the like can move on the road 420 outside the observation range from the end points 430B to 430C, the identifiers of the end points 430B and 430C are the end point start point 541 and the end point end point 542. The route distance of the section from the end points 430B to 430C may be held as the distance 543, and the graphic identifier indicating the shape of the section may be held as the related map graphic ID 544.

なお、図4には説明を単純化するために単純な道路420のみを示しているが、実際には、例えば端点430Bと430Cとの間に複数の経路が存在し得る。その場合、例えば地図情報処理部104が地図情報DB106Cに含まれる道路ネットワークデータを参照して端点430Bと430Cとの間の通行可能な経路を探索し、経路距離が最短となる経路の経路距離及びその経路距離の計算に使用した地図図形の識別子をそれぞれ距離543及び関連地図図形ID544として端点間ネットワークテーブル540に登録してもよいし、経路距離が比較的短いいくつかの経路(例えば経路距離が短い順に所定の数の経路)の経路距離及び地図図形の識別子を登録してもよい。これらは公知のネットワーク解析技術を用いて実現してもよい。   In FIG. 4, only a simple road 420 is shown to simplify the description, but actually, for example, a plurality of routes may exist between the end points 430B and 430C. In this case, for example, the map information processing unit 104 refers to the road network data included in the map information DB 106C to search for a route that can be passed between the end points 430B and 430C, and the route distance of the route having the shortest route distance and The identifier of the map figure used for the calculation of the route distance may be registered in the end-to-end network table 540 as the distance 543 and the related map figure ID 544, respectively, or some routes (for example, the route distance is relatively short). A predetermined number of routes) and a map figure identifier may be registered in ascending order. These may be realized using a known network analysis technique.

なお、地図情報DB106Cが道路ネットワークデータを含まない場合には、道路ネットワークデータ以外の情報に基づいて推定された経路距離等の情報を端点間ネットワークテーブル540に登録してもよい。例えば、地図情報DB106Cが道路形状のベクトルデータを含む場合、地図情報処理部104がそのベクトルデータに基づいて道路ネットワークデータを推定し、それに基づいて経路探索を行ってもよい。   If the map information DB 106C does not include road network data, information such as a route distance estimated based on information other than the road network data may be registered in the end-to-end network table 540. For example, when the map information DB 106C includes road shape vector data, the map information processing unit 104 may estimate road network data based on the vector data and perform a route search based on the road network data.

あるいは、地図情報DB106Cが等高線ベクトルデータ又は地形ラスタデータを含む場合、地図情報処理部104がそれらのデータに基づいて地形解析を行い、目標物が移動可能な領域(例えば目標物として車両を想定している場合、車両が通行可能と推定される尾根線、谷線及び平坦な領域等を抽出し、それに基づいてネットワークデータを推定してもよい。又は、データベース106が注目領域における過去の移動物体の移動履歴データを含む場合、地図情報処理部104等がその移動履歴データから移動パターンを抽出し、最短経路解析に加えて当該移動パターンを考慮して経路を推定してもよい。   Alternatively, when the map information DB 106C includes contour line vector data or terrain raster data, the map information processing unit 104 performs terrain analysis based on the data, and assumes a region where the target can move (for example, a vehicle is assumed as the target). In this case, the network data may be estimated based on the extracted ridge line, valley line, flat area, and the like that the vehicle is supposed to be able to pass through, or the database 106 may be a past moving object in the attention area. If the movement history data is included, the map information processing unit 104 or the like may extract a movement pattern from the movement history data and estimate the route in consideration of the movement pattern in addition to the shortest route analysis.

上記のように、地図情報DB106Cにあらかじめ道路ネットワークデータが保持されておらず、道路ネットワークデータ以外の情報(又はそれに基づいて推定されたネットワークデータ)に基づいて推定された距離543及び関連地図図形ID544が端点間ネットワークテーブルに登録される場合、そのことを示す仮想フラグ545が登録される。図5Eの例において、仮想フラグ545の値「Yes」は、道路ネットワークデータ以外の情報に基づいて推定された距離543及び関連地図図形ID544が登録されていることを示す。   As described above, the road network data is not stored in the map information DB 106C in advance, and the distance 543 and the related map graphic ID 544 estimated based on information other than the road network data (or network data estimated based on the information). Is registered in the end-to-end network table, a virtual flag 545 indicating that is registered. In the example of FIG. 5E, the value “Yes” of the virtual flag 545 indicates that the distance 543 and the related map graphic ID 544 estimated based on information other than the road network data are registered.

なお、上記の説明では道路ネットワークデータを例示したが、例えば目標物が船舶又は航空機等である場合には、航路に関するネットワークデータが利用されてもよいし、船舶の場合には水深又は海底地形等の情報、航空機に関しては山及び高層建造物の配置等に基づいて航路のネットワークが推定されてもよい。   In the above description, the road network data is exemplified. However, for example, when the target is a ship or an aircraft, network data related to the route may be used. With regard to the above information and aircraft, the route network may be estimated based on the arrangement of mountains and high-rise buildings.

次に、図6A〜図6Eを参照して、センサ統合装置100が実行するセンサ統合処理の手順を説明する。   Next, with reference to FIG. 6A to FIG. 6E, a procedure of sensor integration processing executed by the sensor integration device 100 will be described.

図6Aは、本発明の実施形態のセンサ統合装置100が実行するセンサ前処理を示すフローチャートである。図6Aに示すセンサ前処理は、各センサが観測を開始する前に実行される。   FIG. 6A is a flowchart illustrating sensor pre-processing executed by the sensor integration device 100 according to the embodiment of this invention. The sensor preprocessing shown in FIG. 6A is executed before each sensor starts observation.

センサ統合装置100は、入出力装置190を介して各センサに関する情報を入力されると(ステップ601)、それに基づいてセンサ観測範囲等を特定してセンサ情報テーブル520に登録し(ステップ602)、さらにセンサが取得可能な属性情報の種類を特定してセンサ情報テーブル520に登録する(ステップ603)。例えば、センサ1_151の種別がレーダであり、そのセンサ1_151が設置される位置及び送信電力等が入力されると、センサ統合装置100はそれに基づいてセンサ1_151の観測範囲及びそれによって取得される情報の属性を特定して、センサ種別522、観測範囲523及び取得属性525等を登録する。なお、センサが移動プラットフォームに搭載されている場合、観測範囲は動的に計算生成できるよう、センサパラメータなどを保持してもよい。以上でセンサ前処理が終了する。   When the sensor integration device 100 receives information about each sensor via the input / output device 190 (step 601), the sensor integration device 100 identifies the sensor observation range and the like based on the information and registers it in the sensor information table 520 (step 602). Further, the type of attribute information that can be acquired by the sensor is specified and registered in the sensor information table 520 (step 603). For example, when the type of the sensor 1_151 is radar and the position where the sensor 1_151 is installed, the transmission power, and the like are input, the sensor integration device 100 based on the observation range of the sensor 1_151 and the information acquired thereby The attribute is specified, and the sensor type 522, the observation range 523, the acquired attribute 525, and the like are registered. When the sensor is mounted on the mobile platform, the sensor parameter may be held so that the observation range can be dynamically calculated and generated. This completes the sensor preprocessing.

図6Bは、本発明の実施形態のセンサ統合装置100が実行するセンサ統合前処理を示すフローチャートである。図6Bに示すセンサ統合前処理は、遅くとも、後述する図6C〜図6Eに示す処理の前に実行される。   FIG. 6B is a flowchart illustrating sensor integration pre-processing executed by the sensor integration device 100 according to the embodiment of this invention. The sensor integration pre-process shown in FIG. 6B is executed at the latest before the process shown in FIGS. 6C to 6E described later.

最初に、センサ統合装置100は、複数のセンサ(例えばセンサ1_151及びセンサ2_152)の各々について、図6Aに示したセンサ前処理を実行する(ステップ611)。   First, the sensor integration device 100 executes the sensor preprocessing shown in FIG. 6A for each of a plurality of sensors (for example, the sensor 1_151 and the sensor 2_152) (step 611).

次に、センサ統合装置100は、センサ前処理によって特定された各センサの観測範囲と、地図情報DB106Cに含まれる地図とを照合し(ステップ612)、各観測範囲の端点を特定する(ステップ613)。特定された各端点の識別子がセンサ情報テーブル520の端点リスト524及び端点情報テーブル530の端点ID531として登録され、各端点の位置が位置532として登録される。   Next, the sensor integration device 100 collates the observation range of each sensor specified by the sensor preprocessing with the map included in the map information DB 106C (step 612), and specifies the end point of each observation range (step 613). ). The identifier of each identified end point is registered as the end point list 524 of the sensor information table 520 and the end point ID 531 of the end point information table 530, and the position of each end point is registered as the position 532.

次に、センサ統合装置100は、特定された端点の情報と地図情報DB106Cに含まれる地図とに基づいて、各端点とそれに関連付けられる端点との組み合わせを生成し、それらの端点間の経路距離を算出する(ステップ614)。端点間の関連付けは、図5Eを参照して説明した通りである。生成された端点の組み合わせに関する情報は、端点間ネットワークテーブル540に登録される。端点間の組み合わせについては、全ての組み合わせを生成するのではなく、公知のネットワーク解析技術を用いて経路距離が短い組み合わせのみを選択的に生成してもよい。以上でセンサ統合前処理が終了する。   Next, the sensor integration device 100 generates a combination of each end point and an end point associated with the end point based on the specified end point information and the map included in the map information DB 106C, and calculates the path distance between these end points. Calculate (step 614). The association between the end points is as described with reference to FIG. 5E. Information on the generated combination of end points is registered in the end point network table 540. For combinations between end points, not all combinations may be generated, but only combinations having a short path distance may be selectively generated using a known network analysis technique. This completes the sensor integration preprocessing.

図6Cは、本発明の実施形態のセンサ統合装置100が実行するセンサ観測範囲目標物通過処理を示すフローチャートである。   FIG. 6C is a flowchart illustrating sensor observation range target passing processing executed by the sensor integration device 100 according to the embodiment of this invention.

最初に、センサ統合装置100の目標物情報処理部102は、各観測範囲を通過した目標物及びその速度等を特定する(ステップ621)。例えば、観測範囲401において集団目標物411が道路420を端点430Aから端点430Bの方向に移動し、端点430Bを通過して観測範囲401の外に出た場合、センサ1_151は、観測範囲401内にある間は集団目標物411を観測できるが、観測範囲401の外に出た後は観測できなくなる。このように、それまで観測されていた目標物が観測できなくなった場合、目標物情報処理部102は、集団目標物411が観測範囲401を通過した(すなわちその外に出た)と判定し、それまでの航跡(すなわち各時刻の座標値)から、集団目標物411が観測範囲401を通過したときの移動速度(以下、これを単に「通過速度」とも記載する)を計算する。例えば、目標物情報処理部102は、集団目標物411が観測範囲401を通過する前に最後に観測された地点を含む航跡の情報から、観測範囲401を通過する直前の集団目標物411の移動速度を計算し、その移動速度を通過速度として特定してもよい。   First, the target information processing unit 102 of the sensor integration device 100 identifies a target that has passed through each observation range, its speed, and the like (step 621). For example, when the collective target 411 moves on the road 420 in the direction from the end point 430A to the end point 430B in the observation range 401 and passes through the end point 430B and goes out of the observation range 401, the sensor 1_151 is within the observation range 401. The collective target 411 can be observed for a while, but cannot be observed after the observation is made outside the observation range 401. In this way, when the target that has been observed until then can no longer be observed, the target information processing unit 102 determines that the collective target 411 has passed through the observation range 401 (that is, has gone outside), A moving speed when the collective target object 411 passes through the observation range 401 (hereinafter, also simply referred to as “passing speed”) is calculated from the previous track (that is, the coordinate value at each time). For example, the target information processing unit 102 moves the collective target 411 immediately before passing through the observation range 401 from information on a wake including the last observed point before the collective target 411 passes through the observation range 401. The speed may be calculated and the moving speed may be specified as the passing speed.

次に、目標物情報処理部102は、通過した目標物が最後に観測された地点の付近の端点を探索する(ステップ622)。例えば、目標物情報処理部102は、目標物が最後に観測された地点からの距離が所定の値以下の端点を探索してもよい。このとき、その距離の所定の値を目標物の通過速度に応じて変更してもよい。あるいは、最後に観測された際の航跡から予測して探索してもよい。   Next, the target object information processing unit 102 searches for an end point in the vicinity of the point where the target object that passed through was last observed (step 622). For example, the target information processing unit 102 may search for an end point whose distance from the point where the target was last observed is a predetermined value or less. At this time, the predetermined value of the distance may be changed according to the passing speed of the target. Alternatively, the search may be performed by predicting from the last track observed.

ステップ622の探索の結果、条件を満たす端点が取得された場合、目標物情報処理部102は、取得された端点を目標物が通過した(又は、少なくとも通過した可能性がある)と判定し、取得された端点の通過目標物リスト533に、通過した目標物の識別子を登録する(ステップ624)。例えば、集団目標物411が端点430Bを通過して観測範囲401の外に出たと判定された場合、目標物情報処理部102は、端点情報テーブル530の端点430Bに対応するレコードの通過目標物リスト533に集団目標物411の識別子を追加する。さらに、目標物情報処理部102は、ステップ622において、集団目標物411が端点430Bを通過した時刻を特定してもよい。例えば、取得された端点430と集団目標物411が最後に観測された地点との間の距離、最後に観測された時刻、及び通過速度に基づいて、端点430Bを通過した時刻を計算してもよいし、最後に観測された時刻を(近似的な)端点430Bを通過した時刻として使用してもよい。なお、ステップ622において、条件を満たす複数の端点が取得された場合、それらの端点のうち目標物が最後に観測された地点からの距離が最も小さいものを目標物が通過したと判定してもよいし、それらの端点の全てを目標物が通過した可能性があると判定して、それらの端点の各々に対応するレコードの通過目標物リスト533に目標物の識別子を登録してもよい。   As a result of the search in step 622, when an end point that satisfies the condition is acquired, the target information processing unit 102 determines that the target has passed (or at least may have passed) the acquired end point, The identifier of the passed target is registered in the acquired passing target list 533 of the end point (step 624). For example, when it is determined that the collective target object 411 has passed through the end point 430B and has gone out of the observation range 401, the target object information processing unit 102 passes the target object list of the record corresponding to the end point 430B of the end point information table 530. The identifier of the collective target 411 is added to 533. Further, the target object information processing unit 102 may specify the time at which the collective target object 411 passes through the end point 430B in step 622. For example, the time of passing through the end point 430B may be calculated based on the distance between the acquired end point 430 and the last observed point of the collective target 411, the last observed time, and the passing speed. Alternatively, the last observed time may be used as the time of passing through the (approximate) end point 430B. When a plurality of endpoints satisfying the condition are acquired in step 622, even if it is determined that the target has passed through the endpoint having the smallest distance from the point where the target was last observed. Alternatively, it may be determined that there is a possibility that the target has passed through all of these end points, and the identifier of the target may be registered in the passing target list 533 of the record corresponding to each of those end points.

ステップ624において、目標物情報処理部102は、さらに、端点間ネットワークテーブル540を参照して、ステップ622において取得された端点に関連付けられた端点を特定し、その端点に関する端点情報テーブル530のレコードの侵入予測リスト535に、ステップ621において特定された目標物の識別子を登録してもよい。例えば、ステップ622を実行した結果、集団目標物411が端点430Bを通過して観測範囲401の外に出たと判定された場合、目標物情報処理部102は、端点間ネットワークテーブル540を参照して、端点430Bに関連付けられた端点430Cを特定し、その識別子を、端点430Cに関する端点情報テーブル530のレコードの侵入予測リスト535に登録してもよい。   In step 624, the target object information processing unit 102 further refers to the end-to-end point network table 540, identifies the end point associated with the end point acquired in step 622, and records the end point information table 530 regarding the end point. The identifier of the target specified in step 621 may be registered in the intrusion prediction list 535. For example, as a result of executing Step 622, when it is determined that the collective target object 411 has passed the end point 430 </ b> B and has gone out of the observation range 401, the target information processing unit 102 refers to the end-point network table 540. The end point 430C associated with the end point 430B may be specified, and the identifier may be registered in the intrusion prediction list 535 of the record of the end point information table 530 regarding the end point 430C.

一方、例えば、観測範囲内に道路が存在しない場合、又は目標物が道路地図が存在しない領域を走行した場合等には、ステップ622において、条件を満たす端点が取得されない場合がある。このような場合、目標物情報処理部102は、目標物の航跡に基づいて仮の端点を生成し、それを端点情報テーブル530に登録する(ステップ623)。例えば、目標物情報処理部102は、目標物の航跡を外挿することで、その目標物が観測されなくなった後の航跡を推定し、その推定した航跡と観測範囲の境界とが交差する地点を仮端点として、仮想フラグ545を設定して登録してもよい。続いて、目標物情報処理部102は、登録した仮端点についてステップ624を実行する。   On the other hand, for example, when there is no road within the observation range, or when the target travels in an area where no road map exists, an end point that satisfies the condition may not be acquired in step 622. In such a case, the target information processing unit 102 generates a temporary endpoint based on the track of the target and registers it in the endpoint information table 530 (step 623). For example, the target information processing unit 102 extrapolates the track of the target to estimate the track after the target is no longer observed, and a point where the estimated track and the boundary of the observation range intersect May be set and registered with the virtual flag 545 as a temporary endpoint. Subsequently, the target object information processing unit 102 executes Step 624 for the registered temporary endpoint.

以上でセンサ観測範囲目標物通過処理が終了する。   Thus, the sensor observation range target passing process is completed.

図6Dは、本発明の実施形態のセンサ統合装置100が実行するセンサ観測範囲目標物侵入処理を示すフローチャートである。   FIG. 6D is a flowchart illustrating sensor observation range target entry processing executed by the sensor integration device 100 according to the embodiment of this invention.

最初に、目標物情報処理部102は、各観測範囲に侵入した目標物及びその速度等を特定する(ステップ631)。例えば、それまで観測範囲402内で観測されていたいずれの目標物とも同一と判定されない集団目標物412が新たに観測された場合、目標物情報処理部102は、その集団目標物412を観測範囲402に新たに侵入した目標物として特定し、その航跡から、集団目標物412が観測範囲402に侵入したときの移動速度(以下、これを単に「侵入速度」とも記載する)を計算する。この計算は、ステップ621と同様の方法で行うことができる。   First, the target information processing unit 102 specifies a target that has entered each observation range, its speed, and the like (step 631). For example, when a collective target 412 that is not determined to be the same as any target that has been observed in the observation range 402 is newly observed, the target information processing unit 102 sets the collective target 412 in the observation range. The target object newly entered in 402 is identified, and the moving speed when the collective target object 412 enters the observation range 402 (hereinafter, also simply referred to as “intrusion speed”) is calculated from the track. This calculation can be performed in the same manner as in step 621.

次に、目標物情報処理部102は、侵入した目標物が最初に観測された地点の付近の端点を探索する(ステップ632)。この探索は、ステップ622と同様に実行することができる。ステップ632において取得された端点は、目標物が侵入した(又は、少なくともその可能性がある)と判定された端点である。さらに、ステップ622と同様の方法で、目標物が侵入した時刻が特定されてもよい。   Next, the target object information processing unit 102 searches for an end point near the point where the intruding target object is first observed (step 632). This search can be performed in the same manner as step 622. The endpoints acquired in step 632 are endpoints determined that the target has entered (or at least that is likely). Furthermore, the time at which the target object has entered may be specified by the same method as in step 622.

ステップ632において条件を満たす端点が取得された場合、目標物情報処理部102は、端点間ネットワークテーブル540を参照して、取得された端点に関連付けられた端点を特定する(ステップ633)。例えば、集団目標物412が端点430Cから観測範囲402に侵入したと判定され、かつ、端点430Cが端点430Bに関連付けられている(より詳細には、端点間ネットワークテーブル540のいずれかのレコードの端点始点541及び端点終点542として端点430B及び430Cが登録されている)場合、ステップ633において端点430Bが特定される。   When the endpoint satisfying the condition in step 632 is acquired, the target object information processing unit 102 refers to the endpoint network table 540 and identifies the endpoint associated with the acquired endpoint (step 633). For example, it is determined that the collective target 412 has entered the observation range 402 from the end point 430C, and the end point 430C is associated with the end point 430B (more specifically, the end point of any record in the inter-endpoint network table 540) If the end points 430B and 430C are registered as the start point 541 and the end point end point 542), the end point 430B is specified in step 633.

次に、目標物情報処理部102は、端点情報テーブル530を参照して、ステップ633で特定された端点の通過目標物リスト533に登録された目標物を、侵入した目標物と同一の目標物の候補として特定する(ステップ634)。例えば、ステップ633において端点430Bが特定され、端点430Bの通過目標物リスト533に集団目標物411が登録されている場合、ステップ634において集団目標物411が特定される。   Next, the target object information processing unit 102 refers to the end point information table 530 and sets the target registered in the end point passing target list 533 specified in step 633 to the same target as the target that has entered. Are identified as candidates (step 634). For example, when the end point 430B is specified in step 633 and the collective target 411 is registered in the passing target list 533 of the end point 430B, the collective target 411 is specified in step 634.

なお、端点情報テーブル530が侵入予測リスト535を含み、ステップ632において取得された端点に関する侵入予測リスト535にいずれかの目標物の識別子が登録されている場合、目標物情報処理部102は、ステップ633を実行しなくてもよい。この場合、ステップ634において、目標物情報処理部102は、ステップ632において取得された端点に関する侵入予測リスト535に登録された目標物を、侵入した目標物と同一の目標物の候補として特定する。これによって、観測範囲に侵入した目標物が観測された後で端点間ネットワークテーブル540を参照する必要がなくなるため、処理時間を短縮することができる。   When the endpoint information table 530 includes the intrusion prediction list 535 and the identifier of any target is registered in the intrusion prediction list 535 regarding the endpoint acquired in step 632, the target object information processing unit 102 633 may not be executed. In this case, in step 634, the target object information processing unit 102 specifies the target registered in the intrusion prediction list 535 related to the end point acquired in step 632 as the same target candidate as the intruding target. This eliminates the need to refer to the end-to-end network table 540 after a target that has entered the observation range has been observed, thereby shortening the processing time.

次に、目標物情報処理部102は、ステップ634において特定された目標物候補について、目標物照合処理を実行する(ステップ635)。この処理の詳細については図6Eを参照して後述する。なお、実際にはステップ633において複数の端点が特定され、ステップ634において各端点について複数の目標物が特定される場合がある。その場合には、特定された全ての目標物について、目標物照合処理が実行される。   Next, the target object information processing unit 102 executes target target matching processing for the target candidate specified in step 634 (step 635). Details of this processing will be described later with reference to FIG. 6E. In practice, a plurality of end points may be specified in step 633, and a plurality of targets may be specified for each end point in step 634. In that case, target collation processing is executed for all the identified targets.

次に、目標物情報処理部102は、ステップ635の目標物照合処理の結果、照合に成功したか否かを判定する(ステップ636)。ステップ634において特定されたいずれの目標物候補についても照合に失敗した場合は、それらのいずれの目標物候補も、侵入した目標物と同一ではないと判定されたため、それら以外の目標物がいずれかの経路を経由して観測範囲に侵入した可能性がある。このため、目標物情報処理部102は、次に、ステップ633において特定された端点以外の端点の通過目標物リスト533に登録された目標物を、侵入した目標物と同一の目標物の候補として特定する(ステップ637)。   Next, the target information processing unit 102 determines whether or not the collation is successful as a result of the target collation processing in step 635 (step 636). If any of the target candidates identified in step 634 has failed to be collated, it is determined that none of the target candidates is the same as the target that has entered, and therefore any other target is selected. It may have entered the observation range via the route. Therefore, the target object information processing unit 102 next uses the target registered in the passing target list 533 of the end points other than the end point specified in step 633 as the same target candidate as the intruding target object. Specify (step 637).

なお、ステップ633において特定された端点以外の全ての端点を対象としてステップ637を実行してもよいが、実際には対象となる端点の数が膨大になるため、例えばステップ631において特定された端点からの距離が所定の値以下である端点のみを対象としてステップ637を実行してもよい。   Note that step 637 may be executed for all end points other than the end points specified in step 633. However, since the number of target end points is actually enormous, for example, the end points specified in step 631 Step 637 may be executed only for the end points whose distance from the distance is equal to or less than a predetermined value.

また、ステップ632において条件を満たす端点が取得されなかった場合は、目標物が道路以外の経路を経由して観測範囲に侵入したと考えられるため、侵入した端点に関連付けられた端点を特定することができない。この場合は、ステップ633〜636は実行されず、目標物が侵入した仮端点を除く全ての端点(又はその仮端点からの距離が所定の値以下である端点)を対象としてステップ637が実行される。   In addition, if the endpoint that satisfies the condition is not acquired in step 632, it is considered that the target has entered the observation range via a route other than the road, and therefore the endpoint associated with the entered endpoint is specified. I can't. In this case, Steps 633 to 636 are not executed, and Step 637 is executed for all end points (or an end point whose distance from the temporary end point is equal to or less than a predetermined value) except for the temporary end point where the target has entered. The

次に、目標物情報処理部102は、ステップ637において特定された全ての目標物について、目標物照合処理を実行する(ステップ638)。この処理はステップ635と同様であり、図6Eを参照して後述する。   Next, the target object information processing unit 102 executes target object collation processing for all target objects specified in step 637 (step 638). This process is similar to step 635 and will be described later with reference to FIG. 6E.

次に、目標物情報処理部102は、ステップ638の目標物照合処理の結果、照合に成功したか否かを判定する(ステップ639)。ステップ637において特定されたいずれの目標物候補についても照合に失敗した場合は、目標物情報処理部102は、侵入した目標物が過去にいずれかの観測範囲で観測されたいずれの目標物とも異なる新規の目標物であると判定し、新規目標物を生成してそれを目標物情報DB106Bに登録する(ステップ640)。   Next, the target information processing unit 102 determines whether or not the collation is successful as a result of the target collation processing in Step 638 (Step 639). If the verification fails for any target candidate specified in step 637, the target information processing unit 102 is different from any target that has been observed in any observation range in the past. A new target is determined, and a new target is generated and registered in the target information DB 106B (step 640).

ステップ636又はステップ639の照合の結果、ステップ637において特定された一つ以上の目標物候補について照合に成功した場合、及び、ステップ640において新規目標物が生成された場合、目標物情報処理部102は、照合結果を出力する(ステップ641)。出力される情報の例については、図8及び図9を参照して後述する。   As a result of the collation in step 636 or step 639, when the collation succeeds for one or more target candidates specified in step 637 and when a new target is generated in step 640, the target information processing unit 102 Outputs the collation result (step 641). An example of the output information will be described later with reference to FIGS.

図6Eは、本発明の実施形態のセンサ統合装置100が実行する目標物照合処理を示すフローチャートである。ステップ635において実行される目標物照合処理は、ステップ631において特定された目標物(以下、侵入目標物と記載)と、ステップ634において特定された目標物候補(以下、通過目標物候補と記載)との組を対象として行われる。ステップ634において複数の通過目標物候補が特定された場合には、侵入目標物と各通過目標物候補との各組を対象として行われる。同様に、ステップ638において実行される目標物照合処理は、ステップ631において特定された侵入目標物と、ステップ637において特定された通過目標物候補との組を対象として行われる。   FIG. 6E is a flowchart illustrating target collation processing executed by the sensor integration device 100 according to the embodiment of this invention. The target collation process executed in step 635 includes the target identified in step 631 (hereinafter referred to as an intrusion target) and the target candidate identified in step 634 (hereinafter referred to as a passing target candidate). It is performed for the pair. When a plurality of passing target candidates are specified in step 634, the process is performed for each set of the intrusion target and each passing target candidate. Similarly, the target collation process executed in step 638 is performed on the set of the intrusion target specified in step 631 and the passing target candidate specified in step 637.

最初に、目標物情報処理部102は、通過目標物候補が通過した端点と侵入目標物が侵入した端点とに対応する経路地図の有無を判定する(ステップ651)。通過目標物候補について、ステップ622の条件を満たす端点が取得できなかったか、又は、侵入目標物について、ステップ632の条件を満たす端点が取得できなかった場合には、対応する経路地図がないと判定され、それ以外の場合には対応する経路地図があると判定される。   First, the target object information processing unit 102 determines whether or not there is a route map corresponding to the end point through which the passing target candidate has passed and the end point into which the intruding target has entered (step 651). If the endpoint satisfying the condition of step 622 could not be acquired for the passing target candidate or the endpoint satisfying the condition of step 632 could not be acquired for the intrusion target, it is determined that there is no corresponding route map. Otherwise, it is determined that there is a corresponding route map.

ステップ651において、対応する経路地図があると判定された場合、目標物情報処理部102は、経路地図に基づいて、通過目標物候補が通過した端点と侵入目標物が侵入した端点との間の経路距離を特定する(ステップ652)。このとき、地図情報処理部104が道路ネットワークデータを用いてこれらの端点間の経路探索を行って経路距離を計算してもよいが、これらの端点の組が端点間ネットワークテーブル540に登録されている場合には、その組に対応するレコードの距離543を経路距離として取得することができる。このように地図情報に基づいて端点間の経路距離をあらかじめ計算しておくことによって、観測範囲に侵入した目標物が観測された後で端点間の経路探索を行う必要がなくなるため、処理時間を短縮することができる。   If it is determined in step 651 that there is a corresponding route map, the target information processing unit 102 determines, based on the route map, between the end point where the passing target candidate has passed and the end point where the intruding target has entered. A route distance is specified (step 652). At this time, the map information processing unit 104 may perform route search between these end points using the road network data to calculate the route distance. However, a set of these end points is registered in the end-to-end point network table 540. If there is, the distance 543 of the record corresponding to the set can be acquired as the route distance. By calculating the path distance between the end points in advance based on the map information in this way, it is not necessary to search for the path between the end points after the target that has entered the observation range is observed. It can be shortened.

ステップ651において、対応する経路地図がないと判定された場合、地図情報に基づいて経路を推定することができないため、目標物情報処理部102は、通過目標物候補が通過した端点と侵入目標物が侵入した端点との間の直線距離を経路距離として特定する(ステップ653)。しかし、例えば車両等が走行して2点間を移動する場合に、その2点間の最短経路を通ることはほとんどなく、実際には最短経路より長い経路を移動すると考えられる。このため、目標物情報処理部102は、直線距離に、経験的に求められる所定の係数を乗じる等の方法によって、経路距離を補正してもよい(ステップ654)。   If it is determined in step 651 that there is no corresponding route map, the route cannot be estimated based on the map information. Therefore, the target information processing unit 102 determines the end point and the intrusion target that the passing target candidate has passed. A straight line distance from the end point where the intruder enters is specified as a route distance (step 653). However, for example, when a vehicle or the like travels and moves between two points, it is considered that the shortest route between the two points is hardly passed, and actually, the route that is longer than the shortest route is moved. For this reason, the target object information processing unit 102 may correct the route distance by a method such as multiplying the linear distance by a predetermined coefficient that is empirically obtained (step 654).

次に、目標物情報処理部102は、通過目標物候補と侵入目標物とが同一の目標物であり、その目標物がステップ652等で推定された経路を移動したと仮定した場合の当該経路の移動時間を、推定された経路距離及びそれらの目標物の少なくとも一方の速度に基づいて推定する(ステップ655)。具体的には、通過目標物候補の速度はステップ621において、侵入目標物の速度はステップ631においてそれぞれ計算されているため、目標物情報処理部102は、これらの速度のいずれか一方、又はこれらの値に基づいて計算された速度(例えば両者の平均値)と、ステップ652又は653で特定された経路距離(又はステップ654で補正された経路距離)とに基づいて、通過目標物候補が通過した端点と侵入目標物が侵入した端点との間の経路を目標物が移動するのに要する時間を推定する。以下、この時間を推定移動時間と記載する。   Next, the target information processing unit 102 assumes that the passing target candidate and the intrusion target are the same target, and that the target has moved along the path estimated in step 652 or the like. Are estimated based on the estimated path distance and / or the speed of at least one of the targets (step 655). Specifically, since the speed of the passing target candidate is calculated in step 621 and the speed of the intrusion target is calculated in step 631, the target information processing unit 102 determines either one of these speeds or these Based on the speed calculated based on the value of (for example, the average value of both) and the route distance specified in step 652 or 653 (or the route distance corrected in step 654), the passing target candidate passes. The time required for the target to move along the path between the end point that has entered and the end point into which the intruding target has entered is estimated. Hereinafter, this time is referred to as an estimated travel time.

次に、目標物情報処理部102は、ステップ655の推定移動時間と、通過目標物候補が端点を通過した時刻から侵入目標物が端点から侵入した時刻までの時間(以下、この時間を通過−侵入時間と記載する)とを照合する(ステップ656)。例えば、目標物情報処理部102は、通過−侵入時間が、推定移動時間を含む所定の時間範囲に含まれるか否かを、次の式(1)に基づいて判定してもよい。   Next, the target information processing unit 102 determines the estimated travel time in step 655 and the time from the time when the passing target candidate passes through the end point to the time when the intruding target enters from the end point (hereinafter, this time is passed − (Described as intrusion time) (step 656). For example, the target information processing unit 102 may determine whether or not the passage-intrusion time is included in a predetermined time range including the estimated travel time based on the following equation (1).

d/v−αd/v<t<d/v+αd/v ・・・(1)
ここで、
d:ステップ652等において特定された経路距離
v:目標物の速度(すなわち、d/v:ステップ655の推定移動時間)
α:所定のパラメータ
t:通過−侵入時間
である。
d / v−αd / v <t <d / v + αd / v (1)
here,
d: Route distance specified in step 652 or the like v: Speed of target (that is, d / v: estimated travel time in step 655)
α: predetermined parameter t: passage-penetration time.

上記の式(1)が満たされないことは、通過−侵入時間が、パラメータαによって定められる、推定移動時間を含む所定の時間範囲に含まれないこと、言い換えると、通過−侵入時間と推定移動時間との乖離の大きさが、パラメータαによって定められる範囲を超えていることを意味する。通過−侵入時間と推定移動時間との乖離が大きいことは、観測範囲内で観測された目標物の移動速度と、観測範囲外の経路を移動するのに要する速度との乖離が大きいことを意味する。この乖離が大きいほど、通過目標物候補と侵入目標物とが同一の目標物であることの確からしさ(確度)が低いと考えられる。このため、目標物情報処理部102は、ステップ656において、例えば式(1)の条件が満たされるか否かを判定し、満たされない場合、通過目標物候補と侵入目標物とが同一の目標物ではない(すなわち照合に失敗した)と判定する(ステップ662)。これによって、確度の低い通過目標物候補を除外することができる。   The fact that the above equation (1) is not satisfied means that the passage-intrusion time is not included in the predetermined time range including the estimated movement time determined by the parameter α, in other words, the passage-intrusion time and the estimated movement time. This means that the magnitude of the deviation exceeds the range determined by the parameter α. A large divergence between the passage-intrusion time and the estimated travel time means that there is a large divergence between the movement speed of the target observed within the observation range and the speed required to move the route outside the observation range. To do. It is considered that the greater the difference, the lower the certainty (accuracy) that the passing target candidate and the intrusion target are the same target. For this reason, the target object information processing unit 102 determines in step 656 whether, for example, the condition of the expression (1) is satisfied, and if not satisfied, the passing target candidate and the intrusion target are the same target object. It is determined that it is not (that is, collation has failed) (step 662). Thereby, a passing target candidate with low accuracy can be excluded.

一方、ステップ656の条件が満たされる場合、目標物情報処理部102は、通過目標物候補と侵入目標物とが同一の目標物である(すなわち照合に成功した)と判定してもよいが、図6Eの例では、さらに目標物の速度以外の一つ以上の種類の属性を照合することによって、それぞれの属性に基づいて、通過目標物候補と侵入目標物とが同一の目標物であることの確度を判定し、さらにそれぞれの属性及び移動時間の照合結果の確度に基づいて、総合的な確度を判定する。例えば、目標物情報処理部102は、通過目標物候補と侵入目標物とが個別目標物である場合、それらの種別、大きさ、色、形等を照合してもよいし、それらが集団目標物である場合、それらに含まれる個別目標物の数、位置関係、各個別目標物の種別、大きさ等を照合してもよい。これらの属性を照合することによって、照合の精度がさらに向上することが期待される。   On the other hand, when the condition of step 656 is satisfied, the target object information processing unit 102 may determine that the passing target candidate and the intrusion target are the same target (that is, the matching has succeeded), In the example of FIG. 6E, by collating one or more types of attributes other than the speed of the target, the passing target candidate and the intrusion target are the same target based on the respective attributes. In addition, the overall accuracy is determined based on the accuracy of the matching result of each attribute and travel time. For example, when the passing target candidate and the intrusion target are individual targets, the target information processing unit 102 may collate their types, sizes, colors, shapes, etc. In the case of objects, the number of individual targets included in them, the positional relationship, the type, size, etc. of each individual target may be collated. By collating these attributes, it is expected that the accuracy of collation is further improved.

ただし、既に説明したように、例えばセンサ1_151がレーダであり、センサ2_152がカメラである等、複数の種類のセンサが使用される場合があり、センサの種類に応じて取得できる目標物の属性が異なる場合がある。このため、例えば侵入目標物の属性情報は色に関する情報を含んでいるが、通過目標物候補の属性情報は色に関する情報を含んでいないというように、それぞれの目標物の属性情報の種類が一致しない場合があり得る。このため、目標物情報処理部102は、属性情報の種類ごとに、通過目標物候補及び侵入目標物のいずれの属性情報にもその種類の属性情報の値が含まれているか否かを判定し(ステップ657、659等)、含まれている場合に限り、それらの属性値を照合する(ステップ658、660等)。これによって、複数の種類のセンサが混在する場合にも、精度のよい照合を実現することができる。   However, as already described, a plurality of types of sensors may be used, for example, the sensor 1_151 is a radar and the sensor 2_152 is a camera. May be different. For this reason, for example, the attribute information of the intrusion target includes information about the color, but the attribute information of the passing target candidate does not include information about the color. It is possible that you will not. Therefore, the target information processing unit 102 determines, for each attribute information type, whether the attribute information value of that type is included in any attribute information of the passing target candidate and the intrusion target. (Steps 657, 659, etc.) The attribute values are collated only when they are included (Steps 658, 660, etc.). As a result, even when a plurality of types of sensors coexist, it is possible to realize accurate collation.

図6Eの例では、目標物情報処理部102は、通過目標物候補及び侵入目標物のいずれの属性情報も、それぞれの目標物に含まれる個別目標物の数を含んでいるか否かを判定し(ステップ657)、含んでいる場合には、それらの値の差が所定のパラメータβ以内であるか否かを判定する(ステップ658)。その結果、個別目標物の数の差がパラメータβを超える場合には、通過目標物候補と侵入目標物とが同一の目標物ではないと判定する(ステップ662)。   In the example of FIG. 6E, the target object information processing unit 102 determines whether or not any attribute information of the passing target candidate and the intrusion target includes the number of individual targets included in each target (step 657), if included, it is determined whether the difference between these values is within a predetermined parameter β (step 658). As a result, when the difference in the number of individual targets exceeds the parameter β, it is determined that the passing target candidate and the intrusion target are not the same target (step 662).

個別目標物の数の差がパラメータβを超えない場合には、目標物情報処理部102は、さらに他の種類の属性値(集団目標物に含まれる複数の個別目標物の位置関係、各個別目標物の種別等)についても、同様の判定を行うことができる。例えばn種類(nは1以上の任意の整数)の属性について、上記と同様の判定を繰り返し実行してもよい(ステップ659、660)。具体的には、例えば、通過目標物候補及び侵入目標物のいずれの属性情報も、それぞれの目標物に含まれる個別目標物の位置関係を示す情報を含んでいる場合、目標物情報処理部102は、それぞれの位置関係の類似度を判定してもよい。   When the difference in the number of individual targets does not exceed the parameter β, the target information processing unit 102 further selects other types of attribute values (positional relationships among a plurality of individual targets included in the collective target, each individual target The same determination can be made with respect to the type or the like. For example, the determination similar to the above may be repeatedly executed for n types (n is an arbitrary integer equal to or greater than 1) (steps 659 and 660). Specifically, for example, when both the attribute information of the passing target candidate and the intrusion target include information indicating the positional relationship of the individual targets included in each target, the target information processing unit 102 May determine the similarity of each positional relationship.

なお、図6Eは一例であり、実際にはどの種類の属性値を照合してもよいし、何種類の属性値を照合してもよい。例えば、集団目標物に含まれる個別目標物の数を照合せずに、集団目標物に含まれる個別目標物の位置関係を照合してもよい。   Note that FIG. 6E is an example, and in actuality, any kind of attribute value may be collated, and any kind of attribute value may be collated. For example, the positional relationship of the individual targets included in the collective target may be collated without collating the number of individual targets included in the collective target.

結局、目標物情報処理部102は、判定の対象となった全ての属性値が所定の条件を満たすと判定された場合に、通過目標物候補と侵入目標物とが同一の目標物である(すなわち照合に成功した)と判定し、目標物照合処理を終了する。センサ統合装置100は、この照合の結果を入出力装置190から出力してもよい(図8、図9参照)。   Eventually, the target object information processing unit 102 determines that all of the attribute values to be determined satisfy the predetermined condition, and the passing target candidate and the intrusion target are the same target ( That is, it is determined that the collation is successful), and the target collation process is terminated. The sensor integration device 100 may output the result of this collation from the input / output device 190 (see FIGS. 8 and 9).

上記のように、各通過目標物候補と侵入目標物との照合は、それらが同一であることの確度に基づいて行われる。このため、例えば、複数の通過目標物候補が、侵入目標物と実際に同一の目標物のほかに、侵入目標物と同一でないが、類似する属性を有する目標物を含んでいる場合等には、照合の結果、複数の通過目標物候補が一つの侵入目標物と同一であると判定される可能性もある。その場合は、センサ統合装置は、計算された確度が最も高い通過目標物候補のみを侵入目標物と同一のものとして出力してもよいし、侵入目標物と同一であると判定された全ての通過目標物候補を出力し、それらのうちどれが実際に侵入目標物と同一であるかの判定をユーザに委ねてもよい。   As described above, the matching between each passing target candidate and the intrusion target is performed based on the probability that they are the same. For this reason, for example, when a plurality of passing target candidates include targets that are not the same as the intrusion target but have similar attributes in addition to the actually same target as the intrusion target. As a result of the collation, there is a possibility that a plurality of passing target candidates are determined to be the same as one intrusion target. In that case, the sensor integration device may output only the passing target candidate with the highest calculated accuracy as the same as the intrusion target, or all the determined to be the same as the intrusion target. Passing target candidates may be output, and it may be left to the user to determine which of them is actually the same as the intrusion target.

さらに、照合の結果に応じてデータベース106の内容が更新されてもよい。例えば、図5Bに示す識別子「G001」によって識別される集団目標物と識別子「G002」によって識別される集団目標物とが同一であると判定された場合、そのことを示す情報が集団目標物情報テーブル510に追加されてもよいし、それぞれのレコードの集団目標物ID511として登録されている識別子「G001」及び「G002」のうち一方がもう一方と同一の値に書き換えられてもよい。   Furthermore, the contents of the database 106 may be updated according to the result of collation. For example, when it is determined that the collective target identified by the identifier “G001” and the collective target identified by the identifier “G002” shown in FIG. 5B are the same, information indicating that is the collective target information. One of the identifiers “G001” and “G002” registered as the collective target ID 511 of each record may be rewritten to the same value as the other.

さらに、ステップ634において通過目標物リスト533が参照され、そのリストに含まれるいずれかの通過目標物候補が侵入目標物と同一であると判定された場合、その通過目標物候補の識別子が通過目標物リスト533から削除されてもよい。ステップ634において侵入予測リスト535が参照され、そのリストに含まれるいずれかの通過目標物候補が侵入目標物と同一であると判定された場合も同様である。   Further, in step 634, the passing target list 533 is referred to, and if it is determined that any passing target candidate included in the list is the same as the intrusion target, the identifier of the passing target candidate is the passing target. The item list 533 may be deleted. The same applies to the case where the intrusion prediction list 535 is referred to in step 634 and it is determined that any of the passing target candidates included in the list is the same as the intrusion target.

ここで、推定移動時間及びその他の一つ以上の属性値の一つでも条件を満たさない場合には、照合に失敗したと判定される。このような決定木による判定は、通過目標物候補と侵入目標物とが同一の目標物であることの確度を判定する方法の一例に過ぎず、これ以外の判定方法、例えばベイズ推論やDempster−Shafer理論などによる確率的判定方法、機械学習による判定方法などを採用することもできる。その際、判定に利用する属性情報の種類は予め規定し、様々なセンサ及び処理方式の間で共通化してもよいし、辞書又はオントロジーなどに任意の変換規則を定義し、同種の概念に変換利用してもよい。   Here, if even one of the estimated travel time and one or more other attribute values does not satisfy the condition, it is determined that the verification has failed. Such determination by the decision tree is merely an example of a method for determining the accuracy of the passing target candidate and the intrusion target being the same target, and other determination methods such as Bayesian inference and Demposter- A probabilistic determination method based on the Shafer theory, a determination method based on machine learning, or the like can also be employed. At that time, the type of attribute information used for the determination is specified in advance, and may be shared among various sensors and processing methods, or an arbitrary conversion rule is defined in a dictionary or ontology, and converted into the same type of concept. May be used.

なお、それぞれの属性値の照合は、任意の方法で行うことができる。例えば個別目標物の大きさに関しては、例えば通過目標物候補と侵入目標物との全長の差が所定のパラメータの値以下であるか否か(言い換えると全長の類似度が所定の値以上であるか否か)を判定してもよいし、個別目標物の色、形、集団目標物に含まれる個別目標物の位置関係等に関しては、それらを表す特徴量の類似度が所定のパラメータの値以下であるか否かを判定してもよい。   In addition, collation of each attribute value can be performed by arbitrary methods. For example, regarding the size of the individual target, for example, whether or not the difference in total length between the passing target candidate and the intrusion target is equal to or smaller than a predetermined parameter value (in other words, the similarity of the total length is equal to or larger than a predetermined value). Or the like, and regarding the color and shape of the individual target object, the positional relationship of the individual target object included in the collective target object, etc., the similarity of the feature quantity representing them is a predetermined parameter value. You may determine whether it is below.

また、個別目標物の種別に関しては、センサの観測データに含まれる画像データ等から目標物の種別をパターン認識し、その上で種別カテゴリの一致を判定してもよいし、画像データ同士を直接照合し、類似度を算出してそれらの一致を判定してもよい。このような属性の照合は、公知の方法によって行うこともできるため、詳細な説明は省略する。   As for the type of the individual target, the type of the target may be pattern-recognized from image data or the like included in the sensor observation data, and then the type category may be matched, or the image data may be directly compared with each other. They may be collated and the degree of similarity calculated to determine their match. Since such attribute matching can be performed by a known method, detailed description thereof is omitted.

センサ統合装置100のユーザは、上記の照合に使用されるα、β等のパラメータを任意に設定することができる。例えば、センサ統合装置100を使用する目的に応じて、適切なパラメータの値を選択することによって、通過目標物候補と侵入目標物とが同一であると判定されやすくしたり、逆に両者が同一でないと判定されやすくしたりすることもできる。   The user of the sensor integration device 100 can arbitrarily set parameters such as α and β used for the above-described verification. For example, by selecting an appropriate parameter value according to the purpose of using the sensor integration device 100, it is easy to determine that the passing target candidate and the intrusion target are the same, or conversely, both are the same. Otherwise, it can be easily determined.

なお、センサの種別及び航跡抽出処理によって、得られる航跡の確度が異なる。例えば、分解能が高いカメラなどでは、詳細な目標物の情報が得られ、確度の高い航跡及び属性情報が得られる場合が多い。そのような高確度の情報を他の低確度の情報に比べて優先して統合してもよい。例えば、集団目標物に含まれる個別目標物の正確な数、集団目標物に含まれる特徴的な個別目標物の存在の有無などの照合結果を優先して、航跡を統合してもよい。   The accuracy of the obtained wake varies depending on the type of sensor and the wake extraction process. For example, in a camera with high resolution, detailed target information can be obtained, and highly accurate track and attribute information is often obtained. Such high-accuracy information may be integrated with priority over other low-accuracy information. For example, the wakes may be integrated giving priority to the collation results such as the exact number of individual targets included in the group target and the presence / absence of characteristic individual targets included in the group target.

また、実際には、一つの個別目標物が単独で(すなわち他の個別目標物から離れて独立に)観測範囲間を移動する場合もある。このような場合には、センサ統合装置100は、その個別目標物について、上記のようなセンサ統合処理を実行することができる。その場合には、図6Eの処理において、個別目標物の属性が照合される。   Further, in practice, one individual target may move between observation ranges independently (that is, independently from other individual targets). In such a case, the sensor integration device 100 can execute the sensor integration process as described above for the individual target. In that case, the attributes of the individual target are collated in the process of FIG. 6E.

図7は、本発明の実施形態のセンサ統合装置100が実行するセンサ統合処理の変形例を示す図である。図4では、典型的な例として、観測範囲401を通過した目標物411等が道路420を通って別の観測範囲402に侵入する例を示したが、実際には、一つの観測範囲を通過した目標物が観測範囲外の領域を通って再び元の観測範囲に侵入する場合もある。図7はその典型的な例であり、単独のセンサ701の観測範囲702に、建物又は地形(例えば山など)によるオクルージョンが発生し系統的な欠測範囲がある場合を示している。このような観測範囲702において、道路703を走行する複数の目標物が、観測範囲702内の端点721Aから721Bまでの間で、個別目標物711A、711B及び711Cを含む集団目標物711として観測され、端点721Bを通過して観測範囲702の外に出た後、再び端点721Cから観測範囲702に侵入し、端点721Cから721Dまでの間で、個別目標物712A、712B及び712Cを含む集団目標物712として観測される場合がある。このような場合も、これまでに説明した方法で、集団目標物711と712とを照合することができる。   FIG. 7 is a diagram illustrating a modified example of the sensor integration process executed by the sensor integration device 100 according to the embodiment of this invention. In FIG. 4, as a typical example, an example is shown in which a target 411 or the like that has passed through the observation range 401 enters the other observation range 402 through the road 420, but actually passes through one observation range. In some cases, the target has entered the original observation range again through a region outside the observation range. FIG. 7 shows a typical example, and shows a case where an occlusion due to a building or topography (such as a mountain) occurs in the observation range 702 of a single sensor 701 and there is a systematic missing range. In such an observation range 702, a plurality of targets traveling on the road 703 are observed as collective targets 711 including individual targets 711A, 711B, and 711C between the end points 721A to 721B in the observation range 702. , After passing through the end point 721B and out of the observation range 702, again enters the observation range 702 from the end point 721C, and the collective target including the individual targets 712A, 712B and 712C between the end points 721C to 721D. It may be observed as 712. Even in such a case, the collective targets 711 and 712 can be collated by the method described so far.

このような照合を行うために、端点間ネットワークテーブル540は、異なる観測範囲の端点間を関連付ける情報だけでなく、端点721B及び721Cのように、観測範囲外の経路によって接続される同一の観測範囲の端点間を関連付ける情報も記述できるようにしてもよい。   In order to perform such collation, the inter-endpoint network table 540 includes not only information that associates end points of different observation ranges but also the same observation range connected by a path outside the observation range, such as the end points 721B and 721C. It is also possible to describe information that associates the end points of the.

図8は、本発明の実施形態のセンサ統合装置100によって出力される情報及びユーザインタフェースの説明図である。図6Eを参照して説明したように、センサ統合装置100は、複数の通過目標物候補のうち侵入目標物と同一である確度が最も高いものを侵入目標物と同一の目標物と判定してその結果を出力してもよいが、複数の通過目標物候補を出力し、それらのうちのいずれかを侵入目標物と同一の目標物としてユーザに選択させることもできる。そのような出力及び選択のユーザインタフェースについて、センサ統合装置100の入出力装置190によって表示される画面の例を図8に示す。画面には、道路803を含む地図上に、観測範囲801及び802が重畳表示され、さらに、観測範囲801内で観測された集団目標物811、812及び観測範囲802内で観測された集団目標物813を示すシンボルが表示される。集団目標物811は個別目標物811A、811B及び811Cを含み、集団目標物812は個別目標物812A、812B及び812Cを含み、集団目標物813は個別目標物813A、813B及び813Cを含む。これらの個別目標物を示すシンボルも表示してもよい。この例において、集団目標物813が侵入目標物であり、集団目標物811及び812が集団目標物813と同一である可能性がある通過目標物候補である。   FIG. 8 is an explanatory diagram of information and a user interface output by the sensor integration device 100 according to the embodiment of this invention. As described with reference to FIG. 6E, the sensor integration device 100 determines that a plurality of passing target candidates having the highest probability of being the same as the intrusion target are the same as the intrusion target. Although the result may be output, it is also possible to output a plurality of passing target candidates and allow the user to select one of them as the same target as the intrusion target. FIG. 8 shows an example of a screen displayed by the input / output device 190 of the sensor integration device 100 for such an output and selection user interface. On the screen, the observation ranges 801 and 802 are superimposed on a map including the road 803, and further, the group targets 811 and 812 observed within the observation range 801 and the group targets observed within the observation range 802 are displayed. A symbol indicating 813 is displayed. The collective target 811 includes individual targets 811A, 811B and 811C, the collective target 812 includes individual targets 812A, 812B and 812C, and the collective target 813 includes individual targets 813A, 813B and 813C. Symbols indicating these individual targets may also be displayed. In this example, the collective target 813 is an intrusion target, and the collective targets 811 and 812 are passing target candidates that may be the same as the collective target 813.

さらに、画面には、ユーザがマウス等のデバイスを用いて操作するマウスカーソル等のポインタ821が表示される。ユーザがポインタ821を観測範囲802に侵入した集団目標物813の上に置くと、センサ統合装置100はポップアップメニュー831を表示してもよい。ポップアップメニュー831には、侵入した集団目標物813と同一である確度の高い順にソートされた通過目標物候補の識別子等が確度とともに表示される。ユーザは、いずれかの通過目標物候補を選択することによって、照合結果を確定させることができる。   Further, a pointer 821 such as a mouse cursor operated by the user using a device such as a mouse is displayed on the screen. When the user places the pointer 821 on the collective target 813 that has entered the observation range 802, the sensor integrated device 100 may display a pop-up menu 831. In the pop-up menu 831, identifiers and the like of passing target candidates sorted in descending order of accuracy that are the same as the group target 813 that has entered are displayed together with the accuracy. The user can determine the collation result by selecting one of the passing target candidates.

なお、センサ統合装置100は、図6Eに示した目標物統合処理の結果、侵入目標物と同一であると判定された一つ以上の通過目標物候補を確度の順にポップアップメニュー831に表示してもよいし、目標物統合処理によって侵入目標物と同一であると判定されたか否かにかかわらず、全ての通過目標物候補を確度の順にポップアップメニュー831に表示してもよい。   Note that the sensor integration device 100 displays one or more passing target candidates determined to be the same as the intrusion target as a result of the target integration process shown in FIG. 6E in the pop-up menu 831 in the order of accuracy. Alternatively, all the passing target candidates may be displayed in the pop-up menu 831 in the order of accuracy regardless of whether or not the target integration process determines that they are the same as the intrusion target.

さらに、例えば、ポップアップメニュー831に表示された複数の通過目標物候補のうちいずれかの上にポインタ821が置かれた場合、センサ統合装置100は、その通過目標物候補に対応する目標物のシンボルを強調表示することによって、視覚的にユーザの状況判断を支援してもよい。これによって、ユーザは適切な目標物の関連付けを簡易に実行でき、複数の観測範囲に跨る目標物の航跡を推定することができる。例えば、通過目標物候補である集団目標物811及び812の識別情報がそれぞれ「A」及び「B」、それらが侵入目標物である集団目標物813と同一である確度がそれぞれ「xx」及び「yy」であり、「xx」が「yy」より大きい場合、センサ統合装置100は、ポップアップメニュー831の先頭に「候補グループA」を表示し、その次に「候補グループB」を表示してもよい。さらに、ユーザがポインタ821を「候補グループA」の上に置いた場合、センサ統合装置100は、集団目標物811のシンボルを強調表示してもよい。   Further, for example, when the pointer 821 is placed on any of the plurality of passing target candidates displayed in the pop-up menu 831, the sensor integration device 100 displays the symbol of the target corresponding to the passing target candidate. May be visually assisted to highlight the user's situation. Thus, the user can easily execute association of appropriate targets, and can estimate the track of the target over a plurality of observation ranges. For example, the identification information of the group targets 811 and 812 that are passing target candidates is “A” and “B”, respectively, and the probability that they are the same as the group target 813 that is an intrusion target is “xx” and “B”, respectively. If “yy” is greater than “yy”, the sensor integration apparatus 100 displays “candidate group A” at the top of the pop-up menu 831 and then displays “candidate group B”. Good. Further, when the user places the pointer 821 on “candidate group A”, the sensor integration device 100 may highlight the symbol of the collective target 811.

ポップアップメニュー831は、さらに、「新規グループ」及び「キャンセル」の選択肢を含んでもよい。ユーザが「新規グループ」を選択した場合、センサ統合装置100は、集団目標物813がいずれの通過目標物候補とも同一でない新規の目標物であると判定し、その集団目標物813の識別子及び属性情報等をデータベース106に新規に登録する。このような新規の目標物が観測される場合としては、例えば、複数の集団目標物が合流した場合、これまで観測されていなかった集団目標物が新たに観測された場合、又は一つの集団目標物が分裂した場合等が挙げられる。なお、複数の集団目標物が合流した場合には、合流したと思われる複数の通過目標物候補をユーザが選択し、センサ統合装置100がそれらの通過目標物候補をマージしてもよい。一方、ユーザが「キャンセル」を選択した場合、センサ統合装置100は、照合結果を確定せずに保留(延期)する。このとき、センサ統合装置100は、特別な処理を実行しなくてもよいが、以降の処理の過程で必要に応じて適切な処理を実行できるよう、照合結果が未確定であることを示すシンボルを表示してもよい。   The pop-up menu 831 may further include options of “new group” and “cancel”. When the user selects “new group”, the sensor integration device 100 determines that the collective target 813 is a new target that is not identical to any passing target candidate, and the identifier and attribute of the collective target 813 Information and the like are newly registered in the database 106. Such new targets are observed when, for example, a plurality of collective targets are merged, a collective target that has not been observed before is newly observed, or a single collective target is observed. This is the case when things split. When a plurality of collective targets are merged, the user may select a plurality of passing target candidates that seem to have merged, and the sensor integration apparatus 100 may merge these passing target candidates. On the other hand, when the user selects “cancel”, the sensor integration device 100 holds (postpones) the verification result without confirming it. At this time, the sensor integration device 100 may not perform special processing, but a symbol indicating that the collation result is uncertain so that appropriate processing can be performed as necessary in the subsequent processing. May be displayed.

さらに、ユーザがポインタ821を個別目標物のシンボルの上に置いた場合、センサ統合装置100は、当該個別目標物の観測データ(レーダによる観測データ又はカメラによって撮影された画像データ等)及び属性情報の表示を含むポップアップ表示832を行ってもよい。同様に、ユーザがポインタ821を集団目標物のシンボルの上に置いた場合、センサ統合装置100は、当該集団目標物に含まれる全ての個別目標物の観測データ及び属性情報の表示を含むポップアップ表示833を行ってもよい。これによって、ユーザの判断を支援する情報を効率よく提示することができる。   Further, when the user places the pointer 821 on the symbol of the individual target, the sensor integration device 100 uses the observation data of the individual target (observation data by the radar or image data taken by the camera) and attribute information. A pop-up display 832 including the following display may be performed. Similarly, when the user places the pointer 821 on the symbol of the collective target, the sensor integration device 100 displays a pop-up display including observation data and attribute information display of all the individual targets included in the collective target. 833 may be performed. Thereby, it is possible to efficiently present information that supports the user's judgment.

さらに、災害等によって通行不可能な経路841が生じた場合、ユーザがポインタ821を操作して当該経路841を指示し、センサ統合装置100がこの指示に従って当該経路841に通行不可の属性情報を追加してもよいし、その指示に従って端点間ネットワークテーブル540や端点情報テーブル530、あるいは地図情報DB106Cそのものを編集してもよい。これによって、当該経路841は経路探索に利用されなくなるため、航跡の統合の精度が向上する。   Further, when a path 841 that cannot be passed due to a disaster or the like occurs, the user operates the pointer 821 to instruct the path 841, and the sensor integration device 100 adds the attribute information that cannot be passed to the path 841 according to this instruction. Alternatively, the endpoint network table 540, the endpoint information table 530, or the map information DB 106C itself may be edited in accordance with the instruction. As a result, the route 841 is not used for route search, and the accuracy of wake integration is improved.

図9は、本発明の実施形態のセンサ統合装置100によって出力される情報の説明図である。照合結果が確定した場合(すなわち、複数の通過目標物候補のうち一つが侵入目標物と同一であるとの判定が確定した場合)の航跡の表示の例を示す。具体的には、観測範囲401を通過した集団目標物411と、観測範囲402に侵入した集団目標物412とが同一であると判定され、それらの間の移動経路として道路420が推定された場合の航跡の表示の例を示す。   FIG. 9 is an explanatory diagram of information output by the sensor integration device 100 according to the embodiment of this invention. The example of a display of a wake when a collation result is finalized (that is, when it is determined that one of a plurality of passing target candidates is the same as an intruding target) is shown. Specifically, when the collective target 411 that has passed through the observation range 401 and the collective target 412 that has entered the observation range 402 are determined to be the same, and the road 420 is estimated as a movement route between them. An example of the display of the wake is shown.

表示例901は、各観測範囲内の航跡のみを表示した例である。このような各観測範囲内の航跡に加えて、表示例902に示すように、複数の観測範囲にまたがる航跡も表示することによって、広範囲の目標物の移動及び存在状況を把握できる。あるいは、表示例903に示すように、観測範囲の間を連結して航跡を統合した場合、観測範囲の内外で表示する線種を切り替え表示してもよい。あるいは、表示例904に示すように、各観測範囲内では個別目標物の航跡を、センサ観測範囲外では集団目標物の航跡を切り替え表示してもよい。上記のような表示によって、侵入目標物と、それと同一であると判定された通過目標物との対応、及び、それらが通ったと推定される経路を、ユーザが容易に把握することが可能になる。   A display example 901 is an example in which only tracks within each observation range are displayed. In addition to the wakes in each observation range, as shown in the display example 902, the wakes extending over a plurality of observation ranges are also displayed, so that the movement and presence status of a wide range of targets can be grasped. Alternatively, as shown in a display example 903, when the wakes are integrated by connecting the observation ranges, the line types displayed inside and outside the observation ranges may be switched and displayed. Alternatively, as shown in a display example 904, the track of the individual target may be switched and displayed within each observation range, and the track of the collective target may be switched outside the sensor observation range. With the display as described above, it becomes possible for the user to easily grasp the correspondence between the intrusion target and the passing target determined to be the same, and the route estimated to have passed. .

また、観測範囲外の道路ネットワークなどの地図情報が存在しない場合は、表示例905に示すように、その間の航跡を道路に沿った形状ではなく直線状の航跡やその他の推定された経路として表示してもよい。   Further, when there is no map information such as a road network outside the observation range, as shown in a display example 905, the wakes between them are displayed not as shapes along the roads but as straight wakes or other estimated routes. May be.

さらに、地図や画面の表示範囲や表示縮尺などユーザからの操作指示に応じて、あるいは目標物の大きさや分布の広がりなどに応じて、上記の任意の表示内容を切り替えても良い。例えば、広域や複数の目標物を表示する場合は、表示例902に示すように複数の観測範囲にまたがる航跡を表示し、一部領域や特定目標物を拡大表示する場合は、表示例904に示すように個別目標物の航跡と集団目標物の航跡を切り替え表示してもよい。これにより、画面や情報の視認性が向上し、適切な状況把握を支援する情報の提供が可能となる。   Furthermore, the above-described arbitrary display contents may be switched according to an operation instruction from the user such as a display range or display scale of a map or a screen, or according to the size or distribution of a target. For example, when displaying a wide area or a plurality of targets, a track that covers a plurality of observation ranges is displayed as shown in a display example 902, and when displaying a partial area or a specific target in an enlarged manner, display examples 904 are displayed. As shown, the track of the individual target and the track of the group target may be switched and displayed. As a result, the visibility of the screen and information is improved, and it is possible to provide information that assists in grasping an appropriate situation.

以上のように、本実施形態によれば、同種の複数のセンサ、又は、レーダとカメラ、移動プラットフォームに搭載されたセンサと地上センサなど、特性の異なる複数のセンサを組み合わせて、それぞれのセンサ観測範囲を補完できる。従来は統合されていなかった観測範囲が異なる複数のセンサの観測データを統合し、センサ観測範囲の内外に渡る、広域での目標物の追尾が可能となる。また、センサ種別毎に異なる特徴を有する観測データを相互に組み合わせ、同一の目標物に関する確度および項目(データ内容)が異なる情報を組み合わせることによって、信頼性の高い移動軌跡の推定を実現できる。これによって、少ない数のセンサによる効率的(安価)な広域状況把握を実現できる。   As described above, according to the present embodiment, a plurality of sensors of the same type, or a combination of a plurality of sensors having different characteristics such as a radar and a camera, a sensor mounted on a mobile platform, and a ground sensor are used to observe each sensor. Can complement the range. By integrating observation data of a plurality of sensors with different observation ranges, which has not been integrated in the past, it is possible to track a target in a wide area across the sensor observation range. Further, by combining observation data having different characteristics for each sensor type and combining information with different accuracy and items (data contents) related to the same target, it is possible to realize a highly reliable movement trajectory estimation. As a result, efficient (inexpensive) wide-area situation grasping by a small number of sensors can be realized.

なお、本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。また、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。   In addition, this invention is not limited to above-described embodiment, Various modifications are included. Further, the above-described embodiment has been described in detail for easy understanding of the present invention, and is not necessarily limited to the one having all the configurations described. Further, it is possible to add, delete, and replace other configurations for a part of the configuration of the embodiment.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によってハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによってソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、不揮発性半導体メモリ、ハードディスクドライブ、SSD(Solid State Drive)等の記憶デバイス、または、ICカード、SDカード、DVD等の計算機読み取り可能な非一時的データ記憶媒体に格納することができる。   Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Further, each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files for realizing each function is stored in a non-volatile semiconductor memory, a hard disk drive, a storage device such as an SSD (Solid State Drive), or a computer-readable non-readable information such as an IC card, an SD card, or a DVD. It can be stored on a temporary data storage medium.

また、図面には、実施形態を説明するために必要と考えられる制御線及び情報線を示しており、必ずしも、本発明が適用された実際の製品に含まれる全ての制御線及び情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。   In the drawings, control lines and information lines considered necessary for describing the embodiment are shown, and all control lines and information lines included in an actual product to which the present invention is applied are not necessarily shown. Not necessarily. Actually, it may be considered that almost all the components are connected to each other.

100 センサ統合装置
101 入出力部
102 目標物情報処理部
102A 目標物管理部
102B 侵入・通過判定部
102C 集団目標物照合部
102D 航跡統合処理部
103 センサ情報処理部
103A 航跡抽出処理部
103B 観測範囲特定処理部
104 地図情報処理部
105 地理情報システム
106 データベース
106A センサ情報データベース(DB)
106B 目標物情報DB
106C 地図情報DB
106D 処理パラメータDB
106E 端点情報DB
106F 端点間ネットワークDB
151、152 センサ
160 ネットワーク
171、172 センサ情報
180 他センサ統合装置
181 目標物情報
190 入出力装置
DESCRIPTION OF SYMBOLS 100 Sensor integration apparatus 101 Input / output part 102 Target object information processing part 102A Target object management part 102B Intrusion / passage determination part 102C Collective target collation part 102D Track integration processing part 103 Sensor information processing part 103A Track extraction processing part 103B Observation range specification Processing unit 104 Map information processing unit 105 Geographic information system 106 Database 106A Sensor information database (DB)
106B Target information DB
106C Map information DB
106D Processing parameter DB
106E Endpoint information DB
106F Network DB between endpoints
151, 152 Sensor 160 Network 171, 172 Sensor information 180 Other sensor integration device 181 Target information 190 Input / output device

Claims (4)

プロセッサと、前記プロセッサに接続される記憶装置と、前記プロセッサに接続される出力装置と、を備えるセンサ統合装置であって、
前記記憶装置は、センサ情報、目標物情報及び地図情報を保持し、
前記センサ情報は、複数のセンサの観測範囲を示す情報を含み、
前記目標物情報は、前記複数のセンサによって観測された、複数の前記観測範囲における複数の個別目標物の時刻ごとの位置情報と、各々が前記複数の個別目標物からなる集団目標物の時刻ごとの位置情報と、前記各集団目標物の前記位置情報以外の属性を示す情報と、を含み、
前記各集団目標物の前記属性を示す情報は、前記属性の一つ以上の種類を示す情報と、前記各種類の属性値を示す情報と、を含み、
前記各集団目標物の一つ以上の属性の種類は、前記各集団目標物に含まれる前記個別目標物の数及び位置関係の少なくとも一つ、及び、前記各集団目標物に含まれる少なくとも一つの前記個別目標物の種別、大きさ、色及び形の少なくとも一つを含み、
前記各個別目標物は、地上を移動する移動体であり、
前記地図情報は、前記各観測範囲に含まれる地域、及び、前記各観測範囲に隣接するいずれの前記観測範囲にも含まれない地域の道路ネットワーク情報を含み、
前記プロセッサは、
前記目標物情報に基づいて、前記各観測範囲を通過していずれの前記観測範囲にも含まれない地域に移動した各集団目標物が前記各観測範囲から出た地点である通過地点、前記通過地点の通過時刻及び通過速度を特定する第1手順と、
前記目標物情報に基づいて、いずれの前記観測範囲にも含まれない地域からいずれかの前記観測範囲に侵入した集団目標物の侵入地点、侵入時刻及び侵入速度を特定する第2手順と、
前記道路ネットワーク情報に基づいて、前記通過した各集団目標物の通過地点から前記侵入した集団目標物の侵入地点までの道路を経由する経路距離を特定する第3手順と、
前記通過した各集団目標物の通過速度及び前記侵入した集団目標物の侵入速度の少なくとも一方と、前記通過した各集団目標物の通過地点から前記侵入した集団目標物の侵入地点までの経路距離と、に基づいて、前記通過した各集団目標物の通過地点から前記侵入した集団目標物の侵入地点までの経路距離の移動時間を推定する第4手順と、
前記速度及び経路距離に基づいて推定された移動時間の長さと、前記目標物情報に基づいて特定された、前記通過した各集団目標物の前記通過時刻から前記侵入した集団目標物の前記侵入時刻までの時間の長さと、を照合することによって、前記通過した各集団目標物と前記侵入した集団目標物との同一性を評価する第5手順と、を実行し、
前記出力装置は、前記同一性の評価の結果を出力する第6手順を実行し、
前記プロセッサは、
前記第5手順において、前記通過した各集団目標物の属性と前記侵入した集団目標物の属性との類似度が所定の条件を満たさない場合、前記通過した各集団目標物と前記侵入した集団目標物とが同一でないと判定し、
前記第5手順において、前記目標物情報に基づいて特定された前記通過時刻から前記侵入時刻までの時間の長さが、前記速度及び経路距離に基づいて推定された移動時間の長さを含む所定の時間の長さの範囲に含まれない場合、前記通過した各集団目標物と前記侵入した集団目標物とが同一でないと判定し、
前記出力装置は、前記第6手順において、前記侵入した集団目標物と同一であると判定された一つ以上の前記通過した集団目標物の識別情報を出力し、
前記記憶装置は、前記複数の観測範囲の境界と道路とが交差する端点に関する端点情報と、複数の前記端点間の道路ネットワークに関する端点間ネットワーク情報とをさらに保持し、
前記端点情報は、前記各端点の位置を示す情報を含み、
前記端点間ネットワーク情報は、前記端点情報及び前記地図情報に基づいて生成された、前記各端点といずれの前記観測範囲にも含まれない領域の道路を経由して接続される他の前記端点とを関連付ける情報、及び、前記関連付けられた端点間の前記いずれの観測範囲にも含まれない領域の道路を経由する経路距離を示す情報を含み、
前記プロセッサは、
前記端点間ネットワーク情報を参照して、前記通過した各集団目標物の通過地点に相当する端点に関連付けられた一つ以上の端点を特定し、前記特定された一つ以上の端点と前記通過した各集団目標物とを関連付ける情報を前記端点情報に追加する第10手順と、
前記端点情報を参照して、前記侵入した集団目標物の侵入地点に相当する端点に関連付けられた前記通過した各集団目標物を特定する第11手順と、をさらに実行し、
前記第11手順において特定された前記通過した各集団目標物と、前記侵入した集団目標物と、を対象として前記第3手順乃至前記第5手順を実行し、
前記第3手順において、前記プロセッサは、前記通過した各集団目標物の通過地点に相当する端点と、前記侵入した集団目標物の侵入地点に相当する端点と、の間の経路距離を、前記端点間ネットワーク情報から取得することを特徴とするセンサ統合装置。
A sensor integration device comprising a processor, a storage device connected to the processor, and an output device connected to the processor,
The storage device holds sensor information, target information, and map information,
The sensor information includes information indicating observation ranges of a plurality of sensors,
The target information includes position information for each time of a plurality of individual targets in the plurality of observation ranges observed by the plurality of sensors, and for each time of a group target composed of the plurality of individual targets. Position information and information indicating attributes other than the position information of each collective target,
The information indicating the attribute of each collective target includes information indicating one or more types of the attribute, and information indicating the attribute value of each type,
The type of one or more attributes of each group target includes at least one of the number and positional relationship of the individual targets included in each group target , and at least one of the individual targets included in each group target. Including at least one of the type, size, color and shape of the target ,
Each individual target is a moving body that moves on the ground,
The map information includes road network information of areas included in the observation ranges and areas not included in any of the observation ranges adjacent to the observation ranges,
The processor is
Based on the target information, a passing point that is a point where each collective target that has passed through each observation range and moved to an area not included in any of the observation ranges has exited from each observation range, the passing A first procedure for specifying the passage time and passage speed of the point;
A second procedure for identifying an intrusion point, an intrusion time, and an intrusion speed of a group target invading any of the observation ranges from an area not included in any of the observation ranges based on the target information;
Based on the road network information, a third procedure for specifying a route distance through the road from the passing point of each group target that has passed through to the point of entry of the group target that has entered,
At least one of the passing speed of each passing group target and the entering speed of the entering group target, and the path distance from the passing point of each passing group target to the entering point of the entering group target; And a fourth procedure for estimating a travel time of a route distance from the passing point of each passing group target to the entering point of the invading group target, based on
The length of the movement time estimated based on the speed and the path distance, and the time of entry of the group target that has entered from the time of passage of each of the group targets that have passed, specified based on the target information. Performing a fifth step of evaluating the identity of each passed collective target with the invaded collective target by comparing the length of time until
The output device executes a sixth procedure for outputting the result of the identity evaluation,
The processor is
In the fifth procedure, if the similarity between the attribute of each passed group target and the attribute of the invaded group target does not satisfy a predetermined condition, each passed group target and the intruded group target Judge that the thing is not the same ,
In the fifth procedure, the length of time from the passage time specified based on the target object information to the intrusion time includes a length of travel time estimated based on the speed and path distance If it is not included in the range of the time length of, determine that each group target passed through and the group target that has entered are not the same,
The output device outputs identification information of one or more passed collective targets determined in the sixth procedure to be the same as the intruded collective target,
The storage device further holds end point information related to an end point where a boundary between the plurality of observation ranges and a road intersects, and end-point network information related to a road network between the plurality of end points,
The end point information includes information indicating the position of each end point,
The inter-endpoint network information is generated based on the end point information and the map information, and the other end points connected to the end points via roads in areas not included in any of the observation ranges. And information indicating a route distance via a road in a region not included in any of the observation ranges between the associated end points,
The processor is
Referring to the inter-endpoint network information, one or more end points associated with the end points corresponding to the passing points of each of the group objects that have passed are specified, and the one or more specified end points have passed A tenth procedure for adding information relating to each collective target to the end point information;
An eleventh step of referring to the end point information to identify each passed collective target associated with an end point corresponding to an intrusion point of the intruded collective target; and
Performing the third to fifth procedures for each of the passed collective targets identified in the eleventh procedure and the intruded collective target;
In the third procedure, the processor calculates a path distance between an end point corresponding to the passing point of each of the group objects that have passed and an end point corresponding to the intrusion point of the intruding group target. Sensor integration device characterized in that it is obtained from inter-network information .
請求項1に記載のセンサ統合装置であって、The sensor integration device according to claim 1,
前記プロセッサは、前記第5手順において、前記時間及び前記属性を照合した結果に基づいて、前記通過した各集団目標物と前記侵入した集団目標物とが同一である確度を計算し、  In the fifth procedure, the processor calculates the probability that each group target that has passed and the group target that has entered are the same, based on the result of matching the time and the attribute in the fifth procedure,
前記出力装置は、前記第6手順において、前記通過した各集団目標物の識別情報を、前記侵入した集団目標物と同一である確度が高い順に並べて表示することを特徴とするセンサ統合装置。  In the sixth procedure, the output device displays the identification information of each of the group targets that have passed through, in order from the highest probability of being the same as the group target that has entered.
請求項1に記載のセンサ統合装置であって、The sensor integration device according to claim 1,
いずれかの前記通過した集団目標物が前記侵入した集団目標物と同一であると判定された場合、前記出力装置は、前記第6手順において、前記通過した集団目標物が観測された前記観測範囲における前記通過した集団目標物の移動軌跡と、前記侵入した集団目標物が観測された前記観測範囲における前記侵入した集団目標物の移動軌跡と、を前記目標物情報に基づいて表示し、さらに、前記通過した集団目標物の通過地点から前記侵入した集団目標物の侵入地点までの前記推定された経路を表示することを特徴とするセンサ統合装置。  When it is determined that any of the group objects that have passed is the same as the group object that has entered, the output device, in the sixth procedure, the observation range in which the group objects that have passed are observed The movement trajectory of the passed group target and the movement trajectory of the invaded group target in the observation range where the invaded group target is observed are displayed based on the target information, and The sensor integration apparatus, wherein the estimated route from the passing point of the passed collective target to the intrusion point of the invading collective target is displayed.
プロセッサと、前記プロセッサに接続される記憶装置と、前記プロセッサに接続される出力装置と、を備えるセンサ統合装置が実行するセンサ統合方法であって、A sensor integration method executed by a sensor integration device comprising a processor, a storage device connected to the processor, and an output device connected to the processor,
前記記憶装置は、センサ情報、目標物情報及び地図情報を保持し、  The storage device holds sensor information, target information, and map information,
前記センサ情報は、複数のセンサの観測範囲を示す情報を含み、  The sensor information includes information indicating observation ranges of a plurality of sensors,
前記目標物情報は、前記複数のセンサによって観測された、複数の前記観測範囲における複数の個別目標物の時刻ごとの位置情報と、各々が前記複数の個別目標物からなる集団目標物の時刻ごとの位置情報と、前記各集団目標物の前記位置情報以外の属性を示す情報と、を含み、  The target information includes position information for each time of a plurality of individual targets in the plurality of observation ranges observed by the plurality of sensors, and for each time of a group target composed of the plurality of individual targets. Position information and information indicating attributes other than the position information of each collective target,
前記各集団目標物の前記属性を示す情報は、前記属性の一つ以上の種類を示す情報と、前記各種類の属性値を示す情報と、を含み、  The information indicating the attribute of each collective target includes information indicating one or more types of the attribute, and information indicating the attribute value of each type,
前記各集団目標物の一つ以上の属性の種類は、前記各集団目標物に含まれる前記個別目標物の数及び位置関係の少なくとも一つ、及び、前記各集団目標物に含まれる少なくとも一つの前記個別目標物の種別、大きさ、色及び形の少なくとも一つを含み、  The type of one or more attributes of each group target includes at least one of the number and positional relationship of the individual targets included in each group target, and at least one of the individual targets included in each group target. Including at least one of the type, size, color and shape of the target,
前記地図情報は、前記各観測範囲に含まれる地域、及び、前記各観測範囲に隣接するいずれの前記観測範囲にも含まれない地域の道路ネットワーク情報を含み、  The map information includes road network information of areas included in the observation ranges and areas not included in any of the observation ranges adjacent to the observation ranges,
前記センサ統合方法は、  The sensor integration method includes:
前記プロセッサが、前記目標物情報に基づいて、前記各観測範囲を通過していずれの前記観測範囲にも含まれない地域に移動した各集団目標物が前記各観測範囲から出た地点である通過地点、前記通過地点の通過時刻及び通過速度を特定する第1手順と、  Based on the target information, the processor passes through each observation range, and each collective target that has moved to an area not included in any of the observation ranges is a point where the collective target has exited from each observation range. A first procedure for specifying a point, a passing time and a passing speed of the passing point;
前記プロセッサが、前記目標物情報に基づいて、いずれの前記観測範囲にも含まれない地域からいずれかの前記観測範囲に侵入した集団目標物の侵入地点、侵入時刻及び侵入速度を特定する第2手順と、  The processor specifies a point of entry, a time of entry, and a speed of entry of a group target that has entered one of the observation ranges from an area not included in any of the observation ranges based on the target information. Procedure and
前記プロセッサが、前記道路ネットワーク情報に基づいて、前記通過した各集団目標物の通過地点から前記侵入した集団目標物の侵入地点までの道路を経由する経路距離を特定する第3手順と、  A third procedure in which the processor specifies a route distance via a road from a passing point of each passing group target to a point of entry of the invading group target based on the road network information;
前記プロセッサが、前記通過した各集団目標物の通過速度及び前記侵入した集団目標物の侵入速度の少なくとも一方と、前記通過した各集団目標物の通過地点から前記侵入した集団目標物の侵入地点までの経路距離と、に基づいて、前記通過した各集団目標物の通過地点から前記侵入した集団目標物の侵入地点までの経路距離の移動時間を推定する第4手順と、  The processor includes at least one of a passing speed of each of the passed group targets and an intrusion speed of the invading group target, and from a passing point of each of the passing group targets to an entering point of the intruding group target. And a fourth procedure for estimating a travel time of a route distance from a passing point of each of the passed group targets to an intrusion point of the invading group target based on the route distance of
前記プロセッサが、前記速度及び経路距離に基づいて推定された移動時間の長さと、前記目標物情報に基づいて特定された、前記通過した各集団目標物の前記通過時刻から前記侵入した集団目標物の前記侵入時刻までの時間の長さと、を照合することによって、前記通過した各集団目標物と前記侵入した集団目標物との同一性を評価する第5手順と、  The processor enters the collective target from the length of the travel time estimated based on the speed and the path distance and the passage time of each collective target passed based on the target information. A fifth procedure for evaluating the identity of each group object that has passed and the group object that has intruded by comparing the length of time until the intrusion time of
前記出力装置が、前記同一性の評価の結果を出力する第6手順と、を含み、  A sixth procedure in which the output device outputs a result of the identity evaluation;
前記第5手順は、  The fifth procedure includes
前記通過した各集団目標物の属性と前記侵入した集団目標物の属性との類似度が所定の条件を満たさない場合、前記プロセッサが、前記通過した各集団目標物と前記侵入した集団目標物とが同一でないと判定する手順と、  If the similarity between the attribute of each passed group target and the attribute of the invaded group target does not satisfy a predetermined condition, the processor includes the passed group target and the intruded group target. That are not the same,
前記目標物情報に基づいて特定された前記通過時刻から前記侵入時刻までの時間の長さが、前記速度及び経路距離に基づいて推定された移動時間の長さを含む所定の時間の長さの範囲に含まれない場合、前記プロセッサが、前記通過した各集団目標物と前記侵入した集団目標物とが同一でないと判定する手順と、を含み、  The length of time from the passage time specified based on the target object information to the intrusion time is a predetermined length of time including the length of travel time estimated based on the speed and path distance. If not included in range, the processor determines that each passed collective target and the intruded collective target are not the same, and
前記第6手順は、前記出力装置が、前記侵入した集団目標物と同一であると判定された一つ以上の前記通過した集団目標物の識別情報を出力する手順を含み、  The sixth procedure includes a procedure in which the output device outputs identification information of one or more of the passed collective targets determined to be the same as the intruded collective target,
前記記憶装置は、前記複数の観測範囲の境界と道路とが交差する端点に関する端点情報と、複数の前記端点間の道路ネットワークに関する端点間ネットワーク情報とをさらに保持し、  The storage device further holds end point information related to an end point where a boundary between the plurality of observation ranges and a road intersects, and end-point network information related to a road network between the plurality of end points,
前記端点情報は、前記各端点の位置を示す情報を含み、  The end point information includes information indicating the position of each end point,
前記端点間ネットワーク情報は、前記端点情報及び前記地図情報に基づいて生成された、前記各端点といずれの前記観測範囲にも含まれない領域の道路を経由して接続される他の前記端点とを関連付ける情報、及び、前記関連付けられた端点間の前記いずれの観測範囲にも含まれない領域の道路を経由する経路距離を示す情報を含み、  The inter-endpoint network information is generated based on the end point information and the map information, and the other end points connected to the end points via roads in areas not included in any of the observation ranges. And information indicating a route distance via a road in a region not included in any of the observation ranges between the associated end points,
前記センサ統合方法は、さらに、  The sensor integration method further includes:
前記プロセッサが、前記端点間ネットワーク情報を参照して、前記通過した各集団目標物の通過地点に相当する端点に関連付けられた一つ以上の端点を特定し、前記特定された一つ以上の端点と前記通過した各集団目標物とを関連付ける情報を前記端点情報に追加する第10手順と、  The processor refers to the network information between the end points, specifies one or more end points associated with the end points corresponding to the passing points of the group objects that have passed, and the specified one or more end points A tenth procedure for adding to the end point information information associating each collective target that has passed with
前記プロセッサが、前記端点情報を参照して、前記侵入した集団目標物の侵入地点に相当する端点に関連付けられた前記通過した各集団目標物を特定する第11手順と、をさらに含み、  An eleventh procedure wherein the processor refers to the end point information to identify each passed collective target associated with an end point corresponding to an intrusion point of the intruded collective target; and
前記第11手順において特定された前記通過した各集団目標物と、前記侵入した集団目標物と、を対象として前記第3手順乃至前記第5手順が実行され、  The third procedure to the fifth procedure are executed for each of the passed collective targets identified in the eleventh procedure and the intruded collective target,
前記第3手順において、前記プロセッサは、前記通過した各集団目標物の通過地点に相当する端点と、前記侵入した集団目標物の侵入地点に相当する端点と、の間の経路距離を、前記端点間ネットワーク情報から取得することを特徴とするセンサ統合方法。  In the third procedure, the processor calculates a path distance between an end point corresponding to the passing point of each of the group objects that have passed and an end point corresponding to the intrusion point of the intruding group target. Sensor integration method characterized in that it is obtained from inter-network information.
JP2013040442A 2013-03-01 2013-03-01 Sensor integration apparatus and sensor integration method Active JP6139178B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013040442A JP6139178B2 (en) 2013-03-01 2013-03-01 Sensor integration apparatus and sensor integration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013040442A JP6139178B2 (en) 2013-03-01 2013-03-01 Sensor integration apparatus and sensor integration method

Publications (2)

Publication Number Publication Date
JP2014169872A JP2014169872A (en) 2014-09-18
JP6139178B2 true JP6139178B2 (en) 2017-05-31

Family

ID=51692359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013040442A Active JP6139178B2 (en) 2013-03-01 2013-03-01 Sensor integration apparatus and sensor integration method

Country Status (1)

Country Link
JP (1) JP6139178B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6938846B2 (en) * 2016-03-14 2021-09-22 株式会社デンソー Object recognition device
US11636691B2 (en) 2018-06-22 2023-04-25 Hitachi Astemo, Ltd. Sensor recognition integration device
JP7278763B2 (en) * 2018-12-10 2023-05-22 川崎重工業株式会社 State quantity data classification device and state quantity data classification method
CN112489397A (en) * 2020-11-19 2021-03-12 公安部第三研究所 Radar early warning system and method for realizing prejudgment and track calibration processing aiming at illegal crossing behavior of pedestrians on expressway
WO2023189076A1 (en) * 2022-03-28 2023-10-05 i-PRO株式会社 Monitoring system and monitoring method

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2945963B2 (en) * 1997-06-16 1999-09-06 防衛庁技術研究本部長 Target observation device
JP3660200B2 (en) * 2000-04-14 2005-06-15 三菱電機株式会社 Multi-sensor control device
JP3660199B2 (en) * 2000-04-14 2005-06-15 三菱電機株式会社 Multi-sensor control device
JP3638854B2 (en) * 2000-05-30 2005-04-13 三菱電機株式会社 Target tracking device
JP2002156448A (en) * 2000-11-17 2002-05-31 Mitsubishi Electric Corp Moving body tracking device
JP4008252B2 (en) * 2001-05-25 2007-11-14 本田技研工業株式会社 Dangerous vehicle information providing apparatus and program thereof
JP2003248057A (en) * 2002-02-27 2003-09-05 Japan Radio Co Ltd Radar-tracking apparatus
JP2003279646A (en) * 2002-03-26 2003-10-02 Mitsubishi Electric Corp Apparatus and method for identifying target group, and program therefor
JP2006250918A (en) * 2005-03-07 2006-09-21 Wise Media Technology Inc METHOD OF GROUPING PLURAL IDs HAVING LOCATION INFORMATION, AND SYSTEM FOR MANAGING LINE OF FLOW FOR USE IN PREDICTION OR INTERPOLATION OF THE LINE OF FLOW
JP2008275330A (en) * 2007-04-25 2008-11-13 Mitsubishi Electric Corp Positioning information processing device
US8352173B2 (en) * 2007-06-12 2013-01-08 Palo Alto Research Center Incorporated Two-level grouping of principals for a collision warning system
JP5581667B2 (en) * 2009-11-25 2014-09-03 富士通株式会社 Target detection apparatus and target detection method
JP5617100B2 (en) * 2011-02-08 2014-11-05 株式会社日立製作所 Sensor integration system and sensor integration method
JP2013024759A (en) * 2011-07-22 2013-02-04 Fujitsu Ltd Target object management device and target object management method
JP2014149262A (en) * 2013-02-04 2014-08-21 Mitsubishi Electric Corp Radar control device

Also Published As

Publication number Publication date
JP2014169872A (en) 2014-09-18

Similar Documents

Publication Publication Date Title
Paneru et al. Computer vision applications in construction: Current state, opportunities & challenges
Mirzaei et al. 3D point cloud data processing with machine learning for construction and infrastructure applications: A comprehensive review
CN106462627B (en) Analyzing semantic places and related data from multiple location data reports
Pannen et al. How to keep HD maps for automated driving up to date
CN108692739B (en) Integrity monitoring method for navigation system with heterogeneous measurements
US11914388B2 (en) Vehicle using spatial information acquired using sensor, sensing device using spatial information acquired using sensor, and server
JP6139178B2 (en) Sensor integration apparatus and sensor integration method
CN110325935A (en) The lane guide line based on Driving Scene of path planning for automatic driving vehicle
CN109491375A (en) The path planning based on Driving Scene for automatic driving vehicle
JP6462692B2 (en) Autonomous mobile device
CN110287276A (en) High-precision map updating method, device and storage medium
US20170032480A1 (en) Personalized travel planning and guidance system
US10989555B2 (en) System and method for automated semantic map generation
Karagiorgou et al. A layered approach for more robust generation of road network maps from vehicle tracking data
WO2020158488A1 (en) Movement route predict system, movement route predict method, and computer program
KR20200013155A (en) Method and system for detecting change point of interest
Cheng et al. Pedestrian group detection in shared space
Luperto et al. Predicting the layout of partially observed rooms from grid maps
KR101598343B1 (en) System for automatically Identifying spatio-temporal congestion patterns and method thereof
JP2011170453A (en) Device, method and program for calculation of location existence probability, and travel route recommendation device, method and program
US11543259B2 (en) Determining landmark detectability
CN110470308A (en) A kind of obstacle avoidance system and method
Islam et al. Real-time vehicle trajectory estimation based on lane change detection using smartphone sensors
KR20200013156A (en) Method and system for improving signage detection performance
Worrall et al. A context-based approach to vehicle behavior prediction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160329

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160920

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170427

R150 Certificate of patent or registration of utility model

Ref document number: 6139178

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150