JP7205180B2 - Monitoring system and processing equipment - Google Patents

Monitoring system and processing equipment Download PDF

Info

Publication number
JP7205180B2
JP7205180B2 JP2018216368A JP2018216368A JP7205180B2 JP 7205180 B2 JP7205180 B2 JP 7205180B2 JP 2018216368 A JP2018216368 A JP 2018216368A JP 2018216368 A JP2018216368 A JP 2018216368A JP 7205180 B2 JP7205180 B2 JP 7205180B2
Authority
JP
Japan
Prior art keywords
information
detection
processing
partial information
laser sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018216368A
Other languages
Japanese (ja)
Other versions
JP2020085522A (en
Inventor
謙一 ▲濱▼口
啓 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2018216368A priority Critical patent/JP7205180B2/en
Publication of JP2020085522A publication Critical patent/JP2020085522A/en
Application granted granted Critical
Publication of JP7205180B2 publication Critical patent/JP7205180B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、監視システム及び処理装置に関する。 The present disclosure relates to monitoring systems and processing devices.

車両の運転及び歩行者の安全を支援するために、交差点等の監視領域において車両及び歩行者等の情報を収集し、利用者に情報を提供する交通情報監視システムが開発されている。例えば、特許文献1には、レーザ光で交差点を走査することで複数の計測点情報を取得し、複数の計測点情報に基づいて交差点内に存在する車両を検出するレーザレーダが記載されている。 2. Description of the Related Art Traffic information monitoring systems have been developed to collect information on vehicles and pedestrians in a monitoring area such as an intersection and provide the information to users in order to support vehicle driving and pedestrian safety. For example, Patent Literature 1 describes a laser radar that acquires information on a plurality of measurement points by scanning an intersection with a laser beam, and detects vehicles existing in the intersection based on the information on the plurality of measurement points. .

特開2010-197341号公報JP 2010-197341 A

レーザレーダは、遮蔽物の影となる範囲(死角)にはレーザ光を照射できないので、このような範囲における物体の検出が不能となるおそれがある。例えば、大型のトラック等が交差点を横切る場合に、トラックの影となる範囲に存在するバイク及び歩行者等を検出できないことがある。この現象をオクルージョンという。このような問題に対し、検出精度を向上させるために、複数台のレーザレーダが設置され、各レーザレーダによって取得された計測点情報を用いて物体検出が行われることがある。しかしながら、一般に、レーザレーダによって取得される複数の計測点情報のデータ量は大きいので、通信に時間を要し、監視領域での検出結果が得られるまで時間を要するおそれがある。 A laser radar cannot irradiate a laser beam in a range (blind spot) that is shaded by an obstacle, so there is a possibility that an object cannot be detected in such a range. For example, when a large truck or the like crosses an intersection, it may not be possible to detect a motorcycle or a pedestrian in the shadow of the truck. This phenomenon is called occlusion. To address such a problem, a plurality of laser radars may be installed in order to improve detection accuracy, and object detection may be performed using measurement point information acquired by each laser radar. However, since the amount of data of information on a plurality of measurement points acquired by a laser radar is generally large, communication may take time, and it may take time to obtain detection results in the monitoring area.

本開示は、検出精度を向上させつつ、検出に要する時間の増加を抑制可能な監視システム及び処理装置を説明する。 The present disclosure describes a monitoring system and a processing device capable of suppressing an increase in the time required for detection while improving detection accuracy.

本開示の一側面に係る監視システムは、それぞれが地上に設置されるとともに監視領域の少なくとも一部を含む照射可能領域に向けてレーザ光を照射してレーザ光の反射光を受光することで照射可能領域内の各計測点の位置座標を含む計測点情報を生成する第1レーザセンサ及び第2レーザセンサを用いて、監視領域を監視するシステムである。この監視システムは、第1レーザセンサによって生成された複数の計測点情報を含む第1点群情報を処理することで第1部分情報を生成する第1処理装置と、第2レーザセンサによって生成された複数の計測点情報を含む第2点群情報を処理することで第2部分情報を生成する第2処理装置と、第1部分情報及び第2部分情報に基づいて、監視領域における検出結果を生成する検出装置と、を備える。第1処理装置は、第1点群情報をクラスタリングし、クラスタリングによって1以上の第1クラスタが得られた場合には、1以上の第1クラスタのそれぞれを近似した幾何学形状を特定可能なパラメータを含む第1部分情報を生成する。 The monitoring system according to one aspect of the present disclosure is installed on the ground and irradiates a laser beam toward an irradiation possible area including at least a part of the monitoring area and receives the reflected light of the laser beam. This system monitors a monitoring area using a first laser sensor and a second laser sensor that generate measurement point information including the position coordinates of each measurement point within the possible area. This monitoring system includes a first processing device that generates first partial information by processing first point group information including information on a plurality of measurement points generated by a first laser sensor; a second processing device that generates second partial information by processing second point cloud information including a plurality of measurement point information; and a detection device for generating. The first processing device clusters the first point group information, and when one or more first clusters are obtained by clustering, a parameter capable of specifying a geometric shape approximating each of the one or more first clusters generates first partial information including

本開示によれば、検出精度を向上させつつ、検出に要する時間の増加を抑制することができる。 According to the present disclosure, it is possible to suppress an increase in the time required for detection while improving detection accuracy.

図1は、一実施形態に係る監視システムの構成を概略的に示す図である。FIG. 1 is a diagram schematically showing the configuration of a monitoring system according to one embodiment. 図2は、図1に示されるマスタレーザレーダ装置及びスレーブレーザレーダ装置の配置例を示す図である。FIG. 2 is a diagram showing an arrangement example of the master laser radar device and the slave laser radar device shown in FIG. 図3は、図2の斜視図である。3 is a perspective view of FIG. 2. FIG. 図4は、点群情報の一例を示す図である。FIG. 4 is a diagram showing an example of point cloud information. 図5は、図1に示される処理装置のハードウェア構成を示す図である。FIG. 5 is a diagram showing the hardware configuration of the processing device shown in FIG. 図6の(a)はxy平面に射影された点群情報を示す図である。図6の(b)は計測点情報の除去を説明するための図である。図6の(c)はクラスタの幾何学形状への近似を説明するための図である。FIG. 6(a) is a diagram showing point group information projected onto the xy plane. (b) of FIG. 6 is a diagram for explaining the removal of the measurement point information. FIG. 6(c) is a diagram for explaining the approximation of a cluster to a geometric shape. 図7は、幾何学形状を特定可能なパラメータを説明するための図である。FIG. 7 is a diagram for explaining parameters that can specify a geometric shape. 図8は、合成処理を説明するための図である。FIG. 8 is a diagram for explaining the synthesizing process. 図9は、スレーブレーザレーダ装置が行う部分情報生成処理を示すフローチャートである。FIG. 9 is a flowchart showing partial information generation processing performed by the slave laser radar device. 図10は、図9に示されるデータ量削減処理の詳細を示すフローチャートである。FIG. 10 is a flowchart showing details of the data amount reduction process shown in FIG. 図11は、マスタレーザレーダ装置が行う部分情報生成処理を示すフローチャートである。FIG. 11 is a flowchart showing partial information generation processing performed by the master laser radar device. 図12は、マスタレーザレーダ装置が行う検出処理を示すフローチャートである。FIG. 12 is a flowchart showing detection processing performed by the master laser radar device.

[1]実施形態の概要
本開示の一側面に係る監視システムは、それぞれが地上に設置されるとともに監視領域の少なくとも一部を含む照射可能領域に向けてレーザ光を照射してレーザ光の反射光を受光することで照射可能領域内の各計測点の位置座標を含む計測点情報を生成する第1レーザセンサ及び第2レーザセンサを用いて、監視領域を監視するシステムである。この監視システムは、第1レーザセンサによって生成された複数の計測点情報を含む第1点群情報を処理することで第1部分情報を生成する第1処理装置と、第2レーザセンサによって生成された複数の計測点情報を含む第2点群情報を処理することで第2部分情報を生成する第2処理装置と、第1部分情報及び第2部分情報に基づいて、監視領域における検出結果を生成する検出装置と、を備える。第1処理装置は、第1点群情報をクラスタリングし、クラスタリングによって1以上の第1クラスタが得られた場合には、1以上の第1クラスタのそれぞれを近似した幾何学形状を特定可能なパラメータを含む第1部分情報を生成する。
[1] Outline of Embodiment A monitoring system according to one aspect of the present disclosure is installed on the ground and irradiates a laser beam toward an irradiable area including at least a part of the monitoring area, and the laser beam is reflected. This is a system that monitors a monitoring area using a first laser sensor and a second laser sensor that generate measurement point information including position coordinates of each measurement point within an irradiable area by receiving light. This monitoring system includes a first processing device that generates first partial information by processing first point group information including information on a plurality of measurement points generated by a first laser sensor; a second processing device that generates second partial information by processing second point cloud information including a plurality of measurement point information; and a detection device for generating. The first processing device clusters the first point group information, and when one or more first clusters are obtained by clustering, a parameter capable of specifying a geometric shape approximating each of the one or more first clusters generates first partial information including

この監視システムでは、地上に設置された第1レーザセンサ及び第2レーザセンサを用いて、監視領域が監視される。これにより、監視領域における死角が少なくなるので、検出精度を向上させることができる。また、第1処理装置が、第1レーザセンサによって生成された複数の計測点情報を含む第1点群情報をクラスタリングすることで1以上の第1クラスタが得られた場合には、1以上の第1クラスタのそれぞれを近似した幾何学形状を特定可能なパラメータを含む第1部分情報を生成する。このため、第1部分情報のデータ量は、第1点群情報のデータ量よりも小さくなり得る。これにより、第1処理装置から検出装置に第1点群情報を送信する場合と比較して、第1処理装置から検出装置に第1部分情報を送信するために要する時間を短縮することができる。その結果、検出精度を向上させつつ、検出に要する時間の増加を抑制することが可能となる。 In this monitoring system, a monitoring area is monitored using a first laser sensor and a second laser sensor installed on the ground. As a result, blind spots in the monitoring area are reduced, so detection accuracy can be improved. Further, when the first processing device obtains one or more first clusters by clustering the first point group information including a plurality of measurement point information generated by the first laser sensor, one or more First partial information is generated that includes parameters that can identify a geometric shape that approximates each of the first clusters. Therefore, the data amount of the first partial information can be smaller than the data amount of the first point group information. As a result, the time required for transmitting the first partial information from the first processing device to the detecting device can be shortened compared to the case where the first point cloud information is transmitted from the first processing device to the detecting device. . As a result, it is possible to suppress an increase in the time required for detection while improving the detection accuracy.

第2処理装置は、第2点群情報をクラスタリングしてもよく、クラスタリングによって1以上の第2クラスタが得られた場合には、1以上の第2クラスタのそれぞれを近似した幾何学形状を特定可能なパラメータを含む第2部分情報を生成してもよい。この場合、第2部分情報のデータ量は、第2点群情報のデータ量よりも小さくなり得る。これにより、第2処理装置から検出装置に第2点群情報を送信する場合と比較して、第2処理装置から検出装置に第2部分情報を送信するために要する時間を短縮することができる。その結果、検出精度を向上させつつ、検出に要する時間の増加を抑制することが可能となる。 The second processing device may cluster the second point group information, and when one or more second clusters are obtained by clustering, identify geometric shapes that approximate each of the one or more second clusters. A second piece of information including possible parameters may be generated. In this case, the data amount of the second partial information can be smaller than the data amount of the second point cloud information. As a result, the time required for transmitting the second partial information from the second processing device to the detection device can be shortened compared to the case where the second point cloud information is transmitted from the second processing device to the detection device. . As a result, it is possible to suppress an increase in the time required for detection while improving the detection accuracy.

検出装置は、第1部分情報に含まれるパラメータで特定される第1幾何学形状と、第2部分情報に含まれるパラメータで特定される第2幾何学形状と、が互いに重なり合う場合には、第1幾何学形状及び第2幾何学形状を同一の物体として検出してもよい。第1部分情報に含まれるパラメータで特定される第1幾何学形状と、第2部分情報に含まれるパラメータで特定される第2幾何学形状と、が互いに重なり合う場合には、第1幾何学形状及び第2幾何学形状は互いに同一の物体である可能性が高い。このため、第1幾何学形状及び第2幾何学形状を同一の物体として検出することで、検出精度をさらに向上させることが可能となる。 When the first geometric shape identified by the parameters included in the first partial information and the second geometric shape identified by the parameters included in the second partial information overlap each other, the detection device detects the One geometry and a second geometry may be detected as the same object. When the first geometric shape identified by the parameters included in the first partial information and the second geometric shape identified by the parameters included in the second partial information overlap each other, the first geometric shape and the second geometry are likely to be the same object as each other. Therefore, detection accuracy can be further improved by detecting the first geometric shape and the second geometric shape as the same object.

第1処理装置は、第1点群情報から、予め設定された検出除外範囲に含まれる計測点の計測点情報を除外し、残りの計測点情報をクラスタリングしてもよい。この場合、クラスタリングの対象となる計測点情報の数を減らすことができるので、第1処理装置の計算負荷を低減することが可能となる。 The first processing device may exclude measurement point information of measurement points included in a preset detection exclusion range from the first point group information, and cluster the remaining measurement point information. In this case, the number of pieces of measurement point information to be clustered can be reduced, thereby reducing the calculation load of the first processing device.

上述の監視システムは、第1レーザセンサと、第2レーザセンサと、をさらに備えてもよい。この場合、監視システム内で第1点群情報及び第2点群情報が生成されるので、監視システムの外部から第1点群情報及び第2点群情報を取得する必要がない。 The monitoring system described above may further comprise a first laser sensor and a second laser sensor. In this case, since the first point group information and the second point group information are generated within the monitoring system, there is no need to obtain the first point group information and the second point group information from outside the monitoring system.

本開示の別の側面に係る処理装置は、地上に設置されるとともに監視領域の少なくとも一部を含む照射可能領域に向けてレーザ光を照射してレーザ光の反射光を受光することで照射可能領域内の各計測点の位置座標を含む計測点情報を生成するレーザセンサから複数の計測点情報を含む点群情報を取得する取得部と、点群情報をクラスタリングし、クラスタリングによって1以上のクラスタが得られた場合には、1以上のクラスタのそれぞれを近似した幾何学形状を特定可能なパラメータを含む部分情報を生成する処理部と、部分情報を外部に出力する出力部と、を備える。 A processing apparatus according to another aspect of the present disclosure is installed on the ground and can be irradiated by irradiating a laser beam toward an irradiation possible area including at least a part of a monitoring area and receiving the reflected light of the laser beam. an acquisition unit that acquires point cloud information including a plurality of measurement point information from a laser sensor that generates measurement point information including the position coordinates of each measurement point in an area; is obtained, a processing unit for generating partial information including parameters capable of specifying a geometric shape approximating each of the one or more clusters, and an output unit for outputting the partial information to the outside.

この処理装置では、レーザセンサによって生成された複数の計測点情報を含む点群情報をクラスタリングすることで1以上のクラスタが得られた場合には、1以上のクラスタのそれぞれを近似した幾何学形状を特定可能なパラメータを含む部分情報が生成され、部分情報が外部に出力される。このため、部分情報のデータ量は、点群情報のデータ量よりも小さくなり得る。これにより、処理装置から外部に点群情報を送信する場合と比較して、処理装置から外部に部分情報を送信するために要する時間を短縮することができる。その結果、検出に要する時間の増加を抑制することが可能となる。 In this processing device, when one or more clusters are obtained by clustering point group information including a plurality of measurement point information generated by a laser sensor, a geometric shape approximating each of the one or more clusters is generated, and the partial information is output to the outside. Therefore, the data amount of the partial information can be smaller than the data amount of the point cloud information. As a result, the time required for transmitting the partial information from the processing device to the outside can be shortened compared to the case where the point group information is transmitted from the processing device to the outside. As a result, it becomes possible to suppress an increase in the time required for detection.

[2]実施形態の例示
以下、本開示の実施形態について、図面を参照しながら説明する。なお、図面の説明において同一要素には同一符号を付し、重複する説明を省略する。
[2] Exemplification of Embodiments Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and overlapping descriptions are omitted.

図1は、一実施形態に係る監視システムの構成を概略的に示す図である。図2は、図1に示されるマスタレーザレーダ装置及びスレーブレーザレーダ装置の配置例を示す図である。図3は、図2の斜視図である。図4は、点群情報の一例を示す図である。図5は、図1に示される処理装置のハードウェア構成を示す図である。 FIG. 1 is a diagram schematically showing the configuration of a monitoring system according to one embodiment. FIG. 2 is a diagram showing an arrangement example of the master laser radar device and the slave laser radar device shown in FIG. 3 is a perspective view of FIG. 2. FIG. FIG. 4 is a diagram showing an example of point cloud information. FIG. 5 is a diagram showing the hardware configuration of the processing device shown in FIG.

図1に示される監視システム1は、後述のレーザセンサ4,6を用いて、監視領域Rdを監視するシステムである。より具体的には、監視システム1は、監視領域Rdに存在する物体(移動体)を検出する。監視領域Rdは、監視対象となる領域である。監視領域Rdは、道路上の任意の場所に設定され得る。監視領域Rdの設定場所として、例えば、交差点、合流地点、及び道路の途中が選択される。図2及び図3に示されるように、本実施形態では、監視領域Rdは、交差点Cに設定される。監視対象の物体としては、車両、及び歩行者(人)が挙げられる。 A monitoring system 1 shown in FIG. 1 is a system that monitors a monitoring region Rd using laser sensors 4 and 6, which will be described later. More specifically, the monitoring system 1 detects an object (moving object) existing in the monitoring area Rd. The monitoring area Rd is an area to be monitored. The monitoring area Rd can be set anywhere on the road. For example, an intersection, a confluence, and the middle of the road are selected as the setting location of the monitoring region Rd. As shown in FIGS. 2 and 3, the monitoring area Rd is set at the intersection C in this embodiment. Objects to be monitored include vehicles and pedestrians (people).

監視システム1は、スレーブレーザレーダ装置2と、マスタレーザレーダ装置3と、を備えている。スレーブレーザレーダ装置2及びマスタレーザレーダ装置3は、監視領域Rdの近傍に設置されている。本実施形態では、スレーブレーザレーダ装置2とマスタレーザレーダ装置3とは、交差点Cの対角線上に設けられている。交差点Cは、4本の道路Tr1~Tr4が合流する地点である。道路Tr1と道路Tr2とは、一方向に沿って延びており、交差点Cを介して互いに接続されている。道路Tr3と道路Tr4とは、道路Tr1,Tr2とは交差する方向に延びており、交差点Cを介して互いに接続されている。スレーブレーザレーダ装置2及びマスタレーザレーダ装置3は、地上に設置された支持部材P(図3参照)に固定されている。支持部材Pは、例えば、交差点C付近の路側に設けられた柱状構造体である。支持部材Pは、電柱、及び倉庫の壁であってもよい。 A monitoring system 1 includes a slave laser radar device 2 and a master laser radar device 3 . The slave laser radar device 2 and the master laser radar device 3 are installed near the monitoring area Rd. In this embodiment, the slave laser radar device 2 and the master laser radar device 3 are provided on the diagonal line of the intersection C. As shown in FIG. An intersection C is a point where four roads Tr1 to Tr4 converge. The road Tr1 and the road Tr2 extend along one direction and are connected to each other via an intersection C. The roads Tr3 and Tr4 extend in a direction crossing the roads Tr1 and Tr2, and are connected to each other via an intersection C. The slave laser radar device 2 and the master laser radar device 3 are fixed to a support member P (see FIG. 3) installed on the ground. The support member P is, for example, a columnar structure provided on the roadside near the intersection C. As shown in FIG. Support members P may be utility poles and warehouse walls.

スレーブレーザレーダ装置2とマスタレーザレーダ装置3とは、通信回線Nによって互いに通信可能に接続されている。通信回線Nは、有線及び無線のいずれで構成されてもよい。通信回線Nは、インターネット回線及び移動体通信網等の非専用回線でもよく、専用回線でもよい。なお、交差点C等においてはスレーブレーザレーダ装置2とマスタレーザレーダ装置3との距離が長いので、通信回線Nとして専用回線を有線で配線することが困難であることがある。このため、本実施形態では、通信回線Nとして無線の通信回線が用いられ得る。 The slave laser radar device 2 and the master laser radar device 3 are connected by a communication line N so as to be able to communicate with each other. The communication line N may be wired or wireless. The communication line N may be a non-dedicated line such as an Internet line or a mobile communication network, or a dedicated line. At the intersection C or the like, since the distance between the slave laser radar device 2 and the master laser radar device 3 is long, it may be difficult to wire a dedicated line as the communication line N. Therefore, a wireless communication line can be used as the communication line N in this embodiment.

スレーブレーザレーダ装置2は、レーザセンサ4と、処理装置5と、を備えている。レーザセンサ4は、支持部材Pに固定されている。つまり、レーザセンサ4は、地上に設置されている。レーザセンサ4は、照射可能領域Raに向けてレーザ光を照射し、照射したレーザ光の反射光を受光することで、照射可能領域Ra内の各計測点の計測点情報を生成する。照射可能領域Raは、レーザセンサ4がレーザ光を照射可能な領域であり、例えば150m程度の範囲である。照射可能領域Raは、監視領域Rdの少なくとも一部を含む。 The slave laser radar device 2 has a laser sensor 4 and a processing device 5 . The laser sensor 4 is fixed to the support member P. As shown in FIG. That is, the laser sensor 4 is installed on the ground. The laser sensor 4 generates measurement point information of each measurement point within the irradiation area Ra by irradiating the irradiation area Ra with a laser beam and receiving the reflected light of the irradiated laser beam. The irradiable area Ra is an area where the laser sensor 4 can irradiate a laser beam, and has a range of about 150 m, for example. Irradiable area Ra includes at least part of monitoring area Rd.

図4に示されるように、計測点情報は、時刻情報、及び位置情報を含む。時刻情報は、位置情報で示される計測点の計測点情報を生成した(反射光を受光した)時刻を示す情報である。位置情報は、計測点の位置座標を示す情報である。位置座標には、ヨー角、ピッチ角、及び深度で表される極座標系が用いられてもよく、x座標、y座標、及びz座標で表される3次元座標系が用いられてもよい。本実施形態で用いられる座標系CSは、3次元座標系である。座標系CSのx軸は、道路Tr1及び道路Tr2に沿って延び、道路Tr1から道路Tr2に向かう方向が正となるように設定される。座標系CSのy座標は、道路Tr3及び道路Tr4に沿って延び、道路Tr3から道路Tr4に向かう方向が正となるように設定される。座標系CSのz軸は、地表を基準(z=0)とし、地表よりも上方が正となるように設定される。計測点情報は、反射強度情報をさらに含んでもよい。反射強度情報は、位置情報で示される計測点から、時刻情報で示される時刻に受光した反射光の強度を示す情報である。 As shown in FIG. 4, the measurement point information includes time information and position information. The time information is information indicating the time when the measuring point information of the measuring point indicated by the position information was generated (when the reflected light was received). The position information is information indicating the position coordinates of the measurement point. The position coordinates may use a polar coordinate system represented by yaw angle, pitch angle, and depth, or may use a three-dimensional coordinate system represented by x-coordinates, y-coordinates, and z-coordinates. The coordinate system CS used in this embodiment is a three-dimensional coordinate system. The x-axis of the coordinate system CS extends along the road Tr1 and the road Tr2, and is set so that the direction from the road Tr1 to the road Tr2 is positive. The y-coordinate of the coordinate system CS extends along the roads Tr3 and Tr4, and is set so that the direction from the road Tr3 to the road Tr4 is positive. The z-axis of the coordinate system CS is set with the ground surface as a reference (z=0), and is set so that the area above the ground surface is positive. The measurement point information may further include reflection intensity information. The reflected intensity information is information indicating the intensity of reflected light received from the measurement point indicated by the position information at the time indicated by the time information.

レーザセンサ4は、レーザ光の照射方向を変えることで、照射可能領域Raを主走査方向及び副走査方向に走査する。これにより、照射可能領域Raに含まれる複数の計測点にレーザ光が順に照射される。照射可能領域Raに含まれるすべての計測点へのレーザ光の一巡の照射は、1フレームと称される場合がある。照射可能領域Raへのレーザ光の照射は、所定の時間間隔で繰り返される。レーザセンサ4は、1フレーム分の複数の計測点情報を含む点群情報Dm1(第1点群情報)を1フレームごとに処理装置5に出力する。レーザセンサ4は、例えば、図4に示されるテーブル形式で点群情報Dm1を処理装置5に出力する。点群情報Dm1は、フレームID(Identifier)をさらに含んでもよい。フレームIDは、フレームを一意に識別可能な識別情報である。フレームIDとして、例えば、フレームの順番を示すフレーム番号が用いられ得る。 The laser sensor 4 scans the irradiable area Ra in the main scanning direction and the sub-scanning direction by changing the irradiation direction of the laser light. As a result, the plurality of measurement points included in the irradiable area Ra are sequentially irradiated with the laser beam. One round of laser light irradiation to all the measurement points included in the irradiation-enabled area Ra may be referred to as one frame. Irradiation of the laser beam to the irradiable region Ra is repeated at predetermined time intervals. The laser sensor 4 outputs point group information Dm1 (first point group information) including a plurality of measurement point information for one frame to the processing device 5 for each frame. The laser sensor 4 outputs the point cloud information Dm1 to the processing device 5 in the form of a table shown in FIG. 4, for example. The point cloud information Dm1 may further include a frame ID (Identifier). A frame ID is identification information that can uniquely identify a frame. As the frame ID, for example, a frame number indicating the order of frames can be used.

処理装置5は、レーザセンサ4によって生成された複数の計測点情報を含む点群情報Dm1を処理することで部分情報Dp1(第1部分情報)を生成する装置である。処理装置5は、例えば、コンピュータ等の情報処理装置によって構成される。 The processing device 5 is a device that generates partial information Dp1 (first partial information) by processing point group information Dm1 including information on a plurality of measurement points generated by the laser sensor 4 . The processing device 5 is configured by, for example, an information processing device such as a computer.

図5に示されるように、処理装置5は、物理的には、1又は複数のプロセッサ101、RAM(Random Access Memory)及びROM(Read Only Memory)等の主記憶装置102、ハードディスク装置等の補助記憶装置103、並びに、データ送受信デバイスである通信装置104等のハードウェアを備えるコンピュータとして構成され得る。処理装置5の図1に示される各機能部は、各機能を実現させるためのプログラムモジュールが処理装置5を構成するコンピュータにおいて実行されることにより実現される。これらのプログラムモジュールを含むプログラムは、例えば、ROM又は半導体メモリ等のコンピュータ読み取り可能な記録媒体によって提供される。また、プログラムは、データ信号としてネットワークを介して提供されてもよい。 As shown in FIG. 5, the processing device 5 physically includes one or more processors 101, a main storage device 102 such as a RAM (Random Access Memory) and a ROM (Read Only Memory), and an auxiliary storage device such as a hard disk device. It can be configured as a computer having hardware such as a storage device 103 and a communication device 104 that is a data transmission/reception device. Each functional unit of the processing device 5 shown in FIG. 1 is realized by executing a program module for realizing each function in a computer constituting the processing device 5 . A program including these program modules is provided by a computer-readable recording medium such as a ROM or a semiconductor memory, for example. Also, the program may be provided via a network as a data signal.

処理装置5は、機能的には、取得部51と、記憶部52と、処理部53と、出力部54と、を備えている。 The processing device 5 functionally includes an acquisition unit 51 , a storage unit 52 , a processing unit 53 , and an output unit 54 .

取得部51は、レーザセンサ4から点群情報Dm1を取得する。取得部51は、取得した点群情報Dm1を処理部53に出力する。 The acquisition unit 51 acquires the point group information Dm1 from the laser sensor 4 . The acquisition unit 51 outputs the acquired point cloud information Dm1 to the processing unit 53 .

記憶部52は、各種設定情報を記憶する。各種設定情報には、検出除外範囲を示す除外情報が含まれる。検出除外範囲は、監視対象外となる範囲である。検出除外範囲は、監視領域Rd外の範囲、及び監視領域Rdのうちの監視不要な範囲を含む。検出除外範囲は、予め設定されている。例えば、入力装置(不図示)を用いて、ユーザが検出除外範囲を設定する。例えば、交差点Cを模擬した3次元空間がディスプレイ等の出力装置(不図示)に表示され、ユーザが枠等によって検出除外範囲を設定する。 The storage unit 52 stores various setting information. Various setting information includes exclusion information indicating a detection exclusion range. The detection exclusion range is a range that is excluded from monitoring. The detection exclusion range includes a range outside the monitoring region Rd and a monitoring unnecessary range within the monitoring region Rd. The detection exclusion range is set in advance. For example, the user sets the detection exclusion range using an input device (not shown). For example, a three-dimensional space simulating the intersection C is displayed on an output device (not shown) such as a display, and the user sets a detection exclusion range using a frame or the like.

例えば、地面以下、及び道路の上空は、監視されなくてもよい。このため、地面以下を除外するために、検出除外範囲の高さとして、地表を基準として所定の高さより低い範囲が設定されてもよい。例えば、z<20cmの範囲が検出除外範囲として設定される。上空を除外するために、検出除外範囲の高さとして、地表を基準として所定の高さより高い範囲が設定されてもよい。例えば、z>500cmの範囲が検出除外範囲として設定される。また、交差点C内及び交差点Cの周囲には、信号機、支柱、電柱、街路樹、及び高架等の固定物(静止物)がある。これらの固定物は、監視不要であるので、これらの固定物を除外するために、検出除外範囲として固定物の範囲が設定されてもよい。固定物の範囲は、xy平面における固定物の境界を示す座標(x,y)として設定されてもよい。 For example, below the ground and above the road may not be monitored. Therefore, in order to exclude the height below the ground, a range lower than a predetermined height with reference to the ground surface may be set as the height of the detection exclusion range. For example, the range of z<20 cm is set as the detection exclusion range. In order to exclude the upper sky, a range higher than a predetermined height with reference to the ground surface may be set as the height of the detection exclusion range. For example, the range of z>500 cm is set as the detection exclusion range. In addition, in and around the intersection C, there are fixed objects (stationary objects) such as traffic lights, poles, utility poles, roadside trees, and elevated structures. Since these fixed objects do not need to be monitored, a fixed object range may be set as a detection exclusion range to exclude these fixed objects. The range of the fixed object may be set as coordinates (x, y) indicating the boundary of the fixed object on the xy plane.

処理部53は、点群情報Dm1を処理することで部分情報Dp1を生成する。具体的には、処理部53は、取得部51から点群情報Dm1を受け取ると、記憶部52から読み出した除外情報によって示される検出除外範囲に含まれる計測点の計測点情報を、点群情報Dm1から除外(削除)する。これにより、監視対象外の計測点が除外されるとともに、ノイズ等に起因する異常な計測点情報が除外される。図6の(a)に示されるように、点群情報Dm1には、地面上の計測点情報が含まれているが、地面は監視不要である。このため、図6の(b)に示されるように、点群情報Dm1から地面上の計測点情報が除去される。 The processing unit 53 generates partial information Dp1 by processing the point cloud information Dm1. Specifically, when the processing unit 53 receives the point cloud information Dm1 from the acquisition unit 51, the processing unit 53 acquires the measurement point information of the measurement points included in the detection exclusion range indicated by the exclusion information read from the storage unit 52 as the point cloud information. Exclude (delete) from Dm1. As a result, measurement points not to be monitored are excluded, and abnormal measurement point information caused by noise or the like is excluded. As shown in (a) of FIG. 6, the point cloud information Dm1 includes measurement point information on the ground, but the ground does not need to be monitored. Therefore, as shown in FIG. 6B, the measurement point information on the ground is removed from the point group information Dm1.

処理部53は、点群情報Dm1をクラスタリングする。ここでは、処理部53は、点群情報Dm1から検出除外範囲に含まれる計測点の計測点情報を除外した残りの計測点情報を、クラスタリングする。処理部53は、公知のアルゴリズムを用いて、クラスタリングを行う。クラスタリングのアルゴリズムとしては、例えば、ユークリッド距離を用いたアルゴリズムが挙げられる。このアルゴリズムでは、2つの計測点間の距離が所定の閾値以下である場合に、これらの2つの計測点が同じクラスタ(塊)に分類される。このようにして、処理部53は、監視領域Rd内の複数の計測点のうち、近傍の計測点同士をつなぎ合わせ、クラスタに分割する。 The processing unit 53 clusters the point group information Dm1. Here, the processing unit 53 clusters the remaining measurement point information obtained by excluding the measurement point information of the measurement points included in the detection exclusion range from the point group information Dm1. The processing unit 53 performs clustering using a known algorithm. Examples of clustering algorithms include algorithms using Euclidean distance. In this algorithm, two measurement points are classified into the same cluster if the distance between them is less than or equal to a predetermined threshold. In this way, the processing unit 53 joins neighboring measurement points among the plurality of measurement points in the monitoring area Rd and divides them into clusters.

処理部53は、クラスタリングによって1以上のクラスタが得られた場合には、各クラスタを幾何学形状に近似する。幾何学形状としては、いくつかのパラメータで表現し得る単純な形状が用いられる。処理部53は、公知のアルゴリズムを用いて、幾何学形状への近似を行う。本実施形態では、幾何学形状としてxy平面における長方形が用いられる。図6の(c)に示されるように、処理部53は、クラスタに含まれる複数の計測点をxy平面に射影し、xy平面に射影された複数の計測点を長方形に近似する。処理部53は、例えば、クラスタに含まれる複数の計測点に外接する最小面積の長方形を作成する。この長方形の作成には、例えば、Rotating Calipers法が用いられる。なお、幾何学形状は、クラスタに含まれるすべての計測点を内包してもよく、一部の計測点を内包しなくてもよい。 When one or more clusters are obtained by clustering, the processing unit 53 approximates each cluster to a geometric shape. As geometric shapes, simple shapes that can be expressed by several parameters are used. The processing unit 53 performs approximation to a geometric shape using a known algorithm. In this embodiment, a rectangle in the xy plane is used as the geometric shape. As shown in (c) of FIG. 6, the processing unit 53 projects the plurality of measurement points included in the cluster onto the xy plane, and approximates the plurality of measurement points projected onto the xy plane to a rectangle. The processing unit 53 creates, for example, a minimum area rectangle that circumscribes the plurality of measurement points included in the cluster. For example, the Rotating Calipers method is used to create this rectangle. Note that the geometric shape may include all the measurement points included in the cluster, or may not include some of the measurement points.

処理部53は、各クラスタを近似した幾何学形状(長方形)を特定可能なパラメータを算出し、これらのパラメータを含む部分情報Dp1を生成する。図7に示されるように、xy平面での回転を考慮した長方形を特定可能なパラメータの一例としては、横幅W、縦幅L、中心座標(x,y)、及び回転角度θが挙げられる。回転角度θは、xy平面におけるx軸正方向に対する回転角度である。横幅Wは、長方形の回転角度θが0度になるように長方形を回転した場合のy軸方向における長方形の長さである。縦幅Lは、長方形の回転角度θが0度になるように長方形を回転した場合のx軸方向における長方形の長さである。部分情報Dp1は、フレームIDをさらに含んでもよい。処理部53は、フレームIDと、クラスタ数と、各クラスタの幾何学形状を特定可能なパラメータと、を含む部分情報Dp1を生成してもよい。処理部53は、部分情報Dp1を出力部54に出力する。 The processing unit 53 calculates parameters that can specify a geometric shape (rectangle) that approximates each cluster, and generates partial information Dp1 including these parameters. As shown in FIG. 7, examples of parameters that can specify a rectangle considering rotation on the xy plane include the width W, the height L, the center coordinates (x, y), and the rotation angle θ. The rotation angle θ is the rotation angle with respect to the x-axis positive direction on the xy plane. The width W is the length of the rectangle in the y-axis direction when the rectangle is rotated so that the rotation angle θ of the rectangle is 0 degrees. The vertical width L is the length of the rectangle in the x-axis direction when the rectangle is rotated so that the rotation angle θ of the rectangle is 0 degrees. Partial information Dp1 may further include a frame ID. The processing unit 53 may generate partial information Dp1 including a frame ID, the number of clusters, and parameters that can specify the geometric shape of each cluster. The processing unit 53 outputs the partial information Dp1 to the output unit 54 .

なお、深夜等には交通量が少ないので、交差点Cに歩行者及び車両等の監視対象の物体が存在しないことがある。このような場合、処理部53は、点群情報Dm1をクラスタリングしても、クラスタを得ることができない。この場合、処理部53は、例えば、クラスタ数が0で、パラメータを含まない部分情報Dp1を生成する。 It should be noted that there may be no objects to be monitored, such as pedestrians and vehicles, at the intersection C because the traffic volume is small at midnight or the like. In such a case, the processing unit 53 cannot obtain clusters even if the point group information Dm1 is clustered. In this case, the processing unit 53 generates, for example, partial information Dp1 in which the number of clusters is 0 and no parameter is included.

出力部54は、処理装置5の外部に部分情報Dp1を出力する。具体的には、出力部54は、処理部53から部分情報Dp1を受け取ると、通信回線Nを介して、部分情報Dp1をマスタレーザレーダ装置3に送信する。 The output unit 54 outputs the partial information Dp1 to the outside of the processing device 5 . Specifically, upon receiving the partial information Dp1 from the processing unit 53 , the output unit 54 transmits the partial information Dp1 to the master laser radar device 3 via the communication line N.

このように、処理装置5は、点群情報Dm1をクラスタリングし、クラスタリングによって1以上のクラスタが得られた場合には、1以上のクラスタのそれぞれを近似した幾何学形状を特定可能なパラメータを含む部分情報Dp1を生成し、部分情報Dp1をマスタレーザレーダ装置3に送信する。部分情報Dp1には、計測点情報が含まれていないので、点群情報Dm1のデータ量と比較して部分情報Dp1のデータ量が大幅に削減される。 In this way, the processing device 5 clusters the point group information Dm1, and when one or more clusters are obtained by clustering, includes parameters that can identify geometric shapes approximating each of the one or more clusters. Partial information Dp1 is generated and the partial information Dp1 is transmitted to the master laser radar device 3 . Since the partial information Dp1 does not include the measurement point information, the data amount of the partial information Dp1 is greatly reduced compared to the data amount of the point cloud information Dm1.

マスタレーザレーダ装置3は、レーザセンサ6と、処理装置7と、検出装置8と、を備えている。レーザセンサ6は、支持部材Pに固定されている。つまり、レーザセンサ6は、地上に設置されている。レーザセンサ6は、レーザセンサ4と同様に、照射可能領域Rbに向けてレーザ光を照射し、照射したレーザ光の反射光を受光することで、照射可能領域Rb内の各計測点の計測点情報を生成する。照射可能領域Rbは、レーザセンサ6がレーザ光を照射可能な領域であり、例えば150m程度の範囲である。照射可能領域Rbは、監視領域Rdの少なくとも一部を含む。レーザセンサ6においても、レーザセンサ4と同一の座標系CSが用いられる。レーザセンサ6は、1フレーム分の複数の計測点情報を含む点群情報Dm2(第2点群情報)を1フレームごとに処理装置7に出力する。点群情報Dm2は、フレームIDをさらに含んでもよい。 The master laser radar device 3 has a laser sensor 6 , a processing device 7 and a detection device 8 . The laser sensor 6 is fixed to the support member P. As shown in FIG. That is, the laser sensor 6 is installed on the ground. Like the laser sensor 4, the laser sensor 6 irradiates a laser beam toward the irradiable region Rb and receives the reflected light of the radiated laser beam, so that each measurement point in the irradiable region Rb is detected. Generate information. The irradiable region Rb is a region in which the laser sensor 6 can irradiate laser light, and has a range of, for example, about 150 m. Irradiable region Rb includes at least part of monitoring region Rd. The same coordinate system CS as that of the laser sensor 4 is used for the laser sensor 6 as well. The laser sensor 6 outputs point group information Dm2 (second point group information) including a plurality of measurement point information for one frame to the processing device 7 for each frame. The point cloud information Dm2 may further include a frame ID.

なお、レーザセンサ6の時刻は、レーザセンサ4の時刻と同期している。レーザセンサ4の時刻とレーザセンサ6の時刻との同期は、例えば、NTP(Network Time Protocol)を用いて行われる。このため、レーザセンサ6の1フレームの開始時刻及び終了時刻は、レーザセンサ4の1フレームの開始時刻及び終了時刻と一致している。1フレームの開始時刻は、そのフレームの最初の計測点情報の生成(取得)時刻である。1フレームの終了時刻は、そのフレームの最後の計測点情報の生成(取得)時刻である。 Note that the time of the laser sensor 6 is synchronized with the time of the laser sensor 4 . The time of the laser sensor 4 and the time of the laser sensor 6 are synchronized using, for example, NTP (Network Time Protocol). Therefore, the start time and end time of one frame of the laser sensor 6 coincide with the start time and end time of one frame of the laser sensor 4 . The start time of one frame is the generation (acquisition) time of the first measurement point information of that frame. The end time of one frame is the generation (acquisition) time of the last measurement point information of that frame.

処理装置7は、レーザセンサ6によって生成された複数の計測点情報を含む点群情報Dm2を処理することで部分情報Dp2(第2部分情報)を生成する装置である。処理装置7は、例えば、コンピュータ等の情報処理装置によって構成される。処理装置7の物理的な構成は、処理装置5の物理的な構成と同様である。処理装置7の図1に示される各機能部は、各機能を実現させるためのプログラムモジュールが処理装置7を構成するコンピュータにおいて実行されることにより実現される。これらのプログラムモジュールを含むプログラムは、例えば、ROM又は半導体メモリ等のコンピュータ読み取り可能な記録媒体によって提供される。また、プログラムは、データ信号としてネットワークを介して提供されてもよい。処理装置7は、機能的には、取得部71と、記憶部72と、処理部73と、出力部74と、を備えている。 The processing device 7 is a device that generates partial information Dp2 (second partial information) by processing the point cloud information Dm2 including information on a plurality of measurement points generated by the laser sensor 6 . The processing device 7 is configured by, for example, an information processing device such as a computer. The physical configuration of the processing device 7 is similar to that of the processing device 5 . Each functional unit of the processing device 7 shown in FIG. 1 is realized by executing a program module for realizing each function in a computer constituting the processing device 7 . A program including these program modules is provided by a computer-readable recording medium such as a ROM or a semiconductor memory, for example. Also, the program may be provided via a network as a data signal. The processing device 7 functionally includes an acquisition unit 71 , a storage unit 72 , a processing unit 73 , and an output unit 74 .

取得部71は、レーザセンサ6から点群情報Dm2を取得する。取得部71は、取得した点群情報Dm2を処理部73に出力する。 The acquisition unit 71 acquires the point cloud information Dm2 from the laser sensor 6 . The acquisition unit 71 outputs the acquired point cloud information Dm2 to the processing unit 73 .

記憶部72は、各種設定情報を記憶する。各種設定情報には、検出除外範囲を示す除外情報が含まれる。検出除外範囲は、予め設定されている。例えばスレーブレーザレーダ装置2と同様に、入力装置を用いて、ユーザが検出除外範囲を設定する。処理装置7に設定されている検出除外範囲は、処理装置5に設定されている検出除外範囲と同一であってもよく、異なっていてもよい。処理装置5及び処理装置7で同じ検出除外範囲を設定する場合には、処理装置7は、処理装置7に設定された検出除外範囲を示す除外情報を処理装置5に送信してもよい。 The storage unit 72 stores various setting information. Various setting information includes exclusion information indicating a detection exclusion range. The detection exclusion range is set in advance. For example, similarly to the slave laser radar device 2, the user sets the detection exclusion range using an input device. The detection exclusion range set in the processing device 7 may be the same as or different from the detection exclusion range set in the processing device 5 . When the same detection exclusion range is set in the processing device 5 and the processing device 7 , the processing device 7 may transmit exclusion information indicating the detection exclusion range set in the processing device 7 to the processing device 5 .

処理部73は、点群情報Dm2を処理することで部分情報Dp2を生成する。具体的には、処理部73は、取得部71から点群情報Dm2を受け取ると、記憶部72から読み出した除外情報によって示される検出除外範囲に含まれる計測点の計測点情報を点群情報Dm2から除外する。これにより、監視対象外の計測点が除外されるとともに、ノイズ等に起因する異常な計測点情報が除外される。 The processing unit 73 generates partial information Dp2 by processing the point cloud information Dm2. Specifically, when the processing unit 73 receives the point cloud information Dm2 from the acquisition unit 71, the processing unit 73 acquires the measurement point information of the measurement points included in the detection exclusion range indicated by the exclusion information read from the storage unit 72 as the point cloud information Dm2. Exclude from As a result, measurement points not to be monitored are excluded, and abnormal measurement point information caused by noise or the like is excluded.

処理部73は、点群情報Dm2をクラスタリングする。ここでは、処理部73は、点群情報Dm2から検出除外範囲に含まれる計測点の計測点情報を除外した残りの計測点情報を、クラスタリングする。処理部73は、処理部53と同様に、公知のアルゴリズムを用いて、クラスタリングを行う。処理部73は、監視領域Rd内の複数の計測点のうち、近傍の計測点同士をつなぎ合わせ、クラスタに分割する。 The processing unit 73 clusters the point group information Dm2. Here, the processing unit 73 clusters the remaining measurement point information obtained by excluding the measurement point information of the measurement points included in the detection exclusion range from the point group information Dm2. The processing unit 73 performs clustering using a known algorithm, similarly to the processing unit 53 . The processing unit 73 connects neighboring measurement points among the plurality of measurement points in the monitoring area Rd and divides them into clusters.

処理部73は、クラスタリングによって1以上のクラスタが得られた場合には、各クラスタを幾何学形状に近似する。幾何学形状としては、いくつかのパラメータで表現し得る単純な形状が用いられる。処理部73は、処理部53と同様に、公知のアルゴリズムを用いて、幾何学形状への近似を行う。本実施形態では、処理部73は、クラスタに含まれる複数の計測点をxy平面に射影し、xy平面に射影された複数の計測点を長方形に近似する。処理部73は、各クラスタを近似した幾何学形状(長方形)を特定可能なパラメータを算出し、これらのパラメータを含む部分情報Dp2を生成する。部分情報Dp2は、フレームIDをさらに含んでもよい。処理部73は、フレームIDと、クラスタ数と、各クラスタの幾何学形状を特定可能なパラメータと、を含む部分情報Dp2を生成してもよい。クラスタリングによってクラスタが得られなかった場合には、処理部73は、例えば、クラスタ数が0で、パラメータを含まない部分情報Dp2を生成する。処理部73は、部分情報Dp2を出力部74に出力する。 When one or more clusters are obtained by clustering, the processing unit 73 approximates each cluster to a geometric shape. As geometric shapes, simple shapes that can be expressed by several parameters are used. The processing unit 73, like the processing unit 53, performs approximation to a geometric shape using a known algorithm. In this embodiment, the processing unit 73 projects the plurality of measurement points included in the cluster onto the xy plane, and approximates the plurality of measurement points projected onto the xy plane to a rectangle. The processing unit 73 calculates parameters that can specify a geometric shape (rectangle) that approximates each cluster, and generates partial information Dp2 including these parameters. Partial information Dp2 may further include a frame ID. The processing unit 73 may generate partial information Dp2 including a frame ID, the number of clusters, and parameters that can specify the geometric shape of each cluster. If no clusters are obtained by clustering, the processing unit 73 generates partial information Dp2 with the number of clusters being 0 and no parameters, for example. The processing section 73 outputs the partial information Dp2 to the output section 74 .

出力部74は、処理装置7の外部に部分情報Dp2を出力する。具体的には、出力部74は、処理部73から部分情報Dp2を受け取ると、部分情報Dp2を検出装置8に出力する。 The output unit 74 outputs the partial information Dp2 to the outside of the processing device 7 . Specifically, the output unit 74 outputs the partial information Dp2 to the detection device 8 upon receiving the partial information Dp2 from the processing unit 73 .

このように、処理装置7は、点群情報Dm2をクラスタリングし、クラスタリングによって1以上のクラスタが得られた場合には、1以上のクラスタのそれぞれを近似した幾何学形状を特定可能なパラメータを含む部分情報Dp2を生成し、部分情報Dp2を検出装置8に出力する。部分情報Dp2には、計測点情報が含まれていないので、点群情報Dm2のデータ量と比較して部分情報Dp2のデータ量が大幅に削減される。 In this way, the processing device 7 clusters the point group information Dm2, and when one or more clusters are obtained by clustering, includes parameters that can identify geometric shapes that approximate each of the one or more clusters. Partial information Dp2 is generated and the partial information Dp2 is output to the detection device 8 . Since the partial information Dp2 does not include the measurement point information, the data amount of the partial information Dp2 is significantly reduced compared to the data amount of the point group information Dm2.

検出装置8は、部分情報Dp1及び部分情報Dp2に基づいて、監視領域Rdにおける検出結果を生成する装置である。検出装置8は、例えば、コンピュータ等の情報処理装置によって構成される。検出装置8の物理的な構成は、処理装置5の物理的な構成と同様である。検出装置8の図1に示される各機能部は、各機能を実現させるためのプログラムモジュールが検出装置8を構成するコンピュータにおいて実行されることにより実現される。これらのプログラムモジュールを含むプログラムは、例えば、ROM又は半導体メモリ等のコンピュータ読み取り可能な記録媒体によって提供される。また、プログラムは、データ信号としてネットワークを介して提供されてもよい。なお、処理装置7と検出装置8とが1つの情報処理装置によって構成されてもよい。この場合、処理装置7及び検出装置8の各機能部の機能を実現させるためのプログラムモジュールを含むプログラムが提供されてもよい。 The detection device 8 is a device that generates a detection result in the monitoring region Rd based on the partial information Dp1 and the partial information Dp2. The detection device 8 is configured by, for example, an information processing device such as a computer. The physical configuration of the detection device 8 is similar to that of the processing device 5 . Each functional unit of the detection device 8 shown in FIG. 1 is realized by executing a program module for realizing each function in a computer that constitutes the detection device 8 . A program including these program modules is provided by a computer-readable recording medium such as a ROM or a semiconductor memory, for example. Also, the program may be provided via a network as a data signal. Note that the processing device 7 and the detection device 8 may be configured by one information processing device. In this case, a program including program modules for realizing the functions of the functional units of the processing device 7 and the detection device 8 may be provided.

検出装置8は、機能的には、取得部81と、記憶部82と、合成部83と、検出部84と、出力部85と、を備えている。 The detection device 8 functionally includes an acquisition unit 81 , a storage unit 82 , a synthesis unit 83 , a detection unit 84 and an output unit 85 .

取得部81は、処理装置5から部分情報Dp1を取得するとともに、処理装置7から部分情報Dp2を取得する。送信遅延等に起因して、同一フレームであっても、取得部81が部分情報Dp1を受信するタイミングと、取得部81が部分情報Dp2を受信するタイミングと、が互いに異なることがある。本実施形態では、部分情報Dp1は通信回線Nを介して送信されるのに対し、部分情報Dp2はマスタレーザレーダ装置3の内部通信線を介して送信されるので、取得部81は、部分情報Dp2を受信した後に、部分情報Dp1を受信する。このため、取得部81は、部分情報Dp2を記憶部82に出力し、記憶部82に記憶する。取得部81は、部分情報Dp1を合成部83に出力する。 Acquisition unit 81 acquires partial information Dp1 from processing device 5 and acquires partial information Dp2 from processing device 7 . Due to a transmission delay or the like, the timing at which the acquiring unit 81 receives the partial information Dp1 and the timing at which the acquiring unit 81 receives the partial information Dp2 may differ from each other even in the same frame. In this embodiment, the partial information Dp1 is transmitted via the communication line N, whereas the partial information Dp2 is transmitted via the internal communication line of the master laser radar device 3. After receiving Dp2, it receives partial information Dp1. Therefore, the acquisition unit 81 outputs the partial information Dp2 to the storage unit 82 and stores it in the storage unit 82 . Acquisition unit 81 outputs partial information Dp1 to synthesis unit 83 .

記憶部82は、フレームごとに部分情報Dp2を記憶する。記憶部82は、フレームごとに異なるファイルに部分情報Dp2を記憶してもよい。 The storage unit 82 stores the partial information Dp2 for each frame. The storage unit 82 may store the partial information Dp2 in a different file for each frame.

合成部83は、部分情報Dp1と、部分情報Dp1のフレームと同じフレームの部分情報Dp2とを合成(マージ)することにより、合成情報を生成する。具体的に説明すると、まず、合成部83は、取得部81から部分情報Dp1を受け取ると、記憶部82に記憶されている複数のフレームの部分情報Dp2のうち、部分情報Dp1のフレームIDと同一のフレームIDを含む部分情報Dp2を取得する。 The combining unit 83 generates combined information by combining (merging) the partial information Dp1 and the partial information Dp2 of the same frame as the frame of the partial information Dp1. More specifically, first, when receiving the partial information Dp1 from the acquisition unit 81, the synthesizing unit 83 receives the partial information Dp2 of the plurality of frames stored in the storage unit 82, and obtains the frame ID that is the same as the frame ID of the partial information Dp1. acquires partial information Dp2 including the frame ID of .

合成部83は、部分情報Dp1と取得した部分情報Dp2とを合成する。より具体的には、合成部83は、部分情報Dp1に含まれるパラメータで特定される1以上の幾何学形状から選択された1つの幾何学形状と、部分情報Dp2に含まれるパラメータで特定される1以上の幾何学形状から選択された1つの幾何学形状と、を比較する。合成部83は、2つの幾何学形状が互いに重なり合う場合には、これら2つの幾何学形状を同一の物体として検出する。 The synthesizer 83 synthesizes the partial information Dp1 and the obtained partial information Dp2. More specifically, the synthesizing unit 83 selects one geometric shape from one or more geometric shapes specified by the parameters included in the partial information Dp1 and the geometric shape specified by the parameters included in the partial information Dp2. and a geometry selected from one or more geometries. If the two geometric shapes overlap each other, the synthesizing unit 83 detects these two geometric shapes as the same object.

なお、交差点等において停止している車両及びその傍を歩く歩行者のように、2つの物体間の距離が近いことがある。このような場合、これら2つの物体に対応するクラスタの幾何学形状は、部分的に重なり合うことがある。このため、合成部83は、2つの幾何学形状が重なり合う部分の面積が、いずれか一方の幾何学形状の面積の所定割合を超えている場合、2つの幾何学形状が同一物体であると判定してもよい。所定割合は、予め設定されており、例えば、30%程度に設定される。合成部83は、ある幾何学形状が他の幾何学形状と重ならない場合、及び、ある幾何学形状が他の幾何学形状と重なり合う部分の面積が所定割合以下である場合には、その幾何学形状は独立した単一の物体であると判定してもよい。 Note that the distance between two objects may be close, such as a vehicle stopped at an intersection or the like and a pedestrian walking beside it. In such cases, the geometries of the clusters corresponding to these two objects may partially overlap. Therefore, when the area of the overlapping portion of the two geometric shapes exceeds a predetermined ratio of the area of one of the geometric shapes, the synthesizing unit 83 determines that the two geometric shapes are the same object. You may The predetermined ratio is set in advance, and is set to about 30%, for example. If a given geometric shape does not overlap with another geometric shape, and if the area of a portion where a given geometric shape A shape may be determined to be an independent single object.

合成部83は、同一物体と判定した2つの幾何学形状を内包する幾何学形状を作成する。合成部83は、単一の物体と判定した幾何学形状をそのまま維持する。合成部83は、部分情報Dp1に含まれるパラメータで特定される幾何学形状と部分情報Dp2に含まれるパラメータで特定される幾何学形状とのすべての幾何学形状の組み合わせについて比較を行った後、残った幾何学形状のそれぞれを検出物体とする。 The synthesizing unit 83 creates a geometric shape that includes the two geometric shapes determined to be the same object. Synthesis unit 83 maintains the geometry determined as a single object. Synthesis unit 83 compares all geometric shape combinations of the geometric shapes specified by the parameters included in partial information Dp1 and the geometric shapes specified by the parameters included in partial information Dp2, and then Let each of the remaining geometric shapes be a detected object.

図8に示されるように、部分情報Dp1に含まれるパラメータによって、長方形の幾何学形状G11~G15が特定され、部分情報Dp2に含まれるパラメータによって、長方形の幾何学形状G21~G24が特定されると仮定する。この場合、幾何学形状G11と幾何学形状G21とは互いに重なり合っており、その重なり合う部分の面積が幾何学形状G11,G21の面積の30%を超えているので、幾何学形状G11と幾何学形状G21とは同一物体と判定される。このため、幾何学形状G11と幾何学形状G21とを内包する幾何学形状G31が作成される。同様に、幾何学形状G12と幾何学形状G22とは同一物体と判定され、幾何学形状G12と幾何学形状G22とを内包する幾何学形状G32が作成される。一方、幾何学形状G13~G15及び幾何学形状G23,G24はいずれの幾何学形状とも重なっていないので、その形状が維持される。そして、幾何学形状G13~G15,G23,G24,G31,G32がそれぞれ検出物体として検出される。 As shown in FIG. 8, the rectangular geometric shapes G11 to G15 are specified by the parameters included in the partial information Dp1, and the rectangular geometric shapes G21 to G24 are specified by the parameters included in the partial information Dp2. Assume that In this case, the geometric shape G11 and the geometric shape G21 overlap each other, and the overlapping area exceeds 30% of the area of the geometric shapes G11 and G21. G21 is determined to be the same object. Therefore, a geometric shape G31 containing the geometric shape G11 and the geometric shape G21 is created. Similarly, the geometric shape G12 and the geometric shape G22 are determined to be the same object, and a geometric shape G32 containing the geometric shape G12 and the geometric shape G22 is created. On the other hand, the geometric shapes G13 to G15 and the geometric shapes G23 and G24 do not overlap with any geometric shapes, so their shapes are maintained. Geometric shapes G13 to G15, G23, G24, G31, and G32 are detected as detection objects, respectively.

なお、部分情報Dp1及び部分情報Dp2のうちの一方にパラメータが含まれていないことがある。この場合、幾何学形状が互いに重なり合うことがないので、合成部83は、部分情報に含まれるパラメータで特定される幾何学形状を検出物体とする。 One of the partial information Dp1 and the partial information Dp2 may not contain a parameter. In this case, since the geometric shapes do not overlap each other, the synthesizing unit 83 uses the geometric shape specified by the parameters included in the partial information as the detected object.

合成部83は、各検出物体を特定するパラメータを計算する。パラメータとしては、横幅W、縦幅L、中心座標(x,y)、及び回転角度θが挙げられる。中心座標に代えて、検出物体の四隅(前方右端、前方左端、後方右端、及び後方左端)の座標が用いられてもよく、クラスタに含まれる計測点情報の位置の平均が用いられてもよく、検出物体の重心位置が用いられてもよい。合成部83は、各検出物体のパラメータ、及び検出物体を検出した検出時刻を示す検出時刻情報を含む合成情報を生成する。検出時刻は、例えば、当該フレームの開始時刻と終了時刻との中間の時刻である。部分情報Dp1及び部分情報Dp2のいずれにもパラメータが含まれていない場合には、合成部83は、検出物体が検出されなかったことを示す合成情報を生成してもよい。合成部83は、合成情報を検出部84に出力する。 The synthesizing unit 83 calculates parameters specifying each detected object. The parameters include width W, length L, center coordinates (x, y), and rotation angle θ. Instead of the center coordinates, the coordinates of the four corners (the front right edge, the front left edge, the rear right edge, and the rear left edge) of the detected object may be used, or the average position of the measurement point information included in the cluster may be used. , the center-of-gravity position of the detected object may be used. The synthesizing unit 83 generates synthesized information including parameters of each detected object and detection time information indicating the detection time when the detected object was detected. The detection time is, for example, an intermediate time between the start time and the end time of the frame. If neither the partial information Dp1 nor the partial information Dp2 includes a parameter, the synthesizing unit 83 may generate synthesized information indicating that no detected object has been detected. Synthesis section 83 outputs synthesis information to detection section 84 .

検出部84は、検出物体を追跡する。つまり、検出部84は、異なるフレーム(異なる時刻)において検出された検出物体に対し、物体IDの対応付けを行う。物体IDは、検出物体を一意に識別可能な識別情報である。具体的には、検出部84は、合成部83から合成情報を受け取ると、合成情報に含まれる各検出物体のパラメータ、並びに、過去の観測結果から推定される速度及び角速度等に基づいて、現在のフレームにおいて検出された検出物体が、過去のフレームにおいて検出された検出物体のいずれかと対応しているかを判定する。 The detector 84 tracks the detected object. That is, the detection unit 84 associates objects detected in different frames (different times) with object IDs. The object ID is identification information that can uniquely identify the detected object. Specifically, when the detection unit 84 receives the combined information from the combining unit 83, based on the parameters of each detected object included in the combined information, the velocity and angular velocity estimated from the past observation results, and the like, the current It is determined whether the detected object detected in the previous frame corresponds to any of the detected objects detected in the past frames.

検出部84は、現在のフレームにおいて検出された検出物体が、過去のフレームにおいて検出された検出物体のいずれとも対応しないと判定した場合に、新規の検出物体として当該検出物体に新しい物体IDを付与する。検出部84は、現在のフレームにおいて検出された検出物体が、過去のフレームにおいて検出された検出物体と対応すると判定した場合に、対応する検出物体に付与されている物体IDを現在のフレームにおいて検出された検出物体に付与する。検出部84は、物体IDが付与されている検出物体のうち、長時間検出されていない検出物体について、物体IDを削除する。 When the detection unit 84 determines that the detected object detected in the current frame does not correspond to any of the detected objects detected in the past frames, the detection unit 84 assigns a new object ID to the detected object as a new detected object. do. When the detection unit 84 determines that the detected object detected in the current frame corresponds to the detected object detected in the past frame, the detection unit 84 detects the object ID assigned to the corresponding detected object in the current frame. given to the detected object. The detection unit 84 deletes the object ID of a detected object that has not been detected for a long time among the detected objects assigned with the object ID.

なお、複数の検出物体を追跡する(ID付けする)問題は、マルチターゲットトラッキング問題と称される。検出部84は、公知のアルゴリズムを用いて、各検出物体を追跡する。公知のアルゴリズムとしては、SNN(Suboptimal Nearest Neighbor)、GNN(Global Nearest Neighbor)、及びJPDAF(Joint Probabilistic Data Association Filter)等が挙げられる。検出部84は、物体ID、物体位置情報、及び検出時刻情報等を、検出結果として出力部85に出力する。検出部84は、合成情報を検出結果として出力部85に出力してもよい。 The problem of tracking (IDing) multiple detected objects is called a multi-target tracking problem. The detector 84 tracks each detected object using a known algorithm. Known algorithms include SNN (Suboptimal Nearest Neighbor), GNN (Global Nearest Neighbor), and JPDAF (Joint Probabilistic Data Association Filter). The detection unit 84 outputs the object ID, object position information, detection time information, and the like to the output unit 85 as detection results. The detection unit 84 may output the combined information to the output unit 85 as the detection result.

出力部85は、検出装置8(マスタレーザレーダ装置3)の外部に検出結果を出力する。出力部85は、例えば、不図示の外部装置に検出結果を送信する。外部装置の例としては、上位管理システム、及び交通管制システムが挙げられる。検出結果の送信は、無線通信で行われてもよく、有線通信で行われてもよい。なお、出力部85は、検出結果のデータ形式を外部装置が処理しやすいデータ形式に変換し、変換された検出結果を外部装置に送信してもよい。 The output unit 85 outputs the detection result to the outside of the detection device 8 (master laser radar device 3). The output unit 85, for example, transmits the detection result to an external device (not shown). Examples of external devices include higher management systems and traffic control systems. Transmission of the detection result may be performed by wireless communication or by wired communication. The output unit 85 may convert the data format of the detection result into a data format that can be easily processed by the external device, and transmit the converted detection result to the external device.

次に、スレーブレーザレーダ装置2が行う処理について説明する。図9は、スレーブレーザレーダ装置が行う部分情報生成処理を示すフローチャートである。図10は、図9に示されるデータ量削減処理の詳細を示すフローチャートである。図9に示される部分情報生成処理は、例えば、スレーブレーザレーダ装置2が起動されることによって開始される。 Next, processing performed by the slave laser radar device 2 will be described. FIG. 9 is a flowchart showing partial information generation processing performed by the slave laser radar device. FIG. 10 is a flowchart showing details of the data amount reduction process shown in FIG. The partial information generation process shown in FIG. 9 is started, for example, when the slave laser radar device 2 is activated.

まず、レーザセンサ4が、レーザセンサ4の時刻とレーザセンサ6の時刻とを一致させるために、時刻の同期を行う(ステップS11)。例えば、レーザセンサ4は、NTPを用いて時刻を設定する。 First, the laser sensor 4 synchronizes the time so that the time of the laser sensor 4 and the time of the laser sensor 6 match (step S11). For example, the laser sensor 4 sets the time using NTP.

時刻の同期が行われた後、レーザセンサ4は、照射可能領域Raに含まれる複数の計測点にレーザ光を順に照射し、照射したレーザ光の反射光を受光することで、照射可能領域Ra内の各計測点の計測点情報を生成する。なお、レーザセンサ4は、レーザセンサ6がレーザ光の照射を開始するタイミングと同じタイミングで、レーザ光の照射を開始する。このため、レーザセンサ4の各フレームの開始時刻及び終了時刻は、レーザセンサ6の各フレームの開始時刻及び終了時刻と一致する。そして、レーザセンサ4は、1フレーム分の複数の計測点情報を含む点群情報Dm1を処理装置5に出力する。 After the time is synchronized, the laser sensor 4 sequentially irradiates a plurality of measurement points included in the irradiable area Ra with laser light, and receives the reflected light of the radiated laser light, so that the irradiable area Ra Generate measuring point information for each measuring point in Note that the laser sensor 4 starts emitting laser light at the same timing as the laser sensor 6 starts emitting laser light. Therefore, the start time and end time of each frame of the laser sensor 4 coincide with the start time and end time of each frame of the laser sensor 6 . Then, the laser sensor 4 outputs point group information Dm1 including a plurality of measurement point information for one frame to the processing device 5 .

続いて、取得部51は、レーザセンサ4から点群情報Dm1を取得する(ステップS12)。そして、取得部51は、取得した点群情報Dm1を処理部53に出力する。 Subsequently, the acquiring unit 51 acquires the point group information Dm1 from the laser sensor 4 (step S12). Then, the acquisition unit 51 outputs the acquired point cloud information Dm1 to the processing unit 53 .

続いて、処理部53は、点群情報Dm1のデータ量を削減する(ステップS13)。図10に示されるように、ステップS13では、まず、処理部53は、取得部51から点群情報Dm1を受け取ると、記憶部52から読み出した除外情報によって示される検出除外範囲に含まれる計測点の計測点情報を点群情報Dm1から除外する(ステップS21)。そして、処理部53は、残りの計測点情報をクラスタリングする(ステップS22)。 Subsequently, the processing unit 53 reduces the data amount of the point cloud information Dm1 (step S13). As shown in FIG. 10, in step S13, first, when the processing unit 53 receives the point cloud information Dm1 from the acquisition unit 51, the processing unit 53 determines the measurement points included in the detection exclusion range indicated by the exclusion information read from the storage unit 52. is excluded from the point group information Dm1 (step S21). Then, the processing unit 53 clusters the remaining measurement point information (step S22).

続いて、処理部53は、クラスタリングによって1以上のクラスタが得られた場合には、各クラスタを幾何学形状に近似する(ステップS23)。そして、処理部53は、各クラスタを近似した幾何学形状を特定可能なパラメータを算出し、クラスタリングによって得られたクラスタ数と、これらのパラメータと、を含む部分情報Dp1を生成する(ステップS24)。なお、クラスタリングによってクラスタが得られなかった場合には、クラスタ数が0を示し、パラメータを含まない部分情報Dp1が生成される。そして、処理部53は、部分情報Dp1を出力部54に出力する。 Subsequently, when one or more clusters are obtained by clustering, the processing unit 53 approximates each cluster to a geometric shape (step S23). Then, the processing unit 53 calculates parameters that can specify a geometric shape approximating each cluster, and generates partial information Dp1 including the number of clusters obtained by clustering and these parameters (step S24). . Note that if no clusters are obtained by clustering, the number of clusters indicates 0, and partial information Dp1 that does not include parameters is generated. The processing unit 53 then outputs the partial information Dp1 to the output unit 54 .

続いて、出力部54は、処理部53から部分情報Dp1を受け取ると、通信回線Nを介して、部分情報Dp1をマスタレーザレーダ装置3に送信する(ステップS14)。そして、スレーブレーザレーダ装置2は、処理を終了するか否かを判定する(ステップS15)。スレーブレーザレーダ装置2が処理を終了しないと判定した場合(ステップS15;NO)、レーザセンサ4による照射が再び行われ、ステップS12~ステップS15の処理が行われる。一方、スレーブレーザレーダ装置2が処理を終了すると判定した場合(ステップS15;YES)、スレーブレーザレーダ装置2が行う部分情報生成処理は終了する。なお、スレーブレーザレーダ装置2は、ユーザが監視を停止するための操作を行った場合等に、処理を終了すると判定する。 Subsequently, when receiving the partial information Dp1 from the processing unit 53, the output unit 54 transmits the partial information Dp1 to the master laser radar device 3 via the communication line N (step S14). Then, the slave laser radar device 2 determines whether or not to end the processing (step S15). When the slave laser radar device 2 determines not to end the processing (step S15; NO), the irradiation by the laser sensor 4 is performed again, and the processing of steps S12 to S15 is performed. On the other hand, when the slave laser radar device 2 determines to end the processing (step S15; YES), the partial information generation processing performed by the slave laser radar device 2 ends. Note that the slave laser radar device 2 determines to end the process when the user performs an operation to stop monitoring.

次に、マスタレーザレーダ装置3が行う処理について説明する。図11は、マスタレーザレーダ装置が行う部分情報生成処理を示すフローチャートである。図11に示される部分情報生成処理は、例えば、マスタレーザレーダ装置3が起動されることによって開始される。 Next, processing performed by the master laser radar device 3 will be described. FIG. 11 is a flowchart showing partial information generation processing performed by the master laser radar device. The partial information generation process shown in FIG. 11 is started, for example, when the master laser radar device 3 is activated.

まず、レーザセンサ6が、レーザセンサ4の時刻とレーザセンサ6の時刻とを一致させるために、時刻の同期を行う(ステップS31)。例えば、レーザセンサ6は、NTPを用いて時刻を設定する。 First, the laser sensor 6 synchronizes the time in order to match the time of the laser sensor 4 with the time of the laser sensor 6 (step S31). For example, the laser sensor 6 sets the time using NTP.

時刻の同期が行われた後、レーザセンサ6は、照射可能領域Rbに含まれる複数の計測点にレーザ光を順に照射し、照射したレーザ光の反射光を受光することで、照射可能領域Rb内の各計測点の計測点情報を生成する。そして、レーザセンサ6は、1フレーム分の複数の計測点情報を含む点群情報Dm2を処理装置7に出力する。 After the time is synchronized, the laser sensor 6 sequentially irradiates a plurality of measurement points included in the irradiable region Rb with laser light, and receives the reflected light of the radiated laser light, thereby irradiating the irradiable region Rb. Generate measuring point information for each measuring point in Then, the laser sensor 6 outputs to the processing device 7 point cloud information Dm2 including a plurality of measurement point information for one frame.

続いて、取得部71は、レーザセンサ6から点群情報Dm2を取得する(ステップS32)。そして、取得部71は、取得した点群情報Dm2を処理部73に出力する。 Subsequently, the acquiring unit 71 acquires the point group information Dm2 from the laser sensor 6 (step S32). The acquisition unit 71 then outputs the acquired point cloud information Dm2 to the processing unit 73 .

続いて、処理部73は、点群情報Dm2のデータ量を削減する(ステップS33)。ステップS33の処理は、ステップS13の処理と同様であるので、詳細な説明を省略する。ステップS33において、処理部73は、部分情報Dp2を生成し、部分情報Dp2を出力部54に出力する。 Subsequently, the processing unit 73 reduces the data amount of the point group information Dm2 (step S33). Since the process of step S33 is the same as the process of step S13, detailed description thereof will be omitted. In step S<b>33 , the processing unit 73 generates partial information Dp<b>2 and outputs the partial information Dp<b>2 to the output unit 54 .

続いて、出力部74は、処理部73から部分情報Dp2を受け取ると、部分情報Dp2を検出装置8に出力する。そして、検出装置8の取得部81は、処理装置7(出力部74)から部分情報Dp2を受け取ると、部分情報Dp2を記憶部82に出力し、記憶部82に記憶する(ステップS34)。 Subsequently, upon receiving the partial information Dp2 from the processing unit 73 , the output unit 74 outputs the partial information Dp2 to the detection device 8 . Upon receiving the partial information Dp2 from the processing device 7 (output unit 74), the acquisition unit 81 of the detection device 8 outputs the partial information Dp2 to the storage unit 82 and stores it in the storage unit 82 (step S34).

続いて、マスタレーザレーダ装置3は、処理を終了するか否かを判定する(ステップS35)。マスタレーザレーダ装置3が処理を終了しないと判定した場合(ステップS35;NO)、レーザセンサ6による照射が再び行われ、ステップS32~ステップS35の処理が行われる。一方、マスタレーザレーダ装置3が処理を終了すると判定した場合(ステップS35;YES)、マスタレーザレーダ装置3が行う部分情報生成処理は終了する。なお、マスタレーザレーダ装置3は、ユーザが監視を停止するための操作を行った場合等に、処理を終了すると判定する。 Subsequently, the master laser radar device 3 determines whether or not to end the processing (step S35). If the master laser radar device 3 determines not to end the processing (step S35; NO), the laser sensor 6 performs irradiation again, and the processing of steps S32 to S35 is performed. On the other hand, when the master laser radar device 3 determines to end the processing (step S35; YES), the partial information generation processing performed by the master laser radar device 3 ends. Note that the master laser radar device 3 determines to end the process when the user performs an operation to stop monitoring.

次に、マスタレーザレーダ装置3が行う検出処理について説明する。図12は、マスタレーザレーダ装置が行う検出処理を示すフローチャートである。図12に示される検出処理は、例えば、マスタレーザレーダ装置3が起動されることによって開始される。 Next, detection processing performed by the master laser radar device 3 will be described. FIG. 12 is a flowchart showing detection processing performed by the master laser radar device. The detection process shown in FIG. 12 is started by, for example, activating the master laser radar device 3 .

まず、取得部81は、通信回線Nを介してスレーブレーザレーダ装置2から部分情報Dp1を受信したか否かを判定する(ステップS41)。取得部81は、部分情報Dp1を受信していないと判定した場合(ステップS41;NO)、部分情報Dp1を受信するまでステップS41の判定を繰り返す。一方、取得部81は、部分情報Dp1を受信したと判定した場合(ステップS41;YES)、受信した部分情報Dp1を合成部83に出力する。 First, the acquiring unit 81 determines whether or not the partial information Dp1 has been received from the slave laser radar device 2 via the communication line N (step S41). When determining that the partial information Dp1 has not been received (step S41; NO), the obtaining unit 81 repeats the determination of step S41 until the partial information Dp1 is received. On the other hand, when acquiring portion 81 determines that partial information Dp1 has been received (step S41; YES), acquiring portion 81 outputs received partial information Dp1 to synthesizing portion 83 .

続いて、合成部83は、取得部81から部分情報Dp1を受け取ると、部分情報Dp1と、当該部分情報Dp1と同一フレームの部分情報Dp2とを合成する(ステップS42)。具体的には、まず、合成部83は、記憶部82に記憶されている複数のフレームの部分情報Dp2のうち、部分情報Dp1のフレームIDと同一のフレームIDを含む部分情報Dp2を取得する。そして、合成部83は、部分情報Dp1に含まれるパラメータで特定される1以上の幾何学形状から選択した1つの幾何学形状と、部分情報Dp2に含まれるパラメータで特定される1以上の幾何学形状から選択した1つの幾何学形状と、を比較する。 Subsequently, upon receiving the partial information Dp1 from the acquisition unit 81, the synthesizing unit 83 synthesizes the partial information Dp1 and the partial information Dp2 of the same frame as the partial information Dp1 (step S42). Specifically, first, the synthesizing unit 83 acquires partial information Dp2 including the same frame ID as the frame ID of the partial information Dp1 from among the partial information Dp2 of the plurality of frames stored in the storage unit 82 . Then, combining unit 83 combines one geometric shape selected from the one or more geometric shapes specified by the parameters included in partial information Dp1 and the one or more geometric shapes specified by the parameters included in partial information Dp2. and a geometric shape selected from the shapes.

より具体的には、合成部83は、2つの幾何学形状が同一物体であるか否かを判定する。合成部83は、例えば、2つの幾何学形状が重なり合う部分の面積が、いずれか一方の幾何学形状の面積の所定割合を超えている場合、これら2つの幾何学形状が同一物体であると判定する。合成部83は、2つの幾何学形状が同一物体であると判定した場合、これら2つの幾何学形状を内包する幾何学形状を作成する。一方、合成部83は、2つの幾何学形状が同一物体でないと判定した場合、それぞれの幾何学形状を維持する。合成部83は、2つの幾何学形状のすべての組み合わせについて、上記比較処理を行う。そして、合成部83は、残った幾何学形状のそれぞれを検出物体とし、各検出物体を特定可能なパラメータを計算する。そして、合成部83は、各検出物体のパラメータ、及び検出物体を検出した検出時刻を示す検出時刻情報を含む合成情報を生成する。そして、合成部83は、合成情報を検出部84に出力する。 More specifically, the synthesizing unit 83 determines whether the two geometric shapes are the same object. For example, if the area of the overlapping portion of the two geometric shapes exceeds a predetermined ratio of the area of one of the geometric shapes, the synthesizing unit 83 determines that these two geometric shapes are the same object. do. If the synthesizing unit 83 determines that the two geometric shapes are the same object, it creates a geometric shape that includes these two geometric shapes. On the other hand, if the synthesizing unit 83 determines that the two geometric shapes are not the same object, it maintains the respective geometric shapes. The synthesizing unit 83 performs the above comparison processing for all combinations of two geometric shapes. Then, the synthesizing unit 83 uses each of the remaining geometric shapes as a detected object, and calculates parameters that can identify each detected object. Then, the synthesizing unit 83 generates synthesized information including parameters of each detected object and detection time information indicating the detection time when the detected object was detected. The synthesizing unit 83 then outputs the synthesizing information to the detecting unit 84 .

続いて、検出部84は、合成情報に基づいて、物体を追跡する(ステップS43)。そして、検出部84は、検出結果を出力部85に出力する。続いて、出力部85は、外部装置に検出結果を送信する(ステップS44)。なお、出力部85は、検出結果のデータ形式を外部装置が処理しやすいデータ形式に変換し、変換された検出結果を外部装置に送信してもよい。以上により、マスタレーザレーダ装置3の検出処理が終了する。 Subsequently, the detection unit 84 tracks the object based on the combined information (step S43). The detection unit 84 then outputs the detection result to the output unit 85 . Subsequently, the output unit 85 transmits the detection result to the external device (step S44). The output unit 85 may convert the data format of the detection result into a data format that can be easily processed by the external device, and transmit the converted detection result to the external device. Thus, the detection processing of the master laser radar device 3 is completed.

以上説明したように、監視システム1では、地上に設置されたレーザセンサ4及びレーザセンサ6を用いて、監視領域Rdが監視される。例えば、監視領域Rdのうち、レーザセンサ4で計測点情報を取得できない範囲を、レーザセンサ6によって補完することができる。これにより、監視領域Rdにおける死角が少なくなるので、検出精度を向上させることができる。 As described above, in the monitoring system 1, the monitoring region Rd is monitored using the laser sensors 4 and 6 installed on the ground. For example, the laser sensor 6 can be used to supplement the area of the monitoring area Rd where the laser sensor 4 cannot acquire the measurement point information. As a result, blind spots in the monitoring region Rd are reduced, so detection accuracy can be improved.

また、レーザセンサ4によって取得(生成)される点群情報Dm1のデータ量及びレーザセンサ6によって取得(生成)される点群情報Dm2のデータ量は、一般に大きいので、スレーブレーザレーダ装置2の設置数が増えるほど、また通信回線Nの通信速度が遅いほど、リアルタイムでの処理が困難となる。これに対して、監視システム1では、処理装置5が、点群情報Dm1をクラスタリングし、クラスタリングによって1以上のクラスタが得られた場合には、1以上のクラスタのそれぞれを近似した幾何学形状を特定可能なパラメータを含む部分情報Dp1を生成する。このため、部分情報Dp1のデータ量は、点群情報Dm1のデータ量よりも小さくなり得る。これにより、処理装置5から検出装置8に点群情報Dm1を送信する場合と比較して、処理装置5から検出装置8に部分情報Dp1を送信するために要する時間を短縮することができる。その結果、検出精度を向上させつつ、検出に要する時間の増加を抑制することが可能となる。 Also, since the data amount of the point cloud information Dm1 acquired (generated) by the laser sensor 4 and the data amount of the point cloud information Dm2 acquired (generated) by the laser sensor 6 are generally large, Real-time processing becomes more difficult as the number increases and as the communication speed of the communication line N decreases. On the other hand, in the monitoring system 1, the processing device 5 clusters the point cloud information Dm1, and when one or more clusters are obtained by the clustering, a geometric shape approximating each of the one or more clusters is generated. Partial information Dp1 including identifiable parameters is generated. Therefore, the data amount of the partial information Dp1 can be smaller than the data amount of the point cloud information Dm1. As a result, the time required for transmitting the partial information Dp1 from the processing device 5 to the detection device 8 can be shortened compared to the case where the point cloud information Dm1 is transmitted from the processing device 5 to the detection device 8 . As a result, it is possible to suppress an increase in the time required for detection while improving the detection accuracy.

このように、監視システム1では、部分情報Dp1の送信に要する時間が短縮されるので、レーザセンサの数を抑えつつ、広い交差点Cをリアルタイムに監視することが可能となる。また、スレーブレーザレーダ装置2とマスタレーザレーダ装置3との間の通信データ量が削減されるので、通信回線Nの通信速度が遅い(通信帯域が狭い)場合でも、検出に要する時間の増加を抑えることができる。 Thus, in the monitoring system 1, the time required for transmitting the partial information Dp1 is shortened, so it is possible to monitor the wide intersection C in real time while reducing the number of laser sensors. In addition, since the amount of communication data between the slave laser radar device 2 and the master laser radar device 3 is reduced, even if the communication speed of the communication line N is slow (the communication band is narrow), the increase in the time required for detection can be avoided. can be suppressed.

同様に、処理装置7が、点群情報Dm2をクラスタリングし、クラスタリングによって1以上のクラスタが得られた場合には、1以上のクラスタのそれぞれを近似した幾何学形状を特定可能なパラメータを含む部分情報Dp2を生成する。このため、部分情報Dp2のデータ量は、点群情報Dm2のデータ量よりも小さくなり得る。これにより、処理装置7から検出装置8に点群情報Dm2を送信する場合と比較して、処理装置7から検出装置8に部分情報Dp2を送信するために要する時間を短縮することができる。その結果、検出精度を向上させつつ、検出に要する時間の増加を抑制することが可能となる。 Similarly, when the processing device 7 clusters the point group information Dm2, and one or more clusters are obtained by the clustering, a portion containing parameters capable of specifying a geometric shape approximating each of the one or more clusters Generate information Dp2. Therefore, the data amount of the partial information Dp2 can be smaller than the data amount of the point cloud information Dm2. As a result, the time required for transmitting the partial information Dp2 from the processing device 7 to the detection device 8 can be shortened compared to the case where the point cloud information Dm2 is transmitted from the processing device 7 to the detection device 8 . As a result, it is possible to suppress an increase in the time required for detection while improving the detection accuracy.

また、スレーブレーザレーダ装置2が点群情報をマスタレーザレーダ装置3に送信する構成では、マスタレーザレーダ装置3(検出装置8)はすべての点群情報をクラスタリングする必要がある。このため、スレーブレーザレーダ装置2の設置数が増えるにつれて、マスタレーザレーダ装置3(検出装置8)の計算負荷が大きくなる。これに対して、監視システム1では、処理装置5,7において物体検出処理が行われているので、検出装置8はクラスタリングを行う必要がない。このため、検出装置8の計算負荷を低減することができる。つまり、スレーブレーザレーダ装置2の設置数が増えたとしても、マスタレーザレーダ装置3(検出装置8)の計算負荷の増加を抑えることができる。 Also, in a configuration in which the slave laser radar device 2 transmits point cloud information to the master laser radar device 3, the master laser radar device 3 (detection device 8) needs to cluster all the point cloud information. Therefore, as the number of installed slave laser radar devices 2 increases, the calculation load on the master laser radar device 3 (detection device 8) increases. On the other hand, in the monitoring system 1, the processing devices 5 and 7 perform object detection processing, so the detection device 8 does not need to perform clustering. Therefore, the calculation load of the detection device 8 can be reduced. That is, even if the number of installed slave laser radar devices 2 increases, it is possible to suppress an increase in the calculation load of the master laser radar device 3 (detection device 8).

レーザセンサ4とレーザセンサ6とは、互いに同一の物体に対してレーザ光を照射し、同一の物体に対する計測点情報を生成することがある。このため、部分情報Dp1に含まれるパラメータで特定される幾何学形状と、部分情報Dp2に含まれるパラメータで特定される幾何学形状と、が互いに重なり合う場合には、これら2つの幾何学形状は互いに同一の物体である可能性が高い。このような場合に、これら2つの幾何学形状がそれぞれ別の物体として検出されると、誤検出となるおそれがある。このため、これら2つの幾何学形状を同一の物体として検出することで、検出精度をさらに向上させることが可能となる。 The laser sensor 4 and the laser sensor 6 may irradiate the same object with laser light and generate measurement point information for the same object. Therefore, when the geometric shape specified by the parameters included in the partial information Dp1 and the geometric shape specified by the parameters included in the partial information Dp2 overlap each other, these two geometric shapes It is highly likely that they are the same object. In such a case, if these two geometric shapes are detected as separate objects, there is a risk of erroneous detection. Therefore, by detecting these two geometric shapes as the same object, it is possible to further improve the detection accuracy.

処理装置5は、点群情報Dm1から、検出除外範囲に含まれる計測点の計測点情報を除外し、残りの計測点情報をクラスタリングする。このため、クラスタリングの対象となる計測点情報の数を減らすことができるので、処理装置5の計算負荷を低減することが可能となる。同様に、処理装置7は、点群情報Dm2から、検出除外範囲に含まれる計測点の計測点情報を除外し、残りの計測点情報をクラスタリングする。このため、クラスタリングの対象となる計測点情報の数を減らすことができるので、処理装置7の計算負荷を低減することが可能となる。 The processing device 5 excludes the measurement point information of the measurement points included in the detection exclusion range from the point cloud information Dm1, and clusters the remaining measurement point information. Therefore, the number of pieces of measurement point information to be clustered can be reduced, so that the calculation load of the processing device 5 can be reduced. Similarly, the processing device 7 excludes the measurement point information of the measurement points included in the detection exclusion range from the point cloud information Dm2, and clusters the remaining measurement point information. Therefore, the number of pieces of measurement point information to be clustered can be reduced, so that the calculation load of the processing device 7 can be reduced.

監視システム1は、レーザセンサ4と、レーザセンサ6と、を備えている。このため、監視システム1内で点群情報Dm1,Dm2が生成されるので、監視システム1の外部から点群情報Dm1,Dm2を取得する必要がない。 The monitoring system 1 has a laser sensor 4 and a laser sensor 6 . Therefore, since the point cloud information Dm1 and Dm2 are generated within the monitoring system 1, there is no need to acquire the point cloud information Dm1 and Dm2 from outside the monitoring system 1. FIG.

以上、本開示の実施形態について説明したが、本開示は上記実施形態に限定されない。 Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above embodiments.

例えば、交差点Cは、T字路でもよい。監視領域Rdの設定場所は、交差点に限られず、2以上の道路が合流する合流地点でもよく、ビル等の施設の出口と道路との合流地点でもよく、道路の途中地点でもよい。監視領域Rdは、一般道に設定されてもよく、高速道路に設定されてもよい。また、監視領域Rdは、踏切、工場、及び作業現場等に設定されてもよい。 For example, intersection C may be a T-junction. The place where the monitoring region Rd is set is not limited to an intersection, but may be a confluence point where two or more roads meet, a confluence point between an exit of a facility such as a building and a road, or a point in the middle of a road. The monitoring area Rd may be set on a general road or on an expressway. Also, the monitoring area Rd may be set at a railroad crossing, a factory, a work site, or the like.

スレーブレーザレーダ装置2及びマスタレーザレーダ装置3の配置は、図2及び図3に示された配置に限られない。監視システム1は、2以上のスレーブレーザレーダ装置2を備えてもよい。各スレーブレーザレーダ装置2は、検出装置8を備えていてもよい。例えば、マスタレーザレーダ装置3が故障した場合に、マスタレーザレーダ装置3を停止させ、いずれかのスレーブレーザレーダ装置2がマスタレーザレーダ装置として動作することで、検出処理を継続してもよい。 The arrangement of the slave laser radar device 2 and the master laser radar device 3 is not limited to the arrangement shown in FIGS. The surveillance system 1 may comprise two or more slave laser radar devices 2 . Each slave laser radar device 2 may comprise a detection device 8 . For example, when the master laser radar device 3 fails, the detection process may be continued by stopping the master laser radar device 3 and allowing one of the slave laser radar devices 2 to operate as the master laser radar device.

上記実施形態では、スレーブレーザレーダ装置2及びマスタレーザレーダ装置3はそれぞれ、1つの装置として構成されているが、2以上の装置で構成されてもよい。例えば、処理装置5は、スレーブレーザレーダ装置2とは別体であってもよい。処理装置7及び検出装置8は、マスタレーザレーダ装置3とは別体であってもよい。 In the above embodiment, each of the slave laser radar device 2 and the master laser radar device 3 is configured as one device, but may be configured as two or more devices. For example, the processing device 5 may be separate from the slave laser radar device 2 . The processing device 7 and the detection device 8 may be separate from the master laser radar device 3 .

また、検出装置8がレーザレーダとしての機能を有しない個別の計算機(情報処理装置)で構成されてもよい。この場合、マスタレーザレーダ装置3に代えてスレーブレーザレーダ装置2が設けられる。 Alternatively, the detection device 8 may be composed of a separate computer (information processing device) that does not have the function of a laser radar. In this case, a slave laser radar device 2 is provided instead of the master laser radar device 3 .

上記実施形態では、スレーブレーザレーダ装置2及びマスタレーザレーダ装置3が、支持部材Pに固定されているが、処理装置5,7及び検出装置8は、支持部材Pに固定されていなくてもよい。 Although the slave laser radar device 2 and the master laser radar device 3 are fixed to the support member P in the above embodiment, the processing devices 5 and 7 and the detection device 8 may not be fixed to the support member P. .

監視システム1(スレーブレーザレーダ装置2)は、レーザセンサ4を備えていなくてもよい。この場合、処理装置5は、外部のレーザセンサ4から点群情報Dm1を取得する。同様に、監視システム1(マスタレーザレーダ装置3)は、レーザセンサ6を備えていなくてもよい。この場合、処理装置7は、外部のレーザセンサ6から点群情報Dm2を取得する。 The monitoring system 1 (slave laser radar device 2) does not have to include the laser sensor 4. FIG. In this case, the processing device 5 acquires the point cloud information Dm1 from the external laser sensor 4 . Similarly, the monitoring system 1 (master laser radar device 3) may not have the laser sensor 6. In this case, the processing device 7 acquires the point cloud information Dm2 from the external laser sensor 6 .

処理装置5は、レーザセンサ4を備えていてもよい。処理装置7は、レーザセンサ6を備えていてもよい。 The processing device 5 may comprise a laser sensor 4 . The processing device 7 may comprise a laser sensor 6 .

レーザセンサ4,6として、全周囲方向にレーザ光を照射できるタイプの3次元レーザレーダが用いられてもよい。 As the laser sensors 4 and 6, a three-dimensional laser radar that can irradiate laser light in all directions may be used.

上記実施形態では、レーザセンサ4は、1フレーム分の複数の計測点情報を1フレームごとに処理装置5に出力しているが、複数の計測点情報を1フレーム以外の単位で処理装置5に出力してもよい。レーザセンサ4は、計測点情報を1つずつ順に処理装置5に出力してもよい。同様に、レーザセンサ6は、複数の計測点情報を1フレーム以外の単位で処理装置7に出力してもよい。レーザセンサ6は、計測点情報を1つずつ順に処理装置7に出力してもよい。 In the above embodiment, the laser sensor 4 outputs a plurality of pieces of measurement point information for one frame to the processing device 5 for each frame. may be output. The laser sensor 4 may sequentially output the measurement point information to the processing device 5 one by one. Similarly, the laser sensor 6 may output a plurality of measurement point information to the processing device 7 in units other than one frame. The laser sensor 6 may sequentially output the measurement point information to the processing device 7 one by one.

上記実施形態では、処理装置5は、1フレーム分の部分情報Dp1を検出装置8に送信しているが、2以上のフレーム分の部分情報Dp1をまとめて検出装置8に送信してもよい。同様に、上記実施形態では、処理装置7は、1フレーム分の部分情報Dp2を検出装置8に送信しているが、2以上のフレーム分の部分情報Dp2をまとめて検出装置8に送信してもよい。 Although the processing device 5 transmits the partial information Dp1 for one frame to the detection device 8 in the above embodiment, the partial information Dp1 for two or more frames may be collectively transmitted to the detection device 8 . Similarly, in the above embodiment, the processing device 7 transmits the partial information Dp2 for one frame to the detection device 8, but the partial information Dp2 for two or more frames is collectively transmitted to the detection device 8. good too.

マスタレーザレーダ装置3は、検出結果を用いて、さらなる処理を行ってもよい。例えば、マスタレーザレーダ装置3は、検出結果を用いて交通違反車両の監視を行ってもよい。 The master laser radar device 3 may use the detection results for further processing. For example, the master laser radar device 3 may use the detection results to monitor vehicles violating traffic.

例えば、2つの交差点の距離が短い場合、2つの交差点のそれぞれにマスタレーザレーダ装置3が設置され、2つの交差点を結ぶ道路の中間地点に1つのスレーブレーザレーダ装置2が設置されることがある。このとき、1つのスレーブレーザレーダ装置2は、2つの監視システムに属し、各監視システムのマスタレーザレーダ装置3に部分情報Dp1を送信してもよい。この例では、2つの監視システムにおける監視領域Rdは互いに異なっている。 For example, when the distance between two intersections is short, a master laser radar device 3 may be installed at each of the two intersections, and one slave laser radar device 2 may be installed at the midpoint of the road connecting the two intersections. . At this time, one slave laser radar device 2 may belong to two monitoring systems and transmit partial information Dp1 to the master laser radar device 3 of each monitoring system. In this example, the monitored regions Rd in the two monitoring systems are different from each other.

上記実施形態では、処理装置5,7(処理部53,73)は、クラスタを近似する幾何学形状として長方形を用いているが、別の図形を用いてもよい。例えば、処理装置5,7(処理部53,73)は、クラスタを楕円形、及び多角形等に近似してもよい。また、処理装置5,7(処理部53,73)は、クラスタに含まれる各計測点情報をxy平面に射影しているが、3次元の計測点情報を用いて、3次元の幾何学形状(例えば、直方体)に近似してもよい。この場合、幾何学形状を特定可能なパラメータの例としては、横幅W、縦幅L、高さH(z軸方向の長さ)、中心座標(x,y,z)、及びxy平面における回転角度θが挙げられる。 In the above embodiments, the processing devices 5 and 7 (processing units 53 and 73) use rectangles as geometric shapes for approximating clusters, but other figures may be used. For example, the processing devices 5 and 7 (processing units 53 and 73) may approximate clusters to ellipsoids, polygons, and the like. In addition, the processing devices 5 and 7 (processing units 53 and 73) project each measurement point information included in the cluster onto the xy plane, and use the three-dimensional measurement point information to obtain a three-dimensional geometric shape. (for example, a rectangular parallelepiped). In this case, examples of parameters that can specify the geometric shape include width W, length L, height H (length in the z-axis direction), center coordinates (x, y, z), and rotation in the xy plane. Angle θ can be mentioned.

上記実施形態では、処理装置5(処理部53)は、点群情報Dm1から検出除外範囲に含まれる計測点の計測点情報を除外した残りの計測点情報をクラスタリングしているが、点群情報Dm1をクラスタリングしてもよい。同様に、上記実施形態では、処理装置7(処理部73)は、点群情報Dm2から検出除外範囲に含まれる計測点の計測点情報を除外した残りの計測点情報をクラスタリングしているが、点群情報Dm2をクラスタリングしてもよい。 In the above embodiment, the processing device 5 (processing unit 53) clusters the remaining measurement point information after excluding the measurement point information of the measurement points included in the detection exclusion range from the point cloud information Dm1. Dm1 may be clustered. Similarly, in the above embodiment, the processing device 7 (processing unit 73) clusters the remaining measurement point information after excluding the measurement point information of the measurement points included in the detection exclusion range from the point cloud information Dm2. The point group information Dm2 may be clustered.

1 監視システム
4 レーザセンサ(第1レーザセンサ)
5 処理装置(第1処理装置)
6 レーザセンサ(第2レーザセンサ)
7 処理装置(第2処理装置)
8 検出装置
51,71 取得部
53,73 処理部
54,74 出力部
Dm1 点群情報(第1点群情報)
Dm2 点群情報(第2点群情報)
Dp1 部分情報(第1部分情報)
Dp2 部分情報(第2部分情報)
Ra 照射可能領域
Rb 照射可能領域
Rd 監視領域
1 monitoring system 4 laser sensor (first laser sensor)
5 processing device (first processing device)
6 laser sensor (second laser sensor)
7 processing device (second processing device)
8 detection devices 51, 71 acquisition units 53, 73 processing units 54, 74 output unit Dm1 point group information (first point group information)
Dm2 point cloud information (second point cloud information)
Dp1 partial information (first partial information)
Dp2 partial information (second partial information)
Ra Irradiable area Rb Irradiable area Rd Monitoring area

Claims (3)

それぞれが地上に設置されるとともに監視領域の少なくとも一部を含む照射可能領域に向けてレーザ光を照射して前記レーザ光の反射光を受光することで前記照射可能領域内の各計測点の位置座標を含む計測点情報を生成する第1レーザセンサ及び第2レーザセンサを用いて、前記監視領域を監視する監視システムであって、
前記第1レーザセンサによって生成された複数の計測点情報を含む第1点群情報を処理することで第1部分情報を生成する第1処理装置と、
前記第2レーザセンサによって生成された複数の計測点情報を含む第2点群情報を処理することで第2部分情報を生成する第2処理装置と、
前記第1部分情報及び前記第2部分情報に基づいて、前記監視領域における検出結果を生成する検出装置と、を備え、
前記第1処理装置は、前記第1点群情報をクラスタリングし、クラスタリングによって1以上の第1クラスタが得られた場合には、前記1以上の第1クラスタのそれぞれを近似した幾何学形状を特定可能なパラメータを含む前記第1部分情報を生成し、
前記第2処理装置は、前記第2点群情報をクラスタリングし、クラスタリングによって1以上の第2クラスタが得られた場合には、前記1以上の第2クラスタのそれぞれを近似した幾何学形状を特定可能なパラメータを含む前記第2部分情報を生成し、
前記検出装置は、前記第1部分情報に含まれるパラメータで特定される第1幾何学形状と、前記第2部分情報に含まれるパラメータで特定される第2幾何学形状と、が互いに重なり合う場合には、前記第1幾何学形状及び前記第2幾何学形状を同一の物体として検出する、監視システム。
Each measurement point is installed on the ground and irradiates a laser beam toward an irradiable area including at least a part of a monitoring area, and receives the reflected light of the laser beam to determine the position of each measurement point within the irradiable area. A monitoring system that monitors the monitoring area using a first laser sensor and a second laser sensor that generate measurement point information including coordinates,
a first processing device that generates first partial information by processing first point group information including a plurality of measurement point information generated by the first laser sensor;
a second processing device that generates second partial information by processing second point group information including a plurality of measurement point information generated by the second laser sensor;
a detection device that generates a detection result in the monitoring area based on the first partial information and the second partial information;
The first processing device clusters the first point group information, and when one or more first clusters are obtained by the clustering, identifies a geometric shape that approximates each of the one or more first clusters. generating the first part information including possible parameters ;
The second processing device clusters the second point group information, and when one or more second clusters are obtained by the clustering, identifies a geometric shape that approximates each of the one or more second clusters. generating the second part information including possible parameters;
When the first geometric shape specified by the parameters included in the first partial information and the second geometric shape specified by the parameters included in the second partial information overlap each other, the detection device detects the first geometric shape and the second geometric shape as the same object .
前記第1処理装置は、前記第1点群情報から、予め設定された検出除外範囲に含まれる計測点の計測点情報を除外し、残りの計測点情報をクラスタリングする、請求項に記載の監視システム。 2. The first processing device according to claim 1 , wherein, from the first point group information, the measuring point information of measuring points included in a preset detection exclusion range is excluded, and the remaining measuring point information is clustered. Monitoring system. 前記第1レーザセンサと、
前記第2レーザセンサと、
をさらに備える、請求項1又は請求項2に記載の監視システム。
the first laser sensor;
the second laser sensor;
3. The monitoring system of claim 1 or claim 2 , further comprising:
JP2018216368A 2018-11-19 2018-11-19 Monitoring system and processing equipment Active JP7205180B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018216368A JP7205180B2 (en) 2018-11-19 2018-11-19 Monitoring system and processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018216368A JP7205180B2 (en) 2018-11-19 2018-11-19 Monitoring system and processing equipment

Publications (2)

Publication Number Publication Date
JP2020085522A JP2020085522A (en) 2020-06-04
JP7205180B2 true JP7205180B2 (en) 2023-01-17

Family

ID=70909908

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018216368A Active JP7205180B2 (en) 2018-11-19 2018-11-19 Monitoring system and processing equipment

Country Status (1)

Country Link
JP (1) JP7205180B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115705773A (en) * 2021-08-12 2023-02-17 华为技术有限公司 Interaction method and interaction device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003149322A (en) 2001-11-08 2003-05-21 Toshiba Corp Object position detector
JP2006047134A (en) 2004-08-05 2006-02-16 Advanced Telecommunication Research Institute International Pedestrian position detector
JP2008051599A (en) 2006-08-23 2008-03-06 Mitsubishi Electric Corp Communication control method and radar system using it
CN101387700A (en) 2008-10-12 2009-03-18 北京大学 Data fusing method and system based on multi-laser scanner
JP2009085927A (en) 2007-10-03 2009-04-23 Hitachi Information & Communication Engineering Ltd Object-detecting system and method therefor
JP2017067756A (en) 2015-10-02 2017-04-06 パナソニック株式会社 Object detection device and object detection method
JP2017166846A (en) 2016-03-14 2017-09-21 株式会社デンソー Object recognition device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3376864B2 (en) * 1997-07-23 2003-02-10 株式会社デンソー Obstacle recognition device for vehicles

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003149322A (en) 2001-11-08 2003-05-21 Toshiba Corp Object position detector
JP2006047134A (en) 2004-08-05 2006-02-16 Advanced Telecommunication Research Institute International Pedestrian position detector
JP2008051599A (en) 2006-08-23 2008-03-06 Mitsubishi Electric Corp Communication control method and radar system using it
JP2009085927A (en) 2007-10-03 2009-04-23 Hitachi Information & Communication Engineering Ltd Object-detecting system and method therefor
CN101387700A (en) 2008-10-12 2009-03-18 北京大学 Data fusing method and system based on multi-laser scanner
JP2017067756A (en) 2015-10-02 2017-04-06 パナソニック株式会社 Object detection device and object detection method
JP2017166846A (en) 2016-03-14 2017-09-21 株式会社デンソー Object recognition device

Also Published As

Publication number Publication date
JP2020085522A (en) 2020-06-04

Similar Documents

Publication Publication Date Title
JP7205181B2 (en) Monitoring system and processing equipment
CN103455144B (en) Vehicle-mounted man-machine interaction system and method
US10132919B2 (en) Object detecting device, radar device, and object detection method
JP2016153775A (en) Object detection device and object detection method
TW201740160A (en) Laser scanning system, laser scanning method, movable laser scanning system and program
US11796653B2 (en) Detecting and tracking Lidar cross-talk
JP4102885B2 (en) Parked vehicle detection method and parked vehicle detection system
JP7205180B2 (en) Monitoring system and processing equipment
CN108061905A (en) A kind of pavement behavior detection method and device
JP7205179B2 (en) Monitoring system
JP2011181028A (en) Three-dimensional model generation device and computer program
JP7226565B2 (en) Object recognition method and object recognition device
JP6274410B2 (en) Overhead detection method
JP3740531B2 (en) Parked vehicle detection method, detection system, and parked vehicle detection device
JP2020026981A (en) Object detection device and object detection method
JP2017097580A (en) Object detection device
JP2023037355A (en) Monitoring system, monitoring method and monitoring program
CN110412613B (en) Laser-based measurement method, mobile device, computer device, and storage medium
KR20230015658A (en) Method for generating a grid map and apparatus thereof
KR101947581B1 (en) Apparatus for sharing point cloud data
JP2005212553A (en) Detecting device and detecting method
WO2020054110A1 (en) Object detection system and object detection method
JPWO2017037834A1 (en) Information processing apparatus, control method, program, and storage medium
JP7380705B2 (en) Information generation device, information generation method, and computer program
JP7302511B2 (en) Information processing equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221212

R151 Written notification of patent or utility model registration

Ref document number: 7205180

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151