JP2019179495A - Sensor processing system, distance measuring system, mobile object, sensor processing method, and program - Google Patents

Sensor processing system, distance measuring system, mobile object, sensor processing method, and program Download PDF

Info

Publication number
JP2019179495A
JP2019179495A JP2018069731A JP2018069731A JP2019179495A JP 2019179495 A JP2019179495 A JP 2019179495A JP 2018069731 A JP2018069731 A JP 2018069731A JP 2018069731 A JP2018069731 A JP 2018069731A JP 2019179495 A JP2019179495 A JP 2019179495A
Authority
JP
Japan
Prior art keywords
sensor
result
distance measuring
detection
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018069731A
Other languages
Japanese (ja)
Inventor
佑紀 今井
Yuki Imai
佑紀 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2018069731A priority Critical patent/JP2019179495A/en
Publication of JP2019179495A publication Critical patent/JP2019179495A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

To provide a sensor processing system, distance measuring system, mobile object, sensor processing method, and program capable of increasing the accuracy of obstacle detection.SOLUTION: A sensor processing system 1 comprises: an acquisition part 101 that acquires a result detected by a distance measuring sensor 20; and an output part 106. The output part 106 outputs a detection result obtained by removing a removal object from a result detected by the distance measuring sensor 20 based on map information including data for the height of the removal object to be removed from the results detected by the distance measuring sensor 20.SELECTED DRAWING: Figure 1

Description

本開示は、一般にセンサ処理システム、測距システム、移動体、センサ処理方法及びプログラムに関し、より詳細には障害物を検知するセンサ処理システム、測距システム、移動体、センサ処理方法及びプログラムに関する。   The present disclosure relates generally to a sensor processing system, a ranging system, a moving body, a sensor processing method, and a program, and more particularly to a sensor processing system, a ranging system, a moving body, a sensor processing method, and a program for detecting an obstacle.

従来、目的地まで自律して移動する自律移動ロボットが知られている(例えば、特許文献1)。   Conventionally, an autonomous mobile robot that autonomously moves to a destination is known (for example, Patent Document 1).

特許文献1の自律移動ロボットは、周囲に存在する障害物の有無を検知可能なセンシング手段と、移動する範囲内の地図を記憶するための記憶手段とを備えている。特許文献1の自律移動ロボットは、センシング手段の検知結果から移動方向に障害物がないことを確認しつつ記憶手段で記憶された地図上で指示された目的地まで移動する。   The autonomous mobile robot of Patent Document 1 includes sensing means capable of detecting the presence or absence of obstacles present in the surroundings, and storage means for storing a map within a moving range. The autonomous mobile robot of Patent Document 1 moves to the destination indicated on the map stored in the storage means while confirming that there is no obstacle in the moving direction from the detection result of the sensing means.

特開2006−321001号公報JP 2006-321001 A

センシング手段の検知結果を基に障害物の有無を判別するシステム(センサ処理システム)において、障害物を回避しながら自律移動ロボット(例えば車両等の移動体)を目的地まで移動させるためには、障害物を検知する精度を上げることが重要となる。   In order to move an autonomous mobile robot (for example, a moving body such as a vehicle) to a destination while avoiding an obstacle in a system (sensor processing system) that determines the presence or absence of an obstacle based on the detection result of the sensing means, It is important to improve the accuracy of detecting obstacles.

本開示は上記課題に鑑みてなされ、障害物検知の精度をより高めることができるセンサ処理システム、測距システム、移動体、センサ処理方法及びプログラムを提供することを目的とする。   The present disclosure has been made in view of the above problems, and an object thereof is to provide a sensor processing system, a ranging system, a moving body, a sensor processing method, and a program that can further improve the accuracy of obstacle detection.

本開示の一態様に係るセンサ処理システムは、測距センサが検知した結果を取得する取得部と、出力部とを備える。前記出力部は、前記測距センサが検知した結果から除外する除外対象物の高さのデータを含む地図情報に基づいて、前記測距センサが検知した前記結果から除去対象物を除いた検知結果を出力する。   A sensor processing system according to an aspect of the present disclosure includes an acquisition unit that acquires a result detected by a distance measurement sensor, and an output unit. The output unit is a detection result obtained by removing the removal object from the result detected by the distance sensor based on map information including data on the height of the object to be excluded from the result detected by the distance sensor. Is output.

本開示の一態様に係る測距システムは、前記センサ処理システムと、前記測距センサとを備える。   A ranging system according to an aspect of the present disclosure includes the sensor processing system and the ranging sensor.

本開示の一態様に係る移動体は、前記測距システムと、本体部とを備える。   A moving body according to an aspect of the present disclosure includes the distance measuring system and a main body.

本開示の一態様に係るセンサ処理方法は、測距センサが検知した結果を取得する取得ステップと、出力ステップとを含む。前記出力ステップは、前記測距センサの検知対象である物体の高さのデータを含む地図情報に基づいて、前記測距センサが検知した前記結果から除去対象物を除いた検知結果を出力する。   The sensor processing method according to an aspect of the present disclosure includes an acquisition step of acquiring a result detected by the distance measuring sensor, and an output step. The output step outputs a detection result obtained by removing an object to be removed from the result detected by the distance measuring sensor based on map information including height data of an object that is a detection target of the distance measuring sensor.

本開示の一態様に係るプログラムは、コンピュータシステムに、測距センサが検知した結果を取得する取得ステップと、出力ステップと、を実行させるためのプログラムである。前記出力ステップは、前記測距センサの検知対象である物体の高さのデータを含む地図情報に基づいて、前記測距センサが検知した前記結果から除去対象物を除いた検知結果を出力する。   A program according to an aspect of the present disclosure is a program for causing a computer system to execute an acquisition step of acquiring a result detected by a distance measuring sensor and an output step. The output step outputs a detection result obtained by removing an object to be removed from the result detected by the distance measuring sensor based on map information including height data of an object that is a detection target of the distance measuring sensor.

本開示によると、障害物検知の精度をより高めることができる。   According to the present disclosure, it is possible to further increase the accuracy of obstacle detection.

図1は、本開示の一実施形態に係る測距システムの構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of a ranging system according to an embodiment of the present disclosure. 図2A,図2Bは、同上の測距システムの測距センサの適用例を説明する図である。2A and 2B are diagrams for explaining an application example of the distance measuring sensor of the distance measuring system. 図3は、同上の測距システムにおいて、障害物とみなす範囲を説明する図である。FIG. 3 is a diagram for explaining a range regarded as an obstacle in the above-described distance measuring system. 図4は、同上の測距システムが備える検知装置の動作を説明する流れ図である。FIG. 4 is a flowchart for explaining the operation of the detection device provided in the distance measuring system. 図5は、同上の検知装置が行う追跡処理に含まれる特徴量を比較する処理について説明する図である。FIG. 5 is a diagram for describing processing for comparing feature amounts included in tracking processing performed by the above-described detection device. 図6は、同上の検知装置が行う追跡処理に含まれる重心位置を比較する処理について説明する図である。FIG. 6 is a diagram for describing processing for comparing the positions of the center of gravity included in the tracking processing performed by the above-described detection device. 図7は、同上の検知装置が行う物体識別処理に含まれる特徴量を比較する処理について説明する図である。FIG. 7 is a diagram illustrating a process for comparing feature amounts included in the object identification process performed by the above-described detection apparatus. 図8は、同上の検知装置が行う物体検知処理に含まれる地面を除外する処理について説明する流れ図である。FIG. 8 is a flowchart for explaining the process of excluding the ground included in the object detection process performed by the above-described detection apparatus.

以下に説明する実施形態及び変形例は、本開示の一例に過ぎず、本開示は、実施形態及び変形例に限定されない。この実施形態及び変形例以外であっても、本開示に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能である。   Embodiments and modifications described below are merely examples of the present disclosure, and the present disclosure is not limited to the embodiments and the modifications. Even if it is except this embodiment and a modification, if it is a range which does not deviate from the technical idea which concerns on this indication, various changes are possible according to a design etc.

(実施形態)
本実施形態に係るセンサ処理システム、測距システム、移動体、センサ処理方法及びプログラムについて、図1〜図8を用いて説明する。
(Embodiment)
The sensor processing system, ranging system, moving body, sensor processing method, and program according to this embodiment will be described with reference to FIGS.

(1)概要
本実施形態のセンサ処理システム1及び測距システム5は、測距センサ(例えば、LIDAR(Light Detection and Ranging))及びGPS(Global Positioning System)等により周囲の環境を認識して自動運転により走行する移動体(例えば、車両6)に備えられる。
(1) Outline The sensor processing system 1 and the distance measuring system 5 of the present embodiment automatically recognize the surrounding environment by a distance measuring sensor (for example, LIDAR (Light Detection and Ranging)) and GPS (Global Positioning System). It is provided in a moving body (for example, vehicle 6) that travels by driving.

センサ処理システム1は、測距システム5に備えられ、車両6の周囲に存在する障害物(物体)を検知する。障害物は、例えば人、他の車両等である。車両6が備える運転制御部40(図1参照)は、センサ処理システム1が検知した障害物の位置、形状、大きさ等に基づいて走行速度の減速若しくは加速、又は障害物の回避等を判断して自動走行の制御を行う。   The sensor processing system 1 is provided in the distance measuring system 5 and detects an obstacle (object) existing around the vehicle 6. The obstacle is, for example, a person or another vehicle. The operation control unit 40 (see FIG. 1) included in the vehicle 6 determines whether to reduce or accelerate the traveling speed, avoid the obstacle, or the like based on the position, shape, size, etc. of the obstacle detected by the sensor processing system 1. To control the automatic driving.

(2)構成
以下、測距システム5の構成について説明する。
(2) Configuration Hereinafter, the configuration of the distance measuring system 5 will be described.

測距システム5は、車両6に設けられ、センサ処理システム1としての検知装置10と、測距センサ20と、記憶部30とを有する。   The ranging system 5 is provided in the vehicle 6 and includes a detection device 10 as the sensor processing system 1, a ranging sensor 20, and a storage unit 30.

検知装置10は、例えばプロセッサ及びメモリを有するマイクロコンピュータを有している。そして、プロセッサがメモリに格納されているプログラムを実行することにより、マイクロコンピュータが検知装置10として機能する。プロセッサが実行するプログラムは、ここではマイクロコンピュータのメモリに予め記録されているが、メモリカード等の記録媒体に記録されて提供されてもよいし、インターネット等の電気通信回線を通じて提供されてもよい。   The detection apparatus 10 includes a microcomputer having a processor and a memory, for example. Then, the microcomputer functions as the detection device 10 when the processor executes the program stored in the memory. Here, the program executed by the processor is recorded in advance in the memory of the microcomputer, but may be provided by being recorded on a recording medium such as a memory card, or may be provided through an electric communication line such as the Internet. .

測距センサ20は、例えばLIDARであり、車両6の本体部61に備えられ、100msecごとにレーザR1を出力する。測距センサ20は、レーザR1を車両6の上下方向を軸として回転させながら出力する(図2A参照)。さらに測距センサ20は、レーザR1を車両の前方及び後方において左右方向を軸として回転に移動させながら出力する(図2B参照)。測距センサ20は、出力したレーザR1に対して物体で反射した反射波を受信する。これにより、測距センサ20が水平方向及び垂直方向においてレーザR1を照射するたびに反射波を受信するので、測距システム5は、複数の反射位置を点群として取得することができる。   The distance measuring sensor 20 is, for example, a LIDAR, is provided in the main body 61 of the vehicle 6, and outputs a laser R1 every 100 msec. The distance measuring sensor 20 outputs the laser R1 while rotating the laser 6 about the vertical direction of the vehicle 6 (see FIG. 2A). Further, the distance measuring sensor 20 outputs the laser R1 while moving the laser R1 around the left and right directions as an axis in front and rear of the vehicle (see FIG. 2B). The distance measuring sensor 20 receives the reflected wave reflected by the object with respect to the output laser R1. Thereby, since the ranging sensor 20 receives the reflected wave every time the laser R1 is irradiated in the horizontal direction and the vertical direction, the ranging system 5 can acquire a plurality of reflection positions as a point group.

記憶部30は、ROM(Read Only Memory)、RAM(Random Access Memory)、又はEEPROM(Electrically Erasable Programmable Read Only Memory)等から選択されるデバイスで構成される。   The storage unit 30 includes a device selected from a ROM (Read Only Memory), a RAM (Random Access Memory), an EEPROM (Electrically Erasable Programmable Read Only Memory), or the like.

記憶部30は、地図情報を記憶している。地図情報は、車両6が走行する際の経路を検索したり、現在位置を確認したりするために用いられる。地図情報は、センサ処理システム1(検知装置10)が障害物を検知する際に障害物とみなさない物体(例えば、地面、縁石等)の高さ情報を含む。例えば、地図情報は、特定の地点ごとに、当該地点から1m先の地面(道路)の高さ(所定の基準点からの差分)、10m先の地面の高さ、20m先の地面の高さ等を含む。これにより、車両6は、特定の地点に存在する場合には、当該地点から1m先の地面(道路)の高さ、10m先の地面の高さ、20m先の地面の高さを知ることができる。   The storage unit 30 stores map information. The map information is used for searching for a route when the vehicle 6 travels and for checking the current position. The map information includes height information of an object (for example, the ground, a curb, etc.) that is not regarded as an obstacle when the sensor processing system 1 (detection device 10) detects the obstacle. For example, the map information includes, for each specific point, the height of the ground (road) 1 m away from the point (difference from a predetermined reference point), the height of the ground 10 m away, and the height of the ground 20 m away Etc. As a result, when the vehicle 6 exists at a specific point, the vehicle 6 knows the height of the ground (road) 1 m ahead of the point, the height of the ground 10 m ahead, and the height of the ground 20 m ahead. it can.

記憶部30は、検知装置10の検知結果を履歴として記憶する。さらに、記憶部30は、人、車両等のモデルデータを予め記憶する。   The storage unit 30 stores the detection result of the detection device 10 as a history. Furthermore, the memory | storage part 30 memorize | stores model data, such as a person and a vehicle, beforehand.

検知装置10は、図1に示すように、取得部101、物体検知部102、特徴量抽出部103、追跡処理部104、物体識別部105及び出力部106を有している。   As illustrated in FIG. 1, the detection apparatus 10 includes an acquisition unit 101, an object detection unit 102, a feature amount extraction unit 103, a tracking processing unit 104, an object identification unit 105, and an output unit 106.

取得部101は、測距センサ20の検知結果を取得する。具体的には、取得部101は、測距センサ20の検知結果を、車両6の周囲の空間(水平方向、垂直方向、前後方向)の点群として取得する。例えば、取得部101は、点群のデータとして、各点の3次元の座標点、つまり測距センサ20を基準とする水平方向の座標値、垂直方向の座標値、及び測距センサ20から前後方向における座標値(測距センサ20からの距離)を取得する。   The acquisition unit 101 acquires the detection result of the distance measuring sensor 20. Specifically, the acquisition unit 101 acquires the detection result of the distance measuring sensor 20 as a point group in the space around the vehicle 6 (horizontal direction, vertical direction, front-rear direction). For example, the acquisition unit 101 uses, as point group data, three-dimensional coordinate points of each point, that is, horizontal coordinate values, vertical coordinate values based on the distance measuring sensor 20, and front and rear from the distance measuring sensor 20. A coordinate value in the direction (a distance from the distance measuring sensor 20) is acquired.

取得部101は、車両6のGPSによる測定結果に基づく車両6の現在位置を含む地図情報を記憶部30から取得する。例えば、取得部101は、車両6の現在位置を中心とし、半径50m以内の領域を含む地図情報を取得する。   The acquisition unit 101 acquires map information including the current position of the vehicle 6 based on the measurement result of the vehicle 6 by GPS from the storage unit 30. For example, the acquisition unit 101 acquires map information including an area within a radius of 50 m with the current position of the vehicle 6 as the center.

物体検知部102は、障害物とみなさない物体(除外対象物)を取得部101が取得した検知結果から除外する。具体的には、まず、物体検知部102は、点群のデータを、垂直方向における複数のグリッドに分割する。すなわち、垂直方向を回転軸として所定角度の範囲内の点群のデータを1つのグリッドとする。物体検知部102は、除去対象の高さαを第1の値α1として、複数のグリッドに対して高さが第1の値α1以下である1つ以上の点のデータ(観測データ)を除去する。その後、物体検知部102は、垂直方向における物体の有無に応じて除去対象の高さαを変更し、複数のグリッドに対して高さα以下の1つ以上の観測データを除去する。   The object detection unit 102 excludes an object (exclusion target) that is not regarded as an obstacle from the detection result acquired by the acquisition unit 101. Specifically, first, the object detection unit 102 divides the point cloud data into a plurality of grids in the vertical direction. That is, data of a point group within a predetermined angle range with the vertical direction as the rotation axis is defined as one grid. The object detection unit 102 removes data (observation data) of one or more points whose heights are equal to or less than the first value α1 with respect to a plurality of grids, with the height α to be removed as the first value α1. To do. Thereafter, the object detection unit 102 changes the height α to be removed according to the presence or absence of an object in the vertical direction, and removes one or more observation data having a height α or less from a plurality of grids.

物体検知部102は、複数のグリッドに対して高さβ以上である1つ以上の観測データを除外する。これにより、物体検知部102は、複数のグリッドについて、高さがαより大きくβより小さい範囲の物体のみを抽出することができる(図3参照)。つまり物体検知部102は、高さがαより大きくβより小さい範囲の物体を障害物とみなすことができる。   The object detection unit 102 excludes one or more observation data having a height β or more with respect to a plurality of grids. Thereby, the object detection part 102 can extract only the object of the range whose height is larger than (alpha) and smaller than (beta) about several grids (refer FIG. 3). That is, the object detection unit 102 can regard an object in a range where the height is larger than α and smaller than β as an obstacle.

物体検知部102は、高さがαより大きくβより小さい範囲のグリッドのうち車両6が走行可能なエリアに属するグリッドを抽出する。   The object detection unit 102 extracts a grid belonging to an area in which the vehicle 6 can travel from a grid having a height greater than α and smaller than β.

物体検知部102は、走行可能なエリアに属するグリッドについて、1つ以上のグループ(クラスタ)に分類する。具体的には、物体検知部102は、測距センサ20からの距離が同一であり、水平方向に連続する1つ以上のグリッドを1つのクラスタとする。ここで、「距離が同一である」とは、完全同一だけでなく、差分が所定の範囲内である場合も含む。本実施形態では、抽出された各クラスタが検知された物体とみなす。   The object detection unit 102 classifies the grids belonging to the travelable area into one or more groups (clusters). Specifically, the object detection unit 102 sets one or more grids having the same distance from the distance measuring sensor 20 and continuous in the horizontal direction as one cluster. Here, “the distance is the same” includes not only completely the same but also a case where the difference is within a predetermined range. In the present embodiment, each extracted cluster is regarded as a detected object.

特徴量抽出部103は、物体検知部102が抽出された1つ以上のクラスタに対して、特徴量を抽出する。具体的には、特徴量抽出部103は、クラスタに含まれる複数の観測データに基づいて、当該複数の点で表される物体の角、エッジ等の複数の特徴点を抽出し、複数の特徴点の並びに応じて、特徴点を数値化し、ヒストグラムを生成する。例えば、特徴点の並びが直線であるか曲線であるか、又は分散しているかに応じて、特徴点を数値化し、ヒストグラムを生成する。   The feature amount extraction unit 103 extracts feature amounts for one or more clusters from which the object detection unit 102 has been extracted. Specifically, the feature amount extraction unit 103 extracts a plurality of feature points such as corners and edges of the object represented by the plurality of points based on a plurality of observation data included in the cluster, and the plurality of features. In accordance with the arrangement of the points, the feature points are digitized to generate a histogram. For example, the feature points are digitized according to whether the feature points are arranged in a straight line, a curve, or distributed, and a histogram is generated.

追跡処理部104は、検知された物体の動きの有無を判別し、動きがある場合にはその速度を求める。追跡処理部104は、現時点で測距センサ20が検知した結果(第1結果)に含まれる全てのクラスタの特徴量と、測距センサ20が検知した結果(第2結果)に含まれる全てのクラスタの特徴量とを比較する。追跡処理部104は、第1結果に含まれる全てのクラスタの重心位置と、第2結果に含まれる全てのクラスタの重心位置とを比較する。追跡処理部104は、特徴量の比較結果と重心位置の比較結果とを用いて、第1結果に含まれる全てのクラスタと第2結果に含まれる全てのクラスタとのマッチング処理を行う。ここで、重心位置の比較とは、測距センサ20から物体の重心までの距離の比較である。   The tracking processing unit 104 determines the presence / absence of the detected movement of the object, and obtains the speed when there is movement. The tracking processing unit 104 includes the feature amounts of all the clusters included in the result (first result) detected by the distance measuring sensor 20 at the present time, and all the values included in the result (second result) detected by the distance measuring sensor 20. Compare with cluster features. The tracking processing unit 104 compares the centroid positions of all the clusters included in the first result with the centroid positions of all the clusters included in the second result. The tracking processing unit 104 performs matching processing between all the clusters included in the first result and all the clusters included in the second result, using the comparison result of the feature amount and the comparison result of the centroid position. Here, the comparison of the center of gravity position is a comparison of the distance from the distance measuring sensor 20 to the center of gravity of the object.

追跡処理部104は、マッチング処理により第1結果及び第2結果に同一の種類のクラスタ(同一の障害物に対応するクラスタ)が含まれると判断した場合には、当該クラスタの移動方向、移動距離及び移動速度を求める。追跡処理部104は、第2結果には含まれず第1結果に含まれるクラスタが存在する場合には、新たに検知されたクラスタと判別する。   When the tracking processing unit 104 determines that the first result and the second result include the same type of cluster (cluster corresponding to the same obstacle) by the matching process, the tracking processing unit 104 moves and moves the cluster. And the moving speed is obtained. When there is a cluster that is not included in the second result but included in the first result, the tracking processing unit 104 determines that the cluster is a newly detected cluster.

物体識別部105は、測距センサ20が検知した結果に含まれる各クラスタに対応する障害物が何であるかを識別する。物体識別部105は、記憶部30が記憶する各モデルデータの特徴量を求める。各モデルデータの特徴量についても、上述したように、モデルデータが表す物体の角、エッジ等の複数の特徴点を抽出し、複数の特徴点の並びに応じて、特徴点を数値化する。物体識別部105は、各モデルデータの特徴量のヒストグラムと、特徴量抽出部103が作成したヒストグラムとを比較する。物体識別部105は、比較結果に基づいて、比較対象のクラスタが表す物体を、特徴量抽出部103が作成したヒストグラムと最も類似度が高いモデルデータが表す物体と識別する。   The object identifying unit 105 identifies what obstacle is associated with each cluster included in the result detected by the distance measuring sensor 20. The object identification unit 105 obtains a feature amount of each model data stored in the storage unit 30. As described above, with respect to the feature amount of each model data, a plurality of feature points such as corners and edges of the object represented by the model data are extracted, and the feature points are digitized according to the arrangement of the plurality of feature points. The object identification unit 105 compares the histogram of the feature amount of each model data with the histogram created by the feature amount extraction unit 103. Based on the comparison result, the object identification unit 105 identifies the object represented by the comparison target cluster as the object represented by the model data having the highest similarity with the histogram created by the feature amount extraction unit 103.

出力部106は、物体検知部102が除外対象物を測距センサ20の検知結果から除外した結果、追跡処理部104が求めた各クラスタの移動の有無、移動がある場合にはその移動方向、移動距離及び移動速度を出力する。さらに、出力部106は、物体識別部105が識別した物体の情報(物体名)を、運転制御部40に出力する。物体検知部102が除外対象物を測距センサ20の検知結果から除外した結果として、例えば、物体検知部102が検知した各クラスタの位置情報である。   As a result of the object detection unit 102 excluding the object to be excluded from the detection result of the distance measuring sensor 20, the output unit 106 indicates whether or not each cluster has been obtained by the tracking processing unit 104, the movement direction when there is a movement, Outputs the travel distance and travel speed. Further, the output unit 106 outputs information (object name) of the object identified by the object identifying unit 105 to the operation control unit 40. The result of excluding the object to be excluded from the detection result of the distance measuring sensor 20 by the object detection unit 102 is, for example, the position information of each cluster detected by the object detection unit 102.

運転制御部40は、各クラスタの位置情報、各クラスタの移動の有無、移動がある場合にはその移動方向、移動距離及び移動速度、さらには、各クラスタの物体名を用いて、走行速度の減速若しくは加速、又は障害物の回避等を判断して自動走行の制御を行う。   The operation control unit 40 uses the position information of each cluster, the presence / absence of movement of each cluster, the movement direction, movement distance and movement speed, if any, and the object name of each cluster. Control of automatic travel is performed by judging deceleration or acceleration, avoidance of obstacles, or the like.

(3)動作
(3.1)全体動作
ここでは、測距システム5の動作について、図4を用いて説明する。なお、検知装置10は、車両6の位置を含む領域の地図情報を予め記憶部30から取得していることを前提とする。
(3) Operation (3.1) Overall Operation Here, the operation of the ranging system 5 will be described with reference to FIG. Note that the detection device 10 is premised on acquiring map information of a region including the position of the vehicle 6 from the storage unit 30 in advance.

取得部101は、測距センサ20の検知結果を、車両6の周囲の空間(3次元)の点群として取得する(ステップS1)。   The acquisition unit 101 acquires the detection result of the distance measuring sensor 20 as a point group in a space (three-dimensional) around the vehicle 6 (step S1).

物体検知部102は、物体検知処理を行う(ステップS2)。物体検知部102は、まず地面除外処理を行う。地面除外処理の詳細は後述する。物体検知部102は、地面除外処理が行われた複数のグリッドに対して、高さβ以上である1つ以上の観測データを除外する。物体検知部102は、高さがαより大きくβより小さい範囲のグリッドのうち車両6が走行可能なエリアに属するグリッドを抽出する。物体検知部102は、走行可能なエリアに属するグリッドについて、1つ以上のクラスタに分類する。   The object detection unit 102 performs an object detection process (step S2). The object detection unit 102 first performs ground removal processing. Details of the ground removal process will be described later. The object detection unit 102 excludes one or more observation data having a height β or more from the plurality of grids subjected to the ground exclusion process. The object detection unit 102 extracts a grid belonging to an area in which the vehicle 6 can travel from a grid having a height greater than α and smaller than β. The object detection unit 102 classifies the grid belonging to the travelable area into one or more clusters.

特徴量抽出部103は、特徴量抽出処理を行う(ステップS3)。特徴量抽出部103は、特徴量抽出部103は、クラスタに含まれる複数の観測データに基づいて、当該複数の点で表される物体の角、エッジ等の複数の特徴点を抽出し、複数の特徴点の並びに応じて、例えば特徴点の並びが直線であるか曲線であるか、又は分散しているかに応じて、特徴点を数値化し、ヒストグラムを生成する。これにより、クラスタが表す物体が丸みを帯びた形状であるか、丸みがない平べったい形状であるかを識別することができる。   The feature amount extraction unit 103 performs feature amount extraction processing (step S3). The feature quantity extraction unit 103 extracts a plurality of feature points such as corners and edges of the object represented by the plurality of points based on a plurality of observation data included in the cluster, and a plurality of feature points are extracted. In accordance with the arrangement of the feature points, for example, depending on whether the feature points are arranged in a straight line, a curve, or dispersed, the feature points are digitized to generate a histogram. Thereby, it is possible to identify whether the object represented by the cluster has a rounded shape or a flat shape without roundness.

追跡処理部104は、追跡処理を行う(ステップS4)。   The tracking processing unit 104 performs tracking processing (step S4).

まず、追跡処理部104は、測距センサ20が、今回検知した結果(第1結果)に含まれる1つ以上の全てのクラスタの特徴量と、測距センサ20が前回検知した結果(第2結果)に含まれる1つ以上の全てのクラスタの特徴量とを比較する。具体的には、図5に示すように、第1結果に含まれるクラスタが表す物体B1の特徴量を基に生成されたヒストグラムH1と、第2結果に含まれるクラスタが表す物体B11の特徴量を基に生成されたヒストグラムH11とを比較し、特徴量の一致度を求める。   First, the tracking processing unit 104 detects the feature amounts of one or more clusters included in the result (first result) detected by the distance measurement sensor 20 this time and the result (second result) detected by the distance measurement sensor 20 last time. The feature amounts of one or more clusters included in the result) are compared. Specifically, as shown in FIG. 5, the histogram H1 generated based on the feature amount of the object B1 represented by the cluster included in the first result and the feature amount of the object B11 represented by the cluster included in the second result. Is compared with the histogram H11 generated based on the above, and the degree of coincidence of the feature amounts is obtained.

次に、追跡処理部104は、第1結果に含まれる1つ以上の全てのクラスタの重心位置と、第2結果に含まれる1つ以上の全てのクラスタの重心位置とを比較する。具体的には、追跡処理部104は、測距センサ20から第1結果に含まれるクラスタの重心までの第1距離、及び測距センサ20から第2結果に含まれるクラスタの重心までの第2距離を求める。追跡処理部104は、第1距離と第2距離とを比較して、第1距離と第2距離との差分が小さくなるにつれて、値が大きくなるように比較結果を設定する。例えば、図6に示すように、前回の検知結果として物体(クラスタ)B21が検出され、今回の検出結果として物体(クラスタ)B2,B3,B4が検出されたとする。この場合、追跡処理部104は、物体B21,B2〜B4のそれぞれの重心を求める。追跡処理部104は、物体B21,B2〜B4の観測データから、測距センサ20から重心までの距離を求める。追跡処理部104は、物体B21に対する距離と、物体B2〜B4に対する距離との比較結果に応じた値を、物体B21,B2〜B4の各々に設定する。物体B21には、B2〜B4の各々との比較結果が設定される。   Next, the tracking processing unit 104 compares the centroid positions of all the one or more clusters included in the first result with the centroid positions of all the one or more clusters included in the second result. Specifically, the tracking processing unit 104 includes a first distance from the distance measuring sensor 20 to the center of gravity of the cluster included in the first result, and a second distance from the distance measuring sensor 20 to the center of gravity of the cluster included in the second result. Find the distance. The tracking processing unit 104 compares the first distance and the second distance, and sets the comparison result so that the value increases as the difference between the first distance and the second distance decreases. For example, as shown in FIG. 6, it is assumed that the object (cluster) B21 is detected as the previous detection result, and the objects (clusters) B2, B3, and B4 are detected as the current detection result. In this case, the tracking processing unit 104 obtains the center of gravity of each of the objects B21, B2 to B4. The tracking processing unit 104 obtains the distance from the distance measuring sensor 20 to the center of gravity from the observation data of the objects B21, B2 to B4. The tracking processing unit 104 sets a value corresponding to the comparison result between the distance to the object B21 and the distance to the objects B2 to B4 in each of the objects B21 and B2 to B4. A comparison result with each of B2 to B4 is set for the object B21.

次に、追跡処理部104は、特徴量の比較結果と重心位置の比較結果とを用いて、第1結果に含まれる全てのクラスタと第2結果に含まれる全てのクラスタとのマッチング処理を行う。追跡処理部104は、例えば、数式“類似度 = ω×d1 + (1−ω)×d2”を用いて、マッチング処理を行う。ここで、ωは重み係数であり、d1は、特徴量の比較結果(一致度)であり、d2は重心位置の比較結果(評価値)である。第1結果に含まれる各クラスタと、第2結果に含まれる各クラスタとのうち、類似度が高いクラスタ同士を同一の物体をみなす。なお、類似度が所定値以下である場合には、対応するクラスタは、今回新たに検知されたクラスタ、又は前回検知されたが今回検知されなかったクラスタとみなす。   Next, the tracking processing unit 104 performs matching processing between all the clusters included in the first result and all the clusters included in the second result, using the comparison result of the feature amount and the comparison result of the centroid position. . The tracking processing unit 104 performs a matching process using, for example, a mathematical expression “similarity = ω × d1 + (1−ω) × d2”. Here, ω is a weighting coefficient, d1 is a comparison result (matching degree) of feature amounts, and d2 is a comparison result (evaluation value) of centroid positions. Among the clusters included in the first result and the clusters included in the second result, clusters having high similarity are regarded as the same object. If the degree of similarity is equal to or less than a predetermined value, the corresponding cluster is regarded as a newly detected cluster this time or a cluster detected last time but not detected this time.

物体識別部105は、物体識別処理を行う(ステップS5)。物体識別部105は、今回検出されたすべてのクラスタに対して以下の処理を行う。   The object identification unit 105 performs object identification processing (step S5). The object identification unit 105 performs the following processing on all the clusters detected this time.

まず、物体識別部105は、記憶部30が記憶する各モデルデータの特徴量を求める。物体識別部105は、各モデルデータの特徴量について、モデルデータが表す物体の角、エッジ等の複数の特徴点を抽出し、複数の特徴点の並びに応じて、特徴点を数値化し、ヒストグラムを生成する。   First, the object identification unit 105 obtains a feature amount of each model data stored in the storage unit 30. The object identification unit 105 extracts a plurality of feature points such as corners and edges of the object represented by the model data for the feature amount of each model data, digitizes the feature points according to the arrangement of the plurality of feature points, and displays a histogram. Generate.

物体識別部105は、特徴量抽出部103が生成したすべてのクラスタのヒストグラムの各々と、すべてのモデルデータのヒストグラムとを比較して、すべてのモデルデータとの一致度を求める。物体識別部105は、求めた各一致度に重み係数を乗算して類似度を算出する。例えば、物体識別部105は、今回検出されたクラスタ(物体)B31のヒストグラムH31と、モデルデータのヒストグラムH32とを比較する(図7参照)。物体識別部105は、ヒストグラムH31とヒストグラムH32とを比較結果(一致度)に重み係数を乗算して、ヒストグラムH32が表す物体に対する今回検出されたクラスタ(物体)B31の類似度を算出する。   The object identification unit 105 compares each of the histograms of all the clusters generated by the feature amount extraction unit 103 with the histograms of all the model data, and obtains the degree of coincidence with all the model data. The object identification unit 105 calculates a similarity by multiplying each obtained degree of coincidence by a weighting coefficient. For example, the object identification unit 105 compares the histogram H31 of the cluster (object) B31 detected this time with the histogram H32 of the model data (see FIG. 7). The object identification unit 105 calculates the similarity of the cluster (object) B31 detected this time with respect to the object represented by the histogram H32 by multiplying the comparison result (matching degree) between the histogram H31 and the histogram H32 by the weighting coefficient.

物体識別部105は、特徴量抽出部103が生成したすべてのクラスタのヒストグラムの各々について、すべてのモデルデータのうち類似度が最も高いモデルデータが表す物体と識別する。   The object identification unit 105 identifies each of the histograms of all the clusters generated by the feature amount extraction unit 103 as an object represented by the model data having the highest similarity among all the model data.

出力部106は、出力処理を行う(ステップS6)。出力部106は、物体検知部102が除外対象物を測距センサ20の検知結果から除外した結果、追跡処理部104が求めた各クラスタの移動の有無、移動がある場合にはその移動方向、移動距離及び移動速度を出力する。さらに、出力部106は、物体識別部105が識別した物体の情報(物体名)を、運転制御部40に出力する。   The output unit 106 performs output processing (step S6). As a result of the object detection unit 102 excluding the object to be excluded from the detection result of the distance measuring sensor 20, the output unit 106 indicates whether or not each cluster has been obtained by the tracking processing unit 104, the movement direction when there is a movement, Outputs the travel distance and travel speed. Further, the output unit 106 outputs information (object name) of the object identified by the object identifying unit 105 to the operation control unit 40.

運転制御部40は、出力部106が出力した情報を基に、行速度の減速若しくは加速、又は障害物の回避等を判断して自動走行の制御を行う。   The operation control unit 40 controls automatic traveling by determining deceleration or acceleration of the line speed or avoiding an obstacle based on the information output from the output unit 106.

(3.2)地面除外処理
次に、物体検知処理に含まれる地面除外処理について、図8を用いて説明する。
(3.2) Ground Exclusion Processing Next, the ground exclusion processing included in the object detection processing will be described with reference to FIG.

物体検知部102は、除去対象の高さαを第1の値α1とする(ステップS11)。物体検知部102は、複数のグリッドに対して高さが第1の値α1以下である1つ以上の観測データを除去する(ステップS12)。   The object detection unit 102 sets the removal target height α to the first value α1 (step S11). The object detection unit 102 removes one or more observation data whose height is not more than the first value α1 with respect to a plurality of grids (step S12).

物体検知部102は、ステップS13〜ステップS16を実行して、複数のグリッドの各々について除外対象物とみなされる観測データを除外する。   The object detection part 102 performs step S13-step S16, and excludes the observation data regarded as an exclusion object for each of the plurality of grids.

物体検知部102は、処理対象のグリッドについて、当該グリッドの垂直方向に物体が存在するか否かを判定する(ステップS13)。具体的には、物体検知部102は、処理対象のグリッドの垂直方向において、所定数以上の観測データが存在するか否かを判断する。物体検知部102は、処理対象のグリッドの垂直方向において所定数以上の観測データが存在すると判断する場合、当該グリッドの垂直方向に物体が存在すると判定する。物体検知部102は、処理対象のグリッドの垂直方向において所定数以上の観測データが存在しないと判断する場合、当該グリッドの垂直方向に物体が存在しないと判定する。   The object detection unit 102 determines whether or not an object exists in the vertical direction of the grid for the processing target grid (step S13). Specifically, the object detection unit 102 determines whether there is a predetermined number or more of observation data in the vertical direction of the processing target grid. When the object detection unit 102 determines that there is a predetermined number or more of observation data in the vertical direction of the grid to be processed, the object detection unit 102 determines that an object exists in the vertical direction of the grid. When the object detection unit 102 determines that a predetermined number or more of observation data does not exist in the vertical direction of the processing target grid, the object detection unit 102 determines that no object exists in the vertical direction of the grid.

物体検知部102は、処理対象のグリッドの垂直方向に物体が存在すると判定する場合(ステップS13における「Yes」)、除去対象の高さαを第2の値α2とする(ステップS14)。ここで、第2の値α2は、第1の値α1よりも大きい値である。   If the object detection unit 102 determines that an object is present in the vertical direction of the processing target grid (“Yes” in step S13), the object detection unit 102 sets the removal target height α to the second value α2 (step S14). Here, the second value α2 is a value larger than the first value α1.

物体検知部102は、処理対象のグリッドの垂直方向に物体が存在しないと判定する場合(ステップS13における「No」)、除去対象の高さαを第3の値α3とする(ステップS15)。ここで、第3の値α3は、第2の値α2よりも大きい値であって地図情報に含まれる除外対象物の高さ情報から得られる値(高さ情報が表す値)である。つまり、“第1の値α1<第2の値α2<第3の値α3(=除外対象物の高さ)”の関係が成り立っている。   If the object detection unit 102 determines that there is no object in the vertical direction of the grid to be processed (“No” in step S13), the object detection unit 102 sets the removal target height α to the third value α3 (step S15). Here, the third value α3 is a value (a value represented by the height information) that is larger than the second value α2 and obtained from the height information of the excluded object included in the map information. That is, a relationship of “first value α1 <second value α2 <third value α3 (= height of the excluded object)” is established.

物体検知部102は、処理対象のグリッドに対して、ステップS14又はステップS15で設定された値α以下である1つ以上の観測データを除外する(ステップS16)。   The object detection unit 102 excludes one or more observation data that are equal to or less than the value α set in step S14 or step S15 for the grid to be processed (step S16).

物体検知部102は、すべてのグリッドに対して地面除外が実行されたか否か、つまりすべてのグリッドに対する地面除外が終了したか否かを判断する(ステップS17)。   The object detection unit 102 determines whether or not ground exclusion has been executed for all grids, that is, whether or not ground exclusion for all grids has been completed (step S17).

すべてのグリッドに対して地面除外が実行されていないと物体検知部102が判断する場合(ステップS17における「No」)、処理はステップS13に戻り、次の処理対象のグリッドについてステップS13〜ステップS16を実行する。   When the object detection unit 102 determines that ground removal has not been performed for all grids (“No” in step S17), the process returns to step S13, and steps S13 to S16 are performed for the next grid to be processed. Execute.

すべてのグリッドに対して地面除外が実行されたと物体検知部102が判断する場合(ステップS17における「Yes」)、処理は終了する。   If the object detection unit 102 determines that ground removal has been executed for all grids (“Yes” in step S17), the process ends.

物体検知部102は、地面除外処理を実行することで、検知装置10が障害物を検知する際に障害物とみなさない物体(道路、縁石等)を除外することができる。   The object detection unit 102 can exclude objects (roads, curbs, etc.) that are not regarded as obstacles when the detection device 10 detects an obstacle by executing the ground exclusion process.

(4)利点
本実施形態では、検知装置10(センサ処理システム1)は、車両6が走行している場合に、測距センサ20の検知結果(点群のデータ)から地図情報を用いて地面(道路、縁石等)の観測データを除外している。地面(道路、縁石等)の観測データを除外しないセンサ処理システムでは、道路、縁石等を障害物として認識する可能性がある。例えば、測距システムが道路を障害物として認識した場合、車両の走行方向には常に道路が存在しているので、常に障害物が存在すると認識してしまう。そのため、常にブレーキをかけてしまう、常に減速してしまう、又は障害物を回避するために蛇行運転してしまうといった自動走行を行う上で支障を来す可能性がある。そこで、測距センサ20の検知結果(点群のデータ)から地面(道路、縁石等)の観測データを除外することで、道路、縁石等を障害物として誤認する可能性を低くすることができる。これにより、適切な制御により自動走行を行うことが可能となる。
(4) Advantages In this embodiment, the detection device 10 (sensor processing system 1) uses the map information from the detection result (point cloud data) of the distance measuring sensor 20 when the vehicle 6 is traveling. Excludes observation data (roads, curbs, etc.). A sensor processing system that does not exclude observation data on the ground (roads, curbs, etc.) may recognize roads, curbs, etc. as obstacles. For example, when the distance measuring system recognizes a road as an obstacle, it always recognizes that there is an obstacle because the road always exists in the traveling direction of the vehicle. For this reason, there is a possibility of hindering automatic running such as always applying the brake, constantly decelerating, or running meandering to avoid an obstacle. Therefore, by excluding observation data of the ground (roads, curbs, etc.) from the detection results (point cloud data) of the distance measuring sensor 20, the possibility of misidentifying roads, curbs, etc. as obstacles can be reduced. . As a result, automatic traveling can be performed by appropriate control.

また、本実施形態では、物体検知部102は、地面を除外する際に、物体の有無によって除外対象の高さαの値を変更している。例えば、物体の有無に関係なく除外対象の高さαを地図情報に含まれる除外対象物の高さ情報から得られる値とすると、物体が存在する場合には、物体の一部を表す観測データが削除される場合がある。物体の一部を表す観測データが削除されると、当該物体の特徴量が削除される可能性があるので、当該物体を識別する際に正確な識別ができなくなる。そこで、物体が存在する場合には、除外対象の高さαを地図情報に含まれる除外対象物の高さ情報から得られる値よりも小さい値とすることで、物体の一部を表す観測データが削除される可能性を低くすることができる。これにより、物体の一部を表す観測データが削除される場合と比較して、当該物体を識別する際に正確な識別が可能となる。   In the present embodiment, the object detection unit 102 changes the value of the height α to be excluded depending on the presence or absence of an object when excluding the ground. For example, if the height α of the exclusion target is a value obtained from the height information of the exclusion target included in the map information regardless of the presence or absence of the object, if the object exists, observation data representing a part of the object May be deleted. If the observation data representing a part of the object is deleted, the feature quantity of the object may be deleted, so that accurate identification cannot be performed when the object is identified. Therefore, when the object exists, the observation data representing a part of the object is obtained by setting the height α of the exclusion target to a value smaller than the value obtained from the height information of the exclusion target included in the map information. Can be less likely to be deleted. Thereby, compared with the case where the observation data representing a part of the object is deleted, accurate identification can be performed when the object is identified.

また、本実施形態では、特徴量抽出部103が生成するヒストグラムには、形状(丸みを帯びた形状、平たい形状)の特徴量を含んでいる。そのため、追跡処理部104では、形状を基に、第1結果(今回の検知結果)に含まれる物体と第2結果(前回の検知結果)に含まれる物体とが同一であるかの判別が可能になり、同一物体については、その移動の有無を判定することができる。また、第1結果と第2結果とにおいて同一の物体の形状が急に変化することはない。そこで、追跡処理部104は、物体の形状の特徴量を、第1結果に含まれる物体と第2結果に含まれる物体との一致度を求める際に用いることで、より正確な一致度を求めることができる。   In the present embodiment, the histogram generated by the feature quantity extraction unit 103 includes feature quantities having a shape (rounded shape, flat shape). Therefore, the tracking processing unit 104 can determine whether the object included in the first result (current detection result) and the object included in the second result (previous detection result) are the same based on the shape. Thus, the presence or absence of movement of the same object can be determined. Moreover, the shape of the same object does not change suddenly in the first result and the second result. Therefore, the tracking processing unit 104 uses the feature amount of the shape of the object when obtaining the degree of coincidence between the object included in the first result and the object included in the second result, thereby obtaining a more accurate degree of coincidence. be able to.

また、物体識別部105は、形状(丸みを帯びた形状、平たい形状)の特徴量を含むヒストグラムを用いてモデルデータの特徴量のヒストグラムと比較する。例えば、記憶部30が、車両としてトラックのモデルデータを記憶している場合、モデルデータとして記憶しているトラックの形状と、実際に検知したトラックの形状とが大きく異なる可能性は低い。つまり、モデルデータとして記憶している物体の形状と、実際に検知した物体との形状とが大きく異なる可能性はない。そこで、形状(丸みを帯びた形状、平たい形状)の特徴量を含むヒストグラムを用いることで、物体識別部105は、測距センサ20の検知結果に含まれる物体をより正確に識別することができる。   Further, the object identification unit 105 compares the feature amount histogram of the model data with a histogram including the feature amount of the shape (rounded shape, flat shape). For example, when the storage unit 30 stores the model data of a truck as a vehicle, it is unlikely that the shape of the track stored as the model data and the shape of the actually detected track are significantly different. That is, there is no possibility that the shape of the object stored as model data and the shape of the actually detected object are significantly different. Therefore, the object identification unit 105 can more accurately identify the object included in the detection result of the distance measuring sensor 20 by using the histogram including the feature amount of the shape (rounded shape, flat shape). .

(変形例)
以下に、変形例について列記する。なお、以下に説明する変形例は、上記実施形態と適宜組み合わせて適用可能である。
(Modification)
Below, modifications are listed. Note that the modifications described below can be applied in appropriate combination with the above embodiment.

地図情報において、測距センサ20を含む領域が複数の区分に分割され、区分ごとに除去対象物の高さ方向における除去量が設定されてもよい。これにより、車両6の周辺における地形(道路、縁石の高さ)に応じて、除去量を変更することができるので、除外対象物をより正確に除外することができる。その結果、障害物検知の精度をより高めることができる。   In the map information, an area including the distance measuring sensor 20 may be divided into a plurality of sections, and the removal amount in the height direction of the removal target may be set for each section. Thereby, since the removal amount can be changed according to the terrain (the road and the height of the curb) in the vicinity of the vehicle 6, it is possible to more accurately exclude the object to be excluded. As a result, the accuracy of obstacle detection can be further increased.

上記実施形態において、出力部106は、物体検知部102の処理結果、追跡処理部104の処理結果及び物体識別部105の処理結果を、情報を表示する表示部に出力してもよい。この場合、表示部は、車両6を中心とした地図上に、障害物として検知した物体を、物体識別部105の識別結果に応じた形状で表示する。例えば、障害物として検知した物体がトラックである場合には表示部は当該物体をトラックの形状で表示し、障害物として検知した物体が人である場合には表示部は当該物体を人の形状で表示する。   In the above embodiment, the output unit 106 may output the processing result of the object detection unit 102, the processing result of the tracking processing unit 104, and the processing result of the object identification unit 105 to a display unit that displays information. In this case, the display unit displays an object detected as an obstacle on a map centered on the vehicle 6 in a shape corresponding to the identification result of the object identification unit 105. For example, when the object detected as an obstacle is a track, the display unit displays the object in the shape of a track, and when the object detected as an obstacle is a person, the display unit displays the object as a person's shape. Is displayed.

上記実施形態において、測距センサ20としてLIDARを一例として説明したが、測距センサ20はこれに限定されない。測距センサ20は、ステレオカメラ又はソナー等であってもよいし、LIDAR、ステレオカメラ及びソナー等を組み合わせてもよい。   In the said embodiment, although LIDAR was demonstrated as an example as the ranging sensor 20, the ranging sensor 20 is not limited to this. The distance measuring sensor 20 may be a stereo camera or a sonar, or may be a combination of a LIDAR, a stereo camera and a sonar.

上記実施形態において、追跡処理部104は、第1結果(今回の検知結果)に含まれる物体と第2結果(前回の検知結果)に含まれる物体との類似度を算出する際に、物体の形状及び測距センサ20からの距離を用いる構成としたが、この構成に限定されない。追跡処理部104は、第1結果に含まれる物体と第2結果に含まれる物体との類似度を算出する際に、物体の形状及び測距センサ20からの距離の他、物体の大きさ、高さ又はその双方を用いてもよい。   In the above embodiment, the tracking processing unit 104 calculates the similarity between the object included in the first result (current detection result) and the object included in the second result (previous detection result). Although the configuration uses the shape and the distance from the distance measuring sensor 20, it is not limited to this configuration. The tracking processing unit 104 calculates the similarity between the object included in the first result and the object included in the second result, in addition to the shape of the object and the distance from the distance measuring sensor 20, the size of the object, Height or both may be used.

例えば、第1結果に含まれる物体と第2結果に含まれる物体とにおいて、物体の大きさを比較する場合、第1結果に含まれる物体の大きさと第2結果に含まれる物体の大きさの差分が小さくなるにつれ、値が大きくなるように比較結果が設定される。第1結果に含まれる物体と第2結果に含まれる物体とにおいて、物体の高さを比較する場合、第1結果に含まれる物体の高さと第2結果に含まれる物体の高さの差分が小さくなるにつれ、値が大きくなるように比較結果が設定される。物体の大きさによる比較、及び物体の高さによる比較のいずれの場合であっても、前回の検知が得られてから今回の検知結果を得るまでの間に、物体の大きさ及び高さが大きく変化することはない。そこで、物体の大きさによる比較結果、及び物体の高さによる比較結果を、上述したように設定することで、比較結果の信頼性を向上させることができる。   For example, when comparing the size of an object in the object included in the first result and the object included in the second result, the size of the object included in the first result and the size of the object included in the second result The comparison result is set so that the value increases as the difference decreases. When comparing the heights of the object included in the first result and the object included in the second result, the difference between the height of the object included in the first result and the height of the object included in the second result is The comparison result is set so that the value increases as the value decreases. Whether the comparison is based on the size of the object or the comparison based on the height of the object, the size and height of the object will not change between the previous detection and the detection result of this time. There will be no major changes. Therefore, the reliability of the comparison result can be improved by setting the comparison result based on the object size and the comparison result based on the object height as described above.

物体の形状、測距センサ20からの距離、物体の大きさ及び高さを用いた類似度の算出では、第1重み係数に特徴量の一致度を乗算した結果と、第2重み係数に特重心位置の比較結果を乗算した結果と、第3重み係数に物体に大きさについての比較結果を乗算した結果と、第4重み係数に高さについての比較結果を乗算した結果との合計値となる。なお、第1〜第4重み係数の合計値は値“1”である。   In calculating the similarity using the object shape, the distance from the distance measuring sensor 20, the size and height of the object, the result obtained by multiplying the first weighting factor by the matching degree of the feature amount and the second weighting factor The total value of the result obtained by multiplying the comparison result of the center of gravity position, the result obtained by multiplying the third weighting factor by the comparison result on the size of the object, and the result obtained by multiplying the fourth weighting factor by the comparison result on the height, Become. The total value of the first to fourth weighting factors is “1”.

物体の形状、測距センサ20からの距離及び物体の大きさを用いた類似度の算出では、第1重み係数に特徴量の一致度を乗算した結果と、第2重み係数に特重心位置の比較結果を乗算した結果と、第3重み係数に物体に大きさについての比較結果を乗算した結果との合計値となる。なお、第1〜第3重み係数の合計値は値“1”である。   In calculating the similarity using the shape of the object, the distance from the distance measuring sensor 20, and the size of the object, the result obtained by multiplying the first weighting factor by the matching degree of the feature amount, This is the total value of the result obtained by multiplying the comparison result and the result obtained by multiplying the third weighting coefficient by the result of comparing the object with the size. The total value of the first to third weighting factors is the value “1”.

物体の形状、測距センサ20からの距離及び物体の高さを用いた類似度の算出では、第1重み係数に特徴量の一致度を乗算した結果と、第2重み係数に特重心位置の比較結果を乗算した結果と、第4重み係数に物体に大きさについての比較結果を乗算した結果との合計値となる。なお、第1〜第2、第4重み係数の合計値は値“1”である。   In calculating the similarity using the shape of the object, the distance from the distance measuring sensor 20, and the height of the object, the result obtained by multiplying the first weighting factor by the matching degree of the feature amount, This is the total value of the result obtained by multiplying the comparison result and the result obtained by multiplying the fourth weighting factor by the comparison result for the size of the object. Note that the total value of the first, second, and fourth weighting factors is the value “1”.

また、追跡処理部104は、第1結果に含まれる物体と第2結果に含まれる物体との類似度を算出する際に、物体の形状及び測距センサ20からの距離、物体の大きさ及び高さのうち、少なくとも1つの要素を用いてもよい。   Further, when calculating the similarity between the object included in the first result and the object included in the second result, the tracking processing unit 104 determines the shape of the object, the distance from the distance measuring sensor 20, the size of the object, Of the height, at least one element may be used.

第1結果に含まれる物体と第2結果に含まれる物体との類似度を算出する際に、物体の形状及び測距センサ20からの距離以外に他の要素を加えることで、類似度の精度を向上させることができる。   When calculating the similarity between the object included in the first result and the object included in the second result, the accuracy of the similarity is obtained by adding other elements in addition to the shape of the object and the distance from the distance measuring sensor 20. Can be improved.

また、上記実施形態において、測距センサ20の検知結果に含まれる物体と、モデルデータとの類似度を物体識別部105が算出する際においても、体の形状及び測距センサ20からの距離の他、物体の大きさ、高さ又はその双方を用いてもよい。または、物体識別部105は、第1結果に含まれる物体と第2結果に含まれる物体との類似度を算出する際に、物体の形状及び測距センサ20からの距離、物体の大きさ及び高さのうち、少なくとも1つの要素を用いてもよい。   In the above embodiment, when the object identification unit 105 calculates the similarity between the object included in the detection result of the distance sensor 20 and the model data, the shape of the body and the distance from the distance sensor 20 are also calculated. Alternatively, the size and / or height of the object may be used. Alternatively, when calculating the similarity between the object included in the first result and the object included in the second result, the object identification unit 105 determines the shape of the object, the distance from the distance measuring sensor 20, the size of the object, Of the height, at least one element may be used.

上記実施形態では、追跡処理部104は、測距センサ20から物体までの距離を求める際に、物体の重心位置を求める構成としたが、この構成に限定されない。追跡処理部104は、物体のエッジの中点を求めて、測距センサ20からエッジの中点までの距離を測距センサ20から物体までの距離としてもよい。   In the above embodiment, the tracking processing unit 104 is configured to determine the center of gravity of the object when determining the distance from the distance measuring sensor 20 to the object, but is not limited to this configuration. The tracking processing unit 104 may obtain the midpoint of the edge of the object and set the distance from the distance measuring sensor 20 to the midpoint of the edge as the distance from the distance measuring sensor 20 to the object.

上記実施形態において、物体検知部102が障害物とはみなさない物体(除外対象物)をユーザが指定(設定)してもよい。この場合、例えば、測距システム5は、除外対象物の高さを含む除外情報をユーザの操作により受け付け、記憶部30に記憶する。例えば、ユーザが電柱を除外対象物としたい場合には、電柱の高さを含む除外情報を入力する。これにより、測距システム5の検知装置10は、除外情報に含まれる高さと同一の高さの物体を除外するので、電柱が除外されることになる。   In the above embodiment, the user may specify (set) an object (exclusion target) that the object detection unit 102 does not regard as an obstacle. In this case, for example, the distance measuring system 5 accepts exclusion information including the height of the exclusion target object by a user operation and stores it in the storage unit 30. For example, when the user wants to exclude the utility pole, the exclusion information including the height of the utility pole is input. Thereby, since the detection apparatus 10 of the distance measuring system 5 excludes an object having the same height as that included in the exclusion information, the utility pole is excluded.

上記実施形態では、追跡処理部104は、現時点での検知結果と、前回の検知結果とを用いて物体の追跡を行う構成としたが、この構成に限定されない。追跡処理部104は、現時点での検知結果と、現時点から所定回数前の検知結果とを用いて物体の追跡を行ってもよい。つまり、追跡処理部104は、測距センサ20が現時点で検知した検知結果(現結果)と、現結果を検知したときから所定時間過去に遡って測距センサ20が検知した結果から除去対象物を除いた検知結果(過去結果)とを用いて物体を追跡する構成であってもよい。   In the above embodiment, the tracking processing unit 104 is configured to track an object using the current detection result and the previous detection result, but is not limited to this configuration. The tracking processing unit 104 may track the object using the current detection result and the detection result a predetermined number of times before the current time. That is, the tracking processing unit 104 removes an object to be removed from the detection result (current result) detected by the distance measuring sensor 20 at the present time and the result detected by the distance measuring sensor 20 retroactively for a predetermined time from when the current result is detected. The configuration may be such that the object is tracked using the detection result (past result) excluding.

上記実施形態において、移動体として車両6を一例として説明したが、移動体は車両6に限定されない。移動体は、車両6に限らず、航空機、船舶、歩行型ロボットであってもよい。   In the said embodiment, although the vehicle 6 was demonstrated as an example as a moving body, a moving body is not limited to the vehicle 6. FIG. The moving body is not limited to the vehicle 6 but may be an aircraft, a ship, or a walking robot.

測距システム5の適用先は移動体に限定されない。測距システム5は、建物等に固定されてもよい。測距システム5を建物に適用することで、セキュリティの監視システムとして利用することができる。   The application destination of the distance measuring system 5 is not limited to a moving body. The ranging system 5 may be fixed to a building or the like. By applying the distance measuring system 5 to a building, it can be used as a security monitoring system.

上記実施形態は、本開示の様々な実施形態の一つに過ぎない。上記実施形態は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。また、センサ処理システム1と同様の機能は、センサ処理方法、コンピュータプログラム、又はプログラムを記録した記録媒体等で具現化されてもよい。一態様に係るセンサ処理システム1のセンサ処理方法は、取得ステップと、出力ステップとを含む。取得ステップは、測距センサ20が検知した結果を取得する。出力ステップは、測距センサ20の検知対象である物体の高さのデータを含む地図情報に基づいて、測距センサ20が検知した結果から除去対象物を除いた検知結果を出力する。一態様に係るプログラムは、コンピュータシステムを、上述したセンサ処理方法として機能させるためのプログラムである。   The above embodiment is only one of various embodiments of the present disclosure. The above embodiment can be variously modified according to the design and the like as long as the object of the present disclosure can be achieved. Moreover, the same function as the sensor processing system 1 may be embodied by a sensor processing method, a computer program, or a recording medium on which the program is recorded. The sensor processing method of the sensor processing system 1 according to one aspect includes an acquisition step and an output step. In the acquisition step, the result detected by the distance measuring sensor 20 is acquired. The output step outputs a detection result obtained by removing the removal object from the result detected by the distance measuring sensor 20 based on the map information including the height data of the object that is the detection target of the distance measuring sensor 20. The program according to one aspect is a program for causing a computer system to function as the above-described sensor processing method.

本開示におけるセンサ処理システム1又はセンサ処理方法の実行主体は、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを有する。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、本開示におけるセンサ処理システム1又はセンサ処理方法の実行主体としての機能が実現される。プログラムは、コンピュータシステムのメモリに予め記録されていてもよいが、電気通信回線を通じて提供されてもよい。また、プログラムは、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ等の非一時的な記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1又は複数の電子回路で構成される。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。   The execution subject of the sensor processing system 1 or the sensor processing method in the present disclosure includes a computer system. The computer system has a processor and memory as hardware. When the processor executes a program recorded in the memory of the computer system, a function as an execution subject of the sensor processing system 1 or the sensor processing method according to the present disclosure is realized. The program may be recorded in advance in the memory of the computer system, but may be provided through a telecommunication line. The program may be provided by being recorded on a non-transitory recording medium such as a memory card, an optical disk, or a hard disk drive that can be read by a computer system. A processor of a computer system includes one or a plurality of electronic circuits including a semiconductor integrated circuit (IC) or a large scale integrated circuit (LSI). The plurality of electronic circuits may be integrated on one chip, or may be distributed on the plurality of chips. The plurality of chips may be integrated into one device, or may be distributed and provided in a plurality of devices.

コンピュータシステムであるセンサ処理システム1は、1又は複数のコンピュータで構成されるシステムであってもよい。例えば、センサ処理システム1の少なくとも一部の機能は、クラウド(クラウドコンピューティング)によって実現されてもよい。   The sensor processing system 1 that is a computer system may be a system constituted by one or a plurality of computers. For example, at least a part of the functions of the sensor processing system 1 may be realized by cloud (cloud computing).

(まとめ)
以上説明したように、第1の態様のセンサ処理システム(1)は、測距センサ(20)が検知した結果を取得する取得部(101)と、出力部(106)とを備える。出力部(106)は、測距センサ(20)が検知した結果から除外する除外対象物の高さのデータを含む地図情報に基づいて、測距センサ(20)が検知した結果から除去対象物を除いた検知結果を出力する。
(Summary)
As described above, the sensor processing system (1) of the first aspect includes the acquisition unit (101) that acquires the result detected by the distance measuring sensor (20) and the output unit (106). The output unit (106) removes the object to be removed from the result detected by the distance sensor (20) based on the map information including the height data of the excluded object to be excluded from the result detected by the distance sensor (20). Outputs the detection result excluding.

この構成によると、センサ処理システム(1)は、測距センサ(20)が検知した結果から除去対象物を除外する。これにより、センサ処理システム(1)は、障害物とみなさない物体を除外対象物として除外することができるので、障害物検知の精度をより高めることができる。   According to this configuration, the sensor processing system (1) excludes the removal object from the result detected by the distance measuring sensor (20). Thereby, since the sensor processing system (1) can exclude the object which is not regarded as an obstacle as an object to be excluded, the accuracy of obstacle detection can be further increased.

第2の態様のセンサ処理システム(1)は、第1の態様において、測距センサ(20)が検知した結果から除去対象物を除いた検知結果を生成する物体検知部(102)を、さらに備える。物体検知部(102)は、除去対象物の高さ方向に除去対象外の物体が存在する場合には、物体が存在しない場合と比較して、除去対象物の高さ方向における除去量を少なくする。   The sensor processing system (1) according to the second aspect further includes an object detection unit (102) that generates a detection result obtained by removing the removal target object from the result detected by the distance measuring sensor (20) in the first aspect. Prepare. The object detection unit (102) reduces the amount of removal in the height direction of the removal target when there is an object that is not the removal target in the height direction of the removal target compared to the case where no object exists. To do.

この構成によると、障害物としての物体の一部を除外する可能性を低くすることができる。これにより、センサ処理システム(1)は、障害物としての物体の一部が削除される場合と比較して、当該物体を識別する際に正確な識別が可能となる。   According to this configuration, it is possible to reduce the possibility of excluding a part of an object as an obstacle. Thereby, compared with the case where a part of the object as an obstacle is deleted, the sensor processing system (1) can be accurately identified when identifying the object.

第3の態様のセンサ処理システム(1)では、第1又は第2の態様において、地図情報は、測距センサ(20)の現在位置の情報を含む。   In the sensor processing system (1) of the third aspect, in the first or second aspect, the map information includes information on the current position of the distance measuring sensor (20).

この構成によると、センサ処理システム(1)は、測距センサ(20)の周囲における障害物の有無を検出することができる。   According to this configuration, the sensor processing system (1) can detect the presence or absence of an obstacle around the distance measuring sensor (20).

第4の態様のセンサ処理システム(1)では、第1〜第3のいずれかの態様において、地図情報において、測距センサ(20)を含む領域が複数の区分に分割され、区分ごとに除去対象物の高さ方向における除去量が設定されている。   In the sensor processing system (1) of the fourth aspect, in any one of the first to third aspects, in the map information, the area including the distance measuring sensor (20) is divided into a plurality of sections and removed for each section. The removal amount in the height direction of the object is set.

この構成によると、区分に応じて、除去量を変更することができる。これにより、センサ処理システム(1)は、区分に応じて詳細な除去を行ったり、簡易な除去を行ったりすることができる。   According to this configuration, the removal amount can be changed according to the classification. Thereby, the sensor processing system (1) can perform detailed removal according to a division, or can perform simple removal.

第5の態様のセンサ処理システム(1)は、第1〜第4のいずれかの態様において、追跡処理部(104)を、さらに備える。追跡処理部(104)は、検知結果としての第1検知結果と、測距センサ(20)が第1検知結果を検知したときから所定時間過去に遡って測距センサ(20)が検知した結果から除去対象物を除いた第2検知結果とを比較して、測距センサ(20)の検知対象の領域に存在する物体を追跡する。   The sensor processing system (1) of the fifth aspect further includes a tracking processing unit (104) in any of the first to fourth aspects. The tracking processing unit (104) detects the first detection result as a detection result and the result of detection by the distance measurement sensor (20) by going back a predetermined time from when the distance measurement sensor (20) detects the first detection result. The second detection result obtained by removing the object to be removed from the object is compared, and the object existing in the detection target region of the distance measuring sensor (20) is tracked.

この構成によると、現時点で検知された結果と過去の検知された結果とを用いて物体の追跡が可能となる。そのため、例えば、自動運転を行う移動体等は、障害物の移動(動き)に応じて、当該障害物の回避等の判断を精度よく行うことができる。   According to this configuration, it is possible to track an object using a result detected at the present time and a result detected in the past. Therefore, for example, a moving body or the like that performs automatic driving can accurately determine avoidance of the obstacle according to the movement (movement) of the obstacle.

第6の態様のセンサ処理システム(1)は、第1〜第5のいずれかの態様において、物体識別部(105)を、さらに備える。物体識別部(105)は、複数の物体の特徴をそれぞれ表す複数のモデルデータを用いて、検知結果に含まれる1つ以上の物体を識別する。   The sensor processing system (1) of the sixth aspect further includes an object identification unit (105) in any of the first to fifth aspects. The object identification unit (105) identifies one or more objects included in the detection result using a plurality of model data respectively representing features of the plurality of objects.

この構成によると、センサ処理システム(1)は、障害物としての物体を識別することができる。そのため、例えば、自動運転を行う移動体等は、識別した障害物に応じて、当該障害物の回避等の判断を精度よく行うことができる。   According to this configuration, the sensor processing system (1) can identify an object as an obstacle. For this reason, for example, a moving body or the like that performs automatic driving can accurately determine avoidance of the obstacle according to the identified obstacle.

第7の態様の測距システム(5)は、第1〜第6のいずれかの態様のセンサ処理システム(1)と、測距センサ(20)とを備える。   The distance measuring system (5) according to the seventh aspect includes the sensor processing system (1) according to any one of the first to sixth aspects and the distance measuring sensor (20).

この構成によると、測距システム(5)は、障害物とみなさない物体を除外対象物として除外することができるので、障害物検知の精度をより高めることができる。   According to this configuration, since the distance measuring system (5) can exclude an object that is not regarded as an obstacle as an object to be excluded, the accuracy of obstacle detection can be further increased.

第8の態様の移動体(例えば車両6)は、第7の態様の測距システム(5)と、本体部(61)とを備える。   The moving body (for example, vehicle 6) according to the eighth aspect includes the distance measuring system (5) according to the seventh aspect and a main body (61).

この構成によると、移動体は、障害物とみなさない物体を除外対象物として除外することができるので、障害物検知の精度をより高めることができる。   According to this configuration, since the moving body can exclude an object that is not regarded as an obstacle as an object to be excluded, the accuracy of obstacle detection can be further increased.

第9の態様のセンサ処理方法は、測距センサ(20)が検知した結果を取得する取得ステップと、出力ステップとを含む。出力ステップは、測距センサ(20)の検知対象である物体の高さのデータを含む地図情報に基づいて、測距センサ(20)が検知した結果から除去対象物を除いた検知結果を出力する。   The sensor processing method according to the ninth aspect includes an acquisition step of acquiring a result detected by the distance measuring sensor (20), and an output step. The output step outputs a detection result obtained by removing the removal target from the result detected by the distance measuring sensor (20) based on the map information including the height data of the object that is the detection target of the distance measuring sensor (20). To do.

このセンサ処理方法によると、障害物とみなさない物体を除外対象物として除外することができるので、障害物検知の精度をより高めることができる。   According to this sensor processing method, since an object that is not regarded as an obstacle can be excluded as an object to be excluded, the accuracy of obstacle detection can be further improved.

第10の態様のプログラムは、コンピュータシステムに、測距センサ(20)が検知した結果を取得する取得ステップと、出力ステップとを実行させるためのプログラムである。出力ステップは、測距センサ(20)の検知対象である物体の高さのデータを含む地図情報に基づいて、測距センサ(20)が検知した結果から除去対象物を除いた検知結果を出力する。   The program according to the tenth aspect is a program for causing a computer system to execute an acquisition step of acquiring a result detected by the distance measuring sensor (20) and an output step. The output step outputs a detection result obtained by removing the removal target from the result detected by the distance measuring sensor (20) based on the map information including the height data of the object that is the detection target of the distance measuring sensor (20). To do.

このプログラムによると、障害物とみなさない物体を除外対象物として除外することができるので、障害物検知の精度をより高めることができる。   According to this program, since an object that is not regarded as an obstacle can be excluded as an object to be excluded, the accuracy of obstacle detection can be further improved.

1 センサ処理システム
5 測距システム
6 車両
10 検知装置
20 測距センサ
61 本体部
101 取得部
102 物体検知部
104 追跡処理部
105 物体識別部
106 出力部
DESCRIPTION OF SYMBOLS 1 Sensor processing system 5 Ranging system 6 Vehicle 10 Detection apparatus 20 Ranging sensor 61 Main body part 101 Acquisition part 102 Object detection part 104 Tracking processing part 105 Object identification part 106 Output part

Claims (10)

測距センサが検知した結果を取得する取得部と、
前記測距センサが検知した結果から除外する除外対象物の高さのデータを含む地図情報に基づいて、前記測距センサが検知した前記結果から除去対象物を除いた検知結果を出力する出力部とを備える
ことを特徴とするセンサ処理システム。
An acquisition unit for acquiring a result detected by the distance measuring sensor;
An output unit that outputs a detection result obtained by removing the removal object from the result detected by the distance sensor based on map information including data on the height of the object to be excluded from the result detected by the distance sensor. A sensor processing system comprising:
前記測距センサが検知した前記結果から除去対象物を除いた検知結果を生成する物体検知部を、さらに備え、
前記物体検知部は、前記除去対象物の高さ方向に除去対象外の物体が存在する場合には、前記物体が存在しない場合と比較して、前記除去対象物の高さ方向における除去量を少なくする
ことを特徴とする請求項1に記載のセンサ処理システム。
An object detection unit that generates a detection result obtained by removing the removal target from the result detected by the distance measuring sensor;
When there is an object that is not a removal target in the height direction of the removal target object, the object detection unit calculates a removal amount in the height direction of the removal target object compared to a case where the object does not exist The sensor processing system according to claim 1, wherein the sensor processing system is reduced.
前記地図情報は、前記測距センサの現在位置の情報を含む
ことを特徴とする請求項1又は2に記載のセンサ処理システム。
The sensor processing system according to claim 1, wherein the map information includes information on a current position of the distance measuring sensor.
前記地図情報において、前記測距センサを含む領域が複数の区分に分割され、区分ごとに前記除去対象物の高さ方向における除去量が設定されている
ことを特徴とする請求項1〜3のいずれか一項に記載のセンサ処理システム。
The area including the distance measuring sensor is divided into a plurality of sections in the map information, and the removal amount in the height direction of the removal target is set for each section. The sensor processing system according to any one of claims.
前記検知結果としての第1検知結果と、前記測距センサが前記第1検知結果を検知したときから所定時間過去に遡って前記測距センサが検知した結果から除去対象物を除いた第2検知結果とを比較して、前記測距センサの検知対象の領域に存在する物体を追跡する追跡処理部を、さらに備える
ことを特徴とする請求項1〜4のいずれか一項に記載のセンサ処理システム。
A first detection result as the detection result and a second detection in which a removal target is removed from a result detected by the distance measuring sensor retroactively for a predetermined time from when the distance measuring sensor detects the first detection result. The sensor processing according to any one of claims 1 to 4, further comprising a tracking processing unit that compares the result and tracks an object existing in a detection target region of the distance measuring sensor. system.
複数の物体の特徴をそれぞれ表す複数のモデルデータを用いて、前記検知結果に含まれる1つ以上の物体を識別する物体識別部を、さらに備える
ことを特徴とする請求項1〜5のいずれか一項に記載のセンサ処理システム。
The object identification unit for identifying one or more objects included in the detection result by using a plurality of model data respectively representing features of a plurality of objects, further comprising: The sensor processing system according to one item.
請求項1〜6のいずれか一項に記載のセンサ処理システムと、
前記測距センサとを備える
ことを特徴とする測距システム。
The sensor processing system according to any one of claims 1 to 6,
A ranging system comprising the ranging sensor.
請求項7に記載の測距システムと、
本体部とを備える
ことを特徴とする移動体。
A ranging system according to claim 7;
A moving body comprising: a main body portion.
測距センサが検知した結果を取得する取得ステップと、
前記測距センサの検知対象である物体の高さのデータを含む地図情報に基づいて、前記測距センサが検知した前記結果から除去対象物を除いた検知結果を出力する出力ステップとを含む
ことを特徴とするセンサ処理方法。
An acquisition step of acquiring a result detected by the distance measuring sensor;
An output step of outputting a detection result obtained by removing the removal target object from the result detected by the distance measurement sensor based on map information including the height data of the object that is the detection target of the distance measurement sensor. A sensor processing method characterized by the above.
コンピュータシステムに、
測距センサが検知した結果を取得する取得ステップと、
前記測距センサの検知対象である物体の高さのデータを含む地図情報に基づいて、前記測距センサが検知した前記結果から除去対象物を除いた検知結果を出力する出力ステップと、を実行させるための
プログラム。
Computer system,
An acquisition step of acquiring a result detected by the distance measuring sensor;
An output step of outputting a detection result obtained by removing a removal target from the result detected by the distance sensor based on map information including height data of an object which is a detection target of the distance sensor; Program to let you.
JP2018069731A 2018-03-30 2018-03-30 Sensor processing system, distance measuring system, mobile object, sensor processing method, and program Pending JP2019179495A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018069731A JP2019179495A (en) 2018-03-30 2018-03-30 Sensor processing system, distance measuring system, mobile object, sensor processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018069731A JP2019179495A (en) 2018-03-30 2018-03-30 Sensor processing system, distance measuring system, mobile object, sensor processing method, and program

Publications (1)

Publication Number Publication Date
JP2019179495A true JP2019179495A (en) 2019-10-17

Family

ID=68278803

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018069731A Pending JP2019179495A (en) 2018-03-30 2018-03-30 Sensor processing system, distance measuring system, mobile object, sensor processing method, and program

Country Status (1)

Country Link
JP (1) JP2019179495A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113147750A (en) * 2021-05-21 2021-07-23 清华大学 Safety decision system and method for controlling vehicle running
CN114066739A (en) * 2020-08-05 2022-02-18 北京万集科技股份有限公司 Background point cloud filtering method and device, computer equipment and storage medium
WO2024047781A1 (en) * 2022-08-31 2024-03-07 Nec Corporation Obstacle detecting apparatus, obstacle detecting method, and non-transitory computer-readable storage medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114066739A (en) * 2020-08-05 2022-02-18 北京万集科技股份有限公司 Background point cloud filtering method and device, computer equipment and storage medium
CN113147750A (en) * 2021-05-21 2021-07-23 清华大学 Safety decision system and method for controlling vehicle running
CN113147750B (en) * 2021-05-21 2023-12-22 清华大学 Safety decision system and method for controlling vehicle running
WO2024047781A1 (en) * 2022-08-31 2024-03-07 Nec Corporation Obstacle detecting apparatus, obstacle detecting method, and non-transitory computer-readable storage medium

Similar Documents

Publication Publication Date Title
CN109521757B (en) Static obstacle identification method and device
CN109521756B (en) Obstacle motion information generation method and apparatus for unmanned vehicle
EP3581890B1 (en) Method and device for positioning
US9443309B2 (en) System and method for image based mapping, localization, and pose correction of a vehicle with landmark transform estimation
CN110674705B (en) Small-sized obstacle detection method and device based on multi-line laser radar
JP6317230B2 (en) Vehicle detection method based on image and map at intersection
US10698106B2 (en) Obstacle detecting method and apparatus, device and storage medium
US8620032B2 (en) System and method for traffic signal detection
US20150233720A1 (en) Geographic feature-based localization with feature weighting
CN109635816B (en) Lane line generation method, apparatus, device, and storage medium
US20240005674A1 (en) Road edge recognition based on laser point cloud
JP2019179495A (en) Sensor processing system, distance measuring system, mobile object, sensor processing method, and program
CN115205803A (en) Automatic driving environment sensing method, medium and vehicle
US20220126836A1 (en) Travel road recognition device
CN115523935A (en) Point cloud ground detection method and device, vehicle and storage medium
US20220171975A1 (en) Method for Determining a Semantic Free Space
CN113189610B (en) Map-enhanced autopilot multi-target tracking method and related equipment
CN114419573A (en) Dynamic occupancy grid estimation method and device
KR20230120615A (en) Apparatus and method for determining location of pedestrain
JP7489231B2 (en) Object detection device
US20230050013A1 (en) Object detection method and object tracking device using lidar sensor
KR20220159575A (en) Vehicle AVM camera system for omnidirectional collision prevention and control method thereof
JP2023114695A (en) On-vehicle device, information processing method, and program
KR20230032628A (en) Method and apparatus for processing sensor information, and recording medium for recording program performing the method
CN116310457A (en) Point cloud clustering method and device, electronic equipment and storage medium