JP6826023B2 - Target identification device, program and method for identifying a target from a point cloud - Google Patents

Target identification device, program and method for identifying a target from a point cloud Download PDF

Info

Publication number
JP6826023B2
JP6826023B2 JP2017238396A JP2017238396A JP6826023B2 JP 6826023 B2 JP6826023 B2 JP 6826023B2 JP 2017238396 A JP2017238396 A JP 2017238396A JP 2017238396 A JP2017238396 A JP 2017238396A JP 6826023 B2 JP6826023 B2 JP 6826023B2
Authority
JP
Japan
Prior art keywords
distance
point cloud
target
distance image
point data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017238396A
Other languages
Japanese (ja)
Other versions
JP2019106034A (en
Inventor
カノクパン ラートニポンパン
カノクパン ラートニポンパン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2017238396A priority Critical patent/JP6826023B2/en
Publication of JP2019106034A publication Critical patent/JP2019106034A/en
Application granted granted Critical
Publication of JP6826023B2 publication Critical patent/JP6826023B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、LiDAR(Light Detection And Ranging)デバイス等の測距センサによって取得された、対象の情報を含み得る点群(点データの集合)から、当該対象を識別する技術に関する。 The present invention relates to a technique for identifying a target from a point cloud (a set of point data) that can include target information acquired by a distance measuring sensor such as a LiDAR (Light Detection And Ranging) device.

LiDARデバイスは、可視スペクトル外のレーザパルスを放射し、当該パルスが対象に反射して戻ってくるまでの時間を計測して、当該対象までの距離を測定する測距センサの一種である。 A LiDAR device is a type of ranging sensor that emits a laser pulse outside the visible spectrum, measures the time until the pulse is reflected by the target and returns, and measures the distance to the target.

現在、このLiDARデバイスを用いて周囲360度の走査を例えば毎秒何百回の頻度で行い、戻ってきたレーザパルスによる膨大な3次元点データの集合である「ポイントクラウド(point cloud)」を解析することによって、周囲にある概ね全ての対象を検知することが可能となっている。そのため、LiDARデバイスは、自動運転車、ドローンや各種ロボット等における高度な「視覚」の機能を実現するための主幹技術として現在、その応用が急速に進んでいる。 Currently, this LiDAR device is used to scan 360 degrees around 360 degrees, for example, hundreds of times per second, and analyze a "point cloud," which is a collection of enormous three-dimensional point data generated by the returned laser pulse. By doing so, it is possible to detect almost all objects in the surrounding area. Therefore, the application of LiDAR devices is rapidly advancing at present as a main technology for realizing advanced "visual" functions in autonomous vehicles, drones, various robots, and the like.

ここで、非常に重要となるポイントクラウド解析の従来技術として、例えば特許文献1には、互いに重畳していないxy面タイル内のポイントにおける高さ成分を利用した教師無し区分手法を用いて、取得されたポイントクラウドからグラウンド(路面や地面等)分や建造物分を検知し除去する技術が開示されている。 Here, as a very important conventional technique for point cloud analysis, for example, in Patent Document 1, acquisition is performed using an unsupervised classification method using height components at points in xy plane tiles that do not overlap each other. A technology for detecting and removing ground (road surface, ground, etc.) and buildings from the point cloud is disclosed.

この技術では次いで、教師有り区分手法を用いて、垂直方向にわたって存在する物体を検知している。またさらに、区分後の対象クラウド(object cloud)から、幾何学形状、路面からの高さ、道路のセンターラインまでの水平方向での距離、密度、強度、法線方向との角度や、平面性を抽出し、対象物体の種別クラスを特定している。 The technique then uses a supervised classification technique to detect objects that exist in the vertical direction. Furthermore, from the object cloud after division, the geometric shape, the height from the road surface, the horizontal distance to the center line of the road, the density, the strength, the angle with the normal direction, and the flatness. Is extracted and the type class of the target object is specified.

引用文献1はさらに、この開示した技術のメリットとして、グラウンドや建造物を除去することによって、学習処理のために必要とされる人的なラベリング処理を行うべきポイントの数が低減され、さらに、ある環境下では高い精度をもって対象が分類可能になるとしている。 Cited Document 1 further, as a merit of this disclosed technique, reduces the number of points to be subjected to the human labeling process required for the learning process by removing the ground and the building, and further, Under certain circumstances, objects can be classified with high accuracy.

また、非特許文献1には、対象を、グラウンド、低い位置の前景、高い位置の前景及びポイントのまばらなエリアに区分する技術が開示されている。このうち、高さの低い前景ポイントクラウドは、この対象を構成する点と評定面との距離を算出することによって距離画像へ変換される。また、評定面は、主成分分析(PCA,Principal Component Analysis)を用いて決定され、対象ポイントクラウドの縦断面を算定するのに使用されている。 In addition, Non-Patent Document 1 discloses a technique for classifying an object into a ground, a low foreground, a high foreground, and a sparse area of points. Of these, the foreground point cloud with a low height is converted into a distance image by calculating the distance between the points constituting the target and the rating surface. In addition, the rating surface is determined using principal component analysis (PCA) and is used to calculate the vertical section of the target point cloud.

さらに、対象の分類には、距離画像で学習させた畳み込みニューラルネットワーク(CNN,Convolutional Neural Network)を使用し、見かけを基準とした分類結果のラベルとしては、自動車、歩行者、建物正面、及び道路群を採用している。 Furthermore, a convolutional neural network (CNN, Convolutional Neural Network) trained with a distance image is used for the classification of the target, and the labels of the classification result based on the appearance are automobiles, pedestrians, the front of the building, and the road. Adopting a group.

米国特許出願公開第2016/0154999号明細書U.S. Patent Application Publication No. 2016/01549999

A. Borcs, B. Nagy and C. Benedek, "Instant Object Detection in Lidar Point Clouds", IEEE Geoscience and Remote Sensing Letters, vol. 14, no. 7, 2017年7月,992〜996頁A. Borcs, B. Nagy and C. Benedek, "Instant Object Detection in Lidar Point Clouds", IEEE Geoscience and Remote Sensing Letters, vol. 14, no. 7, July 2017, pp. 992-996

上述した特許文献1に開示された技術では、グラウンドの検知や距離画像の解析を行って特徴抽出に適したエリアを指定するにあたり、水平タイルのサイズといったような多数のパラメータを予め固定して設定しなければならない。すなわち、この技術では、グラウンド面が高い精度で区分されるか、又は各対象が完全に分離していることを大前提としている。 In the technique disclosed in Patent Document 1 described above, a large number of parameters such as the size of horizontal tiles are fixed and set in advance when designating an area suitable for feature extraction by detecting the ground and analyzing a distance image. Must. That is, in this technique, it is a major premise that the ground plane is divided with high accuracy or each object is completely separated.

しかしながら一般に、LiDARデバイスから取得されるポイントクラウドの密度は、デバイスのセンサ位置からの距離に応じて変動するので、特許文献1の技術における予め固定的に設定されたパラメータの値は、ある距離範囲のポイントクラウドの解析にしか適していないものとなり得る。またそれ故に、学習させた分類モデルも、学習データとは別の都市部のような異なった環境にも適用可能であるといった頑健性を有さないものとなってしまう。 However, in general, the density of the point cloud acquired from the LiDAR device varies depending on the distance from the sensor position of the device. Therefore, the value of the preset parameter in the technique of Patent Document 1 is a certain distance range. It can be suitable only for the analysis of the point cloud. Therefore, the trained classification model also has no robustness such that it can be applied to a different environment such as an urban area different from the training data.

一方、上述した非特許文献1に開示された技術は、LiDARデバイスのセンサ位置を考慮することなく、1つのフレームのポイントクラウドから得られる区分対象の縦断面を利用して解析を行っている。したがって、投影された画像からは、LiDARデバイス側から見た対象の見かけのデータが幾分消失している可能性が高い。 On the other hand, the technique disclosed in Non-Patent Document 1 described above uses a vertical cross section of a classification target obtained from a point cloud of one frame for analysis without considering the sensor position of the LiDAR device. Therefore, it is highly possible that the projected image has some loss of apparent data of the object as seen from the LiDAR device side.

例えば、対象としての自動車がLiDARデバイスのセンサに正対している場合、反射で生成されたポイントは自動車の前面に集まる形となる。しかしながら、ポイントの投影面は、自動車の側面に設定されるので、数少ないポイントしか投影されないことになる。したがって、距離値を小さい順に区分して、ポイントを互いに重畳しないように投影しなければならない。ここで、投影画像において投影されるポイントを代表するウィンドウが使用されるが、この非特許文献1の技術においても、このウィンドウのサイズは予め固定的に設定されている。その結果、設定されたウィンドウが重畳する可能性が生じてしまうのである。 For example, when the target vehicle faces the sensor of the LiDAR device, the points generated by the reflection are gathered in the front of the vehicle. However, since the projection plane of the points is set on the side surface of the automobile, only a few points are projected. Therefore, the distance values must be divided in ascending order and projected so that the points do not overlap each other. Here, a window representing a point projected in the projected image is used, but even in the technique of Non-Patent Document 1, the size of this window is fixedly set in advance. As a result, there is a possibility that the set windows will overlap.

例えば、投影画像において、LiDARデバイスのセンサ位置から近い対象のポイントは密集し、ウィンドウが重畳して距離値(画素値)が重なりやすくなってしまう。一方、センサ位置から遠い対象のポイントは、投影画像においてまばらであって互いの間隔が空きすぎ、結果的に、投影画像の均一性や平滑性が低下してしまう可能性が生じてしまう。 For example, in a projected image, target points close to the sensor position of the LiDAR device are densely packed, and windows are superimposed so that distance values (pixel values) tend to overlap. On the other hand, the target points far from the sensor position are sparse in the projected image and are too far apart from each other, and as a result, the uniformity and smoothness of the projected image may be deteriorated.

また、このように密度に大きなばらつきのあるポイントクラウドに対して実施される対象区分処理は、ポイント分布から対象面を正確に評定するために、より高い処理精度が必要となってしまう。 In addition, the target classification process performed on the point cloud having such a large variation in density requires higher processing accuracy in order to accurately evaluate the target surface from the point distribution.

そこで、本発明は、対象の識別により適した画素値分布を有する距離画像を生成可能な対象識別装置、プログラム及び方法を提供することを目的とする。 Therefore, an object of the present invention is to provide an object identification device, a program, and a method capable of generating a distance image having a pixel value distribution more suitable for object identification.

本発明によれば、測距センサによって取得された、対象の情報を含み得る点群から、当該対象を識別する対象識別装置であって、
当該点群を、点データ間の距離に基づいて、互いに隣接した点データの集合である対象点群に区分する点群区分手段と、
当該対象点群に含まれる対象点データが投影された投影面に生成される距離画像であって、投影された位置に、少なくとも当該投影面と測距センサとの距離の単調増加関数となるサイズを有する面パッチを設定し、当該面パッチ内の画素値を、当該面パッチに係る対象点データと当該投影面との距離に基づいて決定した距離画像を生成する距離画像生成手段と、
生成された当該距離画像に含まれている対象を、所定の識別器を用いて特定する対象特定手段と
を有する対象識別装置が提供される。
According to the present invention, it is an object identification device that identifies an object from a point cloud that can include information on the object acquired by a distance measuring sensor.
A point cloud classification means for classifying the point cloud into a target point cloud which is a set of point data adjacent to each other based on the distance between the point data.
A distance image generated on the projected plane on which the target point data included in the target point group is projected, and is a size that is a monotonically increasing function of at least the distance between the projected plane and the distance measuring sensor at the projected position. A distance image generation means for generating a distance image in which a surface patch having the above surface patch is set and the pixel value in the surface patch is determined based on the distance between the target point data related to the surface patch and the projection surface .
An object identification device having an object identification means for identifying an object included in the generated distance image by using a predetermined classifier is provided.

この本発明による対象識別装置において、距離画像生成手段は、当該対象点群のうちで測距センサに最も近い対象点データである基準点データと測距センサとを含む鉛直面に垂直な鉛直面であって、当該基準点データを含む鉛直面である当該投影面に、当該距離画像を生成することも好ましい。 In the object identification device according to the present invention, the distance image generating means is a vertical surface perpendicular to the vertical surface including the reference point data which is the target point data closest to the distance measuring sensor in the target point group and the distance measuring sensor. Therefore, it is also preferable to generate the distance image on the projection plane which is the vertical plane including the reference point data.

また、距離画像生成手段は、当該投影面と測距センサとの距離と、測距センサに係る分解能とについて単調増加関数となるサイズを有する面パッチを設定することも好ましい。 Further, it is also preferable that the distance image generating means sets a surface patch having a size that becomes a monotonically increasing function with respect to the distance between the projection surface and the distance measuring sensor and the resolution related to the distance measuring sensor.

さらに、距離画像生成手段は、当該面パッチに係る対象点データと当該投影面との距離を、当該対象点データにおける測距センサからの距離及び方向に係る情報に基づいて算出することも好ましい。 Further, it is also preferable that the distance image generating means calculates the distance between the target point data related to the surface patch and the projected surface based on the information related to the distance and direction from the distance measuring sensor in the target point data.

また、本発明による対象識別装置の一実施形態として、本対象識別装置は、当該点群から所定の平滑条件を満たす平滑点群を抽出して、当該平滑点群から鉛直方向に垂直な面を構成するグラウンド点群を抽出し、当該平滑点群のうちで当該グラウンド点群の近傍となる点群部分と、当該グラウンド点群とを、当該点群から除去するグラウンド除去手段を更に有し、
点群区分手段は、グラウンド除去手段によって処理された当該点群を、対象点群に分類することも好ましい。
Further, as one embodiment of the object identification device according to the present invention, the object identification device extracts a smooth point group satisfying a predetermined smoothing condition from the point group, and creates a plane perpendicular to the vertical direction from the smooth point group. It further has a ground removing means for extracting a constituent ground point group and removing the point cloud portion in the vicinity of the ground point group and the ground point group from the smooth point group.
It is also preferable that the point cloud classification means classifies the point cloud processed by the ground removing means into a target point cloud.

さらに、本対象識別装置は、生成された当該距離画像の画素値に対して平滑処理を行う平滑処理手段を更に有し、対象特定手段は、平滑処理後の当該距離画像に含まれた対象を特定することも好ましい。 Further, the object identification device further has a smoothing processing means for smoothing the pixel value of the generated distance image, and the object identifying means includes an object included in the distance image after the smoothing process. It is also preferable to specify.

また、本発明による対象識別装置において、測距センサは、LiDARデバイスであることも好ましい。 Further, in the object identification device according to the present invention, it is also preferable that the distance measuring sensor is a LiDAR device.

本発明によれば、また、測距センサによって取得された、対象の情報を含み得る点群から、当該対象を識別する装置に搭載されたコンピュータを機能させるプログラムであって、
当該点群を、点データ間の距離に基づいて、互いに隣接した点データの集合である対象点群に区分する点群区分手段と、
当該対象点群に含まれる対象点データが投影された投影面に生成される距離画像であって、投影された位置に、少なくとも当該投影面と測距センサとの距離の単調増加関数となるサイズを有する面パッチを設定し、当該面パッチ内の画素値を、当該面パッチに係る対象点データと当該投影面との距離に基づいて決定した距離画像を生成する距離画像生成手段と、
生成された当該距離画像に含まれている対象を、所定の識別器を用いて特定する対象特定手段と
としてコンピュータを機能させる対象識別プログラムが提供される。
According to the present invention, it is also a program for operating a computer mounted on a device for identifying an object from a point cloud that can include information on the object acquired by a distance measuring sensor.
A point cloud classification means for classifying the point cloud into a target point cloud which is a set of point data adjacent to each other based on the distance between the point data.
A distance image generated on the projected plane on which the target point data included in the target point group is projected, and is a size that is a monotonically increasing function of at least the distance between the projected plane and the distance measuring sensor at the projected position. A distance image generation means for generating a distance image in which a surface patch having the above surface patch is set and the pixel value in the surface patch is determined based on the distance between the target point data related to the surface patch and the projection surface .
An object identification program that causes a computer to function as an object identification means for identifying an object included in the generated distance image by using a predetermined classifier is provided.

本発明によれば、さらに、測距センサによって取得された、対象の情報を含み得る点群から、当該対象を識別する装置に搭載されたコンピュータにおける対象識別方法であって、
当該点群を、点データ間の距離に基づいて、互いに隣接した点データの集合である対象点群に区分するステップと、
当該対象点群に含まれる対象点データが投影された投影面に生成される距離画像であって、投影された位置に、少なくとも当該投影面と測距センサとの距離の単調増加関数となるサイズを有する面パッチを設定し、当該面パッチ内の画素値を、当該面パッチに係る対象点データと当該投影面との距離に基づいて決定した距離画像を生成するステップと、
生成された当該距離画像に含まれている対象を、所定の識別器を用いて特定するステップと
を有する対象識別方法が提供される。
According to the present invention, further, the object identification method in the computer mounted on the device for identifying the object from the point cloud that can include the information of the object acquired by the distance measuring sensor.
A step of dividing the point cloud into a target point cloud, which is a set of point data adjacent to each other, based on the distance between the point data.
A distance image generated on the projected plane on which the target point data included in the target point group is projected, and is a size that is a monotonically increasing function of at least the distance between the projected plane and the distance measuring sensor at the projected position. A step of setting a surface patch having the above, and generating a distance image in which the pixel values in the surface patch are determined based on the distance between the target point data related to the surface patch and the projection surface .
An object identification method is provided that includes a step of identifying an object included in the generated distance image using a predetermined classifier.

本発明の対象識別装置、プログラム及び方法によれば、対象の識別により適した画素値分布を有する距離画像を生成することができる。 According to the object identification device, program and method of the present invention, it is possible to generate a distance image having a pixel value distribution more suitable for identifying an object.

本発明による対象識別装置を含む対象識別システムの一実施形態を示す模式図である。It is a schematic diagram which shows one Embodiment of the object identification system including the object identification apparatus by this invention. グラウンド除去部及びポイントクラウド区分部での処理の一実施例を示した模式図である。It is a schematic diagram which showed an Example of the processing in the ground removal part and the point cloud division part. 本発明に係る投影面生成・面パッチ設定処理の一実施形態を説明するための模式図である。It is a schematic diagram for demonstrating one Embodiment of the projection surface generation, surface patch setting processing which concerns on this invention. 本発明に係る面パッチ設定処理の一実施形態を説明するための模式図である。It is a schematic diagram for demonstrating one Embodiment of the surface patch setting process which concerns on this invention. 距離画像生成部で生成された距離画像の一実施例を説明するための模式図である。It is a schematic diagram for demonstrating one Example of the distance image generated by the distance image generation part. 本発明に係る面パッチを適用して生成した距離画像の実施例と、従来の固定サイズの面パッチを用いて生成した距離画像の比較例とを示す模式図である。It is a schematic diagram which shows the example of the distance image generated by applying the surface patch which concerns on this invention, and the comparative example of the distance image generated by using the conventional fixed size surface patch. 距離画像生成部及び平滑処理部での処理の一実施形態における概略を説明するためのフローチャートである。It is a flowchart for demonstrating the outline in one Embodiment of the processing in a distance image generation unit and a smoothing processing unit.

以下、本発明の実施形態について、図面を用いて詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明による対象識別装置を含む対象識別システムの一実施形態を示す模式図である。 FIG. 1 is a schematic diagram showing an embodiment of an object identification system including an object identification device according to the present invention.

図1に示した、本実施形態の対象識別システムは、
(a)道路を走行する自動車等の移動体に設置されたLiDAR2と、
(b)有線(ケーブル等)又は無線(無線LAN、近距離無線通信、無線系事業者アクセスネットワーク等)を介してLiDAR2と通信接続された対象識別装置1と
を含んでいる。
The target identification system of the present embodiment shown in FIG. 1 is
(A) LiDAR2 installed on a moving body such as a car traveling on the road,
(B) Includes a target identification device 1 that is communicated with LiDAR 2 via a wired (cable or the like) or wireless (wireless LAN, short-range wireless communication, wireless operator access network, etc.).

このうち、LiDAR2は、可視スペクトル外のレーザパルスを放射し、当該パルスが対象に反射して戻ってくるまでの時間を計測して、当該対象までの距離を測定する測距センサであるLiDAR(Light Detection And Ranging)デバイスである。ここで、測定対象には、周囲に存在する自動車、自転車等の乗り物、歩行者・走者等の人物、動物や、さらには、路面や地面等のグラウンド、建造物や、交通設備等、放射される電磁波を反射するものであれば様々なものが該当する。 Of these, LiDAR2 is a ranging sensor that emits a laser pulse outside the visible spectrum, measures the time until the pulse is reflected by the target and returns, and measures the distance to the target. Light Detection And Ranging) device. Here, the measurement targets are radiated from surrounding vehicles such as automobiles and bicycles, people such as pedestrians and runners, animals, grounds such as road surfaces and ground, buildings, transportation facilities, etc. Various things are applicable as long as they reflect electromagnetic waves.

LiDAR2は具体的に、センサを備えたヘッドを回転させ、全周(0〜359.9°)の各角度位置(座標)における反射強度(又はそれから算定される3次元距離)を含む点データを、ヘッド1周毎に1フレーム(1ファイル)として出力するデバイスであってもよい。 Specifically, LiDAR2 rotates a head equipped with a sensor and outputs point data including reflection intensity (or a three-dimensional distance calculated from it) at each angular position (coordinates) around the entire circumference (0 to 359.9 °). It may be a device that outputs one frame (one file) for each lap.

ここで、ヘッドは、垂直方向については、例えばプラスマイナス10°〜20°の範囲に例えば10〜20本のレーザを放射して各反射波を計測し、角分解能αをもって点データを取得することができる。ちなみにこのレーザ本数が角分解能αを規定することになる。一方、水平方向については、例えば200〜1500rpmの速度で回転しつつ例えば0.1〜0.5°の角分解能βで点データを取得するものであってもよい。 Here, in the vertical direction, for example, the head radiates 10 to 20 lasers in a range of plus or minus 10 ° to 20 ° to measure each reflected wave, and acquires point data with an angular resolution α. Can be done. By the way, this number of lasers defines the angular resolution α. On the other hand, in the horizontal direction, point data may be acquired with an angular resolution β of, for example, 0.1 to 0.5 ° while rotating at a speed of, for example, 200 to 1500 rpm.

また、対象識別装置1は、LiDAR2で捉えた対象を識別する、本発明による装置である。具体的には、LiDAR2から、対象の情報を含み得る点群(点データの集合)である「ポイントクラウド」を取得して、この「ポイントクラウド」を解析して「距離画像」を生成し、生成した「距離画像」に含まれている対象を特定するのである。 Further, the object identification device 1 is a device according to the present invention that identifies an object captured by LiDAR2. Specifically, a "point cloud", which is a point cloud (a set of point data) that can contain target information, is acquired from LiDAR2, and this "point cloud" is analyzed to generate a "distance image". The target included in the generated "distance image" is specified.

具体的に、対象識別装置1は、その特徴として
(A)取得された「ポイントクラウド」を、ポイント(点データ)間の距離に基づいて、互いに隣接したポイントの集合である「対象ポイントクラウド」(対象点群)に区分するポイントクラウド(点群)区分部112と、
(B)「対象ポイントクラウド」に含まれる対象ポイント(対象点データ)が投影された「距離画像」であって、投影された位置に、少なくともLiDAR2のセンサ位置との距離の単調増加関数となるサイズを有する「面パッチ」を設定し、「面パッチ」内の画素値を、「面パッチ」に係る対象ポイントと(当該距離画像」と)の距離に基づいて決定した「距離画像」を生成する距離画像生成部113と、
(C)生成された「距離画像」に含まれている対象を、所定の識別器を用いて特定する対象特定部115と
を有している。
Specifically, the target identification device 1 uses the acquired "point cloud" as its feature (A) as a "target point cloud" which is a set of points adjacent to each other based on the distance between points (point data). Point cloud (point cloud) division 112 that divides into (target point cloud),
(B) The target point (target point data) included in the "target point cloud" is a projected "distance image", and is a monotonically increasing function of the distance from the projected position to at least the sensor position of LiDAR2. A "face patch" having a size is set, and a "distance image" is generated in which the pixel values in the "face patch" are determined based on the distance between the target point related to the "face patch" and (the distance image). Distance image generation unit 113 and
(C) It has an object identification unit 115 that identifies an object included in the generated "distance image" by using a predetermined classifier.

このように、対象識別装置1では、LiDAR2のセンサ位置との距離の単調増加関数となるサイズを有する、距離適応的な「面パッチ」を採用している。すなわち、この距離が小さくポイントが密集する傾向にある場合には、サイズのより小さい「面パッチ」を採用して、密度の高い各ポイントの距離情報をより正確に反映させつつ、「面パッチ」同士が重畳して距離に係る画素値が重なってしまう事態を回避する。一方、この距離が大きくポイントがまばらになる傾向にある場合には、サイズのより大きい「面パッチ」を採用し、まばらな各ポイントの距離情報をより確実に補間するのである。 As described above, the target identification device 1 employs a distance-adaptive "plane patch" having a size that becomes a monotonically increasing function of the distance from the sensor position of LiDAR2. That is, when this distance is small and the points tend to be dense, a "face patch" with a smaller size is adopted to more accurately reflect the distance information of each dense point, and the "face patch" is used. Avoid the situation where the pixel values related to the distance overlap with each other. On the other hand, when this distance is large and the points tend to be sparse, a "face patch" having a larger size is adopted to more reliably interpolate the distance information of each sparse point.

このように距離適応的な「面パッチ」を採用することによって、均一性や平滑性を備えており対象の識別・分類により適した画素値分布を有する距離画像を生成することができる。すなわち、例えばRGB画像に頼ることなく、この距離画像によって、対象の識別・分類処理を好適に実施することができるのである。 By adopting the distance-adaptive "plane patch" in this way, it is possible to generate a distance image having uniformity and smoothness and a pixel value distribution more suitable for identifying and classifying objects. That is, for example, the object identification / classification process can be suitably performed by this distance image without relying on the RGB image.

また一般に、ポイントクラウドのポイント密度はセンサ位置との距離に応じて変化することから、面パッチのサイズは非常に重要なパラメータとなるにもかかわらず、従来固定的に設定されてきた。これに対し、本発明によれば、距離適応的なサイズを調整して採用するので、後の解析においてより好適となる距離画像が生成されるのである。 In general, since the point density of the point cloud changes according to the distance from the sensor position, the size of the surface patch has been fixedly set even though it is a very important parameter. On the other hand, according to the present invention, since the distance-adaptive size is adjusted and adopted, a distance image that is more suitable for later analysis is generated.

ちなみに、対象識別装置1は、取得されたポイントクラウド全体を投影して距離画像を生成するのではなく、「対象ポイントクラウド」毎に距離画像を生成する。そのため、各「対象ポイントクラウド」とLiDAR2のセンサ位置との距離に個別に対応したサイズを有する面パッチを備えた、後の対象分類により好適な距離画像が実現される。 By the way, the target identification device 1 does not project the entire acquired point cloud to generate a distance image, but generates a distance image for each “target point cloud”. Therefore, a suitable distance image is realized by the later target classification, which is provided with a surface patch having a size individually corresponding to the distance between each “target point cloud” and the sensor position of LiDAR2.

なお当然に、本発明による対象識別装置が点群(ポイントクラウド)情報を取得する先は、LiDARデバイスに限定されるものではない。例えば、レーダ(Radar,Radio detecting and ranging)デバイスや、スキャニングソナー(Scanning Sonar (Sound navigation and ranging))デバイスから点群情報を取得し、解析することも可能である。 As a matter of course, the destination for the target identification device according to the present invention to acquire the point cloud information is not limited to the LiDAR device. For example, it is possible to acquire and analyze point group information from a radar (Radar, Radio detecting and ranging) device or a scanning sonar (Sound navigation and ranging) device.

また当然に、このような測距センサデバイスが搭載/設置される対象も、自動車に限定されるものではない。例えば、飛行するドローンや、各種交通機関、歩行者・走者等や、さらには屋外・屋内の定位置等、周囲にある対象(特に、地面や路面等の地上に存在する対象)を識別したいとのニーズがあるものならば様々なものが、デバイス搭載/設置対象となる。 Naturally, the target on which such a distance measuring sensor device is mounted / installed is not limited to automobiles. For example, we want to identify objects around us (especially objects that exist on the ground such as the ground and road surface) such as flying drones, various means of transportation, pedestrians / runners, and even outdoor / indoor fixed positions. If there is a need for, various devices will be installed / installed.

同じく図1の機能ブロック図によれば、本実施形態の対象識別装置1は、LiDAR2との間で情報の授受を可能にする入出力インタフェース101と、ポイントクラウド蓄積部102と、対象ポイントクラウド蓄積部103と、距離画像蓄積部104と、対象情報記憶部105と、キーボード・ディスプレイ(KB・DP)106と、プロセッサ・メモリとを有する。 Similarly, according to the functional block diagram of FIG. 1, the target identification device 1 of the present embodiment has an input / output interface 101 that enables information to be exchanged with and from LiDAR 2, a point cloud storage unit 102, and a target point cloud storage. It has a unit 103, a distance image storage unit 104, a target information storage unit 105, a keyboard display (KB / DP) 106, and a processor memory.

ここで、このプロセッサ・メモリは、本発明による対象識別プログラムの一実施形態を保存しており、また、コンピュータ機能を有していて、この対象識別プログラムを実行することによって、対象識別処理を実施する。このことから、対象識別装置1は、対象識別専用装置又はユニットであってもよいが、本発明による対象識別プログラムを搭載した、例えばパーソナル・コンピュータ(PC)、ノート型若しくはタブレット型コンピュータ、又はスマートフォン等とすることも可能である。 Here, this processor memory stores one embodiment of the target identification program according to the present invention, has a computer function, and executes the target identification process by executing the target identification program. To do. For this reason, the target identification device 1 may be a target identification dedicated device or unit, but is equipped with, for example, a personal computer (PC), a notebook or tablet computer, or a smartphone equipped with the target identification program according to the present invention. Etc. are also possible.

さらに、プロセッサ・メモリは、グラウンド除去部111と、ポイントクラウド区分部112と、投影面生成部113a及びパッチ設定部113bを含む距離画像生成部113と、平滑処理部114と、対象特定部115と、入出力制御部121とを有する。なお、これらの機能構成部は、プロセッサ・メモリに保存された対象識別プログラムの機能と捉えることができる。また、図1における対象識別装置1の機能構成部間を矢印で接続して示した処理の流れは、本発明による対象識別方法の一実施形態としても理解される。 Further, the processor memory includes a ground removal unit 111, a point cloud division unit 112, a distance image generation unit 113 including a projection surface generation unit 113a and a patch setting unit 113b, a smoothing processing unit 114, and a target identification unit 115. , And an input / output control unit 121. It should be noted that these functional components can be regarded as the functions of the target identification program stored in the processor memory. Further, the processing flow shown by connecting the functional components of the target identification device 1 in FIG. 1 with arrows is also understood as an embodiment of the target identification method according to the present invention.

同じく図1に示す実施形態において、入出力インタフェース101は、LiDAR2から、1フレームにヘッド1周(360°)分のポイントクラウド情報を含む信号を取得し、このポイントクラウドを、ポイントクラウド蓄積部102に適宜バッファしつつ、グラウンド除去部111へ出力する。この際、ポイントクラウドに対し、ノイズやまばらに存在する外れ値を除去すべく、公知の方法でフィルタ処理が実施されることも好ましい。 Similarly, in the embodiment shown in FIG. 1, the input / output interface 101 acquires a signal including point cloud information for one head circumference (360 °) in one frame from LiDAR2, and uses this point cloud as the point cloud storage unit 102. Output to the ground removal unit 111 while appropriately buffering. At this time, it is also preferable that the point cloud is filtered by a known method in order to remove noise and sparsely existing outliers.

[グラウンド除去処理]
グラウンド除去部111は、入力したポイントクラウドから所定の平滑条件を満たす平滑ポイントクラウドを抽出して、この平滑ポイントクラウドから鉛直方向に垂直な面を構成するグラウンド・ポイントクラウドを抽出し、(a)平滑ポイントクラウドのうちでグラウンド・ポイントクラウドの近傍となるポイントクラウド部分と、(b)グラウンド点群とを、入力したポイントクラウドから除去する。
[Ground removal process]
The ground removal unit 111 extracts a smoothing point cloud satisfying a predetermined smoothing condition from the input point cloud, extracts a ground point cloud forming a plane perpendicular to the vertical direction from the smoothing point cloud, and (a) Of the smooth point cloud, the point cloud portion near the ground point cloud and (b) the ground point cloud are removed from the input point cloud.

ここで、入力されたポイントクラウドは、例えば、道路、歩道、道路内の安全地帯、自動車、歩行者、自転車(に載った人物)や、ポール等、種々の対象に係る情報を含んでいるが、これらの対象を分離・区分する対象の境界やエッジの情報を直接含んでいるわけではない。そこで、入力されたポイントクラウドから、ポイントクラウド内の多くの部分においてこれらの対象を繋ぐように存在しているグラウンド(面)を除去することによって、この後の対象区分処理を実施し易くするのである。 Here, the input point cloud contains information related to various objects such as roads, sidewalks, safety zones in roads, automobiles, pedestrians, bicycles (persons on the road), poles, and the like. , It does not directly include information on the boundaries and edges of the objects that separate and divide these objects. Therefore, by removing the ground (plane) that exists so as to connect these targets in many parts of the point cloud from the input point cloud, it becomes easier to carry out the subsequent target classification process. is there.

具体的には1つの実施形態として、以下のグラウンド除去処理が実施されることも好ましい。
(ア)最初に、入力したポイントクラウドから、公知である所定の平滑条件を満たさないポイントクラウド・セグメントを一度除外する。この時点で、ポイントクラウドには、「グラウンド」と、「グラウンドと連続する(坂や歩道等の)平滑オブジェクト」と、「平滑な物体」とが含まれている。
(イ)次いで、RANSAC(RANdom SAmple Consensus)法を用い、上記(ア)で残ったポイントクラウドにおいて、鉛直方向(z軸方向)に垂直な面を構成する「グラウンド」を検出する。
Specifically, as one embodiment, it is also preferable to carry out the following ground removal treatment.
(A) First, the point cloud segment that does not satisfy the known predetermined smoothing condition is once excluded from the input point cloud. At this point, the point cloud contains a "ground", a "smooth object continuous with the ground (such as a slope or sidewalk)", and a "smooth object".
(B) Next, using the RANSAC (RANdom SAmple Consensus) method, in the point cloud remaining in (a) above, the "ground" forming a plane perpendicular to the vertical direction (z-axis direction) is detected.

(ウ)さらに、上記(ア)で残ったポイントクラウド・セグメントから、検出された「グラウンド」との距離が所定閾値以上のポイントクラウド・セグメントを「平滑な物体」と判断して除外する。これにより結局、「グラウンド」及び「グラウンドと連続する平滑オブジェクト」が残ることになる。
(エ)最後に、入力したポイントクラウドから、上記(ウ)で残ったポイントクラウド・セグメントを除去する。
(C) Further, from the point cloud segments remaining in (a) above, the point cloud segment whose distance from the detected "ground" is equal to or greater than a predetermined threshold value is judged as a "smooth object" and excluded. As a result, "ground" and "smooth object continuous with ground" remain.
(D) Finally, the point cloud segment remaining in (c) above is removed from the input point cloud.

ちなみに、上記(ア)の処理は、例えば、T. Rabbania, F.A. van den Heuvelb, and G. Vosselmanc, “Segmentation of point clouds using smoothness constraint”, ISPRS, 36(5),2006年に記載された、平滑条件を用いた領域形成法(region growing)により、平面領域を検出することによって実施することができる。これにより、歩道のような若干傾斜した又はわずかな不連続部分を有する平面部分も、入力したポイントクラウドから区分することが可能となるのである。 By the way, the process of (a) above is described in, for example, T. Rabbania, FA van den Heuvelb, and G. Vosselmanc, “Segmentation of point clouds using smoothness constraint”, ISPRS, 36 (5), 2006. It can be carried out by detecting a planar region by a region growing method using smoothing conditions. As a result, even a flat surface portion having a slightly inclined or slightly discontinuous portion such as a sidewalk can be separated from the input point cloud.

また、上記(イ)の公知の手法であるRANSACについては、例えば、M. Fisher and R. Bolles, “Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography”, Comm. of the ACM, 24(6),1981年に記載されている。 Regarding RANSAC, which is the known method of (a) above, for example, M. Fisher and R. Bolles, “Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography”, Comm. Of the It is described in ACM, 24 (6), 1981.

[ポイントクラウド区分処理]
同じく図1において、ポイントクラウド区分部112は、グラウンド除去部111でグラウンド除去処理の施されたポイントクラウドを、ポイント(データ)間の距離に基づいて、互いに隣接したポイント(データ)の集合である対象ポイントクラウドに区分する。
[Point cloud classification processing]
Similarly, in FIG. 1, the point cloud division unit 112 is a set of points (data) adjacent to each other based on the distance between points (data) in the point cloud subjected to the ground removal process by the ground removal unit 111. Divide into target point clouds.

1つの実施形態として、ポイントクラウド区分部112は、所定の距離条件を適用して、ポイントクラウド内のポイントをグループ化してもよい。ここで、ポイント間の距離にはユークリッド距離が採用されることも好ましい。 As one embodiment, the point cloud division unit 112 may apply a predetermined distance condition to group points in the point cloud. Here, it is also preferable that the Euclidean distance is adopted as the distance between the points.

具体的には、まず、リストが空であるクラスタを有するkd木(kd-tree,k-dimensional tree)を生成し、所定の距離条件を満たして互いに近接するポイントの集合を同一のクラスタに割り当てて、ポイントクラウドをクラスタに分類し、各クラスタに属するポイントの集合を、区分された各対象ポイントクラウドとしてもよい。ここで、kd木は、k次元のユークリッド空間にある点を分類するための公知の空間分割データ構造の一種である。 Specifically, first, a kd tree (kd-tree, k-dimensional tree) having a cluster with an empty list is generated, and a set of points that satisfy a predetermined distance condition and are close to each other are assigned to the same cluster. The point cloud may be classified into clusters, and a set of points belonging to each cluster may be used as each divided target point cloud. Here, the kd tree is a kind of known spatial division data structure for classifying points in the k-dimensional Euclidean space.

なお、生成された対象ポイントクラウドは適宜、対象ポイントクラウド蓄積部103に保存され、適宜取り出されて次の処理に使用されることも好ましい。 It is also preferable that the generated target point cloud is appropriately stored in the target point cloud storage unit 103, appropriately taken out, and used for the next processing.

図2は、以上に説明したグラウンド除去部111及びポイントクラウド区分部112での処理の一実施例を示した模式図である。 FIG. 2 is a schematic view showing an embodiment of the processing in the ground removal unit 111 and the point cloud division unit 112 described above.

図2(A)には、グラウンド除去部111によるグラウンド除去処理の一実施例が、ポイントクラウド分布図を用いて模式的に示されている。同図によれば、入力されたポイントクラウドから、グラウンド・ポイントクラウド(「グラウンド」及び「グラウンドと連続する平滑オブジェクト」)を差し引き、グラウンド除去処理後のポイントクラウドが生成されている。 FIG. 2A schematically shows an example of the ground removal process by the ground removal unit 111 using a point cloud distribution map. According to the figure, the ground point cloud (“ground” and “smoothing object continuous with the ground”) is subtracted from the input point cloud to generate the point cloud after the ground removal process.

次いで、この処理後のポイントクラウドに対し、kd木を用いたポイントクラウド区分処理が施されることによって、図2(B)に示した対象ポイントクラウドが生成されるのである。ここで、図2(B)では、1つの閉じた破線内の点群が1つの対象ポイントクラウドとなっている。 Next, the target point cloud shown in FIG. 2 (B) is generated by performing the point cloud classification process using the kd tree on the point cloud after this process. Here, in FIG. 2B, the point cloud in one closed broken line is one target point cloud.

ここで、このように生成された個々の対象ポイントクラウドについて、この後詳述するように距離画像が生成される。これは、ポイントクラウド全体を投影して距離画像を生成することに比べ、相当の計算量の低減となるのである。 Here, for each target point cloud generated in this way, a distance image is generated as described in detail later. This is a considerable reduction in the amount of calculation compared to projecting the entire point cloud to generate a distance image.

[距離画像生成処理]
以下、対象識別装置1の主要部である距離画像生成部113(図1)において実施される投影面生成・面パッチ設定処理の一実施形態を説明する。
[Distance image generation processing]
Hereinafter, an embodiment of the projection surface generation / surface patch setting process performed by the distance image generation unit 113 (FIG. 1), which is the main unit of the target identification device 1, will be described.

図3は、本発明に係る投影面生成・面パッチ設定処理の一実施形態を説明するための模式図である。ちなみに、同図では、LiDAR2によって検出されるポイントクラウドについてのxyz座標系と、投影面内のij座標系とが設定されている。これらの座標系について、本実施形態では、z軸及びj軸が鉛直方向の軸となっており、xy面が水平面となっているが、本来当然、これに限定されるものではない。 FIG. 3 is a schematic diagram for explaining an embodiment of the projection surface generation / surface patch setting process according to the present invention. By the way, in the figure, the xyz coordinate system for the point cloud detected by LiDAR2 and the ij coordinate system in the projection plane are set. Regarding these coordinate systems, in the present embodiment, the z-axis and the j-axis are the axes in the vertical direction, and the xy plane is the horizontal plane, but the present invention is not limited to this.

図3(A)及び(B)には、LiDAR2のセンサ位置sと生成される投影面PSとの関係が模式的に示されている。同図に示すように、距離画像生成部113(図1)の投影面生成部113aは、ポイントクラウド区分部112で生成された対象ポイントクラウド毎に、
(a)当該対象ポイントクラウドに含まれるポイントのうちで、LiDAR2のセンサ位置s(xs, ys, zs)に最も近い対象ポイント(対象点データ)である基準ポイント(基準点データ)P0(x0, y0, z0)と、LiDAR2のセンサ位置sとを含む鉛直面に垂直であり、かつ
(b)この基準ポイントP0を含む
鉛直面(z軸を含む面)を、投影面PSに設定する。すなわち、対象ポイントクラウドの基準ポイントP0に応じて投影面PSを生成するのである。
FIGS. 3 (A) and 3 (B) schematically show the relationship between the sensor position s of LiDAR2 and the generated projection surface PS. As shown in the figure, the projection plane generation unit 113a of the distance image generation unit 113 (FIG. 1) is used for each target point cloud generated by the point cloud division unit 112.
(A) Of the points included in the target point cloud, the reference point (reference point data) P, which is the target point (target point data) closest to the sensor position s (x s , y s , z s ) of LiDAR2. Vertical to the vertical plane including 0 (x 0 , y 0 , z 0 ) and the sensor position s of LiDAR2, and (b) the vertical plane including this reference point P 0 (the plane including the z-axis). Set to the projection plane PS. That is, the projection plane PS is generated according to the reference point P 0 of the target point cloud.

また、距離画像生成部113(図1)のパッチ設定部113bは本実施形態において、各対象ポイントが投影された投影面PS上の位置に、
(a)LiDAR2のセンサ位置sと投影面PSとの距離r0と、
(b)LiDAR2の(出力したポイントクラウドに係る)分解能(角分解能α及びβ)と
について単調増加関数となるサイズを有する面パッチSPを設定する。
Further, in the present embodiment, the patch setting unit 113b of the distance image generation unit 113 (FIG. 1) is located at a position on the projection surface PS on which each target point is projected.
(A) The distance r 0 between the sensor position s of LiDAR2 and the projection surface PS,
(B) A surface patch SP having a size that becomes a monotonically increasing function with respect to the resolution (angle resolution α and β) of LiDAR2 (related to the output point cloud) is set.

距離画像生成部113は、図3(C)に示すように、以上のように設定された面パッチSPを、投影される対象ポイントPn毎に投影面PSに設定することによって、距離画像を生成するのである。 As shown in FIG. 3C, the distance image generation unit 113 sets the surface patch SP set as described above on the projection surface PS for each projection target point P n , thereby creating a distance image. It will generate.

ここで、面パッチSPのサイズ設定については、後に図4(A)及び(B)を用いて詳細に説明を行う。 Here, the size setting of the surface patch SP will be described in detail later with reference to FIGS. 4A and 4B.

また、パッチ設定部113bは、面パッチSP内の画素値gn(in ,jn)を、面パッチSPに係る対象ポイントPn(xn, yn, zn)と投影面PSとの距離dnに基づいて決定する。例えば、画素値gnを距離dn(gn=dn)とすることができる。いずれにしても、距離dnは、面パッチSP内に存在する全ての画素の画素値を決定する強度値となっているのである。 Further, the patch setting unit 113b, a pixel value g n (i n, j n ) in the plane patch SP the target point according to the surface patch SP P n (x n, y n, z n) and the projection surface PS Determined based on the distance d n of. For example, the pixel value g n can be the distance d n (g n = d n ). In any case, the distance d n is an intensity value that determines the pixel values of all the pixels existing in the surface patch SP.

なお、この距離dnの算出については、対象ポイントPnと投影面PSとのユークリッド距離を直接計算するのではなく、対象ポイントPnにおけるLiDAR2のセンサ位置sからの距離及び方向に係る情報に基づいて算出することも好ましい。具体的には、図3(B)に示す幾何学的関係から、次式
(1) dn=Rn*cosθn−r0
を用い、画素値gnに係る距離dnを、より少ない計算量で導出することができる。
Regarding the calculation of this distance d n , instead of directly calculating the Euclidean distance between the target point P n and the projection plane PS, the information related to the distance and direction of LiDAR2 from the sensor position s at the target point P n is used. It is also preferable to calculate based on. Specifically, from the geometric relationship shown in Fig. 3 (B), the following equation (1) d n = R n * cos θ n −r 0
Can be used to derive the distance d n related to the pixel value g n with a smaller amount of calculation.

ここで上式(1)において、Rn及びθnはそれぞれ、対象ポイントPnにおけるLiDAR2のセンサ位置sからのxy面(水平面)内における距離及び方向角であり、LiDAR2から取得されるポイントクラウド情報に含まれている又は当該情報から容易に算出される値となっている。 In the above formula (1) wherein each R n and theta n, a distance and direction angle in the xy plane (horizontal plane) of the sensor position s of LiDAR2 in a subject point P n, point cloud obtained from LiDAR2 It is a value included in the information or easily calculated from the information.

また、LiDAR2のセンサ位置sと投影面PSとの距離r0は、センサ位置sから投影面PSに向かう垂線ベクトルR0の大きさであって、センサ位置sと基準ポイントP0とのxy面(水平面)内での距離ともなっており、次式
(2) r0=((x0−xs)2+(y0−ys)2)0.5
によっても算出可能である。
Further, the distance r 0 between the sensor position s of LiDAR 2 and the projection surface PS is the magnitude of the perpendicular vector R 0 from the sensor position s to the projection surface PS, and is the xy plane between the sensor position s and the reference point P 0. It is also the distance within the (horizontal plane), and the following equation (2) r 0 = ((x 0 −x s ) 2 + (y 0 −y s ) 2 ) 0.5
It can also be calculated by.

さらに、面パッチSP内の画素値gnの位置座標in及びjnは、ij座標系の原点をxy面(水平面)内に設けた場合に、それぞれ次式
(3) in=Rn*sinθn
(4) jn=zn
を用いて決定することができる。
Further, the position coordinates i n and j n of the pixel value g n of the plane patch SP, when the origin of the ij coordinate system provided in the xy plane (horizontal plane), the following expressions (3) i n = R n * Sin θ n
(4) j n = z n
Can be determined using.

図4は、本発明に係る面パッチ設定処理の一実施形態を説明するための模式図である。ちなみに、同図でも、図3と同様、ポイントクラウドxyz座標系と、投影面内のij座標系とが設定されている。 FIG. 4 is a schematic view for explaining an embodiment of the surface patch setting process according to the present invention. Incidentally, in the same figure as in FIG. 3, the point cloud xyz coordinate system and the ij coordinate system in the projection plane are set.

図4(A)の実施形態によれば、投影面PS(のij座標系)上において、i軸方向の幅がWwであってj軸方向の高さがWhである矩形の面パッチSPが、その中心を対象ポイント投影位置として設定されている。同図に示したように通常、対象ポイントは、生成する距離画像の画素の全てに投影されるほどの密度を有していない。そこで、これら対象ポイント間の画像領域を補間するために面パッチSPが設定されるのである。 According to the embodiment of FIG. 4A, a rectangular surface patch having a width in the i-axis direction of W w and a height in the j-axis direction of W h on the projection surface PS (ij coordinate system). The SP is set with its center as the target point projection position. As shown in the figure, the target points usually do not have enough density to be projected on all the pixels of the generated distance image. Therefore, the surface patch SP is set to interpolate the image area between these target points.

また、この対象ポイントの密度は、上述したようにLiDAR2のセンサ位置との距離によって、さらにはLiDAR2の分解能によって変化する。これに的確に対応するため、本実施形態では図4(B)に示すように、幅Ww及び高さWhを、次式
(5) Ww=r0*tanβ
(6) Wh=r0*tanα
をもって規定した面パッチSPが準備されるのである。ここで、上式(5)のβは、LiDAR2の水平方向(xy面内方向での)での角分解能であり、上式(6)のαは、LiDAR2の垂直方向(z軸方向での)での角分解能である。
Further, the density of the target points changes depending on the distance from the sensor position of LiDAR2 and the resolution of LiDAR2 as described above. In order to accurately deal with this, in this embodiment, as shown in FIG. 4 (B), the width W w and the height W h are set to the following equation (5) W w = r 0 * tan β.
(6) W h = r 0 * tan α
The surface patch SP specified in is prepared. Here, β in the above equation (5) is the angular resolution of LiDAR2 in the horizontal direction (in the xy in-plane direction), and α in the above equation (6) is the vertical direction (z-axis direction) of LiDAR2. ) Is the angular resolution.

上式(5)及び(6)によれば、面パッチSPは、LiDAR2のセンサ位置との距離が小さいほど、またLiDAR2の分解能が高いほど(α値やβ値が小さいほど)、密度の高くなる対象ポイントに対応してより小さいサイズに設定される。その結果、面パッチ同士が重畳して距離値(画素値)がオーバーラップしてしまう事態を回避することができる。一方、LiDAR2のセンサ位置との距離が大きいほど、またLiDAR2の分解能が低いほど(α値やβ値が大きいほど)、密度の低下する対象ポイントに対応してより大きいサイズに設定される。その結果、画素値に対し十分な補間処理を行うことができる。 According to the above equations (5) and (6), the surface patch SP has a higher density as the distance from the sensor position of LiDAR2 is smaller and the resolution of LiDAR2 is higher (the smaller the α value and β value). It is set to a smaller size corresponding to the target point. As a result, it is possible to avoid a situation in which the surface patches overlap each other and the distance values (pixel values) overlap. On the other hand, the larger the distance from the sensor position of LiDAR2 and the lower the resolution of LiDAR2 (the larger the α value and β value), the larger the size is set corresponding to the target point where the density decreases. As a result, sufficient interpolation processing can be performed on the pixel values.

このように、距離・分解能について適応的な面パッチSPを適用することによって、均一性や平滑性を備えた好適な距離画像を生成することが可能となるのである。 In this way, by applying the surface patch SP that is adaptive in terms of distance and resolution, it is possible to generate a suitable distance image having uniformity and smoothness.

なお、面パッチSPのサイズは、距離r0や角分解能の関数であるとしても当然に、上式(5)や上式(6)の形に限定されるものではない。少なくとも距離r0や角分解能の単調増加関数であれば、種々の関数形が採用可能である。 The size of the surface patch SP is, of course, not limited to the above equations (5) and (6) even if it is a function of the distance r 0 or the angular resolution. Various functional forms can be adopted as long as they are at least a monotonically increasing function of distance r 0 and angular resolution.

なお、対象ポイントクラウド毎に生成された距離画像は適宜、距離画像蓄積部104に保存され、適宜取り出されて次の処理に使用されることも好ましい。 It is also preferable that the distance image generated for each target point cloud is appropriately stored in the distance image storage unit 104, appropriately taken out, and used for the next processing.

図1に戻って、平滑処理部114は、生成された距離画像の画素値に対して平滑処理を行う。具体的には、
(a)距離画像の全画素値を所定範囲内の値に規格化して、後の対象分類用の識別器に入力するのに適した形に調整した上で、
(b)例えばガウシアンフィルタ(Gaussian filter)を用いて、画素値分布を平滑にし、さらにノイズを低減させる
ことも好ましい。
Returning to FIG. 1, the smoothing processing unit 114 performs smoothing processing on the pixel values of the generated distance image. In particular,
(A) All pixel values of the distance image are standardized to values within a predetermined range, adjusted to a shape suitable for input to a classifier for later target classification, and then adjusted.
(B) It is also preferable to smooth the pixel value distribution and further reduce noise by using, for example, a Gaussian filter.

図5は、距離画像生成部113で生成された距離画像の一実施例を説明するための模式図である。 FIG. 5 is a schematic diagram for explaining an embodiment of the distance image generated by the distance image generation unit 113.

本実施例では図5(A)に示すように、LiDAR2によって、前方を走行する自動車の背面を捉えた結果としての対象ポイントクラウドが生成され、この対象ポイントクラウドから、距離画像が生成されている。ここで、本実施例では、対象ポイントクラウドは、LiDAR2から見たポイント分布正面図として把握されていることが分かる。 In this embodiment, as shown in FIG. 5A, a target point cloud is generated as a result of capturing the back surface of a vehicle traveling in front by LiDAR2, and a distance image is generated from this target point cloud. .. Here, in this embodiment, it can be seen that the target point cloud is grasped as a front view of the point distribution seen from LiDAR2.

一方、比較例として、この対象ポイントクラウドを上空から見た場合のポイント分布平面図(上面図)を図5(B)に示す。図5(B)によれば、図5(A)と比べると、ポイント間の距離が、対象(自動車)表面形状やレーザ反射特性に依存して大きく変化し、ポイント分布の様子が、LiDAR2位置から見た対象の見かけ(appearance)からは大きくかけ離れている。また、同等の位置にポイントが複数重なってしまった領域も発生しており、対象表面の情報が相当に喪失していることが分かる。 On the other hand, as a comparative example, FIG. 5 (B) shows a point distribution plan view (top view) when the target point cloud is viewed from above. According to FIG. 5 (B), as compared with FIG. 5 (A), the distance between the points changes greatly depending on the surface shape of the target (automobile) and the laser reflection characteristics, and the state of the point distribution is the LiDAR2 position. It is far from the appearance of the object seen from. In addition, there is a region where a plurality of points overlap at the same position, and it can be seen that the information on the target surface is considerably lost.

これに対し、本実施例の対象ポイントクラウドを投影して生成した距離画像は、図5(C)に示す対応するRGB画像と同様の対象形状を表現できているのである。 On the other hand, the distance image generated by projecting the target point cloud of the present embodiment can express the same target shape as the corresponding RGB image shown in FIG. 5 (C).

このように、本実施例では、上述したように投影面PSがLiDAR2に正対して設定されるので、生成された距離画像は、対象におけるLiDAR2側の面の様子を反映した、言い換えると、LiDAR2位置から見た対象の見かけの情報及び対象表面の情報を十分に反映した画像となっている。その結果、この後実施される対象識別・分類処理が、そのような見かけを学習した既存の分類・識別フレームワークを利用することによって、より精度よく実施可能となるのである。 As described above, in this embodiment, since the projection surface PS is set to face LiDAR2 as described above, the generated distance image reflects the state of the surface on the LiDAR2 side in the target, in other words, LiDAR2. The image fully reflects the apparent information of the target and the information on the surface of the target as seen from the position. As a result, the object identification / classification process to be executed after that can be performed more accurately by using the existing classification / identification framework that has learned such appearance.

図6は、本発明に係る面パッチを適用して生成した距離画像の実施例と、従来の固定サイズの面パッチを用いて生成した距離画像の比較例とを示す模式図である。 FIG. 6 is a schematic view showing an example of a distance image generated by applying the surface patch according to the present invention and a comparative example of a distance image generated by using a conventional fixed-size surface patch.

図6には、
(a)本発明に係る、距離・分解能に応じたサイズを有する面パッチSPを適用して生成した、(自動車、走行している人物、及び立っている人物の)距離画像の実施例と、
(b)従来の固定サイズ(2(ピクセル)×2(ピクセル),5×5,10×10,15×15,20×20)を有する面パッチを用いて生成した(自動車、走行している人物、及び立っている人物の)距離画像の比較例と
が示されている。
FIG. 6 shows
(A) Examples of distance images (of a car, a running person, and a standing person) generated by applying a surface patch SP having a size corresponding to a distance and a resolution according to the present invention.
(B) Generated using a conventional surface patch with a fixed size (2 (pixels) x 2 (pixels), 5 x 5, 10 x 10, 15 x 15, 20 x 20) (automobile, running) A comparative example of a distance image (of a person and a standing person) is shown.

図6によれば、比較例では、小さい面パッチを用いた場合には、距離画像において画素値の飛び(ギャップ)が目立ち、一方、大きい面パッチを用いた場合には、面パッチの重畳した箇所が見受けられる。これに対し、本実施例では、画素値の重なりの無い均一な、且つ平滑な画素値分布を有する距離画像の実現されていることが理解される。 According to FIG. 6, in the comparative example, when the small surface patch is used, the pixel value jump (gap) is conspicuous in the distance image, while when the large surface patch is used, the surface patches are superimposed. There are some spots. On the other hand, in this embodiment, it is understood that a distance image having a uniform and smooth pixel value distribution without overlapping pixel values is realized.

図7は、距離画像生成部113及び平滑処理部114での処理の一実施形態における概略を説明するためのフローチャートである。 FIG. 7 is a flowchart for explaining an outline of the processing in the distance image generation unit 113 and the smoothing processing unit 114 in one embodiment.

(S101)ポイントクラウド区分部112から対象ポイントクラウドを取得する。
(S102)対象ポイントクラウドのうち、LiDAR2のセンサ位置に最も近いポイントを基準ポイントに設定する。
(S103)設定した基準ポイントとLiDAR2のセンサ位置とを含む鉛直面に垂直な鉛直面であって、基準ポイントを含む鉛直面を、投影面PSとして設定する。
(S101) Acquire the target point cloud from the point cloud division unit 112.
(S102) Among the target point clouds, the point closest to the sensor position of LiDAR2 is set as the reference point.
(S103) A vertical plane perpendicular to the vertical plane including the set reference point and the sensor position of LiDAR2, and the vertical plane including the reference point is set as the projection plane PS.

(S104)投影面PSとLiDAR2のセンサ位置との距離r0と、LiDAR2の角分解能α及びβとから算出されるサイズを有する面パッチSPを生成する。
(S105)各対象ポイントと投影面PSとの距離を算出する。
(S106)算出された距離値を面パッチSP内画素の画素値に決定し、距離画像を生成する。
(S107)距離画像の画素値を所定範囲内の値に規格化する。
(S108)画素値の規格化された距離画像に対し、平滑処理を実施する。
(S104) A surface patch SP having a size calculated from the distance r 0 between the projection surface PS and the sensor position of LiDAR2 and the angular resolutions α and β of LiDAR2 is generated.
(S105) The distance between each target point and the projection plane PS is calculated.
(S106) The calculated distance value is determined as the pixel value of the pixel in the surface patch SP, and a distance image is generated.
(S107) The pixel value of the distance image is standardized to a value within a predetermined range.
(S108) A smoothing process is performed on a distance image having a standardized pixel value.

[対象識別・分類処理]
次に、以上のような処理によって生成・調整された距離画像を用い、当該距離画像に含まれた対象を識別・特定する処理の一実施形態を説明する。
[Target identification / classification processing]
Next, an embodiment of a process of identifying / specifying an object included in the distance image will be described using the distance image generated / adjusted by the above processing.

図1に戻って、対象特定部115は、生成された平滑処理後の距離画像に対し、当該距離画像に含まれている対象を、所定の識別器を用いて特定する。ここで使用可能な識別器の例として、公知の高速R-CNN(Regions with Convolutional Neural Network features)が挙げられる。R−CNNは一般に、FCN(Fully Convolutional Network)によって対象領域候補を決定する領域候補決定部と、CNNによって対象領域候補から特徴量を算出する特徴検出部と、算出された特徴量が適合するラベルを決定するラベル分類部とを含む。 Returning to FIG. 1, the target identification unit 115 identifies the target included in the distance image after the smoothing process by using a predetermined classifier. An example of a classifier that can be used here is a known high-speed R-CNN (Regions with Convolutional Neural Network features). In general, R-CNN is a label in which a region candidate determination unit that determines a target region candidate by FCN (Fully Convolutional Network), a feature detection unit that calculates a feature quantity from a target region candidate by CNN, and a calculated feature quantity match. Includes a label classification unit that determines.

なお、高速R−CNNについては例えば、S. Ren, K. He, R. Girshick, and J. Sun, “Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks”, Proc. of NIPS,2015年において詳細に解説されている。 For high-speed R-CNN, for example, S. Ren, K. He, R. Girshick, and J. Sun, “Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks”, Proc. Of NIPS, It is explained in detail in 2015.

対象特定部115は最初に、予め対象の距離画像と当該対象の正解ラベルとのデータセットをもって学習処理を実施し、R−CNNの学習済み識別モデルを生成する。ここで学習させる対象には、例えば(自動運転技術への適用の場合)、道路走行中に検出される移動体(自動車や歩行者等)が含まれる。 The target identification unit 115 first performs a learning process with a data set of a target distance image and the target correct label in advance, and generates a trained identification model of R-CNN. The target to be learned here includes, for example (in the case of application to autonomous driving technology), a moving body (automobile, pedestrian, etc.) detected while driving on a road.

対象特定部115は、次いで、平滑処理部114から取得された平滑処理後の距離画像を、この学習済み識別モデルに入力する。これにより、出力として、入力した距離画像に係る対象ポイントクラウドに含まれている対象の種別(例えば自動車や歩行者等)を特定したラベルを得るのである。 The target identification unit 115 then inputs the smoothed distance image acquired from the smoothing unit 114 into the trained discriminative model. As a result, as an output, a label specifying the type of the target (for example, a car, a pedestrian, etc.) included in the target point cloud related to the input distance image is obtained.

ここで、R−CNNによれば、入力距離画像内における対象位置を領域候補として個別に検出可能となっている。したがって、対象特定部115は、1つの対象ポイントクラウドが複数の対象の情報を含んでいる場合においても、個々の対象を個別に検出して分類することができる。例えば、互いに近接した複数人の歩行者を含む距離画像についても、歩行者集団としての分類結果(ラベル)を出力することができるのである。 Here, according to R-CNN, the target position in the input distance image can be individually detected as a region candidate. Therefore, the target identification unit 115 can individually detect and classify each target even when one target point cloud contains information on a plurality of targets. For example, it is possible to output a classification result (label) as a pedestrian group even for a distance image including a plurality of pedestrians close to each other.

また、対象特定部115で処理される距離画像は、対象の見かけ(appearance)に基づく対象形状表現となっており、一方、対象特定部115のR-CNN識別モデルも、距離画像の見かけを学習したものとなっている。その結果、分類対象として入力される距離画像において、対象同士のオクルージョン、対象部分の欠損、対象同士の繋がったあいまいな部分(connected blob)や、不完全なグラウンド除去処理等の不都合な現象が多少生じていたとしても、それらの影響を概ね受けることなく、それらの現象に対しても頑健な識別・分類処理を実施することが可能となっている。 Further, the distance image processed by the target identification unit 115 is a target shape representation based on the appearance of the target, while the R-CNN identification model of the target identification unit 115 also learns the appearance of the distance image. It has become. As a result, in the distance image input as the classification target, some inconvenient phenomena such as occlusion between the targets, loss of the target part, an ambiguous part (connected blob) in which the targets are connected, and incomplete ground removal processing occur. Even if it does occur, it is possible to carry out robust identification / classification processing for those phenomena without being affected by them.

すなわち、対象特定部115での識別・分類処理は、例えば幾何学的特徴に基づいた識別・分類を行うわけではないので、分類対象として入力される距離画像において、対象の完全な形状の情報を必要とするものではないのである。 That is, since the identification / classification process in the target identification unit 115 does not perform identification / classification based on, for example, geometric features, information on the complete shape of the target is obtained in the distance image input as the classification target. It's not what you need.

以上説明したように生成された識別・分類結果(及び場合によっては平滑処理された距離画像そのもの)は、装置1に搭載された(例えば自動運転用の)アプリケーション・プログラム(AP)131に取り込まれ、その出力が、入出力インタフェース101を介して、装置1外の各種制御装置や情報処理装置に提供されてもよい。また、例えばユーザによるキーボード106からの表示指示を受けてディスプレイ106に表示されることも可能である。 The identification / classification result (and, in some cases, the smoothed distance image itself) generated as described above is incorporated into the application program (AP) 131 mounted on the device 1 (for example, for automatic driving). The output may be provided to various control devices and information processing devices outside the device 1 via the input / output interface 101. Further, for example, it is possible to receive a display instruction from the keyboard 106 by the user and display it on the display 106.

また、生成された識別・分類結果は、生成される毎に、又は適宜、対象情報記憶部105に記憶され、適宜取り出されて利用されることも好ましい。特に、ここでの分類結果(ラベル)は、対象特定部115における識別器の学習処理に利用することができる。これにより、人手によるラベル付けの負担が大幅に軽減可能となる。 Further, it is also preferable that the generated identification / classification result is stored in the target information storage unit 105 every time it is generated or as appropriate, and is appropriately taken out and used. In particular, the classification result (label) here can be used for the learning process of the classifier in the target identification unit 115. As a result, the burden of manual labeling can be significantly reduced.

以上詳細に説明したように、本発明によれば、測距センサ位置との距離の単調増加関数となるサイズを有する、距離適応的な「面パッチ」を採用することによって、均一性や平滑性を備えており対象の識別・分類により適した画素値分布を有する距離画像を生成することができる。 As described in detail above, according to the present invention, uniformity and smoothness are achieved by adopting a distance-adaptive "plane patch" having a size that is a monotonically increasing function of the distance from the distance measuring sensor position. It is possible to generate a distance image having a pixel value distribution more suitable for identifying and classifying an object.

また、取得された点群(ポイントクラウド)全体を投影して距離画像を生成するのではなく、対象点群毎に距離画像を生成する。その結果、各対象点群とLiDAR2のセンサ位置との距離に個別に適応したサイズを有する面パッチを備えた、後の対象分類に好適な距離画像が実現されるのである。 Further, instead of projecting the entire acquired point cloud (point cloud) to generate a distance image, a distance image is generated for each target point cloud. As a result, a distance image suitable for later target classification is realized, which includes a surface patch having a size individually adapted to the distance between each target point cloud and the sensor position of LiDAR2.

ちなみに、本発明の構成及び方法は、例えば、自動運転車、ドローンや各種ロボット等の分野において、高度な「視覚」の機能を実現するためのダイナミックマッピング技術として応用可能となっている。 Incidentally, the configuration and method of the present invention can be applied as a dynamic mapping technique for realizing advanced "visual" functions in the fields of, for example, autonomous vehicles, drones and various robots.

以上に述べた本発明の種々の実施形態において、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。 In the various embodiments of the present invention described above, various changes, modifications and omissions in the technical idea and the scope of the present invention can be easily made by those skilled in the art. The above explanation is just an example and does not attempt to restrict anything. The present invention is limited only to the scope of claims and their equivalents.

1 対象追跡装置
101 入出力インタフェース
102 ポイントクラウド蓄積部
103 対象ポイントクラウド蓄積部
104 距離画像蓄積部
105 対象情報記憶部
106 キーボード・ディスプレイ(KB・DP)
111 グラウンド除去部
112 ポイントクラウド区分部
113 距離画像生成部
113a 投影面生成部
113b パッチ設定部
114 平滑処理部
115 対象特定部
121 入出力制御部
131 アプリケーション・プログラム(AP)
2 LiDAR

1 Target tracking device 101 Input / output interface 102 Point cloud storage unit 103 Target point cloud storage unit 104 Distance image storage unit 105 Target information storage unit 106 Keyboard display (KB / DP)
111 Ground removal unit 112 Point cloud division unit 113 Distance image generation unit 113a Projection surface generation unit 113b Patch setting unit 114 Smoothing processing unit 115 Target identification unit 121 Input / output control unit 131 Application program (AP)
2 LiDAR

Claims (9)

測距センサによって取得された、対象の情報を含み得る点群から、当該対象を識別する対象識別装置であって、
当該点群を、点データ間の距離に基づいて、互いに隣接した点データの集合である対象点群に区分する点群区分手段と、
当該対象点群に含まれる対象点データが投影された投影面に生成される距離画像であって、投影された位置に、少なくとも当該投影面と前記測距センサとの距離の単調増加関数となるサイズを有する面パッチを設定し、当該面パッチ内の画素値を、当該面パッチに係る対象点データと当該投影面との距離に基づいて決定した距離画像を生成する距離画像生成手段と、
生成された当該距離画像に含まれている対象を、所定の識別器を用いて特定する対象特定手段と
を有することを特徴とする対象識別装置。
An object identification device that identifies an object from a point cloud that can contain information about the object acquired by a distance measuring sensor.
A point cloud classification means for classifying the point cloud into a target point cloud which is a set of point data adjacent to each other based on the distance between the point data.
The target point data included in the target point group is a distance image generated on the projected projection surface, and is a monotonically increasing function of at least the distance between the projection surface and the distance measuring sensor at the projected position. A distance image generation means that sets a surface patch having a size and generates a distance image in which the pixel values in the surface patch are determined based on the distance between the target point data related to the surface patch and the projection surface .
An object identification device having an object identification means for identifying an object included in the generated distance image by using a predetermined classifier.
前記距離画像生成手段は、当該対象点群のうちで前記測距センサに最も近い対象点データである基準点データと前記測距センサとを含む鉛直面に垂直な鉛直面であって、当該基準点データを含む鉛直面である当該投影面に、当該距離画像を生成することを特徴とする請求項1に記載の対象識別装置。 The distance image generating means is a vertical plane perpendicular to the vertical plane including the reference point data which is the target point data closest to the ranging sensor in the target point group and the ranging sensor, and the reference. The object identification device according to claim 1, wherein a distance image is generated on the projection surface which is a vertical plane including point data. 前記距離画像生成手段は、当該投影面と前記測距センサとの距離と、前記測距センサに係る分解能とについて単調増加関数となるサイズを有する面パッチを設定することを特徴とする請求項1又は2に記載の対象識別装置。 Claim 1 is characterized in that the distance image generation means sets a surface patch having a size that becomes a monotonically increasing function with respect to the distance between the projection surface and the distance measurement sensor and the resolution related to the distance measurement sensor. Or the target identification device according to 2. 前記距離画像生成手段は、当該面パッチに係る対象点データと当該投影面との距離を、当該対象点データにおける前記測距センサからの距離及び方向に係る情報に基づいて算出することを特徴とする請求項1から3のいずれか1項に記載の対象識別装置。 The distance image generating means is characterized in that the distance between the target point data related to the surface patch and the projected surface is calculated based on the information related to the distance and direction from the distance measuring sensor in the target point data. The target identification device according to any one of claims 1 to 3. 当該点群から所定の平滑条件を満たす平滑点群を抽出して、当該平滑点群から鉛直方向に垂直な面を構成するグラウンド点群を抽出し、当該平滑点群のうちで当該グラウンド点群の近傍となる点群部分と、当該グラウンド点群とを、当該点群から除去するグラウンド除去手段を更に有し、
前記点群区分手段は、前記グラウンド除去手段によって処理された当該点群を、対象点群に分類する
ことを特徴とする請求項1から4のいずれか1項に記載の対象識別装置。
A smooth point cloud satisfying a predetermined smoothing condition is extracted from the point cloud, a ground point cloud constituting a plane perpendicular to the vertical direction is extracted from the smooth point cloud, and the ground point cloud is included in the smooth point cloud. Further has a ground removing means for removing the point cloud portion in the vicinity of the point cloud and the ground point cloud from the point cloud.
The target identification device according to any one of claims 1 to 4, wherein the point cloud classification means classifies the point cloud processed by the ground removing means into a target point group.
生成された当該距離画像の画素値に対して平滑処理を行う平滑処理手段を更に有し、
前記対象特定手段は、平滑処理後の当該距離画像に含まれた対象を特定する
ことを特徴とする請求項1から5のいずれか1項に記載の対象識別装置。
Further having a smoothing processing means for performing smoothing processing on the pixel value of the generated distance image,
The target identification device according to any one of claims 1 to 5, wherein the target identification means identifies a target included in the distance image after smoothing.
前記測距センサは、LiDAR(Light Detection and Ranging)デバイスであることを特徴とする請求項1から6のいずれか1項に記載の対象識別装置。 The target identification device according to any one of claims 1 to 6, wherein the range finder is a LiDAR (Light Detection and Ranging) device. 測距センサによって取得された、対象の情報を含み得る点群から、当該対象を識別する装置に搭載されたコンピュータを機能させるプログラムであって、
当該点群を、点データ間の距離に基づいて、互いに隣接した点データの集合である対象点群に区分する点群区分手段と、
当該対象点群に含まれる対象点データが投影された投影面に生成される距離画像であって、投影された位置に、少なくとも当該投影面と前記測距センサとの距離の単調増加関数となるサイズを有する面パッチを設定し、当該面パッチ内の画素値を、当該面パッチに係る対象点データと当該投影面との距離に基づいて決定した距離画像を生成する距離画像生成手段と、
生成された当該距離画像に含まれている対象を、所定の識別器を用いて特定する対象特定手段と
としてコンピュータを機能させることを特徴とする対象識別プログラム。
A program that activates a computer mounted on a device that identifies an object from a point cloud that can contain information about the object acquired by a distance measuring sensor.
A point cloud classification means for classifying the point cloud into a target point cloud which is a set of point data adjacent to each other based on the distance between the point data.
The target point data included in the target point group is a distance image generated on the projected projection surface, and is a monotonically increasing function of at least the distance between the projection surface and the distance measuring sensor at the projected position. A distance image generation means that sets a surface patch having a size and generates a distance image in which the pixel values in the surface patch are determined based on the distance between the target point data related to the surface patch and the projection surface .
An object identification program characterized in that a computer functions as an object identification means for identifying an object included in the generated distance image by using a predetermined classifier.
測距センサによって取得された、対象の情報を含み得る点群から、当該対象を識別する装置に搭載されたコンピュータにおける対象識別方法であって、
当該点群を、点データ間の距離に基づいて、互いに隣接した点データの集合である対象点群に区分するステップと、
当該対象点群に含まれる対象点データが投影された投影面に生成される距離画像であって、投影された位置に、少なくとも当該投影面と前記測距センサとの距離の単調増加関数となるサイズを有する面パッチを設定し、当該面パッチ内の画素値を、当該面パッチに係る対象点データと当該投影面との距離に基づいて決定した距離画像を生成するステップと、
生成された当該距離画像に含まれている対象を、所定の識別器を用いて特定するステップと
を有することを特徴とする対象識別方法。
It is an object identification method in a computer mounted on a device for identifying an object from a point cloud that can include information on the object acquired by a distance measuring sensor.
A step of dividing the point cloud into a target point cloud, which is a set of point data adjacent to each other, based on the distance between the point data.
The target point data included in the target point group is a distance image generated on the projected projection surface, and is a monotonically increasing function of at least the distance between the projection surface and the distance measuring sensor at the projected position. A step of setting a surface patch having a size and generating a distance image in which the pixel values in the surface patch are determined based on the distance between the target point data related to the surface patch and the projection surface .
An object identification method comprising: a step of identifying an object included in the generated distance image by using a predetermined classifier.
JP2017238396A 2017-12-13 2017-12-13 Target identification device, program and method for identifying a target from a point cloud Active JP6826023B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017238396A JP6826023B2 (en) 2017-12-13 2017-12-13 Target identification device, program and method for identifying a target from a point cloud

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017238396A JP6826023B2 (en) 2017-12-13 2017-12-13 Target identification device, program and method for identifying a target from a point cloud

Publications (2)

Publication Number Publication Date
JP2019106034A JP2019106034A (en) 2019-06-27
JP6826023B2 true JP6826023B2 (en) 2021-02-03

Family

ID=67061375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017238396A Active JP6826023B2 (en) 2017-12-13 2017-12-13 Target identification device, program and method for identifying a target from a point cloud

Country Status (1)

Country Link
JP (1) JP6826023B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110488261B (en) * 2019-08-23 2023-05-26 南京理工大学 LiDAR-based shelf positioning hole detection device and method
US11100702B2 (en) * 2019-12-27 2021-08-24 Industrial Technology Research Institute 3D image labeling method based on labeling information of 2D image and 3D image labeling device
CN111353409B (en) * 2020-02-25 2023-05-02 达闼机器人股份有限公司 Container identification method, device and robot
KR102517093B1 (en) * 2020-12-09 2023-04-04 주식회사 씨에스아이비젼 3d terrain information analyzer using deep learning
WO2022196511A1 (en) * 2021-03-16 2022-09-22 パイオニア株式会社 Information processing device, information processing method, and program
CN114384492B (en) * 2022-03-24 2022-06-24 北京一径科技有限公司 Point cloud processing method and device for laser radar and storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9396545B2 (en) * 2010-06-10 2016-07-19 Autodesk, Inc. Segmentation of ground-based laser scanning points from urban environment
JP6064674B2 (en) * 2013-02-28 2017-01-25 株式会社デンソー Object recognition device
JP6625446B2 (en) * 2016-03-02 2019-12-25 株式会社神戸製鋼所 Disturbance removal device
JP6736931B2 (en) * 2016-03-24 2020-08-05 日産自動車株式会社 Three-dimensional object detection method and three-dimensional object detection device

Also Published As

Publication number Publication date
JP2019106034A (en) 2019-06-27

Similar Documents

Publication Publication Date Title
JP6826023B2 (en) Target identification device, program and method for identifying a target from a point cloud
US11915502B2 (en) Systems and methods for depth map sampling
Chen et al. Gaussian-process-based real-time ground segmentation for autonomous land vehicles
KR102109941B1 (en) Method and Apparatus for Vehicle Detection Using Lidar Sensor and Camera
CN110163904B (en) Object labeling method, movement control method, device, equipment and storage medium
EP3440428B1 (en) Remote determination of quantity stored in containers in geographical region
US10210286B1 (en) Systems and methods for detecting curbs in three-dimensional point clouds descriptive of streets
US20180232900A1 (en) Remote determination of containers in geographical region
CN104035439B (en) BAYESIAN NETWORK TO TRACK OBJECTS USING SCAN POINTS USING MULTIPLE LiDAR SENSORS
Yao et al. Extraction and motion estimation of vehicles in single-pass airborne LiDAR data towards urban traffic analysis
US11151788B2 (en) Systems and methods for presenting a reconstructed representation of a moving object detected in a scene
Ma et al. Capsule-based networks for road marking extraction and classification from mobile LiDAR point clouds
JP2014512591A (en) Image processing
KR102269750B1 (en) Method for Real-time Object Detection Based on Lidar Sensor and Camera Using CNN
JP6906471B2 (en) Target information estimation device, program and method for estimating the direction of a target from a point cloud
Ding et al. Fast lane detection based on bird’s eye view and improved random sample consensus algorithm
US11610409B2 (en) Systems and methods for computer-based labeling of sensor data captured by a vehicle
KR101548639B1 (en) Apparatus for tracking the objects in surveillance camera system and method thereof
KR102619326B1 (en) Apparatus and Method for Detecting Vehicle using Image Pyramid
WO2020127151A1 (en) Method for improved object detection
KR20230026130A (en) Single stage 3-Dimension multi-object detecting apparatus and method for autonomous driving
Lin et al. CNN-based classification for point cloud object with bearing angle image
Nagy et al. ChangeGAN: A deep network for change detection in coarsely registered point clouds
CN111382637A (en) Pedestrian detection tracking method, device, terminal equipment and medium
Qing et al. A novel particle filter implementation for a multiple-vehicle detection and tracking system using tail light segmentation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210114

R150 Certificate of patent or registration of utility model

Ref document number: 6826023

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150