JP7227227B2 - Object identification system, automobile, vehicle lighting - Google Patents
Object identification system, automobile, vehicle lighting Download PDFInfo
- Publication number
- JP7227227B2 JP7227227B2 JP2020513448A JP2020513448A JP7227227B2 JP 7227227 B2 JP7227227 B2 JP 7227227B2 JP 2020513448 A JP2020513448 A JP 2020513448A JP 2020513448 A JP2020513448 A JP 2020513448A JP 7227227 B2 JP7227227 B2 JP 7227227B2
- Authority
- JP
- Japan
- Prior art keywords
- point
- points
- distance
- identification system
- object identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q1/00—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
- B60Q1/02—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
- B60Q1/04—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q1/00—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
- B60Q1/02—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
- B60Q1/04—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
- B60Q1/14—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Networks & Wireless Communication (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Lighting Device Outwards From Vehicle And Optical Signal (AREA)
- Image Analysis (AREA)
Description
本発明は、オブジェクト識別システムに関する。 The present invention relates to object identification systems.
自動車のセンサとして、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、カメラ、ミリ波レーダ、超音波ソナーなどが候補として挙げられる。このなかでLiDARは、そのほかのセンサと比較して、(i)点群データによる物体認識が可能であること、(ii)アクティブセンシングであるが故の悪天候時にも高精度な検出が可能であること、(iii)広範囲の測定が可能であること、などの利点を有しており、今後、自動車のセンシングシステムにおける主流となることが期待されている。 Candidates for automobile sensors include LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging), cameras, millimeter wave radars, ultrasonic sonars, and the like. Compared to other sensors, LiDAR is capable of (i) object recognition based on point cloud data, and (ii) high-precision detection even in bad weather due to active sensing. and (iii) the ability to measure over a wide range.
図1は、LiDAR2を用いた測距システム1を示す図である。LiDAR2は、垂直方向にN本の解像度を有し、各レイヤL1~LNは、水平方向にΔθ度の解像度を有する。LiDAR2から出射した光は、オブジェクトOBJより反射される。LiDAR2が生成する点群データは、LiDAR2と各点piとの距離riを表す。FIG. 1 is a diagram showing a ranging
点群データは、オブジェクトの形状を表すため、点群データを処理することにより、オブジェクトの種類(車両、歩行者など)を判定できる。 Since the point cloud data represents the shape of the object, the type of object (vehicle, pedestrian, etc.) can be determined by processing the point cloud data.
LiDARが生成する点群データにもとづくオブジェクトの識別では、その前処理として、点群データを、オブジェクトごとに切り分けるクラスタリングが行われる。図2は、従来のクラスタリングのアルゴリズムを説明する図である。図2には、測定系を上方から見た平面図が示される。このアルゴリズムでは、点群データの中のある点(着目点という)に着目したときに、着目点を中心とした半径rの球に含まれる点を、同じクラスタに分類する。このアルゴリズムは、自動運転システム用オープンソースソフトウェアとして知られるAutowareにおいても採用されている(非特許文献1)。 In object identification based on point cloud data generated by LiDAR, as preprocessing, clustering is performed to divide the point cloud data for each object. FIG. 2 is a diagram for explaining a conventional clustering algorithm. FIG. 2 shows a plan view of the measurement system viewed from above. In this algorithm, when a certain point (referred to as a point of interest) in the point cloud data is focused, the points included in a sphere with a radius of r centered on the point of interest are classified into the same cluster. This algorithm is also used in Autoware known as open source software for autonomous driving systems (Non-Patent Document 1).
この例では、同じレイヤ上の5つの点p1~p5を簡略化して示しており、点p1~p3がオブジェクトOBJ1上に位置し、点p4,p5がオブジェクトOBJ2上に位置している。点p2は、点p1を中心とした半径rの球に含まれており、点p3は点p2を中心とする半径rの球に含まれているから、点p1~p3は、同一クラスタと判定される。また、点p5は、点p4を中心とした半径rの球に含まれているから、点p4,p5は、同一クラスタと判定される。点p3と点p4の距離はrより大きいため、点p1~p3と、点p4,p5は異なるオブジェクトとされる。In this example, five points p 1 to p 5 on the same layer are shown in a simplified manner, points p 1 to p 3 are located on object OBJ1, and points p 4 and p 5 are located on object OBJ2. are doing. Point p 2 is included in the sphere with radius r centered at point p 1 , and point p 3 is included in the sphere with radius r centered at point p 2 . are determined to be the same cluster. Also, since the point p 5 is included in the sphere with the radius r centered at the point p 4 , the points p 4 and p 5 are determined as being in the same cluster. Since the distance between points p 3 and p 4 is greater than r, points p 1 to p 3 and points p 4 and p 5 are treated as different objects.
本発明者は、従来のクラスタリングアルゴリズムについて検討した結果、以下の課題を認識するに至った。 As a result of examining conventional clustering algorithms, the inventors have come to recognize the following problems.
<第1の課題>
LiDARによって取得されるのは、LiDARと各点piの間の距離riであるところ、このアルゴリズムでは、点piと点pjの距離を計算する必要があり、計算コストが高くなる。<First issue>
What is obtained by the LiDAR is the distance r i between the LiDAR and each point p i , while this algorithm needs to calculate the distance between the points p i and p j , which is computationally expensive.
また図2では、同じレイヤ上の点同士を比較しているが、異なる高さの点同士も比較する必要がある。点群データがM×N個のマトリクスで与えられる場合、2点の組み合わせは、M×NC2=(M×N)(M×N-1)/2であるから、測距点の数が増えると計算コストが爆発的に増加する。kd-treeなどの探索アルゴリズムを用いたとしても、処理には高速なプロセッサが必要となる。In addition, although points on the same layer are compared in FIG. 2, it is also necessary to compare points on different heights. When the point cloud data is given by M×N matrices, the combination of two points is M×N C 2 =(M×N)(M×N−1)/2. increases, the computational cost increases exponentially. Even if a search algorithm such as kd-tree is used, a high-speed processor is required for processing.
<第2の課題>
図3(a)は、測距システム1を横から見た図である。車載あるいは交通インフラに識別システムを実装する場合、LiDARからオブジェクトまでの距離は、数m~数百mの範囲で変化する。オブジェクトOBJ’までの距離が遠い場合、下の方のレイヤの大半はオブジェクトOBJ’ではなく地面に照射されることとなる。したがってすべての測距点を探索対象とすることは場合によっては無駄である。<Second issue>
FIG. 3A is a side view of the ranging
<第3の課題>
図3(b)は、測距システム1を上から見た図である。図3(b)のようなケースでは、点p4と点p5は、同じオブジェクトOBJ2上の点であるにも関わらず、それらの距離は半径rより大きくなる。したがって点p4と点p5は、別クラスタ6_2,6_3と誤判定される。<Third issue>
FIG. 3(b) is a top view of the
本発明は係る状況においてなされたものであり、そのある態様の例示的な目的のひとつは、少ない演算量でクラスタリング可能なシステム、装置、方法の提供にある。 The present invention has been made in such a situation, and one exemplary object of certain aspects thereof is to provide a system, apparatus, and method capable of clustering with a small amount of computation.
本発明のある態様は、複数の点それぞれまでの距離を示す点群データを生成する3次元センサと、点群データのうち1つのレイヤを形成する点群にもとづいてオブジェクトをクラスタリングする演算処理装置と、を備える。 An aspect of the present invention includes a three-dimensional sensor that generates point cloud data indicating distances to each of a plurality of points, and an arithmetic processing unit that clusters objects based on the point cloud that forms one layer of the point cloud data. And prepare.
本発明によれば、少ない演算量でクラスタリングが可能となる。 According to the present invention, clustering can be performed with a small amount of calculation.
(実施の形態の概要)
本明細書に開示される一実施の形態は、オブジェクト識別システムに関する。オブジェクト識別システムは、複数の点それぞれまでの距離を示す点群データを生成する3次元センサと、点群データのうち1つのレイヤを形成する点群にもとづいてオブジェクトをクラスタリングする演算処理装置と、を備える。(Overview of Embodiment)
One embodiment disclosed herein relates to an object identification system. The object identification system includes a three-dimensional sensor that generates point cloud data indicating distances to each of a plurality of points, an arithmetic processing unit that clusters objects based on the point cloud that forms one layer of the point cloud data, Prepare.
交通に関連して識別すべきオブジェクトの多くは、地面に接してそれより上方に位置する。つまり、同じ位置に上下に2個の異なるオブジェクトが存在することは基本的には生じない。そこで、適切な高さのレイヤのみに着目してクラスタリングを行うことで、演算量を大幅に減らすことができる。 Many of the objects to be identified in relation to traffic are located above and above the ground. In other words, it basically does not occur that two different objects exist above and below the same position. Therefore, the amount of calculation can be greatly reduced by performing clustering focusing only on layers with appropriate heights.
1つのレイヤは、3次元センサから実質的に水平に位置してもよい。言い換えれば、1つのレイヤは、3次元センサからの仰俯角が実質的にゼロのレイヤである。これにより、オブジェクトまでの距離に関わらず、当該レイヤの地面からの高さを実質的に一定とすることができる。また、車載用途においてヘッドライトやバンパーの高さに3次元センサを設置した場合、1つのレイヤは、人間の脚(もしくは腰)、車両のヘッドライトやバンパーの高さを横切ることになるため、識別すべきオブジェクトを確実に捉えることができる。 One layer may lie substantially horizontally from the three-dimensional sensor. In other words, one layer is the layer for which the elevation/depression angle from the three-dimensional sensor is substantially zero. This allows the height of the layer from the ground to be substantially constant regardless of the distance to the object. Also, if a 3D sensor is installed at the height of a headlight or bumper in an automotive application, one layer will cross the human leg (or waist) and the height of the vehicle headlight or bumper. Objects to be identified can be captured reliably.
演算処理装置は、1つのレイヤを形成する点群のうち隣接する2点に着目したときに、各点までの距離の差がしきい値より小さいときに、2点を同一クラスタと判定してもよい。これにより、2点間の距離を演算する必要がなくなるため、演算量をさらに減らすことができる。 Focusing on two adjacent points in a group of points forming one layer, the arithmetic processing unit determines that the two points are in the same cluster when the difference in distance to each point is smaller than a threshold value. good too. Since this eliminates the need to calculate the distance between two points, the amount of calculation can be further reduced.
LiDARなどの3次元センサは、水平方向に放射状にレーザビームを放射する。あるオブジェクトがLiDARに近いとき、隣接する2本のレーザビームは、オブジェクト上の、距離が相対的に近い2点に照射され、そのオブジェクトがLiDARから遠ざかると、同じ隣接する2本のレーザビームが照射される2点の距離は遠ざかる。そこでしきい値は、距離に応じて可変とするよく、しきい値は、距離が遠いほど大きくてもよい。しきい値は、同一クラスタに含まれる点までの距離の平均値に応じていてもよい。 Three-dimensional sensors such as LiDAR emit laser beams radially in the horizontal direction. When an object is close to the LiDAR, two adjacent laser beams are projected onto two relatively close points on the object, and when the object moves away from the LiDAR, the same two adjacent laser beams are projected onto the object. The distance between the two irradiated points increases. Therefore, the threshold value may be variable according to the distance, and the threshold value may be increased as the distance increases. The threshold value may correspond to the average distance to points included in the same cluster.
演算処理装置は、間隔が所定値以下の非隣接関係にある第1点と第2点に着目したときに、第1点までの距離と第2点までの距離の差がしきい値より小さいときに、第1点と第2点を同一クラスタと判定してもよい。非隣接の2点についても比較対象とすることで、ノイズの影響を抑制できる。また探索範囲を所定値をパラメータとして制限することで、演算量の増加を抑制できる。 When focusing on the first point and the second point that are in a non-adjacent relationship with an interval equal to or less than a predetermined value, the arithmetic processing unit has a difference between the distance to the first point and the distance to the second point that is smaller than a threshold. Sometimes, the first point and the second point may be determined to be the same cluster. By comparing two non-adjacent points as well, the influence of noise can be suppressed. Also, by limiting the search range to a predetermined value as a parameter, an increase in the amount of calculation can be suppressed.
(実施の形態)
以下、本発明を好適な実施の形態をもとに図面を参照しながら説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、実施の形態は、発明を限定するものではなく例示であって、実施の形態に記述されるすべての特徴やその組み合わせは、必ずしも発明の本質的なものであるとは限らない。(Embodiment)
BEST MODE FOR CARRYING OUT THE INVENTION The present invention will be described below based on preferred embodiments with reference to the drawings. The same or equivalent constituent elements, members, and processes shown in each drawing are denoted by the same reference numerals, and duplication of description will be omitted as appropriate. Moreover, the embodiments are illustrative rather than limiting the invention, and not all features and combinations thereof described in the embodiments are necessarily essential to the invention.
図4は、実施の形態に係るオブジェクト識別システム10のブロック図である。このオブジェクト識別システム10は、自動車やバイクなどの車両に搭載される車載用であり、車両の周囲に存在するオブジェクトOBJの種類(カテゴリともいう)を判定する。
FIG. 4 is a block diagram of
オブジェクト識別システム10は、主として3次元センサ20および演算処理装置40を備える。3次元センサ20は、前方のオブジェクトOBJの表面上の複数の点までの距離を示す点群データS1を生成する。オブジェクトOBJからの反射が測定できない点については、所定値(負、ゼロあるいは無限大)として測定される。
The
演算処理装置40は、点群データS1にもとづいて、オブジェクト識別システム10の前方に存在するオブジェクトOBJ1,OBJ2・・・の種類を判定する(カテゴライズ)。カテゴライズの前処理として、点群データS1を、オブジェクトOBJ1,OBJ2,…ごとのサブデータS2_1,S2_2,…に切り分ける処理が行われる(クラスタライズという)。
Based on the point cloud data S1, the
3次元センサ20は特に限定されないが、歩行者など凹凸の小さいオブジェクトを正確に識別したい場合には、LiDARを用いることが好ましい。LiDARの構成は特に限定されず、走査型、非走査型であるとを問わない。
Although the three-
演算処理装置40は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)、マイコンなどのプロセッサ(ハードウェア)と、プロセッサ(ハードウェア)が実行するソフトウェアプログラムの組み合わせで実装することができる。演算処理装置40は、複数のプロセッサの組み合わせであってもよい。
The
演算処理装置40は、メモリ42、クラスタライズ部44、切り出し部46、カテゴライズ部48を含む。点群データS1は、メモリ42に格納される。クラスタライズ部44は、各オブジェクトOBJが存在する水平方向の位置(範囲)を判定する。
The
切り出し部46は、クラスタライズ部44のクラスタライズの結果にもとづいて、点群データS1を、オブジェクトごとのサブデータS2に切り分ける。
The
カテゴライズ部48は、サブデータS2_1,S2_2,…それぞれについて、それに含まれるオブジェクトの種類を判定する。
The categorizing
図5は、クラスタライズを説明する図である。矩形S1は、3次元センサ20が生成する点群データを示す。また矩形S2_1,S2_2は、サブデータを示す。
FIG. 5 is a diagram for explaining clusterization. A rectangle S1 indicates point cloud data generated by the three-
続いて、クラスタリングについて説明する。
3次元センサ20が取得する点群データS1は、地上からの高さの異なる点群、言い換えれば3次元センサ20から見た仰俯角の異なる点群の集合とみなすことができ、同一の高さの複数の点の集合を「レイヤ」と称することとする。演算処理装置40(クラスタライズ部44)は、すべての点群データS1ではなく、点群データS1のうち、注目すべき1つのレイヤLxを形成する点群にもとづいてオブジェクトをクラスタリングする。Next, clustering will be explained.
The point cloud data S1 acquired by the three-
クラスタリングに際して注目すべき1つのレイヤLxは、3次元センサ20から実質的に水平に位置することが好ましい。以下、注目するレイヤLxを水平レイヤとも称する。水平レイヤは、言い換えれば仰俯角がゼロに近いレイヤと把握できる。これにより、オブジェクトOBJまでの距離に依存せずに、測定点の高さを一定にできる。
One layer Lx of interest for clustering is preferably positioned substantially horizontally from the three-
交通に関連して識別すべきオブジェクトOBJ(歩行者や自動車)の多くは、地面に接してそれより上方に位置する。つまり、同じ位置に上下に2個の異なるオブジェクトが存在することは基本的には生じない。そこで適切な高さのレイヤのみに着目してクラスタリングを行うことで、演算量を大幅に減らすことができる。 Many of the objects OBJ (pedestrians and automobiles) to be identified in relation to traffic are located above and in contact with the ground. In other words, it basically does not occur that two different objects exist above and below the same position. Therefore, the amount of calculation can be greatly reduced by performing clustering focusing only on layers with appropriate heights.
図6は、水平レイヤに基づくクラスタリングの具体例を示す図である。図6には、レイヤLxを形成する点群p1,p2,p3,p4のみが示される。オブジェクトOBJ1,OBJ2の形状は、図2(b)のオブジェクトOBJ1,OBJ2と同じである。FIG. 6 is a diagram showing a specific example of clustering based on horizontal layers. FIG. 6 shows only the point cloud p 1 , p 2 , p 3 , p 4 forming the layer Lx. Objects OBJ1 and OBJ2 have the same shape as objects OBJ1 and OBJ2 in FIG. 2(b).
演算処理装置40(クラスタライズ部44)は、1つのレイヤLx上の点のうち隣接する2点pi,pi+1に着目したときに、各点pi,pi+1までの距離ri,ri+1の差di,i+1=|ri-ri+1|がしきい値thより小さいときに、2点pi,pi+1を同一クラスタにクラスタリングする。図6の例では、点p1,p2が同一クラスタ6_1と判定され、点p3,p4が同一クラスタ6_2と判定される。When focusing on adjacent two points p i and p i+1 among points on one layer Lx, the arithmetic processing unit 40 (clustering unit 44) calculates the distances r i and r to each of the points p i and p i+1 When the difference d i,i+1 = |r i −r i+1 | of i+1 is smaller than the threshold value th, the two points p i and p i+1 are clustered into the same cluster. In the example of FIG. 6, points p 1 and p 2 are determined to be the same cluster 6_1, and points p 3 and p 4 are determined to be the same cluster 6_2.
第3の課題に関連して、図6と図3(b)の対比から、実施の形態に係るクラスタリングの利点の一つが明らかになる。図3(b)に示すように点p3とp4の距離が所定の半径rより大きく、従来方法では、同一クラスタと判定することはできない。これに対して、図6では、点p3,p4と3次元センサ20の距離の差d3,4に着目するため、図3の半径rと等しいしきい値thを適用した場合であっても、2つの点p3,p4を同一クラスタと判定することができる。従来方式においても半径rを大きくすれば同じ結果が得られるが、大きな半径rは、異なるオブジェクト上の点を同一クラスタと誤判定する要因となる。一方、本実施の形態では、しきい値thを大きくする必要がないため、誤判定を抑制できると理解することもできる。Regarding the third problem, one of the advantages of the clustering according to the embodiment becomes clear from a comparison between FIG. 6 and FIG. 3(b). As shown in FIG. 3(b), the distance between points p3 and p4 is greater than the predetermined radius r, and the conventional method cannot determine that they are the same cluster. On the other hand, in FIG. 6, in order to focus on the
しきい値thは、距離rに応じて可変(スケーリング)するとよい。図7(a)は、オブジェクトまでの距離と、オブジェクト上の2点p1,p2の距離の差d1,2を説明する図である。あるオブジェクトOBJがLIDAR2に近い位置(図中、左側)にあるとき、隣接するレーザビームLB1,LB2が照射されるオブジェクトOBJ上の2点p1,p2までの距離はr1,r2であり、それらの差d1,2は、r2-r1となる。The threshold th may be varied (scaled) according to the distance r. FIG. 7A is a diagram for explaining the difference d1,2 between the distance to an object and the distances between two points p1 and p2 on the object. When an object OBJ is located near LIDAR2 (on the left side in the figure), the distances to two points p1 and p2 on the object OBJ irradiated by adjacent laser beams LB1 and LB2 are r1 and r 2 and their difference d 1,2 is r 2 −r 1 .
同じオブジェクトOBJがLIDAR2から相対的に遠い位置(図中、右側)に位置する場合を考える。このとき、オブジェクトOBJのレーザビームLB1の照射位置は同じ(p1’=p1)であるが、レーザビームLB2の照射位置p2’は、元の位置p2からずれる(p2’≠p2)。Consider the case where the same object OBJ is positioned relatively far from LIDAR2 (on the right side in the figure). At this time, the irradiation position of the laser beam LB 1 on the object OBJ is the same (p 1 ′=p 1 ), but the irradiation position p 2 ′ of the laser beam LB 2 is shifted from the original position p 2 (p 2 ′ ≠ p 2 ).
つまりオブジェクトOBJがLiDARに近いとき、隣接する2本のレーザビームは、オブジェクト上の、距離が相対的に近い2点p1,p2に照射され、そのオブジェクトがLiDARから遠ざかると、同じ隣接する2本のレーザビームが照射される2点p1、p2の距離は遠ざかる。図7(b)は、オブジェクトまでの距離と、2点までの距離の差の関係を示す図である。オブジェクトOBJが遠いときの2つの点p1’,p2’の距離の差d1,2’は、オブジェクトOBJが近いときの2つの点p1,p2の距離の差d1,2より大きくなる。That is, when the object OBJ is close to the LiDAR, two adjacent laser beams are applied to two points p1 and p2 on the object that are relatively close to each other, and when the object moves away from the LiDAR, the same adjacent laser beams are applied. The distance between the two points p 1 and p 2 irradiated with the two laser beams increases. FIG. 7B is a diagram showing the relationship between the distance to an object and the difference in distance to two points. The distance difference d 1,2 ′ between the two points p 1 ′ and p 2 ′ when the object OBJ is far is greater than the distance difference d 1,2 between the two points p 1 and p 2 when the object OBJ is near. growing.
つまりオブジェクトOBJまでが近いときを基準として定めたしきい値thを、遠方のオブジェクトにも適用すると、同じオブジェクト上の2点p1’、p2’を、異なるオブジェクトと誤判定する可能性がある。そこで図7(c)に示すように、距離rが長いほど、しきい値thを大きくとるとよい。これにより、オブジェクトまでの距離に依存せずに、正確なクラスタリングが可能となる。In other words, if the threshold value th determined with reference to when the object OBJ is close is applied to a distant object, there is a possibility that two points p 1 ′ and p 2 ′ on the same object are erroneously determined to be different objects. be. Therefore, as shown in FIG. 7C, the longer the distance r, the larger the threshold th. This allows accurate clustering independent of the distance to the object.
しきい値thは、それまでに同一クラスタと判定されている複数の点までの距離の平均値に応じて設定してもよい。 The threshold th may be set according to the average value of the distances to a plurality of points that have been determined to belong to the same cluster.
別の実施例において、比較対象となる2点pi,pi+1までの距離ri,ri+1を、一方の距離ri(またはそれに近い値)で除算して正規化し、正規化した距離の差分(1-ri/r1+1)を、しきい値と比較してもよい。この場合のしきい値は、オブジェクトまでの距離に依存せずに一定とすることができる。In another embodiment, the distances r i and r i+1 to the two points p i and p i+1 to be compared are normalized by dividing by one distance r i (or a value close to it), and the normalized distance The difference (1−r i /r 1+1 ) may be compared to a threshold. The threshold value in this case can be constant regardless of the distance to the object.
演算処理装置40は、間隔が所定値K以下である非隣接関係にある第1点piと第2点pjに着目したときに、第1点piまでの距離riと第2点pjまでの距離rjの差di,jがしきい値thより小さいときに、第1点piと第2点pjを同一クラスタとする。言い換えれば、第2点pjは、第1点piから最大K個(K≪M)、離れることが許容される。Mは、3次元センサ20の水平方向の解像度である。たとえばKは、2~5程度としてもよい。When focusing on a first point p i and a second point p j that are in a non-adjacent relationship with an interval equal to or less than a predetermined value K, the
図8は、クラスタライズ部44の処理の一例を示すフローチャートである。水平レイヤLxを形成する点群を、端から順にナンバリングする(S100)。反射(距離)の検出できない点については、番号を付与しないこととしてもよい。
FIG. 8 is a flow chart showing an example of the processing of the
続いて、変数iを初期化し(S102)、変数jを初期化する(S104)。2点pi,pjの距離ri,rjの差分di,jがしきい値thと比較される(S106)。差分di,jがしきい値thより小さいとき、点pi,pjは同一クラスタと判定され、クラスタキューに格納される(S108)。差分di,jがしきい値thより大きいとき、点pi,pjは同一クラスタと判定され、クラスタキューに格納される(S108)。なお、過去の判定の結果、2点pi,pjがクラスタキューに格納済みの場合、比較処理は省略することができる。Subsequently, the variable i is initialized (S102), and the variable j is initialized (S104). The difference d i , j between the distances r i , r j between the two points p i , p j is compared with the threshold value th (S106). When the difference d i,j is smaller than the threshold value th, the points p i , p j are determined to be in the same cluster and stored in the cluster queue (S108). When the difference d i,j is greater than the threshold value th, the points p i , p j are determined to be in the same cluster and stored in the cluster queue (S108). Note that if the two points p i and p j have already been stored in the cluster queue as a result of past determination, the comparison process can be omitted.
j≦i+Kのとき(S110のN)、jを1インクリメントし、第2点を次の点に移動して、処理S106に戻る。反対にj>i+Kのとき(S110のY)、iをインクリメントして第1点piをシフトし、処理S104に戻る。When j≤i+K (N in S110), j is incremented by 1, the second point is moved to the next point, and the process returns to step S106. Conversely, when j>i+K (Y in S110), i is incremented to shift the first point pi , and the process returns to step S104.
図9(a)、(b)は、図8のフローチャートに基づくクラスタリングを説明する図である。図9(a)は、クラスタリングの対象となる水平レイヤを示す図であり、横軸が番号を、縦軸が距離を表す。図9(b)は、比較結果と、クラスタキューを示す図である。 FIGS. 9A and 9B are diagrams for explaining clustering based on the flowchart of FIG. FIG. 9A is a diagram showing horizontal layers to be clustered, where the horizontal axis represents numbers and the vertical axis represents distances. FIG. 9B is a diagram showing comparison results and cluster queues.
この例ではK=3とした。図9(b)において破線は、比較対象がクラスタリング済みの場合に比較が省略されることを示す。図9(a)の場合、点p1~p6が同一クラスタと判定され、点p7,p8が同一クラスタと判定される。In this example, K=3. A broken line in FIG. 9B indicates that the comparison is omitted when the comparison target has already been clustered. In the case of FIG. 9A, points p 1 to p 6 are determined to be in the same cluster, and points p 7 and p 8 are determined to be in the same cluster.
図8の処理において、反射(距離)の検出できない点については、番号を付与しないこととする場合、実質的に同じ距離に、複数のオブジェクト(人や自動車)が水平方向に離れて存在する状況下で、それらを同一のオブジェクトとして誤ってクラスタリングする可能性がある。この問題は以下のように解決することができる。 In the processing of FIG. 8, if no numbers are assigned to points where reflection (distance) cannot be detected, a situation in which multiple objects (people or cars) are horizontally separated at substantially the same distance. below can incorrectly cluster them as the same object. This problem can be solved as follows.
図10は、クラスタライズ部の処理の別の一例を示すフローチャートである。複数の点群に対して、2つのインデックスを付与する(S101)。詳しくは、反射の得られない点を含めて端から順にナンバリングし、その値を第1のインデックス(index1)とする。また反射(距離)の検出できない点を除去して、端からナンバリングし、その値を第2のインデックス(index2)とする。2つのindex1,index2の関係は保持される。 FIG. 10 is a flow chart showing another example of the processing of the clusterizing unit. Two indices are assigned to a plurality of point groups (S101). More specifically, the points are numbered in order from the end including the point where no reflection is obtained, and the value is set as the first index (index1). Also, points where reflection (distance) cannot be detected are removed, numbered from the end, and the value is used as a second index (index2). The relationship between the two index1 and index2 is maintained.
処理S102~S112については、図8と同様であり、i,jについては第2インデックスの値を用いる。 The processes S102 to S112 are the same as in FIG. 8, and the values of the second index are used for i and j.
処理S110において、j>i+Kとなると、クラスタキュー内のindex2を、index1に変換する(S116)。そして変換後において、クラスタキュー内のインデックスが連続しているとき(S118のY)、クラスタキュー内の複数のインデックスを同一オブジェクトとして出力する(S120)。変換後においてクラスタキュー内のインデックスが不連続であるとき(S118のN)、クラスタキュー内の複数のインデックスを、複数のクラスタキューに分割して出力する(S122)。 If j>i+K in process S110, index2 in the cluster queue is converted to index1 (S116). After the conversion, if the indexes in the cluster queue are continuous (Y of S118), the multiple indexes in the cluster queue are output as the same object (S120). When the indexes in the cluster queue are discontinuous after conversion (N of S118), the multiple indexes in the cluster queue are divided into multiple cluster queues and output (S122).
図10の処理により、実質的に同じ距離に複数のオブジェクト(人や自動車)が水平方向に離れて存在する状況下で、それらを異なるオブジェクトとして正しくクラスタリングすることが可能となる。 The processing of FIG. 10 enables correct clustering of multiple objects (persons and automobiles) as different objects in a situation in which a plurality of objects (people and automobiles) exist at substantially the same distance from each other in the horizontal direction.
図11は、オブジェクト識別システム10を備える自動車のブロック図である。自動車100は、前照灯102L,102Rを備える。オブジェクト識別システム10のうち、少なくとも3次元センサ20は、前照灯102L,102Rの少なくとも一方に内蔵される。前照灯102は、車体の最も先端に位置しており、周囲のオブジェクトを検出する上で、3次元センサ20の設置箇所として最も有利である。演算処理装置40については、前照灯102に内蔵してもよいし、車両側に設けてもよい。たとえば演算処理装置40のうち、中間データの生成は前照灯102の内部で行い、最終データの生成は車両側に委ねてもよい。
FIG. 11 is a block diagram of a vehicle with
図12は、オブジェクト識別システム10を備える車両用灯具200を示すブロック図である。車両用灯具200は、光源202、点灯回路204、光学系206を備える。さらに車両用灯具200には、3次元センサ20および演算処理装置40が設けられる。演算処理装置40が検出したオブジェクトOBJに関する情報は、車両ECU104に送信される。車両ECUは、この情報にもとづいて、自動運転を行ってもよい。
FIG. 12 is a block diagram showing a
また、演算処理装置40が検出したオブジェクトOBJに関する情報は、車両用灯具200の配光制御に利用してもよい。具体的には、灯具ECU208は、演算処理装置40が生成するオブジェクトOBJの種類とその位置に関する情報にもとづいて、適切な配光パターンを生成する。点灯回路204および光学系206は、灯具ECU208が生成した配光パターンが得られるように動作する。
Further, the information regarding the object OBJ detected by the
実施の形態では、車載用のオブジェクト識別システム10を説明したが本発明の適用はその限りでなく、たとえば信号機や交通標識、そのほかの交通インフラに固定的に設置され、定点観測する用途にも適用可能である。
In the embodiment, the
(変形例)
実施の形態では、3次元センサ20からの仰俯角がゼロの水平レイヤLxにもとづくクラスタリングを説明したが、着目すべき1本のレイヤは、それに限定されず、水平レイヤより1本上、あるいは1本下のレイヤにもとづいてクラスタリングを行ってもよい。(Modification)
In the embodiment, clustering based on the horizontal layer Lx whose elevation/depression angle from the three-
実施の形態にもとづき、具体的な語句を用いて本発明を説明したが、実施の形態は、本発明の原理、応用の一側面を示しているにすぎず、実施の形態には、請求の範囲に規定された本発明の思想を逸脱しない範囲において、多くの変形例や配置の変更が認められる。 Although the present invention has been described using specific terms based on the embodiment, the embodiment only shows one aspect of the principle and application of the present invention, and the embodiment does not include the claims. Many variations and rearrangements are permissible without departing from the spirit of the invention as defined in its scope.
本発明は、オブジェクト識別システムに関する。 The present invention relates to object identification systems.
10 オブジェクト識別システム
20 3次元センサ
40 演算処理装置
42 メモリ
44 クラスタライズ部
46 切り出し部
48 カテゴライズ部
S1 点群データ
100 自動車
102 前照灯
104 車両ECU
200 車両用灯具
202 光源
204 点灯回路
206 光学系
208 灯具ECUREFERENCE SIGNS
200
Claims (9)
前記点群データのうち1つのレイヤを形成する点群にもとづいてオブジェクトをクラスタリングする演算処理装置と、
を備え、
前記演算処理装置は、前記1つのレイヤを形成する点群のうち隣接する2点に着目したときに、各点までの距離の差がしきい値より小さいときに、2点を同一クラスタと判定することを特徴とするオブジェクト識別システム。 a three-dimensional sensor that generates point cloud data indicating distances to each of a plurality of points;
an arithmetic processing unit for clustering objects based on the point cloud forming one layer of the point cloud data;
with
The arithmetic processing unit determines two points to be in the same cluster when a difference in distance to each point is smaller than a threshold when focusing on two adjacent points in the point group forming the one layer. An object identification system characterized by :
前記点群データのうち1つのレイヤを形成する点群にもとづいてオブジェクトをクラスタリングする演算処理装置と、
を備え、
前記演算処理装置は、間隔が所定値以下の非隣接関係にある第1点と第2点に着目したときに、前記第1点までの距離と前記第2点までの距離の差がしきい値より小さいときに、前記第1点と前記第2点を同一クラスタと判定することを特徴とするオブジェクト識別システム。 a three-dimensional sensor that generates point cloud data indicating distances to each of a plurality of points;
an arithmetic processing unit for clustering objects based on the point cloud forming one layer of the point cloud data;
with
When focusing on a first point and a second point that are in a non-adjacent relationship with an interval equal to or less than a predetermined value, the arithmetic processing unit determines that the difference between the distance to the first point and the distance to the second point is a threshold value. An object identification system , wherein said first point and said second point are determined to be in the same cluster when they are smaller than a value .
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018077096 | 2018-04-12 | ||
JP2018077096 | 2018-04-12 | ||
PCT/JP2019/015773 WO2019198789A1 (en) | 2018-04-12 | 2019-04-11 | Object identification system, automobile, vehicle lamp fitting, and object clustering method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019198789A1 JPWO2019198789A1 (en) | 2021-05-13 |
JP7227227B2 true JP7227227B2 (en) | 2023-02-21 |
Family
ID=68164408
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020513448A Active JP7227227B2 (en) | 2018-04-12 | 2019-04-11 | Object identification system, automobile, vehicle lighting |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7227227B2 (en) |
CN (1) | CN111801594A (en) |
WO (1) | WO2019198789A1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010205042A (en) | 2009-03-04 | 2010-09-16 | Daihatsu Motor Co Ltd | Pedestrian detection device |
JP2012225806A (en) | 2011-04-20 | 2012-11-15 | Toyota Central R&D Labs Inc | Road gradient estimation device and program |
JP2012237580A (en) | 2011-05-10 | 2012-12-06 | Honda Motor Co Ltd | Laser radar unit of vehicle |
JP2015114261A (en) | 2013-12-13 | 2015-06-22 | 株式会社デンソーアイティーラボラトリ | Object detecting apparatus, object detecting method, and program |
CN106371106A (en) | 2016-08-16 | 2017-02-01 | 长春理工大学 | People shape targets recognizing method, apparatus and vehicle using single-line laser radar |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011163977A (en) * | 2010-02-10 | 2011-08-25 | Toyota Motor Corp | Distance measuring device |
JP2011163978A (en) * | 2010-02-10 | 2011-08-25 | Toyota Motor Corp | Distance measuring device |
JP5272042B2 (en) * | 2011-05-12 | 2013-08-28 | 富士重工業株式会社 | Environment recognition apparatus and environment recognition method |
JP5996878B2 (en) * | 2012-02-13 | 2016-09-21 | 株式会社デンソー | Radar equipment |
CN104251662B (en) * | 2013-06-27 | 2017-10-31 | 杭州中科天维科技有限公司 | Cloud threshold adaptive noise suppression technology is put in order |
JP6453701B2 (en) * | 2015-04-23 | 2019-01-16 | 株式会社デンソー | Posture estimation device |
-
2019
- 2019-04-11 CN CN201980016530.6A patent/CN111801594A/en active Pending
- 2019-04-11 WO PCT/JP2019/015773 patent/WO2019198789A1/en active Application Filing
- 2019-04-11 JP JP2020513448A patent/JP7227227B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010205042A (en) | 2009-03-04 | 2010-09-16 | Daihatsu Motor Co Ltd | Pedestrian detection device |
JP2012225806A (en) | 2011-04-20 | 2012-11-15 | Toyota Central R&D Labs Inc | Road gradient estimation device and program |
JP2012237580A (en) | 2011-05-10 | 2012-12-06 | Honda Motor Co Ltd | Laser radar unit of vehicle |
JP2015114261A (en) | 2013-12-13 | 2015-06-22 | 株式会社デンソーアイティーラボラトリ | Object detecting apparatus, object detecting method, and program |
CN106371106A (en) | 2016-08-16 | 2017-02-01 | 长春理工大学 | People shape targets recognizing method, apparatus and vehicle using single-line laser radar |
Also Published As
Publication number | Publication date |
---|---|
WO2019198789A1 (en) | 2019-10-17 |
JPWO2019198789A1 (en) | 2021-05-13 |
CN111801594A (en) | 2020-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5145585B2 (en) | Target detection device | |
KR20190016332A (en) | Deep learning based self-driving car, deep learning based self-driving control device, and deep learning based self-driving control method | |
JP7413935B2 (en) | In-vehicle sensor system | |
JP2015207281A (en) | Solid detector, solid detection method, solid detection program, and mobile body equipment control system | |
JP7217741B2 (en) | Arithmetic processor, object identification system, object identification method, automobile, vehicle lamp | |
JP6717240B2 (en) | Target detection device | |
US10672141B2 (en) | Device, method, system and computer-readable medium for determining collision target object rejection | |
JP2007114831A (en) | Object detection device | |
US20220003860A1 (en) | Determining the orientation of objects using radar or through the use of electromagnetic interrogation radiation | |
CN111742235A (en) | Method and system for identifying an empty parking space suitable for a vehicle | |
US20220171975A1 (en) | Method for Determining a Semantic Free Space | |
Pavelka et al. | Lidar based object detection near vehicle | |
JP7227227B2 (en) | Object identification system, automobile, vehicle lighting | |
US11861914B2 (en) | Object recognition method and object recognition device | |
CN111033316B (en) | Identification sensor, control method therefor, automobile, vehicle lamp, object identification system, and object identification method | |
JP7165630B2 (en) | Recognition system, vehicle control system, recognition method, and program | |
JP7083768B2 (en) | Recognition device, vehicle control device, recognition method, and program | |
EP3540643A1 (en) | Image processing apparatus and image processing method | |
JP7288460B2 (en) | Vehicle-mounted object identification system, Automobile, Vehicle lamp, Classifier learning method, Arithmetic processing unit | |
JPH05113482A (en) | Rear end collision prevention device mounted on car | |
WO2023194761A1 (en) | Information processing method and information processing device | |
US20230080428A1 (en) | Overhead-structure recognition device | |
JP6834920B2 (en) | Target discriminator | |
KR102461439B1 (en) | Detection of objects in the car's surroundings | |
JP7201002B2 (en) | Image processing device, control program, and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230131 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7227227 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |