JP7227227B2 - Object identification system, automobile, vehicle lighting - Google Patents

Object identification system, automobile, vehicle lighting Download PDF

Info

Publication number
JP7227227B2
JP7227227B2 JP2020513448A JP2020513448A JP7227227B2 JP 7227227 B2 JP7227227 B2 JP 7227227B2 JP 2020513448 A JP2020513448 A JP 2020513448A JP 2020513448 A JP2020513448 A JP 2020513448A JP 7227227 B2 JP7227227 B2 JP 7227227B2
Authority
JP
Japan
Prior art keywords
point
points
distance
identification system
object identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020513448A
Other languages
Japanese (ja)
Other versions
JPWO2019198789A1 (en
Inventor
健佑 荒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koito Manufacturing Co Ltd
Original Assignee
Koito Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koito Manufacturing Co Ltd filed Critical Koito Manufacturing Co Ltd
Publication of JPWO2019198789A1 publication Critical patent/JPWO2019198789A1/en
Application granted granted Critical
Publication of JP7227227B2 publication Critical patent/JP7227227B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/14Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Image Analysis (AREA)

Description

本発明は、オブジェクト識別システムに関する。 The present invention relates to object identification systems.

自動車のセンサとして、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、カメラ、ミリ波レーダ、超音波ソナーなどが候補として挙げられる。このなかでLiDARは、そのほかのセンサと比較して、(i)点群データによる物体認識が可能であること、(ii)アクティブセンシングであるが故の悪天候時にも高精度な検出が可能であること、(iii)広範囲の測定が可能であること、などの利点を有しており、今後、自動車のセンシングシステムにおける主流となることが期待されている。 Candidates for automobile sensors include LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging), cameras, millimeter wave radars, ultrasonic sonars, and the like. Compared to other sensors, LiDAR is capable of (i) object recognition based on point cloud data, and (ii) high-precision detection even in bad weather due to active sensing. and (iii) the ability to measure over a wide range.

図1は、LiDAR2を用いた測距システム1を示す図である。LiDAR2は、垂直方向にN本の解像度を有し、各レイヤL~Lは、水平方向にΔθ度の解像度を有する。LiDAR2から出射した光は、オブジェクトOBJより反射される。LiDAR2が生成する点群データは、LiDAR2と各点pとの距離rを表す。FIG. 1 is a diagram showing a ranging system 1 using LiDAR2. The LiDAR2 has N lines of resolution in the vertical direction, and each layer L 1 to L N has a resolution of Δθ degrees in the horizontal direction. Light emitted from LiDAR2 is reflected from object OBJ. The point cloud data generated by LiDAR2 represents the distance ri between LiDAR2 and each point pi .

点群データは、オブジェクトの形状を表すため、点群データを処理することにより、オブジェクトの種類(車両、歩行者など)を判定できる。 Since the point cloud data represents the shape of the object, the type of object (vehicle, pedestrian, etc.) can be determined by processing the point cloud data.

LiDARが生成する点群データにもとづくオブジェクトの識別では、その前処理として、点群データを、オブジェクトごとに切り分けるクラスタリングが行われる。図2は、従来のクラスタリングのアルゴリズムを説明する図である。図2には、測定系を上方から見た平面図が示される。このアルゴリズムでは、点群データの中のある点(着目点という)に着目したときに、着目点を中心とした半径rの球に含まれる点を、同じクラスタに分類する。このアルゴリズムは、自動運転システム用オープンソースソフトウェアとして知られるAutowareにおいても採用されている(非特許文献1)。 In object identification based on point cloud data generated by LiDAR, as preprocessing, clustering is performed to divide the point cloud data for each object. FIG. 2 is a diagram for explaining a conventional clustering algorithm. FIG. 2 shows a plan view of the measurement system viewed from above. In this algorithm, when a certain point (referred to as a point of interest) in the point cloud data is focused, the points included in a sphere with a radius of r centered on the point of interest are classified into the same cluster. This algorithm is also used in Autoware known as open source software for autonomous driving systems (Non-Patent Document 1).

この例では、同じレイヤ上の5つの点p~pを簡略化して示しており、点p~pがオブジェクトOBJ1上に位置し、点p,pがオブジェクトOBJ2上に位置している。点pは、点pを中心とした半径rの球に含まれており、点pは点pを中心とする半径rの球に含まれているから、点p~pは、同一クラスタと判定される。また、点pは、点pを中心とした半径rの球に含まれているから、点p,pは、同一クラスタと判定される。点pと点pの距離はrより大きいため、点p~pと、点p,pは異なるオブジェクトとされる。In this example, five points p 1 to p 5 on the same layer are shown in a simplified manner, points p 1 to p 3 are located on object OBJ1, and points p 4 and p 5 are located on object OBJ2. are doing. Point p 2 is included in the sphere with radius r centered at point p 1 , and point p 3 is included in the sphere with radius r centered at point p 2 . are determined to be the same cluster. Also, since the point p 5 is included in the sphere with the radius r centered at the point p 4 , the points p 4 and p 5 are determined as being in the same cluster. Since the distance between points p 3 and p 4 is greater than r, points p 1 to p 3 and points p 4 and p 5 are treated as different objects.

特開2017-56935号公報JP 2017-56935 A 特開2009-98023号公報JP-A-2009-98023

自動運転ソフトウェア:Autoware、[online]、名古屋大学、インターネット<URL:https://www.pdsl.jp/fot/autoware/>Autonomous driving software: Autoware, [online], Nagoya University, Internet <URL: https://www.pdsl.jp/fot/autoware/>

本発明者は、従来のクラスタリングアルゴリズムについて検討した結果、以下の課題を認識するに至った。 As a result of examining conventional clustering algorithms, the inventors have come to recognize the following problems.

<第1の課題>
LiDARによって取得されるのは、LiDARと各点pの間の距離rであるところ、このアルゴリズムでは、点pと点pの距離を計算する必要があり、計算コストが高くなる。
<First issue>
What is obtained by the LiDAR is the distance r i between the LiDAR and each point p i , while this algorithm needs to calculate the distance between the points p i and p j , which is computationally expensive.

また図2では、同じレイヤ上の点同士を比較しているが、異なる高さの点同士も比較する必要がある。点群データがM×N個のマトリクスで与えられる場合、2点の組み合わせは、M×N=(M×N)(M×N-1)/2であるから、測距点の数が増えると計算コストが爆発的に増加する。kd-treeなどの探索アルゴリズムを用いたとしても、処理には高速なプロセッサが必要となる。In addition, although points on the same layer are compared in FIG. 2, it is also necessary to compare points on different heights. When the point cloud data is given by M×N matrices, the combination of two points is M×N C 2 =(M×N)(M×N−1)/2. increases, the computational cost increases exponentially. Even if a search algorithm such as kd-tree is used, a high-speed processor is required for processing.

<第2の課題>
図3(a)は、測距システム1を横から見た図である。車載あるいは交通インフラに識別システムを実装する場合、LiDARからオブジェクトまでの距離は、数m~数百mの範囲で変化する。オブジェクトOBJ’までの距離が遠い場合、下の方のレイヤの大半はオブジェクトOBJ’ではなく地面に照射されることとなる。したがってすべての測距点を探索対象とすることは場合によっては無駄である。
<Second issue>
FIG. 3A is a side view of the ranging system 1. FIG. When implementing an identification system in a vehicle or in traffic infrastructure, the distance from the LiDAR to the object varies from several meters to hundreds of meters. If the object OBJ' is far away, most of the lower layers will be illuminated on the ground instead of the object OBJ'. Therefore, it may be useless to search for all distance measuring points.

<第3の課題>
図3(b)は、測距システム1を上から見た図である。図3(b)のようなケースでは、点pと点pは、同じオブジェクトOBJ2上の点であるにも関わらず、それらの距離は半径rより大きくなる。したがって点pと点pは、別クラスタ6_2,6_3と誤判定される。
<Third issue>
FIG. 3(b) is a top view of the distance measuring system 1. FIG. In the case shown in FIG. 3B, the distance between the points p4 and p5 is greater than the radius r, even though they are on the same object OBJ2. Therefore, points p4 and p5 are erroneously determined to be separate clusters 6_2 and 6_3.

本発明は係る状況においてなされたものであり、そのある態様の例示的な目的のひとつは、少ない演算量でクラスタリング可能なシステム、装置、方法の提供にある。 The present invention has been made in such a situation, and one exemplary object of certain aspects thereof is to provide a system, apparatus, and method capable of clustering with a small amount of computation.

本発明のある態様は、複数の点それぞれまでの距離を示す点群データを生成する3次元センサと、点群データのうち1つのレイヤを形成する点群にもとづいてオブジェクトをクラスタリングする演算処理装置と、を備える。 An aspect of the present invention includes a three-dimensional sensor that generates point cloud data indicating distances to each of a plurality of points, and an arithmetic processing unit that clusters objects based on the point cloud that forms one layer of the point cloud data. And prepare.

本発明によれば、少ない演算量でクラスタリングが可能となる。 According to the present invention, clustering can be performed with a small amount of calculation.

LiDARを用いた測距システムを示す図である。1 is a diagram showing a ranging system using LiDAR; FIG. 従来のクラスタリングのアルゴリズムを説明する図である。It is a figure explaining the algorithm of the conventional clustering. 図3(a)は、測距システムを横から見た図であり、図3(b)は、測距システムを上から見た図である。3(a) is a side view of the ranging system, and FIG. 3(b) is a top view of the ranging system. 実施の形態に係るオブジェクト識別システムのブロック図である。1 is a block diagram of an object identification system according to an embodiment; FIG. クラスタライズを説明する図である。It is a figure explaining clusterization. 水平レイヤに基づくクラスタリングの具体例を示す図である。FIG. 4 is a diagram showing a specific example of clustering based on horizontal layers; しきい値thと距離rの関係の一例を示す図である。FIG. 4 is a diagram showing an example of the relationship between threshold th and distance r; クラスタライズ部の処理の一例を示すフローチャートである。9 is a flowchart showing an example of processing of a clusterizing unit; 図9(a)、(b)は、図8のフローチャートに基づくクラスタリングを説明する図である。FIGS. 9A and 9B are diagrams for explaining clustering based on the flowchart of FIG. クラスタライズ部の処理の別の一例を示すフローチャートである。9 is a flow chart showing another example of processing of the clusterizing unit; オブジェクト識別システムを備える自動車のブロック図である。1 is a block diagram of an automobile with an object identification system; FIG. オブジェクト識別システムを備える車両用灯具を示すブロック図である。1 is a block diagram showing a vehicle lamp with an object identification system; FIG.

(実施の形態の概要)
本明細書に開示される一実施の形態は、オブジェクト識別システムに関する。オブジェクト識別システムは、複数の点それぞれまでの距離を示す点群データを生成する3次元センサと、点群データのうち1つのレイヤを形成する点群にもとづいてオブジェクトをクラスタリングする演算処理装置と、を備える。
(Overview of Embodiment)
One embodiment disclosed herein relates to an object identification system. The object identification system includes a three-dimensional sensor that generates point cloud data indicating distances to each of a plurality of points, an arithmetic processing unit that clusters objects based on the point cloud that forms one layer of the point cloud data, Prepare.

交通に関連して識別すべきオブジェクトの多くは、地面に接してそれより上方に位置する。つまり、同じ位置に上下に2個の異なるオブジェクトが存在することは基本的には生じない。そこで、適切な高さのレイヤのみに着目してクラスタリングを行うことで、演算量を大幅に減らすことができる。 Many of the objects to be identified in relation to traffic are located above and above the ground. In other words, it basically does not occur that two different objects exist above and below the same position. Therefore, the amount of calculation can be greatly reduced by performing clustering focusing only on layers with appropriate heights.

1つのレイヤは、3次元センサから実質的に水平に位置してもよい。言い換えれば、1つのレイヤは、3次元センサからの仰俯角が実質的にゼロのレイヤである。これにより、オブジェクトまでの距離に関わらず、当該レイヤの地面からの高さを実質的に一定とすることができる。また、車載用途においてヘッドライトやバンパーの高さに3次元センサを設置した場合、1つのレイヤは、人間の脚(もしくは腰)、車両のヘッドライトやバンパーの高さを横切ることになるため、識別すべきオブジェクトを確実に捉えることができる。 One layer may lie substantially horizontally from the three-dimensional sensor. In other words, one layer is the layer for which the elevation/depression angle from the three-dimensional sensor is substantially zero. This allows the height of the layer from the ground to be substantially constant regardless of the distance to the object. Also, if a 3D sensor is installed at the height of a headlight or bumper in an automotive application, one layer will cross the human leg (or waist) and the height of the vehicle headlight or bumper. Objects to be identified can be captured reliably.

演算処理装置は、1つのレイヤを形成する点群のうち隣接する2点に着目したときに、各点までの距離の差がしきい値より小さいときに、2点を同一クラスタと判定してもよい。これにより、2点間の距離を演算する必要がなくなるため、演算量をさらに減らすことができる。 Focusing on two adjacent points in a group of points forming one layer, the arithmetic processing unit determines that the two points are in the same cluster when the difference in distance to each point is smaller than a threshold value. good too. Since this eliminates the need to calculate the distance between two points, the amount of calculation can be further reduced.

LiDARなどの3次元センサは、水平方向に放射状にレーザビームを放射する。あるオブジェクトがLiDARに近いとき、隣接する2本のレーザビームは、オブジェクト上の、距離が相対的に近い2点に照射され、そのオブジェクトがLiDARから遠ざかると、同じ隣接する2本のレーザビームが照射される2点の距離は遠ざかる。そこでしきい値は、距離に応じて可変とするよく、しきい値は、距離が遠いほど大きくてもよい。しきい値は、同一クラスタに含まれる点までの距離の平均値に応じていてもよい。 Three-dimensional sensors such as LiDAR emit laser beams radially in the horizontal direction. When an object is close to the LiDAR, two adjacent laser beams are projected onto two relatively close points on the object, and when the object moves away from the LiDAR, the same two adjacent laser beams are projected onto the object. The distance between the two irradiated points increases. Therefore, the threshold value may be variable according to the distance, and the threshold value may be increased as the distance increases. The threshold value may correspond to the average distance to points included in the same cluster.

演算処理装置は、間隔が所定値以下の非隣接関係にある第1点と第2点に着目したときに、第1点までの距離と第2点までの距離の差がしきい値より小さいときに、第1点と第2点を同一クラスタと判定してもよい。非隣接の2点についても比較対象とすることで、ノイズの影響を抑制できる。また探索範囲を所定値をパラメータとして制限することで、演算量の増加を抑制できる。 When focusing on the first point and the second point that are in a non-adjacent relationship with an interval equal to or less than a predetermined value, the arithmetic processing unit has a difference between the distance to the first point and the distance to the second point that is smaller than a threshold. Sometimes, the first point and the second point may be determined to be the same cluster. By comparing two non-adjacent points as well, the influence of noise can be suppressed. Also, by limiting the search range to a predetermined value as a parameter, an increase in the amount of calculation can be suppressed.

(実施の形態)
以下、本発明を好適な実施の形態をもとに図面を参照しながら説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、実施の形態は、発明を限定するものではなく例示であって、実施の形態に記述されるすべての特徴やその組み合わせは、必ずしも発明の本質的なものであるとは限らない。
(Embodiment)
BEST MODE FOR CARRYING OUT THE INVENTION The present invention will be described below based on preferred embodiments with reference to the drawings. The same or equivalent constituent elements, members, and processes shown in each drawing are denoted by the same reference numerals, and duplication of description will be omitted as appropriate. Moreover, the embodiments are illustrative rather than limiting the invention, and not all features and combinations thereof described in the embodiments are necessarily essential to the invention.

図4は、実施の形態に係るオブジェクト識別システム10のブロック図である。このオブジェクト識別システム10は、自動車やバイクなどの車両に搭載される車載用であり、車両の周囲に存在するオブジェクトOBJの種類(カテゴリともいう)を判定する。 FIG. 4 is a block diagram of object identification system 10 according to an embodiment. This object identification system 10 is mounted on a vehicle such as an automobile or a motorcycle, and determines the types (also called categories) of objects OBJ existing around the vehicle.

オブジェクト識別システム10は、主として3次元センサ20および演算処理装置40を備える。3次元センサ20は、前方のオブジェクトOBJの表面上の複数の点までの距離を示す点群データS1を生成する。オブジェクトOBJからの反射が測定できない点については、所定値(負、ゼロあるいは無限大)として測定される。 The object identification system 10 mainly comprises a 3D sensor 20 and a processor 40 . The three-dimensional sensor 20 generates point cloud data S1 indicating distances to a plurality of points on the surface of the object OBJ in front. Points where the reflection from object OBJ cannot be measured are measured as a predetermined value (negative, zero or infinity).

演算処理装置40は、点群データS1にもとづいて、オブジェクト識別システム10の前方に存在するオブジェクトOBJ1,OBJ2・・・の種類を判定する(カテゴライズ)。カテゴライズの前処理として、点群データS1を、オブジェクトOBJ1,OBJ2,…ごとのサブデータS2_1,S2_2,…に切り分ける処理が行われる(クラスタライズという)。 Based on the point cloud data S1, the arithmetic processing unit 40 determines (categorizes) the types of the objects OBJ1, OBJ2, . As a pre-process for categorization, the point cloud data S1 is divided into sub-data S2_1, S2_2, . . . for each of the objects OBJ1, OBJ2, .

3次元センサ20は特に限定されないが、歩行者など凹凸の小さいオブジェクトを正確に識別したい場合には、LiDARを用いることが好ましい。LiDARの構成は特に限定されず、走査型、非走査型であるとを問わない。 Although the three-dimensional sensor 20 is not particularly limited, it is preferable to use LiDAR when it is desired to accurately identify an object with small unevenness, such as a pedestrian. The configuration of the LiDAR is not particularly limited, and it does not matter whether it is a scanning type or a non-scanning type.

演算処理装置40は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)、マイコンなどのプロセッサ(ハードウェア)と、プロセッサ(ハードウェア)が実行するソフトウェアプログラムの組み合わせで実装することができる。演算処理装置40は、複数のプロセッサの組み合わせであってもよい。 The arithmetic processing unit 40 can be implemented by a combination of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a processor (hardware) such as a microcomputer, and a software program executed by the processor (hardware). The arithmetic processing unit 40 may be a combination of multiple processors.

演算処理装置40は、メモリ42、クラスタライズ部44、切り出し部46、カテゴライズ部48を含む。点群データS1は、メモリ42に格納される。クラスタライズ部44は、各オブジェクトOBJが存在する水平方向の位置(範囲)を判定する。 The arithmetic processing unit 40 includes a memory 42 , a clustering section 44 , a clipping section 46 and a categorizing section 48 . The point cloud data S1 are stored in the memory 42 . The clusterizing unit 44 determines the horizontal position (range) where each object OBJ exists.

切り出し部46は、クラスタライズ部44のクラスタライズの結果にもとづいて、点群データS1を、オブジェクトごとのサブデータS2に切り分ける。 The clipping unit 46 splits the point cloud data S1 into sub data S2 for each object based on the clustering result of the clustering unit 44 .

カテゴライズ部48は、サブデータS2_1,S2_2,…それぞれについて、それに含まれるオブジェクトの種類を判定する。 The categorizing unit 48 determines the types of objects included in each of the sub-data S2_1, S2_2, .

図5は、クラスタライズを説明する図である。矩形S1は、3次元センサ20が生成する点群データを示す。また矩形S2_1,S2_2は、サブデータを示す。 FIG. 5 is a diagram for explaining clusterization. A rectangle S1 indicates point cloud data generated by the three-dimensional sensor 20 . Rectangles S2_1 and S2_2 indicate sub data.

続いて、クラスタリングについて説明する。
3次元センサ20が取得する点群データS1は、地上からの高さの異なる点群、言い換えれば3次元センサ20から見た仰俯角の異なる点群の集合とみなすことができ、同一の高さの複数の点の集合を「レイヤ」と称することとする。演算処理装置40(クラスタライズ部44)は、すべての点群データS1ではなく、点群データS1のうち、注目すべき1つのレイヤLxを形成する点群にもとづいてオブジェクトをクラスタリングする。
Next, clustering will be explained.
The point cloud data S1 acquired by the three-dimensional sensor 20 can be regarded as a set of point clouds with different heights from the ground, in other words, a set of point clouds with different elevation/depression angles viewed from the three-dimensional sensor 20. A set of points of is referred to as a "layer". The arithmetic processing unit 40 (clustering unit 44) clusters the objects based on the point cloud that forms one notable layer Lx of the point cloud data S1 rather than the entire point cloud data S1.

クラスタリングに際して注目すべき1つのレイヤLxは、3次元センサ20から実質的に水平に位置することが好ましい。以下、注目するレイヤLxを水平レイヤとも称する。水平レイヤは、言い換えれば仰俯角がゼロに近いレイヤと把握できる。これにより、オブジェクトOBJまでの距離に依存せずに、測定点の高さを一定にできる。 One layer Lx of interest for clustering is preferably positioned substantially horizontally from the three-dimensional sensor 20 . Hereinafter, the layer Lx of interest is also referred to as a horizontal layer. In other words, the horizontal layer can be grasped as a layer whose elevation/depression angle is close to zero. As a result, the height of the measurement point can be made constant without depending on the distance to the object OBJ.

交通に関連して識別すべきオブジェクトOBJ(歩行者や自動車)の多くは、地面に接してそれより上方に位置する。つまり、同じ位置に上下に2個の異なるオブジェクトが存在することは基本的には生じない。そこで適切な高さのレイヤのみに着目してクラスタリングを行うことで、演算量を大幅に減らすことができる。 Many of the objects OBJ (pedestrians and automobiles) to be identified in relation to traffic are located above and in contact with the ground. In other words, it basically does not occur that two different objects exist above and below the same position. Therefore, the amount of calculation can be greatly reduced by performing clustering focusing only on layers with appropriate heights.

図6は、水平レイヤに基づくクラスタリングの具体例を示す図である。図6には、レイヤLxを形成する点群p,p,p,pのみが示される。オブジェクトOBJ1,OBJ2の形状は、図2(b)のオブジェクトOBJ1,OBJ2と同じである。FIG. 6 is a diagram showing a specific example of clustering based on horizontal layers. FIG. 6 shows only the point cloud p 1 , p 2 , p 3 , p 4 forming the layer Lx. Objects OBJ1 and OBJ2 have the same shape as objects OBJ1 and OBJ2 in FIG. 2(b).

演算処理装置40(クラスタライズ部44)は、1つのレイヤLx上の点のうち隣接する2点p,pi+1に着目したときに、各点p,pi+1までの距離r,ri+1の差di,i+1=|r-ri+1|がしきい値thより小さいときに、2点p,pi+1を同一クラスタにクラスタリングする。図6の例では、点p,pが同一クラスタ6_1と判定され、点p,pが同一クラスタ6_2と判定される。When focusing on adjacent two points p i and p i+1 among points on one layer Lx, the arithmetic processing unit 40 (clustering unit 44) calculates the distances r i and r to each of the points p i and p i+1 When the difference d i,i+1 = |r i −r i+1 | of i+1 is smaller than the threshold value th, the two points p i and p i+1 are clustered into the same cluster. In the example of FIG. 6, points p 1 and p 2 are determined to be the same cluster 6_1, and points p 3 and p 4 are determined to be the same cluster 6_2.

第3の課題に関連して、図6と図3(b)の対比から、実施の形態に係るクラスタリングの利点の一つが明らかになる。図3(b)に示すように点pとpの距離が所定の半径rより大きく、従来方法では、同一クラスタと判定することはできない。これに対して、図6では、点p,pと3次元センサ20の距離の差d3,4に着目するため、図3の半径rと等しいしきい値thを適用した場合であっても、2つの点p,pを同一クラスタと判定することができる。従来方式においても半径rを大きくすれば同じ結果が得られるが、大きな半径rは、異なるオブジェクト上の点を同一クラスタと誤判定する要因となる。一方、本実施の形態では、しきい値thを大きくする必要がないため、誤判定を抑制できると理解することもできる。Regarding the third problem, one of the advantages of the clustering according to the embodiment becomes clear from a comparison between FIG. 6 and FIG. 3(b). As shown in FIG. 3(b), the distance between points p3 and p4 is greater than the predetermined radius r, and the conventional method cannot determine that they are the same cluster. On the other hand, in FIG. 6, in order to focus on the distance difference d 3, 4 between the points p 3 , p 4 and the three-dimensional sensor 20, the threshold value th equal to the radius r in FIG. 3 is applied. , the two points p 3 and p 4 can be determined to be in the same cluster. Although the same result can be obtained in the conventional method by increasing the radius r, a large radius r causes erroneous determination of points on different objects as being in the same cluster. On the other hand, in the present embodiment, since it is not necessary to increase the threshold value th, it can be understood that erroneous determination can be suppressed.

しきい値thは、距離rに応じて可変(スケーリング)するとよい。図7(a)は、オブジェクトまでの距離と、オブジェクト上の2点p,pの距離の差d1,2を説明する図である。あるオブジェクトOBJがLIDAR2に近い位置(図中、左側)にあるとき、隣接するレーザビームLB,LBが照射されるオブジェクトOBJ上の2点p,pまでの距離はr,rであり、それらの差d1,2は、r-rとなる。The threshold th may be varied (scaled) according to the distance r. FIG. 7A is a diagram for explaining the difference d1,2 between the distance to an object and the distances between two points p1 and p2 on the object. When an object OBJ is located near LIDAR2 (on the left side in the figure), the distances to two points p1 and p2 on the object OBJ irradiated by adjacent laser beams LB1 and LB2 are r1 and r 2 and their difference d 1,2 is r 2 −r 1 .

同じオブジェクトOBJがLIDAR2から相対的に遠い位置(図中、右側)に位置する場合を考える。このとき、オブジェクトOBJのレーザビームLBの照射位置は同じ(p’=p)であるが、レーザビームLBの照射位置p’は、元の位置pからずれる(p’≠p)。Consider the case where the same object OBJ is positioned relatively far from LIDAR2 (on the right side in the figure). At this time, the irradiation position of the laser beam LB 1 on the object OBJ is the same (p 1 ′=p 1 ), but the irradiation position p 2 ′ of the laser beam LB 2 is shifted from the original position p 2 (p 2 ′ ≠ p 2 ).

つまりオブジェクトOBJがLiDARに近いとき、隣接する2本のレーザビームは、オブジェクト上の、距離が相対的に近い2点p,pに照射され、そのオブジェクトがLiDARから遠ざかると、同じ隣接する2本のレーザビームが照射される2点p、pの距離は遠ざかる。図7(b)は、オブジェクトまでの距離と、2点までの距離の差の関係を示す図である。オブジェクトOBJが遠いときの2つの点p’,p’の距離の差d1,2’は、オブジェクトOBJが近いときの2つの点p,pの距離の差d1,2より大きくなる。That is, when the object OBJ is close to the LiDAR, two adjacent laser beams are applied to two points p1 and p2 on the object that are relatively close to each other, and when the object moves away from the LiDAR, the same adjacent laser beams are applied. The distance between the two points p 1 and p 2 irradiated with the two laser beams increases. FIG. 7B is a diagram showing the relationship between the distance to an object and the difference in distance to two points. The distance difference d 1,2 ′ between the two points p 1 ′ and p 2 ′ when the object OBJ is far is greater than the distance difference d 1,2 between the two points p 1 and p 2 when the object OBJ is near. growing.

つまりオブジェクトOBJまでが近いときを基準として定めたしきい値thを、遠方のオブジェクトにも適用すると、同じオブジェクト上の2点p’、p’を、異なるオブジェクトと誤判定する可能性がある。そこで図7(c)に示すように、距離rが長いほど、しきい値thを大きくとるとよい。これにより、オブジェクトまでの距離に依存せずに、正確なクラスタリングが可能となる。In other words, if the threshold value th determined with reference to when the object OBJ is close is applied to a distant object, there is a possibility that two points p 1 ′ and p 2 ′ on the same object are erroneously determined to be different objects. be. Therefore, as shown in FIG. 7C, the longer the distance r, the larger the threshold th. This allows accurate clustering independent of the distance to the object.

しきい値thは、それまでに同一クラスタと判定されている複数の点までの距離の平均値に応じて設定してもよい。 The threshold th may be set according to the average value of the distances to a plurality of points that have been determined to belong to the same cluster.

別の実施例において、比較対象となる2点p,pi+1までの距離r,ri+1を、一方の距離r(またはそれに近い値)で除算して正規化し、正規化した距離の差分(1-r/r1+1)を、しきい値と比較してもよい。この場合のしきい値は、オブジェクトまでの距離に依存せずに一定とすることができる。In another embodiment, the distances r i and r i+1 to the two points p i and p i+1 to be compared are normalized by dividing by one distance r i (or a value close to it), and the normalized distance The difference (1−r i /r 1+1 ) may be compared to a threshold. The threshold value in this case can be constant regardless of the distance to the object.

演算処理装置40は、間隔が所定値K以下である非隣接関係にある第1点pと第2点pに着目したときに、第1点pまでの距離rと第2点pまでの距離rの差di,jがしきい値thより小さいときに、第1点pと第2点pを同一クラスタとする。言い換えれば、第2点pは、第1点pから最大K個(K≪M)、離れることが許容される。Mは、3次元センサ20の水平方向の解像度である。たとえばKは、2~5程度としてもよい。When focusing on a first point p i and a second point p j that are in a non-adjacent relationship with an interval equal to or less than a predetermined value K, the arithmetic processing unit 40 calculates the distance r i to the first point p i and the second point When the difference d i,j of the distance r j to p j is smaller than the threshold value th, the first point p i and the second point p j are regarded as the same cluster. In other words, the second point pj is allowed to be separated from the first point pi by a maximum of K (K<<M). M is the horizontal resolution of the three-dimensional sensor 20; For example, K may be about 2-5.

図8は、クラスタライズ部44の処理の一例を示すフローチャートである。水平レイヤLxを形成する点群を、端から順にナンバリングする(S100)。反射(距離)の検出できない点については、番号を付与しないこととしてもよい。 FIG. 8 is a flow chart showing an example of the processing of the clusterizing section 44. As shown in FIG. Point groups forming the horizontal layer Lx are numbered in order from the end (S100). Points where reflection (distance) cannot be detected may not be numbered.

続いて、変数iを初期化し(S102)、変数jを初期化する(S104)。2点p,pの距離r,rの差分di,jがしきい値thと比較される(S106)。差分di,jがしきい値thより小さいとき、点p,pは同一クラスタと判定され、クラスタキューに格納される(S108)。差分di,jがしきい値thより大きいとき、点p,pは同一クラスタと判定され、クラスタキューに格納される(S108)。なお、過去の判定の結果、2点p,pがクラスタキューに格納済みの場合、比較処理は省略することができる。Subsequently, the variable i is initialized (S102), and the variable j is initialized (S104). The difference d i , j between the distances r i , r j between the two points p i , p j is compared with the threshold value th (S106). When the difference d i,j is smaller than the threshold value th, the points p i , p j are determined to be in the same cluster and stored in the cluster queue (S108). When the difference d i,j is greater than the threshold value th, the points p i , p j are determined to be in the same cluster and stored in the cluster queue (S108). Note that if the two points p i and p j have already been stored in the cluster queue as a result of past determination, the comparison process can be omitted.

j≦i+Kのとき(S110のN)、jを1インクリメントし、第2点を次の点に移動して、処理S106に戻る。反対にj>i+Kのとき(S110のY)、iをインクリメントして第1点pをシフトし、処理S104に戻る。When j≤i+K (N in S110), j is incremented by 1, the second point is moved to the next point, and the process returns to step S106. Conversely, when j>i+K (Y in S110), i is incremented to shift the first point pi , and the process returns to step S104.

図9(a)、(b)は、図8のフローチャートに基づくクラスタリングを説明する図である。図9(a)は、クラスタリングの対象となる水平レイヤを示す図であり、横軸が番号を、縦軸が距離を表す。図9(b)は、比較結果と、クラスタキューを示す図である。 FIGS. 9A and 9B are diagrams for explaining clustering based on the flowchart of FIG. FIG. 9A is a diagram showing horizontal layers to be clustered, where the horizontal axis represents numbers and the vertical axis represents distances. FIG. 9B is a diagram showing comparison results and cluster queues.

この例ではK=3とした。図9(b)において破線は、比較対象がクラスタリング済みの場合に比較が省略されることを示す。図9(a)の場合、点p~pが同一クラスタと判定され、点p,pが同一クラスタと判定される。In this example, K=3. A broken line in FIG. 9B indicates that the comparison is omitted when the comparison target has already been clustered. In the case of FIG. 9A, points p 1 to p 6 are determined to be in the same cluster, and points p 7 and p 8 are determined to be in the same cluster.

図8の処理において、反射(距離)の検出できない点については、番号を付与しないこととする場合、実質的に同じ距離に、複数のオブジェクト(人や自動車)が水平方向に離れて存在する状況下で、それらを同一のオブジェクトとして誤ってクラスタリングする可能性がある。この問題は以下のように解決することができる。 In the processing of FIG. 8, if no numbers are assigned to points where reflection (distance) cannot be detected, a situation in which multiple objects (people or cars) are horizontally separated at substantially the same distance. below can incorrectly cluster them as the same object. This problem can be solved as follows.

図10は、クラスタライズ部の処理の別の一例を示すフローチャートである。複数の点群に対して、2つのインデックスを付与する(S101)。詳しくは、反射の得られない点を含めて端から順にナンバリングし、その値を第1のインデックス(index1)とする。また反射(距離)の検出できない点を除去して、端からナンバリングし、その値を第2のインデックス(index2)とする。2つのindex1,index2の関係は保持される。 FIG. 10 is a flow chart showing another example of the processing of the clusterizing unit. Two indices are assigned to a plurality of point groups (S101). More specifically, the points are numbered in order from the end including the point where no reflection is obtained, and the value is set as the first index (index1). Also, points where reflection (distance) cannot be detected are removed, numbered from the end, and the value is used as a second index (index2). The relationship between the two index1 and index2 is maintained.

処理S102~S112については、図8と同様であり、i,jについては第2インデックスの値を用いる。 The processes S102 to S112 are the same as in FIG. 8, and the values of the second index are used for i and j.

処理S110において、j>i+Kとなると、クラスタキュー内のindex2を、index1に変換する(S116)。そして変換後において、クラスタキュー内のインデックスが連続しているとき(S118のY)、クラスタキュー内の複数のインデックスを同一オブジェクトとして出力する(S120)。変換後においてクラスタキュー内のインデックスが不連続であるとき(S118のN)、クラスタキュー内の複数のインデックスを、複数のクラスタキューに分割して出力する(S122)。 If j>i+K in process S110, index2 in the cluster queue is converted to index1 (S116). After the conversion, if the indexes in the cluster queue are continuous (Y of S118), the multiple indexes in the cluster queue are output as the same object (S120). When the indexes in the cluster queue are discontinuous after conversion (N of S118), the multiple indexes in the cluster queue are divided into multiple cluster queues and output (S122).

図10の処理により、実質的に同じ距離に複数のオブジェクト(人や自動車)が水平方向に離れて存在する状況下で、それらを異なるオブジェクトとして正しくクラスタリングすることが可能となる。 The processing of FIG. 10 enables correct clustering of multiple objects (persons and automobiles) as different objects in a situation in which a plurality of objects (people and automobiles) exist at substantially the same distance from each other in the horizontal direction.

図11は、オブジェクト識別システム10を備える自動車のブロック図である。自動車100は、前照灯102L,102Rを備える。オブジェクト識別システム10のうち、少なくとも3次元センサ20は、前照灯102L,102Rの少なくとも一方に内蔵される。前照灯102は、車体の最も先端に位置しており、周囲のオブジェクトを検出する上で、3次元センサ20の設置箇所として最も有利である。演算処理装置40については、前照灯102に内蔵してもよいし、車両側に設けてもよい。たとえば演算処理装置40のうち、中間データの生成は前照灯102の内部で行い、最終データの生成は車両側に委ねてもよい。 FIG. 11 is a block diagram of a vehicle with object identification system 10 . Automobile 100 includes headlights 102L and 102R. At least the three-dimensional sensor 20 of the object identification system 10 is built into at least one of the headlights 102L and 102R. The headlamp 102 is positioned at the extreme tip of the vehicle body and is the most advantageous location for installing the three-dimensional sensor 20 in terms of detecting surrounding objects. The arithmetic processing unit 40 may be built in the headlamp 102 or may be provided on the vehicle side. For example, in the arithmetic processing unit 40, the intermediate data may be generated inside the headlamp 102, and the final data may be generated by the vehicle.

図12は、オブジェクト識別システム10を備える車両用灯具200を示すブロック図である。車両用灯具200は、光源202、点灯回路204、光学系206を備える。さらに車両用灯具200には、3次元センサ20および演算処理装置40が設けられる。演算処理装置40が検出したオブジェクトOBJに関する情報は、車両ECU104に送信される。車両ECUは、この情報にもとづいて、自動運転を行ってもよい。 FIG. 12 is a block diagram showing a vehicle lamp 200 including the object identification system 10. As shown in FIG. A vehicle lamp 200 includes a light source 202 , a lighting circuit 204 and an optical system 206 . Furthermore, the vehicle lamp 200 is provided with a three-dimensional sensor 20 and an arithmetic processing unit 40 . Information about the object OBJ detected by the processing unit 40 is transmitted to the vehicle ECU 104 . The vehicle ECU may perform automatic driving based on this information.

また、演算処理装置40が検出したオブジェクトOBJに関する情報は、車両用灯具200の配光制御に利用してもよい。具体的には、灯具ECU208は、演算処理装置40が生成するオブジェクトOBJの種類とその位置に関する情報にもとづいて、適切な配光パターンを生成する。点灯回路204および光学系206は、灯具ECU208が生成した配光パターンが得られるように動作する。 Further, the information regarding the object OBJ detected by the processing unit 40 may be used for light distribution control of the vehicle lamp 200 . Specifically, the lamp ECU 208 generates an appropriate light distribution pattern based on the information about the type and position of the object OBJ generated by the processing unit 40 . The lighting circuit 204 and the optical system 206 operate so as to obtain the light distribution pattern generated by the lamp ECU 208 .

実施の形態では、車載用のオブジェクト識別システム10を説明したが本発明の適用はその限りでなく、たとえば信号機や交通標識、そのほかの交通インフラに固定的に設置され、定点観測する用途にも適用可能である。 In the embodiment, the object identification system 10 for in-vehicle use has been described, but the application of the present invention is not limited to that. It is possible.

(変形例)
実施の形態では、3次元センサ20からの仰俯角がゼロの水平レイヤLxにもとづくクラスタリングを説明したが、着目すべき1本のレイヤは、それに限定されず、水平レイヤより1本上、あるいは1本下のレイヤにもとづいてクラスタリングを行ってもよい。
(Modification)
In the embodiment, clustering based on the horizontal layer Lx whose elevation/depression angle from the three-dimensional sensor 20 is zero has been described, but the one layer to be focused on is not limited to that, and is one layer above the horizontal layer, or one layer above the horizontal layer. Clustering may be performed based on the underlying layer.

実施の形態にもとづき、具体的な語句を用いて本発明を説明したが、実施の形態は、本発明の原理、応用の一側面を示しているにすぎず、実施の形態には、請求の範囲に規定された本発明の思想を逸脱しない範囲において、多くの変形例や配置の変更が認められる。 Although the present invention has been described using specific terms based on the embodiment, the embodiment only shows one aspect of the principle and application of the present invention, and the embodiment does not include the claims. Many variations and rearrangements are permissible without departing from the spirit of the invention as defined in its scope.

本発明は、オブジェクト識別システムに関する。 The present invention relates to object identification systems.

10 オブジェクト識別システム
20 3次元センサ
40 演算処理装置
42 メモリ
44 クラスタライズ部
46 切り出し部
48 カテゴライズ部
S1 点群データ
100 自動車
102 前照灯
104 車両ECU
200 車両用灯具
202 光源
204 点灯回路
206 光学系
208 灯具ECU
REFERENCE SIGNS LIST 10 object identification system 20 three-dimensional sensor 40 arithmetic processing unit 42 memory 44 clusterizing unit 46 clipping unit 48 categorizing unit S1 point cloud data 100 automobile 102 headlight 104 vehicle ECU
200 vehicle lamp 202 light source 204 lighting circuit 206 optical system 208 lamp ECU

Claims (9)

複数の点それぞれまでの距離を示す点群データを生成する3次元センサと、
前記点群データのうち1つのレイヤを形成する点群にもとづいてオブジェクトをクラスタリングする演算処理装置と、
を備え、
前記演算処理装置は、前記1つのレイヤを形成する点群のうち隣接する2点に着目したときに、各点までの距離の差がしきい値より小さいときに、2点を同一クラスタと判定することを特徴とするオブジェクト識別システム。
a three-dimensional sensor that generates point cloud data indicating distances to each of a plurality of points;
an arithmetic processing unit for clustering objects based on the point cloud forming one layer of the point cloud data;
with
The arithmetic processing unit determines two points to be in the same cluster when a difference in distance to each point is smaller than a threshold when focusing on two adjacent points in the point group forming the one layer. An object identification system characterized by :
前記演算処理装置は、間隔が所定値以下の非隣接関係にある第1点と第2点に着目したときに、前記第1点までの距離と前記第2点までの距離の差がしきい値より小さいときに、前記第1点と前記第2点を同一クラスタと判定することを特徴とする請求項に記載のオブジェクト識別システム。 When focusing on a first point and a second point that are in a non-adjacent relationship with an interval equal to or less than a predetermined value, the arithmetic processing unit determines that the difference between the distance to the first point and the distance to the second point is a threshold value. 2. The object identification system according to claim 1 , wherein said first point and said second point are determined to be in the same cluster when they are smaller than a value. 複数の点それぞれまでの距離を示す点群データを生成する3次元センサと、
前記点群データのうち1つのレイヤを形成する点群にもとづいてオブジェクトをクラスタリングする演算処理装置と、
を備え、
前記演算処理装置は、間隔が所定値以下の非隣接関係にある第1点と第2点に着目したときに、前記第1点までの距離と前記第2点までの距離の差がしきい値より小さいときに、前記第1点と前記第2点を同一クラスタと判定することを特徴とするオブジェクト識別システム。
a three-dimensional sensor that generates point cloud data indicating distances to each of a plurality of points;
an arithmetic processing unit for clustering objects based on the point cloud forming one layer of the point cloud data;
with
When focusing on a first point and a second point that are in a non-adjacent relationship with an interval equal to or less than a predetermined value, the arithmetic processing unit determines that the difference between the distance to the first point and the distance to the second point is a threshold value. An object identification system , wherein said first point and said second point are determined to be in the same cluster when they are smaller than a value .
前記1つのレイヤは、前記3次元センサから実質的に水平に位置することを特徴とする請求項1から3のいずれかに記載のオブジェクト識別システム。 4. An object identification system according to any preceding claim, wherein said one layer is positioned substantially horizontally from said three-dimensional sensor. 前記しきい値は、前記距離に応じて可変であることを特徴とする請求項1から4のいずれかに記載のオブジェクト識別システム。 5. The object identification system according to claim 1, wherein said threshold is variable according to said distance. 前記しきい値は、同一クラスタに含まれる点までの距離の平均値に応じていることを特徴とする請求項5に記載のオブジェクト識別システム。 6. The object identification system according to claim 5, wherein said threshold value corresponds to an average value of distances to points included in the same cluster. 請求項1から6のいずれかに記載のオブジェクト識別システムを備えることを特徴とする自動車。 A motor vehicle comprising an object identification system according to any one of claims 1 to 6. 前記3次元センサは、前照灯に内蔵されることを特徴とする請求項7に記載の自動車。 8. A vehicle according to claim 7, wherein said three-dimensional sensor is built in a headlight. 請求項1から6のいずれかに記載のオブジェクト識別システムを備えることを特徴とする車両用灯具。 A vehicle lamp comprising the object identification system according to any one of claims 1 to 6.
JP2020513448A 2018-04-12 2019-04-11 Object identification system, automobile, vehicle lighting Active JP7227227B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018077096 2018-04-12
JP2018077096 2018-04-12
PCT/JP2019/015773 WO2019198789A1 (en) 2018-04-12 2019-04-11 Object identification system, automobile, vehicle lamp fitting, and object clustering method

Publications (2)

Publication Number Publication Date
JPWO2019198789A1 JPWO2019198789A1 (en) 2021-05-13
JP7227227B2 true JP7227227B2 (en) 2023-02-21

Family

ID=68164408

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020513448A Active JP7227227B2 (en) 2018-04-12 2019-04-11 Object identification system, automobile, vehicle lighting

Country Status (3)

Country Link
JP (1) JP7227227B2 (en)
CN (1) CN111801594A (en)
WO (1) WO2019198789A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010205042A (en) 2009-03-04 2010-09-16 Daihatsu Motor Co Ltd Pedestrian detection device
JP2012225806A (en) 2011-04-20 2012-11-15 Toyota Central R&D Labs Inc Road gradient estimation device and program
JP2012237580A (en) 2011-05-10 2012-12-06 Honda Motor Co Ltd Laser radar unit of vehicle
JP2015114261A (en) 2013-12-13 2015-06-22 株式会社デンソーアイティーラボラトリ Object detecting apparatus, object detecting method, and program
CN106371106A (en) 2016-08-16 2017-02-01 长春理工大学 People shape targets recognizing method, apparatus and vehicle using single-line laser radar

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011163977A (en) * 2010-02-10 2011-08-25 Toyota Motor Corp Distance measuring device
JP2011163978A (en) * 2010-02-10 2011-08-25 Toyota Motor Corp Distance measuring device
JP5272042B2 (en) * 2011-05-12 2013-08-28 富士重工業株式会社 Environment recognition apparatus and environment recognition method
JP5996878B2 (en) * 2012-02-13 2016-09-21 株式会社デンソー Radar equipment
CN104251662B (en) * 2013-06-27 2017-10-31 杭州中科天维科技有限公司 Cloud threshold adaptive noise suppression technology is put in order
JP6453701B2 (en) * 2015-04-23 2019-01-16 株式会社デンソー Posture estimation device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010205042A (en) 2009-03-04 2010-09-16 Daihatsu Motor Co Ltd Pedestrian detection device
JP2012225806A (en) 2011-04-20 2012-11-15 Toyota Central R&D Labs Inc Road gradient estimation device and program
JP2012237580A (en) 2011-05-10 2012-12-06 Honda Motor Co Ltd Laser radar unit of vehicle
JP2015114261A (en) 2013-12-13 2015-06-22 株式会社デンソーアイティーラボラトリ Object detecting apparatus, object detecting method, and program
CN106371106A (en) 2016-08-16 2017-02-01 长春理工大学 People shape targets recognizing method, apparatus and vehicle using single-line laser radar

Also Published As

Publication number Publication date
WO2019198789A1 (en) 2019-10-17
JPWO2019198789A1 (en) 2021-05-13
CN111801594A (en) 2020-10-20

Similar Documents

Publication Publication Date Title
JP5145585B2 (en) Target detection device
KR20190016332A (en) Deep learning based self-driving car, deep learning based self-driving control device, and deep learning based self-driving control method
JP7413935B2 (en) In-vehicle sensor system
JP2015207281A (en) Solid detector, solid detection method, solid detection program, and mobile body equipment control system
JP7217741B2 (en) Arithmetic processor, object identification system, object identification method, automobile, vehicle lamp
JP6717240B2 (en) Target detection device
US10672141B2 (en) Device, method, system and computer-readable medium for determining collision target object rejection
JP2007114831A (en) Object detection device
US20220003860A1 (en) Determining the orientation of objects using radar or through the use of electromagnetic interrogation radiation
CN111742235A (en) Method and system for identifying an empty parking space suitable for a vehicle
US20220171975A1 (en) Method for Determining a Semantic Free Space
Pavelka et al. Lidar based object detection near vehicle
JP7227227B2 (en) Object identification system, automobile, vehicle lighting
US11861914B2 (en) Object recognition method and object recognition device
CN111033316B (en) Identification sensor, control method therefor, automobile, vehicle lamp, object identification system, and object identification method
JP7165630B2 (en) Recognition system, vehicle control system, recognition method, and program
JP7083768B2 (en) Recognition device, vehicle control device, recognition method, and program
EP3540643A1 (en) Image processing apparatus and image processing method
JP7288460B2 (en) Vehicle-mounted object identification system, Automobile, Vehicle lamp, Classifier learning method, Arithmetic processing unit
JPH05113482A (en) Rear end collision prevention device mounted on car
WO2023194761A1 (en) Information processing method and information processing device
US20230080428A1 (en) Overhead-structure recognition device
JP6834920B2 (en) Target discriminator
KR102461439B1 (en) Detection of objects in the car&#39;s surroundings
JP7201002B2 (en) Image processing device, control program, and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230209

R150 Certificate of patent or registration of utility model

Ref document number: 7227227

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150