JP6657934B2 - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP6657934B2
JP6657934B2 JP2015253238A JP2015253238A JP6657934B2 JP 6657934 B2 JP6657934 B2 JP 6657934B2 JP 2015253238 A JP2015253238 A JP 2015253238A JP 2015253238 A JP2015253238 A JP 2015253238A JP 6657934 B2 JP6657934 B2 JP 6657934B2
Authority
JP
Japan
Prior art keywords
cluster
road surface
point
determination
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015253238A
Other languages
Japanese (ja)
Other versions
JP2017116445A (en
Inventor
利之 松原
利之 松原
誠悟 伊藤
誠悟 伊藤
照元 小森
照元 小森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2015253238A priority Critical patent/JP6657934B2/en
Publication of JP2017116445A publication Critical patent/JP2017116445A/en
Application granted granted Critical
Publication of JP6657934B2 publication Critical patent/JP6657934B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本開示は、物体検出装置に関する。   The present disclosure relates to an object detection device.

特許文献1には、レーザーセンサによって計測された物体による反射の計測点が少ない場合、複数フレームにおける物体による反射の計測点を合成することにより、追跡対象の認識精度を向上する装置が記載されている。   Patent Literature 1 discloses an apparatus that improves the recognition accuracy of a tracking target by combining measurement points of reflection by an object in a plurality of frames when the number of measurement points of reflection by an object measured by a laser sensor is small. I have.

特開2011−191227号公報JP 2011-191227 A

ところで、レーザーセンサによって計測された計測点は、物体による反射の計測点の他に、路面による反射の計測点を含む。例えば、レーン境界線などの路面ペイントが存在する場合には、路面による反射の計測点が取得される。特許文献1記載の装置は、合成対象に路面の計測点を含んだ場合、路面を追跡対象として誤検知するおそれがある。   Incidentally, the measurement points measured by the laser sensor include, in addition to the measurement points of the reflection by the object, the measurement points of the reflection by the road surface. For example, when there is a road surface paint such as a lane boundary line, a measurement point of reflection by the road surface is acquired. In the device described in Patent Literature 1, when a synthesis target includes a measurement point on a road surface, the road surface may be erroneously detected as a tracking target.

本技術分野においては、路面を追跡対象として誤検知することを抑制することが望まれている。   In the present technical field, it is desired to suppress erroneous detection of a road surface as a tracking target.

本発明に係る物体検出装置は、レーザーセンサにより計測された複数の計測点に基づいて、物体の候補である物体候補を出力する物体検出装置であって、レーザーセンサによって計測された計測点の位置又は反射強度に基づいて、計測点を、路面上の物体を計測した計測点である物体判定点、又は、路面を計測した計測点である路面判定点の何れかに分類する点群分類部と、複数の物体判定点の位置に基づいて、複数の物体判定点を1又は複数の第1クラスタにクラスタリングする第1判定部と、物体判定点の位置との距離が所定値以下となる路面判定点の位置、及び物体判定点の位置に基づいて、物体判定点の位置との距離が所定値以下となる路面判定点と物体判定点とを1又は複数の第2クラスタにクラスタリングする第2判定部と、複数の路面判定点の位置に基づいて、複数の路面判定点を1又は複数の第3クラスタにクラスタリングする第3判定部と、第1クラスタと前回の処理において出力された物体候補とを対応付けし、第1クラスタに対応付けできない物体候補と第2クラスタとを対応付けし、第1クラスタ及び第2クラスタに対応付けできない物体候補と第3クラスタとを対応付けする対応部と、対応部によって対応付けられた第1クラスタ、第2クラスタ及び第3クラスタを物体候補として出力する出力部と、を備える。   An object detection device according to the present invention is an object detection device that outputs an object candidate that is a candidate for an object based on a plurality of measurement points measured by a laser sensor, and the position of the measurement point measured by the laser sensor Or, based on the reflection intensity, a measurement point, an object determination point that is a measurement point that measured an object on the road surface, or a point group classification unit that classifies the road surface determination point that is a measurement point that measured the road surface A first determination unit that clusters the plurality of object determination points into one or a plurality of first clusters based on the positions of the plurality of object determination points, and a road surface determination in which a distance between the positions of the plurality of object determination points is equal to or less than a predetermined value. Based on the position of the point and the position of the object determination point, a second determination for clustering a road surface determination point and an object determination point whose distance to the position of the object determination point is equal to or less than a predetermined value into one or a plurality of second clusters. Department and multiple A third determining unit that clusters the plurality of road surface determination points into one or a plurality of third clusters based on the position of the road surface determination point, and associates the first cluster with the object candidate output in the previous process. A correspondence unit that associates an object candidate that cannot be associated with the first cluster with the second cluster, and associates an object candidate that cannot be associated with the first cluster and the second cluster with the third cluster. An output unit that outputs the attached first cluster, second cluster, and third cluster as object candidates.

本発明によれば、追跡対象の正検出割合を向上させながら路面を追跡対象として誤検知することを抑制することができる。   Advantageous Effects of Invention According to the present invention, it is possible to suppress erroneous detection of a road surface as a tracking target while improving the ratio of correct detection of the tracking target.

実施形態に係る物体検出装置の構成を説明するブロック図である。1 is a block diagram illustrating a configuration of an object detection device according to an embodiment. 物体判定点及び路面判定点の一例を示す図である。It is a figure showing an example of an object judgment point and a road surface judgment point. 物体判定点に基づくクラスタの一例を示す図である。FIG. 4 is a diagram illustrating an example of a cluster based on an object determination point. 路面判定点に基づくクラスタの一例を示す図である。It is a figure showing an example of a cluster based on a road surface judgment point. 条件付きのクラスタリングの説明図である。FIG. 4 is an explanatory diagram of conditional clustering. 条件付きのクラスタリングの変形例の説明図である。It is explanatory drawing of the modification of conditional clustering. 条件付きのクラスタリングよるクラスタの一例を示す図である。FIG. 4 is a diagram illustrating an example of a cluster by conditional clustering. クラスタ及び既知の物体候補を示す図である。It is a figure showing a cluster and a known object candidate. 従来のクラスタリングを説明する図である。FIG. 4 is a diagram illustrating conventional clustering.

以下、図面を参照して、本発明の実施形態について説明する。なお、以下の説明において、同一又は相当要素には同一符号を付し、重複する説明を省略する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same or corresponding elements will be denoted by the same reference symbols, without redundant description.

図1は、実施形態に係る物体検出装置1の構成を説明するブロック図である。物体検出装置1は、レーザーセンサ10を備える車両(乗用車など)に搭載される。物体検出装置1は、レーザーセンサ10により計測された複数の計測点に基づいて、物体の候補である物体候補を出力する。   FIG. 1 is a block diagram illustrating a configuration of an object detection device 1 according to the embodiment. The object detection device 1 is mounted on a vehicle (a passenger car or the like) including the laser sensor 10. The object detection device 1 outputs an object candidate that is a candidate for an object based on a plurality of measurement points measured by the laser sensor 10.

レーザーセンサ10は、車両の周囲環境を検出する検出器である。周囲環境には、路面及び物体が含まれる。物体は、有体物であり、静止物、移動物などを含む。レーザーセンサ10は、電磁波の発信回路、受信回路、各種演算を行う演算回路及び記憶部を備えている。電磁波は、例えばレーザ光やミリ波である。レーザーセンサ10は、車両の周囲の設定検知角度の範囲に亘って電磁波を発信し、物体又は路面が反射した反射波を受信する。レーザーセンサ10は、反射波の検出角度(受信角度)と、発信から受信までに要する電磁波の伝搬時間から求まる検出距離とに基づいて、物体又は路面の位置を検出する。位置とは、三次元の位置であり、高さを含む。なお、検出距離は反射波の強度から求めてもよい。レーザーセンサ10は、発信ごとに、電磁波を反射した位置を計測点として複数取得する。つまり、計測点とは、電磁波を反射した位置の観測点である。   The laser sensor 10 is a detector that detects a surrounding environment of the vehicle. The surrounding environment includes a road surface and an object. The object is a tangible object, and includes a stationary object, a moving object, and the like. The laser sensor 10 includes an electromagnetic wave transmitting circuit, a receiving circuit, an arithmetic circuit for performing various arithmetic operations, and a storage unit. The electromagnetic wave is, for example, a laser beam or a millimeter wave. The laser sensor 10 emits an electromagnetic wave over a range of a set detection angle around the vehicle, and receives a reflected wave reflected by an object or a road surface. The laser sensor 10 detects a position of an object or a road surface based on a detection angle (reception angle) of a reflected wave and a detection distance obtained from a propagation time of an electromagnetic wave required from transmission to reception. The position is a three-dimensional position and includes a height. Note that the detection distance may be obtained from the intensity of the reflected wave. The laser sensor 10 acquires a plurality of positions at which the electromagnetic waves are reflected as measurement points for each transmission. That is, the measurement point is an observation point at a position where the electromagnetic wave is reflected.

物体検出装置1は、ECU(Electronic Control Unit)11を備えている。レーザーセンサ10及びECU11は、CAN(Controller Area Network)通信回路を用いて通信するネットワークにそれぞれ接続され、相互通信を行うことができる。   The object detection device 1 includes an ECU (Electronic Control Unit) 11. The laser sensor 10 and the ECU 11 are each connected to a network that communicates using a CAN (Controller Area Network) communication circuit, and can perform mutual communication.

ECU11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、CAN通信回路などを有する電子制御ユニットである。ECU11は、CPUが出力する信号に基づいてハードウェアを制御し、後述する構成要素の機能を実現する。より具体的な動作の一例としては、ECU11は、CAN通信回路を動作させてデータを入出力し、入力データをRAMに記憶し、ROMに記憶されているプログラムをRAMにロードし、RAMにロードされたプログラムを実行する。   The ECU 11 is an electronic control unit having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a CAN communication circuit, and the like. The ECU 11 controls hardware based on a signal output from the CPU, and realizes functions of components described later. As an example of a more specific operation, the ECU 11 operates the CAN communication circuit to input and output data, stores the input data in the RAM, loads the program stored in the ROM into the RAM, and loads the program into the RAM. Executes the specified program.

ECU11は、点群分類部20、クラスタリング部30、対応部400及び追跡候補出力部(出力部)50を備える。   The ECU 11 includes a point cloud classification unit 20, a clustering unit 30, a correspondence unit 400, and a tracking candidate output unit (output unit) 50.

点群分類部20は、レーザーセンサ10によって計測された計測点の位置又は反射強度に基づいて、計測点を、路面上の物体を計測した計測点である物体判定点、又は、路面を計測した計測点である路面判定点の何れかに分類する。物体判定点は、物体からの反射による計測点と推定した点である。路面判定点は、路面からの反射による計測点と推定した点である。これらの判定は、反射強度が不安定な場合などにおいて、路面からの反射による計測点を物体判定点と推定したり、物体からの反射による計測点を路面判定点と推定したりする場合がある。   The point cloud classification unit 20 measures the measurement point based on the position or the reflection intensity of the measurement point measured by the laser sensor 10, an object determination point that is a measurement point obtained by measuring an object on the road surface, or measures the road surface. It is classified into any of the road surface determination points that are measurement points. The object determination point is a point estimated as a measurement point due to reflection from the object. The road surface determination point is a point estimated as a measurement point due to reflection from the road surface. In these determinations, when the reflection intensity is unstable, for example, a measurement point due to reflection from the road surface may be estimated as an object determination point, or a measurement point due to reflection from an object may be estimated as a road surface determination point. .

点群分類部20は、レーザーセンサ10によって計測された高さ情報が第1閾値以上の計測点は、物体判定点に分類する。第1閾値は、高さ情報によって物体か路面かを分類するための閾値である。点群分類部20は、レーザーセンサ10によって計測された高さ情報が第1閾値以上でない計測点は、路面判定点であると分類する。点群分類部20は、高さ情報及び反射強度を複合させて、物体判定点又は路面判定点の何れかに分類してもよい。例えば、点群分類部20は、レーザーセンサ10によって計測された高さ情報が第1閾値を含む所定範囲に含まれ、かつ、反射強度が第2閾値以下となる計測点を、路面判定点と分類してもよい。   The point group classification unit 20 classifies the measurement points whose height information measured by the laser sensor 10 is equal to or more than the first threshold as object determination points. The first threshold is a threshold for classifying an object or a road surface based on height information. The point cloud classification unit 20 classifies the measurement point whose height information measured by the laser sensor 10 is not equal to or greater than the first threshold value as a road surface determination point. The point cloud classification unit 20 may classify the object into either an object determination point or a road surface determination point by combining the height information and the reflection intensity. For example, the point cloud classification unit 20 determines a measurement point where the height information measured by the laser sensor 10 is included in a predetermined range including the first threshold and the reflection intensity is equal to or less than the second threshold as a road surface determination point. It may be classified.

図2は、物体判定点及び路面判定点の一例を示す図である。図2には、図示しないカメラセンサからの前方画像G1と、車両の周囲を俯瞰するように座標変換したマップ画像G2とが示されている。図2では、一台の先行車両と二台の後続車両が存在する場合を示している。図2に示されるように、マップ画像G2には、物体判定点21(白円)及び路面判定点22(黒円)が示されている。マップ画像G2上において、前方画像G1に示された先行車両Hに対応する位置には、物体判定点21が集中している。また、マップ画像G2上において、前方画像G1に示されたレーン境界線Lに対応する位置には、路面判定点22が集中している。路面からの反射は、レーン境界線や路面ペイントの部分で反射が強くなったり乱れたりする。このため、前方画像G1に示されたレーン境界線Lに対応する位置に、路面判定点22及び物体判定点21が混在している。さらに、二台の後続車両の計測点が不足しており、マップ画像G2では正確に確認できていない例を示している。   FIG. 2 is a diagram illustrating an example of an object determination point and a road surface determination point. FIG. 2 shows a forward image G1 from a camera sensor (not shown) and a map image G2 subjected to coordinate transformation so that the surroundings of the vehicle are overlooked. FIG. 2 illustrates a case where one preceding vehicle and two following vehicles exist. As shown in FIG. 2, the map image G2 shows an object determination point 21 (white circle) and a road surface determination point 22 (black circle). On the map image G2, the object determination point 21 is concentrated at a position corresponding to the preceding vehicle H shown in the front image G1. On the map image G2, the road surface determination points 22 are concentrated at positions corresponding to the lane boundary lines L shown in the front image G1. The reflection from the road surface becomes strong or disturbed at the lane boundary and the road surface paint. For this reason, the road surface determination point 22 and the object determination point 21 are mixed at a position corresponding to the lane boundary line L shown in the front image G1. Further, an example is shown in which the measurement points of the two following vehicles are insufficient and cannot be accurately confirmed in the map image G2.

クラスタリング部30は、物体クラスタリング部(第1判定部)301、条件クラスタリング部(第2判定部)302及び路面クラスタリング部(第3判定部)303を備える。物体クラスタリング部301は、複数の物体判定点21の位置に基づいて、複数の物体判定点21を1又は複数の第1クラスタC1にクラスタリングする。クラスタとは、複数の計測点を纏めて総称するものであり、1つのグループである。クラスタリングとは、複数の計測点をグループ化することである。物体クラスタリング部301は、近接する物体判定点21を同一の第1クラスタとして抽出する。具体的な一例として、物体クラスタリング部301は、物体判定点21を二次元平面へ投影する。次に、物体クラスタリング部301は、投影された点群をクラスタ用グリッド地図へ変換する。次に、物体クラスタリング部301は、クラスタ用グリッド地図の各列を探索し、連結したグリッドに同一のクラスタ番号を付与する。これにより、物体クラスタリング部301は、連結したグリッドに対応した物体判定点21を同一の第1クラスタにクラスタリングする。   The clustering unit 30 includes an object clustering unit (first determination unit) 301, a condition clustering unit (second determination unit) 302, and a road surface clustering unit (third determination unit) 303. The object clustering unit 301 clusters the plurality of object determination points 21 into one or a plurality of first clusters C1 based on the positions of the plurality of object determination points 21. A cluster is a collective term for a plurality of measurement points and is a group. Clustering refers to grouping a plurality of measurement points. The object clustering unit 301 extracts the adjacent object determination points 21 as the same first cluster. As a specific example, the object clustering unit 301 projects the object determination point 21 on a two-dimensional plane. Next, the object clustering unit 301 converts the projected point group into a cluster grid map. Next, the object clustering unit 301 searches each column of the cluster grid map and assigns the same cluster number to the connected grids. Thereby, the object clustering unit 301 clusters the object determination points 21 corresponding to the connected grids into the same first cluster.

図3は、物体判定点21に基づく第1クラスタC1の一例を示す図である。図3は、図2に示された物体判定点21及び路面判定点22について、第1クラスタC1にクラスタリングした結果を示す。図3に示されるように、近接した物体判定点21は、1つの第1クラスタC1にクラスタリングされる。   FIG. 3 is a diagram illustrating an example of the first cluster C1 based on the object determination point 21. FIG. 3 shows a result of clustering the object determination point 21 and the road surface determination point 22 shown in FIG. 2 into the first cluster C1. As shown in FIG. 3, the approaching object determination points 21 are clustered into one first cluster C1.

路面クラスタリング部303は、複数の路面判定点22の位置に基づいて、複数の路面判定点22を1又は複数の第3クラスタC3にクラスタリングする。路面クラスタリング部303のクラスタリングの手法は、クラスタリングの対象が路面判定点22である点を除き、物体クラスタリング部301のクラスタリング手法と同一である。   The road surface clustering unit 303 clusters the plurality of road surface determination points 22 into one or a plurality of third clusters C3 based on the positions of the plurality of road surface determination points 22. The clustering method of the road surface clustering unit 303 is the same as the clustering method of the object clustering unit 301 except that the clustering target is the road surface determination point 22.

図4は、路面判定点22に基づく第3クラスタC3の一例を示す図である。図4は、図2に示された物体判定点21及び路面判定点22について、第3クラスタC3にクラスタリングした結果を示す。図4に示されるように、近接した路面判定点22は、1つの第3クラスタC3にクラスタリングされる。   FIG. 4 is a diagram illustrating an example of the third cluster C3 based on the road surface determination point 22. FIG. 4 shows the result of clustering the object determination point 21 and the road surface determination point 22 shown in FIG. 2 into the third cluster C3. As shown in FIG. 4, the adjacent road surface determination points 22 are clustered into one third cluster C3.

条件クラスタリング部302は、物体判定点21の位置との距離が所定値以下となる路面判定点22の位置、及び物体判定点21の位置に基づいて、物体判定点21の位置との距離が所定値以下となる路面判定点22と物体判定点21とを1又は複数の第2クラスタC2にクラスタリングする。図4に示されるように、全ての路面判定点22をクラスタリングした場合には、実際の路面又はレーン境界線なども追跡候補となるため、誤検知が発生する可能性が高くなる。一例として、条件クラスタリング部302は、クラスタリングの対象の路面判定点22を、物体判定点21の近傍の路面判定点22のみに限定する。図5は、条件付きのクラスタリングの説明図である。路面判定点22(22A)と物体判定点21との距離L1は所定値以下である。路面判定点22(22B)と物体判定点21との距離L2は所定値より大きい。図5に示されるように、路面判定点22のうち、物体判定点21の位置との距離が所定値以下となる路面判定点22(22A)のみがクラスタリングの対象となり、物体判定点21の位置との距離が所定値以下とならない路面判定点22(22B)は、クラスタリングの対象とならない。条件クラスタリング部302は、対象となった路面判定点22と物体判定点21とを第2クラスタC2(C21)としてクラスタリングする。条件クラスタリング部302のクラスタリングの手法は、対象となった路面判定点22及び物体判定点21についてクラスタリングする点を除き、物体クラスタリング部301のクラスタリング手法と同一である。   The condition clustering unit 302 determines that the distance to the position of the object determination point 21 is predetermined based on the position of the road surface determination point 22 and the position of the object determination point 21 whose distance to the position of the object determination point 21 is equal to or less than a predetermined value. The road surface determination point 22 and the object determination point 21 that are equal to or less than the value are clustered into one or a plurality of second clusters C2. As shown in FIG. 4, when all the road surface determination points 22 are clustered, an actual road surface or a lane boundary is also a tracking candidate, so that the possibility of erroneous detection increases. As an example, the condition clustering unit 302 limits the road surface determination point 22 to be clustered to only the road surface determination point 22 near the object determination point 21. FIG. 5 is an explanatory diagram of conditional clustering. The distance L1 between the road surface determination point 22 (22A) and the object determination point 21 is equal to or less than a predetermined value. The distance L2 between the road surface determination point 22 (22B) and the object determination point 21 is larger than a predetermined value. As shown in FIG. 5, among the road surface determination points 22, only the road surface determination point 22 (22A) whose distance from the position of the object determination point 21 is equal to or less than a predetermined value is subjected to clustering, and the position of the object determination point 21 is determined. The road surface determination point 22 (22B) in which the distance from the road surface does not become a predetermined value or less is not a target of clustering. The condition clustering unit 302 clusters the target road surface determination point 22 and the object determination point 21 as a second cluster C2 (C21). The clustering method of the condition clustering unit 302 is the same as the clustering method of the object clustering unit 301 except that the target road surface determination point 22 and the object determination point 21 are clustered.

図6は、条件付きのクラスタリングの変形例の説明図である。条件クラスタリング部302は、時系列追跡モデルを用いてクラスタをさらにクラスタリングしてもよい。時系列追跡モデルとは、前回の処理において出力された物体候補の位置、速度、方向なら大きさ(長さ及び幅)を用いて今回の処理における物体候補の位置を推定するモデルである。図6の(A)は、一台の車両の計測結果であり、左右両端が物体判定点21、中央部分が路面判定点22である。図6の(A)に示されるように、条件クラスタリング部302は、上述した手法により、物体判定点21の近傍の路面判定点22と、当該物体判定点21とを第2クラスタC2にクラスタリングする。この場合、実際には一台の車両であっても、2つのクラスタに分離する。条件クラスタリング部302は、物体候補の位置、速度、方向及び大きさ(長さと幅)に基づいて今回の処理において物体候補Bを推定し、今回の処理において物体候補Bが存在する範囲内にクラスタが含まれる場合には、1つの第2クラスタC2(C22)としてクラスタリングする。   FIG. 6 is an explanatory diagram of a modified example of the conditional clustering. The condition clustering unit 302 may further cluster clusters using a time-series tracking model. The time-series tracking model is a model that estimates the position of the object candidate in the current process using the size (length and width) of the position, speed, and direction of the object candidate output in the previous process. FIG. 6A shows the measurement result of one vehicle, in which the left and right ends are the object determination points 21, and the center part is the road surface determination point 22. As shown in FIG. 6A, the condition clustering unit 302 clusters the road determination point 22 near the object determination point 21 and the object determination point 21 into a second cluster C2 by the above-described method. . In this case, even if it is actually one vehicle, it is separated into two clusters. The condition clustering unit 302 estimates the object candidate B in the current process based on the position, speed, direction, and size (length and width) of the object candidate, and clusters the object candidate B in a range where the object candidate B exists in the current process. Is included, clustering is performed as one second cluster C2 (C22).

図7は、条件付きのクラスタリングよる第2クラスタC2の一例を示す図である。図6は、図2に示された物体判定点21及び路面判定点22について、第2クラスタC2にクラスタリングした結果を示す。図6に示されるように、物体判定点21の位置との距離が所定値以下である路面判定点22と物体判定点21とは、1又は複数の第2クラスタC2(C21)にクラスタリングされる。これにより、図4と比較して、誤検出の原因となる不要なクラスタが少なくなるとともに、物体判定点21と路面判定点22とが混在して従来ではクラスタリングできない場合でもクラスタリングすることができる。また、条件付きのクラスタリングの変形例を適用することで、一台の車両を2つにクラスタリングすることも防ぐことができる(第2クラスタC2(C22))。このため、後述する対応部400が誤って対応付けすることを回避することができる。   FIG. 7 is a diagram illustrating an example of the second cluster C2 based on conditional clustering. FIG. 6 shows a result of clustering the object determination point 21 and the road surface determination point 22 shown in FIG. 2 into the second cluster C2. As shown in FIG. 6, the road surface determination point 22 and the object determination point 21 whose distance from the position of the object determination point 21 is equal to or less than a predetermined value are clustered into one or a plurality of second clusters C2 (C21). . Thus, as compared with FIG. 4, unnecessary clusters that cause erroneous detection are reduced, and clustering can be performed even when the object determination point 21 and the road surface determination point 22 coexist and cannot be clustered conventionally. Further, by applying a modified example of conditional clustering, it is possible to prevent one vehicle from being clustered into two (second cluster C2 (C22)). For this reason, it can be avoided that the correspondence unit 400 described later mistakenly associates.

さらに、クラスタリング部30は、後段の対応部400の処理のために、各クラスタに確信度を設定する。クラスタリング部30は、第1クラスタC1の確信度を、第2クラスタC2及び第3クラスタC3の確信度よりも高く設定する(確信度高)。クラスタリング部30は、第2クラスタC2の確信度を、第1クラスタC1の確信度よりも低く、第3クラスタC3の確信度よりも高く設定する(確信度中)。つまり、クラスタリング部30は、第3クラスタC3の確信度を、第1クラスタC1及び第2クラスタC2の確信度よりも低く設定する(確信度低)。このように、クラスタリング部30は、第1クラスタC1、第2クラスタC2及び第3クラスタC3の順に、確信度が低くなるように確信度を設定する。   Further, the clustering unit 30 sets a certainty factor for each cluster for the processing of the corresponding unit 400 at the subsequent stage. The clustering unit 30 sets the certainty factor of the first cluster C1 higher than the certainty factors of the second cluster C2 and the third cluster C3 (high certainty factor). The clustering unit 30 sets the certainty factor of the second cluster C2 lower than the certainty factor of the first cluster C1 and higher than the certainty factor of the third cluster C3 (medium). That is, the clustering unit 30 sets the certainty factor of the third cluster C3 to be lower than the certainty factors of the first cluster C1 and the second cluster C2 (low certainty factor). As described above, the clustering unit 30 sets the certainty in the order of the first cluster C1, the second cluster C2, and the third cluster C3 so that the certainty decreases.

対応部400は、第1クラスタC1と前回の処理において出力された物体候補とを対応付けし、第1クラスタC1に対応付けできない物体候補と第2クラスタC2とを対応付けし、第1クラスタC1及び第2クラスタC2に対応付けできない物体候補と第3クラスタC3とを対応付けする。対応部400は、各クラスタに設定された確信度に基づいて上記処理を行う。   The correspondence unit 400 associates the first cluster C1 with the object candidate output in the previous processing, associates an object candidate that cannot be associated with the first cluster C1 with the second cluster C2, and associates the first cluster C1 The object candidate that cannot be associated with the second cluster C2 is associated with the third cluster C3. The correspondence unit 400 performs the above-described processing based on the certainty factor set for each cluster.

対応部400は、確信度が高い順に物体候補との対応付けを行う。対応部400は、第1対応部40、第2対応部41及び第3対応部42を備えている。第1対応部40は、最初に第1クラスタC1(確信度高)と前回の処理において出力された物体候補とを対応付けする。対応付けは、例えばユークリッド距離やマハラノビス距離などを用いた公知の手法で行われる。第1対応部40は、対応付けられた追跡候補と第1クラスタC1との情報を追跡候補出力部50へ出力する。第1対応部40は、全ての追跡候補と対応付けできない第1クラスタC1を追跡候補出力部50へ出力する。第1対応部40は、全ての第1クラスタC1について対応付け判定が終了した場合、対応付かない追跡候補を第2対応部41へ出力する。   The associating unit 400 associates objects with candidate objects in descending order of certainty factor. The corresponding unit 400 includes a first corresponding unit 40, a second corresponding unit 41, and a third corresponding unit 42. The first correspondence unit 40 first associates the first cluster C1 (high confidence) with the object candidate output in the previous process. The association is performed by a known method using, for example, a Euclidean distance or a Mahalanobis distance. The first corresponding unit 40 outputs information on the associated tracking candidate and the first cluster C1 to the tracking candidate output unit 50. The first corresponding unit 40 outputs to the tracking candidate output unit 50 the first cluster C1 that cannot be associated with all the tracking candidates. When the association determination is completed for all the first clusters C <b> 1, the first corresponding unit 40 outputs the uncorrelated tracking candidates to the second corresponding unit 41.

第2対応部41は、第2クラスタC2(確信度中)と、第1対応部40が対応付けなかった追跡候補とを対応付けする。第2対応部41は、対応付けられた追跡候補と第2クラスタC2との情報を追跡候補出力部50へ出力する。また、第2対応部41は、全ての追跡候補と対応付けできない第2クラスタC2を追跡候補出力部50へ出力する。第2対応部41は、全ての第2クラスタC2について対応付け判定が終了した場合、対応付かない追跡候補を第3対応部42へ出力する。   The second corresponding unit 41 associates the second cluster C2 (medium confidence level) with a tracking candidate that the first corresponding unit 40 did not associate. The second correspondence unit 41 outputs information on the associated tracking candidate and the second cluster C2 to the tracking candidate output unit 50. Further, the second correspondence unit 41 outputs the second cluster C2 that cannot be associated with all the tracking candidates to the tracking candidate output unit 50. When the association determination is completed for all the second clusters C2, the second corresponding unit 41 outputs the uncorrelated tracking candidates to the third corresponding unit 42.

第3対応部42は、第3クラスタC3(確信度低)と、第1対応部40及び第2対応部41が対応付けなかった追跡候補とを対応付けする。第3対応部42は、対応付けられた追跡候補と第3クラスタC3との情報を追跡候補出力部50へ出力する。第3対応部42は、全ての第3クラスタC3について対応付け判定が終了した場合、対応付かないクラスタは破棄する。   The third corresponding unit 42 associates the third cluster C3 (low confidence) with the tracking candidate that the first corresponding unit 40 and the second corresponding unit 41 did not associate. The third correspondence unit 42 outputs information on the associated tracking candidate and the third cluster C3 to the tracking candidate output unit 50. When the association determination has been completed for all the third clusters C3, the third corresponding unit 42 discards the unassociated clusters.

追跡候補出力部50は、対応部400によって対応付けられた第1クラスタC1、第2クラスタ及び第3クラスタを物体候補として出力する。また、追跡候補出力部50は、対応付けされていない第1クラスタC1及び第2クラスタについては、新規の物体候補として出力する。   The tracking candidate output unit 50 outputs the first cluster C1, the second cluster, and the third cluster associated by the association unit 400 as object candidates. In addition, the tracking candidate output unit 50 outputs the first cluster C1 and the second cluster that are not associated with each other as new object candidates.

図8は、クラスタ及び既知の物体候補を示す図である。図8に示されるように、ある時刻tにおいて、自車両2の周囲に確信度が付与されたクラスタC10〜C60が観測されたとする。前回の処理(時刻t−1)において、追跡候補T1〜T3は車両であるとする。   FIG. 8 is a diagram illustrating clusters and known object candidates. As shown in FIG. 8, at a certain time t, it is assumed that clusters C <b> 10 to C <b> 60 with certainty factors are observed around the own vehicle 2. In the previous process (time t-1), it is assumed that the tracking candidates T1 to T3 are vehicles.

時刻t−1における追跡候補T1と、時刻tにおけるクラスタC10及びクラスタC20の対応付けについて説明する。クラスタC10は、第1クラスタ(確信度高)である。クラスタC20は、第2クラスタ(確信度低)である。ユークリッド距離ではクラスタC20の方が近い。しかし、確信度を考慮して追跡候補T1とクラスタC10とが対応付けられる。   The correspondence between the tracking candidate T1 at time t-1 and the clusters C10 and C20 at time t will be described. Cluster C10 is the first cluster (high confidence). Cluster C20 is a second cluster (low confidence). The cluster C20 is closer in Euclidean distance. However, the tracking candidate T1 is associated with the cluster C10 in consideration of the certainty factor.

時刻t−1における追跡候補T2と、時刻tにおけるクラスタC30及びクラスタC40の対応付けについて説明する。クラスタC30は、第3クラスタ(確信度中)である。クラスタC40は、第2クラスタ(確信度低)である。ユークリッド距離ではクラスタC40の方が近い。しかし、確信度を考慮して追跡候補T2とクラスタC30とが対応付けられる。   The following describes how the tracking candidate T2 at time t-1 is associated with the cluster C30 and the cluster C40 at time t. Cluster C30 is the third cluster (medium confidence). Cluster C40 is the second cluster (low confidence). The cluster C40 is closer in Euclidean distance. However, the tracking candidate T2 is associated with the cluster C30 in consideration of the certainty factor.

時刻t−1における追跡候補T3と、時刻tにおけるクラスタC50及びクラスタC60の対応付けについて説明する。クラスタC50及びクラスタC60は、第2クラスタ(確信度低)である。周囲に確信度が高いクラスタが存在しないため、追跡候補T2とユークリッド距離が近いクラスタC50が対応付けられ、クラスタC60は破棄される。   The following describes how the tracking candidate T3 at time t-1 is associated with the cluster C50 and the cluster C60 at time t. Cluster C50 and cluster C60 are the second cluster (low confidence). Since there is no cluster with high confidence in the surroundings, the tracking candidate T2 is associated with the cluster C50 having a short Euclidean distance, and the cluster C60 is discarded.

以上、本実施形態に係る物体検出装置1によれば、第1クラスタC1、第2クラスタC2及び第3クラスタC3の順、つまり確信度の高い順に、前回の処理において出力された物体候補と対応付けされる。このため、確信度の低いクラスタが追跡候補と対応付けられる可能性が低くなる。よって、路面を追跡対象として誤検知することを抑制することができる。その結果、追跡対象の正検出割合も向上させることができる。   As described above, according to the object detection device 1 according to the present embodiment, the first cluster C1, the second cluster C2, and the third cluster C3 correspond to the object candidates output in the previous process in the order of higher confidence. Attached. For this reason, the possibility that a cluster with low confidence is associated with a tracking candidate is reduced. Therefore, erroneous detection of a road surface as a tracking target can be suppressed. As a result, the correct detection ratio of the tracking target can be improved.

また、本実施形態に係る物体検出装置1によれば、従来では安定に追跡できなかった対象を安定に追跡できる。まず、本実施形態に係る物体検出装置1の効果と対比説明するために、従来のクラスタリングについて説明する。図9は、従来のクラスタリングを説明する図である。図9では、後方車両H1の時刻t〜t3までの計測点を平面視して示している。従来のクラスタリングでは、路面判定点22として判定された場合、クラスタリングの対象とはならない。このため、時刻t,t+1及びt+3の計測点のように、同一対象を計測している場合であっても、微小なクラスタa〜dを検出するだけであったり、時刻t+2の計測点のように、全くクラスタが計測されなかったりする事象が発生していた。このため、追跡対象と対応付けすることが困難であったり、追跡対象をロストしたりするおそれがあった。   Further, according to the object detection device 1 according to the present embodiment, it is possible to stably track an object that cannot be stably tracked in the past. First, conventional clustering will be described in order to compare with the effect of the object detection device 1 according to the present embodiment. FIG. 9 is a diagram for explaining conventional clustering. In FIG. 9, the measurement points of the rear vehicle H1 from time t to t3 are shown in plan view. In the conventional clustering, when it is determined as the road surface determination point 22, the clustering is not performed. Therefore, even when measuring the same target like the measurement points at times t, t + 1, and t + 3, only the minute clusters a to d are detected, or the measurement points at time t + 2 are not detected. In some cases, clusters were not measured at all. For this reason, there is a possibility that it is difficult to associate the target with the tracking target or the tracking target is lost.

これに対して、本実施形態に係る物体検出装置1によれば、レーザーセンサ10による計測点がクラスタリング部30によって第1クラスタC1、第2クラスタC2及び第3クラスタC3にクラスタリングされる。物体判定点21及び路面判定点22をクラスタリングした第3クラスタC3を採用することで、時刻tにおいて微小なクラスタa,bから第3クラスタC3を生成して追跡対象とすることができる。これにより、従来では安定に追跡できなかった対象を安定に追跡できる。   On the other hand, according to the object detection device 1 according to the present embodiment, the measurement points of the laser sensor 10 are clustered into the first cluster C1, the second cluster C2, and the third cluster C3 by the clustering unit 30. By employing the third cluster C3 obtained by clustering the object determination point 21 and the road surface determination point 22, the third cluster C3 can be generated from the minute clusters a and b at the time t and can be set as a tracking target. As a result, an object that could not be tracked stably in the past can be tracked stably.

さらに、本実施形態に係る物体検出装置1によれば、複数フレームを合成する従来の場合に比べて合成処理を行わない分、処理を速くすることができる。このため、時間的な検出遅れを抑制することができる。また、疎なレーザーセンサ10を車両の低い取り付け位置に取り付けた場合、物体判定点21と路面判定点22との分類が困難になるおそれがある。このような場合であっても、本実施形態に係る物体検出装置1は、物体判定点21及び路面判定点22をクラスタリングした第3クラスタC3を採用することで、適切に追跡対象を出力することができる。   Furthermore, according to the object detection device 1 according to the present embodiment, compared to the conventional case of combining a plurality of frames, the processing can be accelerated by not performing the combining processing. For this reason, a temporal detection delay can be suppressed. When the sparse laser sensor 10 is mounted at a low mounting position of the vehicle, it may be difficult to classify the object determination point 21 and the road surface determination point 22. Even in such a case, the object detection device 1 according to the present embodiment can appropriately output the tracking target by employing the third cluster C3 in which the object determination points 21 and the road surface determination points 22 are clustered. Can be.

本発明は、上述した実施形態に基づいて、当業者の知識に基づいて種々の変更、改良を施した様々な形態で実施することができる。   The present invention can be implemented in various forms with various changes and improvements based on the knowledge of those skilled in the art based on the above-described embodiments.

1…物体検出装置、2…自車両、10…レーザーセンサ、20…点群分類部、21…物体判定点、22…路面判定点、30…クラスタリング部、40…第1対応部、41…第2対応部、42…第3対応部、50…追跡候補出力部、301…物体クラスタリング部(第1判定部)、302…条件クラスタリング部(第2判定部)、303…路面クラスタリング部(第3判定部)、400…対応部。   DESCRIPTION OF SYMBOLS 1 ... Object detection apparatus, 2 ... own vehicle, 10 ... Laser sensor, 20 ... Point group classification | category part, 21 ... Object determination point, 22 ... Road surface determination point, 30 ... Clustering part, 40 ... 1st corresponding part, 41 ... No. 2 corresponding part, 42 ... third corresponding part, 50 ... tracking candidate output part, 301 ... object clustering part (first determination part), 302 ... condition clustering part (second determination part), 303 ... road surface clustering part (third part) Judging part), 400 ... corresponding part.

Claims (1)

レーザーセンサにより計測された複数の計測点に基づいて、物体の候補である物体候補を出力する物体検出装置であって、
前記レーザーセンサによって計測された前記計測点の位置又は反射強度に基づいて、前記計測点を、路面上の物体を計測した計測点である物体判定点、又は、路面を計測した計測点である路面判定点の何れかに分類する点群分類部と、
複数の物体判定点の位置に基づいて、前記複数の物体判定点を1又は複数の第1クラスタにクラスタリングする第1判定部と、
前記物体判定点の位置との距離が所定値以下となる前記路面判定点の位置、及び前記物体判定点の位置に基づいて、前記物体判定点の位置との距離が所定値以下となる前記路面判定点と前記物体判定点とを1又は複数の第2クラスタにクラスタリングする第2判定部と、
複数の路面判定点の位置に基づいて、前記複数の路面判定点を1又は複数の第3クラスタにクラスタリングする第3判定部と、
前記第1クラスタと前回の処理において出力された物体候補である前回物体候補とを対応付けし、前記第1クラスタに対応付けできない前記前回物体候補と前記第2クラスタとを対応付けし、前記第1クラスタ及び前記第2クラスタに対応付けできない前記前回物体候補と前記第3クラスタとを対応付けする対応部と、
前記対応部によって対応付けられた前記第1クラスタ、前記第2クラスタ及び前記第3クラスタを前記物体候補として出力するとともに、前記対応部によって対応付けられていない前記第1クラスタ及び前記第2クラスタを新規の前記物体候補として出力する出力部と、
を備える物体検出装置。
An object detection device that outputs an object candidate that is a candidate for an object based on a plurality of measurement points measured by a laser sensor,
Based on the position or reflection intensity of the measurement point measured by the laser sensor, the measurement point, the object determination point that is a measurement point that measured an object on the road surface, or a road surface that is a measurement point that measured the road surface A point group classifying unit that classifies any of the judgment points,
A first determination unit that clusters the plurality of object determination points into one or a plurality of first clusters based on positions of the plurality of object determination points;
The road surface where the distance to the position of the object determination point is equal to or less than a predetermined value, based on the position of the road surface determination point where the distance to the position of the object determination point is equal to or less than a predetermined value, and A second determination unit that clusters the determination point and the object determination point into one or more second clusters;
A third determination unit configured to cluster the plurality of road surface determination points into one or a plurality of third clusters based on positions of the plurality of road surface determination points;
It said first and associates the previous object candidate is a cluster and object candidate output in the last processing, and associates the previous object candidate that can not be associated with the first cluster and the second cluster, the first A corresponding unit that associates the previous object candidate that cannot be associated with one cluster and the second cluster with the third cluster;
The first cluster associated by the corresponding unit, and outputs the second cluster and the third cluster as the object candidate, the first cluster and the second cluster that is not associated with the corresponding portion An output unit that outputs as the new object candidate ,
An object detection device comprising:
JP2015253238A 2015-12-25 2015-12-25 Object detection device Active JP6657934B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015253238A JP6657934B2 (en) 2015-12-25 2015-12-25 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015253238A JP6657934B2 (en) 2015-12-25 2015-12-25 Object detection device

Publications (2)

Publication Number Publication Date
JP2017116445A JP2017116445A (en) 2017-06-29
JP6657934B2 true JP6657934B2 (en) 2020-03-04

Family

ID=59231925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015253238A Active JP6657934B2 (en) 2015-12-25 2015-12-25 Object detection device

Country Status (1)

Country Link
JP (1) JP6657934B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7361682B2 (en) * 2017-09-13 2023-10-16 ベロダイン ライダー ユーエスエー,インコーポレイテッド Multi-resolution, simultaneous localization and mapping based on 3D LIDAR measurements
JP6953084B2 (en) * 2017-10-06 2021-10-27 日本無線株式会社 Radar signal processing device and radar signal processing program
JP2019203774A (en) * 2018-05-23 2019-11-28 酒井重工業株式会社 Obstacle detector for construction vehicle

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3336825B2 (en) * 1995-09-25 2002-10-21 三菱自動車工業株式会社 Obstacle recognition device
JP4082471B2 (en) * 1997-04-04 2008-04-30 富士重工業株式会社 Outside monitoring device
JP5728815B2 (en) * 2010-03-18 2015-06-03 株式会社豊田中央研究所 Object detection device
US8260539B2 (en) * 2010-05-12 2012-09-04 GM Global Technology Operations LLC Object and vehicle detection and tracking using 3-D laser rangefinder
EP2602761A4 (en) * 2010-08-03 2017-11-01 Panasonic Intellectual Property Management Co., Ltd. Object detection device, object detection method, and program
JP5838901B2 (en) * 2012-04-25 2016-01-06 トヨタ自動車株式会社 Object identification device and object identification method

Also Published As

Publication number Publication date
JP2017116445A (en) 2017-06-29

Similar Documents

Publication Publication Date Title
US10502832B2 (en) Object recognition apparatus and noise removal method
US10101448B2 (en) On-board radar apparatus and region detection method
US10748014B2 (en) Processing device, object recognition apparatus, device control system, processing method, and computer-readable recording medium
KR102054926B1 (en) System and method for detecting close cut-in vehicle based on free space signal
CN113228040A (en) Multi-level object heading estimation
US10482332B2 (en) Pedestrian determining apparatus for determining whether an object is a pedestrian crossing ahead of an own vehicle
WO2020250020A1 (en) Lidar and radar based tracking and mapping system and method thereof
JP6657934B2 (en) Object detection device
US20220171975A1 (en) Method for Determining a Semantic Free Space
EP3467545A1 (en) Object classification
JP7418476B2 (en) Method and apparatus for determining operable area information
US11841419B2 (en) Stationary and moving object recognition apparatus
JP2019164098A (en) Road surface shape estimation device, road surface shape estimation program, and moving body
CN111699407A (en) Method for detecting stationary object near fence by microwave radar and millimeter wave radar
US11983937B2 (en) Intersecting road estimation device
CN107003405B (en) Method for detecting the shielding of a sensor device of a motor vehicle by an object, computing device, driver assistance system and motor vehicle
CN117677862A (en) Pseudo image point identification method, terminal equipment and computer readable storage medium
JP6746032B2 (en) Fog identification device, fog identification method, and fog identification program
CN113313654A (en) Laser point cloud filtering and denoising method, system, equipment and storage medium
JP6723491B2 (en) Fog identification device, fog identification method, and fog identification program
CN112415519A (en) Obstacle detection method, device and system for aircraft
JP2021021967A (en) Recognition system, vehicle control system, recognition method, and program
EP4099211A1 (en) Method and device for training a machine learning algorithm
JP7254243B2 (en) Object detection system and object detection method
US20230112664A1 (en) Systems and methods for detecting objects based on lidar data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190611

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200120

R151 Written notification of patent or utility model registration

Ref document number: 6657934

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151