JP2018048949A - Object recognition device - Google Patents
Object recognition device Download PDFInfo
- Publication number
- JP2018048949A JP2018048949A JP2016185478A JP2016185478A JP2018048949A JP 2018048949 A JP2018048949 A JP 2018048949A JP 2016185478 A JP2016185478 A JP 2016185478A JP 2016185478 A JP2016185478 A JP 2016185478A JP 2018048949 A JP2018048949 A JP 2018048949A
- Authority
- JP
- Japan
- Prior art keywords
- geometric feature
- feature amount
- point group
- road boundary
- road
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、自動運転システムに用いて好適な物体識別装置に関する。 The present invention relates to an object identification device suitable for use in an automatic driving system.
特許文献1には、クラスタを構成する測距点群の自車両の進行方向に対する傾きが予め設定した閾値以内であれば、当該クラスタが表す物標は、移動物体ではなく、道路に沿って設置された壁状物体であると判断する方法が開示されている。
In
道路の曲率が大きいカーブ出入り口などにおいては、道路に沿って設置された壁状物体の自車両の進行方向に対する傾きは大きくなる。この場合、上記方法では、自車両の進行方向に対する測距点群の傾きが閾値を超えてしまうために、壁状物体であるにもかかわらず壁状物体ではないと誤判断してしまうおそれがある。 In a curved doorway with a large curvature of the road, the inclination of the wall-like object installed along the road with respect to the traveling direction of the host vehicle becomes large. In this case, in the above method, since the inclination of the distance measuring point group with respect to the traveling direction of the host vehicle exceeds the threshold value, there is a possibility that it is erroneously determined that the object is not a wall-like object even though it is a wall-like object. is there.
本発明は、上述のような課題に鑑みてなされたものであり、道路に沿って設置された壁状物体を移動物体として誤認することを低減することができる物体識別装置を提供することを目的とする。 The present invention has been made in view of the above-described problems, and an object of the present invention is to provide an object identification device that can reduce misidentification of a wall-like object installed along a road as a moving object. And
上記の目的を達成するため、本発明に係る物体識別装置は、
自車両の前方に存在する物体の測距データを取得する測距データ取得手段と、
前記測距データ取得手段が取得した測距データをクラスタリングするクラスタリング手段と、
前記クラスタリング手段により物標化された測距点群の幾何学的特徴量を計算する第1の幾何学的特徴量計算手段と、
前記自車両が走行している道路の地図情報と前記自車両の位置情報とに基づいて前記自車両の前方における道路境界を認識するか、或いは、前記自車両の前方を撮影した撮影画像に対する白線認識処理によって前記道路境界を認識する道路境界認識手段と、
前記道路境界認識手段で認識された前記道路境界の幾何学的特徴量を計算する第2の幾何学的特徴量計算手段と、
前記第1の幾何学的特徴量計算手段により計算された幾何学的特徴量と、前記第2の幾何学的特徴量計算手段により計算された幾何学的特徴量との差が予め設定した閾値以内である場合、前記クラスタリング手段により物標化された測距点群は道路に沿って設置された壁状の物体であると判断する判断手段と、
を備えることを特徴とする。
In order to achieve the above object, an object identification device according to the present invention includes:
Ranging data acquisition means for acquiring ranging data of an object existing in front of the host vehicle;
Clustering means for clustering the distance measurement data acquired by the distance measurement data acquisition means;
First geometric feature amount calculating means for calculating a geometric feature amount of the distance measuring point group targeted by the clustering means;
Based on the map information of the road on which the host vehicle is traveling and the position information of the host vehicle, a road boundary in front of the host vehicle is recognized, or a white line for a photographed image obtained by shooting the front of the host vehicle Road boundary recognition means for recognizing the road boundary by recognition processing;
Second geometric feature amount calculating means for calculating a geometric feature amount of the road boundary recognized by the road boundary recognition means;
A threshold in which a difference between the geometric feature amount calculated by the first geometric feature amount calculating means and the geometric feature amount calculated by the second geometric feature amount calculating means is set in advance. A determination unit that determines that the range-finding point group targeted by the clustering unit is a wall-like object installed along the road,
It is characterized by providing.
前記第1の幾何学的特徴量計算手段は、前記クラスタリング手段により物標化された測距点群の物標サイズが閾値未満である場合、前記測距点群を幾何学的特徴量の計算の対象から除外するように構成されてもよい。このような構成によれば、トラックやバスのような長尺車両が道路に進入している場合であっても、長尺車両を壁状物体と誤認することを低減することができる。 The first geometric feature amount calculation means calculates the geometric feature amount of the distance measurement point group when the target size of the distance measurement point group targeted by the clustering means is less than a threshold value. It may be configured to be excluded from the target. According to such a configuration, even when a long vehicle such as a truck or a bus enters the road, it is possible to reduce misidentification of the long vehicle as a wall-like object.
前記判断手段は、前記第1の幾何学的特徴量計算手段により計算された幾何学的特徴量と、前記第2の幾何学的特徴量計算手段により計算された幾何学的特徴量との差が前記閾値より大きい場合であっても、前記クラスタリング手段により物標化された測距点群が前記道路境界の形状に沿って所定時間、所定速度以上の速さで移動していない場合、前記測距点群は道路に沿って設置された壁状の物体であると判断するように構成されてもよい。このような構成によれば、壁状物体を移動物体として誤認することをより低減することができる。 The determination means includes a difference between the geometric feature quantity calculated by the first geometric feature quantity calculation means and the geometric feature quantity calculated by the second geometric feature quantity calculation means. Even when the distance measuring point group targeted by the clustering means is not moving at a speed higher than a predetermined speed for a predetermined time along the shape of the road boundary, The distance measurement point group may be configured to determine that the object is a wall-like object installed along the road. According to such a configuration, it is possible to further reduce misidentification of a wall-like object as a moving object.
前記クラスタリング手段は、前回フレームで物標化された測距点群の位置及び速度に基づいて今回フレームでの前記測距点群の位置を推定し、前回フレームでの前記測距点群の高さが閾値以下であった場合、今回フレームにおいて前記測距点群が位置すると推定される範囲に含まれる測距データをクラスタリングの対象から除外するように構成されてもよい。このような構成によれば、縁石のような壁状物体ではない静止物体を識別対象から除外して、物体識別に掛かる演算量を低減することができる。 The clustering means estimates the position of the distance measurement point group in the current frame based on the position and speed of the distance measurement point group targeted in the previous frame, and determines the height of the distance measurement point group in the previous frame. If the distance is less than or equal to the threshold, the distance measurement data included in the range in which the distance measurement point group is estimated to be located in the current frame may be excluded from the clustering target. According to such a configuration, a stationary object that is not a wall-like object such as a curb can be excluded from identification targets, and the amount of calculation required for object identification can be reduced.
本発明に係る物体識別装置によれば、物標化された測距点群の幾何学的特徴量と、道路境界の幾何学的特徴量とを比較するので、道路の曲率が物体の識別結果に影響することを抑えることができる。つまり、この発明によれば、道路の曲率が大きいカーブ出入り口などにおいても、道路に沿って設置された壁状物体の識別精度を正しく壁状物体として識別することが可能であり、壁状物体を移動物体として誤認することを低減することができる。 According to the object identification device of the present invention, the geometric feature value of the target ranging point group is compared with the geometric feature value of the road boundary, so that the road curvature is the result of object identification. Can be suppressed. In other words, according to the present invention, it is possible to correctly identify the wall-shaped object installed along the road as a wall-like object even at a curved doorway where the curvature of the road is large. Misidentification as a moving object can be reduced.
以下、図面を参照して本発明の実施の形態について説明する。ただし、以下に示す実施の形態において各要素の個数、数量、量、範囲等の数に言及した場合、特に明示した場合や原理的に明らかにその数に特定される場合を除いて、その言及した数に、この発明が限定されるものではない。また、以下に示す実施の形態において説明する構造は、特に明示した場合や明らかに原理的にそれに特定される場合を除いて、この発明に必ずしも必須のものではない。 Embodiments of the present invention will be described below with reference to the drawings. However, in the embodiment shown below, when referring to the number of each element, quantity, quantity, range, etc., unless otherwise specified or clearly specified in principle, the reference However, the present invention is not limited to these numbers. Further, the structures described in the embodiments described below are not necessarily essential to the present invention unless otherwise specified or clearly specified in principle.
実施の形態1
図1は、実施の形態1に係る自動運転システムの構成を示す図である。自動運転システムは、それが搭載される車両の自動運転を実行する。自動運転システム1は、物体識別装置として機能する制御装置10と、自律認識センサであるライダー(LIDAR:Laser Imaging Detection and Ranging)2、レーダー3及びカメラ4を備える。これらの自律認識センサは、直接、或いは、車両内に構築されたCAN(Controller Area Network)等の通信ネットワークを介して制御装置10に接続されている。制御装置10は、自律認識センサで得られた物体情報より、車両の略全周囲の状況を把握することができる。
FIG. 1 is a diagram illustrating a configuration of an automatic driving system according to the first embodiment. The automatic driving system performs automatic driving of a vehicle on which the automatic driving system is mounted. The
自動運転システム1は、さらに、GPS(Global Positioning System)受信機5、地図データベース6、ナビゲーションシステム7、HMI(Human Machine Interface)8及びアクチュエータ9を備える。GPS受信機5は、GPS衛星が発信する信号に基づいて自車両の位置を示す位置情報を取得する手段である。地図データベース6は、例えば、車両に搭載されたHDDやSSD等のストレージ内に形成されている。地図データベース6が有する地図情報には、道路の位置情報、道路形状の情報、交差点及び分岐点の位置情報、道路のレーン情報等が含まれる。ナビゲーションシステム7は、GPS受信機5によって測定された自車両の位置情報と地図データベース6の地図情報とに基づいて、自車両の走行するルートを算出し、算出したルートの情報をHMI8を介して運転者に伝達するとともに、制御装置10へ出力する。HMI8は、乗員と制御装置10との間で情報の出力及び入力をするためのインターフェイスである。アクチュエータ9は、制御装置10からの操作信号に応じて動作し、その動作によって車両の走行状態を変化させる装置である。アクチュエータ9は、例えば、駆動系、制動系、操舵系のそれぞれに設けられている。これら以外にも、例えば、車速センサや加速度センサ等の自車両の走行状態に関する情報を得るための内部センサが自動運転システム1には備えられる。
The
制御装置10は、少なくとも1つのCPU、少なくとも1つのROM、少なくとも1つのRAMを有するECU(Electronic Control Unit)である。ROMには、自動運転のための各種のプログラムやマップを含む各種のデータが記憶されている。ROMに記憶されているプログラムがRAMにロードされ、CPUで実行されることで、制御装置10には様々な機能が実現される。なお、制御装置10は、複数のECUから構成されていてもよい。
The
図1には、制御装置10が有する自動運転のための機能のうち、特に、物体識別に関係する機能がブロックで表現されている。制御装置10が有する自動運転のためのその他の機能についての図示は省略されている。
In FIG. 1, among functions for automatic driving that the
制御装置10は、自車両の周辺に存在する物体を認識し、道路に沿って設置された壁状物体と移動物体とを判別する機能を有する。この機能は、制御装置10が備える測距データ取得部11、クラスタリング部12、第1の幾何学的特徴量計算部13、道路境界認識部14、第2の幾何学的特徴量計算部15、及び判断部16により実現される。ただし、これらの部11,12,13,14、15、16は、制御装置10内にハードウェアとして存在するものではなく、ROMに記憶されたプログラムがCPUで実行されたときにソフトウェア的に実現される。
The
測距データ取得部11は、自車両の周囲に存在する物体の測距データを自律認識センサより取得する。測距データには、測距点までの距離に関する情報、測距点の高さに関する情報、及び測距点の方向に関する情報が含まれる。測距データ取得部11は、ライダー2で得た情報を用いること、レーダー3で得た情報を用いること、カメラ4で得た情報を用いること、センサフュージョンによって複数種類の自律認識センサの情報を組み合わせて用いること、のうち少なくとも1つの方法による測距データの取得が可能である。測距データ取得部11は、取得した測距データに基づき、各測距点の走行面内での位置を特定する。図2には、自車両に対する前方方向の距離をX軸にとり、横方向の位置をY軸にとった平面(以下、XY平面という)上での測距点の分布の一例が示されている。
The ranging
クラスタリング部12は、測距データ取得部11が取得した測距データをクラスタリングする。クラスタリングは、各測距点のX平面上での位置と高さとに基づいて行われる。また、前回フレームでのクラスタリングの結果との連続性を保つように行われる。クラスタリング部12によるクラスタリングの具体的な方法には特に限定はない。公知のクラスタリング方法を用いることができる。図3には、XY平面上に分布する測距点をクラスタリングによって物標化した結果の一例が示されている。長方形の枠は物標を示し、長方形の枠で囲まれた測距点群が物標化された測距点群である。
The
第1の幾何学的特徴量計算部13は、クラスタリング部12により物標化された測距点群の幾何学的特徴量を計算する。幾何学的特徴量には、物標化された測距点群を最小二乗法等のフィッティング手法を用いて直線で近似した場合の、自車両の進行方向に対する直線の傾きが含まれる。また、幾何学的特徴量には、物標化された測距点群を最小二乗法等のフィッティング手法を用いて曲線で近似した場合の、曲線の曲率或いは曲率変化率が含まれる。第1の幾何学的特徴量計算部13は、傾き、曲率、曲率変化率のうちの少なくとも1つを計算する。図4には、物標化された測距点群を近似した直線が点線で描かれている。図4に示す例では、X軸に対する測距点群の傾き、具体的には、測距点群を近似した直線がX軸に対してなす角度が、第1の幾何学的特徴量として算出される。
The first geometric feature
道路境界認識部14は、自車両の前方を撮影した撮影画像に対する白線認識処理によって道路境界を認識する。白線認識処理は、カメラ4の画像からのエッジ点の検出、エッジ線分の検出、エッジ線分のペアリング、そして、白線境界の選択の順で行われる。図5には、カメラ4の画像からエッジ点を検出する方法が示されている。カメラ4の画像を水平方向に左から右へ走査して、画素が黒から白へと変化するエッジ点と、画素が白から黒へと変化するエッジ点が探索される。この処理を垂直方向に上から下へ行うことで、エッジ点が直線上に並ぶエッジ線分が検出される。エッジ線分が白線のものであるなら、白線の両縁に対応して2本一組のエッジ線分が得られる。エッジ線分のペアリングは、白線のものではないエッジ線分を除外し、白線の可能性のあるエッジ線分を選択するために行われる。ペアリングにより選択されたエッジ線分の位置と過去の白線検出位置とが比較される。両者の間に連続性がある場合、選択されたエッジ線分は白線、つまり、道路境界として認識される。
The road
第2の幾何学的特徴量計算部15は、道路境界認識部14で認識された道路境界をXY平面に写像し、XY平面上での道路境界の幾何学的特徴量を計算する。道路境界認識部14で計算される幾何学的特徴量には、道路境界の点列データを最小二乗法等のフィッティング手法を用いて直線で近似した場合の、自車両の進行方向に対する直線の傾きと、道路境界の点列データを最小二乗法等のフィッティング手法を用いて曲線で近似した場合の、曲線の曲率或いは曲率変化率が含まれる。第2の幾何学的特徴量計算部15は、傾き、曲率、曲率変化率のうち、第1の幾何学的特徴量計算部13で計算される幾何学的特徴量と同種の幾何学的特徴量を計算する。また、第2の幾何学的特徴量計算部15による幾何学的特徴量の計算は、クラスタリング部12により設定された物標を示す枠内の道路境界に対して行われる。図6には、物標内の道路境界を近似した直線が実線で描かれている。図6に示す例では、X軸に対する道路境界の傾き、具体的には、道路境界を近似した直線がX軸に対してなす角度が、第2の幾何学的特徴量として算出される。
The second geometric feature
判断部16は、第1の幾何学的特徴量計算部13により計算された第1の幾何学的特徴量と、第2の幾何学的特徴量計算部15により計算された第2の幾何学的特徴量との差を物標ごとに計算する。例えば、幾何学的特徴量として傾きと曲率が計算された場合、判断部16は、傾きの差と曲率の差をそれぞれ計算する。図7には、物標化された測距点群を近似した直線が点線で描かれ、物標内の道路境界を近似した直線が実線で描かれている。図7に示す例では、X軸に対する測距点群の傾きと道路境界の傾きとの差、具体的には、測距点群を近似した直線と道路境界を近似した直線とがなす角度が算出される。
The
第1の幾何学的特徴量と第2の幾何学的特徴量との間に差がない場合、或いは、その差が微少である場合、クラスタリング部12により物標化された測距点群は道路に沿って設置された壁状の物体である可能性が高い。判断部16は、差の絶対値が予め設定した閾値以内である場合、物標化された測距点群は道路に沿って設置された壁状の物体であると判断する。判断部16は、この判断結果に応じて、物標化された測距点群をトラッキング処理の対象に含めるか、或いは、トラッキング処理の対象から除外するかを決定する。
When there is no difference between the first geometric feature quantity and the second geometric feature quantity, or when the difference is very small, the ranging point group targeted by the
上記の各部11,12,13,14、15、16の機能により、制御装置10は物体識別装置として機能する。図8は、本実施の形態に係る物体識別処理の流れを示すフローチャートである。物体識別装置としての制御装置10は、このフローチャートに示す処理を所定の周期で繰り返し実施している。
The
まず、ステップS1では、カメラ4の画像に対する白線認識処理によって自車両の前方における道路境界が認識される。また、ステップS1の処理と平行して、ステップS2及びS3の処理が行われる。ステップS2では、ライダー2或いはレーダー3により自車両の周囲に存在する物体の測距データが取得される。ステップS3では、ステップS2で取得された測距データがクラスタリングされ、測距点群が物標化される。
First, in step S1, a road boundary in front of the host vehicle is recognized by white line recognition processing on the image of the
ステップS4では、物標毎に、ステップS3で物標化された測距点群の幾何学的特徴量が計算される。ここでは、測距点群の幾何学的特徴量として、測距点群の傾きが計算されるとする。また、ステップS5では、物標毎に、ステップS1で認識された道路境界の幾何学的特徴量が計算される。ここで計算される幾何学的特徴量は、ステップS4で計算される幾何学的特徴量と同じく傾きである。 In step S4, for each target, the geometric feature amount of the distance measuring point group that has been targeted in step S3 is calculated. Here, it is assumed that the gradient of the distance measurement point group is calculated as the geometric feature amount of the distance measurement point group. In step S5, the geometric feature amount of the road boundary recognized in step S1 is calculated for each target. The geometric feature amount calculated here is the same as the geometric feature amount calculated in step S4.
ステップS6では、ステップS4で計算された測距点群の傾きと、ステップS5で計算された道路境界の傾きとが比較される。そして、それらの差の絶対値が計算される。ステップS7では、ステップS6で計算された測距点群の傾きと道路境界の傾きとの差(絶対値)が閾値以内かどうか判定される。傾きの差が閾値以内である場合、次の処理としてステップS8が選択され、傾きの差が閾値より大きい場合、次の処理としてステップS9が選択される。 In step S6, the slope of the distance measuring point group calculated in step S4 is compared with the slope of the road boundary calculated in step S5. Then, the absolute value of these differences is calculated. In step S7, it is determined whether or not the difference (absolute value) between the inclination of the distance measuring point group calculated in step S6 and the inclination of the road boundary is within a threshold value. If the difference in inclination is within the threshold, step S8 is selected as the next process, and if the difference in inclination is greater than the threshold, step S9 is selected as the next process.
ステップS8では、ステップS3で物標化された測距点群がトラッキング処理から除外される。測距点群の傾きと道路境界の傾きとの間に明確な差がない場合、その測距点群は道路に沿って設置された壁状の物体である可能性が高いからである。逆に、ステップS9では、ステップS3で物標化された測距点群がトラッキング処理の対象とされる。そして、その測距点群に係る物標情報が出力される。物標情報には、物標の位置、速度、加速度等の情報が含まれる。物標情報は、車間距離制御やレーン変更制御等の車両の運転制御に用いられる。 In step S8, the distance measuring point group targeted in step S3 is excluded from the tracking process. This is because, when there is no clear difference between the inclination of the distance measurement point group and the inclination of the road boundary, the distance measurement point group is highly likely to be a wall-like object installed along the road. On the other hand, in step S9, the distance measuring point group that is the target in step S3 is the target of the tracking process. Then, target information related to the distance measuring point group is output. The target information includes information such as the position, speed, and acceleration of the target. The target information is used for vehicle operation control such as inter-vehicle distance control and lane change control.
以上の手順で行われる物体識別処理によれば、物標化された測距点群の幾何学的特徴量と、道路境界の幾何学的特徴量とを比較するので、道路の曲率が物体の識別結果に影響することを抑えることができる。ゆえに、本実施の形態に係る自動運転システムによれば、道路の曲率が大きいカーブ出入り口などにおいても、道路に沿って設置された壁状物体の識別精度を正しく壁状物体として識別することが可能であり、壁状物体を移動物体として誤認することを低減することができる。 According to the object identification process performed in the above procedure, the geometric feature value of the target ranging point group is compared with the geometric feature value of the road boundary. It can suppress affecting the identification result. Therefore, according to the automatic driving system according to the present embodiment, it is possible to correctly identify the identification accuracy of the wall-like object installed along the road as a wall-like object even at a curved doorway where the curvature of the road is large. It is possible to reduce misidentification of a wall-like object as a moving object.
実施の形態2
本実施の形態に係る自動運転システムは、実施の形態1に係る自動運転システムと同じく、図1に示す構成を有する。本実施の形態に係る自動運転システムと実施の形態1に係る自動運転システムとの相違は、道路境界認識部14による道路境界の認識方法にある。
Similar to the automatic driving system according to the first embodiment, the automatic driving system according to the present embodiment has the configuration shown in FIG. The difference between the automatic driving system according to the present embodiment and the automatic driving system according to the first embodiment is in the road boundary recognition method by the road
本実施の形態では、道路境界認識部14は、カメラ4の画像と地図情報とを用いた自己位置推定によって道路境界を認識する。図9には、自己位置推定の方法が示されている。まず、自車両の位置が中心となるようにカメラ4の画像が平面上に投影される。また、GPS受信機5により特定した自車両の位置に基づいて、自車両の周囲の地図画像が地図データベース6から検索される。そして、平面上に投影したカメラ画像と地図画像とが照合される。地図画像より道路境界のおおよその位置がわかるので、2つの画像を照合することにより、カメラ画像から道路境界の点列データを抽出することができる。
In the present embodiment, the road
図10は、本実施の形態に係る物体識別処理の流れを示すフローチャートである。本実施の形態に係る物体識別処理では、実施の形態1のステップS1の処理に代えて、ステップS1′の処理が行われる。ステップS1′では、カメラ4の画像と地図情報とを用いた自己位置推定によって道路境界が認識される。ステップS2からステップS10までの残りの処理については、実施の形態1からの変更はない。なお、道路境界の認識方法として、カメラ4の画像と地図情報とを用いた自己位置推定による道路境界の認識と、白線認識処理による道路境界の認識とを併用することも可能である。
FIG. 10 is a flowchart showing the flow of object identification processing according to the present embodiment. In the object identification process according to the present embodiment, the process of step S1 ′ is performed instead of the process of step S1 of the first embodiment. In step S1 ′, the road boundary is recognized by self-position estimation using the image of the
実施の形態3
本実施の形態に係る自動運転システムは、実施の形態1に係る自動運転システムと同じく、図1に示す構成を有する。本実施の形態に係る自動運転システムでは、トラックやバスのような長尺車両と壁状物体とを誤認しないための新たな機能が、第1の幾何学的特徴量計算部13と判断部16とに与えられている。
Similar to the automatic driving system according to the first embodiment, the automatic driving system according to the present embodiment has the configuration shown in FIG. In the automatic driving system according to the present embodiment, new functions for preventing misidentification of a long vehicle such as a truck or a bus and a wall-like object are the first geometric feature
本実施の形態では、第1の幾何学的特徴量計算部13は、クラスタリング部12により物標化された測距点群の物標サイズを計算する。物標サイズとは、物標を示す長方形の枠の横幅、長さ、それらの比率のうちの少なくとも一つである。物標サイズに対しては、壁状物体と長尺車両とを判別するための閾値が設定されている。物標サイズが閾値未満である場合、第1の幾何学的特徴量計算部13は、その物標が示す測距点群を幾何学的特徴量の計算の対象から除外する。除外された測距点群は、壁状物体ではない移動物体である可能性が高い。ゆえに、判断部16は、第1の幾何学的特徴量計算部13で除外された測距点群をトラッキング処理の対象に含め、その測距点群に係る物標情報を出力する。
In the present embodiment, the first geometric feature
また、本実施の形態では、判断部16は、物標化された測距点群が道路境界の形状に沿って所定時間、所定速度以上の速さで移動しているかどうかによって、長尺車両と壁状物体とを判別する。具体的には、判断部16は、所定閾値以上の速度が所定時間以上継続していること(条件A)と、各時刻の物標位置のレーン中心位置に対する横位置誤差が所定時間以上継続していること(条件B)の両方が満足されているかどうか判定する。図11に示す例では、時刻T−2,T−1,Tにおける物標の位置の変化から、物標化された測距点群の速度が計算されて閾値速度と比較されるとともに、レーン中心位置に対する物標位置の横位置誤差が計算される。なお、レーン中心位置は左右の白線の位置から計算される。条件Aと条件Bのいずれか一方でも満たされていない場合、判断部16は、その測距点群は長尺車両である可能性が高いと判断し、その測距点群に係る物標情報の出力を中止する。
Further, in the present embodiment, the
図12は、本実施の形態に係る物体識別処理の流れを示すフローチャートである。本実施の形態に係る物体識別処理では、実施の形態1或いは実施の形態2に係る物体識別処理に加えて、ステップS101の処理が行われる。ステップS101の処理は、ステップS3の処理の後、ステップS4の処理の前に行われる。ステップS101では、ステップS3で物標化された測距点群の物標サイズが閾値以上かどうか判定される。物標サイズが閾値以上である場合、ステップS4に進んで測距点群の幾何学的特徴量(例えば傾き)が算出される。しかし、物標サイズが閾値未満である場合、ステップS4からステップS7までをスキップしてステップS9に進み、ステップS3で物標化された測距点群はトラッキング処理の対象とされる。ステップS101の処理が加えられたことにより、トラックやバスのような長尺車両を壁状物体と誤認することは抑えられる。 FIG. 12 is a flowchart showing the flow of object identification processing according to the present embodiment. In the object identification process according to the present embodiment, the process of step S101 is performed in addition to the object identification process according to the first or second embodiment. The process of step S101 is performed after the process of step S3 and before the process of step S4. In step S101, it is determined whether or not the target size of the distance measuring point group targeted in step S3 is greater than or equal to a threshold value. When the target size is equal to or larger than the threshold value, the process proceeds to step S4, and the geometric feature amount (for example, inclination) of the distance measuring point group is calculated. However, if the target size is less than the threshold value, steps S4 to S7 are skipped and the process proceeds to step S9, and the distance measuring point group targeted in step S3 is the target of the tracking process. By adding the processing in step S101, it is possible to prevent a long vehicle such as a truck or a bus from being mistaken as a wall-like object.
さらに、本実施の形態に係る物体識別処理では、実施の形態1或いは実施の形態2に係る物体識別処理に加えて、ステップS102の処理が行われる。ステップS102の処理は、ステップS9の処理の後、ステップS10の処理の前に行われる。ステップS102では、ステップS1で得られた白線情報を用いて、トラッキング処理の対象となっている物標の過去の移動履歴が解析される。そして、前述の条件Aと条件Bの両方が満たされていれば、ステップS10に進んで物標情報が出力される。しかし、前述の条件Aと条件Bの一方でも満たされていない場合、物標情報の出力は中止される。ステップS102の処理が行われることにより、壁状物体をトラックやバスのような長尺車両と誤認することは抑えられる。 Furthermore, in the object identification process according to the present embodiment, the process of step S102 is performed in addition to the object identification process according to the first or second embodiment. The process of step S102 is performed after the process of step S9 and before the process of step S10. In step S102, the past movement history of the target to be tracked is analyzed using the white line information obtained in step S1. And if both the above-mentioned conditions A and B are satisfied, it will progress to Step S10 and will output target information. However, if either of the above conditions A and B is not satisfied, the output of the target information is stopped. By performing the process of step S102, it is possible to suppress the misidentification of the wall-like object as a long vehicle such as a truck or a bus.
実施の形態4
本実施の形態に係る自動運転システムは、実施の形態1に係る自動運転システムと同じく、図1に示す構成を有する。本実施の形態に係る自動運転システムと実施の形態1に係る自動運転システムとの相違は、クラスタリング部12に与えられた物体識別に掛かる演算量を低減する機能にある。
Similar to the automatic driving system according to the first embodiment, the automatic driving system according to the present embodiment has the configuration shown in FIG. The difference between the automatic driving system according to the present embodiment and the automatic driving system according to the first embodiment is in the function of reducing the amount of calculation applied to the object identification given to the
本実施の形態では、物体識別に掛かる演算量を低減する方法として、測距点を間引いてクラスタリングすることが行われる。測距点を間引く方法には次の2つの方法がある。まず、第1の方法と第2の方法に共通の手順として、前回フレームで物標化された測距点群の位置及び速度を利用して、今回フレームでの物標の位置が推定される。そして、物体は剛体であるとの仮定により、前回フレームと同じ高さ・横幅・長さの物標枠が今回フレームでの物標の枠として用いられる。 In the present embodiment, as a method of reducing the amount of calculation required for object identification, clustering is performed by thinning out distance measuring points. There are the following two methods for thinning the distance measuring points. First, as a procedure common to the first method and the second method, the position of the target in the current frame is estimated using the position and speed of the distance measuring point group that was targeted in the previous frame. . Based on the assumption that the object is a rigid body, a target frame having the same height, width, and length as the previous frame is used as the target frame in the current frame.
第1の方法では、今回フレームでの物標の枠に入る測距点について、一定間隔で測距点を間引くか、或いは、距離の大きさに応じて間引き量を変えて間引く(例えば距離が近いほど間引く量を大きくする)ことが行われる。第2の方法では、前回フレームの物標枠のサイズ、特に高さが閾値以下であった場合、今回フレームでの物標の枠に入る全ての測距点をクラスタリングの対象から除外する。このような方法を実施することにより、物体識別に掛かる演算量を低減することができる。特に、第2の方法を実施することにより、縁石のような壁状物体ではない静止物体を識別対象から除外して、物体識別に掛かる演算量を低減することができる。 In the first method, the distance measurement points that fall within the target frame in the current frame are thinned at fixed intervals, or thinned by changing the thinning amount according to the distance size (for example, the distance is The closer the closer, the larger the amount to be thinned out). In the second method, when the size of the target frame in the previous frame, particularly the height, is equal to or less than the threshold value, all ranging points that fall within the target frame in the current frame are excluded from the clustering targets. By implementing such a method, the amount of calculation required for object identification can be reduced. In particular, by performing the second method, a stationary object that is not a wall-like object such as a curb can be excluded from the identification target, and the amount of calculation required for object identification can be reduced.
図13は、本実施の形態に係る物体識別処理の流れを示すフローチャートである。本実施の形態に係る物体識別処理では、実施の形態1或いは実施の形態2に係る物体識別処理に加えて、ステップS201の処理が行われる。ステップS201の処理は、ステップS2の処理の後、ステップS3の処理の前に行われる。ステップS201では、ステップS2で取得された測距点から上記の第1の方法と第2の方法のいずれか一つ方法にて測距点が間引かれる。そして、ステップS3では、間引かれた測距点に対してクラスタリングが行われる。ステップS4以降の内容には実施の形態1或いは実施の形態2から変更はないので、フローチャートへの記載は省略されている。 FIG. 13 is a flowchart showing the flow of object identification processing according to the present embodiment. In the object identification process according to the present embodiment, the process of step S201 is performed in addition to the object identification process according to the first or second embodiment. The process of step S201 is performed after the process of step S2 and before the process of step S3. In step S201, the distance measuring points are thinned out from the distance measuring points acquired in step S2 by any one of the first method and the second method. In step S3, clustering is performed on the thinned distance measuring points. Since the content after step S4 is not changed from the first embodiment or the second embodiment, the description in the flowchart is omitted.
1 自動運転システム
2 ライダー
3 レーダー
4 カメラ
5 GPS受信機
6 地図データベース
7 ナビゲーションシステム
8 HMI
9 アクチュエータ
10 制御装置(物体識別装置)
11 測距データ取得部(測距データ取得手段)
12 クラスタリング部(クラスタリング手段)
13 第1の幾何学的特徴量計算部(第1の幾何学的特徴量計算手段)
14 道路境界認識部(道路境界認識手段)
15 第2の幾何学的特徴量計算部(第2の幾何学的特徴量計算手段)
16 判断部(判断手段)
1
9
11 Ranging data acquisition unit (Ranging data acquisition means)
12 Clustering unit (clustering means)
13 1st geometric feature-value calculation part (1st geometric feature-value calculation means)
14 Road boundary recognition part (road boundary recognition means)
15 Second geometric feature amount calculation unit (second geometric feature amount calculation means)
16 Judgment part (judgment means)
Claims (1)
前記測距データ取得手段が取得した測距データをクラスタリングするクラスタリング手段と、
前記クラスタリング手段により物標化された測距点群の幾何学的特徴量を計算する第1の幾何学的特徴量計算手段と、
前記自車両が走行している道路の地図情報と前記自車両の位置情報とに基づいて前記自車両の前方における道路境界を認識するか、或いは、前記自車両の前方を撮影した撮影画像に対する白線認識処理によって前記道路境界を認識する道路境界認識手段と、
前記道路境界認識手段で認識された前記道路境界の幾何学的特徴量を計算する第2の幾何学的特徴量計算手段と、
前記第1の幾何学的特徴量計算手段により計算された幾何学的特徴量と、前記第2の幾何学的特徴量計算手段により計算された幾何学的特徴量との差が予め設定した閾値以内である場合、前記クラスタリング手段により物標化された測距点群は道路に沿って設置された壁状の物体であると判断する判断手段と、
を備えることを特徴とする物体識別装置。 Ranging data acquisition means for acquiring ranging data of an object existing in front of the host vehicle;
Clustering means for clustering the distance measurement data acquired by the distance measurement data acquisition means;
First geometric feature amount calculating means for calculating a geometric feature amount of the distance measuring point group targeted by the clustering means;
Based on the map information of the road on which the host vehicle is traveling and the position information of the host vehicle, a road boundary in front of the host vehicle is recognized, or a white line for a photographed image obtained by shooting the front of the host vehicle Road boundary recognition means for recognizing the road boundary by recognition processing;
Second geometric feature amount calculating means for calculating a geometric feature amount of the road boundary recognized by the road boundary recognition means;
A threshold in which a difference between the geometric feature amount calculated by the first geometric feature amount calculating means and the geometric feature amount calculated by the second geometric feature amount calculating means is set in advance. A determination unit that determines that the range-finding point group targeted by the clustering unit is a wall-like object installed along the road,
An object identification device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016185478A JP6911312B2 (en) | 2016-09-23 | 2016-09-23 | Object identification device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016185478A JP6911312B2 (en) | 2016-09-23 | 2016-09-23 | Object identification device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018048949A true JP2018048949A (en) | 2018-03-29 |
JP6911312B2 JP6911312B2 (en) | 2021-07-28 |
Family
ID=61767531
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016185478A Active JP6911312B2 (en) | 2016-09-23 | 2016-09-23 | Object identification device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6911312B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019192059A (en) * | 2018-04-27 | 2019-10-31 | 田中 成典 | Object recognition device |
JP2019200182A (en) * | 2018-05-18 | 2019-11-21 | 株式会社豊田自動織機 | Object sensing device |
CN112241004A (en) * | 2019-07-17 | 2021-01-19 | 丰田自动车株式会社 | Object recognition device |
WO2021192032A1 (en) * | 2020-03-24 | 2021-09-30 | 三菱電機株式会社 | Information processing device and information processing method |
US11538252B2 (en) | 2019-08-22 | 2022-12-27 | Toyota Jidosha Kabushiki Kaisha | Object recognition device |
CN116859406A (en) * | 2023-09-05 | 2023-10-10 | 武汉煜炜光学科技有限公司 | Calculation method and device for vehicle speed based on laser radar |
WO2023194761A1 (en) * | 2022-04-08 | 2023-10-12 | 日産自動車株式会社 | Information processing method and information processing device |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007248057A (en) * | 2006-03-13 | 2007-09-27 | Omron Corp | Radar device |
JP2011002346A (en) * | 2009-06-19 | 2011-01-06 | Fujitsu Ten Ltd | Signal processing device and radar device |
JP2012089114A (en) * | 2010-09-24 | 2012-05-10 | Toyota Motor Corp | Obstacle recognition device |
JP2012145444A (en) * | 2011-01-12 | 2012-08-02 | Toyota Motor Corp | Pedestrian detection device |
JP2013036978A (en) * | 2011-07-12 | 2013-02-21 | Denso Corp | Target detection apparatus and wall determination method |
JP2014006588A (en) * | 2012-06-21 | 2014-01-16 | Toyota Central R&D Labs Inc | Road surface boundary estimation device and program |
US20150293216A1 (en) * | 2014-04-15 | 2015-10-15 | GM Global Technology Operations LLC | Method and system for detecting, tracking and estimating stationary roadside objects |
-
2016
- 2016-09-23 JP JP2016185478A patent/JP6911312B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007248057A (en) * | 2006-03-13 | 2007-09-27 | Omron Corp | Radar device |
JP2011002346A (en) * | 2009-06-19 | 2011-01-06 | Fujitsu Ten Ltd | Signal processing device and radar device |
JP2012089114A (en) * | 2010-09-24 | 2012-05-10 | Toyota Motor Corp | Obstacle recognition device |
JP2012145444A (en) * | 2011-01-12 | 2012-08-02 | Toyota Motor Corp | Pedestrian detection device |
JP2013036978A (en) * | 2011-07-12 | 2013-02-21 | Denso Corp | Target detection apparatus and wall determination method |
JP2014006588A (en) * | 2012-06-21 | 2014-01-16 | Toyota Central R&D Labs Inc | Road surface boundary estimation device and program |
US20150293216A1 (en) * | 2014-04-15 | 2015-10-15 | GM Global Technology Operations LLC | Method and system for detecting, tracking and estimating stationary roadside objects |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019192059A (en) * | 2018-04-27 | 2019-10-31 | 田中 成典 | Object recognition device |
JP2019200182A (en) * | 2018-05-18 | 2019-11-21 | 株式会社豊田自動織機 | Object sensing device |
CN112241004A (en) * | 2019-07-17 | 2021-01-19 | 丰田自动车株式会社 | Object recognition device |
US11538252B2 (en) | 2019-08-22 | 2022-12-27 | Toyota Jidosha Kabushiki Kaisha | Object recognition device |
WO2021192032A1 (en) * | 2020-03-24 | 2021-09-30 | 三菱電機株式会社 | Information processing device and information processing method |
JP7019118B1 (en) * | 2020-03-24 | 2022-02-14 | 三菱電機株式会社 | Information processing equipment and information processing method |
CN115244594A (en) * | 2020-03-24 | 2022-10-25 | 三菱电机株式会社 | Information processing apparatus, information processing method, and computer program |
CN115244594B (en) * | 2020-03-24 | 2023-10-31 | 三菱电机株式会社 | Information processing apparatus and information processing method |
WO2023194761A1 (en) * | 2022-04-08 | 2023-10-12 | 日産自動車株式会社 | Information processing method and information processing device |
CN116859406A (en) * | 2023-09-05 | 2023-10-10 | 武汉煜炜光学科技有限公司 | Calculation method and device for vehicle speed based on laser radar |
CN116859406B (en) * | 2023-09-05 | 2023-11-28 | 武汉煜炜光学科技有限公司 | Calculation method and device for vehicle speed based on laser radar |
Also Published As
Publication number | Publication date |
---|---|
JP6911312B2 (en) | 2021-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102483649B1 (en) | Vehicle localization method and vehicle localization apparatus | |
JP6911312B2 (en) | Object identification device | |
JP5441549B2 (en) | Road shape recognition device | |
JP6747269B2 (en) | Object recognition device | |
EP3644294A1 (en) | Vehicle information storage method, vehicle travel control method, and vehicle information storage device | |
US9779315B2 (en) | Traffic signal recognition apparatus and traffic signal recognition method | |
JP2008123462A (en) | Object detector | |
US11200432B2 (en) | Method and apparatus for determining driving information | |
JP7077910B2 (en) | Bound line detection device and lane marking method | |
CN107957258B (en) | Road mark recognition device | |
US11042759B2 (en) | Roadside object recognition apparatus | |
JP6552448B2 (en) | Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection | |
US20230245323A1 (en) | Object tracking device, object tracking method, and storage medium | |
JP2018084987A (en) | Object recognition device | |
US11769337B2 (en) | Traffic signal recognition method and traffic signal recognition device | |
US11679769B2 (en) | Traffic signal recognition method and traffic signal recognition device | |
US20200049516A1 (en) | Lane determination device | |
RU2779773C1 (en) | Traffic light recognition method and traffic light recognition device | |
US20230260294A1 (en) | Apparatus, method, and computer program for estimating road edge | |
CN115050205B (en) | Map generation device and position recognition device | |
US20240017748A1 (en) | Device, method, and computer program for lane determination | |
US20240077320A1 (en) | Vehicle controller, method, and computer program for vehicle control | |
US20230186638A1 (en) | Device for determining a topography of a vehicle environment, vehicle and method | |
US20220276069A1 (en) | Map generation apparatus | |
CN117434552A (en) | Vehicle detection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190806 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200814 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200901 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210330 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210521 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210608 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210621 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6911312 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |