JP6911312B2 - Object identification device - Google Patents
Object identification device Download PDFInfo
- Publication number
- JP6911312B2 JP6911312B2 JP2016185478A JP2016185478A JP6911312B2 JP 6911312 B2 JP6911312 B2 JP 6911312B2 JP 2016185478 A JP2016185478 A JP 2016185478A JP 2016185478 A JP2016185478 A JP 2016185478A JP 6911312 B2 JP6911312 B2 JP 6911312B2
- Authority
- JP
- Japan
- Prior art keywords
- geometric feature
- clustering
- vehicle
- target
- targeted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、自動運転システムに用いて好適な物体識別装置に関する。 The present invention relates to an object identification device suitable for use in an automated driving system.
特許文献1には、クラスタを構成する測距点群の自車両の進行方向に対する傾きが予め設定した閾値以内であれば、当該クラスタが表す物標は、移動物体ではなく、道路に沿って設置された壁状物体であると判断する方法が開示されている。
In
道路の曲率が大きいカーブ出入り口などにおいては、道路に沿って設置された壁状物体の自車両の進行方向に対する傾きは大きくなる。この場合、上記方法では、自車両の進行方向に対する測距点群の傾きが閾値を超えてしまうために、壁状物体であるにもかかわらず壁状物体ではないと誤判断してしまうおそれがある。 At curved entrances and exits where the curvature of the road is large, the inclination of the wall-shaped object installed along the road with respect to the traveling direction of the own vehicle becomes large. In this case, in the above method, since the inclination of the AF point group with respect to the traveling direction of the own vehicle exceeds the threshold value, there is a risk of erroneously determining that the object is not a wall object even though it is a wall object. be.
本発明は、上述のような課題に鑑みてなされたものであり、道路に沿って設置された壁状物体を移動物体として誤認することを低減することができる物体識別装置を提供することを目的とする。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to provide an object identification device capable of reducing misidentification of a wall-shaped object installed along a road as a moving object. And.
上記の目的を達成するため、本発明に係る物体識別装置は、
自車両の前方に存在する物体の測距データを取得する測距データ取得手段と、
前記測距データ取得手段が取得した測距データをクラスタリングするクラスタリング手段と、
前記クラスタリング手段により物標化された測距点群それぞれについて、そのサイズを示す物標サイズを計算し、前記物標サイズが所定値以上となる前記クラスタリング手段により物標化された測距点群の幾何学的特徴量を計算する第1の幾何学的特徴量計算手段と、
前記自車両が走行している道路の地図情報と前記自車両の位置情報とに基づいて前記自車両の前方における道路境界を認識するか、或いは、前記自車両の前方を撮影した撮影画像に対する白線認識処理によって前記道路境界を認識する道路境界認識手段と、
前記道路境界認識手段で認識された前記道路境界の幾何学的特徴量を計算する第2の幾何学的特徴量計算手段と、
前記第1の幾何学的特徴量計算手段により計算された幾何学的特徴量と、前記第2の幾何学的特徴量計算手段により計算された幾何学的特徴量との差が予め設定した閾値以内である場合、前記物標サイズが所定値以上となる前記クラスタリング手段により物標化された測距点群は道路に沿って設置された壁状の物体であると判断する判断手段と、
を備え、
前記クラスタリング手段は、
前回フレームで前記クラスタリングにより物標化された測距点群の高さが所定の閾値以下である場合、前回フレームで物標化された測距点群の位置及び速度に基づいて、前回フレームで物標化された測距点群に係る物標の今回フレームにおける位置を推定し、
推定された前記物標の位置の範囲に含まれる前記測距データを今回フレームにおける前記クラスタリングの対象から除外する
ことを特徴とする。
In order to achieve the above object, the object identification device according to the present invention is
Distance measurement data acquisition means for acquiring distance measurement data of an object existing in front of the own vehicle, and
A clustering means for clustering the distance measurement data acquired by the distance measurement data acquisition means, and
For each of the AF point groups targeted by the clustering means, the target size indicating the size is calculated, and the AF point group targeted by the clustering means whose target size is equal to or larger than a predetermined value. The first geometric feature calculation means for calculating the geometric features of
The road boundary in front of the own vehicle is recognized based on the map information of the road on which the own vehicle is traveling and the position information of the own vehicle, or a white line with respect to the photographed image taken in front of the own vehicle. A road boundary recognition means that recognizes the road boundary by recognition processing,
A second geometric feature calculation means for calculating the geometric feature of the road boundary recognized by the road boundary recognition means, and a second geometric feature calculation means.
A preset threshold value is the difference between the geometric feature calculated by the first geometric feature calculation means and the geometric feature calculated by the second geometric feature calculation means. If it is within the range, the distance measuring point group targeted by the clustering means whose target size is equal to or larger than a predetermined value is determined to be a wall-shaped object installed along the road.
Equipped with a,
The clustering means
When the height of the AF point cloud targeted by the clustering in the previous frame is equal to or less than a predetermined threshold value, the position and velocity of the AF point cloud targeted in the previous frame are used in the previous frame. Estimate the position of the target in the current frame related to the targeted AF point cloud, and
It is characterized in that the distance measurement data included in the estimated position range of the target is excluded from the target of the clustering in the current frame .
前記判断手段は、前記第1の幾何学的特徴量計算手段により計算された幾何学的特徴量と、前記第2の幾何学的特徴量計算手段により計算された幾何学的特徴量との差が前記閾値より大きい場合であっても、前記クラスタリング手段により物標化された測距点群が前記道路境界の形状に沿って所定時間、所定速度以上の速さで移動していない場合、前記測距点群は道路に沿って設置された壁状の物体であると判断するように構成されてもよい。このような構成によれば、壁状物体を移動物体として誤認することをより低減することができる。 The determination means is the difference between the geometric feature amount calculated by the first geometric feature amount calculation means and the geometric feature amount calculated by the second geometric feature amount calculation means. Is larger than the threshold value, but when the AF point group targeted by the clustering means does not move along the shape of the road boundary for a predetermined time at a speed equal to or higher than a predetermined speed, the above. The AF point group may be configured to determine that it is a wall-like object installed along the road. According to such a configuration, it is possible to further reduce the misidentification of the wall-shaped object as a moving object.
本発明に係る物体識別装置によれば、物標化された測距点群の幾何学的特徴量と、道路境界の幾何学的特徴量とを比較するので、道路の曲率が物体の識別結果に影響することを抑えることができる。つまり、この発明によれば、道路の曲率が大きいカーブ出入り口などにおいても、道路に沿って設置された壁状物体の識別精度を正しく壁状物体として識別することが可能であり、壁状物体を移動物体として誤認することを低減することができる。また、物標サイズが所定値未満である測距点群を幾何学的特徴量の計算の対象から除外することにより、トラックやバスのような長尺車両が道路に進入している場合であっても、長尺車両を壁状物体と誤認することを低減することができる。さらに、前記クラスタリング手段において、特定の測距データを今回フレームにおけるクラスタリングの対象から除外することにより、縁石のような壁状物体ではない静止物体を識別対象から除外して、物体識別に掛かる演算量を低減することができる。 According to the object identification device according to the present invention, the geometric feature amount of the targeted AF point group is compared with the geometric feature amount of the road boundary, so that the curvature of the road is the identification result of the object. It is possible to suppress the influence on. That is, according to the present invention, it is possible to correctly identify the wall-shaped object installed along the road as a wall-shaped object even at a curved entrance / exit having a large curvature of the road. It is possible to reduce misidentification as a moving object. In addition, when a long vehicle such as a truck or a bus is entering the road by excluding a group of AF points whose target size is less than a predetermined value from the calculation of geometric features. However, it is possible to reduce the misidentification of a long vehicle as a wall-like object. Further, in the clustering means, by excluding specific ranging data from the target of clustering in the frame this time, a stationary object that is not a wall-like object such as a rim stone is excluded from the identification target, and the amount of calculation required for object identification. Can be reduced.
以下、図面を参照して本発明の実施の形態について説明する。ただし、以下に示す実施の形態において各要素の個数、数量、量、範囲等の数に言及した場合、特に明示した場合や原理的に明らかにその数に特定される場合を除いて、その言及した数に、この発明が限定されるものではない。また、以下に示す実施の形態において説明する構造は、特に明示した場合や明らかに原理的にそれに特定される場合を除いて、この発明に必ずしも必須のものではない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, when the number, quantity, quantity, range, etc. of each element is referred to in the embodiment shown below, the reference is made unless otherwise specified or clearly specified by the number in principle. The present invention is not limited to the number of the above. In addition, the structure described in the embodiments shown below is not necessarily essential to the present invention, except when explicitly stated or when it is clearly specified in principle.
実施の形態1
図1は、実施の形態1に係る自動運転システムの構成を示す図である。自動運転システムは、それが搭載される車両の自動運転を実行する。自動運転システム1は、物体識別装置として機能する制御装置10と、自律認識センサであるライダー(LIDAR:Laser Imaging Detection and Ranging)2、レーダー3及びカメラ4を備える。これらの自律認識センサは、直接、或いは、車両内に構築されたCAN(Controller Area Network)等の通信ネットワークを介して制御装置10に接続されている。制御装置10は、自律認識センサで得られた物体情報より、車両の略全周囲の状況を把握することができる。
FIG. 1 is a diagram showing a configuration of an automatic driving system according to the first embodiment. The autonomous driving system performs autonomous driving of the vehicle on which it is mounted. The
自動運転システム1は、さらに、GPS(Global Positioning System)受信機5、地図データベース6、ナビゲーションシステム7、HMI(Human Machine Interface)8及びアクチュエータ9を備える。GPS受信機5は、GPS衛星が発信する信号に基づいて自車両の位置を示す位置情報を取得する手段である。地図データベース6は、例えば、車両に搭載されたHDDやSSD等のストレージ内に形成されている。地図データベース6が有する地図情報には、道路の位置情報、道路形状の情報、交差点及び分岐点の位置情報、道路のレーン情報等が含まれる。ナビゲーションシステム7は、GPS受信機5によって測定された自車両の位置情報と地図データベース6の地図情報とに基づいて、自車両の走行するルートを算出し、算出したルートの情報をHMI8を介して運転者に伝達するとともに、制御装置10へ出力する。HMI8は、乗員と制御装置10との間で情報の出力及び入力をするためのインターフェイスである。アクチュエータ9は、制御装置10からの操作信号に応じて動作し、その動作によって車両の走行状態を変化させる装置である。アクチュエータ9は、例えば、駆動系、制動系、操舵系のそれぞれに設けられている。これら以外にも、例えば、車速センサや加速度センサ等の自車両の走行状態に関する情報を得るための内部センサが自動運転システム1には備えられる。
The
制御装置10は、少なくとも1つのCPU、少なくとも1つのROM、少なくとも1つのRAMを有するECU(Electronic Control Unit)である。ROMには、自動運転のための各種のプログラムやマップを含む各種のデータが記憶されている。ROMに記憶されているプログラムがRAMにロードされ、CPUで実行されることで、制御装置10には様々な機能が実現される。なお、制御装置10は、複数のECUから構成されていてもよい。
The
図1には、制御装置10が有する自動運転のための機能のうち、特に、物体識別に関係する機能がブロックで表現されている。制御装置10が有する自動運転のためのその他の機能についての図示は省略されている。
In FIG. 1, among the functions for automatic operation of the
制御装置10は、自車両の周辺に存在する物体を認識し、道路に沿って設置された壁状物体と移動物体とを判別する機能を有する。この機能は、制御装置10が備える測距データ取得部11、クラスタリング部12、第1の幾何学的特徴量計算部13、道路境界認識部14、第2の幾何学的特徴量計算部15、及び判断部16により実現される。ただし、これらの部11,12,13,14、15、16は、制御装置10内にハードウェアとして存在するものではなく、ROMに記憶されたプログラムがCPUで実行されたときにソフトウェア的に実現される。
The
測距データ取得部11は、自車両の周囲に存在する物体の測距データを自律認識センサより取得する。測距データには、測距点までの距離に関する情報、測距点の高さに関する情報、及び測距点の方向に関する情報が含まれる。測距データ取得部11は、ライダー2で得た情報を用いること、レーダー3で得た情報を用いること、カメラ4で得た情報を用いること、センサフュージョンによって複数種類の自律認識センサの情報を組み合わせて用いること、のうち少なくとも1つの方法による測距データの取得が可能である。測距データ取得部11は、取得した測距データに基づき、各測距点の走行面内での位置を特定する。図2には、自車両に対する前方方向の距離をX軸にとり、横方向の位置をY軸にとった平面(以下、XY平面という)上での測距点の分布の一例が示されている。
The distance measurement
クラスタリング部12は、測距データ取得部11が取得した測距データをクラスタリングする。クラスタリングは、各測距点のX平面上での位置と高さとに基づいて行われる。また、前回フレームでのクラスタリングの結果との連続性を保つように行われる。クラスタリング部12によるクラスタリングの具体的な方法には特に限定はない。公知のクラスタリング方法を用いることができる。図3には、XY平面上に分布する測距点をクラスタリングによって物標化した結果の一例が示されている。長方形の枠は物標を示し、長方形の枠で囲まれた測距点群が物標化された測距点群である。
The
第1の幾何学的特徴量計算部13は、クラスタリング部12により物標化された測距点群の幾何学的特徴量を計算する。幾何学的特徴量には、物標化された測距点群を最小二乗法等のフィッティング手法を用いて直線で近似した場合の、自車両の進行方向に対する直線の傾きが含まれる。また、幾何学的特徴量には、物標化された測距点群を最小二乗法等のフィッティング手法を用いて曲線で近似した場合の、曲線の曲率或いは曲率変化率が含まれる。第1の幾何学的特徴量計算部13は、傾き、曲率、曲率変化率のうちの少なくとも1つを計算する。図4には、物標化された測距点群を近似した直線が点線で描かれている。図4に示す例では、X軸に対する測距点群の傾き、具体的には、測距点群を近似した直線がX軸に対してなす角度が、第1の幾何学的特徴量として算出される。
The first geometric
道路境界認識部14は、自車両の前方を撮影した撮影画像に対する白線認識処理によって道路境界を認識する。白線認識処理は、カメラ4の画像からのエッジ点の検出、エッジ線分の検出、エッジ線分のペアリング、そして、白線境界の選択の順で行われる。図5には、カメラ4の画像からエッジ点を検出する方法が示されている。カメラ4の画像を水平方向に左から右へ走査して、画素が黒から白へと変化するエッジ点と、画素が白から黒へと変化するエッジ点が探索される。この処理を垂直方向に上から下へ行うことで、エッジ点が直線上に並ぶエッジ線分が検出される。エッジ線分が白線のものであるなら、白線の両縁に対応して2本一組のエッジ線分が得られる。エッジ線分のペアリングは、白線のものではないエッジ線分を除外し、白線の可能性のあるエッジ線分を選択するために行われる。ペアリングにより選択されたエッジ線分の位置と過去の白線検出位置とが比較される。両者の間に連続性がある場合、選択されたエッジ線分は白線、つまり、道路境界として認識される。
The road
第2の幾何学的特徴量計算部15は、道路境界認識部14で認識された道路境界をXY平面に写像し、XY平面上での道路境界の幾何学的特徴量を計算する。道路境界認識部14で計算される幾何学的特徴量には、道路境界の点列データを最小二乗法等のフィッティング手法を用いて直線で近似した場合の、自車両の進行方向に対する直線の傾きと、道路境界の点列データを最小二乗法等のフィッティング手法を用いて曲線で近似した場合の、曲線の曲率或いは曲率変化率が含まれる。第2の幾何学的特徴量計算部15は、傾き、曲率、曲率変化率のうち、第1の幾何学的特徴量計算部13で計算される幾何学的特徴量と同種の幾何学的特徴量を計算する。また、第2の幾何学的特徴量計算部15による幾何学的特徴量の計算は、クラスタリング部12により設定された物標を示す枠内の道路境界に対して行われる。図6には、物標内の道路境界を近似した直線が実線で描かれている。図6に示す例では、X軸に対する道路境界の傾き、具体的には、道路境界を近似した直線がX軸に対してなす角度が、第2の幾何学的特徴量として算出される。
The second geometric
判断部16は、第1の幾何学的特徴量計算部13により計算された第1の幾何学的特徴量と、第2の幾何学的特徴量計算部15により計算された第2の幾何学的特徴量との差を物標ごとに計算する。例えば、幾何学的特徴量として傾きと曲率が計算された場合、判断部16は、傾きの差と曲率の差をそれぞれ計算する。図7には、物標化された測距点群を近似した直線が点線で描かれ、物標内の道路境界を近似した直線が実線で描かれている。図7に示す例では、X軸に対する測距点群の傾きと道路境界の傾きとの差、具体的には、測距点群を近似した直線と道路境界を近似した直線とがなす角度が算出される。
The
第1の幾何学的特徴量と第2の幾何学的特徴量との間に差がない場合、或いは、その差が微少である場合、クラスタリング部12により物標化された測距点群は道路に沿って設置された壁状の物体である可能性が高い。判断部16は、差の絶対値が予め設定した閾値以内である場合、物標化された測距点群は道路に沿って設置された壁状の物体であると判断する。判断部16は、この判断結果に応じて、物標化された測距点群をトラッキング処理の対象に含めるか、或いは、トラッキング処理の対象から除外するかを決定する。
If there is no difference between the first geometric feature and the second geometric feature, or if the difference is small, the AF point cloud targeted by the
上記の各部11,12,13,14、15、16の機能により、制御装置10は物体識別装置として機能する。図8は、本実施の形態に係る物体識別処理の流れを示すフローチャートである。物体識別装置としての制御装置10は、このフローチャートに示す処理を所定の周期で繰り返し実施している。
The
まず、ステップS1では、カメラ4の画像に対する白線認識処理によって自車両の前方における道路境界が認識される。また、ステップS1の処理と平行して、ステップS2及びS3の処理が行われる。ステップS2では、ライダー2或いはレーダー3により自車両の周囲に存在する物体の測距データが取得される。ステップS3では、ステップS2で取得された測距データがクラスタリングされ、測距点群が物標化される。
First, in step S1, the road boundary in front of the own vehicle is recognized by the white line recognition process for the image of the
ステップS4では、物標毎に、ステップS3で物標化された測距点群の幾何学的特徴量が計算される。ここでは、測距点群の幾何学的特徴量として、測距点群の傾きが計算されるとする。また、ステップS5では、物標毎に、ステップS1で認識された道路境界の幾何学的特徴量が計算される。ここで計算される幾何学的特徴量は、ステップS4で計算される幾何学的特徴量と同じく傾きである。 In step S4, the geometric feature amount of the AF point group targeted in step S3 is calculated for each target. Here, it is assumed that the slope of the AF point group is calculated as the geometric feature of the AF point group. Further, in step S5, the geometric feature amount of the road boundary recognized in step S1 is calculated for each target. The geometric feature calculated here is the same slope as the geometric feature calculated in step S4.
ステップS6では、ステップS4で計算された測距点群の傾きと、ステップS5で計算された道路境界の傾きとが比較される。そして、それらの差の絶対値が計算される。ステップS7では、ステップS6で計算された測距点群の傾きと道路境界の傾きとの差(絶対値)が閾値以内かどうか判定される。傾きの差が閾値以内である場合、次の処理としてステップS8が選択され、傾きの差が閾値より大きい場合、次の処理としてステップS9が選択される。 In step S6, the slope of the AF point cloud calculated in step S4 is compared with the slope of the road boundary calculated in step S5. Then, the absolute value of the difference is calculated. In step S7, it is determined whether or not the difference (absolute value) between the slope of the AF point cloud calculated in step S6 and the slope of the road boundary is within the threshold value. If the difference in slope is within the threshold value, step S8 is selected as the next process, and if the difference in slope is larger than the threshold value, step S9 is selected as the next process.
ステップS8では、ステップS3で物標化された測距点群がトラッキング処理から除外される。測距点群の傾きと道路境界の傾きとの間に明確な差がない場合、その測距点群は道路に沿って設置された壁状の物体である可能性が高いからである。逆に、ステップS9では、ステップS3で物標化された測距点群がトラッキング処理の対象とされる。そして、その測距点群に係る物標情報が出力される。物標情報には、物標の位置、速度、加速度等の情報が含まれる。物標情報は、車間距離制御やレーン変更制御等の車両の運転制御に用いられる。 In step S8, the AF point cloud targeted in step S3 is excluded from the tracking process. This is because if there is no clear difference between the inclination of the AF point group and the inclination of the road boundary, the AF point group is likely to be a wall-like object installed along the road. On the contrary, in step S9, the AF point cloud targeted in step S3 is targeted for the tracking process. Then, the target information related to the AF point group is output. The target information includes information such as the position, speed, and acceleration of the target. The target information is used for vehicle operation control such as inter-vehicle distance control and lane change control.
以上の手順で行われる物体識別処理によれば、物標化された測距点群の幾何学的特徴量と、道路境界の幾何学的特徴量とを比較するので、道路の曲率が物体の識別結果に影響することを抑えることができる。ゆえに、本実施の形態に係る自動運転システムによれば、道路の曲率が大きいカーブ出入り口などにおいても、道路に沿って設置された壁状物体の識別精度を正しく壁状物体として識別することが可能であり、壁状物体を移動物体として誤認することを低減することができる。 According to the object identification process performed in the above procedure, the geometric feature of the targeted AF point group is compared with the geometric feature of the road boundary, so that the curvature of the road is the object. It is possible to suppress the influence on the identification result. Therefore, according to the automatic driving system according to the present embodiment, it is possible to correctly identify the wall-shaped object installed along the road as a wall-shaped object even at a curved entrance / exit having a large curvature of the road. Therefore, it is possible to reduce the misidentification of a wall-shaped object as a moving object.
実施の形態2
本実施の形態に係る自動運転システムは、実施の形態1に係る自動運転システムと同じく、図1に示す構成を有する。本実施の形態に係る自動運転システムと実施の形態1に係る自動運転システムとの相違は、道路境界認識部14による道路境界の認識方法にある。
The automatic driving system according to the present embodiment has the configuration shown in FIG. 1 like the automatic driving system according to the first embodiment. The difference between the automatic driving system according to the present embodiment and the automatic driving system according to the first embodiment lies in the method of recognizing the road boundary by the road
本実施の形態では、道路境界認識部14は、カメラ4の画像と地図情報とを用いた自己位置推定によって道路境界を認識する。図9には、自己位置推定の方法が示されている。まず、自車両の位置が中心となるようにカメラ4の画像が平面上に投影される。また、GPS受信機5により特定した自車両の位置に基づいて、自車両の周囲の地図画像が地図データベース6から検索される。そして、平面上に投影したカメラ画像と地図画像とが照合される。地図画像より道路境界のおおよその位置がわかるので、2つの画像を照合することにより、カメラ画像から道路境界の点列データを抽出することができる。
In the present embodiment, the road
図10は、本実施の形態に係る物体識別処理の流れを示すフローチャートである。本実施の形態に係る物体識別処理では、実施の形態1のステップS1の処理に代えて、ステップS1′の処理が行われる。ステップS1′では、カメラ4の画像と地図情報とを用いた自己位置推定によって道路境界が認識される。ステップS2からステップS10までの残りの処理については、実施の形態1からの変更はない。なお、道路境界の認識方法として、カメラ4の画像と地図情報とを用いた自己位置推定による道路境界の認識と、白線認識処理による道路境界の認識とを併用することも可能である。
FIG. 10 is a flowchart showing the flow of the object identification process according to the present embodiment. In the object identification process according to the present embodiment, the process of step S1'is performed instead of the process of step S1 of the first embodiment. In step S1', the road boundary is recognized by self-position estimation using the image of the
実施の形態3
本実施の形態に係る自動運転システムは、実施の形態1に係る自動運転システムと同じく、図1に示す構成を有する。本実施の形態に係る自動運転システムでは、トラックやバスのような長尺車両と壁状物体とを誤認しないための新たな機能が、第1の幾何学的特徴量計算部13と判断部16とに与えられている。
The automatic driving system according to the present embodiment has the configuration shown in FIG. 1 like the automatic driving system according to the first embodiment. In the automatic driving system according to the present embodiment, new functions for not misidentifying a long vehicle such as a truck or a bus and a wall-shaped object are the first geometric
本実施の形態では、第1の幾何学的特徴量計算部13は、クラスタリング部12により物標化された測距点群の物標サイズを計算する。物標サイズとは、物標を示す長方形の枠の横幅、長さ、それらの比率のうちの少なくとも一つである。物標サイズに対しては、壁状物体と長尺車両とを判別するための閾値が設定されている。物標サイズが閾値未満である場合、第1の幾何学的特徴量計算部13は、その物標が示す測距点群を幾何学的特徴量の計算の対象から除外する。除外された測距点群は、壁状物体ではない移動物体である可能性が高い。ゆえに、判断部16は、第1の幾何学的特徴量計算部13で除外された測距点群をトラッキング処理の対象に含め、その測距点群に係る物標情報を出力する。
In the present embodiment, the first geometric
また、本実施の形態では、判断部16は、物標化された測距点群が道路境界の形状に沿って所定時間、所定速度以上の速さで移動しているかどうかによって、長尺車両と壁状物体とを判別する。具体的には、判断部16は、所定閾値以上の速度が所定時間以上継続していること(条件A)と、各時刻の物標位置のレーン中心位置に対する横位置誤差が所定時間以上継続していること(条件B)の両方が満足されているかどうか判定する。図11に示す例では、時刻T−2,T−1,Tにおける物標の位置の変化から、物標化された測距点群の速度が計算されて閾値速度と比較されるとともに、レーン中心位置に対する物標位置の横位置誤差が計算される。なお、レーン中心位置は左右の白線の位置から計算される。条件Aと条件Bのいずれか一方でも満たされていない場合、判断部16は、その測距点群は長尺車両である可能性が高いと判断し、その測距点群に係る物標情報の出力を中止する。
Further, in the present embodiment, the
図12は、本実施の形態に係る物体識別処理の流れを示すフローチャートである。本実施の形態に係る物体識別処理では、実施の形態1或いは実施の形態2に係る物体識別処理に加えて、ステップS101の処理が行われる。ステップS101の処理は、ステップS3の処理の後、ステップS4の処理の前に行われる。ステップS101では、ステップS3で物標化された測距点群の物標サイズが閾値以上かどうか判定される。物標サイズが閾値以上である場合、ステップS4に進んで測距点群の幾何学的特徴量(例えば傾き)が算出される。しかし、物標サイズが閾値未満である場合、ステップS4からステップS7までをスキップしてステップS9に進み、ステップS3で物標化された測距点群はトラッキング処理の対象とされる。ステップS101の処理が加えられたことにより、トラックやバスのような長尺車両を壁状物体と誤認することは抑えられる。 FIG. 12 is a flowchart showing the flow of the object identification process according to the present embodiment. In the object identification process according to the present embodiment, the process of step S101 is performed in addition to the object identification process according to the first embodiment or the second embodiment. The process of step S101 is performed after the process of step S3 and before the process of step S4. In step S101, it is determined whether or not the target size of the AF point cloud targeted in step S3 is equal to or larger than the threshold value. When the target size is equal to or larger than the threshold value, the process proceeds to step S4 to calculate the geometric feature amount (for example, inclination) of the AF point group. However, if the target size is less than the threshold value, steps S4 to S7 are skipped and the process proceeds to step S9, and the AF point cloud targeted in step S3 is subject to tracking processing. By adding the process of step S101, it is possible to prevent a long vehicle such as a truck or a bus from being mistaken for a wall-like object.
さらに、本実施の形態に係る物体識別処理では、実施の形態1或いは実施の形態2に係る物体識別処理に加えて、ステップS102の処理が行われる。ステップS102の処理は、ステップS9の処理の後、ステップS10の処理の前に行われる。ステップS102では、ステップS1で得られた白線情報を用いて、トラッキング処理の対象となっている物標の過去の移動履歴が解析される。そして、前述の条件Aと条件Bの両方が満たされていれば、ステップS10に進んで物標情報が出力される。しかし、前述の条件Aと条件Bの一方でも満たされていない場合、物標情報の出力は中止される。ステップS102の処理が行われることにより、壁状物体をトラックやバスのような長尺車両と誤認することは抑えられる。 Further, in the object identification process according to the present embodiment, the process of step S102 is performed in addition to the object identification process according to the first embodiment or the second embodiment. The process of step S102 is performed after the process of step S9 and before the process of step S10. In step S102, the past movement history of the target targeted for tracking processing is analyzed using the white line information obtained in step S1. Then, if both the above-mentioned condition A and condition B are satisfied, the process proceeds to step S10 and the target information is output. However, if either of the above-mentioned conditions A and B is not satisfied, the output of the target information is stopped. By performing the process of step S102, it is possible to prevent the wall-shaped object from being mistaken for a long vehicle such as a truck or a bus.
実施の形態4
本実施の形態に係る自動運転システムは、実施の形態1に係る自動運転システムと同じく、図1に示す構成を有する。本実施の形態に係る自動運転システムと実施の形態1に係る自動運転システムとの相違は、クラスタリング部12に与えられた物体識別に掛かる演算量を低減する機能にある。
The automatic driving system according to the present embodiment has the configuration shown in FIG. 1 like the automatic driving system according to the first embodiment. The difference between the automatic driving system according to the present embodiment and the automatic driving system according to the first embodiment lies in the function of reducing the amount of calculation required for object identification given to the
本実施の形態では、物体識別に掛かる演算量を低減する方法として、測距点を間引いてクラスタリングすることが行われる。測距点を間引く方法には次の2つの方法がある。まず、第1の方法と第2の方法に共通の手順として、前回フレームで物標化された測距点群の位置及び速度を利用して、今回フレームでの物標の位置が推定される。そして、物体は剛体であるとの仮定により、前回フレームと同じ高さ・横幅・長さの物標枠が今回フレームでの物標の枠として用いられる。 In the present embodiment, as a method of reducing the amount of calculation required for object identification, clustering is performed by thinning out the AF points. There are the following two methods for thinning out the AF points. First, as a procedure common to the first method and the second method, the position of the target in the frame this time is estimated by using the position and velocity of the AF point cloud targeted in the previous frame. .. Then, assuming that the object is a rigid body, a target frame having the same height, width, and length as the previous frame is used as the target frame in the current frame.
第1の方法では、今回フレームでの物標の枠に入る測距点について、一定間隔で測距点を間引くか、或いは、距離の大きさに応じて間引き量を変えて間引く(例えば距離が近いほど間引く量を大きくする)ことが行われる。第2の方法では、前回フレームの物標枠のサイズ、特に高さが閾値以下であった場合、今回フレームでの物標の枠に入る全ての測距点をクラスタリングの対象から除外する。このような方法を実施することにより、物体識別に掛かる演算量を低減することができる。特に、第2の方法を実施することにより、縁石のような壁状物体ではない静止物体を識別対象から除外して、物体識別に掛かる演算量を低減することができる。 In the first method, the focus points that fall into the frame of the target in the frame this time are thinned out at regular intervals, or the thinning amount is changed according to the size of the distance (for example, the distance is thinned out). The closer it is, the larger the amount of thinning out) is performed. In the second method, when the size of the target frame of the previous frame, particularly the height, is equal to or less than the threshold value, all the AF points that fall within the target frame of the current frame are excluded from the clustering target. By implementing such a method, it is possible to reduce the amount of calculation required for object identification. In particular, by implementing the second method, it is possible to exclude a stationary object that is not a wall-shaped object such as a curb from the identification target and reduce the amount of calculation required for object identification.
図13は、本実施の形態に係る物体識別処理の流れを示すフローチャートである。本実施の形態に係る物体識別処理では、実施の形態1或いは実施の形態2に係る物体識別処理に加えて、ステップS201の処理が行われる。ステップS201の処理は、ステップS2の処理の後、ステップS3の処理の前に行われる。ステップS201では、ステップS2で取得された測距点から上記の第1の方法と第2の方法のいずれか一つ方法にて測距点が間引かれる。そして、ステップS3では、間引かれた測距点に対してクラスタリングが行われる。ステップS4以降の内容には実施の形態1或いは実施の形態2から変更はないので、フローチャートへの記載は省略されている。 FIG. 13 is a flowchart showing the flow of the object identification process according to the present embodiment. In the object identification process according to the present embodiment, the process of step S201 is performed in addition to the object identification process according to the first embodiment or the second embodiment. The process of step S201 is performed after the process of step S2 and before the process of step S3. In step S201, the AF points are thinned out from the AF points acquired in step S2 by any one of the first method and the second method described above. Then, in step S3, clustering is performed on the thinned AF points. Since the contents after step S4 are not changed from the first embodiment or the second embodiment, the description in the flowchart is omitted.
1 自動運転システム
2 ライダー
3 レーダー
4 カメラ
5 GPS受信機
6 地図データベース
7 ナビゲーションシステム
8 HMI
9 アクチュエータ
10 制御装置(物体識別装置)
11 測距データ取得部(測距データ取得手段)
12 クラスタリング部(クラスタリング手段)
13 第1の幾何学的特徴量計算部(第1の幾何学的特徴量計算手段)
14 道路境界認識部(道路境界認識手段)
15 第2の幾何学的特徴量計算部(第2の幾何学的特徴量計算手段)
16 判断部(判断手段)
1
9
11 Distance measurement data acquisition unit (distance measurement data acquisition means)
12 Clustering unit (clustering means)
13 First geometric feature calculation unit (first geometric feature calculation means)
14 Road boundary recognition unit (road boundary recognition means)
15 Second geometric feature calculation unit (second geometric feature calculation means)
16 Judgment unit (judgment means)
Claims (1)
前記測距データ取得手段が取得した測距データをクラスタリングするクラスタリング手段と、
前記クラスタリング手段により物標化された測距点群それぞれについて、そのサイズを示す物標サイズを計算し、前記物標サイズが所定値以上となる前記クラスタリング手段により物標化された測距点群の幾何学的特徴量を計算する第1の幾何学的特徴量計算手段と、
前記自車両が走行している道路の地図情報と前記自車両の位置情報とに基づいて前記自車両の前方における道路境界を認識するか、或いは、前記自車両の前方を撮影した撮影画像に対する白線認識処理によって前記道路境界を認識する道路境界認識手段と、
前記道路境界認識手段で認識された前記道路境界の幾何学的特徴量を計算する第2の幾何学的特徴量計算手段と、
前記第1の幾何学的特徴量計算手段により計算された幾何学的特徴量と、前記第2の幾何学的特徴量計算手段により計算された幾何学的特徴量との差が予め設定した閾値以内である場合、前記物標サイズが所定値以上となる前記クラスタリング手段により物標化された測距点群は道路に沿って設置された壁状の物体であると判断する判断手段と、
を備え、
前記クラスタリング手段は、
前回フレームで前記クラスタリングにより物標化された測距点群の高さが所定の閾値以下である場合、前回フレームで物標化された測距点群の位置及び速度に基づいて、前回フレームで物標化された測距点群に係る物標の今回フレームにおける位置を推定し、
推定された前記物標の位置の範囲に含まれる前記測距データを今回フレームにおける前記クラスタリングの対象から除外する
ことを特徴とする物体識別装置。 Distance measurement data acquisition means for acquiring distance measurement data of an object existing in front of the own vehicle, and
A clustering means for clustering the distance measurement data acquired by the distance measurement data acquisition means, and
For each of the AF point groups targeted by the clustering means, the target size indicating the size is calculated, and the AF point group targeted by the clustering means whose target size is equal to or larger than a predetermined value. The first geometric feature calculation means for calculating the geometric features of
The road boundary in front of the own vehicle is recognized based on the map information of the road on which the own vehicle is traveling and the position information of the own vehicle, or a white line with respect to the photographed image taken in front of the own vehicle. A road boundary recognition means that recognizes the road boundary by recognition processing,
A second geometric feature calculation means for calculating the geometric feature of the road boundary recognized by the road boundary recognition means, and a second geometric feature calculation means.
A preset threshold value is the difference between the geometric feature calculated by the first geometric feature calculation means and the geometric feature calculated by the second geometric feature calculation means. If it is within the range, the distance measuring point group targeted by the clustering means whose target size is equal to or larger than a predetermined value is determined to be a wall-shaped object installed along the road.
With
The clustering means
When the height of the AF point cloud targeted by the clustering in the previous frame is equal to or less than a predetermined threshold value, the position and velocity of the AF point cloud targeted in the previous frame are used in the previous frame. Estimate the position of the target in the current frame related to the targeted AF point cloud, and
An object identification device characterized in that the distance measurement data included in the estimated position range of the target is excluded from the target of the clustering in the current frame.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016185478A JP6911312B2 (en) | 2016-09-23 | 2016-09-23 | Object identification device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016185478A JP6911312B2 (en) | 2016-09-23 | 2016-09-23 | Object identification device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018048949A JP2018048949A (en) | 2018-03-29 |
JP6911312B2 true JP6911312B2 (en) | 2021-07-28 |
Family
ID=61767531
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016185478A Active JP6911312B2 (en) | 2016-09-23 | 2016-09-23 | Object identification device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6911312B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7290240B2 (en) * | 2018-04-27 | 2023-06-13 | 成典 田中 | Object recognition device |
JP2019200182A (en) * | 2018-05-18 | 2019-11-21 | 株式会社豊田自動織機 | Object sensing device |
JP7156195B2 (en) * | 2019-07-17 | 2022-10-19 | トヨタ自動車株式会社 | object recognition device |
JP7120181B2 (en) | 2019-08-22 | 2022-08-17 | トヨタ自動車株式会社 | Object recognition device |
WO2021192032A1 (en) * | 2020-03-24 | 2021-09-30 | 三菱電機株式会社 | Information processing device and information processing method |
WO2023194761A1 (en) * | 2022-04-08 | 2023-10-12 | 日産自動車株式会社 | Information processing method and information processing device |
CN116859406B (en) * | 2023-09-05 | 2023-11-28 | 武汉煜炜光学科技有限公司 | Calculation method and device for vehicle speed based on laser radar |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4878483B2 (en) * | 2006-03-13 | 2012-02-15 | オムロンオートモーティブエレクトロニクス株式会社 | Radar equipment |
JP5551892B2 (en) * | 2009-06-19 | 2014-07-16 | 富士通テン株式会社 | Signal processing apparatus and radar apparatus |
JP2012089114A (en) * | 2010-09-24 | 2012-05-10 | Toyota Motor Corp | Obstacle recognition device |
JP5664252B2 (en) * | 2011-01-12 | 2015-02-04 | トヨタ自動車株式会社 | Pedestrian detection device |
JP2013036978A (en) * | 2011-07-12 | 2013-02-21 | Denso Corp | Target detection apparatus and wall determination method |
JP5820774B2 (en) * | 2012-06-21 | 2015-11-24 | 株式会社豊田中央研究所 | Road boundary estimation apparatus and program |
US9834207B2 (en) * | 2014-04-15 | 2017-12-05 | GM Global Technology Operations LLC | Method and system for detecting, tracking and estimating stationary roadside objects |
-
2016
- 2016-09-23 JP JP2016185478A patent/JP6911312B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018048949A (en) | 2018-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6911312B2 (en) | Object identification device | |
JP6747269B2 (en) | Object recognition device | |
JP5966747B2 (en) | Vehicle travel control apparatus and method | |
US11260861B2 (en) | Method, device and computer-readable storage medium with instructions for determining the lateral position of a vehicle relative to the lanes on a roadway | |
KR20200014931A (en) | Vehicle information storage method, vehicle driving control method, and vehicle information storage device | |
US9779315B2 (en) | Traffic signal recognition apparatus and traffic signal recognition method | |
JP6654923B2 (en) | Map information output device | |
JP7077910B2 (en) | Bound line detection device and lane marking method | |
CN107957258B (en) | Road mark recognition device | |
JP2008123462A (en) | Object detector | |
JP2019108116A (en) | Device and method for controlling speed of vehicle in longitudinal direction | |
CN113859263B (en) | Scheduled travel route setting device and scheduled travel route setting method | |
JP6115429B2 (en) | Own vehicle position recognition device | |
CN114103954A (en) | Travel lane planning device, storage medium, and travel lane planning method | |
JP6690510B2 (en) | Object recognition device | |
US20170124880A1 (en) | Apparatus for recognizing vehicle location | |
CN116524454A (en) | Object tracking device, object tracking method, and storage medium | |
JP7435513B2 (en) | Vehicle control device and vehicle control method | |
JP2020057146A (en) | Traveling lane estimation device, traveling lane estimation method, and control program | |
EP4060643B1 (en) | Traffic signal recognition method and traffic signal recognition device | |
US11156466B2 (en) | Lane determination device | |
US11679769B2 (en) | Traffic signal recognition method and traffic signal recognition device | |
JP7095559B2 (en) | Bound line detection device and lane marking method | |
RU2779773C1 (en) | Traffic light recognition method and traffic light recognition device | |
US20230152807A1 (en) | Vehicle control system and vehicle driving method using the vehicle control system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190806 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200814 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200901 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210330 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210521 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210608 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210621 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6911312 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |