JP2011065400A - 物体認識装置 - Google Patents
物体認識装置 Download PDFInfo
- Publication number
- JP2011065400A JP2011065400A JP2009215241A JP2009215241A JP2011065400A JP 2011065400 A JP2011065400 A JP 2011065400A JP 2009215241 A JP2009215241 A JP 2009215241A JP 2009215241 A JP2009215241 A JP 2009215241A JP 2011065400 A JP2011065400 A JP 2011065400A
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- vehicle
- classification
- reflection
- class
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】車載レーダの反射の検出パターンから車両、自転車、人(歩行者)等を区別して精度よく認識する新規な物体認識装置を提供する。
【解決手段】特徴抽出部8、分類スコア算出部9により、フレーム毎のレーザレーダ2の反射の検出パターンを、物体毎に用意した複数の特徴パターンのいずれかに分類し、さらに、物体属性推定部10により、段の時系列の複数フレームのパターン認識の分類結果を累積することで、物体の移動の方向や姿勢等の時間変化を吸収し、それらの影響を排除して物体を正確に認識する。
【選択図】図1
【解決手段】特徴抽出部8、分類スコア算出部9により、フレーム毎のレーザレーダ2の反射の検出パターンを、物体毎に用意した複数の特徴パターンのいずれかに分類し、さらに、物体属性推定部10により、段の時系列の複数フレームのパターン認識の分類結果を累積することで、物体の移動の方向や姿勢等の時間変化を吸収し、それらの影響を排除して物体を正確に認識する。
【選択図】図1
Description
この発明は、車載レーダの反射の検出パターンから車両、自転車、人(歩行者)等を区別して認識する物体認識装置に関する。
従来、車両の分野においては、様々な予防安全技術の研究開発が行われており、前方衝突被害軽減システムや後側方警報システムなどの種々の予防安全システムが実用化されている。しかしながら、これらの従来システムはいずれも車両(自動車)を認識するにとどまり、適用範囲が狭く、車両以外の障害物(自転車、歩行者等)も多く混在する複雑な交通環境には適用が困難である。
車両等の障害物の認識は、車載カメラを用いた画像処理で行なうことも可能であるが、そのためにカメラを用意する必要がある。一方、レーザレーダに代表される車載レーダは、測距レーダ等として車両に搭載されることが多く、車載レーダを用いて車両等の障害物を認識することがより実用的で安価である。
そして、車載レーダの反射の検出パターンから車両、自転車、歩行者等の様々な物体を区別して認識することができれば、前記の複雑な交通環境において極めて有用であり、前記の予防安全システムの適応範囲を広げるのに大きく貢献する。
ところで、近年の車載レーダの性能は著しく向上しており、例えばレーザレーダの場合、従来は、主に車両のリフレクタでの反射しか得られなかったが、近年は、近赤外線を利用すること等により、自転車(主にフレーム部分)や歩行者(主に足の部分)などでの反射も得られる。
そして、この種の車載レーダの反射のパターンから物体を認識する方法として、従来、車載レーダとしてのレーザレーダにより検出されたある時点の反射点群(クラスタ)の検出パターンが、設定したL、I、Oの3種類のパターンのいずれに属するかによって、認識対象の物体が矩形形状、フェンスや壁、その他の形状のいずれの種類の物体であるかを区別して推定し、認識することが提案されている(例えば、非特許文献1参照)。
ステファン ウェンダー(Stefan Wender)、他3名、「クラシフィケーション オブ レーザースキャナー メジャーメンツ アット インターセクション シナリオズ ウイズ オートマティク パラメータ オプティマイゼーション(Classification of Laserscanner Measurements at Intersection Scenarios with Automatic Parameter Optimization)」、Intelligent Vehicles Symposium,2005.Proceedings.IEEE、IEEE、2005年6月、p.94−99
前記非特許文献1に記載の認識では、レーザレーダにより検出されたある時点の1フレームのクラスタの検出パターンから物体を推定して認識している。しかも、物体毎のパターン数が少ない(具体的には矩形形状、フェンスや壁、その他の形状の物体それぞれに対してL、I、Oの1つずつのパターン)。
これに対して、認識対象の物体が車両や自転車、人(歩行者)等の場合、それらの物体は、車載レーダに対して種々の方向(前後方向、横方向等)に移動し、車載レーダに対する向きや姿勢等が時間変化する。
そのため、前記非特許文献1に記載の認識では、車両や自転車、人等の多種類の物体のクラスタの検出パターンを的確に該当する物体のパターンに区分することができず、物体の種別の認識率(正答率)が極めて低くなる問題がある。なお、物体の種別を正確に識別できれば、認識した物体に応じて警報タイミングを異ならせる等の最適な運転支援が実現する。
本発明は、車載レーダの反射の検出パターンから車両、自転車、人(歩行者)等を区別して精度よく認識する新規な物体認識装置を提供することを目的とする。
上記した目的を達成するために、本発明の物体認識装置は、車両に搭載された車載レーダと、前記車載レーダの反射の検出パターンを、パターン認識により物体別の複数の特徴パターンのいずれかに分類する分類手段と、複数フレームの前記パターン認識の分類結果を累積し、累積結果から前記検出パターンの物体の種類を識別する識別手段とを備えたことを特徴としている(請求項1)。
また、本発明の物体認識装置は、前記各特徴パターンが、物体毎に複数のクラスに分類されたパターンであり、前記各クラスのパターンは、物体それぞれの少なくとも前記車載レーダに対する向きが異なる特徴パターンであることが好ましい(請求項2)。
さらに、本発明の物体認識装置は、物体には自転車を含み、前記分類手段は、前記自転車の反射の検出パターンについては、複数フレーム間にペダルに相当する一部が所定以上変動することから、自転車の特徴パターンに分類することを特徴としている(請求項3)。
請求項1の発明の場合、分類手段により、フレーム毎の車載レーダの反射の検出パターンを、物体毎に用意した複数の特徴パターンのいずれかに分類することができる。さらに、識別手段により、分類手段の時系列の複数フレームのパターン認識の分類結果を累積することで、物体の移動の方向や姿勢等の時間変化を吸収し、それらの影響を排除して物体を認識できる。
したがって、車載レーダの反射の検出パターンから車両、自転車、人(歩行者)等を区別して精度よく認識する新規な物体認識装置を提供することができる。
請求項2の発明の場合、同一物体でも向きによって車載レーダの反射の検出パターンの形状が異なるが、各特徴パターンが各物体の車載レーダに対する異なる向きの複数のクラスのパターンであるため、車載レーダにより、ある物体がフレームによって異なった向きで検出されたとしても、その検出パターンを間違った物体に区分することがなく、より具体的な構成で物体の認識精度を向上することができる。
請求項3の発明の場合、車載レーダの反射の検出パターンが自転車の検出パターンである場合、自転車のペダル部分、すなわち反射の一部が大きく変化することに着目し、複数フレーム間にペダルに相当する一部が所定以上変動することから、同じ二輪車であるモータバイク(ブレーキやシフトチェンジの際に足首以下の部分が微小に変化する)と区別して自転車を精度よく認識することができる。そして、モータバイクと自転車とを区別して認識できると、例えば、自転車に対してはモータバイクよりも早目に警報を出力できる等の利点がある。
つぎに、本発明をより詳細に説明するため、一実施形態について、図1〜図16を参照して詳述する。
図1は車両(自車)1が備える本実施形態の物体認識装置の構成を示し、車載レーダとしてのレーザレーダ2は、車両1の前方のほぼ180°の範囲を探査する広角の測距レーダであり、近赤外線を利用すること等により、自転車や歩行者などでの反射も得られる。 そして、レーザレーダ2は、例えば車両1のバンパーに取り付けられ、車両1の前方を例えば80mS秒間隔のフレーム毎に探査し、前方の他の車両(自動車)、モータバイク、自転車、歩行者(人)等での反射波を受信し、各高さの水平断面での前方の移動物体の距離データを取得し、この距離データを反射波の受信出力として受信処理部3に出力する。
受信処理部3は、前記距離データを受け取ってマイクロコンピュータ構成の認識処理部4のクラスタリング処理部5に送る。
クラスタリング処理部5は、前記受信出力の各反射点の距離データ等に基づき、レーザレーダ2から得られた各反射点の距離情報を水平面上にプロットして反射点の画像を形成する。そして、前方の他の車両、モータバイク、自転車、歩行者(人)等の物体を構成する点は離散的であるため、クラスタリング処理部5は、例えば周知のモルフォロジー演算を用いて近傍の各反射点を連結して、近傍の反射点同士をかたまり(反射点群のクラスタ)にまとめ、前方の他の車両、モータバイク、自転車、歩行者(人)等でのフレーム毎の各反射点群の検出パターン(クラスタ)を物体追跡処理部6に出力する。
物体追跡処理部6はフレーム毎の検出パターンを記憶部7に一時記憶し、例えば、新たなフレームの反射が得られる毎に、その反射の各検出パターンと直前のフレームの検出パターンとを比較して同じクラスタのパターンか否かを判断し、例えば、検出パターン別にラベルを付す。なお、記憶部7は書き換え自在のRAMやフラッシュメモリ等からなる。
物体追跡処理部6によりラベルが付される等したフレーム毎の各検出パターンの情報は、特徴量抽出部8に送られる。各検出パターンの属性を認識するためには、それぞれの画像上の特徴を知る必要がある。そこで、特徴量抽出部8は、各検出パターンの特徴量を抽出して分類スコア算出部9に送る。
分類スコア算出部9は、例えば後述のSVM(Support VectorMachine)を用いたパターン認識手法により、特徴量の類似度から検出パターンの各クラスの特徴パターンに対する類似度の数値を算出し、検出パターンに最も近い特徴パターンのクラス(属するクラス)を最も近い特徴パターンとして分類し、毎フレームの分類結果を物体属性推定部10に送り、物体属性推定部10は複数フレームの時系列の分類結果から物体を推定して認識する。
ところで、本実施形態においては、レーザレーダ2から得られた距離データのみを用いたパターン認識により、車両(いわゆる自動車)、モータバイク(スクータ等も含む自動二輪車)、自転車、歩行者(人)の4種類の物体(障害物)を区別して認識する。これら4種類の物体は、同じ物体であっても車載レーダ2に対する位置や方向によって「形」が大きく異なり、その反射点群の検出パターンも大きく異なる。そこで、前記4種類の物体について可能な限り複数の特徴パターンを設定し、それらの特徴量から、各検出パターンを、最も近いパターンのクラスを求めてクラス分類し、その結果から属性(物体のカテゴリ)を推定して物体を認識する。さらに、とくに自転車の検出パターンは運転者のベタルを踏む足先の部分、すなわちペダル部分であり、この部分は、フレーム単位ではモータバイクと似ている状態が出現して誤認識が発生するが、ペダルを踏み込む足先が上下に大きく時間変化し、この点てモータバイクと大きく異なるので、本実施形態においては、前記検出パターンの各クラスの類似度の数値を累積して時系列変化(時間変化)を観測し、累積結果の類似度が最も高くなったクラス等から物体を推定して認識し、自転車の確実な認識も実現する。
前記パターン認識は、どのような認識手法で行なってもよいが、本実施形態においては、分類スコアー算出部9により、SVMを用いたパターン認識手法で行なう。SVMは高い汎化能力を持つことが知られている。そして、前記した時系列変化の認識ではSVMの特徴であるマージン最大化を狙い、時系列累積分類スコア(超平面までの距離)を用いて自転車を認識する。
つぎに、クラスの定義と特徴について説明する。
認識する物体の種類は、前記したように車両、モータバイク、自転車、歩行者(人)の4種類であるが、それぞれの物体の反射点群のパターンを物体の位置や移動の方向等により可能な限り細かく分類するため、分類するクラス数を、例外的な歩行者(人)の場合を除いて、形状に異同があるパターン数とする。すなわち、車両については5クラスV1〜V5、モータバイクについては2クラスM1,M2、自転車についても2クラスB1、B2とし、歩行者(人)ついては1クラスP1とする。そして、検出パターンを合計10クラスV1〜V5、M1、M2、B1、B2、P1のいずれかに分類する。
図2(a)〜(e)は車両の5クラスV1〜V5の反射点群のパターンを示す。図3(a)、(b)はモータバイクの2クラスM1、M2の反射点群のパターンを示す。図4(a)、(b)は自転車の2クラスB1、B2の反射点群のパターンを示す。図5は歩行者(人)の1クラスP1の反射点群のパターンを示す。なお、図2〜図5の白丸印の各反射点群のパターンは図中の破線の物体(車両、モータバイク、自転車、又は歩行者)αが例えば破線矢印の方向に移動し、それを各図の位置の車載レーダ2で探査して得られたものである。
各クラスV1〜V5、M1、M2、B1、B2、P1のパターンの形状および、そのようなパターンが発生するシーン(場面)について説明する。
V1:車両側面のみからの反射であって、横向きのI字のパターン形状である。車載レーダ2の前方を他の車両が横方向に通過する際にこのようなパターン形状になる(図2(a))。
V2:車両の前面又は後面からの反射であって、U字の形状である。他の車両が車載レーダ2の前方から接近してきた場合にこのようなパターン形状になる(図2(b))。
V3:V2と同様の車両の前面又は後面からの反射であるが、V2とは車両の向きが異なり、パターンはコの字形状である。他の車両が車載レーダ2の側方から接近してきた場合にこのような形状になる(図2(c))。
V4:車両の側面と、前面又は後面のいずれか一方とからの反射であり、他の車両が車載レーダ2の前方から接近してきた場合にこのような形状になる(図2(d))。
V5:V4と同様、他の車両の側面と、前面又は後面のいずれか一方との反射であり、他車両が車載レーダ2の側方から接近してきた場合にこのような形状になる(図2(e))。
M1:モータバイクの側面のみからの反射であり、横向きのI字の形状をしている。モータバイクが車載レーダ2の前方または側方に位置する場合にこのような形状となる(図3(a)。
M2:モータバイクの前面または後面からの反射であり.V字の形状をしている。モータバイクが車載レーダ2に背を向けている場合か、正面を向いている場合にこのような形状になる(図3(b))。
B1:自転車の側面のみからの反射であり、横向きのI字の形状をしている。自転車が車載レーダ2の前方または側方に位置する場合にこのような形状になる(図4(a))。
B2:自転車の前面または後面からのペダル上の足先部分のあるタイミングの反射であり、V字の形状をしている。自転車が車載レーダ2に背を向けている場合又は、正面を向いている場合にこのような形状になる(図4(b))。
P1:歩行者の足部分から種々の反射であり、これらの反射は歩く向きなどによりパターンの形状が少しずつ異なるが、それぞれの特徴に差異が見られないため、例外的に、歩行者(人)についてのこれらのパターンは同一クラスに属するとする(図5)。
つぎに、特徴量抽出部8が算出して抽出する上記各クラスV1〜V5、M1、M2、B1、B2、P1のパターン(特徴パターン)の特徴量について説明する。
本実施形態においては、各クラスV1〜V5、M1、M2、B1、B2、P1の特徴量として、画像処理上の形状に関わる幅、奥行き、面積、周囲、慣性モーメント、円形度に着目し、さらに主軸、動き方向も取り入れる。なお、例えば図2(a)のパターンの画像平面において、右下隅を原点とすると、横軸方向(x方向)が幅、縦軸方向(y方向)が奥行きである。
図6(a)〜(h)は各クラスV1〜V5、M1、M2、B1、B2、P1の基準のパターンの各特徴量を例示し、(a)が幅、(b)が奥行き、(c)が面積、(d)が周囲、(e)が慣性モーメント、(f)が円形度(円形らしさ)、(g)が主軸(画像の向き)、(h)が動き方向(移動方向)の各特徴量である。
ところで、SVMは教師あり学習を用いるパターン認識手法の一つであり、高次元の分類問題が得意といわれている。SVMは超平面とそれに最も近いデータとの距離(マージン)を最大化するように、訓練データ(学習サンプル)を分離する分離超平面を求める手法で未学習のサンプルに対しても高い認識性能を得ることができる。そこで、本実施形態においては、特徴量抽出部8および分類スコア算出部9を分類器により形成し、特徴量抽出部8により、分類器から出力される分離超平面までの距離(以下、スコアという)に着目し、分類スコア算出部9のパターン認識に必要な検出パターンの各特徴量につき、複数の学習サンプルのパターンの各特徴量を学習して未学習の前記検出パターンの各特徴量のスコアを検出する。なお、前記分類器は、SVMの二値分類器をワン−アゲンスト−レスト(one−against−rest)法を用いて多値分類器に拡張する。また、学習サンプルには、図2〜図5で示した各クラスV1〜V5、M1、M2、B1、B2、P1について、それぞれのクラスに属すると判断する種々の反射点群のパターンから選択した複数のパターンを使用するものとする。具体的には、後述する実験例において、例えば計535個(V1について15個、V2について24個、V3について10個、V4について34個、V5について45個、M1について64個、M2について19個、B1について29個、B2について47個、P1について241個)のパターンを使用した。
分類スコア算出部9は、特徴量抽出部8のフレーム毎の抽出結果の検出パターンの各特徴量が、各クラスV1〜V5、M1、M2、B1、B2、P1の特徴パターンのいずれにもっとも近いかを判断して、検出パターンに最も近い特徴パターンのクラスを特定し、フレーム毎の検出パターンを該当するクラスに分類する。さらに、例えば34フレーム(0.2秒)に亘って、同じクラスタについて分類したクラスを累積し、累積結果を物体属性推定部10に送る。物体属性推定部10は、累積数が最も大きなクラスを、その検出パターンのクラスに決定し、決定したクラスから属性を推定して物体およびそのシーンを認識する。なお、自転車については後述するように、ペダル部分(反射の一部)のスコアがしきい値以に大きく変化することに着目し、複数フレーム間にペダルに相当する一部のスコアが所定以上変動するか否かも監視して認識する。
つぎに、実験した具体的な認識結果を説明する。
[実験方法]
実験にはSVMを用いた。クラス分類の学習サンプルには前記した計535個(V1について15個、V2について24個、V3について10個、V4について34個、V5について45個、M1について64個、M2について19個、B1について29個、B2について47個、P1について241個)のパターンを使用した。
実験にはSVMを用いた。クラス分類の学習サンプルには前記した計535個(V1について15個、V2について24個、V3について10個、V4について34個、V5について45個、M1について64個、M2について19個、B1について29個、B2について47個、P1について241個)のパターンを使用した。
[実験シーン]
本実験では、つぎに説明するシーン1〜7の認識を行って評価した。
本実験では、つぎに説明するシーン1〜7の認識を行って評価した。
シーン1〜7について、状態、認識すべき正解のカテゴリ(物体)、該当するクラスを説明すると、つぎの表1に示すようになる。
図7はシーン1〜7の物体の移動を示し、図中の各矢印線が物体の移動方向を示す。
[評価方法]
つぎの分離法1、2の2種類の認識結果について評価を行った。
つぎの分離法1、2の2種類の認識結果について評価を行った。
(1)分類法1(比較例としてのフレーム毎の認識)
各シーンについて、分類スコア算出部9によりクラスに分類した結果に基づき、物体属性推定部10によりフレーム毎にそのフレームで検出したクラスからカテゴリ別に分類して認識を行う方法であり、フレーム単位で完結する。この場合について、フレーム毎にクラス別の認識率とカテゴリ別の認識率を算出した。
各シーンについて、分類スコア算出部9によりクラスに分類した結果に基づき、物体属性推定部10によりフレーム毎にそのフレームで検出したクラスからカテゴリ別に分類して認識を行う方法であり、フレーム単位で完結する。この場合について、フレーム毎にクラス別の認識率とカテゴリ別の認識率を算出した。
なお、クラス別の認識率とは、クラスの正解フレーム数/全フレーム数で表したものである。このとき、SVMにより分類される各特徴のスコアが一番高いクラスを認識されたクラスとし、そのクラスが実際の(正解の)クラスと一致すれば正解のフレームとして検証した。したがって、例えばV1をV5と誤認識すれば、カテゴリが正解であってもクラスとしては不正解のフレームとなる。
また、カテゴリ別の認識率は,カテゴリの正解フレーム数/前フレーム数で表わしたものである。クラス別の認識率同様にスコアが一番高いクラスを認識されたクラスとするが、例えば、V1をV5と誤認識した場合でも、車両(Vehicle)というカテゴリが正しければ、正解フレームとなる。
(2)分類法2(本実施形態の複数フレームの観測結果の認識)
分類法1では、認識結果がフレーム毎に最高スコアとなったクラスから決定されてしまう。これでは、例えば最高スコアと同程度に高いクラスが正解のクラスになる場合、そのクラスが正解であるにもかかわらず、検出パターンを最高スコアのクラスに分類して誤認識する可能性がある。つまり、分類データの特徴によってはフレーム毎の最高スコアを用いるだけでは不十分で、認識精度を高めるにはその他のスコアも考慮して認識する必要があると考え得られる。そこで、分類法2ではフレーム毎に算出される各クラスに対するスコアを時系列に観測し、最終的に累積スコアが最も大きくなったクラスから物体(カテゴリ)を認識した。また、B1、B2の自転車については、さらに、ペダル部分(反射の一部)のスコアが設定したしきい値以に大きく変化することに着目し、複数フレーム間にペダルに相当する一部のスコアが所定値(前記しきい値)以上変動するか否かも監視し、ペダルに相当する一部のスコアが所定値以上変動することからモータバイクと区別して認識する。
分類法1では、認識結果がフレーム毎に最高スコアとなったクラスから決定されてしまう。これでは、例えば最高スコアと同程度に高いクラスが正解のクラスになる場合、そのクラスが正解であるにもかかわらず、検出パターンを最高スコアのクラスに分類して誤認識する可能性がある。つまり、分類データの特徴によってはフレーム毎の最高スコアを用いるだけでは不十分で、認識精度を高めるにはその他のスコアも考慮して認識する必要があると考え得られる。そこで、分類法2ではフレーム毎に算出される各クラスに対するスコアを時系列に観測し、最終的に累積スコアが最も大きくなったクラスから物体(カテゴリ)を認識した。また、B1、B2の自転車については、さらに、ペダル部分(反射の一部)のスコアが設定したしきい値以に大きく変化することに着目し、複数フレーム間にペダルに相当する一部のスコアが所定値(前記しきい値)以上変動するか否かも監視し、ペダルに相当する一部のスコアが所定値以上変動することからモータバイクと区別して認識する。
[実験結果]
<各シーンでの認識率>
各シーンでの分類法1のクラス別、カテゴリ別の認識結果および、各シーンでの分類法2の認識結果を、つぎの表2に示す。
<各シーンでの認識率>
各シーンでの分類法1のクラス別、カテゴリ別の認識結果および、各シーンでの分類法2の認識結果を、つぎの表2に示す。
なお、表2の分類法2の結果においては、各シーンでの累積値で最高スコアのクラスのカテゴリが正解のカテゴリであれば白丸、そうでなければ×で評価している。
表2の各シーンにおける詳細な結果について説明する。
図8〜図14は、シーン1〜7の分類法1、2の結果を示し、それぞれの(a)は分類法1のフレーム毎の分類結果(各クラスV1〜V5、M1、M2、B1、B2、P1のる類似度分類結果を表し、横軸はフレーム、縦軸は分類したクラスを表す。(b)は分類法2の累積スコアの推移(フレーム変化)を表し、横軸はフレーム、縦軸はスコアの累積値を表す。また、各図の実線が正解値(True Value)、白丸が横に2つ繋がったマークが認識結果として選択されたクラスである。
<図8のシーン1>
V2と認識されるべき前半のフレームではV2の累積値が一番高く、それ以降はV4の累積値が伸びている。分類法1ではV2がV5、V7などに誤認識されていたフレームもあり、クラス別認識率が61パーセントと低い。これに対して、カテゴリ別認識率では、分類法2を用いることで、終始、正解の車両のカテゴリに認識される(図8(a)、(b))。
V2と認識されるべき前半のフレームではV2の累積値が一番高く、それ以降はV4の累積値が伸びている。分類法1ではV2がV5、V7などに誤認識されていたフレームもあり、クラス別認識率が61パーセントと低い。これに対して、カテゴリ別認識率では、分類法2を用いることで、終始、正解の車両のカテゴリに認識される(図8(a)、(b))。
<図9のシーン2>
V5,V3,V1が混在するシーンであるが,分類法1ではクラス別で認識率が56パーセントと誤認識が低い。分類法1でもカテゴリ別では90パーセントと認識率は上がるが、さらに、分類法2を用いることで、より一層確実に車両のカテゴリに認識されることが分かる。V5クラスの累積が非常に大きく、V3、V1ののびは目立たないが、累積値はのびている(図9(a),(b))。
V5,V3,V1が混在するシーンであるが,分類法1ではクラス別で認識率が56パーセントと誤認識が低い。分類法1でもカテゴリ別では90パーセントと認識率は上がるが、さらに、分類法2を用いることで、より一層確実に車両のカテゴリに認識されることが分かる。V5クラスの累積が非常に大きく、V3、V1ののびは目立たないが、累積値はのびている(図9(a),(b))。
<図10のシーン3>
分類法1での認識率はM1がB1に誤認識され認識率50パーセントだったが、分類法2を用いることで、47フレーム目まではB1の累積値が高いが、それ以降はM1がB1のスコアを追い越し、最終的に正解のカテゴリに認識される(図10(a),(b))。
分類法1での認識率はM1がB1に誤認識され認識率50パーセントだったが、分類法2を用いることで、47フレーム目まではB1の累積値が高いが、それ以降はM1がB1のスコアを追い越し、最終的に正解のカテゴリに認識される(図10(a),(b))。
<図11のシーン4>
分類法1では認識率が50パーセント前後であったが、分類法2では初期の10フレームまではM2の累積値が高く、それ以降はB2がM2のスコアを追い越し、正解のカテゴリに認識される(図11(a)、(b))。
分類法1では認識率が50パーセント前後であったが、分類法2では初期の10フレームまではM2の累積値が高く、それ以降はB2がM2のスコアを追い越し、正解のカテゴリに認識される(図11(a)、(b))。
<図12のシーン5>
分類法1では正解率が低い。分類法2でも、85フレーム目までは正解のB2の累積値が高いが、それ以降はP1に追い越されて認識率が下がった。これは、自転車が遠ざかり、反射点が少なくなったため歩行者と間違えたと思われる(図12(a)、(b))。
分類法1では正解率が低い。分類法2でも、85フレーム目までは正解のB2の累積値が高いが、それ以降はP1に追い越されて認識率が下がった。これは、自転車が遠ざかり、反射点が少なくなったため歩行者と間違えたと思われる(図12(a)、(b))。
<図13、図14のシーン6、7>
分類法2で歩行者シーンは終始正解のクラス10の累積値が高かった。このシーンでも分類法1では誤認識されたフレームが発生したが、分類法2を用いることで正解のカテゴリに認識された(図13(a)、(b)、図14(a)、(b))。
分類法2で歩行者シーンは終始正解のクラス10の累積値が高かった。このシーンでも分類法1では誤認識されたフレームが発生したが、分類法2を用いることで正解のカテゴリに認識された(図13(a)、(b)、図14(a)、(b))。
図15は歩行者(クラスP1)と車両(クラスV4)が車両1の前方から接近し、モータバイク(M1)が側方から車両1の前を通過している状況例の検出パターンを示す。
図16は認識処理部4の各部5〜10の処理手順の一例を示し、フレーム毎にレーザレーダ2の反射点群のデータを取得し(ステップS1)、クラスタリングの処理を施し(ステップS2)、クラスタのラベルを付す等して同じ物体を追跡し(ステップS3)、そのフレームのクラスタそれぞれの各特徴量を抽出し(ステップS4)、SVMのパターン認識により、分類スコアを算出し(ステップS5)、例えばN=34フレームに亘って同じ物体の分類スコアを累積する(ステップS6、S7)。そして、その累積結果から物体を認識する(ステップS8)。
上記実験により、同一物体においても位置などにより形状が異なる事からクラス分類を細かくし、 分類においてはSVMから出力されるスコア(分離超平面までの距離)を時系列に観測することにより、フレーム毎の瞬時のクラス認識率とカテゴリ認識率では認識率が低くなるシーンにおいても、スコアの累積値を観測することで、高い認識率で認識できることが確かめられた。
そして、表2および上記の実験結果からも明らかなように、本実施形態の場合は、特徴抽出部8、分類スコア算出部9が形成する本発明の分類手段により、フレーム毎のレーザレーダ2の反射の検出パターンを、物体毎にSVMのパターン学習により用意した各クラスの特徴パターンのいずれかに分類することができ、さらに、物体属性推定部手10が形成する識別手段により、分類手段の時系列の複数フレームのパターン認識の分類結果を累積することで、物体の移動の方向や姿勢等の時間変化を吸収し、それらの影響を排除して物体を認識できる。すなわち、同一物体でも向きによってレーザレーダ2の反射の検出パターンの形状が異なるが、各特徴パターンは各物体のレーザレーダ2に対する異なる向きの複数のクラスのパターンになるので、レーザレーダ2により、ある物体がフレームによって異なった向きで検出されたとしても、分類手段の時系列の複数フレームのパターン認識の分類結果を累積することで、その検出パターンを間違った物体に区分することがなく、より具体的な構成で物体の認識精度を向上することができる。
さらに、レーザレーダ2の反射の検出パターンが自転車の検出パターンである場合、自転車のペダル部分(反射の一部)が大きく変化することに着目し、複数フレーム間にペダルに相当する一部が前記所定以上変動することから、同じ二輪車であるモータバイク(ブレーキやシフトチェンジの際に足首以下の部分が微小に変化する)と区別して自転車を精度よく認識することができる。
そして、物体属性推定部10が認識した物体の情報が、認識処理部4から運転支援部11に送られ、運転支援部11は車両、モータバイク、自転車、歩行者(人)の別に応じた警報等の運転支援を行なう。このとき、とくにモータバイクと自転車とを区別して認識できると、例えば、自転車に対してはモータバイクよりも早目に警報を出力できる等の利点がある。
そして、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行なうことが可能であり、例えば、クラスの数や形状等は前記実施例に限るものではない。また、パターン認識の手法は、SVMに限るものではなく、例えばニューラルネットワークを用いた認識手法であってもよい。
つぎに、車載レーダはレーザレーダ2に限るものではなく、ミリ波レーダ、超音波レーダ等であってもよい。また、車載レーダの探査範囲はどのようであってもよく、車載レーダは、車両1の後方や左右側を探査するものであってもよく、車両1の全周を探査するものであってもよい。
つぎに、認識処理部4の構成や処理手順等が前記実施形態と異なっていてもよいのも勿論である。
そして、本発明は、車載レーダを用いた種々の車両の物体認識装置に適用することができる。
1 車両
2 レーザレーダ
4 認識処理部
8 特徴抽出部
9 分類スコア算出部
10 物体属性推定部
2 レーザレーダ
4 認識処理部
8 特徴抽出部
9 分類スコア算出部
10 物体属性推定部
Claims (3)
- 車両に搭載された車載レーダと、
前記車載レーダの反射の検出パターンを、パターン認識により物体別の複数の特徴パターンのいずれかに分類する分類手段と、
複数フレームの前記パターン認識の分類結果を累積し、累積結果から前記検出パターンの物体の種類を識別する識別手段とを備えたことを特徴とする物体認識装置。 - 請求項1に記載の物体認識装置において、
前記各特徴パターンは、物体毎に複数のクラスに分類されたパターンであり、前記各クラスのパターンは、物体それぞれの少なくとも前記車載レーダに対する向きが異なる特徴パターンであることを特徴とする物体認識装置。 - 請求項1または2に記載の物体認識装置において、
物体には自転車を含み、
前記分類手段は、前記自転車の反射の検出パターンについては、複数フレーム間にペダルに相当する一部が所定以上変動することから、自転車の特徴パターンに分類することを特徴とする物体認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009215241A JP2011065400A (ja) | 2009-09-17 | 2009-09-17 | 物体認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009215241A JP2011065400A (ja) | 2009-09-17 | 2009-09-17 | 物体認識装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011065400A true JP2011065400A (ja) | 2011-03-31 |
Family
ID=43951578
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009215241A Pending JP2011065400A (ja) | 2009-09-17 | 2009-09-17 | 物体認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011065400A (ja) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011191227A (ja) * | 2010-03-16 | 2011-09-29 | Daihatsu Motor Co Ltd | 物体認識装置 |
KR101248045B1 (ko) | 2011-08-10 | 2013-03-27 | 엘아이지넥스원 주식회사 | 기동패턴을 고려하여 위협 표적을 식별하기 위한 장치 |
JP2013064671A (ja) * | 2011-09-20 | 2013-04-11 | Advanced Telecommunication Research Institute International | 計測システムおよび計測方法 |
JPWO2011114815A1 (ja) * | 2010-03-17 | 2013-06-27 | 本田技研工業株式会社 | 車両周辺監視装置 |
KR20150001119A (ko) * | 2013-06-26 | 2015-01-06 | 현대모비스 주식회사 | 물체 인식 시스템 |
DE102015116276A1 (de) | 2014-10-01 | 2016-04-07 | Toyota Jidosha Kabushiki Kaisha | Kollisions-Erfassungs-Vorrichtung für ein Fahrzeug und Kollisions-Erfassungs-Verfahren für ein Fahrzeug |
JP2016134136A (ja) * | 2015-01-22 | 2016-07-25 | キャンバスマップル株式会社 | 画像処理装置、および画像処理プログラム |
JPWO2015174178A1 (ja) * | 2014-05-15 | 2017-04-20 | 本田技研工業株式会社 | 移動支援装置 |
US20170213093A1 (en) * | 2016-01-27 | 2017-07-27 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus for detecting vehicle contour based on point cloud data |
KR101784611B1 (ko) | 2016-06-09 | 2017-11-06 | 재단법인대구경북과학기술원 | 라이다 센서 및 레이더 센서를 이용한 사람 탐지 장치 및 방법 |
KR20180004030A (ko) * | 2016-07-01 | 2018-01-10 | 삼성전자주식회사 | 차량 플랫폼을 위한 장치 및 방법 |
JP2019120543A (ja) * | 2017-12-28 | 2019-07-22 | 古野電気株式会社 | 物標検出装置 |
US10366282B2 (en) | 2016-06-09 | 2019-07-30 | Daegu Gyeongbuk Institute Of Science And Technology | Human detection apparatus and method using low-resolution two-dimensional (2D) light detection and ranging (LIDAR) sensor |
US20190250248A1 (en) * | 2018-02-15 | 2019-08-15 | Mitsubishi Electric Corporation | Radar signal processing device |
JPWO2019053798A1 (ja) * | 2017-09-13 | 2020-10-29 | 株式会社Doog | 自律走行ロボットシステム |
US11155267B2 (en) | 2016-10-11 | 2021-10-26 | Samsung Electronics Co., Ltd. | Mobile sensor platform |
WO2022259362A1 (en) * | 2021-06-08 | 2022-12-15 | Nec Corporation | Training data generation apparatus, training data generation system, training data generation method, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003226211A (ja) * | 2002-02-04 | 2003-08-12 | Nissan Motor Co Ltd | 車両用保護装置 |
JP2007065924A (ja) * | 2005-08-30 | 2007-03-15 | Fuji Heavy Ind Ltd | 画像処理装置 |
JP2008003662A (ja) * | 2006-06-20 | 2008-01-10 | Alpine Electronics Inc | 車両識別システム |
-
2009
- 2009-09-17 JP JP2009215241A patent/JP2011065400A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003226211A (ja) * | 2002-02-04 | 2003-08-12 | Nissan Motor Co Ltd | 車両用保護装置 |
JP2007065924A (ja) * | 2005-08-30 | 2007-03-15 | Fuji Heavy Ind Ltd | 画像処理装置 |
JP2008003662A (ja) * | 2006-06-20 | 2008-01-10 | Alpine Electronics Inc | 車両識別システム |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011191227A (ja) * | 2010-03-16 | 2011-09-29 | Daihatsu Motor Co Ltd | 物体認識装置 |
JPWO2011114815A1 (ja) * | 2010-03-17 | 2013-06-27 | 本田技研工業株式会社 | 車両周辺監視装置 |
KR101248045B1 (ko) | 2011-08-10 | 2013-03-27 | 엘아이지넥스원 주식회사 | 기동패턴을 고려하여 위협 표적을 식별하기 위한 장치 |
KR101287522B1 (ko) | 2011-08-10 | 2013-07-19 | 엘아이지넥스원 주식회사 | 기동패턴을 고려하여 위협 표적을 식별하기 위한 방법 |
JP2013064671A (ja) * | 2011-09-20 | 2013-04-11 | Advanced Telecommunication Research Institute International | 計測システムおよび計測方法 |
KR20150001119A (ko) * | 2013-06-26 | 2015-01-06 | 현대모비스 주식회사 | 물체 인식 시스템 |
KR102129588B1 (ko) * | 2013-06-26 | 2020-07-02 | 현대모비스(주) | 물체 인식 시스템 |
JPWO2015174178A1 (ja) * | 2014-05-15 | 2017-04-20 | 本田技研工業株式会社 | 移動支援装置 |
DE102015116276A1 (de) | 2014-10-01 | 2016-04-07 | Toyota Jidosha Kabushiki Kaisha | Kollisions-Erfassungs-Vorrichtung für ein Fahrzeug und Kollisions-Erfassungs-Verfahren für ein Fahrzeug |
DE102015116276B4 (de) * | 2014-10-01 | 2020-12-10 | Toyota Jidosha Kabushiki Kaisha | Kollisions-Erfassungs-Vorrichtung für ein Fahrzeug und Kollisions-Erfassungs-Verfahren für ein Fahrzeug |
JP2016134136A (ja) * | 2015-01-22 | 2016-07-25 | キャンバスマップル株式会社 | 画像処理装置、および画像処理プログラム |
US10229330B2 (en) * | 2016-01-27 | 2019-03-12 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus for detecting vehicle contour based on point cloud data |
KR101836304B1 (ko) * | 2016-01-27 | 2018-03-08 | 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 | 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 방법과 장치 |
US20170213093A1 (en) * | 2016-01-27 | 2017-07-27 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus for detecting vehicle contour based on point cloud data |
KR101784611B1 (ko) | 2016-06-09 | 2017-11-06 | 재단법인대구경북과학기술원 | 라이다 센서 및 레이더 센서를 이용한 사람 탐지 장치 및 방법 |
US10366282B2 (en) | 2016-06-09 | 2019-07-30 | Daegu Gyeongbuk Institute Of Science And Technology | Human detection apparatus and method using low-resolution two-dimensional (2D) light detection and ranging (LIDAR) sensor |
US10782399B2 (en) | 2016-06-09 | 2020-09-22 | Daegu Gyeongbuk Institute Of Science And Technology | Object detecting method and apparatus using light detection and ranging (LIDAR) sensor and radar sensor |
KR20180004030A (ko) * | 2016-07-01 | 2018-01-10 | 삼성전자주식회사 | 차량 플랫폼을 위한 장치 및 방법 |
KR102366795B1 (ko) * | 2016-07-01 | 2022-02-23 | 삼성전자주식회사 | 차량 플랫폼을 위한 장치 및 방법 |
US11155267B2 (en) | 2016-10-11 | 2021-10-26 | Samsung Electronics Co., Ltd. | Mobile sensor platform |
JPWO2019053798A1 (ja) * | 2017-09-13 | 2020-10-29 | 株式会社Doog | 自律走行ロボットシステム |
JP2019120543A (ja) * | 2017-12-28 | 2019-07-22 | 古野電気株式会社 | 物標検出装置 |
JP7182869B2 (ja) | 2017-12-28 | 2022-12-05 | 古野電気株式会社 | 物標検出装置 |
US20190250248A1 (en) * | 2018-02-15 | 2019-08-15 | Mitsubishi Electric Corporation | Radar signal processing device |
JP2019138862A (ja) * | 2018-02-15 | 2019-08-22 | 三菱電機株式会社 | レーダ信号処理装置 |
US10866309B2 (en) | 2018-02-15 | 2020-12-15 | Mitsubishi Electric Corportaion | Radar signal processing device |
WO2022259362A1 (en) * | 2021-06-08 | 2022-12-15 | Nec Corporation | Training data generation apparatus, training data generation system, training data generation method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011065400A (ja) | 物体認識装置 | |
JP5700940B2 (ja) | 物体認識装置 | |
EP3416134B1 (en) | Surrounding environment recognition device for moving body | |
JP2011186584A (ja) | 物体認識装置 | |
CN108263278B (zh) | 基于传感器整合的行人检测和行人防碰撞装置及方法 | |
JP5583523B2 (ja) | 物体認識装置 | |
WO2016129403A1 (ja) | 物体検知装置 | |
JP6690517B2 (ja) | 運転支援装置、及び運転支援方法 | |
JP5591779B2 (ja) | 道路使用弱者保護システム | |
JP5971341B2 (ja) | 物体検出装置及び運転支援装置 | |
KR101891460B1 (ko) | 차도 위의 반사체를 인식하고 평가하기 위한 방법 및 장치 | |
US9280900B2 (en) | Vehicle external environment recognition device | |
US20130010112A1 (en) | Object detection apparatus and storage medium storing object detection program | |
JP2008009843A (ja) | 障害物判別装置 | |
KR101663574B1 (ko) | 야간 환경에서의 운전자 보조 시스템을 위한 위험 보행자 검출 방법 및 시스템 | |
JP5482672B2 (ja) | 移動物体検出装置 | |
US10996317B2 (en) | Object detection apparatus and object detection method | |
JP2012173230A (ja) | 物体認識装置 | |
JP2016015043A (ja) | 対象物認識装置 | |
JP2010072947A (ja) | 障害物検出装置 | |
JP2001082954A (ja) | 画像処理装置及び画像処理測距方法 | |
KR20170138842A (ko) | 템플릿 매칭 기반의 차량 추적 시스템 및 방법 | |
Nowosielski | Vision-based solutions for driver assistance | |
KR20180048519A (ko) | 템플릿 매칭 기반의 차량 추적 시스템 및 방법 | |
KR102600339B1 (ko) | 딥러닝 기반의 다중 객체 인식 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130806 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20131210 |