JP7184318B2 - 物体認識装置および物体認識方法 - Google Patents

物体認識装置および物体認識方法 Download PDF

Info

Publication number
JP7184318B2
JP7184318B2 JP2018039126A JP2018039126A JP7184318B2 JP 7184318 B2 JP7184318 B2 JP 7184318B2 JP 2018039126 A JP2018039126 A JP 2018039126A JP 2018039126 A JP2018039126 A JP 2018039126A JP 7184318 B2 JP7184318 B2 JP 7184318B2
Authority
JP
Japan
Prior art keywords
noise
ranging
added
object recognition
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018039126A
Other languages
English (en)
Other versions
JP2019153188A (ja
Inventor
敏夫 伊東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shibaura Institute of Technology
Original Assignee
Shibaura Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shibaura Institute of Technology filed Critical Shibaura Institute of Technology
Priority to JP2018039126A priority Critical patent/JP7184318B2/ja
Publication of JP2019153188A publication Critical patent/JP2019153188A/ja
Application granted granted Critical
Publication of JP7184318B2 publication Critical patent/JP7184318B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、物体認識装置および物体認識方法に関する。
近年、世界中の様々な企業が、車両の自動運転技術の開発に取り組んでいる。運転の自動化による、安全性、快適性等の各段の向上が期待されており、現在は実証実験が行われている段階にある。例えば、愛知県では、自動運転システムにより公道で運転席を監視して無人の車を走らせる実験が行われている。また、国土交通省では、中山間地域で自動運転の実験が行われている。他にも様々な実証実験が行われている。しかしながら、完全自動運転は、実用化に至っていない。
完全自動運転を実現するためには、4つの機能が必要となる。具体的には、自車がどの位置にいるのか把握するための自己位置推定、周りの環境を認識するための外界認識、総合的に判断して行動するための行動計画、ブレーキやステアリングなどを操作する車両制御、を行う機能が挙げられる。本発明者は、これらのうち外界認識を行う技術について着目し、研究を進めている。外界認識は、自車の周囲の障害物を検出し、歩行者などとの接触事故を防ぐ上で重要な技術である。
外界認識に用いるセンサとしては、点群(ポイントクラウド)データを出力するLiDAR(Light Detection and Ranging)、画像データを出力するカメラなどが挙げられる(非特許文献1参照)。LiDARは、主に、近赤外レーザビームを周囲に照射して走査を行う走査部、反射光を受ける受光部、照射してから受光するまでにかかった時間から距離を測定する信号処理部からなる。照射するレーザ光としては、近赤外光を用いることにより、可視光に起因する外乱を取り除くことができ、さらに、近赤外光に起因する外乱については、照射光をパルス変調してキャンセルすることが可能となる。よって、LiDARは、可視光を撮影するカメラと比べて優れている。LiDARでは、完全な暗闇や、カメラなら飽和してしまう明るい環境においても、反射光をが受けられる範囲であれば認識することができる。カメラの一種であるステレオカメラでは、基線長に対して測定方向の距離が長くなるにつれて測定誤差が大きくなるが、LiDARでは、遠方であっても測定誤差が大きくならない。
鶴原吉郎、"自動運転センサー主役はレーザーへ"、明日のエンジニアへの手紙、(2018)、pp.24-33 松元則雄、"メカレスで50ドルを目指す、クルマから家電・ARへ"、日経エレクトロニクス、(2017/02) pp.50-54 長谷悠佑、"赤外線レーザレーダを用いた移動物体認識に関する研究"、 関西学院大学院修士論文、(2010/3)、pp.28-30
LiDARによる外界認識は、レーザ光をスキャン走査することによって行われる。レーザー光は、照射方向に対して放射状に複数の方向に広がって進む性質を有しており、光源から離れるほどその広がりが大きくなる。そのため、照射されるレーザー光同士の間隔が広がり、遠方にある対象物体をスキャン走査する走査レーザー層の数が少なくなり、その結果として、対象物体に対してLiDARから出力される点の分布率が低下することになる(非特許文献2参照)。したがって、LiDARを用いて外界認識を行おうとしても、遠方にある対象物については、正しく認識できない虞がある。この場合、例えば、自転車、車両などの物体を検出する場合、物体の全体がLiDARの走査範囲に入っていなければ、歩行者などの異なる物体として検出されてしまうことがある。そのため、走査範囲に入る瞬間には、自転車、車両は、高い確率で歩行者として検出されてしまう(非特許文献3参照)。
本発明は上記事情に鑑みてなされたものであり、光源から遠い位置にある物体について正しく認識することを可能にする、物体認識装置および物体認識方法を提供することを目的とする。
上記課題を解決するため、本発明は以下の手段を採用している。
(1)本発明の一態様に係る物体認識装置は、測距装置によって距離が測定された複数の測距点に基づいて、物体を認識する物体認識装置であって、前記測距装置によって測定された前記複数の測距点に対し、予め規定されたノイズを付加するノイズ付加部と、前記ノイズが付加された測距点に基づいて、物体を表すクラスタを形成するクラスタリング部と、前記クラスタリング部によって形成された前記クラスタの特徴量に基づいて前記物体を認識する認識部と、を備える。
(2)上記(1)に記載の物体認識装置において、前記ノイズ付加部は、前記測距装置によって測定された前記複数の測距点のうち、距離が予め規定された基準距離以上である測距点に対して前記ノイズを付加するものであることが好ましい。
(3)上記(1)または(2)のいずれかに記載の物体認識装置において、前記ノイズは、前記測距点から水平方向に30cm以下、鉛直方向に40cm以下の範囲に付加されるものであることが好ましい。
(4)上記(1)~(3)のいずれか一つに記載の物体認識装置において、前記ノイズ付加部によって付加される前記ノイズは、ホワイトノイズであることが好ましい。
(5)上記(4)に記載の物体認識装置において、物体毎に分散が異なるホワイトノイズを格納する格納部を更に備えており、前記ノイズ付加部が、前記測距装置によって測定された前記複数の測距点に対して、分散が異なるホワイトノイズを順次付加し、前記クラスタリング部及び前記認識部は、前記ノイズ付加部によってホワイトノイズが付加される度に、前記クラスタの形成及び前記物体の認識を行うものであることが好ましい。
(6)本発明の一態様に係る物体認識方法は、測距装置によって距離が測定された複数の測距点に基づいて、物体を認識する物体認識方法であって、前記測距装置によって測定された前記複数の測距点に対し、予め規定されたノイズを付加するノイズ付加ステップと、前記ノイズが付加された測距点に基づいて、物体を表すクラスタを形成するクラスタリングステップと、前記クラスタリングステップによって形成された前記クラスタの特徴量に基づいて前記物体を認識する認識ステップと、を有する。
(7)上記(6)に記載の物体認識方法において、前記ノイズ付加ステップにおいて、前記測距点から水平方向に30cm以下、鉛直方向に40cm以下の範囲に、ノイズを付加することが好ましい。
本発明の一実施形態に係る物体認識装置および物体認識方法では、測距点にノイズを付加することにより、光源から遠い位置にある物体のクラスタリングを正しく行うことができるため、当該物体について正しく認識することが可能となる。
本発明の一実施形態に係る物体認識の手順について、模式的に説明する図である。 定常状態の双安定系ポテンシャルの概形を示す図である。 系の緩やかな傾動とノイズの印加により、粒子が跳躍する様子を模式的に説明する図である。 測距点の分布を示す画像である。 異なる距離にある2つの物体から得られるクラスタの大きさを、模式的に示す図である。 異なる距離にある2つの物体から得られるクラスタの大きさを、模式的に示す図である。 本発明の実施例において用いた測定系の構成を模式に示す図である。 本発明の実施例において、付加するノイズとして検討した正規分布する乱数のグラフである。 本発明の実施例において、付加するノイズとして検討したカイ二乗分布する乱数のグラフである。 本発明の実施例において、付加するノイズとして検討したガンマ分布する乱数のグラフである。 本発明の実施例において、付加するノイズとして検討したベータ分布する乱数のグラフである。 本発明の実施例において得られた、遠方にある測距点の分布を示すグラフである。 本発明の実施例において得られた、遠方にある測距点と付加されたノイズの分布を示すグラフである。 本発明の実施例において、ノイズを付加しない状態での測距点の分布を示す画像である。 図14の測距点の分布について、クラスタリングした結果を示す画像である。 本発明の実施例において、ノイズを付加した状態での測距点の分布を示す画像である。 図16の測距点の分布について、クラスタリングした結果を示す画像である。 (a)近距離にある2つの物体の測距点にノイズを加えた点群の画像である。(b)(a)の点群に対し、クラスタリングを行った結果を示す画像である。 (a)近距離にある2つの物体の測距点の画像である。(b)(a)の測距点に対し、所定の範囲にノイズを加えた画像である。 図19の点群に対し、クラスタリングを行った結果を示す画像である。
以下、本発明を適用した実施形態に係る物体認識装置および物体認識方法について、図面を用いて詳細に説明する。なお、以下の説明で用いる図面は、特徴をわかりやすくするために、便宜上特徴となる部分を拡大して示している場合があり、各構成要素の寸法比率などが実際と同じであるとは限らない。また、以下の説明において例示される材料、寸法等は一例であって、本発明はそれらに限定されるものではなく、その要旨を変更しない範囲で適宜変更して実施することが可能である。
本発明の一実施形態に係る物体認識方法は、測距装置によって測定地点からの距離が測定された複数の測距点に基づいて、物体を認識する物体認識方法である。本実施形態の物体認識方法は、測距装置によって測定された複数の測距点に対し、予め規定されたノイズを付加するノイズ付加ステップと、ノイズが付加された測距点に基づいて、物体を表すクラスタを形成するクラスタリングステップと、クラスタリングステップによって形成されたクラスタの特徴量に基づいて物体を認識する認識ステップと、を有する。
上記物体認識方法に用いる物体認識装置は、測距装置によって距離が測定された複数の測距点に基づいて、物体を認識する物体認識装置であって、物体認識装置は、測距装置によって測定された複数の測距点に対し、予め規定されたノイズを付加するノイズ付加部と、ノイズが付加された測距点に基づいて、物体を表すクラスタを形成するクラスタリング部と、クラスタリング部によって形成されたクラスタの特徴量に基づいて物体を認識する認識部と、を備える。
ノイズ付加部は、測距装置によって測定された複数の測距点のうち、距離が予め規定された基準距離以上である測距点に対して、ノイズを付加するものであることが好ましい。ノイズは、測距点から水平方向に30cm以下、鉛直方向に40cm以下の範囲に付加されるものであることが好ましい。ノイズ付加部によって付加されるノイズは、ホワイトノイズであることが好ましい。
なお、物体認識装置は、物体毎に分散が異なるホワイトノイズを格納する格納部を更に備えていてもよい。ノイズ付加部は、測距装置によって測定された複数の測距点に対して、分散が異なるホワイトノイズを順次付加するものであるクラスタリング部及び認識部は、ノイズ付加部によってホワイトノイズが付加される度に、クラスタの形成及び物体の認識を行うものである。
図1は、本実施形態における物体認識の流れについて、模式的に示す図である。測距装置としては、例えば、外界認識用センサとして知られるLiderを用いる。検出する物体の位置が光源(Lider)から遠くなる程、表示部の画面上の物体の位置において、物体として出力される測距点の分布率が低下するが、そこにノイズを付加し、そのノイズの分散の値を物体ごとに変えて、クラスタリングを行う。このようにすることで、識別距離を延ばすことができる。
付加するノイズとしては、確率共鳴で用いられているホワイトガウスノイズ(以下では、ホワイトノイズと呼ぶことがある)を用いることが好ましい。初めに、ホワイトノイズを用いる上で基本的概念となる、確率共鳴について説明し、続いて確率共鳴という概念をどのように物体認識に適用させていくかについて説明する。
ここでは双安定系でのシンプルな確率共鳴の現象について、簡単なモデルを用いて説明する。1次元の非線形系で確率共鳴を示す減衰調和振動子として、下記(1)式のランジュバン方程式を考える。
Figure 0007184318000001
この式は質量mの粒子が、γで表される摩擦力を受けて運動する場合を示す。復元力は双安定系のポテンシャルエネルギーU(x)の勾配として記述される。強度がDの確率変動力ξ(t)が付加されるものとする。典型的にこれは以下のホワイトガウス過程に従う。すなわち、平均と自己相関は各々,下記(2)式で示される。ここでの括弧<>は集合平均を意味し、t≠t’でξ(t)とξ(t’)は統計的に独立である。U(x)は双安定ポテンシャルであるから、非線形弾性方程式からレーザ系までを幅広く記述することができる。
Figure 0007184318000002
双安定系のポテンシャルU(x)を、下記(3)式のように定義する。
Figure 0007184318000003
図2は、定常状態の双安定系のポテンシャルの井戸を示す。系が激しい減衰を受けるとき、(m/2)(d/dx)(x(t))の項、すなわち(1)式の左辺の第1項は無視することができる。このとき、(1)式は、γでリスケーリングすることにより、下記(4)式で表される確率Duffinng方程式に帰着する。ここでのDは、ノイズの強度に対応する。
Figure 0007184318000004
この双安定系において、さらに周期的な入力Asin(ωt)を付加した場合、(4)式は、下記(5)式に置き換えられる。
Figure 0007184318000005
この場合の系の有効ポテンシャルは、下記(6)式で表される。上記のにおけるAとωは、それぞれ振幅と振動数である。
Figure 0007184318000006
確率共鳴の物理的イメージについて、図3を用いて説明する。図3は、系の緩やかな傾動とノイズの印加による粒子の跳躍の状態を示す。2つの安定状態を有するポテンシャル中を、ノイズの影響を受けて運動する粒子が存在すると仮定する。微弱かつ緩やかな周期で、この系全体を傾動させる。粒子が飛び出した時、運動を検知するものとする。系が非線形系の場合には、ノイズと微弱な周期振動が合致して粒子が突出する。ノイズが微弱な周期信号を励起するためである。この時、ノイズ強度Dのある範囲で、周期信号とノイズが共鳴する。これらが確率共鳴と呼ばれる現象で、粒子の飛び出す頻度をもとにして、微弱な周期信号を検知することにより、その情報を得ることができる。
図4は、測距点群の分布率が低い場合に表示手段によって表示される画像を示している。この場合、クラスタリング部は、表示されている測距点群に対して、大きさが異なるクラスタを生成してしまったり、クラスタを生成できない、といった問題が発生する。以下に説明する手法を用い、この問題を解決する。
まず、図5に示すような分布が存在すると仮定する。この分布に含まれる要素P 、平均μ、分散σは、それぞれ下記(7)~(9)式で表される。
Figure 0007184318000007
Figure 0007184318000008
Figure 0007184318000009
任意の測定地点Oから遠い位置にある測距点を含めたクラスタの大きさRと、近い位置にある測距点を含めたクラスタの大きさR’とを比較する。クラスタリング部において、例えば、大きさがR’のクラスタを二輪車とすると、RとR’の大きさが大きく隔たっているので、大きさがRのクラスタは二輪車と認識されない。図5に示す状態は、測距点群について誤認識している状態、あるいは測距点群の分布率が低いため、クラスタを生成できない状態であると考えられる。つまり、この隔たりを小さくすることができ、測距点の分布率を上げれば、クラスタを生成することができ、測距点群について正しく認識できるようになる。
そこで、Rに対して、下記(10)式で表されるホワイトガウスノイズW(D0.5ξ(t))を付加する。
Figure 0007184318000010
下記(11)式に示すように、ホワイトガウスノイズWを要素P に加えた要素をCとする。平均μ、分散σは、それぞれ下記(11)式、(12)式で表される。
Figure 0007184318000011
Figure 0007184318000012
Figure 0007184318000013
図6は、図5の2つのクラスタに対し、ホワイトガウスノイズWiを付加した状態を示す図である。R”は、要素P に対して,ホワイトガウスノイズWを付加した時に生成されるクラスタの大きさである。
図5において、ホワイトガウスノイズの分散の値を変化させることにより、徐々にRの範囲が延び、大きさが図6のR”のように変化する。分散が特定の値をとるとき、R’の値とR”の値が等しくなり、R’とR”が同一の物体として検出される。これは、ノイズの分散値を変えていくことにより、認識したい物体領域に引き込まれていくからである。これは、「ノイズと微弱な周期振動が合致して粒子が突出する」現象に似ている。つまり、ノイズとR’の値が合致して正しい認識ができるようになる。このようにして、大きさが異なるクラスタを生成してしまったり、クラスタを生成できないといった問題を解決することができる。
以上のように、本実施形態に係る物体認識装置および物体認識方法では、測距点にノイズを付加することにより、光源から遠い位置にある物体のクラスタリングを正しく行うことができるため、当該物体について正しく認識することが可能となる。
以下、実施例により本発明の効果をより明らかなものとする。なお、本発明は、以下の実施例に限定されるものではなく、その要旨を変更しない範囲で適宜変更して実施することができる。
(実施例1)
図7は、物体認識装置を用いた測定系の構成を模式的に示す図である。図7に示すように、バイク10の先頭側に3次元LiDAR(VLP-16)20を設置して計測を行った。計測結果は、3次元LiDAR20に接続したPC30で解析した。
まず、正規分布、対数正規分布、カイ二乗分布、ガンマ分布、ベータ分布の乱数のうち、付加するノイズとしてどの乱数が妥当であるかどうか確かめた。それぞれの乱数の分布を、図8~11に示す。
実際に、これらの乱数を発生させて識別器で分類を行った。その結果、正規乱数以外の乱数を付加すると二輪車を車両と過検出することが分かった。このようになった原因は、正規乱数と比べて、対数正規分布やガンマ分布などで発生させる乱数は分布の偏りが大きいことにあると考えられる。よって、付加する乱数として正規乱数を選択した。
自転車、歩行者、車両の3つの物体ごとに、異なる正規乱数を付加した。付加する正規乱数の設定を、次のようにして行った。サンプルデータとする自転車、歩行者、車両のそれぞれについて、25個ずつのデータを用い、横・縦・高さの分散を求め、それらの分散値の平均をとった。その結果を表1に示す。
Figure 0007184318000014
実際に、正規乱数を遠距離にある点群に対して付加した。SVMを用いて付加した点群を分類し、認識距離が延びているかどうかを確認した。また、近距離にある点群(測距点群)に対しても正規乱数を付加させ、正しく認識するかどうかを確認した。
遠方にあり、分布率の低い点群に対して正規乱数を付加し、認識距離が延びるかどうかの確認を行った。図13は、遠方にある点群を示すグラフである。図12のような遠距離時の点群に対して雑音を付加したものを、図13に示す。
近距離時の物体と遠距離時の物体物が混合しているデータに対して差分をとる。差分をとったデータを図14に示す。このデータに対してクラスタを生成する。その結果を図15に示す。クラスタ1は、計測地点から約80mの地点に存在する車両のクラスタである。クラスタ2、クラスタ3は、それぞれ、計測地点から20m以内に存在する車両、歩行者のクラスタである。これらに対して分類を行った。その結果を表2に示す。
Figure 0007184318000015
図16は、正しくクラスタリングできていない物体(計測地点から約80mの地点に存在する車両)に対して、正規乱数を発生させたデータを示している。これをクラスタリングしたものを図17に示す。識別器を用いて3つのクラスタを分類する。その結果を表3に示す。
Figure 0007184318000016
20m以上80m以内の距離にある物体(人、二輪車、車両それぞれ18個)に対して分類を行った。表4は、正規乱数を発生させずに行った結果である。20m超えると二輪車を全く分類することができていないことが分かる。
Figure 0007184318000017
これら分類できていない物体に対し、表1で設定した分散の値を用いて適切な正規乱数を付加する。その結果を表5に示す。
Figure 0007184318000018
測距点の分布率が低下したデータに対して正規乱数を付加し、SVMを用いて遠距離に存在する歩行者、二輪車、車両の分類を行った。表4と表5に示した結果を比較すると、遠方にあって認識できていなかったものが、ノイズを付加することによって認識できていることが分かる。
表4のような結果は、遠方ほどビームの間隔が広がって測距点の分布率が低下したため、遠方ほど検出率が低下したことによる。遠方にある物体の検出率を改善するために、確率共鳴という概念を用いることによって、この問題解決した。誤認識や認識できない物体に対して確率共鳴を用いると、ノイズとR’の値が合致して、歩行者、二輪車、車両として検出される。それらのデータに歩行者、二輪車、車両の物体ごとに適切な正規乱数を付加する。具体的には、歩行者であれば横成分に0.00117、縦成分に0.0152、高さ成分に0.124、二輪車であれば横成分に0.0437、縦成分に0.109、高さ成分に0.131、車両であれば横成分に0.203、縦成分に1.21、高さ成分に0.167の分散値の正規乱数を発生させる。これにより、それぞれの横成分、縦成分、高さ成分が、それぞれの認識物体の特徴量に近づき、表5に示すような結果が得られる。表5の結果では、認識率が上がっており、特に二輪車において改善していることが分かる。
しかしながら、未だ誤認識しているデータがあった。
図18は、歩行者2人がある一定距離以内の間隔で歩行運動をするというデータを示している。図18(a)の歩行者2人の測距点に対し、ノイズを付加した状態でクラスタリング処理を行うと、図18(b)に示すようなクラスタが形成され、歩行者として検出されなかった。それどころか、過検出してしまい、車両や二輪車として検出してしまった。その理由としては、認識するべき物体間の距離が近すぎて、どこで区切ればいいのか分からなくなり、間違ったクラスタを形成してしまうことにより、歩行者であるのに二輪車や車両として認識されてしまうことが挙げられる。
そこで、ノイズを付加する適切な範囲について検証を行った。図19(a)は、歩行者2人の測距点を示す画像である。歩行者2人の距離dは、約90cmとした。図19(b)は、図19(a)のそれぞれの測距点から、所定の範囲(ここでは、水平方向(横方向)に30cm以下、鉛直方向(縦方向)に40cm以下の範囲)に、ノイズを付加した状態の点群を示す画像である。図20は、図19(b)の点群に対し、クラスタリングを行った結果を示す画像である。この結果から、ノイズを付加する範囲を調整することによって、互いに近い距離にある複数の物体に対しても正しいクラスタリングが行われることが分かる。
なお、二輪車や車両では、このような誤認識が起こらなかった。それは、二輪車や車両ではある程度車間をあけており、クラスタリング処理に成功し、1つ1つのクラスタに分けることができたからであると考えられる。
ノイズを付加する前から過検出してしまったデータに対しては、適切なノイズを付加しても、ノイズ同士がお互いに干渉してしまい、正確なクラスタを生成することができなかった。通常のクラスタよりも大きくクラスタリングしてしまった。
本発明は、認識距離を延ばすという課題を解決するものである。従来技術では、遠方ほどレーザビームの間が広がり、走査レーザ層の数が減っていくため、遠距離になるほど、測距点の分布率が低下し、クラスタの生成ができなくなり、認識できなくなってしまうことや誤認識してしまうことが問題とされていた。これらの問題を解決するために、本発明では、次の方法を用いた。歩行者、二輪車、車両のサンプルデータとSVMにより、移動物体を3種類に分類する分類器を製作した。特徴量として縦・横・高さを使用した。3次元点群データに対してクラスタリングを行い、物体を検出した。検出した物体に対してクラスタリングを行い、Euclidean Clusteringを用いてクラスタを生成した。生成したクラスタの特徴量を検出し、検出した特徴点と製作した分類器を用いて分類を行った。誤認識した物体やクラスタを生成できないかった点群に対して、確率共鳴で用いられている正規乱数を発生させて分類を行った。その結果として、データから歩行者、二輪車、車両を認識することができた。
1~6・・・クラスタ
10・・・バイク
20・・・LiDAR
30・・・PC
d・・・距離
O・・・測定地点

Claims (5)

  1. 測距装置によって距離が測定された複数の測距点に基づいて、物体を認識する物体認識装置であって、
    前記測距装置によって測定された前記複数の測距点に対し、予め規定されたノイズを付加するノイズ付加部と、
    前記ノイズが付加された測距点に基づいて、物体を表すクラスタを形成するクラスタリング部と、
    前記クラスタリング部によって形成された前記クラスタの特徴量に基づいて前記物体を認識する認識部と、を備え
    前記ノイズ付加部によって付加される前記ノイズは、ホワイトノイズであり、
    物体毎に分散が異なるホワイトノイズを格納する格納部を更に備えており、
    前記ノイズ付加部が、前記測距装置によって測定された前記複数の測距点に対して、分散が異なるホワイトノイズを順次付加し、
    前記クラスタリング部及び前記認識部は、前記ノイズ付加部によってホワイトノイズが付加される度に、前記クラスタの形成及び前記物体の認識を行うものであることを特徴とする物体認識装置。
  2. 前記ノイズ付加部は、前記測距装置によって測定された前記複数の測距点のうち、距離が予め規定された基準距離以上である測距点に対して前記ノイズを付加するものであることを特徴とする請求項1に記載の物体認識装置。
  3. 前記ノイズは、前記測距点から水平方向に30cm以下、鉛直方向に40cm以下の範囲に付加されるものであることを特徴とする請求項1または2のいずれかに記載の物体認識装置。
  4. 測距装置によって距離が測定された複数の測距点に基づいて、物体を認識する、請求項1~3のいずれか一項に記載の物体認識装置を用いた物体認識方法であって、
    前記測距装置によって測定された前記複数の測距点に対し、予め規定されたノイズを付加するノイズ付加ステップと、
    前記ノイズが付加された測距点に基づいて、物体を表すクラスタを形成するクラスタリングステップと、
    前記クラスタリングステップによって形成された前記クラスタの特徴量に基づいて前記物体を認識する認識ステップと、を有することを特徴とする物体認識方法。
  5. 前記ノイズ付加ステップにおいて、前記測距点から水平方向に30cm以下、鉛直方向に40cm以下の範囲に、ノイズを付加することを特徴とする請求項に記載の物体認識方法。
JP2018039126A 2018-03-05 2018-03-05 物体認識装置および物体認識方法 Active JP7184318B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018039126A JP7184318B2 (ja) 2018-03-05 2018-03-05 物体認識装置および物体認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018039126A JP7184318B2 (ja) 2018-03-05 2018-03-05 物体認識装置および物体認識方法

Publications (2)

Publication Number Publication Date
JP2019153188A JP2019153188A (ja) 2019-09-12
JP7184318B2 true JP7184318B2 (ja) 2022-12-06

Family

ID=67946588

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018039126A Active JP7184318B2 (ja) 2018-03-05 2018-03-05 物体認識装置および物体認識方法

Country Status (1)

Country Link
JP (1) JP7184318B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112859033B (zh) * 2021-02-23 2024-08-02 加特兰微电子科技(上海)有限公司 目标探测的方法、装置及相关设备
JP7314965B2 (ja) * 2021-03-09 2023-07-26 株式会社豊田中央研究所 対象物検出装置及びプログラム
JP7094411B1 (ja) 2021-03-17 2022-07-01 三菱電機株式会社 センサデータ処理システム
JP2023046542A (ja) 2021-09-24 2023-04-05 株式会社Jvcケンウッド 物体認識装置、物体認識方法および物体認識プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006038755A (ja) 2004-07-29 2006-02-09 Nissan Motor Co Ltd 車両周囲物体検出装置
JP2012175371A (ja) 2011-02-21 2012-09-10 Nippon Telegr & Teleph Corp <Ntt> 受信方法、及び受信装置
JP2015207280A (ja) 2014-04-18 2015-11-19 株式会社リコー 目標識別方法及び目標識別装置
JP2017166846A (ja) 2016-03-14 2017-09-21 株式会社デンソー 物体認識装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006038755A (ja) 2004-07-29 2006-02-09 Nissan Motor Co Ltd 車両周囲物体検出装置
JP2012175371A (ja) 2011-02-21 2012-09-10 Nippon Telegr & Teleph Corp <Ntt> 受信方法、及び受信装置
JP2015207280A (ja) 2014-04-18 2015-11-19 株式会社リコー 目標識別方法及び目標識別装置
JP2017166846A (ja) 2016-03-14 2017-09-21 株式会社デンソー 物体認識装置

Also Published As

Publication number Publication date
JP2019153188A (ja) 2019-09-12

Similar Documents

Publication Publication Date Title
JP7184318B2 (ja) 物体認識装置および物体認識方法
Zhang et al. Vehicle detection based on LiDAR and camera fusion
CN105096340B (zh) 用于检测静态和动态对象以及控制车辆的方法和系统
AU2014278279B2 (en) Lidar-based classification of object movement
Keller et al. Will the pedestrian cross? Probabilistic path prediction based on learned motion features
Wang et al. Probabilistic inference for occluded and multiview on-road vehicle detection
Allodi et al. Machine learning in tracking associations with stereo vision and lidar observations for an autonomous vehicle
CN110674705A (zh) 基于多线激光雷达的小型障碍物检测方法及装置
Antony et al. Vision based vehicle detection: A literature review
CN109633684A (zh) 用于分类的方法、装置、机器学习系统和机器可读存储介质
JP7418476B2 (ja) 運転可能な領域情報を決定するための方法及び装置
Creß et al. TUMTraf event: Calibration and fusion resulting in a dataset for roadside event-based and RGB cameras
Pandey et al. Pedestrian–autonomous vehicles interaction challenges: a survey and a solution to pedestrian intent identification
Danielsson Tracking and radar sensor modelling for automotive safety systems
Gandhi et al. Computer vision and machine learning for enhancing pedestrian safety
Chavez-Garcia et al. Fusion framework for moving-object classification
Khan et al. Multiple moving vehicle speed estimation using Blob analysis
Bota et al. A framework for object detection, tracking and classification in urban traffic scenarios using stereovision
Nordenmark et al. Radar-detection based classification of moving objects using machine learning methods
Eriksson et al. Object detection by cluster analysis on 3D-points from a LiDAR sensor
Krajewski et al. Drone-based Generation of Sensor Reference and Training Data for Highly Automated Vehicles
Nagashima et al. Object classification integrating results of each scan line with low‐resolution LIDAR
KR102685362B1 (ko) 고정된 라이다를 이용하여 정밀 지도를 생성하는 방법 및 이를 이용한 서버
Cotra et al. Lidar-based methods for tracking and identification
Iqbal et al. Adjacent vehicle collision warning system using image sensor and inertial measurement unit

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180412

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221116

R150 Certificate of patent or registration of utility model

Ref document number: 7184318

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150