JP2023174272A - 物体認識方法及び物体認識装置 - Google Patents

物体認識方法及び物体認識装置 Download PDF

Info

Publication number
JP2023174272A
JP2023174272A JP2022087032A JP2022087032A JP2023174272A JP 2023174272 A JP2023174272 A JP 2023174272A JP 2022087032 A JP2022087032 A JP 2022087032A JP 2022087032 A JP2022087032 A JP 2022087032A JP 2023174272 A JP2023174272 A JP 2023174272A
Authority
JP
Japan
Prior art keywords
distance measurement
area
target object
model
dimensional coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022087032A
Other languages
English (en)
Inventor
尭史 池上
Takashi Ikegami
宏寿 植田
Hirotoshi Ueda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2022087032A priority Critical patent/JP2023174272A/ja
Publication of JP2023174272A publication Critical patent/JP2023174272A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

【課題】対象物体の姿勢推定精度を向上する物体認識方法及び物体認識装置を提供する。【解決手段】移動体に搭載された測距センサ10により生成される移動体の周囲に存在する対象物体の表面の測距点データのうち、同一の対象物体の表面の複数の測距点データを測距点群として抽出し、測距点群を、測距センサの位置を原点とする二次元座標上又は三次元座標上に変換し、二次元座標上又は三次元座標上において、測距点群の全てを含むモデル領域を複数設定し、測距点群により測距センサからの死角となる領域を占有領域として設定し、占有領域以外の領域を非占有領域として設定し、複数の前記モデル領域の中から、モデル領域の各々と非占有領域とが重なる重複領域の面積又は体積が所定値以下となるモデル領域を選択し、選択したモデル領域を、対象物体として認識する。【選択図】図6

Description

本発明は、物体認識方法及び物体認識装置に関する。
特許文献1には、車載レーダにより検出された対象物体の反射点群の検出パターンの情報から対象物体の矩形の推定を行うことにより対象物体の種別を識別する物体認識装置が開示されている。この矩形の推定において、クラスタリングで得られた検出パターンの全ての反射点を、各反射点がプロットされた水平面上でクラスタ中心を原点として1度ずつ回転させ、その都度水平方向の反射点の濃度投影を行う。そして、反射点の濃度値がピークとなる回転状態から少なくとも矩形のL字の2辺のいずれか1辺となる軸を見つけ、1軸しか見つけられなければ、その軸となす角が直角な方向に前記L字の2辺の残りの1辺となるもう一方の軸を設定することで矩形の幅又は奥行きとなる軸の検出を行う。
特開2012-52838号公報
しかしながら、水平面上(上面視)で対象物体の輪郭内部に反射点がある場合、濃度値のピークが対象物体の実際の幅又は奥行きとなる辺からずれることがある。特に、対象物体が水平方向に対し傾いているような場合には、対象物体のL字の2辺上の反射点が重なり、濃度値のピークが対象物体の実際の幅又は奥行きとなる辺からずれることがある。これにより、矩形の幅又は奥行きとなる軸を誤検出し、対象物体の姿勢推定精度が低下する可能性がある。
本発明は、対象物体の姿勢推定精度を向上することを目的とする。
本発明の一態様に係る物体認識方法及び物体認識装置は、移動体に搭載され、前記移動体の周囲に存在する対象物体の表面の測距点に関する測距点データを生成する測距センサと、前記測距センサから取得した前記測距点データに基づいて、対象物体を認識するコントローラと、を備える。前記コントローラは、前記測距点データのうち、同一の前記対象物体の表面の複数の前記測距点データを測距点群として抽出し、前記測距点群を、前記測距センサの位置を原点とする二次元座標上又は三次元座標上に変換し、前記二次元座標上又は三次元座標上において、前記測距点群の全てを含むモデル領域を複数設定し、前記二次元座標上又は前記三次元座標上において、前記測距点群により前記測距センサからの死角となる領域を占有領域として設定し、前記二次元座標上又は三次元座標上において、前記占有領域以外の領域を非占有領域として設定し、前記複数の前記モデル領域の中から、前記モデル領域の各々と前記非占有領域とが重なる重複領域の面積又は体積が所定値以下となる前記モデル領域を選択し、選択した前記モデル領域を、前記対象物体として認識することを特徴とする。
本発明によれば、対象物体の姿勢推定精度が向上する。
図1は、本発明の実施形態に係る物体認識装置の構成図である。 図2は、他車両の表面の測距点データを移動体上面視の二次元測距点群データに変換する方法の一例を説明するための図である。 図3は、近接する他車両と壁及び他車両と壁の表面の測距点データを示している図である。 図4は、モデル領域の設定方法の一例を説明する図である。 図5は、非占有領域の設定方法を説明する図である。 図6は、モデル領域の選択方法を説明する図である。 図7は、第1実施形態に係る物体認識装置の動作を示すフローチャートである。 図8は、第2実施形態に係る物体認識装置の動作を示すフローチャートである。
(第1実施形態)
以下において、図面を参照して、本発明の第1実施形態を説明する。説明において、同一のものには同一符号を付して重複説明を省略する。
図1を参照して、第1実施形態に係る物体認識装置1の構成例を説明する。図1に示すように、物体認識装置1は、測距センサ10と、測距点取得部21、クラスタリング処理部22、周囲物体認識部23、運転支援部24からなる制御部20を備える。
測距センサ10は、移動体に搭載され、移動体の周囲に存在する対象物体の表面の測距点に関する測距点データを生成する。測距センサ10は、移動体の周囲へ探査波を送信して移動体の周囲を走査し、探査波が移動体の周囲に存在する対象物体の表面で反射した反射波を受信する。測距センサ10は受信した反射波に基づいて、対象物体の表面の複数の位置で探査波がそれぞれ反射した反射点の位置を、移動体の測距センサ10に対する反射点の相対位置として算出し、各々の反射点の相対位置を表す測距点データを取得する。
測距センサ10は一例としてライダ(LIDAR:Laser Imaging Detection and Ranging)である。ライダとは周囲の物体に光(レーザ光)を発射し、その光(反射光)が物体に当たって跳ね返ってくるまでの時間を測定することにより、物体までの距離及び方向を測定したり、物体の形状を認識したりする。さらにライダは物体の位置関係を三次元的に取得することが可能である。なお反射光の強度を用いてマッピングすることも可能である。
測距点データは、測距点の位置情報を含む。測距点の位置情報は、測距点の位置座標を示す情報である。位置座標には、測距センサ10の設置位置を原点とする、x座標、y座標、及びz座標で表される三次元座標系が用いられる。位置座標には、測距センサ10から測距点に向かう方向(ヨー角、ピッチ角)、及び、測距センサ10から測距点までの距離(深度)で表される極座標系が用いられてもよい。また、測距点データは、所定間隔で取得される。
測距センサ10は対象物体の表面の複数の測距点の位置を測距点データとして取得できれば、どのようなセンサであってもよく上記に限定されない。例えば、測距センサ10は、移動体に搭載されたステレオカメラであってもよい。測距センサ10にステレオカメラを用いる場合、少なくとも2つの視点の異なるカメラ画像を取得し、それら画像間で対応する位置から視差を求め、三角測量の原理によって画像の各位置に対して3次元情報を取得しすることができる。移動体の周囲をステレオカメラで撮像した時の画像内の周囲物体に対応した画素の位置及び距離から測距点データを取得してもよい。測距センサ10は、取得した上記測距点データを制御部20の測距点取得部21に出力する。
制御部20は、CPU(Central Processing Unit)、メモリ、及び入出力部を備える汎用のマイクロコンピュータである。マイクロコンピュータには、物体認識装置1として機能させるためのコンピュータプログラムがインストールされている。コンピュータプログラムを実行することにより、マイクロコンピュータは物体認識装置1が備える複数の情報処理回路として機能する。制御部20は、測距センサ10から取得したデータを処理する。
なおここでは、ソフトウェアによって物体認識装置1が備える複数の情報処理回路を実現する例を示すが、もちろん以下に示す各情報処理を実行するための専用のハードウェアを用意して情報処理回路を構成することも可能である。また複数の情報処理回路を個別のハードウェアにより構成してもよい。
制御部20は、測距センサ10か取得した測距点データに基づいて、対象物体を認識する。制御部20は、複数の情報処理回路(情報処理機能)の一例として、測距点取得部21、クラスタリング処理部22、周囲物体認識部23、運転支援部24を備える。
以下、制御部20の各情報処理機能について説明する。
測距点取得部21は、測距センサ10から測距点データを取得する。測距センサ10により取得した測距点データには、物体以外の路面等の様々な測距点データが含まれる。そのため測距点取得部21は、まず取得した測距点データの中から立体物の測距点データを抽出する。
立体物の測距点データの抽出方法は、路面から第一高さ所定値以上の高さの測距点データを抽出するようにしてもよい。例えば、第一高さ所定値は、三次元座標系のz軸において一般的な車両のバンパーの最下部の高さとなるように設定することができる。また、立体物の測距点データの抽出方法は、路面から第一高さ所定値以上かつ第二高さ所定値未満の高さの測距点データを抽出するようにしてもよい。例えば、第二高さ所定値は、カメラ等で認識した駐車車両の車種(大型車、普通車など)から、車種に応じたルーフの高さまでを含むように設定することができる。その他にも、測距点データを蓄積したグリッドマップを生成して路面と立体物の測距点を判定してもよい。
次に、クラスタリング処理部22は、抽出した立体物の測距点データを抽出するクラスタリング処理を行う。ここで、クラスタリングとは、抽出した立体物の測距点データのうち、同一の対象物体の表面の複数の測距点データをクラスタ(測距点群)として抽出する手法である。一例として、抽出した立体物の複数の測距点データの中から、2点間の距離が所定値以下の測距点データを測距点群として抽出する。例えば、対象物体が車両(他車両)である場合に抽出された測距点群は図2の(a)のようになる。
図3は、近接する他車両と壁及び他車両と壁の表面の測距点を示している。他車両と壁が近接しているような場合には、他車両と壁という複数の対象物体の測距点が、同一の対象物体の測距点群として誤抽出されてしまうことがある。その際には、クラスタリング処理部22は、測距点群を抽出した2点間の距離の所定値を前回より小さくし、再度クラスタリング処理を行って、測距点群を再抽出する。つまり、クラスタリング処理部22は、測距点群を分割する。具体的なフローについては、図7のフローチャートを用いて後述する。
次に、クラスタリング処理部22は、抽出した測距点群を、図2の(b)のように移動体上面視の二次元測距点群データに変換する。ここで、移動体上面視の二次元測距点群データとは、測距点群を、測距センサ10の位置を原点とする、x座標及びy座標で表される二次元座標系に投影して、二次元座標に変換した測距点群データのことをいい、以下同様の意味で使う。なお、クラスタリング処理部22は、測距点群を、測距センサの位置を原点とするx座標、y座標及びz座標で示される三次元座標系に投影して、三次元座標に変換してもよい。
次に周囲物体認識部23は、クラスタリング処理部22から入力された二次元測距点群データに基づいて、対象物体のモデル領域を設定する。周囲物体認識部23は、二次元座標上において、測距点群の全てを含むモデル領域を複数設定する。交通環境に存在するほとんどの物体(自動車、自動二輪車、自転車等)は、上面視においては矩形に近い形状をしているため、周囲物体認識部23は、対象物体は矩形形状であるという前提をもとに対象物体を近似した矩形形状を示す矩形領域をモデル領域として設定する。
なお、測距点群が三次元座標に変換された場合には、周囲物体認識部23は、対象物体は直方体形状であるという前提をもとに、三次元座標上において、対象物体を近似した直方体の領域をモデル領域として設定してもよい。すなわち、周囲物体認識部23は、二次元座標上又は三次元座標上において測距点群の全てを含むモデル領域を複数設定する。
モデル領域の設定方法の1例として、周囲物体認識部23は、図4の(a)、(b)、(c)のように矩形の長辺方向と対象物体V2の進行方向の成す角θが異なり、測距点群の全てを含む最小の面積の矩形領域(モデル領域)30a、30b、30cを設定してもよい。なお、図4の(b)においては、矩形の長辺方向と対象物体V2の進行方向の成す角θは0°である。例えば、周囲物体認識部23は、矩形の長辺方向と対象物体の進行方向の成す角θが0°から89°まで1°ごとにそれぞれ測距点群の全てを含む最小の面積の矩形領域をモデル領域として複数設定してもよい。この場合、矩形の長辺方向と対象物体の進行方向の成す角θが0°から89°までの90通りの矩形領域がモデル領域として設定される。また何度ごとにモデル領域を設定するかは上記に限られない。本実施形態では、測距点群の全てを含む最小の面積のモデル領域を設定する例を示したが、測距点の一部を含むモデル領域を設定してもよい。
なお、測距点群が三次元座標に変換された場合には、周囲物体認識部23は、x-y平面上における直方体の長辺方向と対象物体の進行方向の成す角が異なり、三次元座標上の測距点群の全てを含む最小の体積のモデル領域を複数設定してもよい。この場合、x-y平面上における直方体の長辺方向と対象物体の進行方向の成す角が0°から89°までの90通りの直方体の領域がモデル領域として設定されてもよい。
図5において、測距センサ10は移動体V1に搭載され、対象物体V2の測距点群が抽出されているとする。周囲物体認識部23は、図5のように測距センサ10の位置を原点とする二次元座標上において測距点群により測距センサ10(原点)からの死角となる領域を占有領域40として設定する。また、周囲物体認識部23は、測距センサ10の位置を原点とする二次元座標上において、占有領域40以外の領域を非占有領域50として設定する。なお、測距点群が三次元座標に変換された場合には、周囲物体認識部23は、測距センサ10の位置を原点とする三次元座標上において、測距点群により測距センサ10(原点)からの死角となる領域を占有領域として設定し、三次元座標上において、占有領域以外の領域を非占有領域として設定してもよい。
ここで、占有領域とは、測距センサ10の位置を原点として、探査波を当てた際に探査波が測距点群により遮蔽される領域である。なお、測距点群間には連続的に点があるものとみなす。また占有領域は、測距点群のうち、測距センサ10からの各方位において測距センサ10からの距離が最短となる測距点に基づいて設定される。
周囲物体認識部23は、複数のモデル領域の各々と、非占有領域50とが重なる重複領域の面積を算出する。例として、図4の(a)のモデル領域30aと非占有領域50とが重なる重複領域の面積は図6の(a)の斜線部分の領域Raの面積になる。図4の(b)のモデル領域30bと非占有領域50とが重なる重複領域の面積は、図6の(b)に示すように存在しないため、重複領域の面積は0になる。図4の(c)のモデル領域30cと非占有領域50とが重なる重複領域の面積は、図6の(c)の斜線部分の領域Rcの面積になる。なお、測距点群が三次元座標に変換された場合には、周囲物体認識部23は、複数のモデル領域の各々と非占有領域とが重なる重複領域の体積を算出する。
周囲物体認識部23は、重複領域の面積又は体積が所定値以下のモデル領域を選択する。周囲物体認識部23は、重複領域の面積又は体積が所定値以下のモデル領域が複数存在する場合には、重複領域の面積又は体積が最小となるモデル領域を選択してもよい。例えば、図6においては、重複領域の面積が最小(0)となるモデル領域30b(図示は省略)を選択してもよい。なお、モデル領域の選択方法は上記方法に限られず、周囲物体認識部23は、複数のモデル領域の各々と、占有領域とが重なる重複領域の面積又は体積が所定値以上のモデル領域を選択してもよい。
周囲物体認識部23は、選択したモデル領域を、移動体の周囲に存在する対象物体を認識する。つまり、選択したモデル領域の位置及び形状、姿勢を対象物体の位置及び形状、姿勢として認識する。またモデル領域の幅が車両の幅に近い場合はその幅を車両の全面又は背面と推定してもよい。また、地図情報などを用いることで、車両の存在する車線から、車両が前向きであるか、後ろ向きであるか推定できる。モデル領域の大きさ及び形状の少なくとも一方に基づいて認識した対象物体の属性を判別できる。例えばモデル領域の大きさに基づいて車両の車種等(トラック又は乗用車のいずれであるか)を判別できる。
運転支援部24は周囲物体認識部23で認識した対象物体の情報に基づいて、測距センサ10が搭載されている移動体に対し、最適な運転支援を行う。運転支援部24は、例えば、測距センサ10が車両に搭載されている場合に、他車両が自車両に接近していると判定した場合には、自車両のステアリングアクチュエータ、アクセルペダルアクチュエータ、ブレーキアクチュエータなどの各種のアクチュエータを制御して自車両を停止、または減速し、もしくは回避操舵を伴う運転支援を行う。この場合、対象物体の車種の推定精度が向上するので、運転支援精度が向上する。
次に図7のフローチャートを参照して、第1実施形態に係る物体認識装置1の一動作例について説明する。
図7のステップS101において、測距センサ10は、移動体の周囲に存在する対象物体の表面の測距点に関する測距点データを生成する。測距センサ10は、生成した測距点データを測距点取得部21に出力する。測距点取得部21は、測距センサ10から測距点データを取得する。
ステップS102において、測距点取得部21は、ステップS101で取得した測距点データの中から、立体物の測距点データを抽出する。
ステップS103において、クラスタリング処理部22は、ステップS102で抽出した立体物の測距点データに対し、クラスタリング処理を行い、同一の対象物体の測距点群を抽出する。クラスタリング処理部22は、立体物の測距点データのうち、同一の対象物体の表面の複数の測距点データを測距点群として抽出する。
ステップS104において、クラスタリング処理部22は、ステップS103で抽出した測距点群を、測距センサ10の位置を原点とする二次元座標に変換する。すなわち、ステップS103で抽出した測距点群を、二次元測距点群データに変換する。
ステップS105において、周囲物体認識部23は、ステップS104においてした二次元測距点群データに基づいて、複数のモデル領域を設定する。周囲物体認識部23は、二次元座標上において、測距点群の全てを含む最小の面積のモデル領域を複数設定する。例えば、二次元座標上において、矩形の長辺方向と対象物体の進行方向の成す角が0°から89°までの1°ごとにそれぞれ測距点群の全てを含む最小の面積の矩形領域をモデル領域として設定する。
ステップS106において、周囲物体認識部23は、ステップS104において取得した二次元測距点群データに基づいて、占有領域を設定する。周囲物体認識部23は、測距センサ10の位置を原点とする二次元座標上において、測距点群により測距センサ10(原点)からの死角となる領域を占有領域として設定する。
ステップS107において、周囲物体認識部23は、ステップS104において取得した二次元測距点群データに基づいて、非占有領域を設定する。周囲物体認識部23は、測距センサ10の位置を原点とする二次元座標上において、占有領域以外の領域を非占有領域として設定する。
ステップS108において、周囲物体認識部23は、ステップS105で得られた複数のモデル領域の各々と、ステップS107で得た非占有領域とが重なる重複領域の面積を算出する。
ステップS109において、周囲物体認識部23は、上記重複領域の面積が所定値以下のモデル領域が存在するか否か判定する。重複領域の面積が所定値位以下のモデル領域が存在する場合はステップS111に進み、存在しない場合はステップS110に進む。
ステップS110では、クラスタリング処理部22は、測距点群を分割する。具体的には、クラスタリング処理部22は、測距点群を抽出した2点間の距離の所定値を前回より小さくする。そして、ステップS104のフローに戻る。すなわち、クラスタリング処理部22は、重複領域の面積又は体積が所定値以下のモデル領域が存在しない場合には、測距点群を分割し、分割した測距点群のうち、同一の対象物体の表面の測距点を測距点群として再抽出する。
ステップS111において、周囲物体認識部23は、上記重複領域の面積が所定値以下のモデル領域が複数存在するか否かを判定する。重複領域の面積が所定値位以下のモデル領域が複数存在する場合はステップS113に進み、重複領域の面積が所定値位以下のモデル領域が複数存在しない場合はステップS112に進む。ステップS112では、周囲物体認識部23は、重複領域の面積が所定値以下の矩形領域を選択する。
ステップS113では、周囲物体認識部23は、重複領域の面積が最小となるモデル領域を選択する。
ステップS114では、周囲物体認識部23は、ステップS112又はステップS113で選択したモデル領域を対象物体として認識する。制御部20は、図7の処理を終了し、運転支援部24は、ステップS114で認識した対象物体の情報に基づいて、測距センサ10が搭載されている移動体に対し、最適な運転支援を行う。
(第1実施形態の効果)
(1)第1実施形態では、移動体に搭載された測距センサ10により生成される移動体の周囲に存在する対象物体の表面の測距点に関する測距点データに基づいて、対象物体を認識する。測距点データのうち、同一の対象物体の表面の複数の測距点データを測距点群として抽出する。測距点群を、測距センサの位置を原点とする二次元座標上又は三次元座標上に変換する。二次元座標上又は三次元座標上において測距点群の全てを含むモデル領域を複数設定し、測距点群により測距センサ10からの死角となる領域を占有領域として設定し、占有領域以外の領域を非占有領域として設定する。複数のモデル領域の中から、モデル領域の各々と非占有領域とが重なる重複領域の面積又は体積が所定値以下となるモデル領域を選択し、選択したモデル領域を、対象物体として認識する。
設定した複数のモデル領域のうち、非占有領域との重複領域の面積又は体積が所定値以下のモデル領域を選択して、対象周囲物体として認識できる。これにより、測距点データから設定した複数のモデル領域のうち、対象物体とのずれが所定値以下となるモデル領域を選択できる。選択したモデル領域を対象物体として認識することにより、対象物体の姿勢推定精度を向上することができる。
(2)第1実施形態では、二次元座標上又は三次元座標上において、測距点群のうち、測距センサ10からの各方位において測距センサ10からの距離が最短となる測距点に基づいて、占有領域を設定する。
測距センサ10からの各方位において測距センサからの距離が最短となる測距点とは、対象物体の輪郭上の測距点であるため、対象物体の輪郭上の測距点に基づいて、占有領域を設定できる。これにより、対象物体の輪郭内部の測距点の影響を受けずに占有領域を正確に設定でき、非占有領域を正確に設定できるため、対象物体の姿勢推定精度を向上することができる
(3)第1実施形態では、重複領域の面積又は体積が所定値以下のモデル領域が複数存在する場合には、重複領域の面積又は体積が最小となるモデル領域を選択し、対象物体として認識する。
これにより、最適なモデル領域を選択することができる。最適なモデル領域に基づいて、対象物体の姿勢を推定することができる。
(4)第1実施形態では、重複領域の面積が所定値以下のモデル領域が存在しない場合には、測距点群を分割し、分割した測距点群のうち、同一の対象物体の表面の測距点を測距点群として再抽出する。
これにより誤って複数の対象物体の測距点を一つの対象物体の測距点群としてクラスタリングしてしまった場合でも、測距点群をクラスタリングし直すことができる。
(第2実施形態)
以下、本発明の第2実施形態について説明する。第2実施形態は、モデル領域の推定精度が低下した場合でも安定的に対象物体の姿勢の推定精度を維持することを目的とする。なお、第1実施形態と同様の要素には同一の符号を付し、その説明を省略する。以下、本発明の第2実施形態について、第1実施形態と相違する点について説明する。
第1実施形態に係る物体認識装置1においては、周囲物体認識部23は、重複領域の面積又は体積が所定値以下のモデル領域が複数存在する場合には、重複領域の面積又は体積が最小となるモデル領域を選択した。しかしながら、第2実施形態に係る物体認識装置1においては、周囲物体認識部23は、重複領域の面積又は体積が所定値以下のモデル領域が複数存在する場合には、対象物体を1フレーム前に認識した際に選択したモデル領域との角度差が所定角度差以下となるモデル領域を選択し、対象物体として認識する。すなわち、周囲物体認識部23は、重複領域の面積又は体積が所定値以下のモデル領域が複数存在する場合には、前回の処理時に選択し、対象物体として認識したモデル領域との角度差が所定角度差以下の矩形領域を選択する。
図8は第2実施形態に係る物体認識装置1の一動作例を説明するフローチャートである。
図示のように本実施形態では、図8のステップS201~S212、ステップS214の処理は、図7のステップS101~S112、ステップS114の処理と同一であるため、説明は省略する。図8のステップS213の処理が第1実施形態と異なる。本実施形態に係る物体認識装置1は、図8に示すステップS201~S214からなる一連の処理を、所定の周期で繰り返し実行する。繰り返し実行される処理の単位を「フレーム」と呼ぶ。すなわち、第2実施形態に係る物体認識装置1は、図8に示すフレームを繰り返し実行し、フレーム毎に、対象物体として認識されるモデル領域を選択する。
ステップS213において、周囲物体認識部23は、前回の処理時に選択し、対象物体として認識したモデル領域との角度差が所定角度差以下のモデル領域を選択する。
(第2実施形態の効果)
(5)第2実施形態では、重複領域の面積又は体積が所定値以下のモデル領域が複数存在する場合には、対象物体を1フレーム前に認識した際に選択したモデル領域との角度差が所定角度差以下となるモデル領域を選択し、前記対象物体として認識する。
これにより瞬間的にモデル領域の推定精度が低下した場合でも、安定的に対象物体の姿勢推定精度を維持することができる。
10 測距センサ
20 制御部(コントローラ)
21 測距点取得部
22 クラスタリング処理部
23 周囲物体認識部
24 運転支援部

Claims (6)

  1. 移動体に搭載され、前記移動体の周囲に存在する対象物体の表面の測距点に関する測距点データを生成する測距センサと、
    前記測距センサから取得した前記測距点データに基づいて、前記対象物体を認識するコントローラと、を備える物体認識装置の物体認識方法であって、
    前記コントローラは、
    前記測距点データのうち、同一の前記対象物体の表面の複数の前記測距点データを測距点群として抽出し、
    前記測距点群を、前記測距センサの位置を原点とする二次元座標又は三次元座標に変換し、
    前記二次元座標上又は前記三次元座標上において、前記測距点群の全てを含むモデル領域を複数設定し、
    前記二次元座標上又は前記三次元座標上において、前記測距点群により前記測距センサからの死角となる領域を占有領域として設定し、
    前記二次元座標上又は前記三次元座標上において、前記占有領域以外の領域を非占有領域として設定し、
    複数の前記モデル領域の中から、前記モデル領域の各々と前記非占有領域とが重なる重複領域の面積又は体積が所定値以下となる前記モデル領域を選択し、
    選択した前記モデル領域を、前記対象物体として認識する
    ことを特徴とする物体認識方法。
  2. 前記コントローラは、
    前記二次元座標上又は前記三次元座標上において、前記測距点群のうち、前記測距センサからの各方位において前記測距センサからの距離が最短となる測距点に基づいて、前記占有領域を設定する
    ことを特徴とする請求項1に記載の物体認識方法。
  3. 前記コントローラは、
    前記重複領域の面積又は体積が前記所定値以下の前記モデル領域が複数存在する場合には、前記重複領域の面積又は体積が最も小さい前記モデル領域を選択し、前記対象物体として認識する
    ことを特徴とする請求項1又は2に記載の物体認識方法。
  4. 前記コントローラは、
    前記重複領域の面積又は体積が前記所定値以下の前記モデル領域が存在しない場合には、前記測距点群を分割し、前記分割した前記測距点群のうち、同一の前記対象物体の表面の測距点を前記測距点群として再抽出する
    ことを特徴とする請求項1又は2に記載の物体認識方法。
  5. 前記コントローラは、
    前記重複領域の面積又は体積が前記所定値以下の前記モデル領域が複数存在する場合には、前記対象物体を1フレーム前に認識した際に選択したモデル領域との角度差が所定角度差以下となる前記モデル領域を選択し、前記対象物体として認識する
    ことを特徴とする請求項1又は2に記載の物体認識方法。
  6. 移動体に搭載され、前記移動体の周囲に存在する対象物体の表面の測距点に関する測距点データを生成する測距センサと、
    前記測距センサから取得した前記測距点データに基づいて、前記対象物体を認識するコントローラと、を備え
    前記コントローラは、
    前記測距点データのうち、同一の前記対象物体の表面の複数の前記測距点データを測距点群として抽出し、
    前記測距点群を、前記測距センサの位置を原点とする二次元座標又は三次元座標に変換し、
    前記二次元座標上又は前記三次元座標上において、前記測距点群の全てを含むモデル領域を複数設定し、
    前記二次元座標上又は前記三次元座標上において、前記測距点群により前記測距センサからの死角となる領域を占有領域として設定し、
    前記二次元座標上又は前記三次元座標上において、前記占有領域以外の領域を非占有領域として設定し、
    複数の前記モデル領域の中から、前記モデル領域の各々と前記非占有領域とが重なる重複領域の面積又は体積が所定値以下の前記モデル領域を選択し、
    選択した前記モデル領域を、前記対象物体として認識する
    ことを特徴とする物体認識装置。
JP2022087032A 2022-05-27 2022-05-27 物体認識方法及び物体認識装置 Pending JP2023174272A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022087032A JP2023174272A (ja) 2022-05-27 2022-05-27 物体認識方法及び物体認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022087032A JP2023174272A (ja) 2022-05-27 2022-05-27 物体認識方法及び物体認識装置

Publications (1)

Publication Number Publication Date
JP2023174272A true JP2023174272A (ja) 2023-12-07

Family

ID=89030439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022087032A Pending JP2023174272A (ja) 2022-05-27 2022-05-27 物体認識方法及び物体認識装置

Country Status (1)

Country Link
JP (1) JP2023174272A (ja)

Similar Documents

Publication Publication Date Title
JP4676373B2 (ja) 周辺認識装置、周辺認識方法、プログラム
CN110121449B (zh) 车辆控制装置、车辆控制方法及存储介质
US7132933B2 (en) Obstacle detection device and method therefor
CN111815641A (zh) 相机和雷达融合
JP5145585B2 (ja) 物標検出装置
JP2002352225A (ja) 障害物検出装置及びその方法
JP7217741B2 (ja) 演算処理装置、オブジェクト識別システム、オブジェクト識別方法、自動車、車両用灯具
JP7077967B2 (ja) 走行車線推定装置、走行車線推定方法、及び制御プログラム
JP2011253302A (ja) 車両用危険度算出装置
JP7229052B2 (ja) 車両制御装置、車両制御システム
Lindner et al. 3D LIDAR processing for vehicle safety and environment recognition
CN115151836A (zh) 用于探测车辆周围环境中的移动对象的方法和机动车辆
TWI680898B (zh) 近距離障礙物之光達偵測裝置及其方法
CN111688705A (zh) 路面检测装置
JP7081098B2 (ja) 走行環境認識装置、走行環境認識方法、プログラム
CN114586083B (zh) 信息处理装置、信息处理系统、信息处理方法和存储介质
JP2023174272A (ja) 物体認識方法及び物体認識装置
JP6819441B2 (ja) 物標位置推定方法及び物標位置推定装置
WO2021152340A1 (ja) 物体認識方法及び物体認識装置
JP7028838B2 (ja) 周辺認識装置、周辺認識方法、およびプログラム
Nedevschi et al. Stereovision-based sensor for intersection assistance
JP2021117178A (ja) 認識装置、認識システム、方法、およびプログラム
CN112286178A (zh) 识别系统、车辆控制系统、识别方法及存储介质
US20230115593A1 (en) Vehicle control device, vehicle control method, and storage medium
WO2023194762A1 (ja) 情報処理方法及び情報処理装置