JP6736931B2 - 立体物検出方法及び立体物検出装置 - Google Patents

立体物検出方法及び立体物検出装置 Download PDF

Info

Publication number
JP6736931B2
JP6736931B2 JP2016060186A JP2016060186A JP6736931B2 JP 6736931 B2 JP6736931 B2 JP 6736931B2 JP 2016060186 A JP2016060186 A JP 2016060186A JP 2016060186 A JP2016060186 A JP 2016060186A JP 6736931 B2 JP6736931 B2 JP 6736931B2
Authority
JP
Japan
Prior art keywords
dimensional object
boundary line
distance
vehicle
distance measuring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016060186A
Other languages
English (en)
Other versions
JP2017174197A (ja
Inventor
邦昭 野田
邦昭 野田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2016060186A priority Critical patent/JP6736931B2/ja
Publication of JP2017174197A publication Critical patent/JP2017174197A/ja
Application granted granted Critical
Publication of JP6736931B2 publication Critical patent/JP6736931B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、カメラで撮像された画像と測距センサで検出された測距点の距離からカメラの画像上の立体物を検出する立体物検出方法及びその装置に関する。
従来では、路面上に存在する歩行者等の立体物を検出する立体物検出装置として、特許文献1が開示されている。特許文献1に開示された立体物検出装置では、3次元距離情報を2次元グリッドマップに展開して立体物が平面に接する接地点位置を抽出する。そして、抽出された接地点位置と距離情報とに基づいて画像内に立体物の探索範囲を決定し、この立体物の探索範囲から路面上の立体物を検出していた。
特開2013−140515号公報
しかしながら、上述した従来の立体物検出装置では、3次元距離情報を取得するためのレーザレーダを角度スキャンしているため、遠方へ行くほど取得した測距点の間隔が高さ方向及び水平方向で広くなる。すなわち、遠方へ行くほど測距点がまばらに存在することになる。ここで、従来の立体物検出装置では、測距点群を一定の粗さの2次元グリッドマップに投影しているので、測距点の間隔が広くなる遠方へ行くにしたがってグリッドマップの各セルでは測距点の数が減少もしくはセル内の測距点がなくなってしまう。したがって、測距点の間隔が広くなった部分では、実際に立体物が存在していたとしても立体物と路面との間の境界を検出することができず、立体物を精度良く検出することができないという問題点があった。
そこで、本発明は、上述した実情に鑑みて提案されたものであり、測距点の数が少ない部分があったとしても画像上の立体物を精度良く検出することのできる立体物検出方法及びその装置を提供することを目的とする。
上述した課題を解決するために、本発明の一態様に係る立体物検出方法及びその装置は、車両に搭載されて車両周囲の画像を撮像するカメラと、車両に搭載されて車両周囲の測距点の距離を検出する測距センサとを備えた立体物検出装置を用いる。そして、測距センサで検出された測距点の中からカメラの視野範囲にある測距点を抽出し、抽出された測距点から車両周囲の立体物と路面との間の境界線を推定し、推定された境界線に基づいて画像上の立体物を検出する。
本発明によれば、測距センサによって検出された測距点の数が少ない部分があったとしても画像上の立体物を精度良く検出することができる。
図1は、本発明の第1実施形態に係る立体物検出装置の構成を示すブロック図である。 図2は、本発明の第1実施形態に係る立体物検出装置による立体物検出処理の処理手順を示すフローチャートである。 図3は、本発明の第1実施形態に係る立体物検出方法において、測距データ検出部で検出された測距データと画像データ検出部で撮像された画像の一例を示す図である。 図4は、本発明の第1実施形態に係る立体物検出方法において、測距データに含まれる測距点群の座標系を極座標系に変換する方法を説明するための図である。 図5は、本発明の第1実施形態に係る立体物検出方法において、車両の周囲にある立体物と路面との間の境界線を推定する方法を説明するための図である。 図6は、本発明の第1実施形態に係る立体物検出方法において、境界線を分割する方法を説明するための図である。 図7は、本発明の第1実施形態に係る立体物検出方法において、境界線の所定範囲内にある測距点を抽出する方法を説明するための図である。 図8は、本発明の第1実施形態に係る立体物検出方法において、抽出された測距点群を画像上に投影する方法を説明するための図である。 図9は、本発明の第1実施形態に係る立体物検出方法において、画像上に立体物領域を設定する方法を説明するための図である。 図10は、本発明の第2実施形態に係る立体物検出方法において、境界線の所定範囲内にある測距点を抽出する方法を説明するための図である。 図11は、本発明の第3実施形態に係る立体物検出方法において、車両の周囲にある立体物と路面との間の境界線を推定する方法を説明するための図である。 図12は、本発明の第3実施形態に係る立体物検出方法において、境界線を分割する方法を説明するための図である。 図13は、本発明の第4実施形態に係る立体物検出装置の構成を示すブロック図である。 図14は、本発明の第4実施形態に係る立体物検出装置による立体物検出処理の処理手順を示すフローチャートである。 図15は、本発明の第4実施形態に係る立体物検出方法において、測距データ検出部で検出された測距データと自己位置周辺の地図情報と画像データ検出部で撮像された画像の一例を示す図である。 図16は、本発明の第4実施形態に係る立体物検出方法において、境界線分を選択する方法を説明するための図である。
[第1実施形態]
以下、本発明を適用した第1実施形態について図面を参照して説明する。
[立体物検出装置の構成]
図1は、本実施形態に係る立体物検出装置の構成を示すブロック図である。図1に示すように、本実施形態に係る立体物検出装置10は、測距データ検出部12と、画像データ検出部14と、中央制御部20と、出力部16とを備えている。立体物検出装置10は、測距データ検出部12で検出された測距データと、画像データ検出部14で検出された画像データとに基づいて、立体物検出部として機能する中央制御部20によって立体物を検出する。そして、立体物検出装置10は、立体物の検出結果として、例えば立体物の位置や大きさ等を出力部16から出力する。
測距データ検出部12は、車両に搭載されて車両周囲の測距点の距離を検出する測距センサである。測距データ検出部12は、車両の周辺環境(立体物だけでなく路面も含む)の3次元測距データ(距離データともいう)を検出する。この3次元測距データには、各測距点の3次元の位置や測距点の距離等の情報が含まれている。測距センサとしては、レーザビームの走査ラインを複数備え、高解像度の距離データを検出することのできるレーザレーダを使用する。なお、距離データを検出する方法において、計測手段、計測性能及びデータの出力形式等は特に限定する必要はない。例えば、計測手段としてステレオカメラを用いてもよいし、既知のパターンを対象に投影してステレオ撮影を行うアクティブステレオ法を用いてもよい。また、距離データを測距センサからの距離と方位で表してもよいし、測距センサを中心とした座標系の3次元位置座標のデータとして表現してもよい。
画像データ検出部14は、車両に搭載されて車両周囲の画像を撮像する車載カメラである。例えば、SXGA解像度のモノクロカメラ等を用いることができる。
出力部16は、立体物の検出結果を車両の乗員に提示する表示部である。出力部16は、車両に搭載されたナビゲーション装置の表示画面でもよいし、車載カメラで撮像された画像を表示するためのディスプレイでもよい。また、ヘッドアップディスプレイであってもよい。
中央制御部20は、画像データ検出部14で撮像された画像と測距データ検出部12で検出された測距点の距離から画像上の立体物を検出する立体物検出処理を実行するコントローラである。中央制御部20は、立体物検出処理を実行するための機能部として、境界線推定部21と、境界線分割部22と、測距点抽出部23と、測距点投影部24と、立体物領域設定部25とを備えている。
次に、中央制御部20を構成する各部について説明する。まず、境界線推定部21は、測距センサで検出された測距点の中からカメラの視野範囲にある測距点を抽出し、抽出された測距点の高さ方向の変化に基づいて車両周囲の立体物と路面との間の境界線を推定する。
境界線分割部22は、境界線推定部21で推定された境界線上で車両からの距離の変化が大きくなる部分で境界線を分割する。境界線を分割することによって求められた複数の境界線分は、路面上に存在する複数の立体物にそれぞれ対応する。
測距点抽出部23は、境界線分割部22で分割された境界線から所定範囲内にある測距点を抽出する。特に、境界線を分割した境界線分に基づいて所定の大きさの立体を設定し、この立体の内部に存在する測距点を抽出する。
測距点投影部24は、測距点抽出部23で抽出された測距点を画像データ検出部14で撮像された画像上に投影する。
立体物領域設定部25は、測距点投影部24によって投影された測距点を包含する画像上の領域を立体物領域として設定する。立体物領域は、画像上において立体物が存在すると推定される領域である。
尚、中央制御部20は、マイクロコンピュータ、マイクロプロセッサ、CPUを含む汎用の電子回路とメモリ等の周辺機器から構成されている。そして、特定のプログラムを実行することにより、上述した境界線推定部21、境界線分割部22、測距点抽出部23、測距点投影部24及び立体物領域設定部25として動作する。このような中央制御部20の各機能は、1または複数の処理回路によって実装することができる。処理回路は、例えば電気回路を含む処理装置等のプログラムされた処理装置を含み、また実施形態に記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や従来型の回路部品のような装置も含んでいる。
[立体物検出処理の手順]
次に、本実施形態に係る立体物検出装置10による立体物検出処理の手順を図2のフローチャートを参照して説明する。
図2に示すように、まずステップS10において、自車両に搭載された測距データ検出部12は、立体物だけでなく路面も含む車両の周辺環境の3次元測距データ(距離データ)を検出する。また、画像データ検出部14は、測距データ検出部12による3次元測距データの検出と同期して、自車両の周辺環境の画像を撮像して画像データとして取り込む。尚、測距データ検出部12の車両への取り付け位置と画像データ検出部14の車両への取り付け位置との間の相対的な関係については、所定の座標変換を行って対応づけておけばよい。図3(a)は、測距データ検出部12の高解像度レーザレーダによって取得された3次元測距データの一例であり、図3(b)は、図3(a)の3次元測距データの検出と同期して画像データ検出部14の車載カメラによって撮像された画像の一例を示している。
ステップS20において、境界線推定部21は、ステップS10で検出された3次元測距データの測距点群の中からカメラの視野範囲にある測距点群を抽出し、抽出された測距点群に基づいて車両周囲の立体物と路面との間の境界線を推定する。
まず、境界線推定部21は、図4(a)に示す3次元測距データに含まれる全体の測距点群30の中から図4(b)に示すようにカメラの視野範囲にある測距点群31を抽出する。そして、境界線推定部21は、抽出された測距点群31の座標系を、測距データ検出部12を中心とした直交座標系から極座標系に座標変換して、図4(c)に示すような極座標系の測距点群32を抽出する。ただし、極座標系は、車両からの距離rと車両の進行方向に対する方位θとで表される座標系である。この座標変換は、直行座標系の測距点群を極座標系の空間に射影することで実現することができる。
次に、境界線推定部21は、図5(a)に示す極座標系の測距点群32を、図5(b)に示す2次元グリッドマップ40上に投影する。2次元グリッドマップ40は、図5(b)に示すように水平面に平行な極座標系の平面を格子状のセルCに分割したグリッドマップ(格子状地図)である。図5(c)に示すように、2次元グリッドマップ40の各セルCに投影された測距点群41は、立体物と路面の位置にしたがって高さ方向(グリッドマップ40に垂直な方向)にばらつく。ここで、境界線推定部21は、各セルCに投影された測距点群41の高さの平均値を計算することにより、各セルCの高さの代表値とする(標本化)。ただし、高さの代表値は、平均値に限定する必要はなく、例えば最大値や最小値を代表値としてもよい。このように極座標系のグリッドマップにおいて各セルに投影された測距点群を標本化するので、車両から遠方のセルで測距点の数が減少しても各セルの高さ方向の値を求めることができる。したがって、極座標系のグリッドマップ上で、車両からの距離によらずに一定の間隔で各セルの高さ方向の値を求めることができる。
さらに、境界線推定部21は、図5(c)に示すように、グリッドマップ40の方位θ毎に距離rの近い地点から遠い地点へ向かって高さの代表値を並べて、曲線42を求める。そして、距離rの方向に隣り合うセルの間で高さの代表値の変化率を計算し、図5(d)に示すように代表値の変化率が予め設定された閾値を超えた変化点43を検出する。ただし、同一の方位θにおいて複数の変化点43が検出された場合には、距離rが最短となる変化点を採用する。
さらに、境界線推定部21は、変化点43に隣接するセルのうち距離rの遠い側にあるセルを、図5(e)に示すように立体物に属するセル44と判定する。こうしてグリッドマップ40の方位θ毎に立体物に属するセル44が求められると、境界線推定部21はグリッドマップ40上で立体物に属するセル44を曲線で連結することによって、立体物が路面に接地する接地点の位置を示す境界線45を推定する。尚、グリッドマップを用いて境界線を推定したが、グリッドマップを用いずに、最近傍となる測距点の座標上の距離から連続する測距点群を求めて境界線を推定してもよい。
ステップS30において、境界線分割部22は、ステップS20で推定した立体物と路面との間の境界線45を分割することにより、路面上にある複数の立体物に対応する複数の境界線分を求める。図6(a)に示すように、境界線分割部22は、境界線45の距離rの方向における変化率を計算し、その変化率が予め設定された閾値を超える点を分節点50と設定する。そして、図6(b)に示すように、境界線分割部22は、設定された分節点50によって、境界線45を分割(セグメンテーション)することにより、境界線分51を求める。ここで求められた各境界線分51は、路面上に存在する複数の立体物にそれぞれ対応して求められたものと推定することができる。
ステップS40において、測距点抽出部23は、ステップS30で求めた境界線分51を用いて、カメラの視野範囲にある測距点群31の中から立体物に属する測距点群を抽出する。これにより、測距点抽出部23は、路面上に存在する複数の立体物に対応した測距点群を抽出することができる。
図7(a)に示すように、測距点抽出部23は、まず測距点群31と境界線分51を直交座標系に射影した空間を設定し、境界線分51を用いて立体物に対応する領域53を設定する。立体物に対応する領域53は、例えば境界線分51の両端を直径52とする円を設定すればよい。さらに、図7(b)に示すように、測距点抽出部23は、立体物に対応する領域53を底面とする立体54を設定し、この立体54の内部に存在する測距点を立体物に属する測距点群55として抽出する。
このように、立体物に対応すると推定される境界線分51に基づいて立体54を設定し、設定された立体54の内部に存在する測距点群55を抽出するので、抽出された測距点群55は路面上に存在する立体物に対応している。そして、立体物の高さは抽出された測距点群55の存在範囲から推定することができるので、立体物の高さを仮定せずに測距点を抽出することができる。特に、従来では、人や車等の認識したい対象に合わせて立体物の高さを仮定していたので、仮定が合致しない場合には、画像中の立体物を正確に検出できないという問題があったが、本実施形態ではそのような問題は生じない。
ただし、立体物に対応する領域53は円に限定されるわけではなく、境界線分51の両端を対角線とする多角形としてもよく、立体54は適宜最適な立体を設定すればよい。また、測距センサであるレーザレーダの距離データの誤差や物体による不検出範囲等を考慮して、境界線分51の両端から外側方向へ拡張した範囲を底面としてもよい。すなわち、立体物に属する測距点群55を抽出できるように、境界線分51に基づいて最適な底面を決めて最適な立体54を設定すればよい。
さらに、立体54の高さは、制限を設定せずに無限大の高さを有する領域を設定してもよい。ただし、検出対象となる立体物のカテゴリ(例えば、人や車など)が予め分かっている場合には立体54の高さを設定してもよい。この場合、境界線分51の両端の間に存在して一定の高さの範囲内にある測距点群を抽出することになる。これにより、一定の高さ以上の範囲にある測距点群を除外できるので、ガード下やトンネル内のような構造物の下の空間に存在する立体物を検出することができる。
ステップS50において、測距点投影部24は、ステップS40で抽出された立体物に属する測距点群55を、対応する撮像画像上に投影する。図8は、複数の立体物に対応する境界線分51及び測距点群55を画像上に投影した場合の一例を示す図である。
ステップS60において、立体物領域設定部25は、ステップS50で撮像画像上に投影された測距点群の存在範囲に基づき、立体物が存在すると推定される立体物領域を画像上に設定する。各測距点群55は既に立体物毎にセグメンテーションされているので、測距点群55を包含する矩形の領域を設定することによって、立体物領域の幅と高さを設定することができる。図9は、複数の立体物に対応する境界線分51を画像上に投影し、立体物領域57を画像上に表示した場合の一例を示す図である。ただし、測距点群55を画像上に投影せずに、境界線分51に対応する測距点群55の存在範囲から直接に立体物領域57を設定してもよい。すなわち、境界線分51の所定範囲内にある測距点を抽出し、抽出された測距点群55に対応させて立体物領域57を設定する。こうして立体物領域57が設定されると、出力部16から図9に示すような画像が車両の乗員に提示されて、本実施形態に係る立体物検出処理は終了する。
[第1実施形態の効果]
以上詳細に説明したように、本実施形態に係る立体物検出方法及びその装置では、立体物と路面との間の境界線を推定し、推定された境界線に基づいて画像上の立体物を検出する。これにより、測距センサによって検出された測距点の数が少ない部分があったとしても画像上の立体物を精度良く検出することができる。例えば、図7(a)に示すように測距点31が存在していた場合に、グリッドマップのセルが測距点31と同程度の大きさに設定されていると、測距点31が存在するセル同士の間隔は空いてしまう。したがって、従来の方法で境界線を推定せずに立体物を検出しようとすると、測距点の数が少ない部分では立体物全体を一体の領域として捉えることができない。しかしながら、本実施形態に係る立体物検出方法では、境界線を推定するので、測距点31の間隔が空いていても境界線によって測距点31の間を連結し、立体物全体を一体の領域として捉えることができ、推定された境界線に基づいて画像上で立体物を検出することができる。
また、本実施形態に係る立体物検出方法及びその装置では、境界線の所定範囲内にある測距点を抽出し、抽出された測距点の存在範囲から画像内に立体物領域を設定して画像上の立体物を検出する。これにより、抽出された測距点の存在範囲から、直接、立体物を検出できるので、測距点を画像上に投影する処理を行う必要がなくなり、処理負荷を軽減することができる。
さらに、本実施形態に係る立体物検出方法及びその装置では、境界線から高さ方向の所定範囲内にある測距点を抽出し、抽出された測距点の存在範囲から画像内に立体物領域を設定して画像上の立体物を検出する。これにより、所定の高さ以上の範囲にある測距点を除外できるので、ガード下やトンネル内のような構造物の下の空間に存在する立体物を検出することができる。
また、本実施形態に係る立体物検出方法及びその装置では、カメラの視野範囲にあって抽出された測距点に基づいて、極座標系上で境界線を推定する。これにより、一定の分解能(スキャン角)内に存在する測距点によって、車両からの距離に影響されずに境界線を推定することができる。
[第2実施形態]
以下、本発明を適用した第2実施形態について図面を参照して説明する。本実施形態の立体物検出処理では、ステップS40の処理が第1実施形態と相違している。第1実施形態では、境界線分51を含む所定範囲を底面とした立体54を設定し、立体54の内部に存在する測距点群55を抽出して立体物領域57を設定していた。しかし、本実施形態では、境界線分51の方位θの方向の両端の間に存在し、一定の高さの範囲内にある測距点群を抽出して立体物領域を設定する。ただし、立体物検出装置10の構成及びステップS40以外の処理は、第1実施形態と同一であるため、詳細な説明は省略する。
ステップS40において、測距点抽出部23は、境界線分51を用いてカメラの視野範囲にある測距点群31の中から立体物に属する測距点群を抽出する。このとき、図10(a)に示すように、測距点抽出部23は、抽出した測距点群31及び境界線分51を極座標系の空間内に設定し、境界線分51の方位θの方向の両端の間の領域60を設定する。この領域60は、距離rの方向に0から無限大までの領域であってもよいし、所定の範囲の領域であってもよい。そして、図10(b)に示すように、測距点抽出部23は、領域60を底面とする立体61を設定し、この立体61の内部に存在する測距点を立体物に属する測距点群62として抽出する。ただし、立体61の高さについては、検出対象となる立体物のカテゴリ(例えば人や車など)に応じて予め設定された高さから選択する。
また、領域60は、測距センサであるレーザレーダの距離データの誤差や物体による不検出範囲等を考慮して、境界線分51の両端から外側方向へ拡張してもよい。すなわち、立体物に属する測距点群62を抽出できるように、境界線分51に基づいて最適な領域を設定できればよい。
[第2実施形態の効果]
以上詳細に説明したように、本実施形態に係る立体物検出方法及びその装置では、境界線分の方位θの方向の両端の間にある測距点群を抽出するので、方位θの方向にある立体物を確実に検出することができる。
[第3実施形態]
以下、本発明を適用した第3実施形態について図面を参照して説明する。本実施形態の立体物検出処理では、ステップS20、30の処理が第1実施形態と相違している。第1実施形態では、車両からの距離rと車両の進行方向に対する方位θとで表される極座標系において、グリッドマップの格子状のセルで測距点を標本化していた。しかし、本実施形態では、車両の進行方向の距離xと車幅方向の距離yとで表される直交座標系において、車両からの距離rに応じてセルの幅が広がっていく同心円状のセルで測距点を標本化する。ただし、立体物検出装置10の構成及びステップS20、30以外の処理は、第1実施形態と同一であるため、詳細な説明は省略する。また、本実施形態の立体物検出処理は、第2実施形態に適用することも可能である。
ステップS20において、境界線推定部21は、ステップS10で検出された3次元測距データの測距点群の中から、図11(a)に示すようにカメラの視野範囲にある測距点群31を抽出する。ここで、第1実施形態では極座標系に座標変換していたが、本実施形態では図11(a)に示す直交座標系の空間で境界線の推定処理を行う。
次に、境界線推定部21は、図11(a)に示す直交座標系の測距点群31を、図11(b)に示す2次元グリッドマップ70上に投影する。2次元グリッドマップ70は、図11(b)に示すように水平面に平行な直交座標系の平面を同心円状のセルCに分割したグリッドマップ(格子状地図)である。図11(c)に示すように、2次元グリッドマップ70の各セルCに投影された測距点群41は、立体物と路面の位置にしたがって高さ方向(グリッドマップ70に垂直な方向)にばらつく。ここで、境界線推定部21は、各セルCに投影された測距点群41の高さの平均値を計算することにより、各セルCの高さの代表値とする(標本化)。
さらに、境界線推定部21は、図11(c)に示すように、グリッドマップ70の同心円の放射方向毎に距離rの近い地点から遠い地点へ向かって高さの代表値を並べて、曲線42を求める。そして、距離rの方向に隣り合うセルCの間で高さの代表値の変化率を計算し、図11(d)に示すように代表値の変化率が予め設定された閾値を超えた変化点43を検出する。ただし、同一の放射方向において複数の変化点43が検出された場合には、距離rが最短となる点を採用する。
さらに、境界線推定部21は、変化点43に隣接するセルのうち距離rの遠い側にあるセルを、図11(e)に示すように立体物に属するセル74と判定する。こうしてグリッドマップ70の放射方向毎に立体物に属するセル74が求められると、境界線推定部21はグリッドマップ70上で立体物に属するセル74を曲線で連結することによって、立体物が路面に接地する接地点の位置を示す境界線75を推定する。
ステップS30において、境界線分割部22は、ステップS20で推定された立体物と路面との間の境界線75を分割することにより、路面上にある複数の立体物に対応する複数の境界線分を求める。図12(a)に示すように、境界線分割部22は、境界線75上において、座標中心(測距センサの位置)からの距離rの変化率を計算し、その変化率が予め設定された閾値を超える点を分節点80と設定する。そして、図12(b)に示すように、境界線分割部22は、設定された分節点80によって、境界線75を分割(セグメンテーション)することにより、境界線分81を求める。ここで求められた各境界線分81は、路面上に存在する複数の立体物にそれぞれ対応して求められたものと推定することができる。こうして境界線分81が求められると、この後は第1実施形態と同一の処理を実行して立体物を検出する。
[第3実施形態の効果]
以上詳細に説明したように、本実施形態に係る立体物検出方法及びその装置では、カメラの視野範囲にあって抽出された測距点に基づいて、直交座標系上で境界線を推定する。これにより、実際の距離にしたがって立体物毎に境界線を推定することができる。
[第4実施形態]
以下、本発明を適用した第4実施形態について図面を参照して説明する。本実施形態に係る立体物検出方法では、車両の自己位置を推定し、車両の自己位置の地図情報に基づいて境界線分を選択する。尚、本実施形態の立体物検出処理は、第2及び第3実施形態に適用することも可能である。
[立体物検出装置の構成]
図13は、本実施形態に係る立体物検出装置の構成を示すブロック図である。図13に示すように、本実施形態に係る立体物検出装置110は、地図データ記憶部90と、地図データ取得部91と、車両情報取得部92をさらに備えたことが第1実施形態と相違している。また、中央制御部120が自己位置推定部93と、境界線分選択部94をさらに備えたことが第1実施形態と相違している。尚、第1実施形態と同一の構成要素には同一の符号を付して詳細な説明は省略する。
地図データ記憶部90は、地図データを格納したデータベースであり、車両に搭載してもよいし、データセンター内にあるサーバに設置してもよい。地図データ記憶部90に格納されている地図データには、少なくとも車道や建物、歩道、信号機等の周辺環境に関する情報が記録されており、特に立体物の位置情報が記録されている。
地図データ取得部91は、地図データ記憶部90に格納されている地図データの全体から必要な領域の地図データを抽出して取得する。地図データ取得部91は、サーバに設置された地図データ記憶部90から通信網を介して地図データを取得してもよいし、車両に搭載された地図データ記憶部90にアクセスして地図データを取得してもよい。
図15(a)は、測距データ検出部12の高解像度レーザレーダで検出された測距データをX−Y平面上で表示した場合の一例である。また、図15(b)は、自己位置推定部93によって推定された車両の自己位置に基づき、地図データ取得部91によって切り出された自車両を中心とした周囲環境の地図データの一例である。図15(c)は、図15(a)の測距データと同期して画像データ検出部14(車載カメラ)で撮像された画像の一例を示している。尚、図15(a)の測距点群と図15(b)の地図データは,座標系が同一であるため、2つのデータを重ね合わせることによって、地図上の各地点でデータを対応付けすることができる。
車両情報取得部92は、自車両に搭載されたセンサ群から車両情報を取得する。例えば、GPSや速度センサ、ジャイロセンサ、加速度センサ等のセンサ群から自車両の位置、速度、角速度、加速度等の車両情報を取得する。
自己位置推定部93は、車両情報取得部92で取得した車両情報と、地図データ取得部91で取得した地図データ(地図情報)とに基づいて自車両の地図上での現在位置を推定し、自己位置情報として出力する。
境界線分選択部94は、自己位置推定部93で推定された自己位置情報と地図データ取得部91で取得された地図情報とに基づいて、境界線分割部22で求められた境界線分の中から立体物の検出に必要となる境界線分を選択する。
[立体物検出処理の手順]
次に、本実施形態に係る立体物検出装置110による立体物検出処理の手順を図14のフローチャートを参照して説明する。図14に示すように、ステップS35を追加したことが第1実施形態と相違している。
本実施形態に係る立体物検出処理では、ステップS10〜S30までの処理が第1実施形態と同様に行われ、境界線が分割されて境界線分が求められる。そして、ステップS35において、境界線分選択部94は、まず自己位置推定部93によって推定された自己位置情報を取得し、この自己位置情報に基づいて地図データ取得部91から自己位置周辺の地図情報を取得する。図16(a)は、ステップS30で求められた境界線分を射影した直交座標系のグリッドマップの一例を示す図である。図16(b)は、自己位置情報に基づいて地図データ取得部91から取得した地図情報の一例を示す図であり、車道や建物、歩道、信号機等の属性が領域毎にそれぞれ記録されている。
そして、境界線分選択部94は、ステップS30で求められた境界線分の中から、地図情報、特に立体物の位置情報に基づいて、立体物の検出に必要となる境界線分を選択する。図16(a)に示す直交座標系のグリッドマップ95と、図16(b)に示す車両周辺の地図情報97とを重ね合わせて、境界線分96が存在する領域に対応する地図情報97の領域を検出する。これにより、例えば、図16(c)に示すように地図情報97の建物の領域で境界線分96が存在する領域201、203は、建物の壁であると推定することができる。したがって、立体物として人や車を検出することが目的である場合には、建物に属する領域201、203の境界線分96を選択せずに除外することができる。
また、占有面積が小さくて地図情報によって位置が高精度に特定できる信号機や電柱、標識のような立体物については、地図情報から直接境界線分96の属性を検出することができる。例えば、図16(c)の領域205の境界線分は、地図情報97から信号機であることを検出することができる。
さらに、車道や歩道等の特定の領域では、車や歩行者、自転車等の特定の立体物しか存在しないと推定できるので、地図情報に記録された各領域の属性により、測距点群を抽出する際の高さの制限値を決定することができる。さらに、トンネル、ガード下等そのままでは2次元グリッドマップが有効に機能しないような場所では、地図情報からトンネル等の領域を特定する。そして、このような領域では、2次元グリッドマップに投影する測距点群に高さ制限を設定すれば、トンネル内やガード下の立体物を検出することが可能になる。
[第4実施形態の効果]
以上詳細に説明したように、本実施形態に係る立体物検出方法及びその装置では、車両の自己位置を推定し、車両の自己位置の地図情報と境界線とに基づいて画像上にある立体物を検出する。これにより、車両の自己位置の地図情報から立体物の属性を推定することができるので、効率良く立体物を検出することができる。また、建物の壁や柵、ガードレール等の検出対象外の立体物に関する測距点を除外できるので、立体物を検出するための演算量を効果的に削減し、誤検出を低減することができる。
なお、上述の実施形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施形態以外の形態であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計などに応じて種々の変更が可能であることは勿論である。
10、110 立体物検出装置
12 測距データ検出部
14 画像データ検出部
16 出力部
20、120 中央制御部
21 境界線推定部
22 境界線分割部
23 測距点抽出部
24 測距点投影部
25 立体物領域設定部
90 地図データ記憶部
91 地図データ取得部
92 車両情報取得部
93 自己位置推定部
94 境界線分選択部

Claims (7)

  1. 車両に搭載されて車両周囲の画像を撮像するカメラと、前記車両に搭載されて車両周囲の測距点の距離を検出する測距センサとを備え、前記カメラで撮像された画像と前記測距センサで検出された測距点の距離から前記画像上の立体物を検出する立体物検出装置の立体物検出方法であって、
    前記測距センサで検出された測距点の中から前記カメラの視野範囲にある測距点を抽出し、
    抽出された前記測距点から前記車両周囲の立体物の位置を求め、求められた複数の前記立体物の位置を連結することによって、前記車両周囲の立体物と路面との間の境界線を推定し、
    前記境界線の距離方向における変化率が所定の閾値を超える点で前記境界線を分割して複数の境界線分を求め、
    求められた前記境界線分に基づいて前記画像上の立体物を検出することを特徴とする立体物検出方法。
  2. 前記境界線の所定範囲内にある測距点を抽出し、抽出された測距点の存在範囲から前記画像内に立体物領域を設定して前記画像上の立体物を検出することを特徴とする請求項1に記載の立体物検出方法。
  3. 前記境界線から高さ方向の所定範囲内にある測距点を抽出し、抽出された測距点の存在範囲から前記画像内に立体物領域を設定して前記画像上の立体物を検出することを特徴とする請求項1に記載の立体物検出方法。
  4. 前記カメラの視野範囲にあって抽出された前記測距点に基づいて、前記車両からの距離と前記車両の進行方向に対する方位とで表される極座標系上で前記境界線を推定することを特徴とする請求項1〜3のいずれか1項に記載の立体物検出方法。
  5. 前記カメラの視野範囲にあって抽出された前記測距点に基づいて、前記車両の進行方向の距離と前記車両の車幅方向の距離とで表される直交座標系上で前記境界線を推定することを特徴とする請求項1〜3のいずれか1項に記載の立体物検出方法。
  6. 前記車両の自己位置を推定し、前記車両の自己位置の地図情報と前記境界線とに基づいて前記画像上の立体物を検出することを特徴とする請求項1〜5のいずれか1項に記載の立体物検出方法。
  7. 車両に搭載されて車両周囲の画像を撮像するカメラと、前記車両に搭載されて車両周囲の測距点の距離を検出する測距センサとを備え、前記カメラで撮像された画像と前記測距センサで検出された測距点の距離から前記画像上の立体物を検出する立体物検出装置であって、
    前記測距センサで検出された測距点の中から前記カメラの視野範囲にある測距点を抽出し、抽出された前記測距点から前記車両周囲の立体物の位置を求め、求められた複数の前記立体物の位置を連結することによって、前記車両周囲の立体物と路面との間の境界線を推定し、前記境界線の距離方向における変化率が所定の閾値を超える点で前記境界線を分割して複数の境界線分を求め、求められた前記境界線分に基づいて前記画像上の立体物を検出するコントローラを備えたことを特徴とする立体物検出装置。
JP2016060186A 2016-03-24 2016-03-24 立体物検出方法及び立体物検出装置 Active JP6736931B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016060186A JP6736931B2 (ja) 2016-03-24 2016-03-24 立体物検出方法及び立体物検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016060186A JP6736931B2 (ja) 2016-03-24 2016-03-24 立体物検出方法及び立体物検出装置

Publications (2)

Publication Number Publication Date
JP2017174197A JP2017174197A (ja) 2017-09-28
JP6736931B2 true JP6736931B2 (ja) 2020-08-05

Family

ID=59973312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016060186A Active JP6736931B2 (ja) 2016-03-24 2016-03-24 立体物検出方法及び立体物検出装置

Country Status (1)

Country Link
JP (1) JP6736931B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6826023B2 (ja) * 2017-12-13 2021-02-03 Kddi株式会社 点群から対象を特定する対象識別装置、プログラム及び方法
JP2019117432A (ja) * 2017-12-26 2019-07-18 パイオニア株式会社 表示制御装置
WO2019163378A1 (ja) * 2018-02-23 2019-08-29 コニカミノルタ株式会社 フォークリフト用の画像処理装置、および制御プログラム
CN111289261B (zh) * 2020-01-20 2022-07-12 成都主导科技有限责任公司 一种库内车底部件检测方法
JP6837626B1 (ja) * 2020-08-03 2021-03-03 株式会社空間技術総合研究所 地物データの生成システム、地物データベース更新システム及び地物データの生成方法
CN112595719B (zh) * 2020-12-11 2023-02-28 江苏科技大学 一种基于三维激光扫描技术的路面病害精细化检测方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3123303B2 (ja) * 1992-07-21 2001-01-09 日産自動車株式会社 車両用画像処理装置
JP2006151125A (ja) * 2004-11-26 2006-06-15 Omron Corp 車載用画像処理装置
JP2009129290A (ja) * 2007-11-27 2009-06-11 Aisin Aw Co Ltd 信号機検出装置、信号機検出方法及びプログラム

Also Published As

Publication number Publication date
JP2017174197A (ja) 2017-09-28

Similar Documents

Publication Publication Date Title
JP6736931B2 (ja) 立体物検出方法及び立体物検出装置
CN110174093B (zh) 定位方法、装置、设备和计算机可读存储介质
US11915099B2 (en) Information processing method, information processing apparatus, and recording medium for selecting sensing data serving as learning data
CN106997049B (zh) 一种基于激光点云数据的检测障碍物的方法和装置
JP6589926B2 (ja) 物体検出装置
KR20190053217A (ko) 위치파악 참조 데이터를 생성 및 사용하기 위한 방법 및 시스템
JP2011511281A (ja) センサにより検出されたオブジェクトとマップマッチングする方法
JP7072641B2 (ja) 路面検出装置、路面検出装置を利用した画像表示装置、路面検出装置を利用した障害物検知装置、路面検出方法、路面検出方法を利用した画像表示方法、および路面検出方法を利用した障害物検知方法
JP2009068951A (ja) 空中架線の管理システム
EP3324359B1 (en) Image processing device and image processing method
Wang et al. Automatic road extraction from mobile laser scanning data
CN110608746B (zh) 用于确定机动车的位置的方法和装置
JP6759175B2 (ja) 情報処理装置および情報処理システム
JP7343054B2 (ja) 位置推定方法、位置推定装置、および位置推定プログラム
US10846546B2 (en) Traffic signal recognition device
WO2020080088A1 (ja) 情報処理装置
CN114639085A (zh) 交通信号灯识别方法、装置、计算机设备和存储介质
JP2007011994A (ja) 道路認識装置
KR20190134303A (ko) 영상 인식 장치 및 그 방법
KR20160125803A (ko) 영역 추출 장치, 물체 탐지 장치 및 영역 추출 방법
KR102174729B1 (ko) 랜드마크를 활용한 주행차로 인식 방법 및 시스템
JP6477340B2 (ja) 道路境界検出装置、自己位置推定装置及び道路境界検出方法
CN110717007A (zh) 应用路侧特征辨识的图资定位系统及方法
JP2007263725A (ja) 物体判定装置、方法及びプログラム
KR20190056775A (ko) 차량의 객체 인식 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200629

R151 Written notification of patent or utility model registration

Ref document number: 6736931

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151