JP2014006588A - 路面境界推定装置及びプログラム - Google Patents

路面境界推定装置及びプログラム Download PDF

Info

Publication number
JP2014006588A
JP2014006588A JP2012140039A JP2012140039A JP2014006588A JP 2014006588 A JP2014006588 A JP 2014006588A JP 2012140039 A JP2012140039 A JP 2012140039A JP 2012140039 A JP2012140039 A JP 2012140039A JP 2014006588 A JP2014006588 A JP 2014006588A
Authority
JP
Japan
Prior art keywords
road surface
line segment
edge line
dimensional object
surface boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012140039A
Other languages
English (en)
Other versions
JP5820774B2 (ja
Inventor
Masayoshi Hiratsuka
誠良 平塚
Kiyosumi Shirodono
清澄 城殿
Fumiya Ichino
史也 一野
Tatsuya Shiraishi
達也 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Toyota Motor Corp
Priority to JP2012140039A priority Critical patent/JP5820774B2/ja
Publication of JP2014006588A publication Critical patent/JP2014006588A/ja
Application granted granted Critical
Publication of JP5820774B2 publication Critical patent/JP5820774B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】高さの低い立体物や切れ間の多い立体物が存在する場合でも、路面境界を遠方まで精度良く推定する。
【解決手段】立体物領域抽出部20が、観測データに基づいて立体物領域を抽出して立体物マップ50を生成し、立体物境界推定部22が、立体物マップ50に基づいて、立体物領域の外縁を立体物と路面との境界を示す立体物境界として推定し、エッジ線分抽出部24が、撮像画像から、消失点方向に連続して伸びるエッジ線分を抽出し、線分選択部26が、抽出されたエッジ線分の各々を立体物マップ50に投影し、立体物領域との距離が所定値以下のエッジ線分を、立体物の足元を通過するエッジ線分として選択し、路面境界推定部28が、推定された立体物境界と選択されたエッジ線分とを統合して路面境界を推定する。
【選択図】図1

Description

本発明は、路面境界推定装置及びプログラムに関する。
従来、道路領域を撮像する2台以上のカメラを有する画像取得部によって得られた画像に基づいて撮像領域の3次元距離情報を取得し、3次元距離情報に基づいて道路領域に存在する立体物の高さを検出して道路境界を検出し、道路境界に相当する立体物の高さを検出できた第1の道路領域と、道路境界に相当する立体物の高さを検出できなかった第2の道路領域について、画像を変換して第1の道路領域の境界に相当する立体物及び第2の道路領域の境界に相当する立体物が同じであるか否かを判断し、同じであると判断した場合には、第2の道路領域を第1の道路領域に再設定する道路境界検出判断装置が提案されている(例えば、特許文献1参照)。
また、撮像部で撮像した自車両前方の画像から特徴点を抽出し、特徴点を表す画素の画像上の移動速度を算出し、移動速度を指標として画素をグループ化し、グループ内の上端と下端に位置する画素の座標を所定の範囲の俯瞰座標における座標に変換し、変換後の画素の座標に基づいて特徴点を平面物または立体物と判定し、下端点の画像上における配置に基づいて走路境界であるか否かを判定する走路境界検出装置が提案されている(例えば、特許文献2参照)。
また、車両の進行方向前側を撮像した画像に基づいて道路の道路領域を検出し、その道路領域に基づいて道路の形状を推定する道路形状認識装置が提案されている(例えば、特許文献3参照)。
特開2010−72807号公報 特開2007−316685号公報 特開2011−28659号公報
しかしながら、特許文献1記載の技術では、立体物の検出結果に基づいて走路境界を決定しているが、縁石など高さの低い段差をステレオカメラにより得られる3次元距離情報のみで検出することは困難である。特に、カメラからの距離が遠い遠距離領域においては、3次元距離情報の誤差が大きくなるため、その誤差に埋もれて高さの低い立体物を検出することは容易ではなく、路面境界を遠方まで精度良く推定することは困難である、という問題がある。また、切れ間の多いガードレール、垣根、並木等による路面境界では、その切れ間の部分で路面境界の未検出が生じ易く、路面境界を精度良く推定することができない場合がある、という問題がある。
また、特許文献2記載の技術では、単眼カメラによるオプティカルフローを用いて立体物を検出しているが、上記特許文献1記載の技術と同様に、高さの低い立体物を検出することは容易ではなく、また、切れ間の多い立体物に対しても未検出が生じ易いため、上記と同様の問題が生じる。
また、特許文献3記載の技術では、画像の輝度や色の情報に基づいて道路領域を推定しているが、このような手法は、レーンマークを走路境界として検出する場合には適用可能であるが、立体物や段差などの物理的な路面境界を検出の対象とする場合には適用困難であり、逆に、レーンマークや影などが誤検出の要因となってしまう、という問題がある。
本発明は、上記の問題点を解決するためになされたもので、高さの低い立体物や切れ間の多い立体物が存在する場合でも、路面境界を遠方まで精度良く推定することができる路面境界推定装置及びプログラムを提供することを目的とする。
上記目的を達成するために、本発明の路面境界推定装置は、移動体周辺に存在する物体上の複数の点各々の前記移動体を基準とする3次元位置、及び前記移動体に搭載された撮像手段により該移動体周辺を撮像して得た画像を取得する取得手段と、前記取得手段により取得された3次元位置に基づいて、前記移動体周辺の立体物領域を抽出する立体物領域抽出手段と、前記取得手段により取得された画像からエッジ線分を抽出するエッジ線分抽出手段と、前記エッジ線分抽出手段により抽出されたエッジ線分から、前記立体物領域抽出手段により抽出された立体物領域との距離が所定値以下のエッジ線分を選択する線分選択手段と、前記線分選択手段により選択されたエッジ線分に基づいて、路面境界を推定する路面境界推定手段と、を含んで構成されている。
本発明の路面境界推定装置によれば、取得手段が、移動体周辺に存在する物体上の複数の点各々の移動体を基準とする3次元位置、及び移動体に搭載された撮像手段により該移動体周辺を撮像して得た画像を取得する。そして、立体物領域抽出手段が、取得手段により取得された3次元位置に基づいて、移動体周辺の立体物領域を抽出する。また、エッジ線分抽出手段が、取得手段により取得された画像からエッジ線分を抽出する。そして、線分選択手段が、エッジ線分抽出手段により抽出されたエッジ線分から、立体物領域抽出手段により抽出された立体物領域との距離が所定値以下のエッジ線分を選択し、路面境界推定手段が、線分選択手段により選択されたエッジ線分に基づいて、路面境界を推定する。
このように、画像から抽出されたエッジ線分から、立体物領域との距離が所定値以下のエッジ線分を選択して路面境界を推定するため、高さの低い立体物や切れ間の多い立体物が存在する場合でも、路面境界を遠方まで精度良く推定することができる。
また、前記路面境界推定手段は、前記立体物領域の外縁または下端が示す路面と立体物との境界点と、前記選択されたエッジ線分とを統合して、前記路面境界を推定することができる。これにより、エッジ線分が抽出されていない箇所、または立体物領域が抽出されていない箇所を互いに補間して、精度良く路面境界を推定することができる。
また、前記立体物領域抽出手段は、前記取得手段により時系列に取得された複数の3次元位置に基づいて、前記立体物領域を抽出することができる。これにより、より精度良く立体物領域を抽出することができる。
また、本発明の路面境界推定装置は、前記取得手段により取得された3次元位置に基づいて、前記移動体周辺の路面領域を抽出する路面領域抽出手段を含んで構成することができ、前記線分選択手段は、前記立体物領域及び前記路面領域の所定領域内に含まれるエッジ線分を除外することができる。これにより、より精度良く路面境界の候補となるエッジ線分を選択することができる。
また、前記路面領域抽出手段は、前記取得手段により時系列に取得された複数の3次元位置に基づいて、前記路面領域を抽出することができる。これにより、より精度良く路面領域を抽出することができる。
また、本発明の路面境界推定装置は、前記立体物領域に基づいて、前記移動体周辺の各点における路面らしさを示す路面確率を算出する路面確率算出手段を含んで構成することができ、前記路面境界推定手段は、前記路面確率算出手段により算出された路面確率と前記選択されたエッジ線分とを統合して、前記路面境界を推定することができる。これにより、より精度良く路面境界を推定することができる。
また、前記路面境界推定手段は、前記取得手段により取得された画像から得られるテクスチャ情報、前記画像の画素値の変化に基づく動的背景情報、及び路面構造に基づく制約の少なくとも1つを加えて、前記路面境界を推定することができる。このような路面境界の推定に有用な情報を用いることで、より精度良く路面境界を推定することができる。
また、前記線分選択手段は、前記移動体と前記エッジ線分に対応する位置との距離に応じて、前記所定値を変更することができる。これにより、より適切なエッジ線分を選択することができる。
また、前記線分選択手段は、前記立体物領域と前記エッジ線分との距離が近いほど高くなる評価値を算出し、該評価値と予め定めた閾値とを比較して、前記線分マップに蓄積するエッジ線分を選択することができる。また、前記線分選択手段は、前記移動体の移動方向ベクトルと前記エッジ線分との類似度が高いほど高くなる係数を乗算して前記評価値を算出することができる、また、前記線分選択手段は、路面構造に基づく境界線と前記エッジ線分との距離及び類似度の少なくとも一方に基づく重みを前記評価値に加えることができる。これらにより、路面境界を示すエッジ線分の候補として、より精度の高いエッジ線分を選択することができる。
また、前記線分選択手段は、選択したエッジ線分を、過去に選択されたエッジ線分を蓄積した線分マップに蓄積し、前記路面境界推定手段は、前記線分マップに基づいて、前記路面境界を推定することができる。このように、異なる時刻で取得された画像から抽出されたエッジ線分を蓄積していくことで、画像上でのエッジ線分の見え方の違いにより、エッジ線分の欠落を補完することができ、精度良く路面境界を推定することができる。
また、前記路面境界推定手段は、前記線分マップに蓄積されたエッジ線分を細線化することにより、前記路面境界を推定することができる。これにより、蓄積されたエッジ線分から最適な路面境界が抽出されるため、精度良く路面境界を推定することができる。
また、本発明の路面境界推定プログラムは、コンピュータを、上記の路面境界推定装置を構成する各手段として機能させるためのプログラムである。
なお、本発明のプログラムを記憶する記憶媒体は、特に限定されず、ハードディスクであってもよいし、ROMであってもよい。また、CD−ROMやDVDディスク、光磁気ディスクやICカードであってもよい。更にまた、該プログラムを、ネットワークに接続されたサーバ等からダウンロードするようにしてもよい。
以上説明したように、本発明の路面境界推定装置及びプログラムによれば、画像から抽出されたエッジ線分から、立体物領域との距離が所定値以下のエッジ線分を選択して路面境界を推定するため、高さの低い立体物や切れ間の多い立体物が存在する場合でも、路面境界を遠方まで精度良く推定することができる、という効果が得られる。
第1の実施の形態に係る路面境界推定装置を示すブロック図である。 (a)撮像画像、(b)観測データを画像化した一例を示す図である。 観測データに基づく立体物領域の抽出方法を説明するための図である。 立体物マップの一例を示す図である。 エッジ線分の抽出結果の一例を示す図である。 立体物マップにエッジ線分を投影した一部の一例を示す図である。 エッジ線分の評価値算出を説明するための図である。 立体物境界と選択されたエッジ線分との統合を説明するための図である。 第1の実施の形態に係る路面境界推定装置における路面境界推定処理ルーチンの内容を示すフローチャートである。 路面境界の推定結果の一例を示す図である。 エッジ線分の選択の他の方法を説明するための図である。 第2の実施の形態に係る路面境界推定装置を示すブロック図である。 (a)立体物領域、及び(b)路面領域の抽出結果を画像化した一例を示す図である。 走路モデルの適合に関する座標系を示す図である。 立体物境界と選択されたエッジ線分との統合の他の例を説明するための図である。 第2の実施の形態に係る路面境界推定装置における路面境界推定処理ルーチンの内容を示すフローチャートである。 第3の実施の形態に係る路面境界推定装置を示すブロック図である。 (a)線分マップ、及び(b)(a)の線分マップから抽出された路面境界を示す線分の一例を示す図である。 第3の実施の形態に係る路面境界推定装置における路面境界推定処理ルーチンの内容を示すフローチャートである。 第4の実施の形態に係る路面境界推定装置を示すブロック図である。 路面確率マップの一例を示す図である。 距離に応じた重みを用いたエッジ線分の評価値算出を説明するための図である。 自車運動ベクトルとの類似性を用いたエッジ線分の評価値算出を説明するための図である。 第4の実施の形態に係る路面境界推定装置における路面境界推定処理ルーチンの内容を示すフローチャートである。 立体物境界と選択されたエッジ線分との統合の他の例を説明するための図である。
以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、本実施の形態では、車両に搭載され、車両周辺の路面境界を推定する路面境界推定装置に、本発明を適用した場合を例に説明する。
<第1の実施の形態>
図1に示すように、第1の実施の形態に係る路面境界推定装置10は、自車両周辺に存在する物体上の複数の点の自車両を基準とする3次元位置を観測するレーザレーダ12と、自車両周辺を撮像して取得された画像の画像データを出力する撮像装置14と、路面境界を推定する処理を実行するコンピュータ16と、推定結果が表示される表示装置18とを備えている。
なお、ここでの路面境界とは、路面と立体物との段差などにより自車両が物理的に走行不可能な領域と走行可能な領域との境界、及び路面に隣接した他の敷地(駐車場等)のように、通常の走行が想定されていないスペースと路面との境界を含む概念である。また、白線等で識別される法規的な走行境界は、本実施の形態における路面境界には含まない。
レーザレーダ12は、車両前方に設置され、車両の車体前後方向を中心とした視野角で、装置を基準とする車両前方に存在する物体の各点における方位及び距離を観測する装置である。レーザレーダ12は、例えば、出力する複数の走査ラインのレーザを水平方向に走査して、自車両前方に存在する物体表面上の複数の点で反射されたレーザ光を受光する。レーザ光を照射してから受光するまでの時間により、レーザ光の反射点までの距離を算出する。また、レーザ光を照射した方向も既知であるため、レーザ光の反射点の3次元位置を観測することができる。
レーザレーダ12により観測される観測データは、自車両前方でのレーザ光の反射点の位置を表す3次元座標の集合である。レーザレーダ12による観測処理は一定サイクルで実行され、レーザレーダ12は、各時点での自車両前方におけるレーザ光の反射点の複数の3次元位置を示す観測データをコンピュータ16に出力する。出力される観測データが示す各点の3次元位置は、レーザレーダ12から各反射点までの距離及び方位で表される極座標であってもよいし、レーザレーダ12を中心とする直交座標系上での3次元位置座標であってもよい。
撮像装置14は、車両前方に設置され、車両の車体前後方向を中心とした視野角で、レーザレーダ12と共通の観測領域において周辺環境を撮像し、撮像して得られた撮像画像を示す画像データをコンピュータ16に出力する。撮像装置14が出力する画像データは、カラー画像であってもよいし、モノクロ画像であってもよい。
なお、レーザレーダ12と撮像装置14とは、路面境界を推定したい範囲の視野角を有すればよく、センサの数や視野角は特に制限されない。さらに、レーザレーダ12及び撮像装置14の設置位置や角度は既知であるため、レーザレーダ12で観測された物体の位置と、撮像装置14で撮像された撮像画像内での物体の位置とは対応付けが可能である。なお、車両幅方向をX方向、垂直方向をY方向、車両前後方向をZ方向とする。すなわちレーザレーダ12で観測された観測データはXYZ空間の3次元情報であり、撮像装置14で撮像された画像データはXY平面の情報であり、後述する立体物マップ50等のグリッドマップはXZ平面の情報である。
図2(a)に撮像装置14により撮像された撮像画像の一例を、同図(b)に(a)の撮像画像と同領域を観測したレーザレーダ12の観測データを画像化した一例を示す。
コンピュータ16は、CPU、後述する路面境界推定処理ルーチンを実行するためのプログラム等各種プログラム及び各種データを記憶したROM、データ等を一時的に記憶するRAM、各種情報が記憶されたメモリ、及びこれらを接続するバスを含んで構成されている。
このコンピュータ16をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図1に示すように、レーザレーダ12の観測データから自車両周辺の立体物領域を抽出する立体物領域抽出部20と、立体物領域に基づいて立体物境界を推定する立体物境界推定部22と、撮像装置14により撮像された撮像画像からエッジ線分を抽出するエッジ線分抽出部24と、立体物領域に基づいてエッジ線分を選択する線分選択部26と、推定された立体物境界と選択されたエッジ線分とを統合して、路面境界を推定する路面境界推定部28とを含んだ構成で表すことができる。
立体物領域抽出部20は、レーザレーダ12で観測された観測データを取得し、観測データから立体物を示す立体物領域を抽出する。具体的には、図3に示すように、路面平面を格子状に分割した2次元のXZ平面のグリッドマップ上に、レーザレーダ12の観測データを、その観測データのXZ平面位置に対応するセルに投影する。そして、各セル内に投影された観測データ群の高さ方向の分散が所定の閾値以上となるセルを、立体物領域として抽出し、図4に示すような立体物マップ50を生成する。図4に示す立体物マップ50では、立体物領域を示すセルを黒、立体物領域ではないセル(高さ方向の分散が所定の閾値未満のセル)を白、及び観測データが得られていないセルをグレーで示している。
立体物境界推定部22は、立体物領域抽出部20により生成された立体物マップ50に基づいて、立体物領域の外縁を立体物と路面との境界を示す立体物境界として推定する。
エッジ線分抽出部24は、撮像装置14から画像データを取得し、画像データが示す撮像画像に対して、既存のSobelオペレータやPrewittオペレータを用いて、各画素のエッジ(輝度勾配の大きさと方向)を抽出する。そして、画像中の位置に応じて抽出するエッジ方向に制限をかけ、消失点方向に連続して伸びるエッジをエッジ線分として抽出する。これにより、垂直方向に伸びる立体物のエッジなどを除去することができる。図5に、撮像画像上で抽出されたエッジ線分の一例を示す。また、図5に示すように、撮像装置14の俯角や車両のピッチ変動量に基づいて、画像の処理範囲(ROI:Region of Interest)を設定してもよい。
線分選択部26は、エッジ線分抽出部24で抽出されたエッジ線分の中から、路面境界を構成するエッジ線分の絞り込みを行う。ここでは、路面境界として、段差やバリアなどの物理的な境界を想定しているため、路面境界の候補として、立体物の近傍に存在するエッジ線分を選択する。具体的には、立体物領域抽出部24で抽出されたXY平面情報であるエッジ線分の各々を、XZ平面情報である立体物マップ50に投影する。図6に、立体物マップ50にエッジ線分を投影した一部の一例を示す。立体物領域を示すセルを○印、エッジ線分が投影されたセル(以下、「エッジ線分のセル」という)を網掛けで示している。線分選択部26は、立体物領域との距離が所定値以下のエッジ線分を選択する。図6の例では、中央線に相当するエッジ線分は立体物からの距離が遠いため、路面境界を示すエッジ線分の候補から除外される。
立体物領域とエッジ線分との距離の評価は、例えば、図7に示すように、エッジ線分の各セルについて、注目セルを中心としてXの正負方向の近傍セル(ここでは、注目セル自体及び正負各2セル)が立体物領域を示すセルか否かに基づいて、下記(1)式に示す評価値を算出して行う。
ここで、Evalはエッジ線分iの評価値、evalはエッジ線分iのセルnの評価値、mはエッジ線分iに含まれるセルの個数である。図7の例では、eval=0、eval=1、eval=1、eval=1、eval=0であるので、Eeval=3となる。線分選択部26は、このようにして算出されたエッジ線分の評価値Evalが閾値thrより大きいエッジ線分を立体物の足元位置を通過するエッジ線分であると判定して選択する。閾値thrは立体物領域とエッジ線分との距離が所定値以下となるような値を定めておく。なお、各セルの近傍セルは、注目セルの列上のみでなく、Zの正負方向も含めたマトリクス上に評価してもよい。
なお、撮像装置14により撮像される撮像画像、及びレーザレーダ12により観測される観測データは、装置から遠方領域になるほど解像度が粗くなるため、エッジ線分及び立体物領域の検出精度が劣化する。すなわち、立体物領域とエッジ線分との相対距離も、遠方領域ではその算出精度が劣化する。そこで、エッジ線分の選択条件(立体物領域との距離の閾値。例えば、上記の閾値thr)を、自車両とエッジ線分に対応する位置との距離に応じて変更するようにしてもよい。例えば、レーザレーダ12で観測された距離に応じて変更したり、エッジ線分の画像中における垂直方向の位置に応じて変更したりすることができる。
また、線分選択部26で選択されるエッジ線分は、必ずしも1つに絞り込む必要はない。立体物領域からの距離の他に、エッジの強度や長さ、傾きを考慮して複数の候補を残し、後述する路面境界推定部28で路面境界を推定する際に、立体物境界との位置関係や、近傍から遠方までの連続性を加味して最適なエッジ線分を選択するようにしてもよい。
路面境界推定部28は、立体物境界推定部22で推定された立体物境界と、線分選択部26で選択されたエッジ線分とを統合して、路面境界を推定する。統合の際、路面境界が近傍から遠方に向けて連続的に繋がるような拘束条件を設ける。具体的には、図8(a)に示すように、推定された立体物境界と選択されたエッジ線分とを、同一のXZ平面にマッピングする。次に、同図(b)に示すように、自車両の進路の奥行き方向に向かって一定間隔に路面境界を構成するサポート点を抽出する。サポート点は立体物境界及びエッジ線分のうち、自車両の走行予定進路に近い方を選択する。最後に、同図(c)に示すように、抽出したサポート点を通過するような線を路面境界として推定する。
なお、サポート点を抽出する間隔は一定とする場合に限定されず、各境界候補の種類(立体物境界またはエッジ線分)や自車両からの距離に応じてその間隔を変更してもよい。例えば、近傍領域ではエッジ線分や立体物境界の検出精度が良いので、サポート点を抽出する間隔を密にし、遠方領域では間隔を粗くすることができる。また、立体物境界及びエッジ線分のうち、自車両の走行予定進路に近い方を選択する場合に限定されず、立体物境界またはエッジ線分のいずれかを優先的に選択したり、サポート点候補が複数存在する場合には、それらの中央値や平均値等を選択したりしてもよい。
次に、第1の実施の形態に係る路面境界推定装置10の作用について説明する。
まず、レーザレーダ12によって、複数の走査ラインのレーザが自車両の前方を水平方向に走査されて、車両周辺の各反射点の3次元位置を特定する観測データが観測される。また、レーザレーダ12の観測タイミングに同期して、撮像装置14により車両周辺を撮像して得られた画像を示す画像データが出力される。そして、コンピュータ16によって、図9に示す路面境界推定処理ルーチンが実行される。
ステップ100で、レーザレーダ12で観測された観測データ、及び撮像装置14から出力された画像データを取得する。
次に、ステップ102で、立体物領域抽出部20が、上記ステップ100で取得した観測データを2次元のXZ平面のグリッドマップ上に投影し、各セル内に投影された観測データ群の高さ方向の分散が所定の閾値以上となるセルを立体物領域として抽出した立体物マップ50を生成する。
次に、ステップ104で、立体物境界推定部22が、上記ステップ102で生成された立体物マップ50に基づいて、立体物領域の外縁を立体物と路面との境界を示す立体物境界として推定する。
次に、ステップ106で、エッジ線分抽出部24が、上記ステップ100で取得した撮像画像に処理範囲ROIを設定し、処理範囲ROI内の画像から、消失点方向に連続して伸びるエッジ線分を抽出する。
次に、ステップ108で、線分選択部26が、上記ステップ106で抽出されたXY平面情報であるエッジ線分の各々を、上記ステップ102で生成されたXZ平面情報である立体物マップ50に投影する。そして、立体物領域との距離が所定値以下のエッジ線分を、立体物の足元を通過するエッジ線分として選択する。
次に、ステップ110で、路面境界推定部28が、上記ステップ104で推定された立体物境界と、上記ステップ108で選択されたエッジ線分とを同一のXZ平面にマッピングし、自車両の進路の奥行き方向に向かって一定間隔に路面境界を構成するサポート点を抽出し、サポート点を通過するような線を路面境界として推定する。
次に、ステップ112で、路面境界推定部28は、上記ステップ110の推定結果を撮像画像に対応させたXY平面に投影し、撮像画像に合成して表示装置18に表示するように制御して、路面境界推定処理を終了する。
図10に路面境界の推定結果の一例を示す。エッジ線分が抽出されていない領域は立体物境界(立体物領域の下端位置)を路面境界と推定しているため、推定結果はところどころ凹凸があるものの、物理的な路面境界が適切に推定できている。また、対向車線側では植込みが途切れている部分もあるが、エッジ線分を利用することで、立体物に切れ間が生じている領域でも不連続なく路面境界を推定できている。
以上説明したように、第1の実施の形態に係る路面境界推定装置10によれば、レーザレーダの観測データに基づいて生成した立体物マップを用いて、立体物の足元を通過すると判定されたエッジ線分を選択し、このエッジ線分に基づいて路面境界を判定するため、高さの低い立体物や切れ間の多い立体物が存在する場合でも、路面境界を遠方まで精度良く推定することができる。
なお、第1の実施の形態では、立体物の足元を通過するエッジ線分か否かの選択を、立体物マップ上で行う場合について説明したが、この処理は、撮像画像上で行ってもよい。具体的には、まず、立体物領域抽出部20で生成された立体物マップ50において、立体物領域を示すセルを撮像画像上へ投影することで、図11に示すように、撮像画像中における立体物領域を認識する。次に、立体物境界推定部22で、撮像画像上で認識された立体物領域の下端に沿う点を立体物境界として推定する。そして、エッジ線分抽出部24が、推定された立体物境界との距離が近いエッジ線分を選択するようにするとよい。
<第2の実施の形態>
次に、第2の実施の形態について説明する。なお、第1の実施の形態と同様の構成については、同一符号を付して詳細な説明を省略する。
図12に示すように、第2の実施の形態に係る路面境界推定装置210は、レーザレーダ12と、撮像装置14と、路面境界を推定する処理を実行するコンピュータ216と、表示装置18とを備えている。このコンピュータ216をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図12に示すように、立体物領域抽出部20と、レーザレーダ12の観測データから自車両周辺の路面領域を抽出する路面領域抽出部21と、立体物境界推定部22と、エッジ線分抽出部24と、立体物領域及び路面領域に基づいてエッジ線分を選択する線分選択部226と、推定された立体物境界と選択されたエッジ線分とを統合し、走路モデル52を適合して路面境界を推定する路面境界推定部228とを含んだ構成で表すことができる。
路面領域抽出部21は、レーザレーダ12で観測された観測データを取得し、観測データから立体物を示す立体物領域を抽出する。具体的には、立体物領域抽出部20と同様に、グリッドマップ上の各セル内に投影された観測データ群の高さ方向の分散が所定の閾値未満となるセルを、路面領域(フリースペース)として抽出する。自車両から見たある方向に立体物が検出された場合、その立体物と自車両との間には他に立体物が存在せず、フリースペースであると言える。そして、抽出した路面領域の情報と、立体物領域抽出部20で抽出された立体物領域の情報とを統合した立体物マップ250を生成する。
立体物領域抽出部20及び路面領域抽出部21において、各タイムステップにおける観測から立体物領域と路面領域との分割が可能であるが、時系列に取得された複数の観測データに基づいて、観測間の自車運動を考慮して領域分割の結果を統合することにより、精度の高い立体物マップを生成することができる。例えば、観測データを投影する際に、前回タイムステップまでに生成された立体物マップ250から、自車運動を考慮して対応するセルを選択して投影する。そして、同セルに蓄積された過去の観測データと、今回投影した観測データとの値を総合的に判断して、そのセルが立体物領域であるか否か、または路面領域であるか否かを判定することができる。図13(a)に、抽出した立体物領域、同図(b)に抽出した路面領域を画像化した一例を示す。1回の観測データで生成した立体物マップよりも、複数回の観測データを用いて生成した立体物マップを用いて路面境界を推定することで、より推定精度を向上させることができる。
また、上記では、レーザレーダ12の観測データの高さ情報を用いて路面領域を抽出する場合について説明したが、レーザ光のパルス形状や、受光したレーザ光の信号強度に基づいて、各反射点が路面反射点か否かを判定することにより、路面領域を抽出するようにしてもよい。また、各反射点の並び(連続性)により、路面反射点か否かを判定するようにしてもよい。例えば、一般的に路面は平面であるため、同一の走査ラインで観測される路面反射点は円弧状となる。従って、隣接する反射点間で3次元位置の高さ方向の変化量が小さく、かつ反射点を連結した場合に車両前方の進行方向を横切るような円弧を描く反射点を、路面反射点とし、この路面反射点を含む領域を路面領域として抽出することができる。
線分選択部226は、生成された立体物マップ250を用いて、エッジ線分を選択する。ガードレールの稜線を示すエッジ線分は、立体物領域に含まれるため容易に除外することができ、センターラインや路面標示などを示すエッジ線分は、路面領域に含まれるため容易に除外することができる。また、路肩の立体物に近い白線のエッジなども精度良く除外することができる。白線、アスファルト境界、側溝、縁石など、立体物に近い位置に候補となるエッジ線分が複数現れる場合でも、路面境界の候補となるエッジ線分を精度良く絞り込むことができる。このように立体物領域及び路面領域の所定領域内(例えば、各領域の外縁より所定距離分内側の領域)に存在するエッジ線分か否かによってエッジ線分を絞り込んだ上で、第1の実施の形態と同様に、立体物領域からの距離に基づいてエッジ線分を選択する。
路面境界推定部228は、第1の実施の形態と同様に、立体物境界推定部22で推定された立体物境界と、線分選択部226で選択されたエッジ線分とを統合して路面境界を推定する。さらに、推定した路面境界に対して走路モデル52を適合する。路面境界は連続的に繋がっており、時系列方向に変化することはないため、時系列の推定結果に対して走路モデル52を適合することで推定結果の安定性と精度を改善する。ここでは、走路モデル52として、下記(2)式に示す3次関数のクロソイド曲線を用い、抽出した左右のサポート点群と一致するようにパラメータを適合させて路面境界を推定する。
ここで、C、C、Cはそれぞれヨー角、曲率、曲率変化率を意味するパラメータであり、d、dは左右の境界線に対するオフセットを表す。また、(2)式の座標系を図14に示す。ただし、一般道では道路がクロソイド曲線に沿うという規格はないため、この他の曲線を予め走路モデル52として定めておいてもよい。走路モデル52は、車両周辺の路面構造に基づくものであればよく、地図情報を用いて、GPS等で取得した自車両の位置に応じた走路モデル52を持つようにしてもよい。さらに、上式では左右で同一の曲率やヨー角を想定しているが、左右別々のパラメータをフィッティングしてもよい。また、折れ線モデルのような不連続点を含む走路モデル52を想定してもよい。
また、路面境界推定部228は、立体物境界と選択されたエッジ線分とを統合する際のサポート点の抽出を、自車両からの距離に応じて段階的に行うようにしてもよい。例えば図15に示すように、自車両の前方領域を、近距離領域A、中距離領域B、遠距離領域Cに分割する。そして最初に、近距離領域Aからサポート点を抽出して走路モデル52のパラメータを推定する。次に、推定したパラメータを用いて路面境界の候補となる境界線を引いて、中距離領域Bからはこの境界線に近いエッジ線分、または立体物境界からサポート点を抽出する。近距離領域A及び中距離領域Bの各々で抽出されたサポート点を合わせて、再度、走路モデル52のパラメータを推定する。同様の手順で遠距離領域Cからもサポート点を抽出し、最終的に推定されたパラメータにより得られる走路モデル52が示す線分を路面境界として推定する。この手順では、信頼できる近傍のサポート点を手掛かりに遠方のサポート点の取捨選択をするため、誤差が大きくなる可能性が高い遠方のサポート点の影響を抑えて、路面境界の推定精度をより向上することができる。
次に、図16を参照して、第2の実施の形態における路面境界推定処理ルーチンについて説明する。なお、第1の実施の形態における路面境界推定処理ルーチンと同様の処理については、同一符号を付して詳細な説明を省略する。
ステップ100で、レーザレーダ12で観測された観測データ、及び撮像装置14から出力された画像データを取得する。
次に、ステップ200で、立体物領域抽出部20が、上記ステップ100で取得した観測データに基づいて立体物領域を抽出すると共に、路面領域抽出部21が、観測データに基づいて路面領域を抽出し、立体物マップ250を生成する。
次に、ステップ104で、立体物境界推定部22が立体物境界を推定し、ステップ106で、エッジ線分抽出部24が、撮像画像からエッジ線分を抽出する。
次に、ステップ202で、線分選択部226が、上記ステップ106で抽出されたエッジ線分の各々を、上記ステップ200で生成された立体物マップ250に投影し、立体物領域及び路面領域の所定領域内のエッジ線分を除外する。そして、残ったエッジ線分のうち、立体物領域との距離が所定値以下のエッジ線分を、立体物の足元を通過するエッジ線分として選択する。
次に、ステップ204で、路面境界推定部228が、上記ステップ104で推定された立体物境界と、上記ステップ202で選択されたエッジ線分とを統合し、統合結果を走路モデル52に適合させて、路面境界を推定し、次に、ステップ112で、推定結果を撮像画像に合成して表示装置18に表示するように制御して、路面境界推定処理を終了する。
以上説明したように、第2の実施の形態に係る路面境界推定装置10によれば、立体物マップを生成する際に路面領域も抽出することで、より精度良く立体物の足元を通過するエッジ線分を選択することができ、路面境界の推定精度も向上する。また、立体物領域及び路面領域を抽出する際に、過去に取得された複数の観測データも用いることで、より精度良く立体物領域及び路面領域を抽出することができる。また、走路モデルに適合させて路面境界を推定することで、より精度良く滑らかな路面境界を推定することができる。
<第3の実施の形態>
次に、第3の実施の形態について説明する。なお、第1の実施の形態と同様の構成については、同一符号を付して詳細な説明を省略する。
図17に示すように、第3の実施の形態に係る路面境界推定装置310は、レーザレーダ12と、撮像装置14と、路面境界を推定する処理を実行するコンピュータ316と、表示装置18とを備えている。このコンピュータ316をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図17に示すように、立体物領域抽出部20と、エッジ線分抽出部24と、立体物マップ50に基づいてエッジ線分を選択して線分マップ54に蓄積する線分選択部326と、線分マップに基づいて路面境界を推定する路面境界推定部328とを含んだ構成で表すことができる。
線分選択部326は、第1の実施の形態と同様に、エッジ線分抽出部24により抽出されたエッジ線分から、立体物領域との距離が所定値以下のエッジ線分を選択する。そして、選択したエッジ線分を線分マップ54に投影及び蓄積する。線分マップ54は、立体物マップ50と同様に、路面平面を格子状に区切った2次元のXZ平面のグリッドマップである。線分選択部326は、選択したエッジ線分を線分マップ54の対応するセルに投影する。投影する際には、所定の占有値(例えば、0.1や0.4)を付与し、前回タイムステップまでに蓄積された各セルの占有値に加算して蓄積する。
路面境界推定部328は、線分マップ54において、占有値がピークのセルを取り上げて、路面境界として推定する。占有値がピークのセルを取り上げて推定される線分とは、線分マップ54のX方向の列毎に占有値が最大となるセルを選択してZ方向に連接した線分である。図18(a)に線分マップ54の一例、同図(b)に(a)の線分マップ54から抽出された路面境界の一例を示す。また、路面境界推定部328は、抽出した路面境界を撮像画像に対応させたXY平面に投影し、撮像画像に合成して表示装置18に表示するように制御する。
次に、図19を参照して、第3の実施の形態における路面境界推定処理ルーチンについて説明する。なお、第1の実施の形態における路面境界推定処理ルーチンと同様の処理については、同一符号を付して詳細な説明を省略する。
ステップ100〜108を経て、路面境界の候補となるエッジ線分を選択する。次に、ステップ300で、線分選択部326が、上記ステップ108で選択されたエッジ線分を線分マップ54の対応するセルに投影し、所定の占有値(例えば、0.1や0.4)を付与し、前回タイムステップまでに蓄積された各セルの占有値に加算して蓄積する。
次に、ステップ302で、路面境界推定部328が、線分マップ54の占有値がピークのセルを取り上げて抽出した線分を路面境界として推定し、次に、ステップ112で、推定結果を撮像画像に合成して表示装置18に表示するように制御して、路面境界推定処理を終了する。本ルーチンをタイムステップ毎に繰り返すことで、立体物マップ50を用いて選択されたエッジ線分が線分マップ54に順次蓄積される。
以上説明したように、第3の実施の形態に係る路面境界推定装置310によれば、立体物マップ50を用いて立体物の足元を通過すると判定されたエッジ線分が線分マップ54に蓄積され、この線分マップ54に基づいて路面境界を判定するため、逐次的な処理で発生するエッジ線分の欠落が補完され、より精度良く路面境界を推定することができる。また、エッジ線分を蓄積していくことで、同一箇所のエッジ線分であっても異なる時刻に撮像された撮像画像上では見え方が異なるため、立体物の切れ間や路面と隣接する他のスペースとの境界なども、いずれかの時刻において一部に立体物と近接する箇所を有する線分として抽出される可能性が高くなり、適切な路面境界を推定することができる。
なお、上記では、線分マップ54の占有値がピークのセルを取り上げて路面境界を抽出することで、線分マップ54に蓄積されたエッジ線分の情報を細線化する場合について説明したがこれに限定されない。例えば、線分マップ54に蓄積されたエッジ線分を最小二乗近似によりフィッティングすることにより細線化して、路面境界を抽出するようにしてもよい。また、第2の実施の形態のように、走路モデル52とフィッティングすることにより、線分マップ54から路面境界を推定するようにしてもよい。
<第4の実施の形態>
次に、第4の実施の形態について説明する。なお、第1及び第3の実施の形態と同様の構成については、同一符号を付して詳細な説明を省略する。
図20に示すように、第4の実施の形態に係る路面境界推定装置410は、レーザレーダ12と、撮像装置14と、路面境界を推定する処理を実行するコンピュータ416と、表示装置18とを備えている。このコンピュータ416をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図20に示すように、立体物領域抽出部420と、エッジ線分抽出部24と、立体物マップ450に基づいてエッジ線分を選択して線分マップ54に蓄積する線分選択部426と、立体物マップ450に基づいて路面確率マップ56を算出する路面確率算出部32と、線分マップ54と路面確率マップ56とに基づいて路面境界を推定する路面境界推定部428とを含んだ構成で表すことができる。
立体物領域抽出部420は、第1の実施の形態に係る立体物領域抽出部20と同様に、レーザレーダ12の観測データを立体物マップ450に投影及び蓄積する。第4の実施の形態に係る立体物領域抽出部420では、観測データを立体物マップ450に投影する際に、所定の占有値(例えば、0.1や0.4)を付与し、前回タイムステップまでに蓄積された各セルの占有値に加算して蓄積する。また、立体物マップ450の各セルに、そのセルに投影された観測データの高さ情報を保持させる。
路面確率算出部32は、立体物領域抽出部420で生成された立体物マップ450の各セルが保持する高さ情報及び占有値に基づいて、自車両周辺の各点における路面らしさを示す路面確率を算出する。また、立体物マップ450と同様の仕様のグリッドマップの各セルに算出した路面確率を格納して路面確率マップ56を生成する。路面確率マップ56を画像化した一例を図21に示す。図21の例では、路面確率が高い箇所ほど濃い色で表現している。
線分選択部426は、第3の実施の形態に係る線分選択部326と同様に、立体物領域抽出部24で抽出されたXY平面情報であるエッジ線分の各々を、XZ平面情報である立体物マップ450に投影し、各エッジ線分の評価値Evalを算出する。第4の実施の形態の線分選択部426では、この評価値Evalを算出する際に、エッジ線分の各セルと立体物領域を示すセルとの距離に応じた重み係数wを乗算する。
例えば、図22に示すように、注目セルの重み係数をw、注目セルからの距離が1のセルの重み係数をw、注目セルからの距離が2のセルの重み係数をwとし、w=1.0、w=0.9、w=0.8のように定めることができる。一例として、立体物領域を示すセルとエッジ線分のセルとが図7に示すような位置関係の場合には、eval1-=0、eval×w=0.9、eval×w=0.8、eval×w=0.9、eval=0であるので、Eeval=2.6となる。なお、重み係数は、注目セルと立体物領域を示すセルとが近いほど大きくなる値であればよく、例えば、ガウス分布などに基づいて定めてもよい。
また、線分選択部426は、エッジ線分と自車運動のベクトル方向とエッジ線分との類似性を重みとして乗算した評価値Evalを算出する。類似性は、例えば、図23に示すように、自車運動のベクトルとエッジ線分とのなす角をθとした場合のcosθ(−π/2≦θ≦π/2)とすることができる。なお、自車運動のベクトルは、車両に搭載された図示しない速度センサやヨーレートセンサ等のセンサ値を取得して得ることができる。
距離に応じた重み係数w、及び自車運動ベクトルとの類似度cosθを加えた評価値Evalの算出式の一例を下記(3)式に示す。
また、線分選択部426は、クロソイド曲線等の走路モデルにより推定される境界線分に対して、エッジ線分との距離に応じた重み係数や自車運動ベクトルとの類似度を考慮した重みを評価値に加えてもよい。
路面境界推定部428は、線分マップ54、路面確率マップ56、及びその他の情報を統合して、動的計画法などにより路面境界を推定する。その他の情報としては、撮像画像のフレーム間における各画素の輝度値の変化をモザイクイメージ化した動的背景情報や、撮像画像から得られるテクスチャ情報等を用いることができる。これらの情報は、撮像画像上で路面領域と路面以外の領域とを識別するために有用な情報である。また、クロソイド曲線等の走路モデルによる制約を用いてもよい。例えば、線分マップ54、路面確率マップ56等を統合して路面境界の確からしさが所定値以上の線分を抽出し、抽出された線分のうち、道路構造モデルとの一致度が最も高い線分を最終的な路面境界として推定することができる。
次に、図24を参照して、第4の実施の形態における路面境界推定処理ルーチンについて説明する。なお、第1及び第3の実施の形態における路面境界推定処理ルーチンと同様の処理については、同一符号を付して詳細な説明を省略する。
ステップ100〜108、及び300を経て、立体物マップ450及び線分マップ54を蓄積する。なお、ステップ102では、立体物領域抽出部420が、各セルにレーザレーダ12の観測値の高さ情報及び所定の占有値を保持させた立体物マップ450を生成する。また、ステップ108では、線分選択部426が、例えば(2)式により、立体物領域とエッジ線分との距離に応じた重み、及び自車運動ベクトルとエッジ線分との類似度を加味した評価値を算出して、エッジ線分を選択する。
次に、ステップ400で、路面確率算出部32が、上記ステップ102で生成された立体物マップ450の各セルが保持する高さ情報及び占有値に基づいて算出された路面確率を各セルに格納した路面確率マップ56を生成する。
次に、ステップ402で、路面境界推定部428が、線分マップ54、路面確率マップ56、及びその他の情報を統合して、動的計画法などにより路面境界を推定し、次に、ステップ112で、推定結果を撮像画像に合成して表示装置18に表示するように制御して、路面境界推定処理を終了する。
以上説明したように、第4の実施の形態に係る路面境界推定装置410によれば、立体物領域とエッジ線分との距離に応じた重み、及び自車運動ベクトルとエッジ線分との類似度を加味したエッジ線分を選択して蓄積するため、より精度の高い線分マップ54を生成することができる。また、線分マップ54に加え、路面確率マップ56、動的背景情報、テクスチャ情報、道路構造モデルによる制約等の路面境界推定に有用な情報を統合して路面境界を推定するため、より精度良く路面境界を推定することができる。
なお、動的背景情報、テクスチャ情報、走路モデルによる制約等の情報は全て用いる必要はなく、いずれか1つまたは2つを選択して用いてもよい。また、その他の情報をさらに加えて用いてもよい。
また、第1及び第2の実施の形態においても、第4の実施の形態で述べたような評価値を用いてエッジ線分を選択するようにしてもよい。
また、第3及び第4の実施の形態においても、第1及び第2の実施の形態と同様に、立体物境界を推定し、立体物境界と線分マップとを統合して路面境界を推定するようにしてもよい。
さらに、立体物境界と選択されたエッジ線分との統合方法は、上記で説明したようなサポート点を抽出する方法に限定されない。例えば、図25(a)に示すように、推定された立体物境界と選択されたエッジ線分とを、同一のXZ平面にマッピングした尤度マップを生成する。ここで、尤度とは、任意の位置(x,z)における路面境界らしさを表す指標である。同図(b)に示すように、抽出された立体物境界やエッジ線分の位置で尤度が大きく、そこから離れるにしがたって尤度が小さくなるように尤度マップを生成する。なお、同図(b)では、色の濃い領域ほど路面境界らしさを表す尤度が高い領域であることを示している。また、どのくらいの距離でどの程度尤度が低下するかは尤度マップ生成時のパラメータであり実験的に決定するが、自車両からの距離や境界候補の種類に応じて変更するようにしてもよい。例えば、近距離領域では境界候補からの距離が離れるに従って急激に尤度が低下するようにし設定し、遠方領域では緩やかに低下するようにする設定することができる。また、尤度マップを2次元平面内の尤度分布を表すマップとして生成してもよいし、自車両前方の一定距離間隔毎に進路に直行する方向の尤度変化のみを生成するようにしてもよい。
そして、同図(c)に示すように、走路モデルのパラメータ(例えば、(2)式のパラメータC、C、C、d、d)を様々に変えて路面境界を示す線分を生成し、生成した線分に沿って尤度を累積した値を評価値として算出し、評価値が最も高くなった線分を最終的な路面境界として決定する。同図(c)は折れ線モデルのパラメータを適合した場合の模式図である。最終的な路面境界は、図示されるように尤度が高い場所を(可能な限り)通過することになる。
また、上記実施の形態では、レーザレーダにより車両周辺から複数の反射点の位置を特定する情報を観測する場合について説明したが、これに限定されるものではなく、ミリ波などの電磁波を用いてもよい。また、例えば、ステレオカメラによって撮像された画像を用いて、後処理により車両周辺の複数の点の位置を特定する情報を演算するようにしてもよい。
また、上記実施の形態では、推定結果を撮像画像に合成して表示装置に表示する場合について説明したが、グリッドマップ上に路面境界を点座標で表示するようにしてもよい。また、路面境界は車両が逸脱してはいけない範囲を示すものであるため、車両が逸脱しそうな場合にドライバに注意喚起するシステムや、自動的にステアリング操作して路面境界から離れるように制御するシステム等の入力として、路面境界の推定結果を利用するようにしてもよい。
また、上記では、移動体を車両とした場合について説明したが、これに限定されず、ロボット等の他の移動体にも適用可能である。
また、上記では、本発明の路面境界推定装置を車両に搭載した例について説明したが、路面境界推定装置を構成するコンピュータを外部サーバとして構成することもできる。この場合、車両で取得された撮像画像及びレーザレーダの観測データを通信手段により外部サーバへ送信し、外部サーバで処理された路面境界の推定結果を車両に搭載された情報端末に返すようにすればよい。
10、210、310、410 路面境界推定装置
12 レーザレーダ
14 撮像装置
16、216、316、416 コンピュータ
18 表示装置
20、420 立体物領域抽出部
21 路面領域抽出部
22 立体物境界推定部
24 エッジ線分抽出部
26、226、326、426 線分選択部
28、228、328、428 路面境界推定部
32 路面確率算出部
50、250、450 立体物マップ
52 走路モデル
54 線分マップ
56 路面確率マップ

Claims (14)

  1. 移動体周辺に存在する物体上の複数の点各々の前記移動体を基準とする3次元位置、及び前記移動体に搭載された撮像手段により該移動体周辺を撮像して得た画像を取得する取得手段と、
    前記取得手段により取得された3次元位置に基づいて、前記移動体周辺の立体物領域を抽出する立体物領域抽出手段と、
    前記取得手段により取得された画像からエッジ線分を抽出するエッジ線分抽出手段と、
    前記エッジ線分抽出手段により抽出されたエッジ線分から、前記立体物領域抽出手段により抽出された立体物領域との距離が所定値以下のエッジ線分を選択する線分選択手段と、
    前記線分選択手段により選択されたエッジ線分に基づいて、路面境界を推定する路面境界推定手段と、
    を含む路面境界推定装置。
  2. 前記路面境界推定手段は、前記立体物領域の外縁または下端が示す路面と立体物との境界点と、前記選択されたエッジ線分とを統合して、前記路面境界を推定する請求項1記載の路面境界推定装置。
  3. 前記立体物領域抽出手段は、前記取得手段により時系列に取得された複数の3次元位置に基づいて、前記立体物領域を抽出する請求項1または請求項2記載の路面境界推定装置。
  4. 前記取得手段により取得された3次元位置に基づいて、前記移動体周辺の路面領域を抽出する路面領域抽出手段を含み、
    前記線分選択手段は、前記立体物領域及び前記路面領域の所定領域内に含まれるエッジ線分を除外する
    請求項1〜請求項3のいずれか1項記載の路面境界推定装置。
  5. 前記路面領域抽出手段は、前記取得手段により時系列に取得された複数の3次元位置に基づいて、前記路面領域を抽出する請求項4記載の路面境界推定装置。
  6. 前記立体物領域に基づいて、前記移動体周辺の各点における路面らしさを示す路面確率を算出する路面確率算出手段を含み、
    前記路面境界推定手段は、前記路面確率算出手段により算出された路面確率と前記選択されたエッジ線分とを統合して、前記路面境界を推定する
    請求項1〜請求項5のいずれか1項記載の路面境界推定装置。
  7. 前記路面境界推定手段は、前記取得手段により取得された画像から得られるテクスチャ情報、前記画像の画素値の変化に基づく動的背景情報、及び路面構造に基づく制約の少なくとも1つを加えて、前記路面境界を推定する請求項1〜請求項6のいずれか1項記載の路面境界推定装置。
  8. 前記線分選択手段は、前記移動体と前記エッジ線分に対応する位置との距離に応じて、前記所定値を変更する請求項1〜請求項7のいずれか1項記載の路面境界推定装置。
  9. 前記線分選択手段は、前記立体物領域と前記エッジ線分との距離が近いほど高くなる評価値を算出し、該評価値と予め定めた閾値とを比較して、前記線分マップに蓄積するエッジ線分を選択する請求項1〜請求項8のいずれか1項記載の路面境界推定装置。
  10. 前記線分選択手段は、前記移動体の移動方向ベクトルと前記エッジ線分との類似度が高いほど高くなる係数を乗算して前記評価値を算出する請求項9記載の路面境界推定装置。
  11. 前記線分選択手段は、路面構造に基づく境界線と前記エッジ線分との距離及び類似度の少なくとも一方に基づく重みを前記評価値に加える請求項9または請求項10記載の路面境界推定装置。
  12. 前記線分選択手段は、選択したエッジ線分を、過去に選択されたエッジ線分を蓄積した線分マップに蓄積し、
    前記路面境界推定手段は、前記線分マップに基づいて、前記路面境界を推定する
    請求項1〜請求項11のいずれか1項記載の路面境界推定装置。
  13. 前記路面境界推定手段は、前記線分マップに蓄積されたエッジ線分を細線化することにより、前記路面境界を推定する請求項12記載の路面境界推定装置。
  14. コンピュータを、請求項1〜請求項13のいずれか1項記載の路面境界推定装置を構成する各手段として機能させるための路面境界推定プログラム。
JP2012140039A 2012-06-21 2012-06-21 路面境界推定装置及びプログラム Active JP5820774B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012140039A JP5820774B2 (ja) 2012-06-21 2012-06-21 路面境界推定装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012140039A JP5820774B2 (ja) 2012-06-21 2012-06-21 路面境界推定装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2014006588A true JP2014006588A (ja) 2014-01-16
JP5820774B2 JP5820774B2 (ja) 2015-11-24

Family

ID=50104274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012140039A Active JP5820774B2 (ja) 2012-06-21 2012-06-21 路面境界推定装置及びプログラム

Country Status (1)

Country Link
JP (1) JP5820774B2 (ja)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016024160A (ja) * 2014-07-24 2016-02-08 株式会社日本自動車部品総合研究所 立体物認識装置
JP2017117038A (ja) * 2015-12-22 2017-06-29 いすゞ自動車株式会社 道路面推定装置
JP2017203766A (ja) * 2016-05-10 2017-11-16 株式会社デンソー 立体物検出処理装置
JP2018048949A (ja) * 2016-09-23 2018-03-29 トヨタ自動車株式会社 物体識別装置
JP2018092501A (ja) * 2016-12-07 2018-06-14 クラリオン株式会社 車載用画像処理装置
WO2019065970A1 (ja) * 2017-09-29 2019-04-04 クラリオン株式会社 車両用外界認識装置
JP2019148889A (ja) * 2018-02-26 2019-09-05 株式会社Soken 道路境界検出装置
JP2020068515A (ja) * 2018-10-26 2020-04-30 株式会社デンソー 画像処理装置
KR20200136905A (ko) 2018-03-29 2020-12-08 소니 주식회사 신호 처리 장치 및 신호 처리 방법, 프로그램, 그리고 이동체
JP2021082058A (ja) * 2019-11-20 2021-05-27 株式会社豊田中央研究所 走路推定装置、および走路推定プログラム
CN112949489A (zh) * 2021-03-01 2021-06-11 成都安智杰科技有限公司 一种道路边界识别方法、装置、电子设备和存储介质
KR20210069816A (ko) * 2019-12-04 2021-06-14 충남대학교산학협력단 부착형 농작업 경로 인식 장치
CN113468922A (zh) * 2020-03-31 2021-10-01 郑州宇通客车股份有限公司 一种基于雷达点云的道路边界识别方法及装置
CN113836978A (zh) * 2020-06-24 2021-12-24 富士通株式会社 道路区域确定装置及方法、电子设备
CN114926805A (zh) * 2021-02-12 2022-08-19 本田技研工业株式会社 划分线识别装置
JP2022537557A (ja) * 2019-06-18 2022-08-26 華為技術有限公司 運転可能な領域情報を決定するための方法及び装置
JP2022142728A (ja) * 2021-03-16 2022-09-30 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング 周辺モデル内の走行レーン推移推定
WO2022244333A1 (ja) * 2021-05-21 2022-11-24 日立Astemo株式会社 物体認識装置、および、物体認識方法
US20230004169A1 (en) * 2019-11-26 2023-01-05 Hitachi Astemo, Ltd. Apparatus and Method for Controlling Mobile Body
JP7417466B2 (ja) 2020-05-07 2024-01-18 株式会社トヨタマップマスター 情報処理装置、情報処理方法及び情報処理プログラム
JP7417465B2 (ja) 2020-05-07 2024-01-18 株式会社トヨタマップマスター 情報処理装置、情報処理方法及び情報処理プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006331389A (ja) * 2005-04-26 2006-12-07 Fuji Heavy Ind Ltd 車線認識装置
JP2010072807A (ja) * 2008-09-17 2010-04-02 Hitachi Ltd 道路境界検出判断装置
JP2010277384A (ja) * 2009-05-29 2010-12-09 Nissan Motor Co Ltd 走行支援装置および走行支援方法
JP2010274837A (ja) * 2009-05-29 2010-12-09 Hitachi Automotive Systems Ltd 車両制御装置および車両制御方法
JP2011003075A (ja) * 2009-06-19 2011-01-06 Fuji Heavy Ind Ltd 車両用運転支援装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006331389A (ja) * 2005-04-26 2006-12-07 Fuji Heavy Ind Ltd 車線認識装置
JP2010072807A (ja) * 2008-09-17 2010-04-02 Hitachi Ltd 道路境界検出判断装置
JP2010277384A (ja) * 2009-05-29 2010-12-09 Nissan Motor Co Ltd 走行支援装置および走行支援方法
JP2010274837A (ja) * 2009-05-29 2010-12-09 Hitachi Automotive Systems Ltd 車両制御装置および車両制御方法
JP2011003075A (ja) * 2009-06-19 2011-01-06 Fuji Heavy Ind Ltd 車両用運転支援装置

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016024160A (ja) * 2014-07-24 2016-02-08 株式会社日本自動車部品総合研究所 立体物認識装置
JP2017117038A (ja) * 2015-12-22 2017-06-29 いすゞ自動車株式会社 道路面推定装置
JP2017203766A (ja) * 2016-05-10 2017-11-16 株式会社デンソー 立体物検出処理装置
JP2018048949A (ja) * 2016-09-23 2018-03-29 トヨタ自動車株式会社 物体識別装置
US10977504B2 (en) 2016-12-07 2021-04-13 Clarion Co., Ltd. Vehicle-mounted image target objection recognition device
JP2018092501A (ja) * 2016-12-07 2018-06-14 クラリオン株式会社 車載用画像処理装置
WO2018105179A1 (ja) * 2016-12-07 2018-06-14 クラリオン株式会社 車載用画像処理装置
WO2019065970A1 (ja) * 2017-09-29 2019-04-04 クラリオン株式会社 車両用外界認識装置
JP2019066333A (ja) * 2017-09-29 2019-04-25 クラリオン株式会社 車両用外界認識装置
US11514683B2 (en) 2017-09-29 2022-11-29 Faurecia Clarion Electronics Co., Ltd. Outside recognition apparatus for vehicle
JP2019148889A (ja) * 2018-02-26 2019-09-05 株式会社Soken 道路境界検出装置
JP7071154B2 (ja) 2018-02-26 2022-05-18 株式会社Soken 道路境界検出装置
KR20200136905A (ko) 2018-03-29 2020-12-08 소니 주식회사 신호 처리 장치 및 신호 처리 방법, 프로그램, 그리고 이동체
JP7263731B2 (ja) 2018-10-26 2023-04-25 株式会社デンソー 画像処理装置
JP2020068515A (ja) * 2018-10-26 2020-04-30 株式会社デンソー 画像処理装置
JP7418476B2 (ja) 2019-06-18 2024-01-19 華為技術有限公司 運転可能な領域情報を決定するための方法及び装置
JP2022537557A (ja) * 2019-06-18 2022-08-26 華為技術有限公司 運転可能な領域情報を決定するための方法及び装置
JP2021082058A (ja) * 2019-11-20 2021-05-27 株式会社豊田中央研究所 走路推定装置、および走路推定プログラム
US20230004169A1 (en) * 2019-11-26 2023-01-05 Hitachi Astemo, Ltd. Apparatus and Method for Controlling Mobile Body
KR102340543B1 (ko) * 2019-12-04 2021-12-20 충남대학교산학협력단 부착형 농작업 경로 인식 장치
KR20210069816A (ko) * 2019-12-04 2021-06-14 충남대학교산학협력단 부착형 농작업 경로 인식 장치
CN113468922A (zh) * 2020-03-31 2021-10-01 郑州宇通客车股份有限公司 一种基于雷达点云的道路边界识别方法及装置
CN113468922B (zh) * 2020-03-31 2023-04-18 宇通客车股份有限公司 一种基于雷达点云的道路边界识别方法及装置
JP7417466B2 (ja) 2020-05-07 2024-01-18 株式会社トヨタマップマスター 情報処理装置、情報処理方法及び情報処理プログラム
JP7417465B2 (ja) 2020-05-07 2024-01-18 株式会社トヨタマップマスター 情報処理装置、情報処理方法及び情報処理プログラム
CN113836978A (zh) * 2020-06-24 2021-12-24 富士通株式会社 道路区域确定装置及方法、电子设备
CN114926805A (zh) * 2021-02-12 2022-08-19 本田技研工业株式会社 划分线识别装置
CN112949489A (zh) * 2021-03-01 2021-06-11 成都安智杰科技有限公司 一种道路边界识别方法、装置、电子设备和存储介质
CN112949489B (zh) * 2021-03-01 2023-05-12 成都安智杰科技有限公司 一种道路边界识别方法、装置、电子设备和存储介质
JP7359830B2 (ja) 2021-03-16 2023-10-11 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング 周辺モデル内の走行レーン推移推定
JP2022142728A (ja) * 2021-03-16 2022-09-30 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング 周辺モデル内の走行レーン推移推定
WO2022244333A1 (ja) * 2021-05-21 2022-11-24 日立Astemo株式会社 物体認識装置、および、物体認識方法

Also Published As

Publication number Publication date
JP5820774B2 (ja) 2015-11-24

Similar Documents

Publication Publication Date Title
JP5820774B2 (ja) 路面境界推定装置及びプログラム
US11763571B2 (en) Monocular cued detection of three-dimensional structures from depth images
CN109791052B (zh) 使用数字地图对点云的数据点进行分类的方法和系统
CN107850445B (zh) 用于生成及使用定位参考数据的方法及系统
US9330320B2 (en) Object detection apparatus, object detection method, object detection program and device control system for moveable apparatus
JP5188452B2 (ja) 道路形状認識装置
WO2018016394A1 (ja) 走路境界推定装置及びそれを用いた走行支援システム
JP5822255B2 (ja) 対象物識別装置及びプログラム
JP4205825B2 (ja) 対象物認識装置
JP4363295B2 (ja) ステレオ画像による平面推定方法
JP2012225806A (ja) 道路勾配推定装置及びプログラム
EP3070430B1 (en) Moving body position estimation device and moving body position estimation method
JP2011128844A (ja) 路面形状認識装置
JP6687039B2 (ja) 物体検出装置、機器制御システム、撮像装置、物体検出方法、及びプログラム
US9832444B2 (en) Three-dimensional object detection device
US9830519B2 (en) Three-dimensional object detection device
EP3324359B1 (en) Image processing device and image processing method
JP4102885B2 (ja) 駐車車両検知方法及び駐車車両検知システム
US20150016681A1 (en) Three-dimensional object detection device
Janda et al. Road boundary detection for run-off road prevention based on the fusion of video and radar
JP2007011994A (ja) 道路認識装置
JP2012150595A (ja) 一時停止線検出装置及びプログラム
JP5903901B2 (ja) 車両位置算出装置
CN114842166A (zh) 应用于结构化道路的负障碍检测方法、系统、介质及设备
Nedevschi et al. Stereovision-based sensor for intersection assistance

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150217

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151005

R150 Certificate of patent or registration of utility model

Ref document number: 5820774

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250