JP5460413B2 - 自車位置認識装置 - Google Patents
自車位置認識装置 Download PDFInfo
- Publication number
- JP5460413B2 JP5460413B2 JP2010073080A JP2010073080A JP5460413B2 JP 5460413 B2 JP5460413 B2 JP 5460413B2 JP 2010073080 A JP2010073080 A JP 2010073080A JP 2010073080 A JP2010073080 A JP 2010073080A JP 5460413 B2 JP5460413 B2 JP 5460413B2
- Authority
- JP
- Japan
- Prior art keywords
- map
- obstacle
- host vehicle
- vehicle
- blind spot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Description
この発明は、記憶手段に記憶された障害物の形状および位置を示す障害物マップに含まれる障害物と、外界検出手段により検出された自車両周囲の障害物とを照合することにより自車両の位置を認識する技術に関する。
従来、自車両にGPS(Global Positioning System)の受信機を搭載することにより、この受信機により受信されたGPS測位情報に基づいて走行中の自車両の位置が算出されるが、GPSの測位状況によっては位置の算出誤差が数m〜100m以上となる。
そこで、自車両の位置をより正確に認識するために、GPSの測位情報を用いた自車両の位置情報だけでなく、自車両に搭載された車速センサや測距レーダ等の自律センサの情報に基づいてGPSに基づく自車両の位置を補正したり、所謂、自律センサの情報等に基づくマップマッチングを行って認識される自車両の位置を補正したりするなどの対策が講じられている。
例えば、記憶手段に記憶された障害物の形状および位置を示す障害物マップと、自車両に搭載された、例えばレーザレーダに代表される外界検出手段により検出された外界情報とを照合することによるマップマッチングを行うことにより、前記障害物マップにおける自車両の位置が認識される(例えば、特許文献1参照)。すなわち、記憶手段には予め障害物の情報が入力された障害物マップが記憶されており、レーザレーダにより検出された自車両周囲の障害物が、障害物マップに含まれるどの障害物に対応するのかが照合され、照合された障害物に対する自車両の相対位置および相対方向により障害物マップにおける自車両の位置が認識される。
上記特許文献1に記載の認識では、障害物の大部分が外界検出手段の死角に存在すると、外界検出手段により得られる障害物の形状および位置等に関する情報量が少なく、外界検出手段により検出された障害物と前記障害物マップに含まれる障害物との照合を行えないおそれがあり自車両位置の認識率の低下を招来する。
また、外界検出手段により得られる障害物の形状および位置等に関する情報量が少ないと、前記障害物マップに含まれる障害物と外界検出手段により検出された障害物との照合の結果、外界検出手段に検出された障害物が、前記障害物マップに含まれる複数の障害物のうち、本来、照合されるべき障害物とは異なる障害物と照合されて自車両位置の誤認識が生じるおそれもある。
本発明は、上記課題に鑑みてなされたものであり、記憶手段に記憶された障害物マップに含まれる障害物と外界検出手段により検出された障害物とを照合することによる自車両位置の認識率の向上を図り、より正確に自車両位置を認識することができる技術を提供することを目的とする。
上記した目的を達成するために、本発明の自車位置認識装置は、障害物の形状および位置を示す障害物マップを記憶する記憶手段と、自車両周囲の前記障害物の検出可能領域における形状および前記自車両との相対位置を検出する外界検出手段とを備え、前記障害物マップに含まれる前記障害物と前記外界検出手段により検出された前記障害物とを照合することにより前記自車両の位置を認識する自車位置認識装置において、前記障害物マップ内の任意位置に前記自車両が位置する場合に、前記障害物マップに基づいて得られる前記外界検出手段により検出されるはずの前記障害物の形状および位置のマップデータに、前記任意位置に前記自車両が位置する場合の前記障害物マップに基づいた前記外界検出手段の死角である死角領域のマップデータを付与して第1死角領域付与マップを生成する第1生成手段と、前記外界検出手段により実際に検出された前記障害物の形状および相対位置のマップデータに、前記障害物が検出された際の前記外界検出手段の前記死角領域のマップデータを付与して第2死角領域付与マップを生成する第2生成手段と、前記第1死角領域付与マップと前記第2死角領域付与マップとの照合を行う照合手段とを備えることを特徴としている(請求項1)。
このとき、請求項1に記載の自車位置認識装置において、前記第1生成手段は、前記自車両の移動状態に基づいて現在の前記自車両位置を推定し、前記自車両位置に基づいて前記障害物マップ内の任意位置を絞り込んで前記第1死角領域付与マップを生成するとよい(請求項2)。
請求項1の発明によれば、自車両周囲の障害物の検出可能領域における形状および自車両との相対位置を検出する外界検出手段を備えており、記憶手段に記憶された障害物の形状および位置を示す障害物マップに含まれる障害物と、外界検出手段により検出された障害物とを照合することにより自車両の位置が認識される。
このとき、障害物マップ内の任意位置に自車両が位置する場合に、障害物マップに基づいて得られる外界検出手段により検出されるはずの障害物の形状および位置のマップデータに、前記任意位置に自車両が位置する場合の障害物マップに基づいた外界検出手段の死角である死角領域のマップデータを付与した第1死角領域付与マップが第1生成手段により生成される。
そして、外界検出手段により実際に検出された障害物の形状および相対位置のマップデータに、障害物が検出された際の外界検出手段の死角領域のマップデータを付与した第2死角領域付与マップが第2生成手段により生成されて、第1死角領域付与マップと第2死角領域付与マップとの照合が照合手段により行われる。
したがって、外界検出手段により検出された障害物の形状および自車両との相対位置のマップデータに外界検出手段の死角領域のマップデータが付与されて生成された第1死角領域付与マップおよび第2死角領域付与マップに基づいて照合手段による照合が行われるため、例えば障害物の大部分が外界検出手段の死角に存在する場合に、照合手段による照合に使用されるデータ量が従来と比較して多く、さらに、第1死角領域付与マップおよび第2死角領域付与マップに含まれる照合対象の形状が死角領域の形状が付与されることにより明りょうとなるため、両マップどうしの照合を確実に行うことができ、前記障害物マップに含まれる障害物と外界検出手段により検出された障害物とを照合することによる自車両位置の認識率の向上を図ることができる。
また、第1死角領域付与マップおよび第2死角領域付与マップに含まれる照合対象の形状が明りょうとなっているため、外界検出手段により検出された障害物が、前記障害物マップに含まれる障害物のうち、本来、照合されるべき障害物とは異なる障害物と照合されることによる自車両位置の誤認識が防止されて、より正確に自車両位置を認識することができる。
請求項2の発明によれば、第1生成手段は、自車両の移動状態に基づいて現在の自車両位置を推定し、推定した自車両位置に基づいて障害物マップ内の任意位置を絞り込むことにより、障害物マップ内の任意位置を実際の自車両位置に近い位置に設定して第1死角領域付与マップを生成することができるため、両マップどうしの照合をより一層確実に行うことができる。
本発明の一実施形態について、図1〜図7を参照して説明する。
図1は本発明の自車位置認識装置2の一実施形態のブロック図である。図2は障害物マップMを説明するための図であって、(a)は自車両1に搭載されたレーザレーダ5による障害物検出の一例を示し、(b)はレーザレーダ5による実際の障害物の検出パターン20a〜22aを示し、(c)は(b)に示す検出パターン20a〜22aが重ね合わされることによる障害物マップMを示す。図3はレーザレーダ5の死角領域BAが付与された照合用マップcMの一例を示す図である。図4はレーザレーダ5の死角領域BAが付与された検出マップdMの一例を示す図である。図5は障害物マップ内における任意位置Pの設定方法の一例を示す図であって、(a)は位置認識が開始されたときの自車両1の初期位置を示し、(b)は自車両1の初期位置が認識された後に推定される自車両1の移動位置を示す。図6は障害物マップ生成処理を示すフローチャートである。図7は自車位置認識処理を示すフローチャートである。
図1に示す自車両1は自車位置認識装置2と、自車位置認識装置2により認識された自車両1の位置に基づいて種々の運転支援を行う運転支援部3とを備えている。この実施形態では、自車位置認識装置2により認識された自車両1の位置に基づいて、例えば数10km/hの速度で所定の駐車場へ自車両1が自動的に駐車される運転支援部3による運転支援を例に挙げて説明する。以下、自車位置認識装置2が備える種々の機能について説明する。
走行環境認識部4(本発明の「外界検出手段」に相当)は、図2(a)に示すように、例えば自車両前方の探査範囲SR(検出可能領域)を探査する前方認識用測距レーダとしてのレーザレーダ5の測距データを収集してフレームごとに平面上にプロットすることにより、自車両1を基準にした自車両1周囲の各障害物20〜22の検出可能領域における形状および自車両1との相対位置をレーザレーダ5の走査フレームごとに検出する。図2(b)に示す例では、各障害物20〜22のレーザレーダ5の検出可能領域における形状および自車両1との相対位置が、各検出パターン20a〜22aとしてそれぞれ検出されている。
車両移動量算出部8は、GPS受信部6により受信した自車両位置のGPSの測位情報、CAN(Controller Area Network)通信部7により受信した速度センサ、加速度センサ、舵角センサ、ヨーレートセンサ等の自車両内の走行に関連する各種自律センサの検出情報、レーザレーダ5による反射の検出パターンの形状変化などの情報を収集して管理される自車両1の車両情報に基づいて、各時刻における自車両1の移動量を算出する。
そして、走行環境認識部4は、例えば、自車両1が各障害物20〜22の周辺を走行する際に時々刻々と、例えば100msごとのレーザレーダ5の走査フレームにおいて取得される各フレームの各検出パターン20a〜22aを、車両移動量算出部8により算出される各フレームにおいて各検出パターン20a〜22aが取得されたときの自車両1の移動量に基づいて位置合わせして重ね合わせることにより、各障害物20〜22それぞれの形状および位置を示すマップデータ30〜32を含む障害物マップMを生成する(図2(c)参照)。
記憶部9(本発明の「記憶手段」に相当)は、フラッシュメモリ等の書き換え自在の固体情報記憶素子やHDDなどの記憶媒体により形成され、走行環境認識部4により生成された障害物マップMを書き換え自在に記憶する。なお、この実施形態における障害物マップMは、自車両1が駐車される所定の駐車場周辺の障害物の形状および位置を示すマップデータを含んで生成されている。また、図2(c)は障害物マップMの一部を示すものであって、例えば、自車両1のおよその位置を認識することができるGPS測位情報の最大誤差を考慮して、所定の駐車場を中心にして数100m四方の障害物マップMが記憶部9に記憶される。
自車位置方向推定部10は、記憶部9に記憶された障害物マップMに含まれる障害物20〜22のマップデータ30〜32と、走行環境認識部4により認識された各障害物20〜22の検出パターン20a〜22aとを照合することにより、レーザレーダ5により検出された自車両1周囲の障害物20〜22が、障害物マップMに含まれるどの障害物20〜22のマップデータ30〜32に対応するのかを照合し、照合した障害物20〜22に対する実際の自車両1の相対位置および相対方向に基づいて、障害物マップMに含まれる各マップデータ30〜32に対する自車両1の位置を推定することにより、障害物マップMにおける自車両1の現在位置を認識するものであって、以下の機能を備えている。
a)第1生成手段
図3に示すように、障害物マップM内の任意位置Pに自車両1が位置すると仮定したときに、障害物マップMに含まれるマップデータ30〜32に基づいて得られる走行環境認識部4により認識されるはずの検出可能領域における障害物20〜22の形状および任意位置に対する相対位置を示すマップデータ30a〜32aを算出する。そして、障害物マップM内の任意位置Pに自車両1が同図中矢印方向を向いて位置すると仮定した場合に、障害物マップMに含まれるマップデータ30〜32に基づいて算出されるレーザレーダ5の死角である死角領域BAのマップデータを、前記マップデータ30a〜32aに付与して照合用マップcM(本発明の「第1死角領域付与マップ」に相当)を生成する。
図3に示すように、障害物マップM内の任意位置Pに自車両1が位置すると仮定したときに、障害物マップMに含まれるマップデータ30〜32に基づいて得られる走行環境認識部4により認識されるはずの検出可能領域における障害物20〜22の形状および任意位置に対する相対位置を示すマップデータ30a〜32aを算出する。そして、障害物マップM内の任意位置Pに自車両1が同図中矢印方向を向いて位置すると仮定した場合に、障害物マップMに含まれるマップデータ30〜32に基づいて算出されるレーザレーダ5の死角である死角領域BAのマップデータを、前記マップデータ30a〜32aに付与して照合用マップcM(本発明の「第1死角領域付与マップ」に相当)を生成する。
b)第2生成手段
図4に示すように、自車両1が図2(a)に示す位置に存在する場合に、走行環境認識部4により実際に検出された障害物20〜22の形状および自車両1との相対位置を示す検出パターン20a〜22aに基づくマップデータに(図2(b)参照)、障害物20〜22が検出された際のレーザレーダ5の死角である死角領域BAのマップデータを付与して検出マップdM(本発明の「第2死角領域付与マップ」に相当)を生成する。
図4に示すように、自車両1が図2(a)に示す位置に存在する場合に、走行環境認識部4により実際に検出された障害物20〜22の形状および自車両1との相対位置を示す検出パターン20a〜22aに基づくマップデータに(図2(b)参照)、障害物20〜22が検出された際のレーザレーダ5の死角である死角領域BAのマップデータを付与して検出マップdM(本発明の「第2死角領域付与マップ」に相当)を生成する。
c)照合手段
照合用マップcMに含まれた死角領域BAを含めた障害物20〜22のマップデータ30a〜32aの形状および方向と、検出マップdMに含まれた死角領域BAを含めた障害物20〜22の検出パターン20a〜22aの形状および方向とのパターン認識による照合を行う。
照合用マップcMに含まれた死角領域BAを含めた障害物20〜22のマップデータ30a〜32aの形状および方向と、検出マップdMに含まれた死角領域BAを含めた障害物20〜22の検出パターン20a〜22aの形状および方向とのパターン認識による照合を行う。
そして、自車位置方向推定部10は、照合手段による照合の結果、照合用マップcMおよび検出マップdMそれぞれに含まれる障害物20〜22のマップデータ30a〜32aおよび検出パターン20a〜22aに死角領域BAを付与することにより新たに形成された照合対象どうしの形状および方向が一致すれば、照合用マップcMを形成する際に設定された障害物マップM内の任意位置Pを自車両1の位置として推定し、障害物マップM内における自車両1の位置を数cm〜数10cmの誤差で認識する。
探索エリア選定部11は、図5(a),(b)に示すように、例えば、所定のフレームにおける走行環境認識部4による障害物40〜42の認識結果に基づく自車位置方向推定部10による自車両1の位置推定が行われる際に、1つ前のフレームにおける走行環境認識部4による障害物40〜42の検出結果に基づいて自車位置方向推定部10により推定された自車両1の位置(図5(a)参照)と、車両移動量算出部8により算出された自車両1の移動量とに基づいて、自車位置方向推定部10の第1生成手段により設定される障害物マップM内の任意位置Pの範囲aPを選定する。
すなわち、所定のフレームにおいて自車位置方向推定部10により推定された図5(a)に示す自車両1の位置から、自車両1が次のフレームまでに並進方向に(Δx,Δy)移動し、その際の舵角がΔθであったと車両移動量算出部8により算出された場合に、図5(b)に示すように、自車両1の進行方向をΔθ回転すると共に、並進移動距離(Δx,Δy,+α)を半径とした半円内の範囲aPに自車両1が存在すると推定し、探索エリア選定部11は次のフレームにおける自車位置認識において自車位置方向推定部10の第1生成手段により設定される障害物マップM内の任意位置Pの範囲aPを選定する。このとき、自車両1の加速度が大きければ、自車両1の移動量が大きいと推定して”α”の値を大きくし、加速度が小さければ、自車両1の移動量が小さいと推定して”α”の値を小さくするとよい。
そして、自車位置方向推定部10の第1生成手段は、自車両1の移動状態に基づいて探索エリア選定部11により選定された範囲aPにより自車両1の位置を推定し、障害物マップM内に設定する任意位置Pの範囲を範囲aPに絞り込んで照合用マップcMを生成する。
なお、この実施形態では、自車位置方向推定部10による自車両1の位置および進行方向の推定が最初に行われる際は、障害物マップM内に任意位置Pが設定され、自車両1が障害物マップM内の任意位置Pにおいて所定方向を向いていると仮定されて、第1生成手段による照合用マップcMが生成され、生成された照合用マップcMと実際に検出された検出マップdMとが照合される。照合の結果、照合用マップcMに含まれる障害物および検出マップdMに含まれる障害物の自車両1に対する相対位置および方向が一致しなければ、任意位置Pにおける自車両1の向きがいずれか一方の回転方向に1°ずらされ、または、任意位置Pが隣接する位置に移動されて、新たな第1生成手段による照合用マップcMが生成され、新たに生成された照合用マップcMと実際に検出された検出マップdMとが照合される。
これが、照合用マップcMに含まれる障害物および検出マップdMに含まれる障害物の自車両1に対する相対位置および方向が一致するまで繰返され、検出マップdMに含まれる障害物の自車両1に対する相対位置および方向と、任意位置Pに対する相対位置および方向とが一致する障害物を含む照合用マップcMが生成されたときの任意位置Pが自車両1の位置と推定され、当該照合用マップcMが生成されたときに仮定された自車両1の向きが自車両1の向きと推定されて、障害物マップMにおける自車両1の位置および進行方向が認識される。
そして、一度、自車両1の位置が認識されれば、次のフレームにおいて自車位置方向推定部10による自車両1の位置および進行方向の推定が行われる際には、前回認識された自車両1の位置および進行方向ならびに車両移動量算出部8による自車両1の移動量に基づいて探索エリア選定部11により選定された範囲aP内に順次任意位置Pが設定されて第1生成手段による照合用マップcMが生成され、自車両1の位置および進行方向が認識されるまで、生成された照合用マップcMと検出マップdMとの照合が順次行われることにより自車両1の位置および進行方向の推定が行われる。
運転支援部3は、自車位置認識装置2により高精度に認識された自車両1の位置および進行方向に基づいて、自車両1を自動的に所定の駐車場に駐車するなどの運転支援を行う。
そして、走行環境認識部4、車両移動量算出部8、自車位置方向推定部10、探索エリア選定部11、運転支援部3は、マイクロコンピュータのソフトウェア処理によって形成される。
次に、自車両1に搭載される自車位置認識装置2による処理の一例について図6および図7を参照して説明する。
図6は障害物マップ生成処理を示し、例えば、ドライバにより所定の操作が行われると、走行環境認識部4により障害物20〜22の認識が行われて(ステップS1)、自車両1が走行中に検出された各フレームにおける障害物20〜22の検出パターン20a〜22aが、車両移動量算出部8により算出された自車両1の移動量に基づいて位置合わせしながら重ね合わされて障害物マップMが生成され、生成された障害物マップMが記憶部9に記憶される(ステップS2)。
図7は自車位置認識処理を示し、例えば、ドライバにより所定の操作が行われると、レーザレーダ5の各フレームにおける障害物検出の度に実行される。まず、GPS受信部6によるGPS測位データに基づいて自車両1のおおよその位置が推定されて(ステップS11)、記憶部9に記憶された障害物マップMから、マップ照合による自車両1の位置認識に用いられる範囲、例えば、推定された自車両1を中心とする数10m四方の範囲が指定される(ステップS12)。
次に、走行環境認識部4により自車両1周囲の障害物が検出されて(ステップS13)、検出された障害物に基づいて上記したように生成された検出マップdMと、上記したように生成された照合用マップcMとが照合されることによる自車両1の位置の認識が、自車両1が認識されるまで新たな照合用マップcMが繰返し生成されることにより実行される(ステップS14、ステップS15でNO)。そして、自車両1の障害物マップMにおける位置および進行方向が認識されれば処理を終了する(ステップS15でYES)。
以上のように、この実施形態によれば、記憶部9に記憶された障害物20〜22の形状および位置を示す障害物マップMに含まれる障害物20〜22のマップデータ30〜32と、走行環境認識部4により認識された障害物20〜22とを照合することにより自車両の位置が認識される。
このとき、障害物マップM内の任意位置Pに自車両1が位置する場合に、障害物マップMに含まれるマップデータ30〜32に基づいて得られる走行環境認識部4により検出されるはずの障害物20〜22の形状および任意位置Pに対する相対位置を示すマップデータ30a〜32aに、任意位置Pに自車両1が位置する場合の障害物マップMに含まれるマップデータ30〜32に基づいたレーザレーダ5の死角である死角領域BAのマップデータを付与した照合用マップcMが第1生成手段により生成される。
そして、走行環境認識部4により実際に検出された障害物20〜22の形状および自車両1との相対位置を示す検出パターン20a〜22aのマップデータに、障害物20〜22が検出された際のレーザレーダ5の死角である死角領域BAのマップデータを付与した検出マップdMが第2生成手段により生成されて、死角領域BAが付与された照合用マップcMに含まれる障害物20〜22のマップデータ30a〜32aと、死角領域BAが付与された検出マップdMに含まれる障害物20〜22の検出パターン20a〜22aとの照合が照合手段により行われる。
したがって、走行環境認識部4により実際に認識された障害物20〜22の形状および自車両1との相対位置を示す検出パターン20a〜22aにレーザレーダ5の死角領域BAのマップデータが付与されて生成された検出マップと、走行環境認識部4により認識されると推定される障害物20〜22のマップデータ30a〜32aに死角領域BAが付与されて生成された照合用マップcMとに基づいて照合手段による照合が行われるため、例えば障害物20〜22の大部分がレーザレーダ5の死角に存在する場合に、照合手段による照合に使用されるデータ量が従来と比較して多く、さらに、照合用マップcMおよび検出マップdMに含まれるそれぞれの照合対象の形状が死角領域BAの形状が付与されることにより明りょうとなるため、両マップcM,dMどうしの照合を確実に行うことができ、障害物マップMに含まれる障害物20〜22のマップデータ30〜32と走行環境認識部4により検出された障害物20〜22とを照合することによる自車両1の位置の認識率の向上を図ることができる。
また、照合用マップcMおよび検出マップdMに含まれるそれぞれの照合対象の形状が明りょうとなっているため、走行環境認識部4に認識された障害物20〜22が、障害物マップMに含まれる障害物20〜22のマップデータ30〜32のうち、本来、照合されるべき障害物20〜22のマップデータ30〜32とは異なるマップデータ30〜32と照合されることによる自車両1の位置の誤認識が防止されて、より正確に自車両1の位置を認識することができる。
また、自車位置方向推定部10の第1生成手段は、自車両1の移動状態に基づいて現在の自車両1の位置を推定することで探索エリア選定部11により選定された範囲aPに基づいて障害物マップM内の任意位置Pを絞り込むことにより、障害物マップM内の任意位置Pを実際の自車両1の位置に近い位置に設定して照合用マップcMを生成することができるため、両マップcM,dMどうしの照合をより一層確実に行うことができる。
また、自車両1の移動状態に基づいて現在の自車両1の位置を推定することで探索エリア選定部11により選定された範囲aPに基づいて障害物マップM内の任意位置Pを絞り込むことにより、自車両1を認識する際の計算量を削減することができる。
なお、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行なうことが可能であり、例えば、レーザレーダ5に代えて、ミリ波レーダや超音波レーダにより自車両1周囲の障害物20を検出してもよい。また、一般的な車載カメラにより自車両1周囲の障害物20を検出するようにしてもよい。
このとき、例えば、複数フレームの車載カメラによる2次元画像に基づいて周知の手法により形成された3次元マップを障害物マップMとして記憶部9に記憶しておき、障害物マップM内の任意の位置に自車両1が存在すると仮定したときの2次元カメラ画像を3次元マップから復元して照合用マップcMを生成し、生成された照合用マップcMと実際のカメラ画像による検出マップdMとを照合すればよい。
また、上記した実施形態では、車両移動量算出部8により算出される自車両1の移動量に基づいて検出パターン20a〜22aを位置合わせして重ね合わせることにより障害物マップMを生成したが、各検出パターン20a〜22aを取得するたびに、前回取得した検出パターン20a〜22aと新たに取得した検出パターン20a〜22aとの照合を自車位置方向推定部10により行うことで、自車両1の移動量をより正確に認識し、認識した自車両1の移動量に基づいて各検出パターン20a〜22aを位置合わせして重ね合わせることで障害物マップMを生成してもよい。また、自車両1が認識される際に使用された検出パターン20a〜22aを、自車両1の位置の認識後に、既に記憶部9に記憶されている障害物マップMにさらに重ね合わせてもよい。
また、上記した実施形態のレーザレーダ5と共に、単眼のフロントカメラまたはリアカメラ、後方レーザをそれぞれを設け、自車両1の前方や後方の障害物を、測距データや、測距データと撮影画像の画像処理とを組み合わせたセンサフュージョンの処理で認識するようにしてもよい。
また、自車位置認識装置2は図1の構成に限るものではないのは勿論である。
また、本発明は、自車位置認識を行う種々の車両に適用することができると共に、認識された自車両位置を車車間通信により他車両に通知する等して衝突回避による運転支援を行うなど、種々の運転支援に適用することができる。
1 自車両
2 自車位置認識装置
4 走行環境認識部(外界検出手段)
9 記憶部(記憶手段)
10 自車位置方向推定部(第1生成手段、第2生成手段、照合手段)
BA 死角領域
cM 照合用マップ(第1死角領域付与マップ)
dM 検出マップ(第2死角領域付与マップ)
M 障害物マップ
2 自車位置認識装置
4 走行環境認識部(外界検出手段)
9 記憶部(記憶手段)
10 自車位置方向推定部(第1生成手段、第2生成手段、照合手段)
BA 死角領域
cM 照合用マップ(第1死角領域付与マップ)
dM 検出マップ(第2死角領域付与マップ)
M 障害物マップ
Claims (2)
- 障害物の形状および位置を示す障害物マップを記憶する記憶手段と、
自車両周囲の前記障害物の検出可能領域における形状および前記自車両との相対位置を検出する外界検出手段とを備え、
前記障害物マップに含まれる前記障害物と前記外界検出手段により検出された前記障害物とを照合することにより前記自車両の位置を認識する自車位置認識装置において、
前記障害物マップ内の任意位置に前記自車両が位置する場合に、前記障害物マップに基づいて得られる前記外界検出手段により検出されるはずの前記障害物の形状および位置のマップデータに、前記任意位置に前記自車両が位置する場合の前記障害物マップに基づいた前記外界検出手段の死角である死角領域のマップデータを付与して第1死角領域付与マップを生成する第1生成手段と、
前記外界検出手段により実際に検出された前記障害物の形状および相対位置のマップデータに、前記障害物が検出された際の前記外界検出手段の前記死角領域のマップデータを付与して第2死角領域付与マップを生成する第2生成手段と、
前記第1死角領域付与マップと前記第2死角領域付与マップとの照合を行う照合手段と
を備えることを特徴とする自車位置認識装置。 - 請求項1に記載の自車位置認識装置において、
前記第1生成手段は、前記自車両の移動状態に基づいて現在の前記自車両位置を推定し、前記自車両位置に基づいて前記障害物マップ内の任意位置を絞り込んで前記第1死角領域付与マップを生成することを特徴とする自車位置認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010073080A JP5460413B2 (ja) | 2010-03-26 | 2010-03-26 | 自車位置認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010073080A JP5460413B2 (ja) | 2010-03-26 | 2010-03-26 | 自車位置認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011204149A JP2011204149A (ja) | 2011-10-13 |
JP5460413B2 true JP5460413B2 (ja) | 2014-04-02 |
Family
ID=44880703
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010073080A Expired - Fee Related JP5460413B2 (ja) | 2010-03-26 | 2010-03-26 | 自車位置認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5460413B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101679911B1 (ko) | 2014-07-15 | 2016-11-25 | 현대자동차주식회사 | 차량용 측위 장치 및 그 방법 |
JP7371357B2 (ja) * | 2019-06-07 | 2023-10-31 | マツダ株式会社 | 移動体外部環境認識装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3448946B2 (ja) * | 1994-03-11 | 2003-09-22 | 日産自動車株式会社 | 車両周囲モニタ装置 |
JP3848431B2 (ja) * | 1997-04-28 | 2006-11-22 | 本田技研工業株式会社 | 車両位置推定装置と車両位置推定方法、および、走行車線維持装置と走行車線維持方法 |
JP2007232690A (ja) * | 2006-03-03 | 2007-09-13 | Denso Corp | 現在地検出装置、地図表示装置、および現在地検出方法 |
JP4984659B2 (ja) * | 2006-06-05 | 2012-07-25 | 株式会社豊田中央研究所 | 自車両位置推定装置 |
JP2008250906A (ja) * | 2007-03-30 | 2008-10-16 | Sogo Keibi Hosho Co Ltd | 移動ロボット、自己位置補正方法および自己位置補正プログラム |
JP2011128899A (ja) * | 2009-12-17 | 2011-06-30 | Murata Machinery Ltd | 自律移動装置 |
-
2010
- 2010-03-26 JP JP2010073080A patent/JP5460413B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011204149A (ja) | 2011-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11136022B2 (en) | Road marker detection method | |
KR102420476B1 (ko) | 차량의 위치 추정 장치, 차량의 위치 추정 방법, 및 이러한 방법을 수행하도록 프로그램된 컴퓨터 프로그램을 저장하는 컴퓨터 판독가능한 기록매체 | |
US9470788B2 (en) | Lane recognition method and system | |
JP4420011B2 (ja) | 物体検知装置 | |
US9129523B2 (en) | Method and system for obstacle detection for vehicles using planar sensor data | |
US10846542B2 (en) | Systems and methods for augmentating upright object detection | |
US11143511B2 (en) | On-vehicle processing device | |
KR20180094055A (ko) | 주차 지원 방법 및 장치 | |
JP6450294B2 (ja) | 物体検出装置、物体検出方法、及びプログラム | |
RU2720501C1 (ru) | Способ определения помех, способ помощи при парковке, способ помощи при отъезде и устройство определения помех | |
US20140156178A1 (en) | Road marker recognition device and method | |
JP6520740B2 (ja) | 物体検出方法、物体検出装置、およびプログラム | |
US11161516B2 (en) | Vehicle control device | |
JP7067574B2 (ja) | 距離推定装置及び距離推定用コンピュータプログラム | |
WO2019065970A1 (ja) | 車両用外界認識装置 | |
JP2020087191A (ja) | 車線境界設定装置、車線境界設定方法 | |
JP2018048949A (ja) | 物体識別装置 | |
JP2002228734A (ja) | 周囲物体認識装置 | |
CN112776797A (zh) | 泊出原始车位创建方法、系统、车辆和存储介质 | |
KR20150112536A (ko) | 차량의 위치 보정 장치 및 방법과 이를 이용한 차량 위치 보정 시스템 및 무인 운행이 가능한 차량 | |
US10970870B2 (en) | Object detection apparatus | |
US20190094025A1 (en) | Apparatus and method for localising a vehicle | |
JP2012026888A (ja) | 自車位置認識装置 | |
JP2002334330A (ja) | 車両認識装置 | |
Park et al. | Vehicle localization using an AVM camera for an automated urban driving |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130321 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140114 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140114 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |