JP2013186551A - 移動物体位置姿勢推定装置及び方法 - Google Patents

移動物体位置姿勢推定装置及び方法 Download PDF

Info

Publication number
JP2013186551A
JP2013186551A JP2012049376A JP2012049376A JP2013186551A JP 2013186551 A JP2013186551 A JP 2013186551A JP 2012049376 A JP2012049376 A JP 2012049376A JP 2012049376 A JP2012049376 A JP 2012049376A JP 2013186551 A JP2013186551 A JP 2013186551A
Authority
JP
Japan
Prior art keywords
virtual
moving object
image
candidate point
parallel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012049376A
Other languages
English (en)
Other versions
JP5867176B2 (ja
Inventor
Ichiro Yamaguchi
一郎 山口
Naoki Kojo
直樹 古城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2012049376A priority Critical patent/JP5867176B2/ja
Publication of JP2013186551A publication Critical patent/JP2013186551A/ja
Application granted granted Critical
Publication of JP5867176B2 publication Critical patent/JP5867176B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】高い精度で移動物体の位置及び姿勢角を推定できる移動物体位置姿勢推定装置及び方法を提供する。
【解決手段】仮想位置及び仮想姿勢角が設定された候補点を複数含む候補点群を設定し(S3)、候補点ごとに三次元地図データを仮想位置及び仮想姿勢角から撮像した画像に変換し(S4)、撮像画像と仮想画像との一致度に基づいて、実際の移動物体の姿勢角及び位置を推定し(S5、S6)、複数の候補点を再設定する(S7)。互いに平行する構造物に沿った平行画素群が複数存在し(S8)、撮像画像と仮想画像との一致度が高い平行画素群と、撮像画像と仮想画像との一致度が低い平行画素群とがある場合(S11)、一致度が低い平行画素群から一致度の高い平行画素群に向かう方向に、候補点群を移動させる(S12)。
【選択図】図2

Description

本発明は、移動物体の位置を推定する移動物体位置姿勢推定装置及び方法に関する。
従来より、パーティクルフィルタを用いて移動体の位置と姿勢角を算出する技術として、下記の特許文献1に記載されたものが知られている。特許文献1に記載された移動体の位置推定方法は、移動体に備えられたエンコーダの測定値を積分して得られた移動体の位置と姿勢角が、レーザセンサによる周囲の障害物やランドマークの観測結果をもとにパーティクルフィルタを用いて算出された移動体の位置と姿勢角からどれだけ補正されたのか算出し、この補正量に応じてパーティクルを散布させる範囲と数を動的に設定している。
特開2010−224755号公報
しかしながら、移動物体の挙動が急激に変化すると、パーティクルを散布する範囲から移動物体がずれてしまう場面が考えられる。例えば、移動物体が自動車である場合、タイヤのスリップ等によって挙動が急変することが考えられる。この状況では、自車両Vの位置及び姿勢角が正確に算出できない可能性がある。
そこで、本発明は、上述した実情に鑑みて提案されたものであり、高い精度で移動物体の位置及び姿勢角を推定できる移動物体位置姿勢推定装置及び方法を提供することを目的とする。
本発明は、仮想位置及び仮想姿勢角が設定された候補点を複数含む候補点群を設定し、候補点ごとに三次元地図データを仮想位置及び仮想姿勢角から撮像した画像に変換し、撮像画像と仮想画像との一致度に基づいて、実際の移動物体の姿勢角及び位置を推定し、複数の候補点を再設定する。このような本発明は、互いに平行する構造物に沿った平行画素群が複数存在し、撮像画像と仮想画像との一致度が高い平行画素群と、撮像画像と仮想画像との一致度が低い平行画素群とがある場合、一致度が低い平行画素群から一致度の高い平行画素群に向かう方向に、候補点群を移動させる。
本発明によれば、一致度が低い平行画素群から一致度の高い平行画素群に向かう方向に候補点群を移動させるので、喩え移動物体の挙動が急変して候補点群が移動物体の位置及び姿勢角からずれても、候補点群を修正して、高い精度で移動物体の位置及び姿勢角を推定できる。
本発明の実施形態として示す移動物体位置姿勢推定装置の構成を示すブロック図である。 本発明の実施形態として示す位置姿勢推定アルゴリズムの手順を示すフローチャートである。 パーティクルの散布範囲を示す図であり、(a)は自車両の位置及び姿勢角の真値がパーティクルの散布範囲に含まれている様子であり、(b)は自車両の位置及び姿勢角の真値がパーティクルの散布範囲に含まれていない様子である。 (a)は自車両が左車線を走行しており自車両の位置がパーティクルの散布範囲に含まれている様子を示し、(b)は(a)の状況における撮像画像と投影画像とを重ねた状態を示す。 自車両の位置及び姿勢角の真値がパーティクルの散布範囲に含まれていない様子を示す図である。 (a)は自車両が左車線を走行しており自車両の位置がパーティクルの散布範囲に含まれていない様子を示し、(b)は(a)の状況における撮像画像と投影画像とを重ねた状態を示す。
以下、本発明の実施の形態について図面を参照して説明する。
本発明の実施形態として示す移動物体位置姿勢推定装置は、例えば図1に示すように構成される。この移動物体位置姿勢推定装置は、ECU1、カメラ(撮像手段)2、3次元地図データベース3、及び、車両センサ群4を含む。車両センサ群4は、GPS受信機41、アクセルセンサ42、ステアリングセンサ43、ブレーキセンサ44、車速センサ45、加速度センサ46、車輪速センサ47、及び、ヨーレートセンサ等のその他センサ48を含む。なお、ECU1は、実際にはROM、RAM、演算回路等にて構成されている。ECU1がROMに格納された移動物体位置姿勢推定用のプログラムに従って処理をすることによって、後述する機能(仮想画像取得手段、移動物体位置姿勢推定手段、候補点再設定手段、候補点群移動手段)を実現する。
カメラ2は、例えばCCD等の固体撮像素子を用いたものである。カメラ2は、例えば車両のフロント部分に設置され、車両前方を撮像可能な方向に設置される。カメラ2は、所定時間毎に周辺を撮像して撮像画像を取得し、ECU1に供給する。
3次元地図データベース3は、例えば路面表示を含む周囲環境のエッジ等の三次元位置情報が記憶されている。各地図情報は、エッジの集合体で定義される。エッジが長い直線の場合には、例えば1m毎に区切られるため、極端に長いエッジは存在しない。直線の場合には、各エッジは、直線の両端点を示す3次元位置情報を持っている。曲線の場合には、各エッジは、曲線の両端点と中央点を示す3次元位置情報を持っている。
特に、3次元地図データベース3には、白線、停止線、横断歩道、路面マーク等の道路標示の他に、道路端を示す縁石や中央分離帯などの段差や、建物等の構造物のエッジ情報も含まれる。3次元地図データベース3は、地図情報のうち互いに略平行となる構造物を表すエッジ情報(平行画素群)の組合せを記憶しておく。なお、この略平行となる構造物の組合せは、カメラ2の画角や画素数から撮影できる範囲を求め、道路の走行車線上からこの範囲内にあるエッジ情報の組合せのみを記憶しておくとなお良い。
本実施形態において、略平行の構造物とは、当該構造物のエッジ同士の姿勢角の差が3軸(ロール,ピッチ,ヨー)共に1[deg]以下のものを指す。また、特にその長さが長い、区画線や道路端を表す縁石等については、その長さを10[m]で区切って平行であるか否かを判別し、組合せを記憶しておく。
また、3次元地図データベース3には、互いに平行する構造物が道路標示であってもよい。この道路標示は、道路上に描かれた区画線、停止線、ゼブラゾーン、横断歩道が挙げられる。3次元地図データベース3は、互いに平行となる道路標示の組み合わせを記憶しておく。
更に、3次元地図データベース3は、道路端を示す略平行に設置された縁石や中央分離帯の段差のエッジ情報(平行画素群)の組合せを記憶しておくことが望ましい。
車両センサ群4は、ECU1に接続される。車両センサ群4は、各センサ41〜48により検出した各種のセンサ値をECU1に供給する。ECU1は、車両センサ群4の出力値を用いることで、車両の概位置の算出、単位時間に車両が進んだ移動量を示すオドメトリを算出する。
ECU1は、カメラ2により撮像された撮像画像と3次元地図データベース3に記憶された3次元位置情報とを用いて自車両の位置及び姿勢角の推定を行う電子制御ユニットである。なお、ECU1は、他の制御に用いるECUと兼用しても良い。
以下、この移動物体位置姿勢推定装置の動作について、図2の位置姿勢推定アルゴリズムを参照して説明する。なお、本実施形態は、車両の6自由度の位置(前後方向,横方向,上下方向)及び姿勢角(ロール,ピッチ,ヨー)を推定するものとする。また、この図2の位置姿勢推定アルゴリズムは、ECU1によって、例えば100msec程度の間隔で連続的に行われる。
先ずステップS1において、ECU1は、カメラ2により撮像された映像を取得し、当該映像に含まれる撮像画像から、エッジ画像を算出する。本実施形態におけるエッジとは、画素の輝度が鋭敏に変化している箇所を指す。エッジ検出方法としては、例えばCanny法を用いることができる。これに限らず、エッジ検出手法は、他にも微分エッジ検出など様々な手法を使用してもよい。
また、ECU1は、カメラ2の撮像画像から、エッジの輝度変化の方向やエッジ近辺のカラーなど抽出することが望ましい。これにより、後述するステップS5及びステップS6において、3次元地図データベース3にも記録しておいた、これらエッジ以外の情報も用いて尤度を設定して、自車両の位置及び姿勢角を推定してもよい。
次のステップS2において、ECU1は、車両センサ群4から得られるセンサ値から、1ループ前の位置姿勢推定アルゴリズムのステップS2にて算出した時からの車両の移動量であるオドメトリを算出する(挙動検出手段)。なお、位置姿勢推定アルゴリズムを開始して最初のループの場合は、オドメトリをゼロとして算出する。
このとき、ECU1は、車両センサ群4から得られる各種センサ値を用いて、車両が単位時間に進んだ移動量であるオドメトリを算出する。このオドメトリ算出方法としては、例えば、車両運動を平面上に限定した上で、各車輪の車輪速とヨーレートセンサから、単位時間での移動量と回転量を算出すれば良い。また、ECU1は、車輪速を車速やGPS受信機41の測位値の差分で代用してもよく、ヨーレートセンサを操舵角で代用してもよい。なお、オドメトリの算出方法は、様々な算出手法が考えられるが、オドメトリが算出できればどの手法を用いても良い。
次のステップS3において、ECU1は、1ループ前に生成された複数のパーティクルの位置及び姿勢角を、ステップS2にて算出したオドメトリだけ移動させる。例えば、図3(a)に示すように、ECU1は、自車両Vの位置がV1からV2まで移動するオドメトリが算出された場合、パーティクルP10〜P15をパーティクルP20〜P25に移動させる。
この複数のパーティクルは、それぞれが、自車両Vの仮想(予測)位置及び仮想(予測)姿勢角を表す。ECU1は、移動させた車両位置の近傍で、複数のパーティクルを算出する。ただし、位置姿勢推定アルゴリズムを開始して初めてのループの場合には、ECU1は前回の車両位置情報を持っていない。このため、ECU1は、車両センサ群4に含まれるGPS受信機41からのデータを初期位置情報とする。又は、ECU1は、前回に停車時に最後に算出した車両位置及び姿勢角を記憶しておき、初期位置及び姿勢角情報にしてもよい。
このステップS3において、ECU1は、車両センサ群4の測定誤差や通信遅れによって生じるオドメトリの誤差や、オドメトリで考慮できない自車両Vの動特性を考慮に入れ、自車両Vの位置や姿勢角の真値が取り得る可能性があるパーティクルを複数個生成する。このパーティクルは、位置及び姿勢角の6自由度のパラメータに対してそれぞれ誤差の上下限を設定し、この誤差の上下限の範囲内で乱数表等を用いてランダムに設定する。
なお、本実施形態では、仮想位置及び仮想姿勢角の候補を500個作成する。また、位置及び姿勢角の6自由度のパラメータに対する誤差の上下限は、前後方向,横方向,上下方向、ロール,ピッチ,ヨーの順に±0.05[m],±0.05[m],±0.05[m],±0.5[deg] ,±0.5[deg],±0.5[deg]とする。このパーティクルを作成する数や、位置及び姿勢角の6自由度のパラメータに対する誤差の上下限は、自車両Vの運転状態や路面の状況を検出或いは推定して、適宜変更することが望ましい。例えば、急旋回やスリップなどが発生している場合には、平面方向(前後方向,横方向,ヨー)の誤差が大きくなる可能性が高いので、この3つのパラメータの誤差の上下限を大きくし、且つパーティクルの作成数を増やすことが望ましい。
次のステップS4において、ECU1は、ステップS3で作成した複数のパーティクルのそれぞれについて仮想(投影)画像を作成する。このとき、ECU1は、例えば3次元地図データベース3に記憶されたエッジ等の三次元位置情報を、パーティクルに設定された仮想位置及び仮想姿勢角から撮像したカメラ画像となるよう投影変換して、仮想画像を作成する。この仮想画像は、後述のステップS5において各パーティクルが実際の自車両の位置及び姿勢角と合致しているかを評価する評価用画像である。投影変換では、カメラ2の位置を示す外部パラメータと、カメラ2の内部パラメータが必要となる。外部パラメータは、車両位置(例えば中心位置)からカメラ2までの相対位置を予め計測しておくことで、仮想位置及び仮想姿勢角の候補から算出すればよい。また内部パラメータは、予めキャリブレーションをしておけばよい。
なお、ステップS1においてカメラ2により撮像した撮像画像からエッジの輝度変化の方向や、エッジ近辺のカラーなどについてもカメラ画像から抽出できる場合には、それらについても三次元位置情報を3次元地図データベース3に記録しておき、仮想画像を作成するとなお良い。
ステップS5において、ECU1は、ステップS3で設定した複数のパーティクルそれぞれにおいて、ステップS1で作成したエッジ画像と、ステップS4で作成した仮想画像とを比較する。ECU1は、比較した結果に基づいて、各パーティクルについて、尤度LIKE(単位:なし)を設定する。この尤度LIKEとは、それぞれのパーティクルに設定された仮想位置及び仮想姿勢角が、どれぐらい実際の自車両Vの位置及び姿勢角に対して尤もらしいかを示す指標である。ECU1は、仮想画像とエッジ画像との一致度が高いほど、尤度LIKEが高くなるように設定する。
具体的には、仮想画像上のエッジが存在する画素座標位置に、エッジ画像上のエッジが存在しており、仮想画像内の画素とエッジ画像上のエッジとが一致する場合には、このパーティクルの尤度LIKEに1を加算する。ECU1は、仮想画像に含まれる全画素(評価点)について尤度LIKEに1を加算するか否かを判定する。この判定処理を仮想画像の全画素について行って得られた総和(一致した評価点の数)が、パーティクルの尤度LIKEとなる。なお、尤度LIKEの算出方法は、その他の方法であってもよく、本実施形態は上記の算出方法に限定するものではない。ECU1は、すべてのパーティクルについて尤度LIKEを算出した後に、全結果を用いて尤度LIKEの合計値が1になるよう尤度LIKEを正規化し、ステップS6に処理を進める。
次のステップS6において、ECU1は、ステップS5にて尤度LIKEが求められた複数のパーティクルを用いて、最終的な自車両の位置及び姿勢角を算出する。ECU1は、パーティクルの度LIKEに基づいて当該パーティクルの仮想姿勢角に対する実際の自車両Vの姿勢角を推定する(移動物体位置姿勢推定手段)。ECU1は、パーティクルの尤度LIKEに基づいて当該パーティクルの仮想位置に対する実際の自車両Vの位置を推定する(移動物体位置姿勢推定手段)。
このとき、ECU1は、例えば、尤度LIKEが最も高いパーティクルを用いて、当該パーティクルの仮想位置及び仮想姿勢角を、自車両Vの実際の位置及び姿勢角として算出してもよい。又は、ECU1は、複数のパーティクルに対して、複数のパーティクルの尤度LIKEの重み付き平均を取って自車両Vの実際の位置及び姿勢角を算出してもよい。
ECU1は、以上のようなステップS1乃至ステップS6を繰り返して行うことによって、逐次、自車両Vの位置と姿勢角を算出できる。
次のステップS7において、ECU1は、各パーティクルのリサンプリングを、尤度LIKEに基づいて行う。すなわち、複数のパーティクル(候補点)についての複数の仮想画像の一致度(尤度LIKE)に基づいて、複数のパーティクルを再設定する(候補点再設定手段)。
具体的には、ECU1は、総パーティクル数の500個に各パーティクルの尤度LIKEを乗じた値から小数点以下を切り捨てた値から、1を引いた値だけ、各パーティクルの複製を作成する。すなわち、尤度LIKEの高いパーティクルについては多数のパーティクルの複製を作成し、尤度LIKEの低いパーティクルについては少ないパーティクルの複製しか作成しない又はパーティクルを消滅させる。なお、小数点以下を切り捨てて、各パーティクルの複製を行っているため、パーティクルの総数が図2の位置姿勢推定アルゴリズムを繰り返すたびに減ってしまう。このため、ECU1は、総パーティクル数が500個に満たない場合は、ステップS6において算出した仮想位置及び仮想姿勢角が設定されたパーティクルを追加して総パーティクル数が500個になるようにする。
また、ステップS7において、ECU1は、既存技術(例えば特開2010−224755の技術)を用いてリサンプリングを行ってもよい。この場合、ECU1は、レーザセンサによる周囲の障害物やランドマークの観測結果に基づいてパーティクルフィルタを用いて算出した移動体の位置と姿勢角を、ステップS6において算出した自車両Vの位置及び姿勢角に置き換えて、パーティクルをリサンプリングすればよい。すなわち、移動体に備えられたエンコーダの測定値を積分して得られた移動体の位置及び姿勢角が、ステップS6において算出した自車両Vの位置及び姿勢角によってどれだけ補正されたのか算出する。この補正量に応じて、ECU1は、パーティクルをリサンプリングさせる範囲と数を動的に設定する。
次のステップS8において、ECU1は、3次元地図データベース3を参照して、ステップS6において算出した自車両Vの位置及び姿勢角から、カメラ2の撮像範囲内に略平行に存在するエッジの組合せが含まれているか否かを判定する。すなわち、撮像画像内に互いに平行する構造物に沿った平行画素群が複数存在するか否かを判定する。撮像範囲内に略平行に存在するエッジの組合せが含まれている場合にはステップS9に処理を進め、含まれていない場合には処理を終了する。例えば図4(b)に示すように、区画線についてのエッジが複数存在する場合、ECU1は、撮像範囲内に略平行に存在するエッジの組合せが含まれていると判定する。
次のステップS9において、ECU1は、ステップS6にて算出した自車両Vの位置及び姿勢角から撮像した投影画像を作成する。なお、ECU1は、ステップS4と同じ処理を行う。
次のステップS10において、ECU1は、撮像画像内に略平行に存在するエッジ(平行画素群)の全てについて、ステップS1で作成したエッジ画像と、ステップS9で作成した投影画像との一致度を算出する。具体的には、3次元地図データベース3において略平行に存在する投影画像の平行画素群と、エッジ画像に含まれる平行画素群とを対比し、どの程度の割合で、双方の平行画素群が一致するかを算出する。これにより、ECU1は、ステップS8において存在すると判定された平行画素群ごとに、投影画像と一致した割合(一致割合)LIKE_Pを算出する。なお、この割合LIKE_Pの最大値は1となる。例えば図4(b)に示すように、4本の区画線L1〜L4についてのエッジのそれぞれと、4本の区画線L1〜L4に対応した投影画像内の平行画素群P1〜P4とが一致する割合LIKE_Pを算出する。
次のステップS11において、ECU1は、略平行に存在する平行画素群のうち、一致割合LIKE_Pが他の平行画素群の一致割合LIKE_Pと比して低い平行画素群があるか否かを判定する。具体的には、複数の平行画素群のうち、例えば最も高い一致割合LIKE_Pの30%以下の一致割合LIKE_Pしかない平行画素群がある場合、一致割合LIKE_Pが低い平行画素群があるものと判定する。また、ステップS1で作成したエッジ画像にノイズがある場合を考慮して、過去に求めた一致割合LIKE_Pとの加重平均を用いた値と、ステップS10にて算出した一致割合LIKE_Pとを比較してもよい。他と比して低い一致割合LIKE_Pの平行画素群がある場合にはステップS12に処理を進め、無い場合には処理を終了する。
例えば図6(a)に示すように、撮像画像内の区画線L1〜L4の平行画素群に対して、
投影画像の投影点群P1err〜P4errが位置している場合には、ステップS11の判定は「NO」となる。
一方、図6(b)に示すように、撮像画像内の区画線L1〜L4の平行画素群に対して、投影画像内に区画線L1〜L4に対応しない投影点群P1errが位置している場合ある。この場合、区画線L1〜L3と投影点群P2err〜P4errとの一致割合LIKE_Pは高くなるが、投影点群P1errはエッジ画像に対して低い一致割合LIKE_Pとなる。したがって、ECU1は、図6(b)のような場面では、ステップS11の判定が「YES」となる。
ステップS11において、ECU1は、一致割合LIKE_Pが低い平行画素群と自車両Vとの間に障害物があるかを検出し(障害物検出手段)、障害物がある場合には、処理を終了することが望ましい。これにより、ステップS12の複数のパーティクルを移動させることを禁止する。
このとき、ECU1は、ステップS11にて撮像されたカメラ2の撮影画像を用いて、モーションステレオ法などを用いて、他の車両や自動二輪車などの障害物の位置を算出する。ECU1は、算出した障害物の位置が、自車両Vと、一致割合LIKE_Pの低い平行画素群との間であるかを判定する。障害物が自車両Vと一致割合LIKE_Pの低い平行画素群との間にある場合、障害物によって平行画素群の一致割合LIKE_Pが低くなったものとして、位置姿勢推定アルゴリズムを終了する。
なお、例えばレーザレンジファインダを搭載した自車両Vであれば、これを用いて障害物を検出してもよい。又は、障害物の大きさや形状も検出して、この一致割合LIKE_Pが低い平行画素群がこの障害物によってどの程度見えにくくなっているか判断し、この障害物によって一致割合LIKE_Pが低くなっているか判断することが望ましい。
次のステップS12において、ECU1は、一致割合LIKE_Pの低い平行画素群から一致割合LIKE_Pの高い平行画素群に向かう方向に、複数のパーティクルを移動させる(候補点群移動手段)。すなわち、ECU1は、複数のパーティクルの存在分布位置を、一致割合LIKE_Pが低い平行画素群から一致割合LIKE_Pが高い平行画素群に向かう方向に移動させる。
具体的には、ステップS7においてリサンプリングした各パーティクルを、ステップS11で一致割合LIKE_Pが低いと判断された平行画素群と略平行に存在し、且つ、当該平行画素群に最も近い位置にあって一致割合LIKE_Pが低くない平行画素群の方向に、全パーティクルを移動させる。
例えば、ECU1は、一致割合LIKE_Pが高いと判断された平行画素群の方向に、例えば0.5mだけ平行移動させる。例えば図6(b)に示すように、各パーティクルの存在分布位置を、一致割合LIKE_Pの低い平行画素群P1errから一致割合LIKE_Pの高い平行画素群P2errに向かう方向に移動させる。
上記のように所定距離ずつ複数のパーティクルを移動させる場合、位置姿勢推定アルゴリズムを1回実行しても、自車両Vの位置及び姿勢角の真値がパーティクルの散布範囲に含まれない可能性がある。しかし、図2の位置姿勢推定アルゴリズムを繰り返し実行することによって、複数のパーティクルの散布範囲が自車両Vの位置及び姿勢角の真値に近づく。複数回に亘って位置姿勢推定アルゴリズムを繰り返すと、複数のパーティクルの散布範囲が、自車両Vの位置及び姿勢角の真値に含まれる。これによって、ECU1は、自車両Vの位置及び姿勢角の真値が推定できる状態になる。
ここで、平行画素群の組合せの中に、一致割合LIKE_Pの低い平行画素群が複数あった場合、当該低い一致割合LIKE_Pの平行画素群のうち最も一致割合LIKE_Pが低い平行画素群を選択する。そして、選択した平行画素群から最も近い位置にある一致割合LIKE_Pが低くない平行画素群の方向に移動させる。
また、平行画素群の組合せが複数あり、一致割合LIKE_Pの低い平行画素群がある場合、所定の優先順位に従ってパーティクルの散布範囲を移動させてもよい。例えば、道路端を示す段差を表す平行画素群の組合せ、区画線を表す平行画素群の組合せ、その他の平行画素群の組合せといった優先順位を設定しておく。ECU1は、優先順位の最も高い平行画素群の組み合わせを選択して、一致割合LIKE_Pの低い平行画素群から一致割合LIKE_Pの高い平行画素群へパーティクルの散布範囲を移動させる。
一方で、パーティクルの散布範囲を複数の方向に移動させてもよい。互いに略直行して存在する平行画素群の組合せがある場合、例えば停止線を表す複数の平行画素群と、区画線を表す複数の平行画素群がある場合、当該複数の平行画素群同士は略直行する位置関係となる。この場合、ECU1は、それぞれの平行画素群の組み合わせに基づいて判定された方向に、パーティクルの散布範囲を移動させることができる。
ECU1は、ステップS12にてパーティクルの散布範囲を移動させる距離を演算することが望ましい。
ECU1は、一致割合LIKE_Pが低い平行画素群から最も近い位置に存在する一致割合LIKE_Pの高い平行画素群までの距離だけ、パーティクルの散布範囲を移動させてもよい。すなわい、各パーティクルを移動させる距離を、一致割合LIKE_Pが低いと判断された平行画素群と略平行に存在し、且つ最も近い位置にある一致割合LIKE_Pが低くない平行画素群と、一致割合LIKE_Pが低い平行画素群との距離だけ移動させる。この距離は、例えば3次元地図データベース3に含まれる投影画像に含まれた投影点の位置情報を参照することによって演算することができる。
ECU1は、自車両Vの挙動の履歴に基づいてパーティクルの散布範囲を移動させる方向及び距離を推定してもよい。このために、ECU1は、一致割合LIKE_Pが低い平行画素群がないと判断された時点が、位置姿勢推定アルゴリズムを何回繰り返す前までだったのかを記憶しておく。最後に一致割合LIKE_Pが低い平行画素群がないと判断された時から現在までの間に、想定される通信遅れや車両センサ群4の測定精度からオドメトリに積算されると想定される誤差を求めて、パーティクルの散布範囲を移動させる距離を推定する。また、この時、自車両Vの各車輪がスリップやロックしていたことを検出していた場合には、パーティクルの散布範囲の移動距離を更に長めに設定するとなお良い。
以上詳細に説明したように、本実施形態として示した移動物体位置姿勢推定装置によれば、互いに平行する構造物に沿った平行画素群が複数存在し、一致割合LIKE_Pの低い平行画素群と一致割合LIKE_Pの高い平行画素群がある場合に、一致割合LIKE_Pの低い平行画素群から一致割合LIKE_Pの高い平行画素群に向かう方向にパーティクルの散布範囲を移動できる。したがって、この移動物体位置姿勢推定装置によれば、自車両Vの挙動が急変して例えば図6(a)、(b)のようにパーティクルの散布範囲が実際の自車両Vからずれても、パーティクルの散布範囲を修正して、図4(a)、(b)のような状態に復帰することができる。これにより、移動物体位置姿勢推定装置によれば、高い精度で移動物体の位置及び姿勢角を推定できる。
道路環境によってはタイヤのスリップ等で車両挙動が急変して、喩え自車両Vの位置や姿勢角がパーティクルの散布範囲から外れてしまった場合でも、平行に存在するランドマークのうちの一部はカメラ2で認識できている可能性が高い。投影画像と撮像画像とを比較して自車両Vの位置と姿勢角を算出するECU1は、当該算出処理を利用して、パーティクルの散布範囲を移動させることができる。
本実施形態によって奏する効果を具体的に説明する。
通常状態で直進走行している場合、図3(a)のように自車両位置がV1からV2に変化すると、自車両位置がV1の近傍で散布されていた複数のパーティクルP10〜P15は、自車両位置V2を略中心とした範囲PにパーティクルP20〜P25を散布できる。この状態では、車両のオドメトリ等によって自車両の挙動が予測できるため、自車両の位置及び姿勢角の真値がパーティクルの散布範囲Pに含まれている。なお、図3(a)は、パーティクルフィルタにおける、予測ステップを模式的に表している(確率ロボティクス・第4章3節((著)Sebastian Thrun/Wolfram Burgard/Dieter Fox,(訳)上田隆一,(発行)(株)毎日コミュニケーションズ))。
しかし、自車両の挙動が急変して、図3(b)のような自車両位置V2となった場合には、自車両位置V2に対して誤った範囲PerrにパーティクルP20〜P25を散布してしまう。このような状態になる理由は、自車両の挙動が予測できないことによる。この状態では、自車両の位置及び姿勢角の真値がパーティクルの散布範囲Perrに含まれなくなってしまう。したがって、この状態では、パーティクルフィルタによる車両の位置や姿勢角の推定が困難になるという問題がある。
例えば図4(a)に示すように、区画線L1〜L4によって区分された片側3車線を含む道路を自車両Vが走行している場面では、自車両Vの位置がパーティクルの散布範囲Pに含まれる。この状況においては、カメラ映像から区画線を抽出して、道路の区画線の3次元位置が記録された三次元地図と一致するように自車両Vの位置と姿勢角を算出する。このとき、図4(b)に示すように、仮想画像内の仮想点群P1〜P4は、撮像画像内の区画線L1〜L4に沿ったものである。
しかし、自車両Vの急激な挙動変化によって、例えば図5のように自車両Vの位置とは異なる位置にパーティクルの散布範囲Perrが設定されたとする。この場合には、図6(a)に示すように、実際の自車両Vの位置とは異なるパーティクルの散布範囲Perr内に自車両位置Verrが存在すると判断される。この状態で撮像画像と仮想画像とを比較して自車両Vの位置及び姿勢角を算出しようとすると、自車両Vの前方向に左車線が存在し右側に中央車線、右車線が存在する撮像画像に対して、仮想画像は、自車両Vの前方向に中央車線が存在し左側に左車線、右側に右車線が存在するものとなってしまう。すなわち、仮想画像は、図6(b)に示すように、実際の撮像画像とは誤っている段差G及び区画線L1〜L3上に仮想点群P1err〜P4errが現れる。この状態では、仮想画像内の仮想点群P2err〜P4errは高い一致度で撮像画像と一致するが、仮想画像内の仮想点群P1errは撮像画像とは一致しないという所謂局所解となってしまう。この状況では、自車両Vの位置及び姿勢角が正確に算出できない可能性がある。しかし、本実施形態の移動物体位置姿勢位置姿勢推定装置は、一致割合LIKE_Pの低い平行画素群から一致割合LIKE_Pの高い平行画素群に向かう方向にパーティクルの散布範囲を移動できる。したがって、この移動物体位置姿勢推定装置によれば、自車両Vの挙動が急変して例えば図6(a)、(b)のようにパーティクルの散布範囲が実際の自車両Vからずれても、パーティクルの散布範囲を修正して、図4(a)、(b)のような状態に復帰することができる。これにより、移動物体位置姿勢推定装置によれば、高い精度で移動物体の位置及び姿勢角を推定できる。
また、この移動物体位置姿勢推定装置によれば、一致割合LIKE_Pが低い平行画素群から最も近い位置に存在する一致割合LIKE_Pの高い平行画素群までの距離だけ、パーティクルの散布範囲を移動させることができる。例えば図6(b)のような場合には、一致割合LIKE_Pが低い平行画素群P1errを、一致割合LIKE_Pが高い平行画素群P2errまでの距離だけ移動させることができる。移動物体位置姿勢推定装置は、移動距離を適切にすることができるので、より速やかに自車両Vの位置及び姿勢角の真値がパーティクルの散布領域に含まれるようにできる。
なお、例えば図4乃至図6のようなシーンにおいてパーティクルの散布範囲が1車線ではなく、2車線ずれるような場合が考えられる。このような場合でも、上記のように移動距離を演算することによって、位置姿勢推定アルゴリズムを1回適用する毎に、自車両Vの位置及び姿勢角の真値が含まれる方向に、パーティクルの散布範囲を1車線ずつ近づけていくことができる。従って、位置姿勢推定アルゴリズムを2回行えば、自車両Vの位置及び姿勢角の真値がパーティクルの散布範囲に含まれるようにできる。
更にまた、この移動物体位置姿勢推定装置は、自車両Vの挙動を検出し、自車両Vの挙動の履歴に基づいてパーティクルの散布範囲を移動させる方向及び距離を推定できる。例えば車速やヨーレート等の車両挙動の過去の履歴から、パーティクルの散布範囲を移動させる距離を算出できる。これにより、移動物体位置姿勢推定装置によれば、より速やかに自車両Vの位置及び姿勢角の真値がパーティクルの散布範囲に含まれるようにできる。
更にまた、この移動物体位置姿勢推定装置によれば、互いに平行する構造物として三次元地図データに含まれた道路標示とし、道路標示に沿って設定されたパーティクルの散布範囲を移動させることができる。また、この移動物体位置姿勢推定装置によれば、互いに平行する構造物として三次元地図データに含まれた道路標示とし、道路標示に沿って設定されたパーティクルの散布範囲を移動させることができる。ここで、道路環境上に存在する平行なランドマークは多々存在するが、その全てについて演算を行うと演算負荷が高くなってしまう。そこで、平行に存在するランドマークとして、多くの道路環境に存在する道路標示又は道路端の段差の何れか、又は、両方のみについて位置姿勢推定アルゴリズムを行う。これにより、この移動物体位置姿勢推定装置によれば、演算負荷が過大とならず多くの道路環境において位置姿勢推定アルゴリズムを実施できる。
更にまた、この移動物体位置姿勢推定装置によれば、一致割合LIKE_Pが低い平行画素群と自車両Vとの間に障害物が検出された場合に、パーティクルの散布範囲を移動させることを禁止する。これにより、この移動物体位置姿勢推定装置によれば、障害物によって平行に存在するランドマークの組合せの一部で一致割合LIKE_Pが低下していることを識別して、誤ってパーティクルの散布範囲を間違った方向に移動させないようにできる。
なお、上述の実施の形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施の形態以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。
上述した実施形態では車両の6自由度の位置(前後方向,横方向,上下方向)及び姿勢角(ロール,ピッチ,ヨー)を求めているが、これに限らない。例えば、サスペンション等を有さない、工場などで用いられる無人搬送車などのように3自由度での位置(前後方向,横方向)及び姿勢角(ヨー)を推定する場合にも、本実施形態が適用可能である。具体的には、このような車両であれば、上下方向の位置と、ロールおよびピッチといった姿勢角は固定であるので、予めこれらのパラメータを計測しておいたり、3次元地図データベース3を参照して求めるようにすればよい。
1 ECU
2 カメラ
3 3次元地図データベース
4 車両センサ群
41 GPS受信機
42 アクセルセンサ
43 ステアリングセンサ
44 ブレーキセンサ
45 車速センサ
46 加速度センサ
47 車輪速センサ
48 他センサ

Claims (7)

  1. 移動物体の位置及び姿勢角を推定する移動物体位置姿勢推定装置であって、
    前記移動物体周辺を撮像して、撮像画像を取得する撮像手段と、
    仮想位置及び仮想姿勢角が設定された候補点を複数含む候補点群を設定し、前記候補点ごとに三次元地図データを仮想位置及び仮想姿勢角から撮像した画像に変換して仮想画像を取得する仮想画像取得手段と、
    前記撮像手段により取得された撮像画像と前記仮想画像取得手段により取得された仮想画像とを比較して、前記撮像画像と前記仮想画像との一致度に基づいて、当該仮想画像の仮想姿勢角に対する実際の移動物体の姿勢角を推定すると共に、当該仮想画像の仮想位置に対する実際の移動物体の位置を推定する移動物体位置姿勢推定手段と、
    複数の仮想画像の一致度に基づいて、前記複数の候補点を再設定する候補点再設定手段と、
    前記撮像画像内に互いに平行する構造物に沿った平行画素群が複数存在し、前記撮像画像と前記仮想画像との一致度が高い平行画素群と、前記撮像画像と前記仮想画像との一致度が低い平行画素群とがある場合、前記一致度が低い平行画素群から前記一致度の高い平行画素群に向かう方向に、前記候補点群を移動させる候補点群移動手段と
    を備えることを特徴とする移動物体位置姿勢推定装置。
  2. 前記候補点群移動手段は、前記一致度が低い平行画素群から最も近い位置に存在する前記一致度の高い平行画素群までの距離だけ、前記候補点群を移動させることを特徴とする請求項1に記載の移動物体位置姿勢推定装置。
  3. 移動物体の挙動を検出する挙動検出手段を更に備え、
    前記候補点群移動手段は、移動物体の挙動の履歴に基づいて前記候補点群を移動させる方向及び距離を推定することを特徴とする請求項2に記載の移動物体位置姿勢推定装置。
  4. 互いに平行する構造物が、前記三次元地図データに含まれた道路標示であり、
    前記候補点群移動手段は、前記道路標示に沿って設定された候補点群を移動させること
    を特徴とする請求項1乃至請求項3の何れか一項に記載の移動物体位置姿勢推定装置。
  5. 互いに平行する構造物が、前記三次元地図データに含まれた道路端を示す略平行に設置された段差であり、
    前記候補点群移動手段は、前記段差に沿って設定された候補点群を移動させること
    を特徴とする請求項1乃至請求項3の何れか一項に記載の移動物体位置姿勢推定装置。
  6. 移動物体周辺の障害物を検出する障害物検出手段を更に備え、
    前記候補点群移動手段は、前記障害物検出手段により前記一致度が低い平行画素群と移動物体との間に障害物が検出された場合に、前記候補点群を移動させることを禁止することを特徴とする請求項1乃至請求項5の何れか一項に記載の移動物体位置姿勢推定装置。
  7. 移動物体の位置及び姿勢角を推定する移動物体位置姿勢推定方法であって、
    仮想位置及び仮想姿勢角が設定された候補点を複数含む候補点群を設定するステップと、
    移動物体周辺を撮像した撮像画像と前記候補点ごとに三次元地図データを仮想位置及び仮想姿勢角から撮像した画像に変換仮想画像とを比較するステップと、
    前記撮像画像と前記仮想画像との一致度に基づいて、当該仮想画像の仮想姿勢角に対する実際の移動物体の姿勢角を推定すると共に、当該仮想画像の仮想位置に対する実際の移動物体の位置を推定するステップと、
    複数の仮想画像の一致度に基づいて、前記複数の候補点を再設定するステップと、
    前記撮像画像内に互いに平行する構造物に沿った平行画素群が複数存在し、前記撮像画像と前記仮想画像との一致度が高い平行画素群と、前記撮像画像と前記仮想画像との一致度が低い平行画素群とがある場合、前記一致度が低い平行画素群から前記一致度の高い平行画素群に向かう方向に、前記候補点群を移動させるステップと
    を有することを特徴とする移動物体位置姿勢角推定方法。
JP2012049376A 2012-03-06 2012-03-06 移動物体位置姿勢推定装置及び方法 Active JP5867176B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012049376A JP5867176B2 (ja) 2012-03-06 2012-03-06 移動物体位置姿勢推定装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012049376A JP5867176B2 (ja) 2012-03-06 2012-03-06 移動物体位置姿勢推定装置及び方法

Publications (2)

Publication Number Publication Date
JP2013186551A true JP2013186551A (ja) 2013-09-19
JP5867176B2 JP5867176B2 (ja) 2016-02-24

Family

ID=49387954

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012049376A Active JP5867176B2 (ja) 2012-03-06 2012-03-06 移動物体位置姿勢推定装置及び方法

Country Status (1)

Country Link
JP (1) JP5867176B2 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015087149A (ja) * 2013-10-29 2015-05-07 日産自動車株式会社 移動体位置姿勢角推定装置及び移動体位置姿勢角推定方法
WO2015072217A1 (ja) * 2013-11-13 2015-05-21 日産自動車株式会社 移動体位置推定装置および移動体位置推定方法
JP2015225450A (ja) * 2014-05-27 2015-12-14 村田機械株式会社 自律走行車、及び自律走行車における物体認識方法
JP2015228215A (ja) * 2014-05-21 2015-12-17 エアバス グループ エスエイエスAirbus Group Sas 位置情報処理方法
JP2017102861A (ja) * 2015-12-04 2017-06-08 トヨタ自動車株式会社 物体認識装置
KR20170063002A (ko) * 2015-11-30 2017-06-08 현대엠엔소프트 주식회사 Las 데이터를 이용한 도로 지문 데이터 구축 시스템 및 그 방법
JP2017181476A (ja) * 2016-03-31 2017-10-05 株式会社デンソーアイティーラボラトリ 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
JP2018116014A (ja) * 2017-01-20 2018-07-26 パイオニア株式会社 自車位置推定装置、制御方法、プログラム及び記憶媒体
JP2019500602A (ja) * 2015-12-15 2019-01-10 本田技研工業株式会社 画像ベースの車両位置特定のためのシステム及び方法
JP2019070640A (ja) * 2017-10-05 2019-05-09 富士ゼロックス株式会社 パーティクルフィルタを使用した位置特定のために、事前分布としてグラフベースのマップ情報を利用するシステム及び方法、コンピュータ実施方法、プログラム、及びシステム
JP2019519041A (ja) * 2016-06-07 2019-07-04 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh 逆走ドライバを検出するための方法、装置、およびシステム
JP2019168428A (ja) * 2018-03-26 2019-10-03 康二 蓮井 移動距離測定装置、移動距離測定方法、及び移動距離測定プログラム
KR20190134303A (ko) * 2018-05-25 2019-12-04 (주)에이다스원 영상 인식 장치 및 그 방법
JP2021033791A (ja) * 2019-08-27 2021-03-01 日立オートモティブシステムズ株式会社 演算装置
RU2769918C1 (ru) * 2021-05-18 2022-04-08 Общество с ограниченной ответственностью "ЭвоКарго" Способ позиционирования наземного транспортного средства
WO2023173076A1 (en) * 2022-03-11 2023-09-14 Argo AI, LLC End-to-end systems and methods for streaming 3d detection and forecasting from lidar point clouds

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008126401A (ja) * 2006-11-16 2008-06-05 Samsung Electronics Co Ltd パーティクルフィルター基盤の移動ロボットの姿勢推定方法、装置及び媒体
JP2008185417A (ja) * 2007-01-29 2008-08-14 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2011128020A (ja) * 2009-12-17 2011-06-30 Fujitsu Ltd 移動体位置推定装置及び移動体位置推定方法
JP2011215055A (ja) * 2010-03-31 2011-10-27 Aisin Aw Co Ltd 風景画像認識を用いた自車位置検出システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008126401A (ja) * 2006-11-16 2008-06-05 Samsung Electronics Co Ltd パーティクルフィルター基盤の移動ロボットの姿勢推定方法、装置及び媒体
JP2008185417A (ja) * 2007-01-29 2008-08-14 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2011128020A (ja) * 2009-12-17 2011-06-30 Fujitsu Ltd 移動体位置推定装置及び移動体位置推定方法
JP2011215055A (ja) * 2010-03-31 2011-10-27 Aisin Aw Co Ltd 風景画像認識を用いた自車位置検出システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6015048503; 鈴木 太郎、外2名: '"移動ロボットのための屋外三次元地図構築とその活用"' 計測と制御 Vol.49, No.9, 20100910, pp.640-644, 社団法人計測自動制御学会 *

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015087149A (ja) * 2013-10-29 2015-05-07 日産自動車株式会社 移動体位置姿勢角推定装置及び移動体位置姿勢角推定方法
JPWO2015072217A1 (ja) * 2013-11-13 2017-03-16 日産自動車株式会社 移動体位置推定装置および移動体位置推定方法
WO2015072217A1 (ja) * 2013-11-13 2015-05-21 日産自動車株式会社 移動体位置推定装置および移動体位置推定方法
CN105723180B (zh) * 2013-11-13 2017-08-15 日产自动车株式会社 移动体位置估计装置以及移动体位置估计方法
CN105723180A (zh) * 2013-11-13 2016-06-29 日产自动车株式会社 移动体位置估计装置以及移动体位置估计方法
US9424649B1 (en) 2013-11-13 2016-08-23 Nissan Motor Co., Ltd. Moving body position estimation device and moving body position estimation method
EP3070430A4 (en) * 2013-11-13 2017-01-11 Nissan Motor Co., Ltd. Moving body position estimation device and moving body position estimation method
JP2015228215A (ja) * 2014-05-21 2015-12-17 エアバス グループ エスエイエスAirbus Group Sas 位置情報処理方法
JP2015225450A (ja) * 2014-05-27 2015-12-14 村田機械株式会社 自律走行車、及び自律走行車における物体認識方法
KR20170063002A (ko) * 2015-11-30 2017-06-08 현대엠엔소프트 주식회사 Las 데이터를 이용한 도로 지문 데이터 구축 시스템 및 그 방법
KR102441100B1 (ko) * 2015-11-30 2022-09-06 현대오토에버 주식회사 Las 데이터를 이용한 도로 지문 데이터 구축 시스템 및 그 방법
JP2017102861A (ja) * 2015-12-04 2017-06-08 トヨタ自動車株式会社 物体認識装置
JP2019500602A (ja) * 2015-12-15 2019-01-10 本田技研工業株式会社 画像ベースの車両位置特定のためのシステム及び方法
JP2017181476A (ja) * 2016-03-31 2017-10-05 株式会社デンソーアイティーラボラトリ 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
JP2019519041A (ja) * 2016-06-07 2019-07-04 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh 逆走ドライバを検出するための方法、装置、およびシステム
JP2018116014A (ja) * 2017-01-20 2018-07-26 パイオニア株式会社 自車位置推定装置、制御方法、プログラム及び記憶媒体
JP2019070640A (ja) * 2017-10-05 2019-05-09 富士ゼロックス株式会社 パーティクルフィルタを使用した位置特定のために、事前分布としてグラフベースのマップ情報を利用するシステム及び方法、コンピュータ実施方法、プログラム、及びシステム
JP7238305B2 (ja) 2017-10-05 2023-03-14 富士フイルムビジネスイノベーション株式会社 パーティクルフィルタを使用した位置特定のために、事前分布としてグラフベースのマップ情報を利用するシステム及び方法、コンピュータ実施方法、プログラム、及びシステム
JP2019168428A (ja) * 2018-03-26 2019-10-03 康二 蓮井 移動距離測定装置、移動距離測定方法、及び移動距離測定プログラム
KR20190134303A (ko) * 2018-05-25 2019-12-04 (주)에이다스원 영상 인식 장치 및 그 방법
KR102163774B1 (ko) * 2018-05-25 2020-10-08 (주)에이다스원 영상 인식 장치 및 그 방법
JP2021033791A (ja) * 2019-08-27 2021-03-01 日立オートモティブシステムズ株式会社 演算装置
JP7254664B2 (ja) 2019-08-27 2023-04-10 日立Astemo株式会社 演算装置
RU2769918C1 (ru) * 2021-05-18 2022-04-08 Общество с ограниченной ответственностью "ЭвоКарго" Способ позиционирования наземного транспортного средства
WO2022245245A1 (ru) * 2021-05-18 2022-11-24 Общество с ограниченной ответственностью "ЭвоКарго" Способ позиционирования наземного транспортного средства
WO2023173076A1 (en) * 2022-03-11 2023-09-14 Argo AI, LLC End-to-end systems and methods for streaming 3d detection and forecasting from lidar point clouds

Also Published As

Publication number Publication date
JP5867176B2 (ja) 2016-02-24

Similar Documents

Publication Publication Date Title
JP5867176B2 (ja) 移動物体位置姿勢推定装置及び方法
CN107798699B (zh) 用立体图像进行深度图估计
JP5804185B2 (ja) 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法
EP3082066B1 (en) Road surface gradient detection device
JP5966747B2 (ja) 車両走行制御装置及びその方法
JPWO2019098353A1 (ja) 車両位置推定装置および車両制御装置
WO2017009923A1 (ja) 自己位置推定装置及び自己位置推定方法
JP6020729B2 (ja) 車両位置姿勢角推定装置及び車両位置姿勢角推定方法
EP3343173A1 (en) Vehicle position estimation device, vehicle position estimation method
CN111263960B (zh) 用于更新高清晰度地图的设备和方法
JP6936098B2 (ja) 対象物推定装置
JPWO2019031137A1 (ja) 路側物検出装置、路側物検出方法及び路側物検出システム
JP2015087149A (ja) 移動体位置姿勢角推定装置及び移動体位置姿勢角推定方法
JP6044084B2 (ja) 移動物体位置姿勢推定装置及び方法
US20200193184A1 (en) Image processing device and image processing method
JP6115429B2 (ja) 自車位置認識装置
JP3925285B2 (ja) 走行路環境検出装置
JP2015067030A (ja) 運転支援装置
US10783350B2 (en) Method and device for controlling a driver assistance system by using a stereo camera system including a first and a second camera
WO2020100902A1 (ja) 白線位置推定装置及び白線位置推定方法
JP5891802B2 (ja) 車両位置算出装置
JP5903901B2 (ja) 車両位置算出装置
JP5760523B2 (ja) 走路推定装置及びプログラム
JP2015069288A (ja) 自車位置認識装置
KR20220153802A (ko) 캘리브레이션 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151221

R151 Written notification of patent or utility model registration

Ref document number: 5867176

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151