JP7298882B2 - 車両の自己位置推定装置、及び車両 - Google Patents
車両の自己位置推定装置、及び車両 Download PDFInfo
- Publication number
- JP7298882B2 JP7298882B2 JP2019111748A JP2019111748A JP7298882B2 JP 7298882 B2 JP7298882 B2 JP 7298882B2 JP 2019111748 A JP2019111748 A JP 2019111748A JP 2019111748 A JP2019111748 A JP 2019111748A JP 7298882 B2 JP7298882 B2 JP 7298882B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- unit
- probability
- self
- distribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Navigation (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
- Radar Systems Or Details Thereof (AREA)
Description
自己位置推定を行うための一般的な手法として、あらかじめ定義した地図(地図画像)を用いたマップマッチングがあり、その手法では主にLiDAR(Light Detection and Ranging)やカメラといったセンサが用いられる。
例えば、非特許文献1では、LiDARを用いたマップマッチング手法が開示されている。LiDARを用いた手法は、測定精度が高く、昼夜の変化や環境の変化に対して高いロバスト性を備えているため、デシメートルレベルの精度で車両の自己位置推定を行うことができる。
また、非特許文献2では、カメラで検出した道路面の特徴をベクトル地図(白線、道路標識、信号機等の位置を記録したデジタル地図)とマッチングすることで、車両の自己位置を、車両横方向で0.1m程度、車両前後方向で0.5m程度の精度で推定することが開示されている。
非特許文献3では、このような問題を解決するために、過去のフレームを使うことで、雨で濡れた道路や雪道においてLiDARの反射率が低減することを防ぐ手法が開示されている。しかし、この手法では、雪で完全に覆われている道路や、雪壁によって道路形状が変化する場所において、自己位置を精度よく推定することができない。
また、非特許文献5には、クラスタリングしたミリ波レーダーの観測情報を用いて地図生成を行い、さらにパーティクルフィルタを用いて自己位置推定を行う手法が開示されている。しかし、ミリ波レーダーによる観測点が疎らであることから、誤差が最大3mを超える推定精度であり、かつメートルレベルの精度でしか自己位置推定ができなかったと記載されている。
しかし、特許文献1の運転支援装置は、降雪時においても車両の自己位置を精度よく推定するものではない。また、先行車の走行軌跡を利用するものであるから、先行車が存在しない場合には、降雪等の影響によりカメラユニットで自車進行路の左右区画線が認識されない状況における自動運転が困難となる。
本実施の形態によれば、デッドレコニングにより推定した車両の位置をマッチングの結果に基づいて補正することで、自己位置推定の精度を向上させることができる。
本実施の形態によれば、積雪条件下においても精度よく自己位置を推定することができる。また、テンプレートマッチングを行うことにより、処理の高速化が可能となる。
本実施の形態によれば、相関の寄与度を低くし確率更新できるので、周辺物体情報取得センサ部による物体観測が疎らであっても精度よく自己位置を推定することができる。
本実施の形態によれば、相関の寄与度を低くし確率更新できるので、周辺物体情報取得センサ部による物体観測が疎らであっても精度よく自己位置を推定することができる。
本実施の形態によれば、道路脇に同じパターンの静的物体である柵やガードレール等が連続して存在する場合であっても精度よく自己位置を推定することができる。
本実施の形態によれば、不確実性に従って重み付けすることによって、不安定な状況における過度のオフセット更新を防ぎ、より精度よく自己位置を推定することができる。
本実施の形態によれば、自己位置をリアルタイムに精度よく推定し、安全かつ的確に目的地へ移動する自動運転車両を提供することができる。
図1は本実施例による車両の自己位置推定装置のブロック図である。
自己位置推定装置10は、GNSS(Global Navigation Satellite System)衛星及び慣性計測装置からのデータを取得するGNSS/IMUデータ取得部11と、車両の周辺に存在する物体の観測情報をリアルタイムに取得する周辺物体情報取得センサ部12と、GNSS/IMUデータ取得部11で取得したデータに基づいてデッドレコニングにより車両の位置を推定するDR部13と、DR部13で推定した車両の位置及び周辺物体情報取得センサ部12が取得した観測情報に基づき、物体のうち静的物体の位置がマッピングされた観測画像を生成する観測画像生成部14と、観測画像と地図画像とのマッチングを行うマッチング部15と、マッチングの結果に基づいてオフセットの確率分布を更新する確率更新部16と、確率分布に基づいてオフセット量を更新するオフセット更新部17と、DR部13で推定した車両の位置をオフセット量で補正することにより車両の補正後位置を導出する補正後位置導出部18と、地図画像が記憶されている地図画像記憶部19を備える。
観測画像生成部14は、車両の周辺に存在する物体を追跡し、その物体が静的物体か動的物体かを推定する物体追跡部14Aと、追跡した物体の中から静的物体を抽出する静的物体抽出部14Bと、抽出した静的物体のマッピングを行うマッピング部14Cを有する。
自車両1には、上部にGNSS衛星からの信号を受信するGNSS受信部(GNSSアンテナ)30が取り付けられ、後輪に慣性計測装置であるIMU(Inertial Measurement Unit)40が取り付けられている。GNSS及びIMUを用いることで、自車両1の位置(緯度、経度、高度)、姿勢(ピッチ、ヨー、ロール)、速度及び加速度等を100Hzで取得できる。
また、自車両1は、全方位照射可能なレーザーであるLiDAR(Light Detection and Ranging)50を備えており、自己位置推定装置10による自己位置推定とは別に、LiDAR50から得られる赤外線反射率を利用した自己位置推定を行うことができる。
また、自車両1には、周辺物体情報取得センサ部12として、複数個の76GHz帯ミリ波レーダー(MWR)を取り付けている。図3は自車両におけるミリ波レーダーの取り付け位置と観測領域を示す図である。図3に示すように、本実施例のミリ波レーダーは、視野角が約40度であり、自車両1の前方バンパーに7個、後方バンパーに2個設置することで全方位を検出可能にしている。本実施例のミリ波レーダーは、車両周辺を20Hzで観測可能であり、自車両1の周辺に存在する人、他車両、道路設置物等といった周辺に存在する物体までの相対距離、相対角度、相対速度といった観測情報を取得する。ミリ波レーダーは、環境変化に強く、雪を透過して物体検出が可能である。
自己位置推定装置10は、自己位置推定を開始すると、DR部13において、GNSS/IMUデータ取得部11が取得したデータに基づいてデッドレコニングにより自車両1の位置を推定する。
デッドレコニングとは、車両の速度を時間で積分し、車両の位置を推定する手法である。本実施例では、線速度とヨーレートの時間積分によって自車両1の推定位置[xd,t,yd,t]Tを更新する。しかしながら、GNSS/IMUデータ取得部11が取得する位置や速度には誤差が含まれるため、デッドレコニングでは、逐次移動量を計算した際に発生する誤差が累積してしまう。
(1)周辺物体情報取得センサ部12で取得した最新のNフレームのデータを用いて観測画像生成部14で観測画像を生成する。
(2)地図画像記憶部19に記憶されている地図画像の中から、自車両1周辺の地図画像を抽出する。
(3)マッチング部15における観測画像と抽出した地図画像とのマップマッチングを行い、確率更新部16でオフセットの確率Ptを推定する。
(4)得られた確率Ptに基づいてオフセット更新部17でオフセット量[Δxd,t,Δyd,t ]Tを更新する。
以下、各手順について説明する。
図5は地図画像生成手段のブロック図である。
地図画像生成手段20は、リアルタイムキネマティック測位方式のRTK-GNSS部21と、自車両1周辺に存在する物体を追跡し、その物体が静的物体か動的物体かを推定する物体追跡部14A(本実施例では観測画像生成部10と共用)と、追跡した物体の中から静的物体を抽出する静的物体抽出部14B(本実施例では観測画像生成部10と共用)と、抽出した静的物体のマッピングを行う地図画像マッピング部22を有し、地図画像を生成する。
地図画像は、後処理でRTK-GNSSを使用して、周辺物体情報取得センサ部12が取得した観測値をマッピングすることによって生成される。後処理補正後のGNSS位置を利用することで、0.03m程度の位置精度を実現することができる。
ここで、76GHz帯ミリ波レーダーにおける測定角度の検出精度は、LiDARや79GHz帯ミリ波レーダーと比較すると一般的には正確ではない。したがって、地図画像のマッピングの際には測定精度を考慮する必要がある。地図画像は、以下の手順(A)~(C)により生成される。地図画像生成部24が生成した地図は、地図画像生成部19に記憶される。
(A)物体追跡:静的/動的物体を推定する。
(B)静的物体抽出:動的物体を削除する。
(C)マッピング:各ピクセルにおける静的物体の確率を更新する。
ミリ波レーダーは、静的物体だけでなく、移動する物体や、移動し得る静的物体など様々な物体を観測する。そこで、観測情報から地図画像の生成に使用する静的物体のみを抽出するために、(i)ミリ波レーダー照射方向の絶対速度が閾値以下であること、(ii)道路の車線外に存在すること、及び(iii)動的物体と対応付けられていない非追跡物体であること[非特許文献6:永野聖巳, et al.“全方位ミリ波レーダを用いた自動運転自動車のための周辺移動車両追跡に関する研究”自動車技術会論文集 vol.48,no.2,pp.411-418,2017.]の条件をすべて満たす観測情報を静的物体と判断する。
下式(3)のwmwrは、対応する変数に対するプロセスノイズベクトルである。
地図画像は、観測した物体のうち動的物体を除去することによって得られた静的物体を使用して生成される。グローバル座標内の観測点は、2-D画像座標に変換され、対応するピクセルにマッピングされる。ミリ波レーダーの低い検知精度を考慮するために、存在尤度は、観測誤差伝播に基づいて共分散行列Pを使用して定義される。
図6は地図画像生成の例を示す図であり、図6(a)はマッピング処理の一例を示し、図6(b)はミリ波レーダーを用いて生成した地図画像の一例を示し、図6(c)はLiDARを用いて生成した地図画像の一例を示している。図6(a)においては、色が薄いほど静的物体Aの存在確率が高いことを示している。なお、図6(a)の右図に示すように、静的物体の存在確率は誤差を考慮した確率密度分布とするため、95%の確率で静的物体が存在する領域とする。
存在尤度は、周辺物体情報取得センサ部12の照射方向に対して垂直な分散を生成するように計算される。各ピクセルに対する尤度値は、尤度分布の対応する領域における積分によって得られる。そして、存在確率は、尤度値に基づいて更新される。得られた地図画像である図6(b)の各ピクセルは、緯度と経度に関する情報を有する。図6(b)の地図画像には、図6(c)に示されるLiDARを用いた地図画像と比較すると、歩道上又は道路脇に位置する電信柱やガードレール等の静的物体をランドマークとして描写できていることが分かる。
ミリ波レーダーのデータから提v供される観測値は、下式(5)として表される。
したがって、観測値zは、下式(11)のように、10個の変数を有する関数hによって表される。
なお、観測画像の生成はリアルタイムで行う必要があるため、後処理補正は行わない。また、地図画像の生成では、道路の車線外に存在することを静的物体か否かを判断する条件の一つとしていたが、観測画像を生成する際は、誤差のあるデッドレコニングによる推定位置を用いるため、本来道路外にある静止物体を誤って除去してしまう可能性がある。そこで、例えば動的物体の位置とその大きさを認識できるLiDARによる移動物体の追跡情報をミリ波レーダーによる観測情報と対応付けることで、道路の車線内の観測情報を除去することが好ましい。
図8(a)は観測画像の一例である。観測画像とは、リアルタイムに走行している際に周辺物体情報取得センサ手段12で観測した静的物体の位置を真上から見たような画像であり、自車両1の移動量に応じてパノラマ画像のように結合することで生成される。観測画像の大きさは24m×24mであり、観測画像の中央は常にDR部13で推定した自車両1の位置になるようにしている。観測画像は、観測点が領域全体をカバーするように、観測した複数フレームを使用して生成される。
手順(2)における自車両1周辺の地図画像の抽出では、図8(b)に示すように、観測画像とのマッチングに用いる地図画像が、デッドレコニングにより推定した自車両1の位置に基づき、地図画像記憶部19に記憶されている地図画像から抽出される。地図画像は、観測画像と同様にNE座標で生成されている。抽出された地図画像の大きさは、32m×32mの範囲をカバーしている。
マップマッチングでは、特定位置の地図画像と観測画像が類似しているほど自車両1がその位置にいる確率が高いとすることで、オフセット量及び自車両1の位置を推定する。また、テンプレートマッチングとは、テンプレートと呼ばれる画像が探索対象画像内に存在するか否かを調べるアルゴリズムである。本実施例では、テンプレートマッチングのテンプレート画像に該当するのが観測画像であり、抽出した地図画像がテンプレート画像と照合される画像となる。テンプレート画像となる観測画像を地図画像の中で順番に移動させながら、観測画像と抽出した地図画像の類似度を計算する。
類似度の計算には、SSD(Sum of Squared Difference)やSAD(Sum of Absolute Difference)等を使用することもできるが、他の手法と比べて画像の明るさの変動に強いという特徴を持つ正規化相互相関(ZNCC)を使用することが好ましい。
しかし、ミリ波レーダーによる観測は、観測点が疎らであるため、ZNCCから高い相関値を得ることが困難である。したがって、各フレームにおける相関分布の結果は信頼性が高くない可能性がある。そこで、下式(21)のように、確率に対する過度の応答を回避するためにガンマ補正が適用される。
確率分布とは、尤度分布と同様に自車両1の位置がどこに存在する可能性が大きいかを確率で示した分布である。
図9の上図に示すように、各フレームで得られる尤度分布は不安定である。明確なピークを示すフレームがいくつかあるが、それらは突然異なる分布を示すことがある。 したがって、累積分布Pt(Δx)は、尤度分布の累積処理によって計算される。累積分布とは、尤度分布と同様に自車両1の位置がどこに存在する可能性が大きいかを示した分布である。下式(22)、(23)のように、確率分布P(Δx)は、Pt(Δx)を正規化することにより得られる。これにより、安定した信頼のある分布を得ることができる。
自車両1の進行方向に沿って例えば道路脇に同じパターンの静的物体である柵やガードレール等が連続して存在する場合、図10(a)(b)に示すように複数のピークが発生する可能性がある。複数のピークが発生すると、オフセット量を正確に計算することができないため、正しいピークだけを抽出する必要がある。そこで、図10(c)に示すようにオフセット更新部17ではピーク位置を追跡することで誤った位置でのピークを棄却し、下式(24)、(25)のように、得られた確率の重み付け平均値を用いてオフセット量を推定する。
補正後位置導出部18は、DR部13で推定した自車両1の位置をオフセット量で補正することにより自車両1の補正後位置を導出し、導出した補正後位置を自車両1の運転制御装置(図示無し)へ出力する。出力された補正後位置を用いて運転制御装置が自車両1を制御することで、自車両1の自動運転をより安全かつ的確なものとすることができる。
性能評価試験においては、自己推定位置と実際の位置との間における車両前後方向及び横方向の誤差を計算した。GNSSの情報は、自車両1の初期位置の初期化に使用した。RTK-GNSSの情報は、自己位置推定の精度を評価する基準となる実際の位置を求めるために使用した。また、比較例1として、LiDARを用いた従来の自己位置推定[非特許文献9:N. Suganuma, D. Yamamoto and K. Yoneda, “Localization for Au- tonomous Driving on Urban Road”, Journal of Advanced Control, Automation and Robotics, Vol. 1, No. 1, pp. 47-53, 2016.]も併せて行い、第一の実施例による自己位置推定の結果と比較した。
第一の実施例による自己位置推定と、比較例1との主な相違点は、周辺物体情報取得センサ部12としてのセンサ(すなわち、ミリ波レーダーかLiDARか)、及びマッチングに用いる画像(すなわち、ミリ波レーダー画像かLiDAR画像か)である。比較例1では、路面のレーザー反射率のマップマッチングによってオフセット量を推定する。
性能評価試験は、2種類の走行エリアで行った。
一つ目のエリアは、石川県の金沢市内の公道である。このルートの全長は約2.15kmであり、夏季(積雪無し)と冬季(部分積雪:路側帯や歩道に積雪が有り車道路面の積雪は殆ど無し)に試験を行った。
二つ目のエリアは、北海道の網走市内の公道である。このルートの全長は約25kmであり、冬季(完全積雪:路側帯や歩道に積雪が有り車道路面も雪で完全に覆われている)に試験を行った。二つ目のエリアでは、路面が雪で覆われており比較例1のLiDARを用いた従来の自己位置推定は使用できないため、第一の実施例による自己位置推定についてのみ試験を行った。
図11及び図12において、横軸は経過時間[sec]であり、縦軸は、図11(a)及び図12(a)が車両前後方向の誤差[m]、図11(b)及び図12(b)が車両横方向の誤差[m]、図11(c)及び図12(c)がヨーレート[rad/s]である。
図11から、積雪無しの場合は、交差点や直線道路に関係なく、第一の実施例においても比較例1においても1m以内の誤差に自己位置推定の精度が維持されていることが分かる。
しかし、図12から分かるように、比較例1においては降雪時には、車両横方向の誤差はすぐに2m以上に増加し、その誤差は解消されなかった。これは、比較例1においては、LiDARが道路脇の積雪を反射率の高い地域として観測するため、道路脇を車線と混同することにより車両横方向のずれが発生したためである。
一方、第1の実施例においては、環境変化に強く、雪を透過して物体検出が可能なミリ波レーダーを周辺物体情報取得センサ部12として用いることで、降雪等の悪天候条件の下であっても、積雪無しの条件下と同じ程度の誤差で自車両1の位置を推定することができた。
図13により、第一の実施例による自己位置推定は、降雪量に関わらず精度を維持していることが分かる。
上記した第一の実施例では、得られた相関を累積し、それらを正規化することによって事後確率を計算した。事後確率の応答性を低下させるためには、対数オッズスケールで値を徐々に更新することがより適切である(対数オッズ:l=log(P/(1-P)))。そこで本実施例では、得られた相関を対数オッズスケールでの尤度値として、マップマッチングにより得られた相関分布を累積して事後確率を計算する。
これにより、相関を累積して得られた分布を対数オッズスケールの事後確率として扱い、マッチング状態の安定性を推定し、得られた確率の大きさに応じてオフセット量(Δxd,t、Δyd,t)を更新してより安定した自己位置推定を実現することができる。
現在位置周辺の相関分布を得るためにテンプレートマッチングが適用される。下式(27)のように、テンプレートマッチングのコスト関数として、正規化相互相関(ZNCC)Rt,zncc(Δx)を使用する。
しかし、ミリ波レーダーによる観測は観測点が疎らであるため、ZNCCから高い相関値を得ることが困難である。したがって、各フレームにおける相関分布の結果は信頼性が高くない可能性がある。そこで、下式(21)のように、確率に対する過度の応答を回避するためにガンマ補正が適用される。
上述のように、事後確率を理論的に正しく計算することで、得られた確率の最大値をマッチング状態の不確実性とみなすことができる。したがって、下式(29)のように不確実性に従って重み付けすることによって、不安定な状況における過度のオフセット更新を防ぐことが可能である。
なお、第一の実施例と同様に式(24)及び式(25)を用いてオフセット量を更新することもできる。
性能評価試験においては、自己推定位置と実際の位置との間における車両前後方向及び横方向の誤差を計算した。GNSSの情報は、自車両1の初期位置の初期化に使用した。RTK-GNSSの情報は、自己位置推定の精度を評価する基準となる実際の位置を求めるために使用した。
性能評価試験の運転データは、北海道の網走市と大空町の公道において、秋季(積雪無し)と冬季(完全積雪:路側帯や歩道に積雪が有り車道路面も雪で完全に覆われている)に記録された。試験を行った経路の全長は、約8.5kmである。試験に用いた自車両1に搭載されている機器は、第一の実施例と同様である。
ミリ波レーダー地図である地図画像は、秋季に取得した運転データを用いて生成して地図画像記憶部19に記憶させ、自己位置推定の精度は、冬季に取得した運転データについて評価した。そのため、雪の影響により、地図画像と観測画像とでは道路脇のランドマークが異なる場合がある。
なお、第二の実施例による自己位置推定は、式(24)及び式(25)を用いる場合(実施例2-1)と、式(29)を用いる場合(実施例2-2)の二つのパターンで実施し、オフセット値更新時の不確実性を利用するか否かの有効性についても評価した。
図14において、横軸は経過時間[sec]であり、縦軸は、図14(a)が車両前後方向の誤差[m]、図14(b)が車両横方向の誤差[m]、図14(c)においてはヨーレートとピーク確率を示しており、左縦軸がヨーレート[rad/s]、右縦軸がピーク確率である。ピーク確率は、式(29)の不確実性に対応する。
表2においては、車両前後方向及び横方向についての二乗平均平方根(RMS)誤差、標準偏差(S.D.)、及び最大誤差の絶対値についての結果を示している。
一方、式(29)を用いて自己位置推定を行う実施例2-2では、この区間での車両横方向誤差を小さく出来ることが確認された。したがって、式(29)を用いてオフセット更新に不確実性を導入することで、測位精度の急激な低下を防ぐことができる。また、特に実施例2-2では、すべての評価指標に対して安定した性能を示している。
また、周辺物体情報取得センサ部12は、雪を透過して物体の観測情報を取得可能であり、マッチング部15は、テンプレートマッチングを行い、確率更新部16は、テンプレートマッチングにより得られた相関分布をガンマ補正して尤度分布を導出し、尤度分布を用いて確率分布を更新することで、積雪条件下においても精度よく自己位置を推定することができる。また、テンプレートマッチングを行うことにより、処理の高速化が可能となる。
また、確率更新部16は、各時刻で得られた尤度分布を積算し、積算した尤度分布を正規化して累積分布を導出し、累積分布に基づいて確率分布を更新することで、相関の寄与度を低くし確率更新できるので、周辺物体情報取得センサ部12による物体観測が疎らであっても精度よく自己位置を推定することができる。
また、確率更新部16は、尤度分布を用いて事後確率の対数オッズ値を導出し、対数オッズ値を用いて確率分布を更新することで、相関の寄与度を低くし確率更新できるので、周辺物体情報取得センサ部12による物体観測が疎らであっても精度よく自己位置を推定することができる。
また、オフセット更新部17は、確率分布の重み付け平均を用いてオフセット量を更新することで、道路脇に同じパターンの静的物体である柵やガードレール等が連続して存在する場合であっても精度よく自己位置を推定することができる。
また、オフセット更新部17は、確率分布の最大値をマッチング状態の不確実性とし、不確実性に従った重み付けによりオフセット量を更新することで、不安定な状況における過度のオフセット更新を防ぎ、より精度よく自己位置を推定することができる。
10 自己位置推定装置
11 GNSS/IMUデータ取得部
12 周辺物体情報取得センサ部
13 DR部
14 観測画像生成部
15 マッチング部
16 確率更新部
17 オフセット更新部
18 補正後位置導出部
40 慣性計測装置(IMU)
Claims (6)
- 車両の周辺に存在する物体の観測情報に基づきリアルタイムに作成した観測画像と予め作成された地図画像とのマッチングを行うことにより前記車両の位置を推定する自己位置推定装置であって、
GNSS衛星及び慣性計測装置からのデータを取得するGNSS/IMUデータ取得部と、
前記車両の周辺に存在する前記物体の前記観測情報を取得する周辺物体情報取得センサ部と、
前記GNSS/IMUデータ取得部で取得した前記データに基づいてデッドレコニングにより前記車両の位置を推定するDR部と、
前記DR部で推定した前記車両の位置及び前記周辺物体情報取得センサ部で取得した前記観測情報に基づき、前記物体のうち静的物体の位置がマッピングされた前記観測画像を生成する観測画像生成部と、
前記観測画像と前記地図画像とのマッチングを行うマッチング部と、
前記マッチングの結果に基づいてオフセットの確率分布を更新する確率更新部と、
前記確率分布に基づいてオフセット量を更新するオフセット更新部と、
前記DR部で推定した前記車両の位置を前記オフセット量で補正することにより前記車両の補正後位置を導出する補正後位置導出部とを備え、
前記周辺物体情報取得センサ部は、雪を透過して前記物体の前記観測情報を取得可能であり、
前記マッチング部は、テンプレートマッチングを行い、
前記確率更新部は、前記テンプレートマッチングにより得られた相関分布をガンマ補正して尤度分布を導出し、前記尤度分布を用いて前記確率分布を更新することを特徴とする車両の自己位置推定装置。 - 前記確率更新部は、各時刻で得られた前記尤度分布を積算し、積算した前記尤度分布を正規化して累積分布を導出し、前記累積分布に基づいて前記確率分布を更新することを特徴とする請求項1に記載の車両の自己位置推定装置。
- 前記確率更新部は、前記尤度分布を用いて事後確率の対数オッズ値を導出し、前記対数オッズ値を用いて前記確率分布を更新することを特徴とする請求項1に記載の車両の自己位置推定装置。
- 前記オフセット更新部は、前記確率分布の重み付け平均を用いて前記オフセット量を更新することを特徴とする請求項2又は請求項3に記載の車両の自己位置推定装置。
- 前記オフセット更新部は、前記確率分布の最大値をマッチング状態の不確実性とし、前記不確実性に従った重み付けにより前記オフセット量を更新することを特徴とする請求項3に記載の車両の自己位置推定装置。
- 請求項1から請求項5のいずれか1項に記載の車両の自己位置推定装置を搭載したことを特徴とする車両。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019111748A JP7298882B2 (ja) | 2019-06-17 | 2019-06-17 | 車両の自己位置推定装置、及び車両 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019111748A JP7298882B2 (ja) | 2019-06-17 | 2019-06-17 | 車両の自己位置推定装置、及び車両 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020204501A JP2020204501A (ja) | 2020-12-24 |
JP7298882B2 true JP7298882B2 (ja) | 2023-06-27 |
Family
ID=73838341
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019111748A Active JP7298882B2 (ja) | 2019-06-17 | 2019-06-17 | 車両の自己位置推定装置、及び車両 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7298882B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113465607A (zh) * | 2021-06-30 | 2021-10-01 | 上海西井信息科技有限公司 | 港口车辆定位方法、装置、电子设备、存储介质 |
CN114019511A (zh) * | 2021-09-30 | 2022-02-08 | 南京市德赛西威汽车电子有限公司 | 一种基于毫米波车载雷达场景识别的航位修正方法 |
CN114279440A (zh) * | 2021-12-07 | 2022-04-05 | 和芯星通科技(北京)有限公司 | Imu定位的管理方法、装置和车载地图系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008002906A (ja) | 2006-06-21 | 2008-01-10 | Toyota Motor Corp | 測位装置 |
JP2011215056A (ja) | 2010-03-31 | 2011-10-27 | Aisin Aw Co Ltd | 自車位置認識システム |
JP2018116653A (ja) | 2017-01-20 | 2018-07-26 | 株式会社デンソーテン | 識別装置、識別システム、および識別方法 |
-
2019
- 2019-06-17 JP JP2019111748A patent/JP7298882B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008002906A (ja) | 2006-06-21 | 2008-01-10 | Toyota Motor Corp | 測位装置 |
JP2011215056A (ja) | 2010-03-31 | 2011-10-27 | Aisin Aw Co Ltd | 自車位置認識システム |
JP2018116653A (ja) | 2017-01-20 | 2018-07-26 | 株式会社デンソーテン | 識別装置、識別システム、および識別方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2020204501A (ja) | 2020-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yoneda et al. | Vehicle localization using 76GHz omnidirectional millimeter-wave radar for winter automated driving | |
RU2668459C1 (ru) | Устройство оценки положения и способ оценки положения | |
US10466361B2 (en) | Systems and methods for multi-sensor fusion using permutation matrix track association | |
US10553117B1 (en) | System and method for determining lane occupancy of surrounding vehicles | |
CN102208035B (zh) | 图像处理系统及位置测量系统 | |
JP5162849B2 (ja) | 不動点位置記録装置 | |
US20220197301A1 (en) | Vehicle Localization Based on Radar Detections | |
CN112074885A (zh) | 车道标志定位 | |
US20140379164A1 (en) | Lane monitoring with electronic horizon | |
US20080033645A1 (en) | Pobabilistic methods for mapping and localization in arbitrary outdoor environments | |
JP7298882B2 (ja) | 車両の自己位置推定装置、及び車両 | |
CN112781599B (zh) | 确定车辆的位置的方法 | |
Shunsuke et al. | GNSS/INS/on-board camera integration for vehicle self-localization in urban canyon | |
US11846520B2 (en) | Method and device for determining a vehicle position | |
Kellner et al. | Road curb detection based on different elevation mapping techniques | |
US20230194269A1 (en) | Vehicle localization system and method | |
US20220196829A1 (en) | Radar Reference Map Generation | |
Moras et al. | Drivable space characterization using automotive lidar and georeferenced map information | |
Suganuma et al. | Localization for autonomous vehicle on urban roads | |
JP2022136145A (ja) | データ構造、情報処理装置、及び地図データ生成装置 | |
Suganuma et al. | Map based localization of autonomous vehicle and its public urban road driving evaluation | |
Carow et al. | Projecting lane lines from proxy high-definition maps for automated vehicle perception in road occlusion scenarios | |
JP7289761B2 (ja) | 車両の自己位置推定装置、および、自己位置推定方法 | |
Choi et al. | Point Cloud-Based Lane Detection for Optimal Local Path Planning | |
AU2017254915B2 (en) | Information processing system and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20190703 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220523 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230309 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230515 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230530 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230608 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7298882 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |