JP6959032B2 - 位置推定装置、移動装置 - Google Patents

位置推定装置、移動装置 Download PDF

Info

Publication number
JP6959032B2
JP6959032B2 JP2017098006A JP2017098006A JP6959032B2 JP 6959032 B2 JP6959032 B2 JP 6959032B2 JP 2017098006 A JP2017098006 A JP 2017098006A JP 2017098006 A JP2017098006 A JP 2017098006A JP 6959032 B2 JP6959032 B2 JP 6959032B2
Authority
JP
Japan
Prior art keywords
distance
road surface
position estimation
value
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017098006A
Other languages
English (en)
Other versions
JP2018194417A (ja
Inventor
咲子 西野
ホセイン テヘラニニキネジャド
和寿 石丸
ユーチュエン シュー
ジョン ヴィジャイ
誠一 三田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota School Foundation
Denso Corp
Original Assignee
Toyota School Foundation
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota School Foundation, Denso Corp filed Critical Toyota School Foundation
Priority to JP2017098006A priority Critical patent/JP6959032B2/ja
Publication of JP2018194417A publication Critical patent/JP2018194417A/ja
Application granted granted Critical
Publication of JP6959032B2 publication Critical patent/JP6959032B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)

Description

本開示は、位置推定に関する。
特許文献1は、車載カメラを利用した実時間測位の技術について開示している。この技術では、実画像の領域から、直線や角点などの特徴部を抽出し、地図データとマッチングさせることによって、自車の位置を測定している。
特開2012−185011号公報
上記先行技術の場合、マッチングに用いられる物理量が輝度値のみであるため、測定精度が低い。高精度な測位が可能な技術としては、例えばRTK−GPSが知られているものの、受信機が高価である。本開示は、上記を踏まえ、高価な機器を用いずに、高精度な位置推定を実現することを解決課題とする。
本開示の一形態は、路面上を移動する機能と、路面を含む周辺の物標までの距離値を取得するための測距装置(21,22)とを有する移動装置(1,2)の位置を推定する位置推定装置(10,10a)であって;周辺の路面に対する前記移動装置の姿勢を、前記移動装置周辺の路面までの距離値の集合である距離データに基づき決定する姿勢決定部(S200)と;前記姿勢決定部によって決定された姿勢を用いて、3次元地図データによって定義される空間に仮想的に配置された前記測距装置による測定を模擬することによって得られる距離値の集合である距離データを、複数の候補位置それぞれについて算出する算出部(S310,S320)と;前記複数の候補位置の中から前記移動装置の位置として尤もらしいものを、前記測距装置による測定結果と、前記算出部による算出結果とのマッチングに基づき選択する選択部(S400)と;を備える位置推定装置である。この形態によれば、通常の測距装置を用いることで、高精度な位置推定が可能になる。
自動運転車のブロック構成図。 位置推定処理を示すフローチャート。 姿勢決定処理を示すフローチャート。 撮像画像の一例。 各y値に沿った距離値を示すグラフ。 基準状態の場合の路面におけるy値と距離値との関係を示すグラフ。 ピッチングした場合の路面におけるy値と距離値との関係を示すグラフ。 マッチングの準備処理を示すフローチャート。 低位領域の値が除去された様子を示す図。 高位領域の距離値が除去された様子を示す図。 位置推定装置と、複数の自動運転車とが通信する様子を示す図。 実施形態2の自動運転車のブロック構成図。
実施形態1を説明する。図1に示す自動運転車1は、レベル1以上の自動運転車である。具体的には、自動運転車1は、少なくとも操舵を自動で実施できる機能を有している。
自動運転車1は、ECU10を搭載する。ECU10は、カメラECUである。ECU10は、カメラ21とカメラ22とから撮像データとして各ピクセルのRGB値を取得し、後述する位置推定処理を実行する。
カメラ21,22は、自動運転車1の前方が撮像範囲内となるように搭載されている。カメラ21,22は、各ピクセルの輝度値を取得し、ECU10に入力する。カメラ21,22は、視差を利用した距離測定のために、車幅方向に並んで配置されたステレオカメラを構成している。ECU10は、カメラ21,22の焦点距離、及び基線長を用いることで、撮像された各ピクセルについて距離値を取得することができる。距離値とは、カメラ21,22から、撮像された物体までの距離を示す値のことである。
図1に示すように、自動運転車1は、ヨーレートセンサ30と、車速センサ40と、GNSS受信機50と、地図データ記憶装置60とを備える。ヨーレートセンサ30は、自動運転車1のヨーレートを計測して、ECU10に入力する。車速センサ40は、自動運転車1の車速を計測して、ECU10に入力する。
GNSS受信機50は、GNSS測量を実施するために航法信号を受信する。GNSSは、Global Navigation Satellite Systemの頭字語であり、全地球航法衛星システムのことである。
地図データ記憶装置60は、3次元地図データを記憶している。ここでいう3次元地図データは、3次元の各格子点に対して物標の有無が対応付けられており、物標が有りと対応付けられた格子点には、さらに輝度値が対応付けられたデータ構造を有している。3次元の各格子点の位置は、緯度、経度、標高の各値によって定義されている。
ここでいう物標とは、レーダや画像等によるデータ収集によって、何かしらの物体が有ると認められた全ての物体のことを意味する。物標には、路面が含まれる。本実施形態では位置推定の対象が自動運転車1であるので、ここでいう路面は、車道の表面である。輝度値のデータは、概ね昼間に撮像された撮像データに基づき、3次元地図データに格納する値が決定されている。
地図データ記憶装置60は、GNSS受信機50から入力される信号を利用して、3次元地図データから一部のデータを抜粋し、ECU10に入力する。
ECU10は、カメラ21,22による撮像データ、ヨーレート、車速、3次元地図データを用いて、図2に示す位置推定処理を実行するによって、自動運転車1の位置を推定する。このため、本実施形態における位置推定処理は、自己位置推定処理である。
ECU10は、位置推定処理を、自動運転機能がオンに設定されている間、繰り返し実行する。ECU10は、推定した位置を、自動運転を制御するECUに入力する。なお、自動運転を制御するECUは、図示されていない。
図2に示すように、ECU10は、位置推定処理を開始すると、S100として、撮像データから、距離データと輝度データとを取得する。距離データとは、各ピクセルに距離値が対応付けられた構造を有するデータのことである。輝度データとは、各ピクセルに輝度値が対応付けられた構造を有するデータのことである。
続いて、ECU10は、S200として姿勢決定処理を実行する。ECU10は、姿勢決定処理を開始すると、S210として、路面の推定を実行する。以下、図4に示された撮像画像を例にとって、S210を説明する。図4に示すように、撮像範囲の水平方向をx方向、垂直方向をy方向と定義する。
S210は、距離データを元に、路面を表す式を決定するステップである。ここで決定される式は、カメラ座標系との変換関係が既知である座標系において定義される。このため、S210は、カメラ座標系において定義される路面の式を求めていることと等価である。
図4に示すように、y0〜y8に沿って取得された距離値を抜粋して説明に用いる。y0は撮像範囲の下辺に相当する値であり、y8は撮像範囲の上辺に相当する値である。
図5は、縦軸を距離値z、横軸を水平方向xにしたグラフに、y0〜y8それぞれの場合について距離値をプロットした様子を示す。y7については、空と、遠方に位置する高層ビルとを対象にしており、図5に示されたz軸の範囲外であるため、図5に示されていない。y8についても、空を対象にしており、図5に示されたz軸の範囲外であるため、図5に示されていない。
図6は、基準状態の場合に、y値と距離値zとの関係を、或るx値について示すグラフである。基準状態とは、自動運転車1が全くピッチングやローリングをしておらず、且つ、水平な路面上を走行または停止している状態のことである。
路面が水平に限らず平坦であれば、図6に示すように、y値と距離値zとの関係は、直線になる。一方、前方に坂があることによって、路面が平坦でない場合については、y値と距離値zとの関係は、曲線で近似される。以下、y値と距離値zとの関係において曲線といえば、直線を含むものとする。
路面に該当する領域内であれば、各x値について同様な関係を得ることができる。従って、距離データを用いることによって、カメラ21,22を基準とした座標系における路面を近似する面の方程式を得ることができる。
但し、本実施形態では、幅方向については、路面は平坦であると仮定する。幅方向とは、路面上に沿った方向であって、車線によって規定される進行方向と直交する方向のことである。このように仮定すれば、路面を2次元空間における曲線で表すことができる。そこで本実施形態においては、各y値について、距離値zの代表値を定め、1つの近似曲線を求める。本実施形態における代表値は、最頻値によって決定する。
なお、幅方向およびx方向は、常に平行である訳ではない。例えば、自動運転車1が実際に走行している方向と、路面の進行方向とにずれがある場合や、自動運転車1がローリングしている場合には、x方向は、幅方向に対して平行でなくなる。このようなずれを考慮して補正をしたり、3次元空間における曲線を求めたりしてもよいのだが、本実施形態では演算負荷の軽減のため、このようなずれを無視して、2次元空間における曲線を求める。
また、図4,図5に示す例の場合、y4〜y8の領域については、路面が含まれていない。このため、y4〜y8の領域については、路面の推定に用いない方がよい。但し、y4〜y8の領域を含めたとしても、路面の推定結果に大きな影響は無いことが多いので、本実施形態では、全y値を演算の対象にして路面を推定する。なお、y4〜y8の領域におけるy値と距離値zとの関係は、y0〜y4の領域におけるy値と距離値zとの関係から大きく変化するので、両者を切り分けることは可能である。そこで、他の実施形態においては、y値が小さい領域と比較して、y値と距離値zとの関係が大きく変化した領域を除外した上で、路面を表す曲線を求める。
次に、ECU10は、S220として、カメラ21,22の高さhとピッチ角θとを算出する。図6に示すように、本実施形態では、y値がy3となる視線を基準とし、この視線と路面とがなす角度をピッチ角と定義する。基準状態において、y値がy3である場合の距離値zは既知であり、図6には距離値z3として示されている。基準状態における高さhも、予め測定されているので既知である。
上記の既知の値、並びにy値および距離値zの近似式を用いることによって、高さh及びピッチ角θが求まる。なお、本実施形態における高さは、路面と直交する方向に沿った距離のことである。従って、坂を走行中の場合などにおいては、高さの方向は、鉛直方向と異なる。
最後に、S230として、ロール角を推定する。ロール角の推定には、距離データを用いる。S230には、予め学習した関係を用いる。予め学習した関係とは、ローリングが発生している多数の場合について、距離値の分布がどのような特徴を有するのかを調べることによって得られる関係である。
ECU10は、姿勢決定処理を終えると、S300として、マッチングの準備処理を実行する。図8に示すように、ECU10は、まず、S310として、候補位置を決定する。候補位置とは、自動運転車1の現在位置の候補となる複数の位置のことである。本実施形態において、自動運転車1の位置という場合、緯度および経度に加え、ヨー角が含まれる。ヨー角は、自動運転車1の前方がどの方角を向いているかを示す角度のことである。
図7には、候補位置として、候補位置ta,tbの2つが示されている。実際には、もっと多い数の候補位置が決定される。候補位置の決定は、前回の位置推定処理において推定した推定位置t−1、車速およびヨーレートを考慮して、或る程度の範囲に絞り込んだ上で、ランダムに実行される。
次に、ECU10は、S320として、決定した候補位置それぞれに対応する距離データを作成する。S320には、地図データ記憶装置60に記憶された3次元地図データを用いる。具体的には、或る候補位置に対応する距離データを作成する場合、3次元地図データ上において、カメラ21,22をその候補位置に仮想的に配置する。この仮想的な配置には、姿勢決定処理によって決定した姿勢を適用する。そして、仮想的に配置されたカメラ21,22による撮像を模擬して、距離データを3次元地図データから作成する。
次に、ECU10は、S330として、決定した候補位置それぞれに対応する輝度データを作成する。S330は、距離値と輝度値との違いを除けば、S320と同様な内容である。
次に、ECU10は、S340として、距離データから、低位領域に属する値を除去する。S340において対象にするデータは、S100としての撮像によって作成されたデータと、S320によって作成された距離データとである。低位領域とは、所定の高さよりも低い領域のことである。但し、路面を示す距離値が除去されないように、路面すれすれよりも低い領域は、低位領域から除外されている。
次に、ECU10は、S350として、輝度データから、低位領域に属する値を除去する。S340において対象にするデータは、S100としての撮像によって作成されたデータと、S330によって作成された輝度データとである。低位領域の定義は、S340の説明で述べた通りである。
図9に示すように、低位領域が除去されることによって、前方車や歩行者に対応する値が除去される。このように、低位領域を除去する目的は、撮像によって作成されるデータには含まれる一方、3次元地図データには含まれない物標を、マッチングの対象から除外することである。このため、本実施形態においては、低位領域の基準となる所定の高さは、路面上や路面付近を移動する物標が除外されるように定められている。具体的には、トラック等の大型自動車の車高よりも少し高い程度に定められている。
最後に、ECU10は、S360として、距離データから、高位領域に属する値を除去する。S360において対象にするデータは、S340と同様、S100としての撮像によって作成された距離データと、S320によって作成された距離データとである。高位領域とは、鉛直方向について、所定の高さよりも高い領域のことである。ここでいう所定の高さは、低位領域についての所定の高さよりも高い。
図10に示すように、高位領域が除去されることによって、遠方に位置する物標の値が除去される。なお、図9と図10とを見比べた場合に、遠方に位置する高層ビルのみが除去されたように見えるが、実際には、空に対応する領域についても、高位領域に属するので、距離データから除去される。
距離データから高位領域に属する値を除去する目的は、測定精度が低い距離値を除去することである。空を対象に距離を測定しても、測定自体が難しい。空でなくても、遠すぎる物標は、視差の値が小さいので、高精度な測定は難しい。このため、マッチングの対象からは、遠すぎる領域を除外することが好ましい。但し、遠すぎるか否かを距離値で判定しようとすると、距離値そのものの精度が低いので、その判定自体の精度が低くなる可能性がある。そこで、本実施形態においては、高さを基準に用いる。これは、撮像される範囲において、或る程度、高い領域は、遠い領域であると推定できることを利用している。
なお、輝度データについては、距離データにとっては遠すぎる領域であっても、さほど精度に影響が出る訳ではないので、除去の対象としない。例えば、図9に示される遠方の高層ビルは、輝度データについてのマッチングの対象として、十分な精度を得ることができる。
ECU10は、マッチングの準備処理を終えると、S400としてマッチングを実行する。つまり、輝度データ及び距離データそれぞれの一致度に基づき、候補位置の中から、現在位置として最も尤もらしいものを選択する。
S400は、コスト計算に基づき実施される。具体的には、距離データ、輝度データそれぞれについて差分を算出し、差分が小さいほど尤もらしいと判断する。なお、撮像データに基づき作成される輝度データは、時間帯や気象状態などに大きく依存するため、輝度値そのものではなく輝度値の勾配(エッジともいう)を、差分の算出の対象にする。
本実施形態においては、さらに、候補位置とオドメトリによる位置との差分も、コスト計算に加味する。オドメトリとは、車速およびヨーレートから位置を推定する手法のことである。
続いて、ECU10は、S500として、フィルタリングを実行する。S500には、時系列で尤もらしい自己位置を推定するために、パーティクルフィルタを用いる。
最後に、ECU10は、S600として、上記したステップによる結果から、自己位置を推定する。
以上に説明した実施形態によれば、特に高価な機器を用いることなく、高精度な自己位置推定が実現できる。高精度な推定が実現される主な理由としては、路面に対する姿勢を決定してマッチングに利用している点、距離データ及び輝度データという2種類のデータをマッチングの対象にしている点、距離データから低位領域および高位領域を除去している点、輝度データから低位領域を除去している点が挙げられる。
さらに、本実施形態によれば、位置推定処理のための処理負荷が軽減される。位置推定処理は、自動運転に利用されるため、短い周期で繰り返される処理である。このため、処理負荷が軽いことは、重要な効果である。処理負荷が軽減される主な理由は、路面の推定において、路面を2次元化している点である。
路面を2次元化することは、方程式における独立変数を減らすことができることに加え、本実施形態の手法によれば、次の利点もある。その利点とは、x方向あるいは幅方向について、どこからどこまでが路面であるのかを特定する必要がなくなるという点である。このため、路面の2次元化は、処理負荷の軽減に大きく貢献する。
しかも、路面の2次元化をしても、路面の推定精度はさほど悪化しない。なぜなら、路面は、4輪自動車によって走行しやすいように幅方向について概ね平坦に造られていることが多いため、幅方向について情報を圧縮しても、実質的な情報としては殆ど同じだからである。本実施形態では、x方向に沿って最頻値を取っており、厳密には幅方向についての圧縮とは異なるものの、x方向に沿って情報を圧縮しても、実用上、問題のない精度で推定ができる。
実施形態2を説明する。実施形態2の説明は、実施形態1と異なる点を主な対象にする。特に説明しない点については実施形態1と同じである。
実施形態2では、位置推定装置10aと複数の自動運転車2とによって、位置推定システムが構成される。
複数の自動運転車2それぞれは、位置推定装置を搭載しておらず、その代わりに、図11に示すように位置推定装置10aと通信する。位置推定装置10aは、処理部12と、地図データ記憶装置60と、通信インタフェース70とを備える。
図12に示すように、自動運転車2は、ECU80を備える。ECU80は、カメラ21,22、車速センサ40、GNSS受信機50から取得した情報を、通信インタフェース90を介して、位置推定装置10aに送信する。
処理部12は、通信インタフェース70を介して、自動運転車2から情報を取得する。処理部12は、自動運転車2から取得した情報と、地図データ記憶装置60の記憶された情報とを用い、実施形態1で説明した位置推定処理を実行する。処理部12は、位置推定処理によって推定した位置情報を、自動運転車2に送信する。
ECU80は、通信インタフェース90を介して位置推定装置10aから取得した位置情報を、自動操舵に利用する。
実施形態と、特許請求の範囲との対応を説明する。自動運転車1,2は移動装置に、ECU10,10aは位置推定装置に、カメラ21は測距装置および撮像装置に、カメラ22は測距装置および撮像装置に、S200は姿勢決定部に、S310,S320は算出部に、S310,S330は取得部に、S340,S360は距離値除去部に、S350は輝度値除去部に、S400は選択部に対応する。路面すれすれの高さは、第1輝度用高さ及び第1距離用高さに対応する。低位領域についての所定の高さは、第2輝度用高さ及び第2距離用高さに対応する。高位領域についての所定の高さは、予め定められた高さに対応する。
本開示は、本明細書の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現できる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、先述の課題の一部又は全部を解決するために、或いは、先述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせができる。その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除できる。例えば、以下のものが例示される。
姿勢決定処理における路面の推定に失敗した場合、直近に推定した路面を、現在の路面として取り扱ってもよい。
位置推定装置の推定対象となるのは、自動車に限られず、路面を移動する移動装置であればよい。例えば、他の輸送用機器(例えば、二輪車)でもよいし、ロボットでもよい。ロボットの場合、例えば、自動車のように車輪で路面に接地してもよいし、2足歩行するタイプでもよい。
測距装置は、ステレオカメラでなくてもよい。例えば、LIDARやミリ波レーダを用いてもよい。LIDARは、Light Detection And Ranging又はLaser Imaging Detection And Rangingの頭字語である。
輝度値をマッチングに用いなくてもよい。この場合、3次元地図データにおいても、輝度値のデータは不要になる。
路面を推定するための前提条件は、適宜、変更してもよい。例えば、路面を、3次元空間における曲面として求めてもよい。
ロール角の推定には、輝度データを用いてもよい。輝度データを用いる場合でも、距離データを用いる場合と同様、予め学習した関係を用いてもよい。
上記実施形態において、ソフトウエアによって実現された機能及び処理の一部又は全部は、ハードウエアによって実現されてもよい。また、ハードウエアによって実現された機能及び処理の一部又は全部は、ソフトウエアによって実現されてもよい。ハードウエアとしては、例えば、集積回路、ディスクリート回路、または、それらの回路を組み合わせた回路モジュールなど、各種回路を用いてもよい。
1 自動運転車、2 自動運転車、10 ECU、10a ECU、21 カメラ、22 カメラ

Claims (12)

  1. 路面上を移動する機能と、路面を含む周辺の物標までの距離値を取得するための測距装置(21,22)とを有する移動装置(1,2)の位置を推定する位置推定装置(10,10a)であって、
    周辺の路面に対する前記移動装置の姿勢を、前記移動装置周辺の路面までの距離値の集合である距離データに基づき決定する姿勢決定部(S200)と、
    前記姿勢決定部によって決定された姿勢を用いて、3次元地図データによって定義される空間に仮想的に配置された前記測距装置による測定を模擬することによって得られる距離値の集合である距離データを、複数の候補位置それぞれについて算出する算出部(S310,S320)と、
    前記複数の候補位置の中から前記移動装置の位置として尤もらしいものを、前記測距装置による測定結果と、前記算出部による算出結果とのマッチングに基づき選択する選択部(S400)と、
    を備える位置推定装置。
  2. 前記移動装置は、周辺の物標の輝度値を測定するための撮像装置(21,22)を有し、
    前記3次元地図データには、予め設定されている3次元位置の輝度値が格納されており、
    前記姿勢決定部によって決定された姿勢を用いて、3次元地図データ上に仮想的に配置された前記撮像装置による撮像を模擬することによって得られる輝度値を、前記複数の候補位置それぞれについて取得する取得部(S310,S330)を更に備え、
    前記選択部は、前記選択を、前記撮像装置による測定結果と、前記取得部による取得結果とのマッチングを加味して実行する
    請求項1に記載の位置推定装置。
  3. 前記取得部によって取得された輝度値、及び前記撮像装置によって測定された輝度値の中から、前記マッチングに使用しない領域に属する値を除去する輝度値除去部(S350)を備える
    請求項2に記載の位置推定装置。
  4. 前記輝度値除去部は、路面を基準に、第1輝度用高さから第2輝度用高さまでの領域を対象に、前記除去を実行する
    請求項3に記載の位置推定装置。
  5. 前記測距装置による測定された距離値、及び前記算出部によって算出された距離値の中から、前記マッチングに使用しない領域に属する値を除去する距離値除去部(S340,S360)を備える
    請求項1から請求項4までの何れか一項に記載の位置推定装置。
  6. 前記距離値除去部(S340)は、路面を基準に、第1距離用高さから第2距離用高さまでの領域を対象に、前記除去を実行する
    請求項5に記載の位置推定装置。
  7. 前記距離値除去部(S360)は、予め定められた高さ以上の領域を対象に、前記除去を実行する
    請求項5から請求項6までの何れか一項に記載の位置推定装置。
  8. 前記姿勢決定部は、所定方向を代表する値を定めることによって前記測距装置の測定による距離データを2次元化し、前記測距装置に対する路面の相対位置を前記2次元化した距離データに基づき決定することによって前記姿勢を決定する
    請求項1から請求項7までの何れか一項に記載の位置推定装置。
  9. 前記測距装置は、ステレオカメラとして構成された撮像装置であり、
    前記所定方向は、撮像における水平方向であり、
    前記姿勢決定部は、前記移動装置のピッチ角と前記撮像装置の路面からの高さとを、前記姿勢として決定する
    請求項8に記載の位置推定装置。
  10. 前記姿勢決定部は、前記路面の相対位置の決定に失敗した場合、過去に決定した位置を用いて、前記姿勢の決定を実行する
    請求項8から請求項9までの何れか一項に記載の位置推定装置。
  11. 前記移動装置は、自動運転車(1)である
    請求項1から請求項10までの何れか一項に記載の位置推定装置。
  12. 請求項1から請求項11までの何れか一項に記載の移動装置(1)であって、
    請求項1から請求項11までの何れか一項に記載の位置推定装置(10)を備える
    移動装置。
JP2017098006A 2017-05-17 2017-05-17 位置推定装置、移動装置 Active JP6959032B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017098006A JP6959032B2 (ja) 2017-05-17 2017-05-17 位置推定装置、移動装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017098006A JP6959032B2 (ja) 2017-05-17 2017-05-17 位置推定装置、移動装置

Publications (2)

Publication Number Publication Date
JP2018194417A JP2018194417A (ja) 2018-12-06
JP6959032B2 true JP6959032B2 (ja) 2021-11-02

Family

ID=64571667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017098006A Active JP6959032B2 (ja) 2017-05-17 2017-05-17 位置推定装置、移動装置

Country Status (1)

Country Link
JP (1) JP6959032B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109883432B (zh) * 2019-02-21 2020-12-29 百度在线网络技术(北京)有限公司 位置确定方法、装置、设备及计算机可读存储介质
KR102454073B1 (ko) * 2020-12-18 2022-10-14 한국과학기술원 360 카메라 및 디지털 트윈을 기반으로 한 이동 객체의 지리적 데이터 추정방법 및 시스템

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11250396A (ja) * 1998-02-27 1999-09-17 Hitachi Ltd 車両位置情報表示装置および方法
JP4788722B2 (ja) * 2008-02-26 2011-10-05 トヨタ自動車株式会社 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造
JP5714940B2 (ja) * 2011-03-04 2015-05-07 国立大学法人 熊本大学 移動体位置測定装置
WO2013133129A1 (ja) * 2012-03-06 2013-09-12 日産自動車株式会社 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法

Also Published As

Publication number Publication date
JP2018194417A (ja) 2018-12-06

Similar Documents

Publication Publication Date Title
CN111656136B (zh) 使用激光雷达的车辆定位系统
TWI722355B (zh) 用於基於障礙物檢測校正高清晰度地圖的系統和方法
TWI693422B (zh) 自然場景中的整合感測器校準
US10354151B2 (en) Method of detecting obstacle around vehicle
CN105571606B (zh) 能够改进车辆定位的方法和系统
US10757395B2 (en) Camera parameter set calculation method, recording medium, and camera parameter set calculation apparatus
TW202001924A (zh) 基於雙目影像更新高解析度地圖的系統和方法
KR102104005B1 (ko) 자동차의 도로변의 물체를 검출하는 방법, 컴퓨팅 장치, 운전자 보조 시스템 및 자동차
TW202018328A (zh) 用於產生彩色點雲的方法和系統
JP7107931B2 (ja) 移動オブジェクトのレンジを推定する方法および装置
CN113838060A (zh) 用于自主车辆的感知系统
JP2019066302A (ja) 対象物推定装置
CN110764110A (zh) 路径导航方法、装置及计算机可读存储介质
JP6959032B2 (ja) 位置推定装置、移動装置
US20200193184A1 (en) Image processing device and image processing method
CN113840079A (zh) 对从无人驾驶车辆相机所获取的图像的划分
KR20210102953A (ko) 노면 상의 객체를 검출 및 모델링하기 위한 방법
JP7380443B2 (ja) 部分画像生成装置及び部分画像生成用コンピュータプログラム
JP7337617B2 (ja) 推定装置、推定方法及びプログラム
JP2021193340A (ja) 自己位置推定装置
CN111824163A (zh) 用于确定道路的曲线的方法和设备
KR102441424B1 (ko) 능동 스틱 필터를 이용한 융합 인식 시스템 및 그 방법
JP6704307B2 (ja) 移動量算出装置および移動量算出方法
US20240317240A1 (en) Associating environment perception data with data indicative of a friction condition
CN118565526B (zh) 颠簸工况下的测距补偿方法、装置和存储介质及电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200416

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211007

R150 Certificate of patent or registration of utility model

Ref document number: 6959032

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150