JP2023150740A - 自己位置誤差推定装置及び自己位置誤差推定方法 - Google Patents
自己位置誤差推定装置及び自己位置誤差推定方法 Download PDFInfo
- Publication number
- JP2023150740A JP2023150740A JP2022059992A JP2022059992A JP2023150740A JP 2023150740 A JP2023150740 A JP 2023150740A JP 2022059992 A JP2022059992 A JP 2022059992A JP 2022059992 A JP2022059992 A JP 2022059992A JP 2023150740 A JP2023150740 A JP 2023150740A
- Authority
- JP
- Japan
- Prior art keywords
- error
- self
- map data
- image
- calculation unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 21
- 238000003384 imaging method Methods 0.000 claims abstract description 57
- 230000007613 environmental effect Effects 0.000 description 16
- 239000011159 matrix material Substances 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000005457 optimization Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000002485 combustion reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Business, Economics & Management (AREA)
- Mathematical Physics (AREA)
- Automation & Control Theory (AREA)
- Navigation (AREA)
- Instructional Devices (AREA)
Abstract
【課題】精度の高い移動体の自己位置の誤差の算出をすることができる自己位置誤差推定装置及び自己位置誤差推定方法を得る。【解決手段】自己位置誤差推定装置は、移動体に搭載された撮像部によって撮像された移動体の周囲の画像を取得する画像取得部と、画像と地図データとに基づいて移動体の現在の自己位置を算出するときに、地図データの誤差に基づいて自己位置の第1の誤差を算出する第1の誤差算出部と、地図データの誤差が無いとした場合の自己位置の第2の誤差を算出する第2の誤差算出部と、第1の誤差と第2の誤差とを含む自己位置の第3の誤差を算出する第3の誤差算出部と、を備える。【選択図】図4
Description
本発明の実施形態は、自己位置誤差推定装置及び自己位置誤差推定方法に関する。
従来、移動体の現在の自己位置を、予め作成された地図データと、撮像部によって撮像された画像とに基づいて推定する技術において、推定した移動体の自己位置の誤差を算出する技術が知られている。
しかしながら、上記の技術では、移動体の自己位置の誤差の算出に、地図データの誤差が考慮されていないため、自己位置の誤差の精度が低いという問題がある。
そこで、実施形態の課題の一つは、精度の高い移動体の自己位置の誤差の算出をすることができる自己位置誤差推定装置及び自己位置誤差推定方法を得ることである。
実施形態の自己位置誤差推定装置は、移動体に搭載された撮像部によって撮像された前記移動体の周囲の画像を取得する画像取得部と、前記画像と地図データとに基づいて前記移動体の現在の自己位置を算出するときに、前記地図データの誤差に基づいて前記自己位置の第1の誤差を算出する第1の誤差算出部と、前記地図データの前記誤差が無いとした場合の前記自己位置の第2の誤差を算出する第2の誤差算出部と、前記第1の誤差と前記第2の誤差とを含む前記自己位置の第3の誤差を算出する第3の誤差算出部と、を備える。
このような構成によれば、第3の誤差算出部が、地図データの誤差に基づいた自己位置の第1の誤差を含む自己位置の第3の誤差を算出するので、精度の高い移動体の自己位置の誤差(第3の誤差)を算出することができる。
また、前記自己位置誤差推定装置では、例えば、前記地図データは、当該地図データの作成用に時間及び/又は距離間隔をあけて撮像された複数の前記画像である複数のキーフレームに基づいて作成され、前記キーフレームが撮像されたときの前記移動体の位置での前記第1の誤差を示す第1の誤差情報は含まず、前記第1の誤差算出部は、前記自己位置の算出のための前記画像である自己位置算出用画像が撮像されたときに、前記第1の誤差を算出する。
このような構成によれば、第1の誤差算出部が、自己位置の算出のための画像である自己位置算出用画像が撮像されたときに、第1の誤差を算出するので、画像が撮像された位置における高い精度の移動体の第1の誤差を算出することができる。
また、前記自己位置誤差推定装置では、例えば、前記地図データは、当該地図データの作成用に時間及び/又は距離間隔をあけて撮像された複数の前記画像である複数のキーフレームに基づいて作成され、前記キーフレームが撮像されたときの前記移動体の位置を示すキーフレーム撮像位置情報と、当該キーフレーム撮像位置情報が示す前記位置での前記第1の誤差を示す第1の誤差情報と、を含み、前記第1の誤差算出部は、複数の前記キーフレームのうち前記自己位置の算出のための前記画像である自己位置算出用画像が撮像されたときの前記自己位置に位置が最も近い前記キーフレームにおける前記自己位置の誤差に基づいて、前記第1の誤差を算出する。
このような構成によれば、第1の誤差算出部が、地図データに含まれた第1の誤差情報に基づいて自己位置算出用画像が撮像されたときの自己位置の第1の誤差を算出するので自己位置の誤差の算出の処理にかかる時間を短くすることができる。
実施形態の自己位置誤差推定装置は、画像取得部が、移動体に搭載された撮像部によって撮像された前記移動体の周囲の画像を取得するステップと、第1の誤差算出部が、前記画像と地図データとに基づいて前記移動体の現在の自己位置を算出するときに、前記地図データの誤差に基づいて前記自己位置の第1の誤差を算出するステップと、第2の誤差算出部が、前記地図データの前記誤差が無いとした場合の前記自己位置の第2の誤差を算出する第2の誤差算出部と、第3の誤差算出部が、前記第1の誤差と前記第2の誤差とを含む前記自己位置の第3の誤差を算出するステップと、を含む。
このような構成によれば、第1の誤差算出部が、自己位置の算出のための画像である自己位置算出用画像が撮像されたときに、第1の誤差を算出するので、画像が撮像された位置における高い精度の移動体の誤差(第3の誤差)を算出することができる。
以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、及び効果は、一例である。本発明は、以下の実施形態に開示される構成以外によって実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも1つを得ることが可能である。
本実施形態にかかる車両は、内燃機関(エンジン)を駆動源とする自動車(内燃機関自動車)であっても良いし、電動機(モータ)を駆動源とする自動車(電気自動車、燃料電池自動車等)であっても良いし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であっても良い。また、車両は、種々の変速装置、内燃機関や電動機の駆動に必要な種々の装置(システム、部品等)を搭載可能である。また、車両における車輪の駆動に関わる装置の方式、個数、レイアウト等は、種々に設定可能である。
図1は、本実施形態にかかる車両の車室の一部が透視された状態の一例が示された斜視図である。図1に示すように、車両1は、車体2と、操舵部4と、加速操作部5と、制動操作部6と、変速操作部7と、モニタ装置11と、を備える。車体2は、乗員が乗車する車室2aを有する。車室2a内には、乗員としての運転手が座席2bに臨む状態で、操舵部4や、加速操作部5、制動操作部6、変速操作部7等が設けられている。操舵部4は、例えば、ダッシュボード24から突出したステアリングホイールである。加速操作部5は、例えば、運転手の足下に位置されたアクセルペダルである。制動操作部6は、例えば、運転手の足下に位置されたブレーキペダルである。変速操作部7は、例えば、センターコンソールから突出したシフトレバーである。車両1は、移動体の一例である。
モニタ装置11は、例えば、ダッシュボード24の車幅方向(すなわち、左右方向)の中央部に設けられる。モニタ装置11は、例えば、ナビゲーションシステム又はオーディオシステム等の機能を有していても良い。モニタ装置11は、表示装置8、音声出力装置9、及び操作入力部10を有する。また、モニタ装置11は、スイッチ、ダイヤル、ジョイスティック、及び押しボタン等の各種の操作入力部を有しても良い。
表示装置8は、LCD(Liquid Crystal Display)やOELD(Organic Electroluminescent Display)等で構成され、画像データに基づいて各種画像を表示可能である。音声出力装置9は、スピーカ等で構成され、音声データに基づいて各種音声を出力する。音声出力装置9は、車室2a内において、モニタ装置11以外の異なる位置に設けられていても良い。
操作入力部10は、タッチパネル等で構成され、乗員による各種情報の入力を可能とする。また、操作入力部10は、表示装置8の表示画面に設けられ、表示装置8に表示される画像を透過可能である。これにより、操作入力部10は、表示装置8の表示画面に表示される画像を乗員に視認させることを可能とする。操作入力部10は、表示装置8の表示画面上における乗員のタッチ操作を検出することによって、乗員による各種情報の入力を受け付ける。
図2は、本実施形態にかかる車両の一例の平面図である。図1及び図2に示すように、車両1は、四輪自動車等であり、左右2つの前輪3Fと、左右2つの後輪3Rと、を有する。4つの車輪3の全て又は一部が、転舵可能である。
車両1は、複数の撮像部15(車載カメラ)を搭載する。本実施形態では、車両1は、例えば、4つの撮像部15a~15dを搭載する。撮像部15は、CCD(Charge Coupled Device)又はCIS(CMOS Image Sensor)等の撮像素子を有するデジタルカメラである。撮像部15は、所定のフレームレートで車両1の周囲を撮像可能である。そして、撮像部15は、車両1の周囲を撮像して得られた撮像画像を出力する。撮像部15は、それぞれ、広角レンズ又は魚眼レンズを有し、水平方向には、例えば、140°~220°の範囲を撮像可能である。また、撮像部15の光軸は、斜め下方に向けて設定されている場合もある。
具体的には、撮像部15aは、例えば、車体2の後側の端部2eに位置し、リアハッチのドア2hのリアウィンドウの下方の壁部に設けられている。そして、撮像部15aは、車両1の周囲のうち、当該車両1の後方の領域を撮像可能である。撮像部15bは、例えば、車体2の右側の端部2fに位置し、右側のドアミラー2gに設けられている。そして、撮像部15bは、車両1の周囲のうち、当該車両の側方の領域を撮像可能である。撮像部15cは、例えば、車体2の前側、すなわち、車両1の前後方向の前方側の端部2cに位置し、フロントバンパやフロントグリル等に設けられている。そして、撮像部15cは、車両1の周囲のうち、当該車両1の前方の領域を撮像可能である。撮像部15dは、例えば、車体2の左側、すなわち、車幅方向の左側の端部2dに位置し、左側のドアミラー2gに設けられている。そして、撮像部15dは、車両1の周囲のうち、当該車両1の側方の領域を撮像可能である。
図3は、本実施形態にかかる車両の機能構成の一例を示すブロック図である。次に、図3を用いて、本実施形態にかかる車両1の機能構成の一例について説明する。
図3に示すように、車両1は、操舵システム13と、ブレーキシステム18と、舵角センサ19と、アクセルセンサ20と、シフトセンサ21と、車輪速センサ22と、車内ネットワーク23と、ECU(Electronic Control Unit)14と、を備える。
モニタ装置11、操舵システム13、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22、及びECU14は、電気通信回線である車内ネットワーク23を介して電気的に接続されている。車内ネットワーク23は、CAN(Controller Area Network)等により構成される。
操舵システム13は、電動パワーステアリングシステムやSBW(Steer By Wire)システム等である。操舵システム13は、アクチュエータ13a及びトルクセンサ13bを有する。そして、操舵システム13は、ECU14等によって電気的に制御され、アクチュエータ13aを動作させて、操舵部4に対して、トルクを付加して操舵力を補うことによって、車輪3を転舵する。トルクセンサ13bは、運転者が操舵部4に与えるトルクを検出し、その検出結果をECU14に送信する。
ブレーキシステム18は、車両1のブレーキのロックを制御するABS(Anti-lock Brake System)、コーナリング時の車両1の横滑りを抑制する横滑り防止装置(ESC:Electronic Stability Control)、ブレーキ力を増強させてブレーキをアシストする電動ブレーキシステム、及びBBW(Brake By Wire)を含む。
ブレーキシステム18は、アクチュエータ18a及びブレーキセンサ18bを有する。ブレーキシステム18は、ECU14等によって電気的に制御され、アクチュエータ18aを介して、車輪3に制動力を付与する。ブレーキシステム18は、左右の車輪3の回転差等から、ブレーキのロック、車輪3の空回り、及び横滑りの兆候等を検出して、ブレーキのロック、車輪3の空回り、及び横滑りを抑制する制御を実行する。ブレーキセンサ18bは、制動操作部6の可動部としてのブレーキペダルの位置を検出する変位センサであり、ブレーキペダルの位置の検出結果をECU14に送信する。
舵角センサ19は、ステアリングホイール等の操舵部4の操舵量を検出するセンサである。本実施形態では、舵角センサ19は、ホール素子等で構成され、操舵部4の回転部分の回転角度を操舵量として検出し、その検出結果をECU14に送信する。
アクセルセンサ20は、加速操作部5の可動部としてのアクセルペダルの位置を検出する変位センサであり、その検出結果をECU14に送信する。
シフトセンサ21は、変速操作部7の可動部(バー、アーム、ボタン等)の位置を検出するセンサであり、その検出結果をECU14に送信する。
車輪速センサ22は、ホール素子等を有し、車輪3の回転量や単位時間当たりの車輪3の回転数を検出するセンサであり、その検出結果をECU14に送信する。
ECU14は、コンピュータ等で構成され、ハードウェアとソフトウェアが協働することにより、車両1の制御全般を司る。具体的には、ECU14は、CPU(Central Processing Unit)14a、ROM(Read Only Memory)14b、RAM(Random Access Memory)14c、表示制御部14d、音声制御部14e、及びSSD(Solid State Drive)14fを備える。CPU14a、ROM14b、及びRAM14cは、同一の回路基板内に設けられていても良い。
CPU14aは、ROM14b等の不揮発性の記憶装置に記憶されたプログラムを読み出し、当該プログラムに従って各種の演算処理を実行する。例えば、CPU14aは、表示装置8に表示させる画像データに対する画像処理、駐車位置等の目標位置までの目標経路に従った車両1の走行の制御、撮像部15のキャリブレーションに関わる処理等を実行する。
ROM14bは、各種プログラム及び当該プログラムの実行に必要なパラメータ等を記憶する。
RAM14cは、CPU14aでの演算で用いられる各種データを一時的に記憶する。
表示制御部14dは、ECU14での演算処理のうち、主として、撮像部15から取得してCPU14aへ出力する画像データに対する画像処理、CPU14aから取得した画像データを表示装置8に表示させる表示用の画像データへの変換等を実行する。
音声制御部14eは、ECU14での演算処理のうち、主として、CPU14aから取得して音声出力装置9に出力させる音声の処理を実行する。
SSD14fは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合にあってもCPU14aから取得したデータを記憶し続ける。
図4は、本実施形態にかかる車両が有するECUの機能構成の一例を示すブロック図である。
次に、図4を用いて、本実施形態にかかる車両1が有するECU14の機能構成の一例について説明する。ECU14は、自己位置誤差推定装置の一例であり、自己位置誤差推定方法を実行する。
図4に示すように、ECU14は、地図データ作成部101と、画像取得部100、画像取得部100と、自己位置推定部102と、を備える。地図データ作成部101は、地図データ誤差算出部100aを有する。自己位置推定部102は、第1の誤差算出部102aと、第2の誤差算出部102bと、第3の誤差算出部102cと、を有する。
例えば、回路基板に搭載されたCPU14a等のプロセッサが、ROM14b又はSSD14f等の記憶媒体内に格納されたプログラムを実行することにより、ECU14は、地図データ作成部101、画像取得部100、及び自己位置推定部102の機能を実現する。地図データ作成部101、画像取得部100、及び自己位置推定部102の一部又は全部を回路等のハードウェアによって構成しても良い。
画像取得部100は、撮像部15によって車両1(移動体の一例)の周囲を撮像して得られる画像(フレーム)を取得する。以後、画像をフレームとも称する。本実施形態では、画像取得部100は、車両1の移動時に、撮像部15からフレームを取得する。
地図データ作成部101は、撮像される画像のうち所定タイミングのフレームである複数のキーフレーム内に存在する特徴点を抽出し、当該特徴点に基づいて、地図データを作成する。ここで、地図データは、車両1の周囲の地図データ(例えば、三次元の地図データ)である。また、地図データは、撮像部15の自己位置及び撮像部15の姿勢を示す位置姿勢情報を示す。
例えば、地図データ作成部101は、Visual SLAM(Simultaneous Localization And Mapping)によって、地図データを作成する。具体的には、地図データ作成部101は、撮像部15により撮像したフレームから特徴点を抽出する。次いで、地図データ作成部101は、撮像部15の位置姿勢情報、及び抽出した特徴点に基づいて、三角測量によって、撮像部15と当該特徴点間の距離を求めることにより、地図データを作成する。地図データは、対象物に関して予め定義された3次元座標の地図点を示すものである。
図5は、本実施形態にかかる車両が有するECUによる周辺地図データの作成処理の一例を説明するための図である。図5は、車両1が現実の位置P1からP6に移動する際に撮像部撮像部が各位置P1~P6で画像を撮像した場合に、対象物201の特徴点202a~202cの位置が算出された例を示している。以後、位置Pの総称として位置Pを用い、特徴点202a~202cの総称として特徴点202を用いる。特徴点202は、地図点を構成する。
上記地図データには、地図データの誤差として特徴点202(すなわち地図点)の位置の誤差(ばらつき)が含まれる。ここで、誤差は、特徴点202(地図点)の確定した位置に対する誤差である。図5では、各特徴点202a~202cの位置の誤差の範囲が領域2Ra~Rcで模式的に表されている。領域Ra~Rcの総称として領域Rを用いる。地図データは、上述のようにSLAMによって作成されるが、この場合、SLAMによる地図データ作成過程において公知の方法で特徴点202(地図点)に関する分散共分散行列が算出される。この分散共分散行列が、特徴点202(地図点)の位置の誤差を表す。この誤差は、地図データ作成部101の地図データ誤差算出部100aが算出する。換言すると、地図データ誤差算出部100aは、正しい位置に対して地図点の位置がどのくらい正しいか(正確度)を求める。すなわち、地図データ誤差算出部100aは、地図点の正しい位置に対する誤差を推定する。
図4に戻って、自己位置推定部102は、地図データが作成された後に、車両1の現在の自己位置を、撮像部15によって撮像された車両1の周囲の画像と、地図データとに基づいて推定(算出)する。自己位置推定部102は、画像の特徴点を抽出し当該特徴点と地図データ中の点である地図点とのマッチングを行い、マッチング結果を基にして、撮像部の位置姿勢すなわち車両1の位置姿勢を推定する。ここで、3次元マップは、対象物に関して予め定義された3次元座標のマップ点を示すものである。
第1の誤差算出部102aは、画像と地図データとに基づいて車両1の現在の自己位置を算出するときに、地図データの誤差に基づいて自己位置の第1の誤差を算出する。第2の誤差算出部102bは、地図データの誤差が無いとした場合の自己位置の第2の誤差を算出する。自己位置の第1の誤差及び第2の誤差は、自己位置推定部102が算出して確定した自己位置に対する誤差(ばらつき)である。換言すると、第1の誤差算出部102aは、画像と地図データとに基づいて車両1の現在の自己位置を算出するときに、地図データの誤差に基づいて自己位置が正しい位置に対してどのくらい正しいかを求める。すなわち、第1の誤差算出部102aは、地図データの誤差に基づいて自己位置の正しい位置に対する誤差を推定する。また、第2の誤差算出部102bは、地図データの誤差が無いとした場合の自己位置が正しい位置に対してどのくらい正しいかを求める。すなわち、第2の誤差算出部102bは、地図データの誤差が無いとした場合の自己位置の正しい位置に対する誤差を推定する。
第1の誤差と第2の誤差の算出方法について説明する。まずは、第2の誤差について説明する。第2の誤差は、自己位置の算出の過程で算出される。自己位置の算出においては、算出される撮像部15の姿勢・位置に対して公知の方法で最適化処理が実行される。ここで、最適化前の撮像部15の姿勢・位置(初期姿勢・位置)を(R0、t0)とし、最適化前にマッチングしている地図点の集合をS0とする。(R0、t0)に対して4回(i=1、2、3、4)の再投影誤差を最小化する最適化が行われる。i回目の最適化ではSi―1の全ての地図点について再投影誤差を計算して閾値以下のものをインライアとしてSiに含める。S4の再投影誤差算出時に分散共分散行列を計算する。この分散共分散行列を位置と姿勢とに分解する。この分散共分散行列における位置と姿勢の部分が第2の誤差を表す。
第1の誤差は、第2の誤差を算出過程で求めたS4を対象として、以下の10回の再投影誤差を最小化する最適化を行う。このとき最適化前の撮像部15の初期推定位置・姿勢は(R0、t0)である。各地図点に正規分布に従うノイズを加える。正規分布に従うノイズは、地図データ作成時に算出された地図点の分散共分散行列である。そして、S4の再投影誤差算出時に分散共分散行列を計算する。10回分の分散共分散行列を統合し、この分散共分散行列を位置と姿勢とに分解する。この分散共分散行列における位置と姿勢の部分が第1の誤差を表す。図5では、第1の誤差の範囲が領域Qで模式的に表されている。なお、第1の誤差の算出では、インライア/アウトライアは判定されない。
第3の誤差算出部102cは、第1の誤差と第2の誤差とを含む自己位置の第3の誤差を算出する。具体的には、第1の誤差と第2の誤差とを足し合わせることにより、第3の誤差を得る。
ECU14は、自己位置推定部102によって推定され自己位置を用いて車両1の自動運転を行うことができる。
図6は、本実施形態にかかる車両が有するECUによる車両の自己位置の誤差の算出処理の流れの一例を示すフローチャートである。
次に、図6を用いて、本実施形態にかかる車両1が有するECU14による車両1の自己位置の誤差の算出処理の流れの一例について説明する。
画像取得部100は、車両1の移動中に撮像部15によって撮像された画像を撮像部
15から取得する(ステップS21)。
15から取得する(ステップS21)。
次に、第1の誤差算出部102aが、地図データの誤差に基づいて自己位置の第1の誤差を算出する(S22)。次に、第2の誤差算出部102bが、地図データの誤差が無いとした場合の自己位置の第2の誤差を算出する(S23)。次に、第3の誤差算出部102cが、第1の誤差と第2の誤差とを含む自己位置の第3の誤差を算出する(S24)。
以上のように、本実施形態のECU14(自己位置誤差推定装置)は、画像取得部100と、第1の誤差算出部102aと、第2の誤差算出部102bと、第3の誤差算出部102cと、を備える。画像取得部100は、車両1(移動体)に搭載された撮像部15によって撮像された車両1の周囲の画像を取得する。第1の誤差算出部102aは、画像と地図データとに基づいて車両1の現在の自己位置を算出するときに、地図データの誤差に基づいて自己位置の第1の誤差を算出する。第2の誤差算出部102bは、地図データの誤差が無いとした場合の自己位置の第2の誤差を算出する。第3の誤差算出部102cは、第1の誤差と第2の誤差とを含む自己位置の第3の誤差を算出する。
このような構成によれば、第3の誤差算出部102cが、地図データの誤差に基づいた自己位置の第1の誤差を含む自己位置の第3の誤差を算出するので、精度の高い車両1の自己位置の誤差(第3の誤差)を算出することができる。
また、地図データは、当該地図データの作成用に時間及び/又は距離間隔をあけて撮像された複数の画像である複数のキーフレームに基づいて作成され、キーフレームが撮像されたときの車両1の位置での前記第1の誤差を示す第1の誤差情報は含まない。第1の誤差算出部102aは、自己位置の算出のための画像である自己位置算出用画像が撮像されたときに、第1の誤差を算出する。
このような構成によれば、第1の誤差算出部102aが、自己位置の算出のための画像である自己位置算出用画像が撮像されたときに、第1の誤差を算出するので、画像が撮像された位置における高い精度の車両1の自己位置を算出することができる。
次に、本実施形態の変形例について説明する。本変形例では、地図データの作成時に第1の誤差が算出される。地図データは、当該地図データの作成用に時間及び/又は距離間隔をあけて撮像された複数の前記画像である複数のキーフレームに基づいて作成される。地図データは、キーフレーム撮像位置情報と、第1の誤差情報と、を含む。キーフレーム撮像位置情報は、キーフレームが撮像されたときの車両1の位置を示す。第1の誤差情報は、キーフレーム撮像位置情報が示す位置での第1の誤差を示す。
本変形例では、第1の誤差算出部102aは、複数のキーフレームのうち自己位置の算出のための画像である自己位置算出用画像が撮像されたときの自己位置に位置が最も近いキーフレームにおける自己位置の誤差に基づいて、前記第1の誤差を算出する。具体的には、図5に示されるように、車両1が位置Paで画像を撮像した場合、キーフレームのうち撮像位置が位置Paに最も近いものと2番目に追加ものとを二つ抽出する。図5の例では、位置P4と位置P5で撮像されたキーフレームである。そして、位置Paに対する位置P4と位置P5におけるキーフレームに対して求められた第1の誤差を用いて、位置Paの第1の誤差を算出する。例えば、位置Paと位置P4との間の距離をL1とし、位置Paと位置P5との間の距離をL2とし、位置Pa,P4,P5での第1の誤差をそれぞれMa、M4、M5とした場合、Maは、次式で求められる。
Ma=M4×(L2/(L1+L2))+M5×(L1/(L1+L2))
Ma=M4×(L2/(L1+L2))+M5×(L1/(L1+L2))
このような構成によれば、第1の誤差算出部102aが、地図データに含まれた第1の誤差情報に基づいて自己位置算出用画像が撮像されたときの自己位置の第1の誤差を算出するので自己位置の誤差の算出の処理にかかる時間を短くすることができる。
実施形態のECU14(自己位置誤差推定装置)は、画像取得部100が、車両1(移動体)に搭載された撮像部15によって撮像された車両1の周囲の画像を取得するステップと、第1の誤差算出部102aが、画像と地図データとに基づいて車両1の位置である自己位置を算出するときに、地図データの誤差に基づいて自己位置の第1の誤差を算出するステップと、第2の誤差算出部102bが、地図データの誤差が無いとした場合の前記自己位置の第2の誤差を算出する第2の誤差算出部102bと、第3の誤差算出部102cが、第1の誤差と第2の誤差とを含む自己位置の第3の誤差を算出するステップと、を含む。
このような構成によれば、第1の誤差算出部102aが、自己位置の算出のための画像である自己位置算出用画像が撮像されたときに、第1の誤差を算出するので、画像が撮像された位置における高い精度の車両1の第1の誤差を算出することができる。
なお、上記実施形態では、移動体として車両1の例が示されたが、これに限定されない。例えば、移動体はドローン等の飛行体であってもよい。
以上、本発明の実施形態を例示したが、上記実施形態は一例であって、発明の範囲を限定することは意図していない。実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、組み合わせ、変更を行うことができる。
1…車両、14…ECU(自己位置誤差推定装置)、100…画像取得部、102a…第1の誤差算出部、102b…第2の誤差算出部、102c…第3の誤差算出部。
実施形態の自己位置誤差推定装置は、移動体に搭載された撮像部によって撮像された前記移動体の周囲の画像を取得する画像取得部と、前記画像に基づいて環境地図データを作成する環境地図データ作成部と、前記環境地図データが作成された後に撮像された画像と前記環境地図データとに基づいて前記移動体の現在の自己位置を算出する自己位置推定部と、を備え、前記自己位置推定部は、前記環境地図データの作成時に算出された地図点に係る誤差に基づいて前記自己位置の第1の誤差を算出する第1の誤差算出部と、前記移動体の移動中に撮像された画像から前記撮像部の複数の位置及び姿勢に基づいて前記自己位置の第2の誤差を算出する第2の誤差算出部と、前記第1の誤差と前記第2の誤差とを含む前記自己位置の第3の誤差を算出する第3の誤差算出部と、を備える。
また、前記自己位置誤差推定装置では、例えば、前記環境地図データは、前記移動体の移動中に撮像された画像から前記撮像部の複数の位置及び姿勢に基づいて、三角測量によって作成される。
また、前記自己位置誤差推定装置では、例えば、前記環境地図データは、当該環境地図データの作成用に時間及び/又は距離間隔をあけて撮像された複数の前記画像である複数のキーフレームに基づいて作成され、前記キーフレームが撮像されたときの前記移動体の位置での前記第1の誤差を示す第1の誤差情報は含まず、前記第1の誤差算出部は、前記自己位置の算出のための前記画像である自己位置算出用画像が撮像されたときに、前記第1の誤差を算出する。
また、前記自己位置誤差推定装置では、例えば、前記環境地図データは、当該環境地図データの作成用に時間及び/又は距離間隔をあけて撮像された複数の前記画像である複数のキーフレームに基づいて作成され、前記キーフレームが撮像されたときの前記移動体の位置での前記第1の誤差を示す第1の誤差情報は含まず、前記第1の誤差算出部は、前記自己位置の算出のための前記画像である自己位置算出用画像が撮像されたときに、前記第1の誤差を算出する。
また、前記自己位置誤差推定装置では、例えば、前記環境地図データは、当該地図データの作成用に時間及び/又は距離間隔をあけて撮像された複数の前記画像である複数のキーフレームに基づいて作成され、前記キーフレームが撮像されたときの前記移動体の位置を示すキーフレーム撮像位置情報と、当該キーフレーム撮像位置情報が示す前記位置での前記第1の誤差を示す第1の誤差情報と、を含み、前記第1の誤差算出部は、複数の前記キーフレームのうち前記自己位置の算出のための前記画像である自己位置算出用画像が撮像されたときの前記自己位置に位置が最も近い前記キーフレームにおける前記自己位置の誤差に基づいて、前記第1の誤差を算出する。
実施形態の自己位置誤差推定方法は、画像取得部が、移動体に搭載された撮像部によって撮像された前記移動体の周囲の画像を取得するステップと、環境地図データ作成図が、前記画像に基づいて環境地図データを作成するステップと、自己位置推定部が、前記環境地図データが作成された後に撮像された画像と前記環境地図データとに基づいて前記移動体の現在の自己位置を算出するステップと、を含み、前記移動体の現在の自己位置を算出する前記ステップは、第1の誤差算出部が、前記環境地図データの作成時に算出された地図点に係る誤差に基づいて前記自己位置の第1の誤差を算出するステップと、第2の誤差算出部が、前記移動体の移動中に撮像された画像から前記撮像部の複数の位置及び姿勢に基づいて前記自己位置の第2の誤差を算出するステップと、第3の誤差算出部が、前記第1の誤差と前記第2の誤差とを含む前記自己位置の第3の誤差を算出するステップと、を含む。
Claims (4)
- 移動体に搭載された撮像部によって撮像された前記移動体の周囲の画像を取得する画像取得部と、
前記画像と地図データとに基づいて前記移動体の現在の自己位置を算出するときに、前記地図データの誤差に基づいて前記自己位置の第1の誤差を算出する第1の誤差算出部と、
前記地図データの前記誤差が無いとした場合の前記自己位置の第2の誤差を算出する第2の誤差算出部と、
前記第1の誤差と前記第2の誤差とを含む前記自己位置の第3の誤差を算出する第3の誤差算出部と、
を備えた自己位置誤差推定装置。 - 前記地図データは、当該地図データの作成用に時間及び/又は距離間隔をあけて撮像された複数の前記画像である複数のキーフレームに基づいて作成され、前記キーフレームが撮像されたときの前記移動体の位置での前記第1の誤差を示す第1の誤差情報は含まず、
前記第1の誤差算出部は、前記自己位置の算出のための前記画像である自己位置算出用画像が撮像されたときに、前記第1の誤差を算出する、
請求項1に記載の自己位置誤差推定装置。 - 前記地図データは、当該地図データの作成用に時間及び/又は距離間隔をあけて撮像された複数の前記画像である複数のキーフレームに基づいて作成され、前記キーフレームが撮像されたときの前記移動体の位置を示すキーフレーム撮像位置情報と、当該キーフレーム撮像位置情報が示す前記位置での前記第1の誤差を示す第1の誤差情報と、を含み、
前記第1の誤差算出部は、複数の前記キーフレームのうち前記自己位置の算出のための前記画像である自己位置算出用画像が撮像されたときの前記自己位置に位置が最も近い前記キーフレームにおける前記自己位置の誤差に基づいて、前記第1の誤差を算出する、
請求項1に記載の自己位置誤差推定装置。 - 画像取得部が、移動体に搭載された撮像部によって撮像された前記移動体の周囲の画像を取得するステップと、
第1の誤差算出部が、前記画像と地図データとに基づいて前記移動体の現在の自己位置を算出するときに、前記地図データの誤差に基づいて前記自己位置の第1の誤差を算出するステップと、
第2の誤差算出部が、前記地図データの前記誤差が無いとした場合の前記自己位置の第2の誤差を算出する第2の誤差算出部と、
第3の誤差算出部が、前記第1の誤差と前記第2の誤差とを含む前記自己位置の第3の誤差を算出するステップと、
を含む自己位置誤差推定方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022059992A JP2023150740A (ja) | 2022-03-31 | 2022-03-31 | 自己位置誤差推定装置及び自己位置誤差推定方法 |
PCT/JP2023/005161 WO2023188927A1 (ja) | 2022-03-31 | 2023-02-15 | 自己位置誤差推定装置及び自己位置誤差推定方法 |
CN202380018133.9A CN118575057A (zh) | 2022-03-31 | 2023-02-15 | 自身位置误差推定装置和自身位置误差推定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022059992A JP2023150740A (ja) | 2022-03-31 | 2022-03-31 | 自己位置誤差推定装置及び自己位置誤差推定方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023150740A true JP2023150740A (ja) | 2023-10-16 |
Family
ID=88200306
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022059992A Pending JP2023150740A (ja) | 2022-03-31 | 2022-03-31 | 自己位置誤差推定装置及び自己位置誤差推定方法 |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP2023150740A (ja) |
CN (1) | CN118575057A (ja) |
WO (1) | WO2023188927A1 (ja) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3438925A4 (en) | 2016-03-30 | 2019-04-17 | Sony Corporation | INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING DEVICE |
WO2018181974A1 (ja) * | 2017-03-30 | 2018-10-04 | パイオニア株式会社 | 判定装置、判定方法、及び、プログラム |
JP7259454B2 (ja) * | 2019-03-22 | 2023-04-18 | 富士通株式会社 | 移動体位置推定システムおよび移動体位置推定方法 |
-
2022
- 2022-03-31 JP JP2022059992A patent/JP2023150740A/ja active Pending
-
2023
- 2023-02-15 WO PCT/JP2023/005161 patent/WO2023188927A1/ja active Application Filing
- 2023-02-15 CN CN202380018133.9A patent/CN118575057A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2023188927A1 (ja) | 2023-10-05 |
CN118575057A (zh) | 2024-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6015314B2 (ja) | 駐車目標位置を算出する装置、駐車目標位置を算出する方法およびプログラム | |
JP7151293B2 (ja) | 車両周辺表示装置 | |
JP7211047B2 (ja) | 路面検出装置および路面検出プログラム | |
JP7351172B2 (ja) | 駐車支援装置 | |
WO2018150642A1 (ja) | 周辺監視装置 | |
JP7210965B2 (ja) | 室内監視装置 | |
EP3291545B1 (en) | Display control device | |
CN111066319B (zh) | 图像处理装置 | |
JP7167655B2 (ja) | 道路劣化情報収集装置 | |
US10540807B2 (en) | Image processing device | |
CN110877575A (zh) | 周边监视装置 | |
JP7283514B2 (ja) | 表示制御装置 | |
JP7427907B2 (ja) | 駐車支援装置 | |
JP7358933B2 (ja) | カメラキャリブレーション装置 | |
WO2023188927A1 (ja) | 自己位置誤差推定装置及び自己位置誤差推定方法 | |
JP2020053819A (ja) | 撮像システム、撮像装置、および信号処理装置 | |
JP7114919B2 (ja) | 走行支援装置 | |
JP7130923B2 (ja) | 表示制御装置 | |
WO2024195772A1 (ja) | 車両制御装置 | |
JP7383973B2 (ja) | 駐車支援装置 | |
CN113165657B (zh) | 路面检测装置以及计算机可读存储介质 | |
WO2024195759A1 (ja) | 車両制御装置 | |
JP7259212B2 (ja) | 走行制御装置、走行制御方法、および走行制御プログラム | |
JP2017069846A (ja) | 表示制御装置 | |
JP6601097B2 (ja) | 表示制御装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230210 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240207 |