JP2019132664A - 自車位置推定装置、自車位置推定方法、及び自車位置推定プログラム - Google Patents

自車位置推定装置、自車位置推定方法、及び自車位置推定プログラム Download PDF

Info

Publication number
JP2019132664A
JP2019132664A JP2018013946A JP2018013946A JP2019132664A JP 2019132664 A JP2019132664 A JP 2019132664A JP 2018013946 A JP2018013946 A JP 2018013946A JP 2018013946 A JP2018013946 A JP 2018013946A JP 2019132664 A JP2019132664 A JP 2019132664A
Authority
JP
Japan
Prior art keywords
feature
image
feature point
unit
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018013946A
Other languages
English (en)
Other versions
JP7036400B2 (ja
Inventor
浅井 彰司
Shoji Asai
彰司 浅井
浅海 周
Shu Asaumi
周 浅海
博 石黒
Hiroshi Ishiguro
博 石黒
和孝 早川
Kazutaka Hayakawa
和孝 早川
崇士 鈴木
Takashi Suzuki
崇士 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Toyota Central R&D Labs Inc filed Critical Aisin Seiki Co Ltd
Priority to JP2018013946A priority Critical patent/JP7036400B2/ja
Priority to CN201910035085.XA priority patent/CN110044256B/zh
Priority to US16/248,191 priority patent/US10949996B2/en
Priority to DE102019100885.9A priority patent/DE102019100885A1/de
Publication of JP2019132664A publication Critical patent/JP2019132664A/ja
Application granted granted Critical
Publication of JP7036400B2 publication Critical patent/JP7036400B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】周囲の明るさが変化した場合であっても、精度良く自車位置を推定する。【解決手段】自車位置推定装置10は、走行経路に沿った複数の位置でカメラ14により撮影された複数の基準画像の各々に関連付けられた、基準画像の各特徴点、特徴量、カメラ14の位置及び姿勢を含む地図情報16Aと、走行経路に沿って自車を走行させた状態でカメラ14により撮影された走行画像から特徴点を検出する検出部20と、検出された特徴点の特徴を示す特徴量を算出する算出部22と、算出された特徴量に基づいて、複数の基準画像から走行画像に類似する類似画像を選定し、画像間の特徴量の比較により、走行画像の特徴点と類似画像の特徴点との対応付けを行った結果に基づいて、自車の位置及び姿勢を推定する推定部24と、対応付けられた走行画像の特徴点の特徴量を、類似画像の特徴点の特徴量として地図情報16Aに追加する追加部26と、を備える。【選択図】図3

Description

本発明は、自車位置推定装置、自車位置推定方法、及び自車位置推定プログラムに関する。
移動体に搭載されたカメラ等の撮影部によって撮影された撮影画像に基づいて、3次元空間上における移動体の位置を推定する技術が提案されている。
従来、自車位置の推定に関連する技術として、例えば特許文献1に開示された自動運転制御装置が知られている。特許文献1に係る自動運転制御装置は、車両が運転者に運転される登録モードにおいて車両の周囲環境を撮像した画像である登録時画像に基づき、車両を自動運転するための自動運転情報を生成する自動運転情報登録部と、車両が自動運転される自動運転モードにおいて車両の周囲環境を撮像した画像である自動運転時画像と、自動運転情報とに基づき、車両を自動運転する自動運転制御部と、を有し、自動運転情報登録部は、登録時画像に基づき、車両の周囲環境に存在する候補特徴点を抽出する候補特徴点抽出部と、車両の移動中に撮像された複数の登録時画像に基づき、候補特徴点のうち、車両の目的箇所の周囲に固定して配置された構造物であると判断した候補特徴点を、特徴点として選定し、所定の原点座標に対する特徴点の位置の情報である自動運転情報を生成する自動運転情報生成部と、を有し、自動運転制御部は、自動運転時画像と自動運転情報とに基づき、原点座標に対する車両の位置の情報である車両位置情報を算出する車両位置算出部と、車両位置情報に基づき、車両を目的箇所まで自動運転する自動運転実行制御部と、を有している。すなわち、特許文献1に係る自動運転制御装置では、事前に走行した際の画像から構造物の特徴点を抽出し、その3次元位置を推定して地図に登録し、自動運転時に画像から構造物の特徴点を抽出し、地図に登録された構造物の特徴点と照合することにより自車位置を推定している。
特開2017−138664号公報
ところで、画像から抽出される特徴点として、周囲との輝度差が大きい点を抽出する場合がある。この場合、例えば、日中と夜間とでは、周囲の明るさが変化するため、特徴点の特徴量が変化することがある。この特徴量の変化によって、地図に登録された特徴点との対応付けがうまくいかず、自車位置を精度良く推定することができない場合がある。上記特許文献1では、周囲の明るさの変化について考慮されていないため、このような場合、精度良く自車位置を推定することは困難である。
本発明は、上述した課題を解決するためになされたものであり、周囲の明るさが変化した場合であっても、精度良く自車位置を推定することができる自車位置推定装置、自車位置推定方法、及び自車位置推定プログラムを提供することを目的とする。
上記目的を達成するために、請求項1に記載の自車位置推定装置は、所定の走行経路に沿った複数の位置で自車に搭載された撮影部により撮影された複数の基準画像の各々に関連付けられた、前記基準画像から検出された各特徴点と、各特徴点について登録された特徴点の特徴を示す少なくとも1つの特徴量と、前記基準画像の撮影時における前記撮影部の位置及び姿勢と、を含む地図情報を記憶した記憶部と、前記所定の走行経路に沿って自車を走行させた状態で前記撮影部により撮影された走行画像から特徴点を検出する検出部と、前記検出部により検出された特徴点の特徴を示す特徴量を算出する算出部と、前記算出部により算出された特徴量に基づいて、前記複数の基準画像から前記走行画像に類似する類似画像を選定し、前記走行画像の特徴点の特徴量と前記類似画像の特徴点の特徴量とを比較することにより、前記走行画像の特徴点と前記類似画像の特徴点との対応付けを行い、対応付けの結果に基づいて、前記所定の走行経路における自車の位置及び姿勢を推定する推定部と、前記推定部により前記類似画像の特徴点と対応付けられた前記走行画像の特徴点の特徴量を、前記類似画像である基準画像の特徴点の特徴量として前記地図情報に追加する追加部と、を備えている。
また、請求項2に記載の発明は、請求項1に記載の発明において、前記推定部が、複数の特徴量が登録されている前記類似画像の特徴点との対応付けを行う際には、前記複数の特徴量の各々について、前記走行画像の特徴点の特徴量との間で距離を計算し、計算した距離の最小値が予め定められた値以下となる場合に、前記走行画像の特徴点と前記類似画像の特徴点との対応付けを行う。
また、請求項3に記載の発明は、請求項1又は2に記載の発明において、前記追加部が、前記類似画像の特徴点に登録されている複数の特徴量の数が上限数に達した場合に、登録済みの複数の特徴量及び追加する特徴量のうちの特徴量のペア毎に相互の距離を計算し、計算された各特徴量との距離の中間値が最小となる特徴量を削除する。
また、請求項4に記載の発明は、請求項1〜3のいずれか1項に記載の発明において、前記地図情報が、前記複数の基準画像の各々から検出された特徴点の前記地図情報における位置を更に含み、前記推定部が、対応付けた前記走行画像の特徴点の位置と前記類似画像の特徴点の位置とに基づいて、前記撮影部の位置及び姿勢を推定し、推定した前記撮影部の位置及び姿勢を自車の代表点に換算することにより、前記所定の走行経路における自車の位置及び姿勢を推定する。
また、請求項5に記載の発明は、請求項4に記載の発明において、前記推定部が、前記走行画像の特徴点の位置と、前記類似画像の撮影時における前記撮影部の位置及び姿勢に基づいて前記類似画像の特徴点を前記走行画像に投影して得られる投影点の位置との差で表される投影誤差の総和が最小となる前記撮影部の位置及び姿勢を推定する。
また、請求項6に記載の発明は、請求項5に記載の発明において、前記追加部が、前記推定部により対応付けられた前記走行画像の特徴点のうち、前記投影誤差が予め定められた値以下となる特徴点の特徴量を選択的に前記地図情報に追加する。
一方、上記目的を達成するために、請求項7に記載の自車位置推定方法は、所定の走行経路に沿った複数の位置で自車に搭載された撮影部により撮影された複数の基準画像の各々に関連付けられた、前記基準画像から検出された各特徴点と、各特徴点について登録された特徴点の特徴を示す少なくとも1つの特徴量と、前記基準画像の撮影時における前記撮影部の位置及び姿勢と、を含む地図情報を記憶した記憶部を備えた自車位置推定装置による自車位置推定方法であって、検出部が、前記所定の走行経路に沿って自車を走行させた状態で前記撮影部により撮影された走行画像から特徴点を検出するステップと、算出部が、前記検出部により検出された特徴点の特徴を示す特徴量を算出するステップと、推定部が、前記算出部により算出された特徴量に基づいて、前記複数の基準画像から前記走行画像に類似する類似画像を選定し、前記走行画像の特徴点の特徴量と前記類似画像の特徴点の特徴量とを比較することにより、前記走行画像の特徴点と前記類似画像の特徴点との対応付けを行い、対応付けの結果に基づいて、前記所定の走行経路における自車の位置及び姿勢を推定するステップと、追加部が、前記推定部により前記類似画像の特徴点と対応付けられた前記走行画像の特徴点の特徴量を、前記類似画像である基準画像の特徴点の特徴量として前記地図情報に追加するステップと、を含んでいる。
更に、上記目的を達成するために、請求項8に記載の自車位置推定プログラムは、所定の走行経路に沿った複数の位置で自車に搭載された撮影部により撮影された複数の基準画像の各々に関連付けられた、前記基準画像から検出された各特徴点と、各特徴点について登録された特徴点の特徴を示す少なくとも1つの特徴量と、前記基準画像の撮影時における前記撮影部の位置及び姿勢と、を含む地図情報を記憶した記憶部を備えた自車位置推定装置で実行される自車位置推定プログラムであって、前記所定の走行経路に沿って自車を走行させた状態で前記撮影部により撮影された走行画像から特徴点を検出する検出部、前記検出部により検出された特徴点の特徴を示す特徴量を算出する算出部、前記算出部により算出された特徴量に基づいて、前記複数の基準画像から前記走行画像に類似する類似画像を選定し、前記走行画像の特徴点の特徴量と前記類似画像の特徴点の特徴量とを比較することにより、前記走行画像の特徴点と前記類似画像の特徴点との対応付けを行い、対応付けの結果に基づいて、前記所定の走行経路における自車の位置及び姿勢を推定する推定部、及び前記推定部により前記類似画像の特徴点と対応付けられた前記走行画像の特徴点の特徴量を、前記類似画像である基準画像の特徴点の特徴量として前記地図情報に追加する追加部、として機能させる。
本発明によれば、周囲の明るさが変化した場合であっても、精度良く自車位置を推定することができる自車位置推定装置、自車位置推定方法、及び自車位置推定プログラムを提供することができる。
(a)は実施形態に係るカメラを搭載した車両の一例を示す側面図である。(b)は実施形態に係る自車位置推定装置の電気的な構成の一例を示すブロック図である。 (a)は実施形態に係る駐車経路における特徴点の一例を示す図である。(b)は実施形態に係るキーフレームのカメラ位置と特徴点の位置の一例を示す図である。 実施形態に係る自車位置推定装置の機能的な構成の一例を示すブロック図である。 実施形態に係る走行画像の特徴点と類似キーフレームの特徴点との対応付けの説明に供する図である。 実施形態に係る走行画像の特徴量と類似キーフレームの特徴量との間の距離の説明に供する図である。 実施形態に係る投影誤差の説明に供する図である。 実施形態に係る類似キーフレームの特徴点に登録されている複数の特徴量の数が上限数に達した場合に削除する特徴量の説明に供する図である。 実施形態に係る自車位置推定プログラムによる処理の流れの一例を示すフローチャートである。
以下、図面を参照して、本発明の実施の形態について詳細に説明する。なお、以下の説明では、移動体として車両を例にとり、車両が自車の位置を推定する際の周囲環境を駐車場とし、走行経路として駐車場外部から駐車地点までの経路を例示して説明する。
図1から図8を参照して、本実施形態に係る自車位置推定装置、自車位置推定方法、及び自車位置推定プログラムについて説明する。
図1(a)は、本実施形態に係るカメラ14を搭載した車両50の一例を示す側面図である。
図1(a)に示すように、車両50は、本実施形態に係る自車位置の推定処理(以下、「自車位置推定処理」という。)において使用する、撮影部の一例としてのカメラ14を備えている。
本実施形態に係るカメラ14は、車両50の後部のトランク等に設けられ、車両後方を撮影する。カメラ14は、例えば、車幅方向の略中央部付近に設けられ、かつカメラ14の光軸が水平方向より若干下側を向くように配置されている。なお、本実施形態では、カメラ14を車両50の後部に設ける形態を例示して説明するが、これに限られず、環境等に応じて例えば前部に設けてもよい。また、本実施形態では、カメラ14として単眼カメラを例示して説明するが、これに限られず他の形態のカメラ、例えばステレオカメラ等であってもよい。
図1(b)は、本実施形態に係る自車位置推定装置10の電気的な構成の一例を示すブロック図である。
図1(b)に示すように、本実施形態に係る自車位置推定装置10は、車両50に搭載され、制御部12、カメラ14、記憶部16、及び表示部18を含んで構成されている。
制御部12は、自車位置を推定するための演算等を行う。制御部12は、一例としてCPU(Central Processing Unit)12A、ROM(Read Only Memory)12B、RAM(Random Access Memory)12C、入出力インタフェースであるI/O12D等を含んで構成されている。CPU12A、ROM12B、RAM12C、及びI/O12Dの各々はバス12Eにより相互に接続されている。
CPU12Aは、自車位置推定装置10の全体を統括、制御する。ROM12Bは、本実施形態で用いる地図を生成するための地図生成プログラムや、自車位置を推定する自車位置推定プログラムを含む各種プログラムやデータ等が記憶されている。RAM12Cは、各種プログラムの実行時のワークエリアとして用いられるメモリである。ROM12Bに記憶されたプログラムをRAM12Cに展開してCPU12Aが実行することにより、地図の生成や、自車位置の推定が行われる。
制御部12には、I/O12Dを介して、カメラ14、記憶部16、及び表示部18が接続されている。カメラ14により撮影された画像は、I/O12Dを介して制御部12に取り込まれる。
また、記憶部16には、本実施形態に係る自車位置推定処理に用いる地図情報等が格納されている。記憶部16の形態に特に制限はないが、一例としてHDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等を用いることができる。なお、記憶部16は制御部12内に設けてもよいし、外部接続可能としてもよい。また、記憶部16には制御部12の制御によって生成した地図情報の他に、ROM12Bに代えて、地図生成プログラムや自車位置推定プログラムを記憶してもよい。
表示部18は、カメラ14が撮影した画像等を表示する。表示部18の形態に制限はないが、例えば、液晶モニタ、CRT(Cathode Ray Tube)モニタ、FPD(Flat Panel Display)モニタ等が用いられる。
図2(a)は、本実施形態に係る駐車経路における特徴点の一例を示す図である。
図2(a)では、本実施形態で想定する駐車場の様子(以下、「環境」という。)を示している。
本実施形態では、車両50の走行経路として、図2(a)に示す「スタート」の位置(出発地点)から、「ゴール」の位置(駐車地点)までを想定している。図2(a)に示す符号「FP」は、以下で説明する特徴点の位置を示している。車両50の自車位置を推定する場合には、所定の大きさを有する車両50内の位置(以下、「車両代表点X」)を予め決めておく必要があるが、図2(b)に示すように、本実施形態ではこの車両代表点Xを後輪の中央の点としている。しかしながら、代表点の位置はこれに限られず、例えば車両50の重心の位置としてもよい。
図2(b)は、本実施形態に係るキーフレームのカメラ位置と特徴点の位置の一例を示す図で、図2(a)に示す環境の平面図である。
図2(b)に示すように、カメラ14を搭載した車両50は、スタート地点SPからゴール地点GPまで走行する。本実施形態に係る自車位置推定処理では、実際の走行の前に、カメラ14で環境を撮影し、撮影された画像に関連付けられた所定の付随データを地図として予め生成しておくが、符号「S」は、地図の生成の際の車両50の走行軌跡を示している。実際の駐車においては、基本的に走行軌跡Sに沿って走行する。以下では、走行軌跡Sと区別して、実際の駐車時(走行時)に走行する経路を「走行経路」という場合がある。
図2(b)に示す小円は、特徴点FPの位置を示している。本実施形態において、「特徴点」とは、建物の凹凸に基づく陰影、壁面の模様等、撮影画像において輝度の濃淡差が所定値よりも大きい点をいう。従って、特徴点は、図2(b)に示すように、環境における建物30の壁面WS、あるいは建物30の角部に現れることが多く、また、1つの地図において複数の特徴点FPが選定される。さらに、本実施形態では、複数の特徴点FPの各々を区別するために、個々の特徴点FPに「特徴量」を対応付けている。本実施形態に係る「特徴量」とは、一例として特徴点近傍における輝度の濃淡差のパターンをいう。
図2(b)中の符号「CP」は、地図を生成する際、カメラ14による撮影が行われた複数(図2(b)の例では12)の撮影点を示している。本実施形態では、この複数の撮影点CPで撮影された画像を「キーフレーム」といい、特徴点FP及び特徴点FPに関連付けられた情報とともに地図を生成する際のデータを構成する。ここでいう「キーフレーム」は、「基準画像」の一例である。すなわち、キーフレームは、予め複数の撮影点CPで撮影された複数の画像であり、特徴点に関する情報はこのキーフレームに関連付けられる。なお、以下の説明では、地図を生成する際の撮影点を「地図撮影点CP」といい、実際の駐車時の撮影点を「走行撮影点」という。また、走行撮影点において撮影された画像を「走行画像」という。
上述したように、本実施形態に係るCPU12Aは、ROM12Bに記憶されている自車位置推定プログラムをRAM12Cに書き出して実行することにより、図3に示す各部として機能する。
図3は、本実施形態に係る自車位置推定装置10の機能的な構成の一例を示すブロック図である。
図3に示すように、本実施形態に係る自車位置推定装置10のCPU12Aは、検出部20、算出部22、推定部24、及び追加部26として機能する。また、地図情報16Aは、記憶部16に予め記憶されている。
本実施形態に係る地図情報16Aについて説明する。地図情報16Aには以下の情報が含まれている。
(1)各特徴点FPの3次元で表示した座標(3次元位置座標(Xp、Yp、Zp))。
(2)各キーフレームにおけるカメラの3次元位置座標(Xc、Yc、Zc)と姿勢(ロール角、ピッチ角、ヨー角)。
(3)各キーフレームにおける各特徴量。
地図の生成は、予め人が運転して走行軌跡Sを走行し、走行の際のカメラ14による撮影画像から特徴点の座標(3次元位置)とキーフレームにおけるカメラ14の位置を推定する。これらの推定は、例えばVisual SLAM(Simultaneous Localization and Mapping)を用いて行うことができる。すなわち、撮影画像から、Visual SLAMを用いて特徴点の3次元位置とキーフレームのカメラ位置を推定し、これらの推定値とキーフレームにおける特徴点の特徴量を地図情報16Aに登録する。
より詳細には、特徴点の検出方法としては、例えば、ORB(Oriented FAST and Rotated BRIEF)−SLAMを適用することができる。ORB−SLAMは、特徴点としてコーナーを検出し、検出手法にFAST(Features from Accelerated Segment Test)を用いるものである。また、ORB−SLAMは、特徴量の記述にORBを用いる。ORBは、BRIEF(Binary Robust Independent Elementary Features)をベースとして、スケール不変性と回転不変性とを有するように発展させたものである。ORB−SLAMについては以下の参考文献1に開示されているため、詳細な説明を省略する。
[参考文献1]Raul Mur-Artal, J.M.M.Montiel and Juan D.Tardos. ORB-SLAM: A Versatile and Accurate Monocular SLAM System. IEEE Transactions on Robotics, vol.31, no.5, pp.1147-1163, 2015.
以上まとめると、地図生成時に地図撮影点CPで撮影された複数の画像であるキーフレームが撮影された際の特徴点の座標、各特徴点について登録された少なくとも1つの特徴量、カメラ14の位置及び姿勢が関連付けられ、地図情報16Aとして記憶部16に格納される。また、記憶部16に格納された地図情報16Aは、後述する自車位置推定処理において参照される。
本実施形態に係る検出部20は、走行経路に沿って自車を走行させた状態でカメラ14により撮影された走行画像から特徴点を検出する。この特徴点の検出には、上述したように、一例としてFAST等が用いられる。
本実施形態に係る算出部22は、検出部20により検出された特徴点の特徴を示す特徴量を算出する。この特徴量には、上述したように、一例としてORB等が用いられる。
本実施形態に係る推定部24は、算出部22により算出された特徴量に基づいて、複数のキーフレームから走行画像に類似する類似キーフレームを選定する。ここでいう類似キーフレームは、「類似画像」の一例である。なお、走行画像が初回(つまり、最初のフレーム)の場合には、走行画像の特徴点の特徴量から、一例として、Bag of Visual Words等を用いて、走行画像に最も類似する類似キーフレームを選定する。このBag of Visual Wordsは、画像中の多数の局所特徴をベクトル量子化しヒストグラムにしたものであり、画像同士の類似の程度を判定するツールである。Bag of Visual Wordsによるキーフレームの抽出には一定の時間を要するが、スタート地点SPに停車している際の初回の走行画像では、処理時間が比較的長いBag of Visual Wordsを用いても差し支えない。一方、走行画像の2回目以降は、前回推定したカメラ位置に最も近いキーフレームを類似キーフレームとして選定する。
次に、推定部24は、走行画像の特徴点の特徴量と類似キーフレームの特徴点の特徴量とを比較することにより、走行画像の特徴点と類似キーフレームの特徴点との対応付けを行う。
図4は、本実施形態に係る走行画像の特徴点と類似キーフレームの特徴点との対応付けの説明に供する図である。
図4に示すように、類似キーフレームの特徴点R1〜R6に対して、走行画像の特徴点P1〜P6が対応付けられる。具体的には、特徴量としてORBを用いる場合、走行画像のORB特徴量と類似キーフレームのORB特徴量とを比較して、ORB特徴量間の距離を計算する。このORB特徴量間の距離としては、一例としてハミング距離を用いて計算される。
図5は、本実施形態に係る走行画像の特徴量と類似キーフレームの特徴量との間の距離の説明に供する図である。
図5では、走行画像のある特徴点のORB特徴量、及び類似キーフレームのある特徴点の複数のORB特徴量の各々を、説明を簡単にするために、一例として8ビットで示している。なお、ORB特徴量のビット数は特に限定されない。複数のORB特徴量の各々には、識別のためのインデックス1、2、・・・が割り当てられている。ここでいうハミング距離は、走行画像のORB特徴量と、類似キーフレームの各ORB特徴量(インデックス1、2、・・・)との間で値が異なるビットの数で表される。図5の例では、各インデックス1、2、・・・において値が異なるビットに下線が付与されている。つまり、インデックス1のハミング距離は「4」であり、インデックス2のハミング距離は「2」である。この場合、ハミング距離の最小値を特徴量間の距離として採用する。
ここで、走行画像が初回の場合、類似キーフレームの各特徴点には1つの特徴量のみが登録されている。つまり、初回では、各特徴点の特徴量を示すインデックス数は「1」となる。一方、走行画像の2回目以降の場合、図5に示すように、後述する追加部26により特徴量が追加登録されるため、登録される特徴量のインデックス数が「2」以上になる場合がある。このため、2回目以降では、特徴量間で計算されたハミング距離の最小値を、特徴量間の距離として採用する。
つまり、類似キーフレームの特徴点に複数の特徴量(一例としてORB特徴量)が登録されている場合、推定部24は、複数の特徴量が登録されている類似キーフレームの特徴点との対応付けを行う際には、複数の特徴量の各々について、走行画像の特徴点の特徴量との間で距離(一例としてハミング距離)を計算し、計算した距離の最小値が所定値以下となる場合に、走行画像の特徴点と類似キーフレームの特徴点との対応付けを行う。これにより、特徴量間の距離が所定値以下に収まり易くなり、周囲の明るさの変化によって走行画像の特徴点の特徴量が変化した場合であっても、対応付けが可能となる。なお、特徴量としては、ORBに代えて、特徴点間のベクトルを適用してもよい。この場合、ハミング距離に代えて、ユークリッド距離が適用される。
次に、推定部24は、上記の対応付けの結果に基づいて、走行経路における自車の位置及び姿勢を推定する。具体的には、推定部24は、対応付けた走行画像の特徴点の位置と類似キーフレームの特徴点の位置とに基づいて、カメラ14の位置及び姿勢を推定する。本実施形態では、走行画像の特徴点の位置と、類似キーフレームの撮影時におけるカメラ14の位置及び姿勢に基づいて類似キーフレームの特徴点を走行画像に投影して得られる投影点の位置との差で表される投影誤差の総和が最小となるカメラ14の位置及び姿勢を推定する。
図6は、本実施形態に係る投影誤差の説明に供する図である。
図6では、走行画像の特徴点R1〜R6の位置と、地図に対応付けられた地図座標系CMにおける特徴点P1〜P6の位置(3次元位置)と、地図に対応付けられた特徴点P1〜P6の位置を走行画像に投影した投影点V1〜V6の位置と、を示している。なお、地図座標系CMにおいて、X軸は水平方向を示し、Y軸は奥行方向を示し、Z軸は垂直方向を示す。この際、特徴点P1の位置についての投影誤差ε1は、特徴点R1の位置と投影点V1の位置との差となる。特徴点P2〜P6の各々の位置についても同様である。本実施形態に係る特徴点の対応によれば、誤対応が少ないため、カメラ14の位置及び姿勢がより正確に推定される。
次に、推定部24は、上記で推定したカメラ14の位置及び姿勢を自車の代表点に換算することにより、走行経路における自車の位置及び姿勢を推定する。ここでいう自車の位置とは、車両代表点Xの地図上における位置をいう。本実施形態では、車両代表点Xとカメラ14の相対的位置が予め分かっているので、カメラ14の位置及び姿勢を、相対的位置関係に基づいて車両代表点Xの位置に換算する。
本実施形態に係る追加部26は、推定部24により類似キーフレームの特徴点に対応付けられた走行画像の特徴点の特徴量を、類似キーフレームであるキーフレームの特徴点の特徴量として地図情報16Aに追加登録する。例えば、追加部26は、推定部24により対応付けられた走行画像の特徴点のうち、投影誤差が所定値以下となる特徴点(これらの特徴点を「インライア」ともいう。)の特徴量を選択的に地図情報16Aに追加登録するようにしてもよい。図6の例では、走行画像の特徴点R1、R2、R3、R6の特徴量が追加登録される。これにより、投影誤差の大きい特徴点の特徴量が登録されることが防止される。
なお、登録数を抑制するため、追加部26は、類似キーフレームの特徴点に登録されている複数の特徴量の数が上限数に達した場合に、登録済みの複数の特徴量及び追加する特徴量のうちの特徴量のペア毎に相互の距離(一例としてハミング距離)を計算し、計算された各特徴量との距離の中間値が最小となる特徴量を削除するようにしてもよい。
図7は、本実施形態に係る類似キーフレームの特徴点に登録されている複数の特徴量の数が上限数に達した場合に削除する特徴量の説明に供する図である。
図7の例では、上限数が「4」であり、ある特徴点について登録済みの特徴量にインデックス1〜4が割り当てられている。そして、当該特徴点に追加する特徴量のインデックスをインデックス5とする。インデックス1について、インデックス1〜5の各々との間でハミング距離を計算する。計算結果として、一例として(0、15、9、13、20)が得られる。この場合、ハミング距離の中間値は、「13」(下線付きの値)となる。同様に、インデックス2について、計算結果として、一例として(15、0、10、5、29)が得られる。この場合、ハミング距離の中間値は、「10」となる。インデックス3について、計算結果として、一例として(9、10、0、7、12)が得られる。この場合、ハミング距離の中間値は、「9」となる。インデックス4について、計算結果として、一例として(13、5、7、0、31)が得られる。この場合、ハミング距離の中間値は、「7」となる。インデックス5について、計算結果として、一例として(20、29、12、31、0)が得られる。この場合、ハミング距離の中間値は、「20」となる。
上記より、各インデックス1〜5のハミング距離の中間値は、(13、10、9、7、20)として得られる。これより、ハミング距離の中間値の最小値は「7」となる。この場合、対応するインデックス4の特徴量を削除する。
次に、図8を参照して、本実施形態に係る自車位置推定装置10の作用について説明する。なお、図8は、本実施形態に係る自車位置推定プログラムによる処理の流れの一例を示すフローチャートである。
本実施形態に係る自車位置推定プログラムは、実行開始の指示がなされると、図2(b)に示すスタート地点SPに停車した状態からゴール地点GPに向けて人が車両50を運転するのに伴って、自車位置推定処理が実行される。しかしながら、これに限られず、本自車位置推定プログラムを、例えばスタート地点SPからゴール地点GPまで車両50が自動運転される場合に適用してもよい。本実施形態では、予め地図情報16Aが生成され、記憶部16に格納されているものとする。
なお、本実施形態では、本自車位置推定プログラムをROM12B等に予め記憶させておく形態としているが、これに限られない。例えば、本自車位置推定プログラムがコンピュータにより読み取り可能な可搬型の記憶媒体に記憶された状態で提供される形態、図示しないネットワークインタフェース等による通信手段を介して配信される形態等を適用してもよい。なお、可搬型の記憶媒体としては、一例として、CD−ROM(Compact Disk Read Only Memory)、DVD−ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等が挙げられる。
図8のステップ100では、検出部20が、車両50が走行された状態でカメラ14によって撮影された走行画像を取得する。この走行画像の取得は、車両50がスタート地点SPから出発した後予め定められた時間ごと、例えば一般的なビデオレートである33ms(ミリ秒)ごとに取得する。
ステップ102では、検出部20が、走行画像から特徴点を検出する。特徴点の検出には、一例としてFASTが用いられる。
ステップ104では、算出部22が、上記ステップ102で検出した特徴点を示す特徴量を算出する。特徴量の算出には、一例としてORBが用いられる。
ステップ106では、推定部24が、走行画像の取得が初回(1回目)か否かを判定する。本実施形態に係る自車位置推定処理では、初回か2回目以降かにより、以降の処理における類似キーフレームの探索方法を変えている。走行画像の取得が初回と判定した場合(肯定判定の場合)、ステップ108に移行し、走行画像の取得が初回ではない、つまり2回目以降と判定した場合(否定判定の場合)、ステップ110に移行する。
ステップ108では、推定部24が、上記ステップ104で計算された特徴量から、一例として、Bag of Visual Words等を用いて走行画像に最も類似するキーフレームを類似キーフレームとして選定する。
一方、ステップ110では、推定部24が、前回推定したカメラ位置に最も近いキーフレームを類似キーフレームとして選定する。
ステップ112では、推定部24が、図4及び図5に示すように、類似キーフレームと走行画像との間で特徴量を比較して特徴点を対応付ける(ペアリング)。
ステップ114では、推定部24が、図6に示すように、走行画像の特徴点の位置と、類似キーフレームの特徴点を走行画像に投影して得られる投影点の位置との差で表される投影誤差が最小となるようにカメラ14の位置及び姿勢を推定する。
ステップ116では、推定部24が、上記ステップ114で推定したカメラ14の位置及び姿勢を、自車の位置及び姿勢に換算する。ここでいう自車の位置とは、上述したように、車両代表点Xの地図上における位置をいう。本実施形態では、車両代表点Xとカメラ14の相対的位置は予わかっているので、カメラの位置及び姿勢を、相対的位置関係に基づいて車両代表点Xの位置に換算する。この換算は単純な演算であるため、走行中の自車位置が短時間で推定され、車両運動制御の遅れ時間を小さくすることができる。その結果、目標経路へ高精度に車両を誘導できるため、例えば狭所に駐車することができ、駐車空間を省スペース化できる。
ステップ118では、追加部26が、上記ステップ112で類似キーフレームの特徴点と対応付けられた走行画像の特徴点のうち、投影誤差が所定値以下となる特徴点(インライア)の特徴量を、類似キーフレームであるキーフレームの特徴点の特徴量として地図情報16Aに追加登録する。
ステップ120では、追加部26が、全ての走行撮影点において画像の取得が終了したか否かを判定する。なお、初回の場合には本判定は否定判定となるのでステップ100に戻り、走行画像の取得を継続する。一方、2回目以降の場合には本判定は肯定判定となるので、本自車位置推定プログラムによる一連の処理を終了する。
このように本実施形態によれば、対応付けられた走行画像の特徴点の特徴量が前回までの基準画像の特徴点の特徴量に追加され、次回以降の走行画像の特徴点の特徴量が、基準画像の追加された特徴量とも比較される。これにより、類似と判断される特徴量の範囲が広がるため、周囲の明るさの変化により特徴量が変化した場合であっても、特徴点の対応付けを行うことができ、精度良く自車位置を推定することができる。
さらに、自動駐車システムに適用した場合、目標経路へ高精度に車両を誘導できるため、狭所に駐車することができ、駐車空間を省スペース化できる。
以上、実施形態として自車位置推定装置を例示して説明した。実施形態は、コンピュータを、位置姿勢推定装置が備える各部として機能させるためのプログラムの形態としてもよい。実施形態は、このプログラムを記憶したコンピュータが読み取り可能な記憶媒体の形態としてもよい。
その他、上記実施形態で説明した自車位置推定装置の構成は、一例であり、主旨を逸脱しない範囲内において状況に応じて変更してもよい。
また、上記実施形態で説明したプログラムの処理の流れも、一例であり、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよい。
また、上記実施形態では、プログラムを実行することにより、実施形態に係る処理がコンピュータを利用してソフトウェア構成により実現される場合について説明したが、これに限らない。実施形態は、例えば、ハードウェア構成や、ハードウェア構成とソフトウェア構成との組み合わせによって実現してもよい。
10 自車位置推定装置
12 制御部
12A CPU
12B ROM
12C RAM
12D I/O
12E バス
14 カメラ
16 記憶部
16A 地図情報
18 表示部
20 検出部
22 算出部
24 推定部
26 追加部
30 建物
50 車両

Claims (8)

  1. 所定の走行経路に沿った複数の位置で自車に搭載された撮影部により撮影された複数の基準画像の各々に関連付けられた、前記基準画像から検出された各特徴点と、各特徴点について登録された特徴点の特徴を示す少なくとも1つの特徴量と、前記基準画像の撮影時における前記撮影部の位置及び姿勢と、を含む地図情報を記憶した記憶部と、
    前記所定の走行経路に沿って自車を走行させた状態で前記撮影部により撮影された走行画像から特徴点を検出する検出部と、
    前記検出部により検出された特徴点の特徴を示す特徴量を算出する算出部と、
    前記算出部により算出された特徴量に基づいて、前記複数の基準画像から前記走行画像に類似する類似画像を選定し、前記走行画像の特徴点の特徴量と前記類似画像の特徴点の特徴量とを比較することにより、前記走行画像の特徴点と前記類似画像の特徴点との対応付けを行い、対応付けの結果に基づいて、前記所定の走行経路における自車の位置及び姿勢を推定する推定部と、
    前記推定部により前記類似画像の特徴点と対応付けられた前記走行画像の特徴点の特徴量を、前記類似画像である基準画像の特徴点の特徴量として前記地図情報に追加する追加部と、
    を備えた自車位置推定装置。
  2. 前記推定部は、複数の特徴量が登録されている前記類似画像の特徴点との対応付けを行う際には、前記複数の特徴量の各々について、前記走行画像の特徴点の特徴量との間で距離を計算し、計算した距離の最小値が予め定められた値以下となる場合に、前記走行画像の特徴点と前記類似画像の特徴点との対応付けを行う請求項1に記載の自車位置推定装置。
  3. 前記追加部は、前記類似画像の特徴点に登録されている複数の特徴量の数が上限数に達した場合に、登録済みの複数の特徴量及び追加する特徴量のうちの特徴量のペア毎に相互の距離を計算し、計算された各特徴量との距離の中間値が最小となる特徴量を削除する請求項1又は2に記載の自車位置推定装置。
  4. 前記地図情報は、前記複数の基準画像の各々から検出された特徴点の前記地図情報における位置を更に含み、
    前記推定部は、対応付けた前記走行画像の特徴点の位置と前記類似画像の特徴点の位置とに基づいて、前記撮影部の位置及び姿勢を推定し、推定した前記撮影部の位置及び姿勢を自車の代表点に換算することにより、前記所定の走行経路における自車の位置及び姿勢を推定する請求項1〜3のいずれか1項に記載の自車位置推定装置。
  5. 前記推定部は、前記走行画像の特徴点の位置と、前記類似画像の撮影時における前記撮影部の位置及び姿勢に基づいて前記類似画像の特徴点を前記走行画像に投影して得られる投影点の位置との差で表される投影誤差の総和が最小となる前記撮影部の位置及び姿勢を推定する請求項4に記載の自車位置推定装置。
  6. 前記追加部は、前記推定部により対応付けられた前記走行画像の特徴点のうち、前記投影誤差が予め定められた値以下となる特徴点の特徴量を選択的に前記地図情報に追加する請求項5に記載の自車位置推定装置。
  7. 所定の走行経路に沿った複数の位置で自車に搭載された撮影部により撮影された複数の基準画像の各々に関連付けられた、前記基準画像から検出された各特徴点と、各特徴点について登録された特徴点の特徴を示す少なくとも1つの特徴量と、前記基準画像の撮影時における前記撮影部の位置及び姿勢と、を含む地図情報を記憶した記憶部を備えた自車位置推定装置による自車位置推定方法であって、
    検出部が、前記所定の走行経路に沿って自車を走行させた状態で前記撮影部により撮影された走行画像から特徴点を検出するステップと、
    算出部が、前記検出部により検出された特徴点の特徴を示す特徴量を算出するステップと、
    推定部が、前記算出部により算出された特徴量に基づいて、前記複数の基準画像から前記走行画像に類似する類似画像を選定し、前記走行画像の特徴点の特徴量と前記類似画像の特徴点の特徴量とを比較することにより、前記走行画像の特徴点と前記類似画像の特徴点との対応付けを行い、対応付けの結果に基づいて、前記所定の走行経路における自車の位置及び姿勢を推定するステップと、
    追加部が、前記推定部により前記類似画像の特徴点と対応付けられた前記走行画像の特徴点の特徴量を、前記類似画像である基準画像の特徴点の特徴量として前記地図情報に追加するステップと、
    を含む自車位置推定方法。
  8. 所定の走行経路に沿った複数の位置で自車に搭載された撮影部により撮影された複数の基準画像の各々に関連付けられた、前記基準画像から検出された各特徴点と、各特徴点について登録された特徴点の特徴を示す少なくとも1つの特徴量と、前記基準画像の撮影時における前記撮影部の位置及び姿勢と、を含む地図情報を記憶した記憶部を備えた自車位置推定装置で実行される自車位置推定プログラムであって、
    前記所定の走行経路に沿って自車を走行させた状態で前記撮影部により撮影された走行画像から特徴点を検出する検出部、
    前記検出部により検出された特徴点の特徴を示す特徴量を算出する算出部、
    前記算出部により算出された特徴量に基づいて、前記複数の基準画像から前記走行画像に類似する類似画像を選定し、前記走行画像の特徴点の特徴量と前記類似画像の特徴点の特徴量とを比較することにより、前記走行画像の特徴点と前記類似画像の特徴点との対応付けを行い、対応付けの結果に基づいて、前記所定の走行経路における自車の位置及び姿勢を推定する推定部、及び
    前記推定部により前記類似画像の特徴点と対応付けられた前記走行画像の特徴点の特徴量を、前記類似画像である基準画像の特徴点の特徴量として前記地図情報に追加する追加部、
    として機能させる自車位置推定プログラム。
JP2018013946A 2018-01-16 2018-01-30 自車位置推定装置、自車位置推定方法、及び自車位置推定プログラム Active JP7036400B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018013946A JP7036400B2 (ja) 2018-01-30 2018-01-30 自車位置推定装置、自車位置推定方法、及び自車位置推定プログラム
CN201910035085.XA CN110044256B (zh) 2018-01-16 2019-01-15 自车位置估计装置
US16/248,191 US10949996B2 (en) 2018-01-16 2019-01-15 Self-position estimation apparatus
DE102019100885.9A DE102019100885A1 (de) 2018-01-16 2019-01-15 Eigenpositionsabschätzvorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018013946A JP7036400B2 (ja) 2018-01-30 2018-01-30 自車位置推定装置、自車位置推定方法、及び自車位置推定プログラム

Publications (2)

Publication Number Publication Date
JP2019132664A true JP2019132664A (ja) 2019-08-08
JP7036400B2 JP7036400B2 (ja) 2022-03-15

Family

ID=67544924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018013946A Active JP7036400B2 (ja) 2018-01-16 2018-01-30 自車位置推定装置、自車位置推定方法、及び自車位置推定プログラム

Country Status (1)

Country Link
JP (1) JP7036400B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111105467A (zh) * 2019-12-16 2020-05-05 北京超图软件股份有限公司 一种图像标定方法、装置及电子设备
KR102210404B1 (ko) * 2019-10-14 2021-02-02 국방과학연구소 위치 정보 추출 장치 및 방법
JP2021062717A (ja) * 2019-10-11 2021-04-22 トヨタ自動車株式会社 車両駐車支援装置
KR20210057964A (ko) * 2019-11-13 2021-05-24 울산대학교 산학협력단 촬영장비를 구비한 이동체의 위치정보를 판단하는 방법 및 시스템
JP2021081989A (ja) * 2019-11-19 2021-05-27 アイシン精機株式会社 カメラキャリブレーション装置
JP2021149396A (ja) * 2020-03-18 2021-09-27 株式会社豊田中央研究所 地図作成装置、位置推定装置、車両制御システム、地図作成方法、コンピュータプログラム、および位置推定方法
JP2021174424A (ja) * 2020-04-30 2021-11-01 トヨタ自動車株式会社 位置推定システム、及び位置推定方法
US11810368B2 (en) 2021-01-27 2023-11-07 Toyota Jidosha Kabushiki Kaisha Parking assist apparatus

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005038402A1 (ja) * 2003-10-21 2005-04-28 Waro Iwane ナビゲーション装置
JP2011215974A (ja) * 2010-03-31 2011-10-27 Aisin Aw Co Ltd 画像処理システム
JP2013187862A (ja) * 2012-03-09 2013-09-19 Topcon Corp 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム
JP2013222447A (ja) * 2012-04-19 2013-10-28 Kddi Corp 情報提示システム
JP2015097000A (ja) * 2013-11-15 2015-05-21 オムロン株式会社 画像認識装置及び画像認識装置に対するデータ登録方法
WO2016199605A1 (ja) * 2015-06-12 2016-12-15 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP2017111654A (ja) * 2015-12-17 2017-06-22 富士通株式会社 画像処理システム、画像類似判定方法および画像類似判定プログラム
JP2018010599A (ja) * 2016-07-15 2018-01-18 富士通株式会社 情報処理装置、パノラマ画像表示方法、パノラマ画像表示プログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005038402A1 (ja) * 2003-10-21 2005-04-28 Waro Iwane ナビゲーション装置
JP2011215974A (ja) * 2010-03-31 2011-10-27 Aisin Aw Co Ltd 画像処理システム
JP2013187862A (ja) * 2012-03-09 2013-09-19 Topcon Corp 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム
JP2013222447A (ja) * 2012-04-19 2013-10-28 Kddi Corp 情報提示システム
JP2015097000A (ja) * 2013-11-15 2015-05-21 オムロン株式会社 画像認識装置及び画像認識装置に対するデータ登録方法
WO2016199605A1 (ja) * 2015-06-12 2016-12-15 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP2017111654A (ja) * 2015-12-17 2017-06-22 富士通株式会社 画像処理システム、画像類似判定方法および画像類似判定プログラム
JP2018010599A (ja) * 2016-07-15 2018-01-18 富士通株式会社 情報処理装置、パノラマ画像表示方法、パノラマ画像表示プログラム

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023010708A (ja) * 2019-10-11 2023-01-20 トヨタ自動車株式会社 車両駐車支援装置
JP2021062717A (ja) * 2019-10-11 2021-04-22 トヨタ自動車株式会社 車両駐車支援装置
KR102560484B1 (ko) 2019-10-11 2023-07-31 도요타지도샤가부시키가이샤 차량 주차 지원 장치
JP7256463B2 (ja) 2019-10-11 2023-04-12 トヨタ自動車株式会社 車両駐車支援装置
JP7410463B2 (ja) 2019-10-11 2024-01-10 トヨタ自動車株式会社 車両駐車支援装置
KR20230029726A (ko) * 2019-10-11 2023-03-03 도요타지도샤가부시키가이샤 차량 주차 지원 장치
US11718343B2 (en) 2019-10-11 2023-08-08 Toyota Jidosha Kabushiki Kaisha Vehicle parking assist apparatus
KR20220052881A (ko) * 2019-10-11 2022-04-28 도요타지도샤가부시키가이샤 차량 주차 지원 장치
US11458961B2 (en) 2019-10-11 2022-10-04 Toyota Jidosha Kabushiki Kaisha Vehicle parking assist apparatus
KR102502115B1 (ko) 2019-10-11 2023-02-21 도요타지도샤가부시키가이샤 차량 주차 지원 장치
KR102210404B1 (ko) * 2019-10-14 2021-02-02 국방과학연구소 위치 정보 추출 장치 및 방법
KR20210057964A (ko) * 2019-11-13 2021-05-24 울산대학교 산학협력단 촬영장비를 구비한 이동체의 위치정보를 판단하는 방법 및 시스템
KR102473202B1 (ko) * 2019-11-13 2022-12-02 울산대학교 산학협력단 촬영장비를 구비한 이동체의 위치정보를 판단하는 방법 및 시스템
JP7358933B2 (ja) 2019-11-19 2023-10-11 株式会社アイシン カメラキャリブレーション装置
JP2021081989A (ja) * 2019-11-19 2021-05-27 アイシン精機株式会社 カメラキャリブレーション装置
CN111105467B (zh) * 2019-12-16 2023-08-29 北京超图软件股份有限公司 一种图像标定方法、装置及电子设备
CN111105467A (zh) * 2019-12-16 2020-05-05 北京超图软件股份有限公司 一种图像标定方法、装置及电子设备
JP7393987B2 (ja) 2020-03-18 2023-12-07 株式会社豊田中央研究所 地図作成装置、位置推定装置、車両制御システム、地図作成方法、コンピュータプログラム、および位置推定方法
JP2021149396A (ja) * 2020-03-18 2021-09-27 株式会社豊田中央研究所 地図作成装置、位置推定装置、車両制御システム、地図作成方法、コンピュータプログラム、および位置推定方法
CN113592943A (zh) * 2020-04-30 2021-11-02 丰田自动车株式会社 位置推定系统及位置推定方法
JP7331769B2 (ja) 2020-04-30 2023-08-23 トヨタ自動車株式会社 位置推定システム、及び位置推定方法
US11763484B2 (en) 2020-04-30 2023-09-19 Toyota Jidosha Kabushiki Kaisha Location estimation system and location estimation method
JP2021174424A (ja) * 2020-04-30 2021-11-01 トヨタ自動車株式会社 位置推定システム、及び位置推定方法
CN113592943B (zh) * 2020-04-30 2024-01-30 丰田自动车株式会社 位置推定系统及位置推定方法
US11810368B2 (en) 2021-01-27 2023-11-07 Toyota Jidosha Kabushiki Kaisha Parking assist apparatus

Also Published As

Publication number Publication date
JP7036400B2 (ja) 2022-03-15

Similar Documents

Publication Publication Date Title
JP7036400B2 (ja) 自車位置推定装置、自車位置推定方法、及び自車位置推定プログラム
US10268201B2 (en) Vehicle automated parking system and method
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US10949996B2 (en) Self-position estimation apparatus
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101784183B1 (ko) ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
WO2018142900A1 (ja) 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム
JP6107081B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US9330472B2 (en) System and method for distorted camera image correction
JP2016081525A (ja) 車両用画像認識システム、及び対応法
CN108481327B (zh) 一种增强视觉的定位装置、定位方法及机器人
US10991105B2 (en) Image processing device
US10192141B2 (en) Determining scale of three dimensional information
JP7173471B2 (ja) 3次元位置推定装置及びプログラム
JP6515704B2 (ja) 車線検出装置及び車線検出方法
TW201433774A (zh) 車輛規格測量處理裝置、車輛規格測量方法及記錄媒體
JPWO2018207426A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6905390B2 (ja) 自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、及び自車位置推定プログラム
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
JP2003281552A (ja) 画像処理装置及びその方法
JP7056840B2 (ja) 自車位置推定装置、自車位置推定方法、および自車位置推定プログラム
CN113902801A (zh) 移动机器人重定位方法、装置、设备及存储介质
JP2001076128A (ja) 障害物検出装置及び方法
JP6886136B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220222

R150 Certificate of patent or registration of utility model

Ref document number: 7036400

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150