JP2018205950A - 自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、及び自車位置推定プログラム - Google Patents

自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、及び自車位置推定プログラム Download PDF

Info

Publication number
JP2018205950A
JP2018205950A JP2017109071A JP2017109071A JP2018205950A JP 2018205950 A JP2018205950 A JP 2018205950A JP 2017109071 A JP2017109071 A JP 2017109071A JP 2017109071 A JP2017109071 A JP 2017109071A JP 2018205950 A JP2018205950 A JP 2018205950A
Authority
JP
Japan
Prior art keywords
vehicle
captured image
feature points
environment map
vehicle position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017109071A
Other languages
English (en)
Other versions
JP6905390B2 (ja
Inventor
浅井 彰司
Shoji Asai
彰司 浅井
浅海 周
Shu Asaumi
周 浅海
博 石黒
Hiroshi Ishiguro
博 石黒
和孝 早川
Kazutaka Hayakawa
和孝 早川
崇士 鈴木
Takashi Suzuki
崇士 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Toyota Central R&D Labs Inc filed Critical Aisin Seiki Co Ltd
Priority to JP2017109071A priority Critical patent/JP6905390B2/ja
Publication of JP2018205950A publication Critical patent/JP2018205950A/ja
Application granted granted Critical
Publication of JP6905390B2 publication Critical patent/JP6905390B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】撮影部の位置及び姿勢を安定的に推定可能な自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、並びに自車位置推定プログラムを提供することを目的とする。【解決手段】車両の舵角を検出する舵角センサの検出結果を用いて、カメラによって撮影された撮影画像における車両の移動方向に対応する予め定めた範囲の領域以外の領域から特徴点を抽出し(100〜104)、抽出した特徴点と、前時刻の撮影画像の特徴点との対応付けに基づいて、車両の位置及び姿勢を推定し(106〜112)、推定結果に基づいて、特徴点の3次元位置を推定して地図に登録することにより環境地図を生成する(114)。【選択図】図5

Description

本発明は、自車の位置を推定するための地図を生成す自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、及び自車位置推定プログラムに関する。
移動体に搭載されたカメラ等の撮影部によって撮影された撮影画像に基づいて、3次元空間上における移動体の位置を推定する技術が提案されている。
例えば、特許文献1では、第1画像に関する第1データと、移動体の移動に伴う前記第1画像との差異を含む第2画像に関する第2データと、を含む情報を取得する取得部と、前記情報に基づいて移動体の移動に伴う回転の方向を推定する方向推定処理と、回転の方向に基づいて、第1画像内の第1領域内の複数の第1特徴点と、第1画像内の第2領域内の複数の第2特徴点と、を検出し、前記複数の第1特徴点の第1領域内における第1密度は、複数の第2特徴点の第2領域内における第2密度よりも高い検出処理と、第2画像内の第3領域内の複数の第1対応点であって、複数の第1対応点のそれぞれは複数の第1特徴点の少なくともいずれかのそれぞれに対応する複数の第1対応点を求め、複数の第1特徴点のそれぞれと、複数の第1対応点のそれぞれと、に基づいて、移動体の位置の変化を推定する位置推定処理と、を実施する処理部と、を備えた移動体位置推定装置が提案されている。
また、特許文献1では、移動体の移動に伴う回転方向の推定を、取得して情報から推定する以外に、速度センサ、加速度センサと、角速度センサ、及び角加速度センサを用いて推定することが記載されている。
特開2016−61604号公報
しかしながら、特許文献1の技術のように、2つの撮影画像に基づいて移動体の移動に伴う移動体に搭載された撮影部の回転方向を推定する場合、回転方向を検出するために2つの撮影画像の特徴点等を比較する等の処理負荷が高くなるため、改善の余地がある。また、速度センサ、加速度センサと、角速度センサ、及び角加速度センサの検出結果に基づいて移動体の移動に伴う撮影部の回転方向を推定する場合には、加速度センサ、角速度センサ、及び角加速度センサはノイズが大きいため、移動体の移動に伴う撮影部の回転方向を安定的に推定する上で、改善の余地がある。特に、低速域では、移動体の移動に伴う撮影部の回転方向を安定的に推定できない。
また、環境地図を生成する場合に、移動体の移動に伴う撮影部の回転方向を安定的に推定できないと、特徴点を抽出する画像領域を適切に設定できないため地図精度が低下し、移動体の位置の推定精度も低下する。
本発明は、上記事実を考慮して成されたもので、撮影部の位置及び姿勢を安定的に推定可能な自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、並びに自車位置推定プログラムを提供することを目的とする。
上記目的を達成するために本発明に係る自車位置推定用環境地図生成装置は、車両の移動方向を撮影する撮影部と、車両の舵角を検出する検出部の検出結果を用いて、前記撮影部によって撮影された撮影画像における車両の移動方向に対応する予め定めた範囲の領域以外の領域から特徴点を抽出するか、又は前記撮影画像の全域から特徴点を抽出すると共に前記撮影画像における車両の移動方向に対応する予め定めた範囲の領域の重み付けより他の領域の重み付けを大きくする抽出部と、前記抽出部が抽出した特徴点と、他の撮影画像の特徴点との対応付けに基づいて、車両の位置及び姿勢を推定し、推定結果に基づいて、特徴点の3次元位置を求めて、局所的な環境地図を生成する生成部と、を含む。
なお、前記生成部は、局所的な環境地図として、車両の走行経路に制約がある局所空間の環境地図を生成してもよい。
また、上記目的を達成するために本発明に係る自車位置推定装置は、車両の移動方向を撮影する撮影部と、車両の舵角を検出する検出部の検出結果を用いて、前記撮影部によって撮影された撮影画像における車両の移動方向に対応する予め定めた範囲の領域以外の領域から特徴点を抽出するか、又は前記撮影画像の全域から特徴点を抽出すると共に前記撮影画像における車両の移動方向に対応する予め定めた範囲の領域の重み付けより他の領域の重み付けを大きくする抽出部と、前記抽出部が抽出した特徴点と、予め生成された環境地図上の対応する特徴点とに基づいて、車両の位置及び姿勢を推定し、推定結果に基づいて、自車両の位置を推定する推定部とを含む。
また、上記目的を達成するために本発明に係る自車位置推定用環境地図生成プログラムは、車両の舵角を検出する検出部の検出結果を用いて、車両の移動方向を撮影する撮影部によって撮影された撮影画像における車両の移動方向に対応する予め定めた範囲の領域以外の領域から特徴点を抽出するか、又は前記撮影画像の全域から特徴点を抽出する共に前記撮影画像における車両の移動方向に対応する予め定めた範囲の領域の重み付けより他の領域の重み付けを大きくし、抽出した特徴点と、他の撮影画像の特徴点との対応付けに基づいて、車両の位置及び姿勢を推定し、推定結果に基づいて、特徴点の3次元位置を求めて、局所的な環境地図を生成する処理をコンピュータに実行させる。
また、上記目的を達成するために本発明に係る自車位置推定プログラムは、車両の舵角を検出する検出部の検出結果を用いて、車両の移動方向を撮影する撮影部によって撮影された撮影画像における車両の移動方向に対応する予め定めた範囲の領域以外の領域から特徴点を抽出するか、又は前記撮影画像の全域から特徴点を抽出すると共に前記撮影画像における車両の移動方向に対応する予め定めた範囲の領域の重み付けより他の領域の重み付けを大きくし、抽出した特徴点と、予め生成された環境地図上の対応する特徴点とに基づいて、車両の位置及び姿勢を推定し、推定結果に基づいて、自車両の位置を推定する処理をコンピュータに実行させる。
以上説明したように本発明によれば、撮影部の位置及び姿勢を安定的に推定することが可能となる、という効果がある。
本実施形態に係る自車位置推定装置を搭載する車両を示す図である。 本実施形態に係る自車位置推定装置の概略構成を示すブロック図である。 2時刻の撮影画像及び当該撮影画像の進行方向の領域を示す図である。 (A)は現時刻の撮影画像の一例を示す図であり、(B)は前時刻の撮影画像の一例を示す図である。 本実施形態に係る自車位置推定装置において環境地図生成プログラムを実行することで行われる処理の流れの一例を示すフローチャートである。 本実施形態に係る自車位置推定装置において自車位置推定プログラムを実行することで行われる処理の流れの一例を示すフローチャートである。
以下、図面を参照して本発明の実施の形態の一例を詳細に説明する。図1は、本実施形態に係る自車位置推定装置を搭載する車両20を示す図であり、図2は、本実施形態に係る自車位置推定装置の概略構成を示すブロック図である。
自車位置推定装置10は、撮影部としてのカメラ14を備えている。カメラ14は、車両後部のトランク等に設けられ、車両後方を撮影する。カメラ14は、例えば、図1に示すように、車幅方向の略中央部付近に設けられ、かつカメラ14の光軸が水平方向より若干下側を向くように配置されている。
また、自車位置推定装置10は、自車位置を推定するための演算等を行う制御部12を備えている。制御部12は、例えば、図2に示すように、CPU12A、ROM12B、RAM12C、及びI/O(入出力インターフェース)12Dがバス12Eに接続されたコンピュータで構成される。
ROM12Bには、環境地図を生成するための環境地図生成プログラムや、自車位置を推定する自車位置推定プログラムを含む各種プログラムやデータ等が記憶されている。ROM12Bに記憶されたプログラムをRAM12Cに展開してCPU12Aが実行することにより、環境地図の生成や、自車位置の推定が行われる。
I/O12Dには、カメラ14が接続されていると共に、車両20の操舵角度を検出する舵角センサ16が接続されている。そして、カメラ14の撮影画像及び舵角センサ16によって検出された操舵角度(以下、舵角という。)が制御部12に入力される。
また、I/O12Dには、HDD(Hard Disk Drive)、SSD(Solid State Drive)、及びフラッシュメモリ等の記憶部18が接続されている。なお、記憶部18は制御部12内に設けてもよいし、外部接続可能としてもよい。また、記憶部18には制御部12の制御によって生成した環境地図を記憶するが、環境地図生成プログラムや自車位置推定プログラムを記憶してもよい。
制御部12は、環境地図生成プログラムを実行することにより、カメラ14によって撮影された撮影画像と、舵角センサ16によって検出された舵角と、に基づいて、3次元の点群の環境地図を生成して記憶部18に記憶する。また、制御部12は、自車位置推定プログラムを実行することにより、記憶部18に記憶された環境地図に基づいて自車位置を推定する。本実施形態では、制御部12が、生成する環境地図としては、局所的な環境地図を生成するが、より具体的には、車両20の走行経路に制約がある局所空間(例えば、駐車空間等)の環境地図を生成する。
ここで、本実施形態に係る自車位置推定装置10による環境地図の作成方法について説明する。
本実施形態に係る自車位置推定装置10の制御部12は、異なる2位置でカメラ14によって撮影された各撮影画像から特徴点をそれぞれ抽出して、対応する特徴点同士を対応付ける。そして、2つの撮影画像の対応する特徴点に基づいて、カメラ14の位置及び姿勢を推定し、特徴点の3次元座標を算出して、環境地図を生成する。
具体的には、制御部12が、現時刻の撮影画像を取得し、前時刻の撮影画像とのペアを生成する。そして、舵角センサ16の検出結果に基づいて、図3に示すように、現時刻の撮影画像の進行方向の領域を特定する。そして、制御部12が、現時刻における撮影画像の進行方向の領域(図3の点線丸で示す領域)以外の特徴点を抽出する。前時刻における撮影画像についても、同様に、進行方向の領域以外の特徴点が既に抽出されているものとする。
ここで、進行方向の領域以外の領域は、本実施形態では、舵角センサ16によって検出された舵角に基づいて撮影画像の進行方向の領域を導出することにより特定する。すなわち、車両20の舵角が分かれば、進行方向は決定できるので、舵角センサ16によって検出された舵角から、撮影画像の進行方向の領域を特定することができる。これにより、2つの撮影画像を用いて進行方向の領域を決定する場合より、車両20の進行方向の領域を検出する際の処理負荷を低減することができる。また、加速度センサ、角速度センサ、及び角加速度センサの検出結果を用いて車両20の進行方向の領域を検出する場合より、安定した進行方向の検出が可能となる。特に、車両20が低速で移動している場合には、加速度センサ、角速度センサ、及び角加速度センサから車両20の進行方向を検出することが困難となるが、舵角センサ16の検出結果を用いることにより、安定した進行方向の検出が可能となる。なお、進行方向の領域は、舵角から検出した進行方向を含む予め定めた範囲の領域を特定する。例えば、進行方向の領域は、撮影画像を複数分割しておき、舵角センサ16によって検出された舵角に基づいて、撮影画像の複数分割してある領域の中から対応付けることで特定する。
特徴点の抽出方法としては、例えば、ORB−SLAMを適用することができる。ORB−SLAMは、特徴点としてコーナーを検出し、検出手法にFAST(Features from Accelerated Segment Test)を用いるものである。また、ORB−SLAMは、特徴量の記述にORB(Oriented FAST and Rotated BRIEF)を用いる。ORBは、BRIEF(Binary Robust Independent Elementary Features)をベースとして、スケール不変性と回転不変性とを有するように発展させたものである。ORB−SLAMについては以下の参考文献1に開示されているため、詳細な説明を省略する。
[参考文献1]Raul Mur-Artal, J.M.M.Montiel and Juan D.Tardos. ORB-SLAM: A Versatile and Accurate Monocular SLAM System. IEEE Transactions on Robotics, vol.31, no.5, pp.1147-1163, 2015.
例えば、現時刻の撮影画像の一例を図4(A)に示し、前時刻の撮影画像の一例を図4(B)に示す。この例の場合には、舵角センサ16の検出結果から特定したそれぞれの進行方向の領域は、図中の点線丸で示す領域とされ、この領域以外の領域の特徴点を抽出した結果を実線の丸で示す。
また、特徴点を抽出する際には、撮影画像における車両20の進行方向に対応する領域では、進行方向の領域以外の領域に比べて、特徴点の移動量が少ないため、進行方向の予め定めた領域以外の領域における特徴点を抽出する。これにより、撮影画像の全面の特徴点を抽出する場合に比べて特徴点を抽出する処理負荷を低減することができる。また、特徴点の移動量が大きくなる領域から特徴点を抽出することにより、以降の処理において特徴点の3次元位置を推定する際の視差に対応する撮影画像間の対応する特徴点のずれが大きくなるため、より正確な3次元位置の推定が可能となる。特に、駐車空間等のように車両20の走行経路に制約がある局所空間では、進行方向の予め定めた領域以外の領域における特徴点を抽出することにより、正確な3次元位置の推定が可能となる。
また、現時刻と前時刻のそれぞれの撮影画像間の特徴点の対応付けは、例えば、上述のORB等の特徴量を用いて現時刻の特徴点と前時刻の特徴点とを対応付ける。
また、カメラ14の位置及び姿勢の推定と特徴点の3次元座標の算出とでは、初期化段階において、対応付けられた複数組の特徴点のペアから、例えば、5点法及び7点法等を用いて、前時刻の撮影画像を基準とする基本行列を推定する。なお、現時刻の撮影画像を基準とする基本行列を推定してもよい。
また、特異値分解等によって、推定して得られた基本行列から並進ベクトル及び回転行列を算出する。この並進ベクトル及び回転行列の算出により、前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢を基準とする現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢を推定する。なお、前時刻の撮影画像の撮影時のカメラ14の位置を原点とし、前時刻の撮影画像の撮影時のカメラ14の姿勢を基準として、3次元の地図座標系を設定する。
また、対応付けられた特徴点のペアの前時刻の撮影画像内の位置及び現時刻の撮影画像内の位置と、推定した、前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢に対する現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢とを用いて、三角測量の原理によって、前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢に対する、特徴点の三次元座標を算出する。そして、この三次元座標を、地図座標系の三次元座標に変換する。
そして、各特徴点について求めた地図座標系の三次元座標及び特徴量を含めた環境地図情報を生成する。また、地図座標系における前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢と、現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢とを求め、画像情報、及び画像に含まれる特徴点情報と共に、環境地図情報に格納する。
一方、初期化段階ではない場合、環境地図情報の各特徴点と、現時刻の撮影画像の特徴点とを照合して、地図座標系における現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢を求める。
また、対応付けられた特徴点のうち、環境地図情報に登録されていない新しい特徴点が存在する場合には、当該新しい特徴点の現時刻の撮影画像内の位置及び他方の画像内の位置と、環境地図情報から得られる、前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢と、求められた現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢とを用いて、三角測量の原理によって、前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢に対する、特徴点の三次元座標を算出する。そして、この三次元座標を、地図座標系の三次元座標に変換する。
そして、新しい特徴点について求めた地図座標系の三次元座標及び特徴量を環境地図情報に格納する。また、求められた現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢を、画像情報、及び画像に含まれる特徴点情報と共に、環境地図情報に格納する。
また、本実施形態に係る自車位置推定装置10の制御部12は、カメラ14によって撮影された撮影画像から特徴点を抽出し、環境地図情報に含まれる特徴点と照合して、地図座標系における撮影画像の撮影時のカメラ14の位置及び姿勢を求め、車両20の自己位置及び姿勢とする。このとき、環境地図を作成するときの同様に、舵角センサ16の検出結果に基づいて、現時刻の撮影画像の進行方向の領域を特定し、現時刻における撮影画像の進行方向の領域以外の特徴点を抽出する。
続いて、上述のように構成された本実施形態に係る自車位置推定装置10で行われる環境地図を生成する処理について説明する。図5は、本実施形態に係る自車位置推定装置10において環境地図生成プログラムを実行することで行われる処理の流れの一例を示すフローチャートであり、当該処理は、各時刻の撮影画像が取得される毎に繰り返し行われる。
ステップ100では、CPU12Aが、舵角センサ16の検出結果を取得してステップ102へ移行する。
ステップ102では、CPU12Aが、取得した舵角センサ16の検出結果に基づいて、車両20(カメラ14)の進行方向を算出してステップ104へ移行する。
ステップ104では、CPU12Aが、特徴点抽出領域を決定してステップ106へ移行する。特徴点抽出領域は、カメラ14の撮影画像における、ステップ102で算出した車両20の進行方向に対応する予め定めた範囲の領域以外の領域を特徴点の抽出領域として決定する。
ステップ106では、CPU12Aが、現時刻の撮影画像から特徴点を抽出してステップ108へ移行する。すなわち、ステップ104で決定した車両20の進行方向に対応する予め定めた範囲の領域以外の領域における特徴点を抽出する。例えば、FAST等を用いて車両20(カメラ14)の移動方向以外の領域から特徴点を抽出する。
ステップ108では、CPU12Aが、上記ステップ106で抽出された特徴点と、前時刻のステップ106で抽出された特徴点とに基づいて、前時刻の撮影画像と現時刻の撮影画像の画像間の特徴点を対応付けてステップ110へ移行する。すなわち、時刻の異なる撮影画像間の特徴点を対応付ける。例えば、ORB等の特徴量を用いて現時刻の特徴点と前時刻の特徴点とを対応付ける。なお、前時刻の撮影画像がない場合には、ステップ106以降の処理を行わずに終了する。
ステップ110では、CPU12Aが、初期化段階であるか否かを判定する。該判定は、地図上に特徴点が未登録であるか否かを判定する。該判定が肯定された場合にはステップ112へ移行し、否定された場合にはステップ116へ移行する。
ステップ112では、CPU12Aが、対応付けた特徴点からカメラ14の位置及び姿勢を推定してステップ114へ移行する。例えば、前時刻の撮影画像を基準とする基本行列を推定する。また、特異値分解等によって、推定して得られた基本行列から並進ベクトル及び回転行列を算出し、前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢を基準とする現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢を推定する。
ステップ114では、CPU12Aが、カメラ14の位置及び姿勢に基づいて、特徴点の3次元位置を推定して地図に登録する。具体的には、対応付けられた特徴点のペアの前時刻の画撮影像内の位置及び現時刻の撮影画像内の位置と、推定した、前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢に対する現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢とを用いて、三角測量の原理によって、現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢に対する、特徴点の三次元座標を算出する。そして、この三次元座標を、地図座標系の三次元座標に変換して環境地図を生成し、生成した環境地図を記憶部18に記憶する。
一方、ステップ116では、CPU12Aが、地図上に既に登録された特徴点と、撮影画像上の特徴点から、現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢を推定してステップ118へ移行する。
ステップ118では、CPU12Aが、現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢に基づいて、新しい特徴点の3次元位置を推定して地図に登録することにより環境地図を生成する。すなわち、当該新しい特徴点の現時刻の撮影画像内の位置及び前時刻の撮影画像内の位置と、地図登録された、前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢と、ステップ116で求めた現時刻の撮影画像の撮影時のカメラ14の位置及び姿勢とを用いて、三角測量の原理によって、前時刻の撮影画像の撮影時のカメラ14の位置及び姿勢に対する、特徴点の三次元座標を算出する。そして、この三次元座標を、地図座標系の三次元座標に変換して環境地図を生成し、生成した環境地図を記憶部18に記憶する。
なお、図5の処理におけるステップ100〜106が自車位置推定用環境地図生成装置及び自車位置推定用環境地図生成プログラムの抽出部に対応し、ステップ108〜118が生成部に対応する。
次に、本実施形態に係る自車位置推定装置10で行われる自車位置を推定する処理について説明する。図6は、本実施形態に係る自車位置推定装置10において自車位置推定プログラムを実行することで行われる処理の流れの一例を示すフローチャートである。
ステップ200では、CPU12Aが、舵角センサ16の検出結果を取得してステップ202へ移行する。
ステップ202では、CPU12Aが、取得した舵角センサ16の検出結果に基づいて、車両20(カメラ14)の進行方向を算出してステップ204へ移行する。
ステップ204では、CPU12Aが、特徴点抽出領域を決定してステップ106へ移行する。特徴点抽出領域は、カメラ14の撮影画像における、ステップ202で算出した車両20の進行方向に対応する予め定めた範囲の領域以外の領域を特徴点の抽出領域として決定する。
ステップ206では、CPU12Aが、現時刻の撮影画像から特徴点を抽出してステップ208へ移行する。すなわち、ステップ204で決定した車両20の進行方向に対応する予め定めた範囲の領域以外の領域における特徴点を抽出する。例えば、FAST等を用いて車両20(カメラ14)の移動方向以外の領域から特徴点を抽出する。
ステップ208では、CPU12Aが、登録された環境地図に含まれる特徴点と、ステップ206で抽出された特徴点とを照合して、地図座標系における撮影画像の撮影時のカメラ14の位置及び姿勢を推定してステップ210へ移行する。
ステップ210では、CPU12Aが、推定したカメラ14の位置及び姿勢から自車位置を推定して処理を終了する。すなわち、車両20に対するカメラ14の位置が分かっているので、カメラ14の位置及び姿勢から自車位置を推定する。
なお、図6の処理におけるステップ200〜206が自車位置推定装置及び自車位置推定プログラムの抽出部に対応し、ステップ208〜210が推定部に対応する。
以上説明したように、本実施形態では、車両20に搭載されたカメラ14によって撮影した撮影画像から進行方向の領域以外の領域の特徴点を抽出する際に、舵角センサ16の検出結果に基づいて撮影画像の進行方向を特定する。これにより、2つの撮影画像を用いて進行方向の領域を決定する場合より、車両20の進行方向の領域を検出する際の処理負荷を低減することができる。また、加速度センサ、角速度センサ、及び角加速度センサの検出結果を用いて車両20の進行方向の領域を検出する場合より、安定した進行方向の検出が可能となる。特に、車両20が低速で移動している場合には、加速度センサ、角速度センサ、及び角加速度センサから車両20の進行方向を検出することが困難となるが、舵角センサ16の検出結果を用いることにより、安定した進行方向の検出が可能となる。
また、特徴点を抽出する際に、進行方向の領域以外の領域を抽出するので、撮影画像の全域から特徴点の抽出を抽出するよりも処理負荷を軽減することができる。
さらに、特徴点の移動量が大きくなる進行方向以外の領域から特徴点を抽出するので、特徴点の3次元位置を推定する際の視差に対応する撮影画像間の特徴点のずれが大きくなるため、特徴点の3次元位置の位置精度が高い環境地図を生成することができる。特に、車両20の走行経路に制約がある駐車空間等のような局所空間における環境地図を生成する際の地図精度を向上できる。
そして、このように生成した環境地図を自動駐車システム等に適用した場合には、高精度の環境地図を用いて車両20を誘導できるので、狭い場所に駐車することが可能となる。
なお、上記の実施形態では、撮影画像における車両20の進行方向に対応する領域以外の領域における特徴点を抽出してカメラ14の位置及び姿勢を求めるようにしたが、これに限るものではない。例えば、撮影画像の全域の特徴点を抽出して、車両20の進行方向に対応する領域以外の領域の重み付けを高くしてカメラ14の位置及び姿勢を推定してもよい。例えば、前時刻の撮影画像における特徴点の位置から推定した現時刻の特徴点の位置と、現時刻における特徴点の位置との誤差を評価関数として、この評価関数が最小となるカメラ14の位置及び姿勢を推定する際に、評価関数に重みをかけてカメラ14の位置及び姿勢を推定する。
また、上記の実施形態における制御部12で行われる図5、6の処理は、コンピュータがプログラムを実行することにより行われるソフトウエア処理として説明したが、ハードウエアで行う処理としてもよい。或いは、ソフトウエア及びハードウエアの双方を組み合わせた処理としてもよい。また、ソフトウエアで行う処理とする場合のプログラムは、各種記憶媒体に記憶して流通させるようにしてもよい。
また、上記の実施形態では、カメラ14が車両20の後部に設けて、車両後方を撮影する形態を説明したが、これに限るものではない。例えば、車両20の前部に設けて、車両前方を撮影する形態や、車両20の側方に設けて、車両前側方及び車両後側方の少なくとも一方を撮影する形態としてもよい。
また、上記の実施形態では、環境地図生成プログラム及び自車位置推定プログラムを予め制御部12のROM12Bに記憶した形態として説明したが、これに限るものではない。例えば、環境地図生成プログラム及び自車位置推定プログラムは、CD−ROM(Compact Disk Read Only Memory)、DVD−ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、環境地図生成プログラム及び自車位置推定プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
さらに、本発明は、上記に限定されるものでなく、上記以外にも、その主旨を逸脱しない範囲内において種々変形して実施可能であることは勿論である。
10 自車位置推定装置
12 制御部
14 カメラ
16 舵角センサ
18 記憶部
20 車両

Claims (5)

  1. 車両の移動方向を撮影する撮影部と、
    車両の舵角を検出する検出部の検出結果を用いて、前記撮影部によって撮影された撮影画像における車両の移動方向に対応する予め定めた範囲の領域以外の領域から特徴点を抽出するか、又は前記撮影画像の全域から特徴点を抽出すると共に前記撮影画像における車両の移動方向に対応する予め定めた範囲の領域の重み付けより他の領域の重み付けを大きくする抽出部と、
    前記抽出部が抽出した特徴点と、他の撮影画像の特徴点との対応付けに基づいて、車両の位置及び姿勢を推定し、推定結果に基づいて、特徴点の3次元位置を求めて、局所的な環境地図を生成する生成部と、
    を含む自車位置推定用環境地図生成装置。
  2. 前記生成部は、局所的な環境地図として、車両の走行経路に制約がある局所空間の環境地図を生成する請求項1に記載の自車位置推定用環境地図生成装置。
  3. 車両の移動方向を撮影する撮影部と、
    車両の舵角を検出する検出部の検出結果を用いて、前記撮影部によって撮影された撮影画像における車両の移動方向に対応する予め定めた範囲の領域以外の領域から特徴点を抽出するか、又は前記撮影画像の全域から特徴点を抽出すると共に前記撮影画像における車両の移動方向に対応する予め定めた範囲の領域の重み付けより他の領域の重み付けを大きくする抽出部と、
    前記抽出部が抽出した特徴点と、予め生成された環境地図上の対応する特徴点とに基づいて、車両の位置及び姿勢を推定し、推定結果に基づいて、自車両の位置を推定する推定部と、
    を含む自車位置推定装置。
  4. 車両の舵角を検出する検出部の検出結果を用いて、車両の移動方向を撮影する撮影部によって撮影された撮影画像における車両の移動方向に対応する予め定めた範囲の領域以外の領域から特徴点を抽出するか、又は前記撮影画像の全域から特徴点を抽出する共に前記撮影画像における車両の移動方向に対応する予め定めた範囲の領域の重み付けより他の領域の重み付けを大きくし、
    抽出した特徴点と、他の撮影画像の特徴点との対応付けに基づいて、車両の位置及び姿勢を推定し、
    推定結果に基づいて、特徴点の3次元位置を求めて、局所的な環境地図を生成する処理をコンピュータに実行させるための自車位置推定用環境地図生成プログラム。
  5. 車両の舵角を検出する検出部の検出結果を用いて、車両の移動方向を撮影する撮影部によって撮影された撮影画像における車両の移動方向に対応する予め定めた範囲の領域以外の領域から特徴点を抽出するか、又は前記撮影画像の全域から特徴点を抽出すると共に前記撮影画像における車両の移動方向に対応する予め定めた範囲の領域の重み付けより他の領域の重み付けを大きくし、
    抽出した特徴点と、予め生成された環境地図上の対応する特徴点とに基づいて、車両の位置及び姿勢を推定し、
    推定結果に基づいて、自車両の位置を推定する処理をコンピュータに実行させるための自車位置推定プログラム。
JP2017109071A 2017-06-01 2017-06-01 自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、及び自車位置推定プログラム Active JP6905390B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017109071A JP6905390B2 (ja) 2017-06-01 2017-06-01 自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、及び自車位置推定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017109071A JP6905390B2 (ja) 2017-06-01 2017-06-01 自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、及び自車位置推定プログラム

Publications (2)

Publication Number Publication Date
JP2018205950A true JP2018205950A (ja) 2018-12-27
JP6905390B2 JP6905390B2 (ja) 2021-07-21

Family

ID=64957164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017109071A Active JP6905390B2 (ja) 2017-06-01 2017-06-01 自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、及び自車位置推定プログラム

Country Status (1)

Country Link
JP (1) JP6905390B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110992420A (zh) * 2019-12-18 2020-04-10 天地伟业技术有限公司 一种检测粮仓车辆运载情况的系统及方法
JP2020122754A (ja) * 2019-01-31 2020-08-13 株式会社豊田中央研究所 3次元位置推定装置及びプログラム
JPWO2020255408A1 (ja) * 2019-06-21 2020-12-24
JP2022526191A (ja) * 2019-04-12 2022-05-23 コンチネンタル オートモーティブ システムズ インコーポレイテッド 車両-トレーラーの自律的な操縦および駐車

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004114977A (ja) * 2002-09-30 2004-04-15 Aisin Seiki Co Ltd 移動体周辺監視装置
JP2007127525A (ja) * 2005-11-04 2007-05-24 Aisin Aw Co Ltd 移動量演算装置
JP2009025901A (ja) * 2007-07-17 2009-02-05 Toyota Motor Corp 車載画像処理装置
US20120051595A1 (en) * 2010-08-31 2012-03-01 Seongsu Lee Mobile robot and controlling method of the same
JP2012168788A (ja) * 2011-02-15 2012-09-06 Toyota Central R&D Labs Inc 運動推定装置及びプログラム
JP2016061604A (ja) * 2014-09-16 2016-04-25 株式会社東芝 移動体位置推定装置、移動体位置推定方法及び移動体位置推定プログラム
JP2016157197A (ja) * 2015-02-23 2016-09-01 株式会社リコー 自己位置推定装置、自己位置推定方法およびプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004114977A (ja) * 2002-09-30 2004-04-15 Aisin Seiki Co Ltd 移動体周辺監視装置
JP2007127525A (ja) * 2005-11-04 2007-05-24 Aisin Aw Co Ltd 移動量演算装置
JP2009025901A (ja) * 2007-07-17 2009-02-05 Toyota Motor Corp 車載画像処理装置
US20120051595A1 (en) * 2010-08-31 2012-03-01 Seongsu Lee Mobile robot and controlling method of the same
JP2012168788A (ja) * 2011-02-15 2012-09-06 Toyota Central R&D Labs Inc 運動推定装置及びプログラム
JP2016061604A (ja) * 2014-09-16 2016-04-25 株式会社東芝 移動体位置推定装置、移動体位置推定方法及び移動体位置推定プログラム
JP2016157197A (ja) * 2015-02-23 2016-09-01 株式会社リコー 自己位置推定装置、自己位置推定方法およびプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020122754A (ja) * 2019-01-31 2020-08-13 株式会社豊田中央研究所 3次元位置推定装置及びプログラム
JP7173471B2 (ja) 2019-01-31 2022-11-16 株式会社豊田中央研究所 3次元位置推定装置及びプログラム
JP2022526191A (ja) * 2019-04-12 2022-05-23 コンチネンタル オートモーティブ システムズ インコーポレイテッド 車両-トレーラーの自律的な操縦および駐車
US11987287B2 (en) 2019-04-12 2024-05-21 Continental Autonomous Mobility US, LLC Autonomous truck-trailer maneuvering and parking
JPWO2020255408A1 (ja) * 2019-06-21 2020-12-24
JP7195430B2 (ja) 2019-06-21 2022-12-23 株式会社ソニー・インタラクティブエンタテインメント 撮影データ生成装置、撮影データ生成方法及びプログラム
CN110992420A (zh) * 2019-12-18 2020-04-10 天地伟业技术有限公司 一种检测粮仓车辆运载情况的系统及方法

Also Published As

Publication number Publication date
JP6905390B2 (ja) 2021-07-21

Similar Documents

Publication Publication Date Title
CN112785702B (zh) 一种基于2d激光雷达和双目相机紧耦合的slam方法
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101784183B1 (ko) ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
JP6514624B2 (ja) 障害物検知装置
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101708659B1 (ko) 이동 로봇의 맵을 업데이트하기 위한 장치 및 그 방법
JP6107081B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6658001B2 (ja) 位置推定装置、プログラム、位置推定方法
JP7036400B2 (ja) 自車位置推定装置、自車位置推定方法、及び自車位置推定プログラム
JP6905390B2 (ja) 自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、及び自車位置推定プログラム
CN109300143B (zh) 运动向量场的确定方法、装置、设备、存储介质和车辆
JP6782903B2 (ja) 自己運動推定システム、自己運動推定システムの制御方法及びプログラム
JP7173471B2 (ja) 3次元位置推定装置及びプログラム
JP6116765B1 (ja) 物体検出装置及び物体検出方法
JP6410231B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
JP4921847B2 (ja) 対象物の三次元位置推定装置
JP6699323B2 (ja) 電車設備の三次元計測装置及び三次元計測方法
JP6872426B2 (ja) 環境地図生成方法、環境地図生成装置、及び環境地図生成プログラム
US20220277480A1 (en) Position estimation device, vehicle, position estimation method and position estimation program
JP6886136B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
JP3448640B2 (ja) 車両追跡方法及び車両追跡装置
JPWO2021166742A5 (ja) 物体測距装置、方法、及びプログラム
JP2020076714A (ja) 位置姿勢推定装置
JP7238758B2 (ja) 自己位置推定装置、方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210625

R150 Certificate of patent or registration of utility model

Ref document number: 6905390

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250