JP6872426B2 - 環境地図生成方法、環境地図生成装置、及び環境地図生成プログラム - Google Patents

環境地図生成方法、環境地図生成装置、及び環境地図生成プログラム Download PDF

Info

Publication number
JP6872426B2
JP6872426B2 JP2017109065A JP2017109065A JP6872426B2 JP 6872426 B2 JP6872426 B2 JP 6872426B2 JP 2017109065 A JP2017109065 A JP 2017109065A JP 2017109065 A JP2017109065 A JP 2017109065A JP 6872426 B2 JP6872426 B2 JP 6872426B2
Authority
JP
Japan
Prior art keywords
image
moving
feature points
moving body
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017109065A
Other languages
English (en)
Other versions
JP2018205949A (ja
Inventor
浅海 周
周 浅海
浅井 彰司
彰司 浅井
博 石黒
博 石黒
和孝 早川
和孝 早川
崇士 鈴木
崇士 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Toyota Central R&D Labs Inc
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Toyota Central R&D Labs Inc, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2017109065A priority Critical patent/JP6872426B2/ja
Publication of JP2018205949A publication Critical patent/JP2018205949A/ja
Application granted granted Critical
Publication of JP6872426B2 publication Critical patent/JP6872426B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Image Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、環境地図生成方法、環境地図生成装置、及び環境地図生成プログラムに関する。
従来、環境内を移動する移動体に設けられた撮影装置により撮影された画像を用いて、移動体の自己位置を推定する技術が知られている。
例えば、特許文献1には、環境内を撮影した画像の特徴点と、移動体周囲を撮影した画像の特徴点とを対応付け、対応付けた各特徴点の位置の幾何学的な位置関係に基づいて、移動体の自己位置を推定する推定装置が開示されている。
また、特許文献2には、搭載された撮影装置を用いて撮影した画像に基づいて環境地図を生成し、生成した環境地図を用いて自己位置を推定する歩行ロボット装置が開示されている。
特開2017−21427号公報 特開2012−216051号公報
ところで、環境内を移動する移動体の自己位置を精度良く推定するためには、精度の良い環境地図を生成することが望ましい。例えば、単眼カメラで環境内を撮影した画像を用いて環境地図を生成する場合、撮影方向に対する距離情報が十分には得られないため、環境地図が精度良く生成されない場合がある。
しかしながら、上記特許文献1に記載の技術では、環境地図を精度良く生成することについては考慮されていない。また、上記特許文献2に記載の技術では、環境地図を安価に生成することは考慮されているものの、環境地図を精度良く生成することについては考慮されていない。
本発明は、以上の事情を鑑みて成されたものであり、環境地図を精度良く生成することができる環境地図生成方法、環境地図生成装置、及び環境地図生成プログラムを提供することを目的とする。
上記目的を達成するために、本発明に係る環境地図生成方法は、移動方向に制約のある移動体に設けられた第1撮影装置により、前記移動体を第1移動経路に沿って前記移動体が駐車する駐車場の駐車位置まで移動させながら複数の位置の各々で前記移動体の前後の何れかの撮影方向に向かって第1画像を撮影し、前記第1移動経路に対して交差する方向に、全方位に移動可能な第2移動体に設けられた第2撮影装置を移動させながら前記駐車位置に向かう前記第1移動経路とは異なる第2移動経路上の複数の位置の各々で前記撮影方向に向かって前記第2撮影装置により第2画像を撮影し、撮影して得られた複数の前記第1画像、及び複数の前記第2画像を含む画像群の画像各々から特徴点を抽出し、複数の前記第1画像の一方の画像から抽出した特徴点、及び他方の画像から抽出した特徴点を対応付けるとともに、複数の前記第2画像の一方の画像から抽出した特徴点、及び他方の画像から抽出した特徴点を対応付け、対応付けた各特徴点の3次元位置を算出し、各特徴点の3次元位置を含む環境地図を生成する、処理を含む。
なお、本発明に係る環境地図生成方法は、前記第1移動経路に対して交差する方向が、前記第1移動経路に対して直交する方向であってもよい。
一方、上記目的を達成するために、本発明に係る環境地図生成装置は、移動方向に制約のある移動体に設けられた第1撮影装置により、前記移動体を第1移動経路に沿って前記移動体が駐車する駐車場の駐車位置まで移動させながら複数の位置の各々で前記移動体の前後の何れかの撮影方向に向かって撮影して得られた複数の第1画像、及び前記第1移動経路に対して交差する方向に、全方位に移動可能な第2移動体に設けられた第2撮影装置を移動させながら前記駐車位置に向かう前記第1移動経路とは異なる第2移動経路上の複数の位置の各々で前記撮影方向に向かって前記第2撮影装置により撮影して得られた複数の第2画像を取得する取得部と、複数の前記第1画像、及び複数の前記第2画像を含む画像群の画像各々から特徴点を抽出する抽出部と、複数の前記第1画像の一方の画像から抽出された特徴点、及び他方の画像から抽出された特徴点を対応付けるとともに、複数の前記第2画像の一方の画像から抽出した特徴点、及び他方の画像から抽出した特徴点を対応付ける対応付け部と、対応付けられた各特徴点の3次元位置を算出し、各特徴点の3次元位置を含む環境地図を生成する生成部と、を含む。
また、上記目的を達成するために、本発明に係る環境地図生成プログラムは、移動方向に制約のある移動体に設けられた第1撮影装置により、前記移動体を第1移動経路に沿って前記移動体が駐車する駐車場の駐車位置まで移動させながら複数の位置の各々で前記移動体の前後の何れかの撮影方向に向かって撮影して得られた複数の第1画像、及び前記第1移動経路に対して交差する方向に、全方位に移動可能な第2移動体に設けられた第2撮影装置を移動させながら前記駐車位置に向かう前記第1移動経路とは異なる第2移動経路上の複数の位置の各々で前記撮影方向に向かって前記第2撮影装置により撮影して得られた複数の第2画像を取得し、撮影して得られた複数の前記第1画像、及び複数の前記第2画像を含む画像群の画像各々から特徴点を抽出し、複数の前記第1画像の一方の画像から抽出した特徴点、及び他方の画像から抽出した特徴点を対応付けるとともに、複数の前記第2画像の一方の画像から抽出した特徴点、及び他方の画像から抽出した特徴点を対応付け、対応付けた各特徴点の3次元位置を算出し、各特徴点の3次元位置を含む環境地図を生成する、処理をコンピュータに実行させるものである。
本発明によれば、環境地図を精度良く生成することができる。
実施形態に係る環境地図生成装置の機能ブロック図である。 第1撮影装置により画像を撮影する場合の移動経路の一例を示す平面図である。 第2撮影装置により画像を撮影する場合の移動経路の一例を示す平面図である。 抽出された特徴点を示す図である。 実施形態に係る車両制御装置の機能ブロック図である。 実施形態に係る環境地図生成装置のハードウェア構成を示すブロック図である。 実施形態に係る車両制御装置のハードウェア構成を示すブロック図である。 実施形態に係る環境地図情報を生成する処理の一例を示すフローチャートである。 実施形態に係る環境地図生成処理の一例を示すフローチャートである。 環境地図情報に含まれる特徴点の一例を示す模式図である。 実施形態に係る自己位置推定処理の一例を示すフローチャートである。 第2撮影装置により画像を撮影する場合の移動経路の変形例を示す平面図である。
以下、図面を参照して、本発明を実施するための形態例を詳細に説明する。なお、本実施形態では、移動体の移動経路に制約がある局所的な空間内での局所的な環境地図を生成する場合の形態例を説明する。具体的には、車両のユーザの自宅の駐車場における環境地図を生成する場合の形態例を説明する。
まず、図1を参照して、本実施形態に係る環境地図生成装置10の機能的な構成を説明する。なお、環境地図生成装置10の例としては、パーソナルコンピュータ及びサーバコンピュータ等の情報処理装置が挙げられる。
図1に示すように、環境地図生成装置10は、取得部12、抽出部14、対応付け部16、及び生成部18を含む。また、環境地図生成装置10の所定の記憶領域には、第1撮影装置の一例としてのカメラ30により複数の位置で撮影された複数の画像(以下、「第1画像」という)の各々を示す画像データ(以下、「第1画像データ」という)20が記憶される。また、環境地図生成装置10の所定の記憶領域には、第2撮影装置の一例としてのカメラ32により複数の位置で撮影された複数の画像(以下、「第2画像」という)の各々を示す画像データ(以下、「第2画像データ」という)22が記憶される。
図2及び図3を参照して、第1画像及び第2画像について説明する。図2に示すように、カメラ30は、移動方向に制約のある移動体の一例としての車両34の後部に設けられ、車両34の後方の第1画像を撮影する。本実施形態では、カメラ30は、車両34が駐車場の駐車位置に駐車する際の車両34の移動経路R1上の複数の位置の各々で第1画像を撮影する。
一方、図3に示すように、カメラ32は、上記駐車位置に向かう移動経路R1とは異なる移動経路R2上の複数の位置の各々で第2画像を撮影する。具体的には、移動経路R2は、移動経路R1に対して直交する方向を含む経路である。また、カメラ32は、移動経路R2上において、対応する移動経路R1上でのカメラ30の撮影方向と同じ方向に向かって第2画像を撮影する。本実施形態では、車両の納車時に車両のディーラーの担当者等の作業者がカメラ32を手で持ち、移動経路R2上を移動しながらカメラ32を操作して複数の位置で第2画像を撮影する。本実施形態に係る第2画像データ22群には、移動経路R2上における移動経路R1に対して直交する方向の経路で撮影された第2画像を示す画像データが含まれる。
取得部12は、環境地図生成装置10の記憶領域に記憶された第1画像データ20群から、第1画像データ20を時系列の順番に1つずつ取得する。また、取得部12は、環境地図生成装置10の記憶領域に記憶された第2画像データ22群から、第2画像データ22を時系列の順番に1つずつ取得する。なお、取得部12は、第1画像データ20及び第2画像データ22を、ネットワークを介して取得してもよいし、フラッシュメモリ等の記録媒体を介して取得してもよい。
抽出部14は、取得部12により取得された第1画像データ20について、時系列に連続する2つの第1画像データ20のペアを生成する。また、抽出部14は、ペアの第1画像データ20の各々が示す画像から特徴点を抽出する。また、抽出部14は、取得部12により取得された第2画像データ22について、時系列に連続する2つの第2画像データ22のペアを生成する。また、抽出部14は、ペアの第2画像データ22の各々が示す画像から特徴点を抽出する。
抽出部14による特徴点の抽出処理には、例えば、ORB−SLAMを適用することができる。ORB−SLAMは、特徴量の記述にORB(Oriented FAST and Rotated BRIEF)を用いる。ORB−SLAMは、特徴点としてコーナーを検出し、検出手法にFAST(Features from Accelerated Segment Test)を用いるものである。また、ORBの特徴量記述は、BRIEF(Binary Robust Independent Elementary Features)をベースとして、スケール不変性と回転不変性とを有するように発展させたものである。ORB−SLAMについては以下の参考文献1に開示されているため、詳細な説明を省略する。なお、ORB−SLAMでは、特徴点がランダムに抽出されるため、同じ画像に対して特徴点の抽出処理を複数回繰り返してもよい。これにより、より多くの特徴点が抽出される。
[参考文献1]Raul Mur-Artal, J.M.M.Montiel and Juan D.Tardos. ORB-SLAM: A Versatile and Accurate Monocular SLAM System. IEEE Transactions on Robotics, vol.31, no.5, pp.1147-1163, 2015.
図4に、抽出部14により抽出された特徴点の一例を示す。図4では、特徴点が正方形の印で示されている。
対応付け部16は、抽出部14により抽出されたペアの第1画像データ20の各々が示す画像の特徴点を対応付ける。また、対応付け部16は、ペアの第2画像データ22の各々が示す画像の特徴点を対応付ける。
生成部18は、対応付け部16により対応付けられた各特徴点の位置に基づいて、環境地図を示す環境地図情報24を生成する。本実施形態では、生成部18は、初期化段階において、対応付け部16により対応付けられた複数組の特徴点のペアから、例えば、5点法及び7点法等を用いて、一方の画像を基準とする基本行列を推定する。なお、生成部18は、他方の画像を基準とする基本行列を推定してもよい。ここで、上記で取得された画像データの画像を、他方の画像とし、一つ前の画像データの画像を、一方の画像として説明する。
また、生成部18は、特異値分解等によって、推定して得られた基本行列から並進ベクトル及び回転行列を算出する。この並進ベクトル及び回転行列の算出により、生成部18は、一方の画像の撮影時のカメラの位置及び姿勢を基準とする他方の画像の撮影時のカメラの位置及び姿勢を推定する。なお、生成部18は、一方の画像の撮影時のカメラの位置を原点とし、一方の画像の撮影時のカメラの姿勢を基準として、3次元の地図座標系を設定する。
また、生成部18は、対応付けられた特徴点のペアの一方の画像内の位置及び他方の画像内の位置と、推定した、一方の画像の撮影時のカメラの位置及び姿勢に対する他方の画像の撮影時のカメラの位置及び姿勢とを用いて、三角測量の原理によって、一方の画像の撮影時のカメラの位置及び姿勢に対する、特徴点の三次元座標を算出する。生成部18は、この三次元座標を、地図座標系の三次元座標に変換する。
そして、生成部18は、各特徴点について求めた地図座標系の三次元座標及び特徴量を含めた環境地図情報24を生成する。また、生成部18は、地図座標系における一方の画像の撮影時のカメラの位置及び姿勢と、他方の画像の撮影時のカメラの位置及び姿勢とを求め、画像データ、及び画像に含まれる特徴点情報と共に、環境地図情報24に格納する。
そして、生成部18は、初期化段階ではない場合、環境地図情報24の各特徴点と、他方の画像の特徴点とを照合して、地図座標系における他方の画像の撮影時のカメラの位置及び姿勢を求める。
また、生成部18は、対応付け部16により対応付けられた特徴点のうち、環境地図情報24に登録されていない新しい特徴点が存在する場合には、以下に示す処理を行う。すなわち、この場合、生成部18は、当該新しい特徴点の一方の画像内の位置及び他方の画像内の位置と、環境地図情報24から得られる、一方の画像の撮影時のカメラの位置及び姿勢と、求められた他方の画像の撮影時のカメラの位置及び姿勢とを用いて、三角測量の原理によって、一方の画像の撮影時のカメラの位置及び姿勢に対する、特徴点の三次元座標を算出する。生成部18は、この三次元座標を、地図座標系の三次元座標に変換する。
そして、生成部18は、新しい特徴点について求めた地図座標系の三次元座標及び特徴量を環境地図情報24に格納する。また、生成部18は、求められた他方の画像の撮影時のカメラの位置及び姿勢を、画像データ、及び画像に含まれる特徴点情報と共に、環境地図情報24に格納する。
次に、図5を参照して、車両34の自己位置を推定する場合の車両制御装置36の機能的な構成を説明する。車両制御装置36は、車両34の内部に設けられる。なお、車両制御装置36の例としては、ECU(Electronic Control Unit)等のマイクロコンピュータが挙げられる。
図5に示すように、車両制御装置36は、撮影制御部40、抽出部42、及び推定部44を含む。車両制御装置36の所定の記憶領域には、環境地図生成装置10により生成された環境地図情報24が記憶される。
撮影制御部40は、カメラ30に対して画像を撮影させる制御を行い、カメラ30により撮影された画像を示す画像データを取得する。抽出部42は、環境地図生成装置10の抽出部14と同様の処理により、撮影制御部40による制御によってカメラ30により撮影された画像から特徴点を抽出する。
推定部44は、抽出部42により抽出された特徴点の特徴量に基づいて、抽出された特徴点と、環境地図情報24に含まれる特徴点とを照合して、地図座標系における画像の撮影時のカメラ30の位置及び姿勢を求め、車両34の自己位置及び姿勢とする。なお、車両34の自己位置の基準を後輪の軸の中央部等のカメラ30の位置以外とした場合は、カメラ30の位置と車両34の自己位置の基準との相対的な位置関係に基づき、推定したカメラ30の位置及び姿勢から車両34の自己位置及び姿勢を求めてもよい。
次に、図6を参照して、環境地図生成装置10のハードウェア構成を説明する。図6に示すように、環境地図生成装置10は、CPU(Central Processing Unit)61、一時記憶領域としてのメモリ62、及び不揮発性の記憶部63を備える。また、環境地図生成装置10は、表示装置及び入力装置等の入出力装置64を備える。また、環境地図生成装置10は、ネットワークに接続されるネットワークI/F65を備える。CPU61、メモリ62、記憶部63、入出力装置64、及びネットワークI/F65は、バス66を介して互いに接続される。
記憶部63は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、及びフラッシュメモリ等によって実現することができる。記憶媒体としての記憶部63には、環境地図生成プログラム70が記憶される。また、記憶部63は、第1画像データ20、第2画像データ22、及び環境地図情報24が記憶される情報記憶領域71を有する。CPU61は、環境地図生成プログラム70を記憶部63から読み出してメモリ62に展開して実行する。CPU61が、環境地図生成プログラム70を実行することによって、図1に示す取得部12、抽出部14、対応付け部16、及び生成部18として機能する。
次に、図7を参照して、車両制御装置36のハードウェア構成を説明する。図7に示すように、車両制御装置36は、CPU81、一時記憶領域としてのメモリ82、及び不揮発性の記憶部83を備える。また、車両制御装置36は、カメラ30が接続される入出力I/F84、及びネットワークに接続されるネットワークI/F85を備える。CPU81、メモリ82、記憶部83、入出力I/F84、及びネットワークI/F85は、バス86を介して互いに接続される。
記憶部83は、HDD、SSD、及びフラッシュメモリ等によって実現することができる。記憶媒体としての記憶部83には、自己位置推定プログラム90が記憶される。また、記憶部83は、環境地図情報24が記憶される情報記憶領域91を有する。CPU91は、自己位置推定プログラム90を記憶部83から読み出してメモリ82に展開して実行する。CPU81が、自己位置推定プログラム90を実行することによって、図5に示す撮影制御部40、抽出部42、及び推定部44として機能する。
次に、図8〜図11を参照して、本実施形態に係る環境地図情報24を生成する処理の流れを説明する。
図8に示すステップS10で、作業者は、車両34を運転し、移動経路R1に沿って車両34を移動させる。車両34が移動経路R1上を移動している間、車両制御装置36は、カメラ30を制御し、所定の時間間隔で第1画像を撮影させる。ステップS12で、作業者は、車両34を移動経路R1の終点である所定の駐車位置に駐車した後、ステップS10でのカメラ30による撮影により得られた複数の第1画像データ20を、環境地図生成装置10の記憶部63に格納する。
ステップS14で、作業者は、前述したように、カメラ32を手に持ち、移動経路R2上を移動しながらカメラ32を操作して複数の位置で第2画像を撮影する。ステップS16で、作業者は、ステップS14でのカメラ32による撮影により得られた複数の第2画像データ22を、環境地図生成装置10の記憶部63に格納する。
ステップS16の作業が終了すると、作業者は、入出力装置64の入力装置を介して、環境地図生成プログラム70の実行指示を入力する。この実行指示が入力されると、ステップS18で、環境地図生成装置10のCPU61は、環境地図生成プログラム70を実行する。CPU61が環境地図生成プログラム70を実行することにより、図9に示す環境地図生成処理が実行される。
図9に示すステップS30で、取得部12は、記憶部63に記憶された第1画像データ20群から、1つの第1画像データ20を取得する。なお、本実施形態では、ステップS30の処理が繰り返し実行される場合に、取得部12は、第1画像データ20を時系列の順番に取得する。ステップS34で、抽出部14は、直前のステップS30で取得された第1画像データ20と、前回の繰り返し処理におけるステップS30で取得された第1画像データ20とのペアを生成する。
ステップS36で、抽出部14は、ステップS34で生成されたペアの画像データの各々を用いて、一方の画像及び他方の画像から特徴点を抽出する。ステップS38で、対応付け部16は、ステップS36で抽出された一方の画像の特徴点と、他方の特徴点とを対応付ける。
ステップS40で、生成部18は、環境地図情報24を生成する初期化段階であるか否かを判定する。環境地図情報24に、何らデータが格納されていない場合には、処理はステップS42へ移行する。一方、環境地図情報24に、データが既に格納されている場合には、処理はステップS48へ移行する。
ステップS42で、生成部18は、ステップS38で対応付けられた複数組の特徴点のペアから、一方の画像を基準とする基本行列を推定する。また、生成部18は、特異値分解等によって、推定して得られた基本行列から並進ベクトル及び回転行列を算出し、一方の画像の撮影時のカメラ30の位置及び姿勢を基準とする他方の画像の撮影時のカメラ32の位置及び姿勢を推定する。
ステップS44で、生成部18は、対応付けられた特徴点のペアの一方の画像内の位置及び他方の画像内の位置と、推定した、一方の画像の撮影時のカメラの位置及び姿勢に対する他方の画像の撮影時のカメラの位置及び姿勢とを用いて、三角測量の原理によって、一方の画像の撮影時のカメラの位置及び姿勢に対する、特徴点の三次元座標を算出する。また、生成部18は、この三次元座標を、地図座標系の三次元座標に変換する。
ステップS46で、生成部18は、各特徴点についてステップS44で求めた地図座標系の三次元座標及び特徴量を含めた環境地図情報24を生成する。また、生成部18は、地図座標系における一方の画像の撮影時のカメラの位置及び姿勢と、他方の画像の撮影時のカメラの位置及び姿勢とを求め、画像データ、及び画像に含まれる特徴点情報と共に、環境地図情報24に格納する。
一方、ステップS48で、生成部18は、初期化段階ではない場合、環境地図情報24の各特徴点と、他方の画像の特徴点とを照合して、地図座標系における他方の画像の撮影時のカメラの位置及び姿勢を求める。
ステップS50で、生成部18は、ステップS38で対応付けられた特徴点のうち、環境地図情報24に登録されていない新しい特徴点が存在する場合には、以下に示す処理を行う。すなわち、この場合、生成部18は、当該新しい特徴点の一方の画像内の位置及び他方の画像内の位置と、環境地図情報24から得られる、一方の画像の撮影時のカメラの位置及び姿勢と、ステップS48で求めた他方の画像の撮影時のカメラの位置及び姿勢とを用いて、三角測量の原理によって、一方の画像の撮影時のカメラの位置及び姿勢に対する、特徴点の三次元座標を算出する。生成部18は、この三次元座標を、地図座標系の三次元座標に変換する。
ステップS52で、生成部18は、新しい特徴点についてステップS50で求めた地図座標系の三次元座標及び特徴量を環境地図情報24に格納する。また、生成部18は、求められた他方の画像の撮影時のカメラの位置及び姿勢を、画像データ、及び画像に含まれる特徴点情報と共に、環境地図情報24に格納する。
ステップS54で、生成部18は、全ての画像について、ステップS30からステップS52までの処理が完了したか否かを判定する。この判定が否定判定となった場合は、処理はステップS30に戻る。また、第1画像データ20群の全ての画像について、ステップS30からステップS52までの処理が終了した場合、第2画像データ22群の全ての画像についても同様に、ステップS30からステップS52までの処理が実行される。そして、第1画像データ20群及び第2画像データ22群の全ての画像についてステップS34からステップS52までの処理が終了すると、環境地図生成処理が終了する。なお、第2画像データ22群に対して上記ステップS30からS52までの処理を実行した後に、第1画像データ20群に対して上記ステップS30からS52までの処理を実行してもよい。
以上の環境地図生成処理により生成された環境地図情報24に含まれる特徴点をプロットした模式図の一例を図10に示す。また、作業者は、この環境地図情報24を、車両制御装置36の記憶部83に格納する。
次に、例えば、車両34の運転者により自己位置推定プログラム90の実行指示が入力されると、車両制御装置36のCPU81は、自己位置推定プログラム90を実行する。CPU81が自己位置推定プログラム90を実行することにより、図11に示す自己位置推定処理が実行される。
図11に示すステップS60で、撮影制御部40は、カメラ30に対して画像を撮影させる制御を行い、カメラ30により撮影された画像を示す画像データを取得する。ステップS62で、抽出部42は、ステップS60で撮影された画像から特徴点を抽出する。ステップS64で、推定部44は、ステップS62で抽出された特徴点と、環境地図情報24に含まれる特徴点とを照合して、地図座標系における画像の撮影時のカメラ30の位置及び姿勢を求め、車両34の自己位置及び姿勢とする。
ステップS64の処理が終了すると、自己位置推定処理が終了する。自己位置推定処理により推定された車両34の自己位置は、例えば、車両34が自動運転による駐車を行う場合等に用いられる。
以上説明したように、本実施形態によれば、移動方向に制約のある車両34に設けられたカメラ30により、車両34を移動経路R1に沿って移動させながら複数の位置の各々で車両34の後方である撮影方向に向かって第1画像を撮影する。また、移動経路R1に対して直交する方向にカメラ32を移動させながら複数の位置の各々で撮影方向に向かってカメラ32により第2画像を撮影する。そして、撮影された複数の第1画像及び複数の第2画像を用いて、環境地図を生成する。
すなわち、複数の第2画像には、第1画像の撮影位置から撮影方向に直交する方向に移動した位置で撮影された第2画像が含まれる。この第2画像は、第1画像との視差が大きいものとなるため、撮影方向に対する距離情報がより正確なものとなる。従って、本実施形態によれば、環境地図を精度良く生成することができる。
なお、上記実施形態では、カメラ32により第2画像を撮影する際の移動経路R2に移動経路R1に対して直交する方向が含まれる場合について説明したが、これに限定されない。移動経路R2には、移動経路R1に対して交差する方向が含まれていればよい。この場合の移動経路R2の一例を図12に示す。
また、上記実施形態において、カメラ32を、例えば、水平方向に360度回転可能な車輪を有する台車等の全方位に移動可能な移動体に設ける形態としてもよい。この場合、この移動体を、移動経路R2上を移動させながらカメラ32により複数の第2画像を撮影する形態が例示される。
また、上記実施形態では、カメラ30が車両34の後部に設けられ、車両34の後方を撮影する場合について説明したが、これに限定されない。例えば、カメラ30が車両34の前部に設けられ、車両34の前方を撮影する形態としてもよい。
また、上記実施形態において環境地図生成装置10により実現される機能を、車両制御装置36により実現してもよい。
また、上記実施形態では、環境地図生成プログラム70が記憶部63に予め記憶されている態様を説明したが、これに限定されない。環境地図生成プログラム70は、CD−ROM(Compact Disk Read Only Memory)、DVD−ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、環境地図生成プログラム70は、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
また、上記実施形態では、自己位置推定プログラム90が記憶部83に予め記憶されている態様を説明したが、これに限定されない。自己位置推定プログラム90は、CD−ROM、DVD−ROM、及びUSBメモリ等の記録媒体に記録された形態で提供されてもよい。また、自己位置推定プログラム90は、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
10 環境地図生成装置
12 取得部
14、42 抽出部
16 対応付け部
18 生成部
20 第1画像データ
22 第2画像データ
24 環境地図情報
30、32 カメラ
34 車両
36 車両制御装置
40 撮影制御部
44 推定部
61、81 CPU
62、82 メモリ
63、83 記憶部
70 環境地図生成プログラム
90 自己位置推定プログラム
R1、R2 移動経路

Claims (4)

  1. 移動方向に制約のある移動体に設けられた第1撮影装置により、前記移動体を第1移動経路に沿って前記移動体が駐車する駐車場の駐車位置まで移動させながら複数の位置の各々で前記移動体の前後の何れかの撮影方向に向かって第1画像を撮影し、
    前記第1移動経路に対して交差する方向に、全方位に移動可能な第2移動体に設けられた第2撮影装置を移動させながら前記駐車位置に向かう前記第1移動経路とは異なる第2移動経路上の複数の位置の各々で前記撮影方向に向かって前記第2撮影装置により第2画像を撮影し、
    撮影して得られた複数の前記第1画像、及び複数の前記第2画像を含む画像群の画像各々から特徴点を抽出し、
    複数の前記第1画像の一方の画像から抽出した特徴点、及び他方の画像から抽出した特徴点を対応付けるとともに、複数の前記第2画像の一方の画像から抽出した特徴点、及び他方の画像から抽出した特徴点を対応付け、
    対応付けた各特徴点の3次元位置を算出し、各特徴点の3次元位置を含む環境地図を生成する、
    処理を含む環境地図生成方法。
  2. 前記第1移動経路に対して交差する方向は、前記第1移動経路に対して直交する方向である、
    請求項1に記載の環境地図生成方法。
  3. 移動方向に制約のある移動体に設けられた第1撮影装置により、前記移動体を第1移動経路に沿って前記移動体が駐車する駐車場の駐車位置まで移動させながら複数の位置の各々で前記移動体の前後の何れかの撮影方向に向かって撮影して得られた複数の第1画像、及び前記第1移動経路に対して交差する方向に、全方位に移動可能な第2移動体に設けられた第2撮影装置を移動させながら前記駐車位置に向かう前記第1移動経路とは異なる第2移動経路上の複数の位置の各々で前記撮影方向に向かって前記第2撮影装置により撮影して得られた複数の第2画像を取得する取得部と、
    複数の前記第1画像、及び複数の前記第2画像を含む画像群の画像各々から特徴点を抽出する抽出部と、
    複数の前記第1画像の一方の画像から抽出された特徴点、及び他方の画像から抽出された特徴点を対応付けるとともに、複数の前記第2画像の一方の画像から抽出した特徴点、及び他方の画像から抽出した特徴点を対応付ける対応付け部と、
    対応付けられた各特徴点の3次元位置を算出し、各特徴点の3次元位置を含む環境地図を生成する生成部と、
    を含む環境地図生成装置。
  4. 移動方向に制約のある移動体に設けられた第1撮影装置により、前記移動体を第1移動経路に沿って前記移動体が駐車する駐車場の駐車位置まで移動させながら複数の位置の各々で前記移動体の前後の何れかの撮影方向に向かって撮影して得られた複数の第1画像、及び前記第1移動経路に対して交差する方向に、全方位に移動可能な第2移動体に設けられた第2撮影装置を移動させながら前記駐車位置に向かう前記第1移動経路とは異なる第2移動経路上の複数の位置の各々で前記撮影方向に向かって前記第2撮影装置により撮影して得られた複数の第2画像を取得し、
    撮影して得られた複数の前記第1画像、及び複数の前記第2画像を含む画像群の画像各々から特徴点を抽出し、
    複数の前記第1画像の一方の画像から抽出した特徴点、及び他方の画像から抽出した特徴点を対応付けるとともに、複数の前記第2画像の一方の画像から抽出した特徴点、及び他方の画像から抽出した特徴点を対応付け
    対応付けた各特徴点の3次元位置を算出し、各特徴点の3次元位置を含む環境地図を生成する、
    処理をコンピュータに実行させる環境地図生成プログラム。
JP2017109065A 2017-06-01 2017-06-01 環境地図生成方法、環境地図生成装置、及び環境地図生成プログラム Active JP6872426B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017109065A JP6872426B2 (ja) 2017-06-01 2017-06-01 環境地図生成方法、環境地図生成装置、及び環境地図生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017109065A JP6872426B2 (ja) 2017-06-01 2017-06-01 環境地図生成方法、環境地図生成装置、及び環境地図生成プログラム

Publications (2)

Publication Number Publication Date
JP2018205949A JP2018205949A (ja) 2018-12-27
JP6872426B2 true JP6872426B2 (ja) 2021-05-19

Family

ID=64957862

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017109065A Active JP6872426B2 (ja) 2017-06-01 2017-06-01 環境地図生成方法、環境地図生成装置、及び環境地図生成プログラム

Country Status (1)

Country Link
JP (1) JP6872426B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110599545B (zh) * 2019-09-06 2022-12-02 电子科技大学中山学院 一种基于特征的构建稠密地图的系统
SG10201913873QA (en) * 2019-12-30 2021-07-29 Singpilot Pte Ltd Sequential Mapping And Localization (SMAL) For Navigation

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6136435B2 (ja) * 2013-03-25 2017-05-31 村田機械株式会社 自律移動装置
JP2015114954A (ja) * 2013-12-13 2015-06-22 株式会社ジオ技術研究所 撮影画像解析方法
JP2016157197A (ja) * 2015-02-23 2016-09-01 株式会社リコー 自己位置推定装置、自己位置推定方法およびプログラム

Also Published As

Publication number Publication date
JP2018205949A (ja) 2018-12-27

Similar Documents

Publication Publication Date Title
JP6768156B2 (ja) 仮想的に拡張された視覚的同時位置特定及びマッピングのシステム及び方法
JP6107081B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
Azarbayejani et al. Recursive estimation of structure and motion using relative orientation constraints
JP4852764B2 (ja) 動き計測装置、動き計測システム、車載機器、動き計測方法、動き計測プログラム、およびコンピュータ読み取り可能な記録媒体
JP7036400B2 (ja) 自車位置推定装置、自車位置推定方法、及び自車位置推定プログラム
JP2008506953A5 (ja)
US20130182903A1 (en) Robot apparatus and position and orientation detecting method
JP6905390B2 (ja) 自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、及び自車位置推定プログラム
US20170259830A1 (en) Moving amount derivation apparatus
CN111279354A (zh) 图像处理方法、设备及计算机可读存储介质
CN111928842B (zh) 一种基于单目视觉实现slam定位的方法及相关装置
JP7173471B2 (ja) 3次元位置推定装置及びプログラム
JP5917767B2 (ja) 立体補正方法
JP2020027439A5 (ja)
US10229508B2 (en) Dynamic particle filter parameterization
JP6872426B2 (ja) 環境地図生成方法、環境地図生成装置、及び環境地図生成プログラム
KR20140134090A (ko) 이미지 센서와 대상 객체 사이의 상대적인 각도를 이용하는 깊이 영상 처리 장치 및 방법
JP6410231B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
JP2007025863A (ja) 撮影システム、撮影方法及び画像処理プログラム
JP4921847B2 (ja) 対象物の三次元位置推定装置
JP2559939B2 (ja) 3次元情報入力装置
US10977810B2 (en) Camera motion estimation
WO2019186677A1 (ja) ロボット位置姿勢推定・三次元計測装置
JP2022551885A (ja) 物体の把持点の三次元位置、ローカル参照フレーム及び把持パターンを求める方法及びシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210419

R150 Certificate of patent or registration of utility model

Ref document number: 6872426

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250