JP2015184054A - 同定装置、方法及びプログラム - Google Patents

同定装置、方法及びプログラム Download PDF

Info

Publication number
JP2015184054A
JP2015184054A JP2014058643A JP2014058643A JP2015184054A JP 2015184054 A JP2015184054 A JP 2015184054A JP 2014058643 A JP2014058643 A JP 2014058643A JP 2014058643 A JP2014058643 A JP 2014058643A JP 2015184054 A JP2015184054 A JP 2015184054A
Authority
JP
Japan
Prior art keywords
virtual
image features
virtual image
appropriateness
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2014058643A
Other languages
English (en)
Inventor
英昭 内山
Hideaki Uchiyama
英昭 内山
晃仁 関
Akihito Seki
晃仁 関
雅起 山崎
Masaki Yamazaki
雅起 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2014058643A priority Critical patent/JP2015184054A/ja
Priority to US14/656,845 priority patent/US20150269778A1/en
Publication of JP2015184054A publication Critical patent/JP2015184054A/ja
Abandoned legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】同定に要する時間を短縮することができる同定装置、方法及びプログラムを提供する。【解決手段】同定装置10は、撮像部25と、撮像画像特徴算出部27と、同定情報取得部29と、同定部31と、を備える。撮像部25は、撮像画像を撮像する。撮像画像特徴算出部27は、前記撮像画像から1以上の撮像画像特徴を算出する。同定情報取得部29は、地図データ上の仮想画像毎に、当該仮想画像の1以上の仮想画像特徴と、当該1以上の仮想画像特徴の撮像位置と推定される仮想3次元位置と、当該1以上の仮想画像特徴の適切度と、を対応付けた同定情報を取得する。同定部31は、前記適切度が高い順に、前記1以上の仮想画像特徴と前記1以上の撮像画像特徴とを照合し、照合度が最も高い1以上の仮想画像特徴に対応付けられた仮想3次元位置と前記1以上の撮像画像特徴とを用いて自身の3次元位置及び姿勢を同定する。【選択図】図1

Description

本発明の実施形態は、同定装置、方法及びプログラムに関する。
画像特徴で構成される地図データと同定対象の3次元位置及び姿勢で撮像した画像の画像特徴との照合を行うことで、同定対象の3次元位置及び姿勢が地図データ上のどの位置に該当するかを同定する技術が知られている。
特開2004−5593号公報
しかしながら、上述したような従来技術では、地図データの画像特徴と画像の画像特徴との照合を順番に行うため、同定に時間を要してしまう。
本発明が解決しようとする課題は、同定に要する時間を短縮することができる同定装置、方法及びプログラムを提供することを目的とする。
実施形態の同定装置は、撮像部と、撮像画像特徴算出部と、同定情報取得部と、同定部と、を備える。撮像部は、撮像画像を撮像する。撮像画像特徴算出部は、前記撮像画像から1以上の撮像画像特徴を算出する。同定情報取得部は、地図データ上の所定の仮想画像毎に、当該所定の仮想画像の1以上の仮想画像特徴と、当該1以上の仮想画像特徴の撮像位置と推定される仮想3次元位置と、当該1以上の仮想画像特徴の適切度と、を対応付けた同定情報を、取得する。同定部は、前記適切度が高い順に、前記1以上の仮想画像特徴と前記1以上の撮像画像特徴とを照合し、照合度が最も高い1以上の仮想画像特徴に対応付けられた仮想3次元位置と前記1以上の撮像画像特徴とを用いて自身の3次元位置及び姿勢を同定する。
第1実施形態の同定装置の例を示す構成図。 第1実施形態の仮想3次元位置及び姿勢の設定手法の例の説明図。 第1実施形態の複数の仮想画像の生成手法の例を示す図。 第1実施形態の仮想画像の例を示す図。 第1実施形態の仮想画像の例を示す図。 第1実施形態の仮想画像の例を示す図。 第1実施形態の仮想画像の例を示す図。 第1実施形態の仮想画像の例を示す図。 第1実施形態の照合順序の例の説明図。 第1実施形態の照合順序の例の説明図。 第1実施形態の同定情報生成処理例を示すフローチャート。 第1実施形態の同定処理例を示すフローチャート。 第2実施形態の同定装置の構成例を示すブロック図。 第2実施形態の仮想3次元位置及び姿勢の設定手法の例の説明図。 第2実施形態の処理例を示すフローチャート。 各実施形態の同定装置のハードウェア構成例を示すブロック図。
以下、添付図面を参照しながら、実施形態を詳細に説明する。
(第1実施形態)
図1は、第1実施形態の同定装置10の一例を示す構成図である。図1に示すように、同定装置10は、地図データ記憶部11と、地図データ取得部13と、設定部15と、生成部17と、適切度算出部19と、抽出部21と、同定情報記憶部23と、撮像部25と、撮像画像特徴算出部27と、同定情報取得部29と、同定部31と、出力部33とを、備える。なお、同定装置10は、自立移動が可能なロボットなどの移動体であってもよいし、ユーザが保持して移動するものであってもよい。
地図データ記憶部11及び同定情報記憶部23は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、光ディスク、ROM(Read Only Memory)、及びRAM(Random Access Memory)などの磁気的、光学的、又は電気的に記憶可能な記憶装置により実現できる。地図データ取得部13、設定部15、生成部17、適切度算出部19、抽出部21、撮像画像特徴算出部27、同定情報取得部29、同定部31、及び出力部33は、例えば、CPU(Central Processing Unit)などの処理装置にプログラムを実行させること、即ち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェア及びハードウェアを併用して実現してもよい。撮像部25は、例えば、CMOS(Complementary Metal-Oxide Semiconductor)カメラやCCD(Charge Coupled Device)カメラなど2次元の撮像画像を撮像する2次元カメラや、TOF(TIME OF FLIGHT)方式カメラやSTRUCTURED LIGHT方式カメラなど2次元の撮像画像に加え撮像対象までの距離を含めた3次元の点群から構成される3次元の撮像画像を撮像する3次元カメラなどの撮像装置により実現できる。
地図データ記憶部11は、地図データを記憶する。地図データは、地図データの作成に用いられた画像の画像特徴で構成されている。画像特徴は、特徴量、強度、及び3次元座標を含む。
画像特徴が点の場合、強度は、例えば、C. Harris and M. Stephens, “A combined corner and edge detector,” Proceedings of the 4th Alvey Vision Conference, pp. 147-151, 1988.に開示されたコーナーの度合を表す評価値、3次元座標は、例えば、点の3次元座標とすることができる。
画像特徴が線の場合、強度は、例えば、J. Canny, “A Computational Approach To Edge Detection,” IEEE Transactions on Pattern Analysis and Machine Intelligence, 8(6):679−698, 1986.に開示されたエッジの度合を勾配の大きさから算出する評価値、3次元座標は、例えば、線の重心の3次元座標とすることができる。
画像特徴が領域の場合、強度は、例えば、領域の大きさ、3次元座標は、例えば、領域の重心の3次元座標とすることができる。
地図データ取得部13は、地図データを取得する。具体的には、地図データ取得部13は、地図データ記憶部11から地図データを取得する。
設定部15は、地図データ取得部13により取得された地図データ上に複数の仮想3次元位置を設定するとともに、複数の仮想3次元位置それぞれの姿勢を設定する。具体的には、設定部15は、地図データ取得部13により取得された地図データ上の周囲に仮想3次元位置及び姿勢の組を複数設定する。
例えば、設定部15は、D. Kurz, T. Olszamowski and S. Benhimane, “Representative Feature Descriptor Sets for Robust Handheld Camera Localization,” Proceedings of the International Symposium on Mixed and Augmented Reality, pp.65-70, 2012.に開示されているように、地図データに基づく地図を覆う球の表面を三角形のメッシュの集合として近似し、三角形の各頂点から球の中心に向かう位置及び姿勢を仮想3次元位置及び姿勢として設定する(図2参照)。なお設定部15は、地図データに基づく地図を覆う球として、半径の長さの異なる球を複数用意し、各球上に各頂点を設定することで、仮想3次元位置及び姿勢の組を複数設定するようにしてもよい。
生成部17は、設定部15により設定された複数の仮想3次元位置及び姿勢の組それぞれを用いて、複数の仮想画像それぞれを生成する。具体的には、生成部17は、仮想3次元位置及び姿勢の組毎に、当該仮想3次元位置及び姿勢で撮像したと推定される仮想画像を生成する。
図3は、第1実施形態の複数の仮想画像の生成手法の一例を示す図である。図3に示す例では、地図データに基づく地図上の空間を3つの仮想3次元位置及び姿勢の組それぞれの撮像範囲41〜43で仮想的に撮像する。
図4〜図6は、第1実施形態の複数の仮想画像の一例を示す図である。図4に示す例は、図3の撮像範囲41で仮想的に撮像した仮想画像51であり、地図データに基づく地図上の空間に位置する画像特徴は6つ含まれている。図5に示す例は、図3の撮像範囲42で仮想的に撮像した仮想画像52であり、地図データに基づく地図上の空間に位置する画像特徴は4つ含まれている。図6に示す例は、図3の撮像範囲43で仮想的に撮像した仮想画像53であり、地図データに基づく地図上の空間に位置する画像特徴は2つ含まれている。以下では、仮想画像に含まれる画像特徴を仮想画像特徴と称する場合がある。
適切度算出部19は、生成部17により生成された仮想画像毎に、当該仮想画像から1以上の仮想画像特徴を算出し、当該1以上の仮想画像特徴に基づいて適切度を算出する。具体的には、適切度算出部19は、仮想画像に含まれる仮想画像特徴(仮想画像に投影された地図上の空間に位置する画像特徴)の数、仮想画像に含まれる仮想画像特徴の強度の和、及び仮想画像に含まれる仮想画像特徴の位置の分布(分散)の重み付け和を求め、適切度とする。
以下、適切度についてより詳細に説明する。
まず、設定部15により設定された仮想3次元位置及び姿勢の組の数をA(Aは1以上の自然数)、仮想3次元位置をtj(jは、1からAまでの自然数)、姿勢をRj、地図上の空間に位置する画像特徴の数をB(Bは1以上の自然数)、画像特徴の3次元座標をXf(fは、1からBまでの自然数)とすると、数式(1)により画像特徴の2次元座標xfが求まる(3次元座標Xfが2次元座標xfに投影される)。
xf=Z[Rj|tj]Xf …(1)
Zは、仮想画像を仮想的に撮像する仮想撮像装置の内部パラメタを表す行列であり、第1実施形態では、撮像部25の内部パラメタと同一とする。
適切度算出部19は、仮想画像の幅をW、高さをHに設定し、仮想画像内に含まれるxfを選択する。これにより、仮想画像に含まれる仮想画像特徴が求まる。そして、仮想画像に含まれる仮想画像特徴の数をC、仮想画像特徴の強度の和をD、仮想画像特徴の位置の分散をEとすると、適切度Sjは、数式(2)より求まる。
Sj=WcC+WdD+WeE …(2)
Wc、Wd、Weは、それぞれ、仮想画像特徴の数、仮想画像特徴の強度の和、仮想画像特徴の位置の分散の重みである。
なお、適切度は、図7に示す仮想画像54に含まれる仮想画像特徴のように散らばっている方が、図8に示す仮想画像55に含まれる仮想画像特徴のように集約されているよりも、値が大きくなる。
抽出部21は、適切度算出部19により算出された適切度が所定条件を満たす仮想画像の1以上の仮想画像特徴と、当該1以上の仮想画像特徴の仮想3次元位置と、当該適切度とを抽出し、対応付けて同定情報に追加する。具体的には、抽出部21は、抽出した1以上の仮想画像特徴と、当該1以上の仮想画像特徴の仮想3次元位置と、当該適切度とを対応付けて、同定情報記憶部23に記憶する。
同定情報記憶部23は、地図データ上の所定の仮想画像毎に、当該所定の仮想画像の1以上の仮想画像特徴と、当該1以上の仮想画像特徴の撮像位置と推定される仮想3次元位置と、当該1以上の仮想画像特徴の適切度と、を対応付けた同定情報を記憶している。このため、抽出部21が、抽出した1以上の仮想画像特徴と、当該1以上の仮想画像特徴の仮想3次元位置と、当該適切度とを対応付けて、同定情報記憶部23に記憶することで、抽出した1以上の仮想画像特徴と、当該1以上の仮想画像特徴の仮想3次元位置と、当該適切度とを対応付けたものが同定情報に追加される。
所定条件は、第1閾値以上の適切度であること、又は複数の適切度のうち値の大きさが上位N(Nは1以上の自然数)個に入ることとすることができる。
例えば、抽出部21は、適切度算出部19により算出された適切度Sjを昇順に並び替え、昇順にN個の適切度Sjが所定条件を満たすと判断したり、適切度算出部19により算出された適切度Sjをそれぞれ第1閾値と比較し、第1閾値の適切度を、所定条件を満たすと判断したりする。
また抽出部21は、適切度が所定条件を満たす仮想画像の1以上の仮想画像特徴の仮想3次元位置と、同定情報に含まれる複数の仮想3次元位置それぞれとの差のいずれかが第2閾値以上の場合、適切度が所定条件を満たす仮想画像の1以上の仮想画像特徴と、当該1以上の仮想画像特徴の仮想3次元位置と、当該適切度とを抽出し、対応付けて同定情報に追加してもよい。
また抽出部21は、適切度が所定条件を満たす仮想画像の1以上の仮想画像特徴と同定情報に含まれる複数の1以上の仮想画像特徴それぞれとの類似度のいずれかが第3閾値以下の場合、適切度が所定条件を満たす仮想画像の1以上の仮想画像特徴と、当該1以上の仮想画像特徴の仮想3次元位置と、当該適切度とを抽出し、対応付けて同定情報に追加してもよい。類似度は、例えば、仮想画像特徴の一致数などとすることができる。
撮像部25は、撮像画像を撮像する。
撮像画像特徴算出部27は、撮像部25により撮像された撮像画像から1以上の撮像画像特徴を算出する。撮像画像特徴は、撮像部25が2次元カメラの場合、特徴量と2次元座標から構成され、撮像部25が3次元カメラの場合、特徴量と3次元座標から構成される。撮像画像特徴は、例えば、点、線、又は領域などが挙げられる。
撮像画像特徴算出部27は、撮像部25が2次元カメラの場合、例えば、C. Harris and M. Stephens, “A combined corner and edge detector,” Proceedings of the 4th Alvey Vision Conference, pp. 147-151, 1988.に開示されたコーナーらしさを算出する手法で、点を検出できる。
また撮像画像特徴算出部27は、撮像部25が2次元カメラの場合、例えば、D. Lowe, “Distinctive Image Features from Scale-Invariant Keypoints,” International Journal of Computer Vision, Vol.60, pp91-110, 2004.に開示された点の周囲の局所的な領域の画素値の勾配分布をヒストグラムとして表現したものを、特徴量とする。
また撮像画像特徴算出部27は、撮像部25が2次元カメラの場合、例えば、J. Canny, “A Computational Approach To Edge Detection,” IEEE Transactions on Pattern Analysis and Machine Intelligence, 8(6):679―698, 1986.に開示された局所領域内の画素値の勾配を算出する手法で、線を検出できる。
また撮像画像特徴算出部27は、撮像部25が2次元カメラの場合、例えば、Z. Wang, F. Wu and Z. Hu, “MSLD: A robust descriptor for line matching,” Pattern Recognition, Vol.42, pp.941-953, 2009.に開示された線の周囲の画素値の勾配分布をヒストグラムとして表現したものを、特徴量とする。
また撮像画像特徴算出部27は、撮像部25が2次元カメラの場合、例えば、J. Matas, O. Chum, M. Urban and T. Pajdla, “Robust Wide Baseline Stereo from Maximally Stable Extremal Regions,” Proceedings of the British Machine Conference, pp. 36.1-36.10, 2002.に開示された画素値の似た隣接画素を結合させる手法で、領域を検出できる。
また撮像画像特徴算出部27は、撮像部25が2次元カメラの場合、例えば、P. Forssen and D. Lowe, “Shape Descriptors for Maximally Stable Extremal Regions,” Proceedings of the International Conference on Computer Vision, pp1-8, 2007.に開示された検出した領域を正規化し、正規化された領域の画素値の勾配分布をヒストグラムとして表現したものを、特徴量とする。
撮像画像特徴算出部27は、撮像部25が3次元カメラの場合、撮像画像を距離画像に変換し、距離画像に対して2次元カメラの画像特徴抽出手法を適用して撮像画像特徴を検出してもよいし、撮像画像上の点群の3次元座標を直接利用して撮像画像特徴を検出してもよい。
撮像画像特徴算出部27は、撮像部25が3次元カメラの場合、例えば、J. Knopp and M. Prasad and G. Willems and R. Timofte and L. Gool, “Hough Transform and 3D SURF for robust three dimensional classification,” Proceedings of the European Conference on Computer Vision, pp.589-602, 2010.に開示された3次元点群の局所的な密度と隣接関係から点を検出する手法で、点を検出できる。
また撮像画像特徴算出部27は、撮像部25が3次元カメラの場合、例えば、M. Kolomenkin, I. Shimshoni and A. Tal, “On edge detection on surfaces,” Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 2767-2774, 2009.に開示された3次元点群に3次元線モデルをフィッティングさせることで3次元的線を検出する手法で、線を検出できる。
また撮像画像特徴算出部27は、撮像部25が3次元カメラの場合、例えば、M. Donoser and H. Bischof, “3D Segmentation by Maximally Stable Volumes (MSVs),” Proceedings of the International Conference on Pattern Recognition, vol. 1, pp. 63-66, 2006.に開示された3次元点群の隣接関係の不連続性を用いて3次元点群を分割し、分割した領域を検出する手法で、領域を検出できる。
撮像画像特徴算出部27は、撮像部25が3次元カメラの場合、3次元の点、線、又は領域の2次元画像上での位置を算出し、2次元カメラを用いた場合と同じ特徴量を算出する。つまり、撮像部25が3次元カメラの場合も、撮像部25が2次元カメラの場合と同様の手法で特徴量を求められる。
なお、前述した地図データを構成する画像特徴も、2次元カメラまたは3次元カメラのいずれで作成されていてもよい。
同定情報取得部29は、同定情報を取得する。具体的には、同定情報取得部29は、同定情報記憶部23から同定情報を取得する。
同定部31は、同定情報の適切度が高い順に、1以上の仮想画像特徴と1以上の撮像画像特徴とを照合し、照合度が最も高い1以上の仮想画像特徴に対応付けられた仮想3次元位置と1以上の撮像画像特徴とを用いて自身の3次元位置及び姿勢を同定する。
図9は、第1実施形態の照合順序の一例の説明図である。図9に示す例において、仮想3次元位置61〜64の適切度が、仮想3次元位置61>仮想3次元位置62>仮想3次元位置63>仮想3次元位置64であるとする。この場合、同定部31は、まず、仮想3次元位置61に対応付けられた1以上の仮想画像特徴と1以上の撮像画像特徴とを照合し、次に、仮想3次元位置62に対応付けられた1以上の仮想画像特徴と1以上の撮像画像特徴とを照合し、次に、仮想3次元位置63に対応付けられた1以上の仮想画像特徴と1以上の撮像画像特徴とを照合し、次に、仮想3次元位置64に対応付けられた1以上の仮想画像特徴と1以上の撮像画像特徴とを照合する。
そして同定部31は、撮像部25が2次元カメラの場合、照合度が最も高い1以上の仮想画像特徴に対応付けられた仮想3次元位置(3D座標)をX=(X,Y,Z)、1以上の撮像画像特徴の2次元位置(2D座標)をx=(x、y)とすると、数式(3)を満たす回転行列Raと位置ベクトルtaを求める。
x=Z[Ra|ta]X …(3)
なお、回転行列Raは自身の姿勢を示し、位置ベクトルtaは自身の3次元位置を示す。また、Zは撮像部25の内部パラメタを表す行列であり、例えば、Z.Zhang, “A flexible new technique for camera calibration,” IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.22, pp.1330-1334, 2000.を用いて事前に算出すればよい。
また同定部31は、撮像部25が3次元カメラの場合、照合度が最も高い1以上の仮想画像特徴に対応付けられた仮想3次元位置(3D座標)をX=(X,Y,Z)、1以上の撮像画像特徴の3次元位置(3D座標)をX’=(X’,Y’,Z’)とすると、数式(4)を満たす回転行列Raと位置ベクトルtaを求める。
X’=[Rb|tb]X …(4)
なお、同定部31は、前回の撮像画像特徴に基づいて同定された3次元位置及び姿勢に基づいて複数の適切度を更新し、更新後の適切度が高い順に、1以上の仮想画像特徴と1以上の撮像画像特徴とを照合し、照合度が最も高い1以上の仮想画像特徴に対応付けられた仮想3次元位置と1以上の撮像画像特徴とを用いて自身の3次元位置及び前記姿勢を同定してもよい。
図10は、第1実施形態の照合順序の一例の説明図である。図9に示す例において、仮想3次元位置61〜64の適切度が、仮想3次元位置61>仮想3次元位置62>仮想3次元位置63>仮想3次元位置64であるとする。但し、前回の撮像画像特徴に基づいて同定された撮像部25の3次元位置及び姿勢は、図10に示す通りとする。この場合、同定部31は、前回の撮像画像特徴に基づいて同定された撮像部25の3次元位置及び姿勢の適切度と仮想3次元位置61〜64それぞれの適切度との差に重み付けし、適切度を更新してもよい。この結果、、仮想3次元位置61〜64の適切度が、仮想3次元位置63>仮想3次元位置64>仮想3次元位置61>仮想3次元位置62となれば、同定部31は、まず、仮想3次元位置63に対応付けられた1以上の仮想画像特徴と1以上の撮像画像特徴とを照合し、次に、仮想3次元位置64に対応付けられた1以上の仮想画像特徴と1以上の撮像画像特徴とを照合し、次に、仮想3次元位置61に対応付けられた1以上の仮想画像特徴と1以上の撮像画像特徴とを照合し、次に、仮想3次元位置62に対応付けられた1以上の仮想画像特徴と1以上の撮像画像特徴とを照合する。
出力部33は、同定部31の同定結果を出力する。出力部33は、例えば、同定結果を図示せぬ表示部に画面出力したり、地図データ記憶部11に出力したり、又は図示せぬ印刷部に印刷出力したりする。
図11は、第1実施形態の同定装置10で行われる同定情報生成処理の手順の流れの一例を示すフローチャートである。
まず、地図データ取得部13は、地図データを取得する(ステップS101)。
続いて、設定部15は、地図データ取得部13により取得された地図データ上の周囲に仮想3次元位置及び姿勢の組(位置姿勢情報)を複数設定する(ステップS103)。
続いて、生成部17は、仮想3次元位置及び姿勢の組(位置姿勢情報)毎に、当該仮想3次元位置及び姿勢で撮像したと推定される仮想画像を生成する(ステップS105)。
続いて、適切度算出部19は、生成部17により生成された仮想画像毎に、当該仮想画像から1以上の仮想画像特徴を算出し(ステップS107)、当該1以上の仮想画像特徴に基づいて適切度を算出する(ステップS109)。
続いて、抽出部21は、適切度算出部19により算出された適切度が所定条件を満たす仮想画像の1以上の仮想画像特徴と、当該1以上の仮想画像特徴の仮想3次元位置と、当該適切度とを抽出し(ステップS111)、対応付けて同定情報に追加する(ステップS113)。
図12は、第1実施形態の同定装置10で行われる同定処理の手順の流れの一例を示すフローチャートである。
まず、撮像部25は、撮像画像を撮像する(ステップS201)。
続いて、撮像画像特徴算出部27は、撮像部25により撮像された撮像画像から1以上の撮像画像特徴を算出する(ステップS203)。
続いて、同定情報取得部29は、同定情報記憶部23から同定情報を取得する(ステップS205)。
続いて、同定部31は、同定情報の適切度が高い順に、1以上の仮想画像特徴と1以上の撮像画像特徴とを照合し、照合度が最も高い1以上の仮想画像特徴に対応付けられた仮想3次元位置と1以上の撮像画像特徴とを用いて自身の3次元位置及び姿勢を同定する(ステップS207)。
続いて、出力部33は、同定部31の同定結果を出力する。出力部33は、例えば、同定結果を図示せぬ表示部に画面出力したり、地図データ記憶部11に出力したり、又は図示せぬ印刷部に印刷出力したりする(ステップS209)。
以上のように第1実施形態によれば、適切度に基づいて、同定時の照合に用いられる仮想画像特徴が抽出されるため、照合対象の仮想画像特徴を予め絞り込むことができ、同定に要する時間を短縮することができる。
(第2実施形態)
第2実施形態では、地図データを作成しながら同定を行う例について説明する。以下では、第1実施形態との相違点の説明を主に行い、第1実施形態と同様の機能を有する構成要素については、第1実施形態と同様の名称・符号を付し、その説明を省略する。
図13は、第2実施形態の同定装置110の構成の一例を示すブロック図である。図13に示すように、第2実施形態の同定装置110では、追跡部126、地図データ作成部113、及び設定部115が第1実施形態と相違する。
追跡部126は、1以上の撮像画像特徴と前回の1以上の撮像画像特徴とを照合し、一致する撮像画像特徴数が閾値以上であれば、追跡を継続し、一致する撮像画像特徴数が閾値未満であれば、追跡を終了する。
地図データ作成部113は、追跡部126が追跡を継続する場合、撮像画像特徴を用いて地図データを作成する。具体的には、地図データ作成部113は、撮像画像特徴を、地図データを構成する画像特徴として地図データに追加する。例えば、地図データ作成部113は、G. Klein and D. Murray, “Parallel Tracking and Mapping for Small AR Workspaces,” Proceedings of the International Symposium on Mixed and Augmented Reality, 2007.に開示された手法で、撮像画像特徴を、地図データを構成する画像特徴とする。
設定部115は、地図データを構成する画像特徴とした撮像画像特徴の3次元位置及び姿勢を設定するか否かを判定する。例えば、設定部115は、図14に示すように、3次元位置及び姿勢の変化量(3次元位置及び姿勢181と3次元位置及び姿勢183の差など)が閾値以上である場合に、撮像画像特徴の3次元位置及び姿勢を設定する。
同定情報取得部29は、追跡部126が追跡に失敗した場合、同定情報を取得し、同定部31は、同定を行う。
図15は、第2実施形態の同定装置110で行われる処理の手順の流れの一例を示すフローチャートである。
まず、撮像部25は、撮像画像を撮像する(ステップS301)。
続いて、撮像画像特徴算出部27は、撮像部25により撮像された撮像画像から1以上の撮像画像特徴を算出する(ステップS302)。
続いて、追跡部126は、1以上の撮像画像特徴と前回の1以上の撮像画像特徴とを照合し(ステップS303)、一致する撮像画像特徴数が閾値以上であれば、追跡を継続し(ステップS305でYes)、一致する撮像画像特徴数が閾値未満であれば、追跡を終了する(ステップS305でNo)。
続いて、地図データ作成部113は、追跡部126が追跡を継続する場合(ステップS305でYes)、撮像画像特徴を用いて地図データを作成する(ステップS307)。
続いて、設定部115は、地図データを構成する画像特徴とした撮像画像特徴の3次元位置及び姿勢を設定する場合(ステップS309でYes)、設定する(ステップS311)。
以降のステップS313〜S321は、図11に示すフローチャートのステップS105〜S113と同様である。
一方、同定情報取得部29は、追跡部126が追跡を終了する場合(ステップS305でNo)、同定情報記憶部23から同定情報を取得する(ステップS325)。
以降のステップS327〜S329は、図12に示すフローチャートのステップS207〜S209と同様である。
以上のように第2実施形態によれば、動的に地図データを生成しながら、同定を行うことができる。
(ハードウェア構成)
図16は、上記各実施形態の同定装置のハードウェア構成の一例を示すブロック図である。図16に示すように、上記各実施形態の同定装置は、CPUなどの制御装置901と、ROMやRAMなどの記憶装置902と、HDDやSSDなどの外部記憶装置903と、ディスプレイなどの表示装置904と、マウスやキーボードなどの入力装置905と、通信I/F906と、カメラなどの撮像装置907とを、備えており、通常のコンピュータを利用したハードウェア構成で実現できる。
上記各実施形態の同定装置で実行されるプログラムは、ROM等に予め組み込んで提供される。
また、上記各実施形態の同定装置で実行されるプログラムを、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されて提供するようにしてもよい。
また、上記各実施形態の同定装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上記各実施形態の同定装置で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。
上記各実施形態の同定装置で実行されるプログラムは、上述した各部をコンピュータ上で実現させるためのモジュール構成となっている。実際のハードウェアとしては、例えば、制御装置901が外部記憶装置903からプログラムを記憶装置902上に読み出して実行することにより、上記各部がコンピュータ上で実現されるようになっている。
以上説明したとおり、上記各実施形態によれば、同定に要する時間を短縮することができる。
なお本発明は、上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせても良い。
例えば、上記実施形態のフローチャートにおける各ステップを、その性質に反しない限り、実行順序を変更し、複数同時に実施し、あるいは実施毎に異なった順序で実施してもよい。
10、110 同定装置
11 地図データ記憶部
13 地図データ取得部
15、115 設定部
17 生成部
19 適切度算出部
21 抽出部
23 同定情報記憶部
25 撮像部
27 撮像画像特徴算出部
29 同定情報取得部
31 同定部
33 出力部
113 地図データ作成部
126 追跡部
901 制御装置
902 記憶装置
903 外部記憶装置
904 表示装置
905 入力装置
906 通信I/F
907 撮像装置

Claims (11)

  1. 撮像画像を撮像する撮像部と、
    前記撮像画像から1以上の撮像画像特徴を算出する撮像画像特徴算出部と、
    地図データ上の所定の仮想画像毎に、当該所定の仮想画像の1以上の仮想画像特徴と、当該1以上の仮想画像特徴の撮像位置と推定される仮想3次元位置と、当該1以上の仮想画像特徴の適切度と、を対応付けた同定情報を、取得する同定情報取得部と、
    前記適切度が高い順に、前記1以上の仮想画像特徴と前記1以上の撮像画像特徴とを照合し、照合度が最も高い1以上の仮想画像特徴に対応付けられた仮想3次元位置と前記1以上の撮像画像特徴とを用いて自身の3次元位置及び姿勢を同定する同定部と、
    を備える同定装置。
  2. 前記同定部は、前回の1以上の撮像画像特徴に基づいて同定された前記3次元位置及び前記姿勢に基づいて前記複数の適切度を更新し、更新後の前記適切度が高い順に、前記1以上の仮想画像特徴と前記1以上の撮像画像特徴とを照合し、照合度が最も高い1以上の仮想画像特徴に対応付けられた仮想3次元位置と前記1以上の撮像画像特徴とを用いて自身の前記3次元位置及び前記姿勢を同定する請求項1に記載の同定装置。
  3. 前記地図データを取得する地図データ取得部と、
    前記地図データ上に前記複数の仮想3次元位置を設定するとともに、前記複数の仮想3次元位置それぞれの姿勢を設定する設定部と、
    前記複数の仮想3次元位置及び姿勢の組それぞれを用いて、前記複数の仮想画像それぞれを生成する生成部と、
    前記仮想画像毎に、当該仮想画像から1以上の仮想画像特徴を算出し、当該1以上の仮想画像特徴に基づいて前記適切度を算出する適切度算出部と、
    前記適切度が所定条件を満たす仮想画像の1以上の仮想画像特徴と、当該1以上の仮想画像特徴の仮想3次元位置と、当該適切度とを抽出し、対応付けて前記同定情報に追加する抽出部と、
    を更に備える請求項1に記載の同定装置。
  4. 前記適切度は、前記1以上の仮想画像特徴の数、当該1以上の仮想画像特徴の強度の和、及び前記1以上の仮想画像特徴の位置の分布の重み付け和である請求項3に記載の同定装置。
  5. 前記所定条件は、第1閾値以上の適切度であること、又は前記複数の適切度のうち値の大きさが上位N(Nは1以上の自然数)個に入ることである請求項3に記載の同定装置。
  6. 前記抽出部は、前記適切度が所定条件を満たす前記仮想画像の前記1以上の仮想画像特徴の前記仮想3次元位置と、前記同定情報に含まれる前記複数の仮想3次元位置それぞれとの差のいずれかが第2閾値以上の場合、前記適切度が所定条件を満たす前記仮想画像の前記1以上の仮想画像特徴と、当該1以上の仮想画像特徴の仮想3次元位置と、当該適切度とを抽出する請求項3に記載の同定装置。
  7. 前記抽出部は、前記適切度が所定条件を満たす前記仮想画像の前記1以上の仮想画像特徴と前記同定情報に含まれる前記複数の1以上の仮想画像特徴それぞれとの類似度のいずれかが第3閾値以下の場合、前記適切度が所定条件を満たす前記仮想画像の前記1以上の仮想画像特徴と、当該1以上の仮想画像特徴の仮想3次元位置と、当該適切度とを抽出する請求項3に記載の同定装置。
  8. 前記設定部は、前記地図データ上の周囲に前記仮想3次元位置及び姿勢の組を複数設定する請求項3に記載の同定装置。
  9. 前記1以上の撮像画像特徴と前回の1以上の撮像画像特徴とを照合し、一致する撮像画像特徴数に基づいて、追跡を終了するか否かを決定する追跡部と、
    追跡を終了する場合、前記地図データを作成する地図データ作成部と、
    を更に備える請求項1に記載の同定装置。
  10. 撮像画像を撮像する撮像ステップと、
    前記撮像画像から1以上の撮像画像特徴を算出する撮像画像特徴算出ステップと、
    地図データ上の所定の仮想画像毎に、当該所定の仮想画像の1以上の仮想画像特徴と、当該1以上の仮想画像特徴の撮像位置と推定される仮想3次元位置と、当該1以上の仮想画像特徴の適切度と、を対応付けた同定情報を、取得する同定情報取得ステップと、
    前記適切度が高い順に、前記1以上の仮想画像特徴と前記1以上の撮像画像特徴とを照合し、照合度が最も高い1以上の仮想画像特徴に対応付けられた仮想3次元位置と前記1以上の撮像画像特徴とを用いて自身の3次元位置及び姿勢を同定する同定ステップと、
    を含む同定方法。
  11. 撮像画像を撮像する撮像ステップと、
    前記撮像画像から1以上の撮像画像特徴を算出する撮像画像特徴算出ステップと、
    地図データ上の所定の仮想画像毎に、当該所定の仮想画像の1以上の仮想画像特徴と、当該1以上の仮想画像特徴の撮像位置と推定される仮想3次元位置と、当該1以上の仮想画像特徴の適切度と、を対応付けた同定情報を、取得する同定情報取得ステップと、
    前記適切度が高い順に、前記1以上の仮想画像特徴と前記1以上の撮像画像特徴とを照合し、照合度が最も高い1以上の仮想画像特徴に対応付けられた仮想3次元位置と前記1以上の撮像画像特徴とを用いて自身の3次元位置及び姿勢を同定する同定ステップと、
    をコンピュータに実行させるためのプログラム。
JP2014058643A 2014-03-20 2014-03-20 同定装置、方法及びプログラム Abandoned JP2015184054A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014058643A JP2015184054A (ja) 2014-03-20 2014-03-20 同定装置、方法及びプログラム
US14/656,845 US20150269778A1 (en) 2014-03-20 2015-03-13 Identification device, identification method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014058643A JP2015184054A (ja) 2014-03-20 2014-03-20 同定装置、方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2015184054A true JP2015184054A (ja) 2015-10-22

Family

ID=54142631

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014058643A Abandoned JP2015184054A (ja) 2014-03-20 2014-03-20 同定装置、方法及びプログラム

Country Status (2)

Country Link
US (1) US20150269778A1 (ja)
JP (1) JP2015184054A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9684823B2 (en) 2014-09-16 2017-06-20 Kabushiki Kaisha Toshiba Moving body position estimating device, moving body position estimating method, and non-transitory recording medium
JP2019021220A (ja) * 2017-07-20 2019-02-07 フラワー・ロボティクス株式会社 移動体プラットフォームシステム
JP2020173617A (ja) * 2019-04-10 2020-10-22 清水建設株式会社 位置推定システム、位置推定装置、位置推定方法、及びプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160284122A1 (en) * 2015-03-26 2016-09-29 Intel Corporation 3d model recognition apparatus and method
US10558844B2 (en) * 2017-12-18 2020-02-11 Datalogic Ip Tech S.R.L. Lightweight 3D vision camera with intelligent segmentation engine for machine vision and auto identification
CN113537264B (zh) * 2020-04-21 2022-09-20 阿里巴巴集团控股有限公司 空间的应用状态检测方法、管理方法、装置及设备

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60316690T2 (de) * 2002-07-10 2008-07-17 Nec Corp. System zur bildvergleichung mit verwendung eines dreidimensionalen objectmodelles, bildvergleichverfahren und bildvergleichprogramm
JP2011043419A (ja) * 2009-08-21 2011-03-03 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
JP5627325B2 (ja) * 2010-07-23 2014-11-19 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP5649601B2 (ja) * 2012-03-14 2015-01-07 株式会社東芝 照合装置、方法及びプログラム
US9922423B2 (en) * 2012-07-12 2018-03-20 Nec Corporation Image angle variation detection device, image angle variation detection method and image angle variation detection program
CN104541290A (zh) * 2012-07-23 2015-04-22 Metaio有限公司 提供图像特征描述符的方法
EP2711670B1 (en) * 2012-09-21 2019-01-30 NavVis GmbH Visual localisation
US9305355B2 (en) * 2013-10-21 2016-04-05 Autodesk, Inc. Photograph localization in a three-dimensional model

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9684823B2 (en) 2014-09-16 2017-06-20 Kabushiki Kaisha Toshiba Moving body position estimating device, moving body position estimating method, and non-transitory recording medium
JP2019021220A (ja) * 2017-07-20 2019-02-07 フラワー・ロボティクス株式会社 移動体プラットフォームシステム
JP7002744B2 (ja) 2017-07-20 2022-01-20 フラワー・ロボティクス株式会社 移動体プラットフォームシステム
JP2020173617A (ja) * 2019-04-10 2020-10-22 清水建設株式会社 位置推定システム、位置推定装置、位置推定方法、及びプログラム
JP7286388B2 (ja) 2019-04-10 2023-06-05 清水建設株式会社 位置推定システム、位置推定装置、位置推定方法、及びプログラム

Also Published As

Publication number Publication date
US20150269778A1 (en) 2015-09-24

Similar Documents

Publication Publication Date Title
US10552666B2 (en) Identification using depth-based head-detection data
JP5715833B2 (ja) 姿勢状態推定装置および姿勢状態推定方法
JP5837508B2 (ja) 姿勢状態推定装置および姿勢状態推定方法
JP5771413B2 (ja) 姿勢推定装置、姿勢推定システム、および姿勢推定方法
CN108734087B (zh) 物体自动识别方法以及系统、购物设备和存储介质
JP5950973B2 (ja) フレームを選択する方法、装置、及びシステム
JP5873442B2 (ja) 物体検出装置および物体検出方法
JP5822322B2 (ja) ローカライズされ、セグメンテーションされた画像のネットワークキャプチャ及び3dディスプレイ
WO2015186436A1 (ja) 画像処理装置、画像処理方法、および、画像処理プログラム
US9665803B2 (en) Image processing apparatus and image processing method
JP2015184054A (ja) 同定装置、方法及びプログラム
CN111243093A (zh) 三维人脸网格的生成方法、装置、设备及存储介质
JP6054831B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2013089252A (ja) 映像処理方法及び装置
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
US11170246B2 (en) Recognition processing device, recognition processing method, and program
CN107949851B (zh) 在场景内的物体的端点的快速和鲁棒识别
JP6817742B2 (ja) 情報処理装置およびその制御方法
JP5656768B2 (ja) 画像特徴量抽出装置およびそのプログラム
JP5762099B2 (ja) 姿勢認識装置、作業ロボット、姿勢認識方法、プログラム及び記録媒体
JP2019211981A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
KR101868520B1 (ko) 손 제스처 인식 방법 및 그 장치
Asif et al. A model-free approach for the segmentation of unknown objects
JP6995714B2 (ja) 特定装置、特定方法及び特定プログラム
KR102382883B1 (ko) 3차원 손 자세 인식 장치 및 방법

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160830

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20170410