JP6894707B2 - 情報処理装置およびその制御方法、プログラム - Google Patents

情報処理装置およびその制御方法、プログラム Download PDF

Info

Publication number
JP6894707B2
JP6894707B2 JP2017001434A JP2017001434A JP6894707B2 JP 6894707 B2 JP6894707 B2 JP 6894707B2 JP 2017001434 A JP2017001434 A JP 2017001434A JP 2017001434 A JP2017001434 A JP 2017001434A JP 6894707 B2 JP6894707 B2 JP 6894707B2
Authority
JP
Japan
Prior art keywords
feature
degree
features
information processing
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017001434A
Other languages
English (en)
Other versions
JP2018112790A5 (ja
JP2018112790A (ja
Inventor
望 糟谷
望 糟谷
誠 冨岡
誠 冨岡
藤木 真和
真和 藤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017001434A priority Critical patent/JP6894707B2/ja
Priority to US15/861,800 priority patent/US10861185B2/en
Publication of JP2018112790A publication Critical patent/JP2018112790A/ja
Publication of JP2018112790A5 publication Critical patent/JP2018112790A5/ja
Application granted granted Critical
Publication of JP6894707B2 publication Critical patent/JP6894707B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Description

本発明は撮像装置の位置/姿勢を計測する情報処理装置及びその制御方法に関する。
画像情報に基づく撮像装置の位置/姿勢の計測は、複合現実感/拡張現実感における現実空間と仮想物体の位置合わせ、ロボットや自動車の自己位置推定、物体や空間の三次元モデリングなど様々な目的で利用される。
特許文献1では、現実空間に移動する物体が存在するシーンにおいて、画像から検出される特徴点を用いて画像撮像時の位置/姿勢を計測する方法が開示されている。この方法では、三次元マップ上の特徴点が移動物体上の特徴点か否かを判定し、移動物体上の特徴点であれば移動物体フラグを1とする。撮像装置が撮像した画像が入力されると、撮像画像から検出される特徴点に対応する三次元マップ中の特徴点が探索される。三次元マップ上の移動物体フラグが0である特徴点及び対応づいた撮像画像から検出される特徴点のペア全てを用いたロバスト推定により撮像装置の位置/姿勢が算出される。ロバスト推定時に外れ値に判断された特徴点については、算出された位置/姿勢に基づいて撮像画像へ射影して移動ベクトルを求めることにより移動物体か否かが判定される。移動物体と判定された三次元マップ上の特徴点の移動物体フラグが1に更新される。
特許第5530391号公報
Z. Zhang,"A flexible new technique for camera calibration," IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 22, no. 11, pp. 1330-1334, 2000.(実施形態で参照される) H. Kato and M. Billinghurst, "Marker tracking and hmd calibration for a video-based augmented reality conferencing system," International Workshop on Augmented Reality, 1999.(実施形態で参照される) J. Shi and C. Tomasi, Good Features to Track, Proc. CVPR1994. (実施形態で参照される) H. Badino and T. Kanade, "A Head-Wearable Short-Baseline Stereo System for the Simultaneous Estimation of Structure and Motion", Proc. MVA, 2011(実施形態で参照される) G. Klein and D. Murray, "Parallel tracking and mapping for small AR workspaces," Proc. ISMAR, pp. 225-234, 2007(実施形態で参照される) D. Kotake, K. Satoh, S. Uchiyama, and H. Yamamoto: "A fast initialization method for edge-based registration using an inclination constraint", Proc. ISMAR 2007(実施形態で参照される) O. Korkalo, S. Kahn, "Real-time depth camera tracking with CAD models and ICP", JVRB, Vol.13, No. 1, 2016(実施形態で参照される) D. G. Lowe: "Distinctive Image Features from Scale-Invariant Keypoints", International Journal of Computer Vision, Vol. 60, pp. 91-110, 2004(実施形態で参照される) C. Tomasi and T. Kanade, "Detection and Tracking of Point Features", Carnegie Mellon University Technical Report CMU-CS-91-132, 1991(実施形態で参照される)
特許文献1では、撮像装置が撮像した画像から検出される特徴点のうち、移動物体上の位置/姿勢算出に不適な特徴点が誤って三次元マップ中の移動物体フラグが0の特徴点と対応付けられ、位置/姿勢算出に用いられる可能性がある。結果として、位置/姿勢の精度及び安定性が低いという課題があった。
本発明は上記の課題に鑑みてなされたものであり、撮像装置が撮像した範囲中における移動物体の存否に関わらず、撮像装置の位置/姿勢の算出における精度及び安定性を向上することを目的とする。
上記の目的を達成するための本発明の一態様による情報処理装置は以下の構成を備える。すなわち、現実空間における複数の特徴を入力データから取得する取得手段と、前記入力データを取得した装置の位置姿勢の算出に利用すべき度合いを、前記現実空間における3次元の位置が既知である特徴に対応付けて保持する保持手段と、前記取得された特徴のうちの一つの特徴の近傍に存在している特徴に対応付けられた前記度合いに基づいて、前記一つの特徴に対して位置姿勢の算出に利用すべき度合いを決定する決定手段と、を備え、前記保持手段は、前記現実空間における3次元の位置の経時変化が大きい特徴よりも小さい特徴に、より高い前記度合いを対応付けて保持する。
本発明によれば、撮像装置が撮像した範囲中における移動物体の存否に関わらず、撮像装置の位置/姿勢を精度よく、安定して算出することができる。
第1実施形態における情報処理装置の機能構成例を示すブロック図。 第1実施形態における情報処理装置のハードウエア構成例を示すブロック図。 第1実施形態における処理手順を示すフローチャート。 第1実施形態における閾値を設定するためのGUIの一例を示す図。 第2実施形態における利用可能性決定処理の手順を示すフローチャート。 第3実施形態における情報処理装置の構成を示す図。 第3実施形態における処理手順を示すフローチャート。 第3実施形態における利用可能性更新処理の手順を示すフローチャート。
以下、添付の図面を参照して本発明の実施形態を説明する。
<第1実施形態>
第1実施形態では、現実空間における撮像装置の位置/姿勢の計測について説明する。現実空間における撮像装置の位置/姿勢は、たとえば、複合現実感システムにおける現実空間と仮想物体の位置合わせ、すなわち仮想物体の描画に利用される。複合現実感を体験するユーザは、頭部装着型表示装置HMD(Head-Mounted Display)を装着し、HMDを通して仮想物体が重畳された現実空間を観察する。HMDには撮像装置としてステレオカメラが搭載されており、ステレオカメラが撮像した画像上にステレオカメラの現実空間における位置/姿勢に基づいて描画された仮想物体像が重畳されてユーザに提示される。
本実施形態では、撮像装置の位置/姿勢の算出には、撮像装置が撮像した画像から検出された画像特徴点が用いられる。ここで「特徴点」とは、画像中の角などの幾何的な構造を指し示す点のことである。時刻tにおいて撮像された画像(現フレーム)上で検出された特徴点(検出特徴点)は、現フレーム以前のある時刻t−aに撮像された画像(前フレーム)上の特徴点と対応付けされる。なお、前フレームの特徴点は、保持特徴点として保持されている。保持特徴点は、現実空間における位置を示す情報(たとえば世界座標系における三次元座標)と対応付けられている。そして、前フレームの特徴点(保持特徴点)と現フレームの特徴点(検出特徴点)の画像上での二次元位置に基づいて撮像装置の(世界座標系に対する)位置/姿勢が算出される。撮像装置の位置/姿勢の算出では、安定して高精度に位置/姿勢を算出できる特徴点が選択され、用いられる。
保持特徴点には、撮像装置の位置/姿勢算出に利用すると安定性および精度が高くなるか低くなるかを表す指標である利用可能性の情報が関連付けられている。すなわち、利用可能性とは装置の位置/姿勢算出に利用すべき度合いを表す。本実施形態において、利用可能性情報とは、当該特徴点が時刻tより前に移動物体であったかどうかの判定結果の履歴である。具体的には、算出した位置/姿勢に基づく撮像装置の動きと整合度によって判定した指標であり、本実施形態では0か1の値を保持する。時刻tより前にカメラの動きと整合していた特徴点を選択し、利用することで、高精度に、安定して位置/姿勢を算出することができる。本実施形態では、位置/姿勢の算出に用いられる特徴点の選択に際して、さらに、近傍に利用可能性の低い(移動物体である可能性が高い)特徴点が多く存在する特徴点が撮像装置の位置/姿勢の算出から除外される。これにより、さらに高精度に安定して位置/姿勢を算出することができる。
また、第1実施形態における撮像装置の位置/姿勢とは、現実空間中に規定された世界座標における撮像装置の、位置を表す3パラメータ及び姿勢を表す3パラメータを合わせた6パラメータで表わされる。第1実施形態を含む以下の実施形態では、特に断りがない限りステレオカメラのうちの左のカメラの位置/姿勢を撮像装置の位置/姿勢と呼ぶ。また、撮像装置の光軸をZ軸、画像の水平方向をX軸、垂直方法をY軸とする撮像装置上に規定される三次元座標系をカメラ座標系と呼ぶ。本実施形態では、特徴点は特に断りがない限り左側のカメラの画像で検出した特徴点を指し、特徴点の位置は左側のカメラの画像の横軸をx軸、縦軸をy軸とする画像座標系の二次元位置を表す2パラメータで表される。
図1Aは、本実施形態における画像処理システム101の機能構成例を示すブロック図である。図1Aにおいて、画像処理システム101は、情報処理装置1、画像入力部150、検出部160、算出部170、画像合成部180を有する。情報処理装置1は、特徴入力部110、配置決定部120、特徴保持部130、利用可能性決定部140を備える。画像入力部150はHMDに搭載されている撮像装置1100と接続されている。本実施形態において、撮像装置1100はステレオカメラである。画像合成部180は、HMD2(図1B)に搭載されている表示部1200と接続されている。
画像入力部150は、撮像装置1100が撮像する画像を時系列(例えば毎秒60フレーム)に入力し、検出部160と画像合成部180に供給する。検出部160は画像入力部150により入力された画像上で特徴点を検出する。検出部160は、検出した特徴点を、算出部170と特徴入力部110に供給する。
特徴入力部110は、検出部160で検出した特徴点を受け取り、配置決定部120に入力する。配置決定部120は、特徴保持部130の保持する前フレームの特徴点と、特徴入力部110から入力された現フレームの特徴点とを対応付け、前フレームの特徴点の現フレームにおける配置を決定する。特徴保持部130は、現実空間の複数の特徴点を、画像を取得した撮像装置1100の位置/姿勢の算出に利用すべき度合いを表す利用可能性と対応付けて複数の保持特徴点として保持している。利用可能性決定部140は、配置決定部120で決定された保持特徴点の配置と、特徴保持部130の持つ特徴点の利用可能性情報とを用いて、現フレームの検出特徴点の利用可能性を決定する。本実施形態では、各検出特徴の位置/姿勢算出への利用の可否を、各検出特徴の近傍に存在している保持特徴点の利用可能性に基づいて決定する。利用可能性決定部140は、算出部170へ現フレームの特徴点の利用可能性を出力する。
算出部170は、検出部160で検出された現フレームの特徴点と特徴保持部130が保持している前フレームの特徴点との関係性と、利用可能性決定部140で決定された現フレームの特徴の利用可能性とを基に、撮像装置1100の位置/姿勢を算出する。画像合成部180は、算出部170が算出した撮像装置1100の位置/姿勢と、撮像装置1100の内部・外部パラメータを用いて、仮想物体のCG画像をレンダリングする。結果、画像入力部150から入力された撮像画像に、CG画像が合成される。表示部1200はHMD2に搭載されており、画像合成部180が合成した画像を表示する。本実施形態ではHMD2はステレオHMDであり、左右の表示デバイスに異なる画像を表示することでユーザによる現実空間と仮想物体の立体視が可能である。
図1Bは、本実施形態における画像処理システム101の機能構成例を示すブロック図である。情報処理装置1において、CPU11は、ROM12またはRAM13に格納されたプログラムを実行することにより情報処理装置1の制御、各種処理、機能を実現する。ROM12は読み出し専用の不揮発性メモリであり、RAM13は随時に読み書きが可能な揮発性メモリである。記憶装置14は、ハードディスクなどの大容量の記憶媒体である。インタフェース15は、外部機器と情報処理装置1を接続する。以上の各構成は、バス16により相互に通信が可能に接続されている。
一方、HMD2において、CPU21は、メモリ23に格納されているプログラムを実行することによりHMD2の制御、各種処理、機能を実現する。インタフェース22は、外部機器とHMD2を接続する。撮像装置1100、表示部1200は、図1Aに関して上述したとおりである。HMD2における以上の各部は、バス24を介して相互に通信可能に接続されている。インタフェース15とインタフェース22を接続する接続30は、有線接続であってもよいし、無線接続であってもよい。また、接続30は、有線LANまたは無線LANを介した接続であってもよい。
なお、図1Aにおいて、画像入力部150、検出部160、算出部170、画像合成部180は情報処理装置1の外部の構成(機能)として示されているが、これらは、HMD2により実現されてもよいし、情報処理装置1により実現されてもよい。
次に、以上のような構成を備えた第1実施形態の映像処理の手順について説明する。図2は、第1実施形態における映像処理の手順を示すフローチャートである。
ステップS110(初期化処理)において、情報処理装置1は初期化処理を行う。初期化処理では、たとえば、情報処理装置1が、撮像装置1100の内部パラメータを読み込み、撮像装置1100の初期位置/姿勢の算出を行う。撮像装置1100の内部パラメータ(焦点距離、画像中心、レンズ歪みパラメータ)は、Zhangの方法(非特許文献1)によって事前に校正される。また、情報処理装置1は、ステレオカメラである撮像装置1100を構成する2台のカメラ間の相対的な位置/姿勢(外部パラメータ)を、たとえば以下のようにして求める。情報処理装置1は、三次元形状が既知のパターンを左右のカメラで同時に撮影して得られた画像からパターンを基準としたそれぞれのカメラの位置/姿勢を求める。そして、情報処理装置1は、右カメラの位置/姿勢を、左カメラを基準とした位置/姿勢に変換することで、2台のカメラ間の相対的な位置/姿勢を得る。撮像装置1100の世界座標系に対する位置/姿勢の初期値tw→t(t=0)、Rw→t(t=0)は、たとえば、サイズが既知の人工のマーカを用いたKatoらの手法(非特許文献2)によって算出され得る。
ステップS120(画像入力処理)において、画像入力部150は、撮像装置1100が撮像したステレオ画像を入力する。本実施形態では、撮像装置1100がカラー画像を撮像するため、画像入力部150は、入力された画像を濃淡画像に変換し、さらに左右のカメラの内部パラメータを用いてレンズ歪みの影響を除去した画像に変換する。ステップS130(特徴点検出処理)において、検出部160は、画像入力部150が入力した画像(現フレーム)上の特徴点を検出する。特徴点を検出するには、たとえば、Shiらの手法(非特許文献3)を用いることができる。また、検出部160は、特徴点のステレオマッチングを行うことで検出した特徴点の奥行きを算出する。
ステップS140(特徴配置決定処理)において、配置決定部120は、特徴保持部130が保持する前フレームの特徴点とステップS130で検出された現フレームの特徴点とを特徴点マッチングにより対応付ける。以下、特徴保持部130が保持する前フレームの特徴点を保持特徴点、ステップS130で検出された現フレームの特徴点を検出特徴点という。配置決定部120は、保持特徴点の現フレームにおける配置を決定する。特徴点マッチングにおいて、配置決定部120は、たとえば、特徴点の周囲の画素の正規化相互相関(SSD)を算出し、算出された値が閾値Mth以下であれば同一の物体上の同一の位置であるとみなす。
ステップS150(利用可能性決定処理)において、利用可能性決定部140は、各特徴点の位置/姿勢の計算への利用可能性を決定する。利用可能性決定部140は、ステップS140で決定された配置において、検出特徴点の近傍に存在する保持特徴点を特徴保持部130から探索する。近傍の特徴点とは、対象の検出特徴点からの画像上のユークリッド距離が閾値Nth以内で、かつ、深度差が閾値Dth以内にある特徴点を指す。近傍として探索された保持特徴点のうち利用可能性の値が0である保持特徴点の割合が閾値Rth以上だった場合は、対象の検出特徴点の利用可能性の値を0(利用不可)に決定し、それ以外は1(利用可)に決定する。また、ステップS140において、対応する保持特徴点が見つからず配置が決定されなかった検出特徴点については利用可能性の値を0とする。上記の処理は、検出特徴点の全てについて行われる。こうして、検出特徴点の近傍にある保持特徴点のうち利用可能性情報が所定の値より小さいものが所定の割合より多い場合、その検出特徴点は位置/姿勢算出への利用が不可に決定される。
ステップS160(位置/姿勢算出処理)において、算出部170は、ステップS150で利用可能性が1に決定された検出特徴点を用いて、現フレームを撮像した撮像装置1100の位置/姿勢を算出する。算出部170は、撮像装置1100の位置/姿勢として、前フレームに対する現フレームの撮像装置1100の位置を表す三次元ベクトルであるt(t−1)→tと、姿勢を表す3×3回転行列であるR(t−1)→tを算出する。撮像装置1100の位置/姿勢の算出には、たとえば、Badinoらの手法(非特許文献4)を用いることができる。また、世界座標系に対する撮像装置1100の位置/姿勢tw→t、Rw→tは、前フレームで算出した世界座標系に対する撮像装置1100の位置/姿勢tw→(t−1)、Rw→(t−1)に、前フレームのカメラ座標に対する撮像装置1100の位置/姿勢t(t−1)→t、(t−1)→tを積算することで算出される。
ステップS170(画像合成・表示処理)において、画像合成部180は、ステップS150で導出された撮像装置1100の位置/姿勢を用いて仮想物体のCG画像をレンダリングする。そして、画像合成部180は、そのCG画像を、撮像装置1100により得られたステレオ画像の各画像に重畳合成してHMD2の表示部1200に表示する。
ステップS180(終了判定処理)において、情報処理装置1は、システムを終了するか否かの判断を行う。マウスやキーボードなどを介して利用者からシステムを終了するコマンドが入力されている場合にはシステムを終了し、さもなければ処理はステップS120に戻り、位置/姿勢の計測処理が継続される。
以上に述べたように、第1実施形態によれば、周囲に移動物体上の特徴であると判定された特徴点(利用可能性の値が0の特徴点)が多い特徴点を位置/姿勢の算出に利用しないようにする。これにより、移動物体が存在するシーンでも高精度、安定に位置/姿勢を算出することができる。
<変形例1−1>
画像を撮像する撮像装置1100はステレオカメラに限るものではなく、現実空間の画像を撮像するカメラであればよい。例えば、撮像装置1100は、単眼カメラで構成されても良いし、相対的な位置/姿勢が既知な三台以上のカメラで構成されても良い。また、撮像装置1100はカラー画像を撮像するカメラに限るものではなく、濃淡画像を撮像するカメラであっても良いし、奥行き情報を撮像するカメラであってもよい。但し、単眼カメラを用いる場合には、利用可能性の決定や位置/姿勢の算出に当たって奥行きが必要となるため、例えばKleinらの手法(非特許文献5)を用いてカメラの動きから奥行きを算出することが必要になる。また、位置・姿勢を算出するための画像を撮像する撮像装置とCGが合成される画像を撮像する撮像装置は同一のものであってもよいし、別々のものであってもよい。
<変形例1−2>
第1実施形態では、画像特徴として特徴点を用いた。しかしながら、画像特徴は画像の幾何情報から撮像装置1100の位置/姿勢を算出できるものであれば何でも良い。例えばKotakeらの手法(非特許文献6)のように画像中のエッジを特徴として用いても良い。この場合、特徴保持部130が保持する画像特徴の幾何属性は、例えば、画像上のエッジの両端点の二次元位置とすればよい。また、物体の三次元モデルを画像特徴とし、モデルと入力画像とを比較して撮像装置1100の位置/姿勢を得るKorkaloらの手法(非特許文献7)が用いられてもよい。また、三次元モデルの代わりにマーカを画像特徴とし、マーカに基づく位置姿勢推定であるKatoらの手法(非特許文献2)が用いられても良い。
<変形例1−3>
第1実施形態では、ステップS140の特徴配置決定処理において、正規化相互相関による特徴点のマッチングを用いた。しかしながら、保持特徴と検出特徴の配置の決定に用いられ得る手法はこれに限られるものではなく、画像間での特徴点の対応関係を見つけることができるものであれば何でもよい。例えば、Loweの手法であるSIFT特徴量のマッチング(非特許文献9)が用いられてもよい。また、例えば、特徴量記述が用いられても良い。また、例えばTomasiらの手法(非特許文献10)のように、前フレームの特徴から直接現フレームの特徴の配置が算出(追跡)されても良い。また、慣性センサ等を用いて特徴の動きを予測して配置を決定しても良い。その際には、ステップS160において位置姿勢算出を行う際に、保持特徴と入力特徴を改めて対応づける必要がある。対応付けの方法は前述したように正規化相互相関を用いても良いし、SIFTなどの特徴量を用いても良い。
<変形例1−4>
また、第1実施形態では、利用可能性が取り得る値を0か1に限って説明したが、利用可能性は二値である必要はなく、0から1の実数値が保持されても良い。その場合には、ステップS150において利用可能性を決定する際に、近傍として探索された保持特徴のもつ利用可能性の平均を算出し、算出された平均値が閾値以上であれば1、それ以外は0のように決定されても良い。
また、算出した平均値を検出特徴の利用可能性として、ステップS160で位置姿勢算出する際の重みとして利用しても良い。より具体的には、利用可能性の値をそのまま重みとしても良いし、利用可能性の値が所定の閾値以下であれば重みを0とし閾値以上であれば利用可能性の値をそのまま重みとするようにしても良い。位置/姿勢算出においては、付与された重みに基づいて特徴点の寄与度を変える。
<変形例1−5>
第1実施形態では、撮像装置1100として画像を撮像するカメラを用いていたが、三次元データを取得できるレンジファインダやToF(Time of Flight)センサなどが用いられても良い。その場合、ステップS130における特徴点の検出では、三次元データからランダムに特徴点が選択されても良いし、何らかのポリシーにのっとって三次元データからキーポイントとなる特徴点が選択されるようにしても良い。或いは、入力した三次元データすべてを特徴点として用いるようにしても良い。また、ステップS140では、SHOT特徴などの三次元特徴記述子を用いたマッチングによって配置を決定しても良いし、ICP(Iterative Closest Point)を用いて配置を決定しても良い。
<変形例1−6>
第1実施形態では、画像入力部150への画像入力は撮像装置1100から直接行われているがこれに限られるものではない。画像入力部150が、ファイルに保存されているデータを読み込むようにしても良い。
<変形例1−7>
第1実施形態で用いられた各種の閾値をユーザが設定するための構成が設けられてもよい。ユーザ設定を可能とする閾値としては、たとえば、
・画像上での特徴点対応付け(ステップS140)において同一特徴点とみなすかどうか判定するための閾値Mth
・近傍探索時(ステップS150)の二次元画像上の距離の閾値Nthおよび深度差の閾値Dth
・近傍の保持特徴の利用可能性によって入力特徴の利用可能性を決定する(ステップS150)際の閾値Rthなどが挙げられる。
これらの閾値は、ステップS110の初期化処理において、たとえば、情報処理装置1が外部の記憶装置から読み込むようにしてもよいし、所定のGUIを介してユーザに設定させるようにしてもよい。そのようなGUIは、たとえば情報処理装置1が備えるディスプレイにより実現され得る。図3にGUIの表示例を示す。GUI100は、利用可能性情報を利用するか否かを切り替える切り替えボタンG110を含む。また、GUI100は、特徴点マッチングの閾値Mthを設定するためのスライダーG120、近傍探索閾値Nthを設定するためのスライダーG130、深度差閾値Dthを設定するためのスライダーG140、近傍の利用可能性決定閾値Rthを設定するためのスライダーG150を有する。配置決定部120、利用可能性決定部140は、GUI100のスライダー(G120、G130,G140,G150)の変化を検知すると、該当する閾値を変化させる。
<第2実施形態>
第1実施形態では、配置決定部120において決定された配置において、検出特徴の近傍にある保持特徴を探索し、近傍に利用可能性の低い保持特徴が多い場合には、その検出特徴の利用可能性が低くなるように決定していた。第2実施形態では、決定した利用可能性をさらに更新することで、位置/姿勢の算出に悪影響を及ぼす特徴をより確実に除外することを可能にする。
第2実施形態の画像処理システム101及び情報処理装置1の構成は第1実施形態(図1)と同様である。また、第2実施形態における処理手順は、ステップS150(利用可能性決定処理)を除いて第1実施形態(図2)で説明した処理手順と同様である。ステップS150では、第1実施形態と同様にステップS140で決定した配置に基づいて入力特徴の利用可能性を決定する。但し、第2実施形態では、利用可能性の伝搬が行われる。図4は、ステップS150の処理手順の詳細を示すフローチャートである。
ステップS2010において、配置決定部120は、ステップS140で決定した配置において、それぞれの検出特徴点に対して近傍に存在する特徴保持部130が保持している保持特徴点を探索する。そして、ステップS2020において、配置決定部120は、ステップS2010で探索された保持特徴点のうち利用可能性の値が0である保持特徴点の割合が閾値以上であった場合、その検出特徴点の利用可能性の値を0に、それ以外は1に決定する。ステップS2010およびステップS2020の処理は第1実施形態と同様である。
第2実施形態では、ステップS2030において、配置決定部120は、検出特徴点同士の近傍探索を行う。ここでの近傍探索もステップS2010と同様に画像上で距離が閾値以内で、かつ奥行き差が閾値以内にある特徴点を探索する。これらの閾値は、ステップS2010で用いられる閾値と同じ値でもよいし、異なる値でもよい。次に、ステップS2040で近傍の特徴点に利用可能性を伝播させる。利用可能性の伝播処理は、一つの検索特徴点の近傍として探索された検索特徴点に利用可能性が0のものが含まれている場合には、当該一つの検索特徴点の利用可能性を0に変更する処理を再帰的に行う。
以上に述べたように第2実施形態によれば、周囲の利用可能性による利用可能性の決定結果を基に、検出特徴点同士の近傍の情報を用いて利用可能性を更新する。これにより、広い範囲に分布する移動物体が存在するシーンでもより高精度、安定に位置/姿勢を算出する。
<変形例2−1>
第2実施形態では、第1実施形態と同様に利用可能性の値が0もしくは1としたが、第1実施形態の変形例でも述べたように、利用可能性は二値である必要はない。例えば、0から1の実数値が利用可能性の値として保持されても良い。その場合、変形例1−4で述べたように、近傍の保持特徴点の持つ利用可能性の平均値が閾値以上であれば当該検出特徴点の利用可能性を1、それ以外は0に設定するようにしてもよい。但し、これに限られるものではなく、たとえば、ステップS2020において利用可能性を決定する際に、検出特徴点の近傍で探索された保持特徴点の持つ利用可能性の値の平均を当該検出特徴点の利用可能性として決定するようにしてもよい。その場合、ステップS2040での利用可能性の伝播においては、利用可能性が閾値以下である検出特徴点の利用可能性を0にするように再帰的に伝播させるようにしても良い。また、確率伝搬法を用いて利用可能性を計算してもよい。また、利用可能性の値として二値でない値を採用する場合、第1実施形態の変形例で述べた方法と同様に、ステップS160で位置姿勢算出する際の重みとして利用可能性が用いられても良い。
<第3実施形態>
第1実施形態および第2実施形態では、利用可能性の決定は検出特徴点に対してのみ行い、特徴保持部130で保持している保持特徴点の利用可能性が変化することはなかった。第3実施形態では、位置/姿勢の算出結果を基に保持特徴点の利用可能性を更新する。これにより、静止していた物体が動き出すなどの変化が生じた際にも高精度、高安定に位置/姿勢を算出することを可能にする。なお、上述したように、特徴保持部130は、各保持特徴について所定の座標系(たとえば、世界座標系)における三次元位置の座標を保持している。
図5は第3実施形態における画像処理システムの構成例を示すブロック図である。図5において、第1実施形態(図1A)と同様の構成には同一の参照番号を付してある。なお、ハードウエア構成は第1実施形態(図1B)と同様である。第1実施形態と第3実施形態で異なる部分は、情報処理装置1に更新部290が追加されている点と、情報処理装置1に算出部170が組み込まれている点である。更新部290は、算出部170で算出された位置/姿勢と、検出部160で検出した検出特徴点とに基づいて、特徴保持部130が保持する保持特徴点の利用可能性を更新する。これにより、特徴保持部130が保持する特徴の情報が更新される。
図6は第3実施形態による映像処理の手順を示すフローチャートである。図6において、第1実施形態(図2)と同様の処理には同一のステップ番号を付してある。第3実施形態の処理は、ステップS365(利用可能性更新処理)を除いて第1実施形態の処理と同様である。ステップS365において、更新部290は、算出部170の位置/姿勢算出結果に基づいて、S130で検出された検出特徴点および特徴保持部130が保持している保持特徴点の利用可能性を更新する。図7はステップS365における処理手順を示すフローチャートである。
ステップS3010において、更新部290は、ステップS160で算出された位置/姿勢に基づいて、検出特徴点を保持特徴点の座標系へ投影する。更新部290は、投影された検出特徴点の三次元位置と、その検出特徴点に対応づけられた保持特徴点の三次元位置とのユークリッド距離を投影誤差として算出する。ステップS3020において、更新部290は、ステップS3010で算出された投影誤差に基づいて検出特徴点の利用可能性を更新する。ここで、投影誤差が閾値以内であれば検出特徴点の利用可能性が1に設定され、それ以外は0に設定される。なお、保持特徴点と対応付けることができなかった検出特徴点については新たに検出された特徴点の利用可能性は1や0.5等の値に設定される。しかし、新たに検出された特徴点が動く物体上にあると予想される場合等では、利用可能性を0とすればよい。
ステップS3030において、更新部290は、保持特徴点の近傍にある検出特徴点をステップS3010で投影した三次元位置に基づいて探索する。ここでは、保持特徴点の三次元位置とのユークリッド距離が閾値以内にある検出特徴が探索される。ステップS3040において、更新部290は、ステップS3030で探索した近傍の検出特徴点の利用可能性に基づいて、保持特徴点の利用可能性を更新する。ここでの利用可能性の計算方法は、第1実施形態および第2実施形態のステップS150で検出特徴点の利用可能性を決定したのと、検出特徴点と保持特徴点の扱いが反対になっただけの同様の方法で行う。すなわち、更新部290は、保持特徴点の近傍で探索された検出特徴点のうち利用可能性の値が0である検出特徴点の割合が所定の閾値以上だった場合には、当該保持特徴点の利用可能性の値を0に決定し、それ以外は1に決定する。ステップS3050において、更新部290は、ステップS3020で更新した検出特徴点の情報とステップS3040で更新した保持特徴点の情報をあわせて、特徴保持部130へ入力し、特徴保持部130が保持する保持特徴点の情報を更新する。たとえば、ステップS3040で更新された保持特徴点の利用可能性が、特徴保持部130に保持されている保持特徴点の利用可能性として設定される。さらに、保持特徴点の三次元座標を、位置/姿勢の算出結果から算出した検出特徴点の三次元座標に置き換えても良い。また、対応する保持特徴点が存在しなかった検出特徴点が、新たな保持特徴点として特徴保持部130に保持される。
以上に述べたように、第3実施形態では、位置/姿勢の算出結果を基に保持特徴点の利用可能性が更新される。これにより、静止していた物体が動き出すなどの変化が生じた際にも高精度、高安定に位置/姿勢を算出することができる。
<変形例3−1>
第3実施形態では、第1実施形態と同様に利用可能性の値を0もしくは1としたが、第1実施形態の変形例で述べたように、利用可能性の値は二値である必要はなく、たとえば0から1の実数値をとるようにしても良い。その場合、保持特徴点に対する利用可能性の更新方法は第1実施形態および第2実施形態で検出特徴に対して実施した処理と同等のものを適用できる。
<変形例3−2>
第3実施形態において、利用可能性更新処理(ステップS365)は、ステップS160(位置/姿勢算出処理)とステップS170(画像合成・表示)の間で実行されるが、これに限られるものではない。ステップS365の利用可能性更新処理は、ステップS160から次に特徴保持部130の情報を用いるステップS140(特徴配置決定処理)の実行前までの間であれば、どこで実行されても良いし、並列処理されても良い。
<変形例3−3>
第3実施形態では、更新部290が、特徴保持部130で保持している保持特徴点と、検出部160で検出した検出特徴点との両方の利用可能性を更新し、特徴保持部130へ入力しているが、これに限られるものではない。たとえば、検出部160で検出された検出特徴点の情報のみを特徴保持部130へ入力し、特徴保持部130によって保持される特徴点を入れ替えるようにしてもよい。これによれば、逐次的に位置/姿勢を算出するオドメトリ処理を実現できる。また、特徴保持部130で保持している保持特徴点を更新するようにしてもよい。このようにすれば、1フレームのみの情報から生成されるためにノイズや誤判定が比較的多くなる新規に検出した特徴の情報を特徴保持部130における保持対象から除外することができ、安定的に位置/姿勢を算出することができる。
以上説明したように、第1実施形態では、周囲に移動物体上の特徴だと判定された特徴が多い特徴を位置/姿勢算出に利用しないようにする。これにより、移動物体が存在するシーンでも高精度、安定に位置/姿勢を算出することができる。
また、第2実施形態では、周囲の利用可能性決定結果を基に、入力した特徴同士の近傍の情報を用いて利用可能性を更新する。これにより、広い範囲に分布する移動物体が存在するシーンでもより高精度、安定に位置/姿勢を算出することができる。
また、第3実施形態では、位置/姿勢の算出結果を基に保持特徴の利用可能性を更新する。これにより、静止していた物体が動き出すなどの変化が生じた際にも高精度、高安定に位置/姿勢を算出することができる。
なお、上記各実施形態において、特徴入力部110に入力される検出特徴として画像から検出される特徴点を用いたがこれに限られるものではなく、位置/姿勢の算出に用いることができる特徴であればいかなるものでも良い。例えば、画像からコーナーを検出して得られた特徴でも良いし、Lowe(非特許文献8)のSIFT特徴量の検出で得られた特徴でも良いし、デプスセンサなどで撮像した三次元データからSHOT特徴を抽出したものでも良い。
配置決定部120は、特徴保持部130の持つ保持特徴点群と特徴入力部110に入力された検出特徴点の空間的な配置を決定できればいかなるものでも良い。保持特徴点と検出特徴点のマッチングは、特徴マッチングにより決定されても良いし、慣性センサを利用して予測されても良い。また、特徴マッチングの方法も検出特徴点と保持特徴点が同一のものであるかどうかという対応関係を探索できるものであれば、いかなる方法でもよい。たとえば、正規化相互相関に基づく対応付けでも良いし、特徴量の対応付けでも良いし、Tomasiら(非特許文献9)のKLTなどを用いた特徴点追跡が用いられてもよい。
特徴保持部130は、特徴点ごとに、位置や向きを特定する幾何情報と、撮像装置の位置/姿勢算出へ利用して良いか否かを表す利用可能性の値を保持するものであればいかなるものでも良い。利用可能性の値は二値で保持されても良いし、実数で保持されても良い。また、複数の利用可能性の値が保持されても良い。
利用可能性決定部140は、検出特徴点の利用可能性を、配置決定部120が決定した配置に基づいて、保持特徴点から決定するものであればいかなるものでも良い。例えば、検出特徴点の近傍の保持特徴点を探索し、最近傍の保持特徴点の利用可能性を検出特徴点の利用可能性として決定しても良い。また、たとえば、所定の距離より近い保持特徴点の利用可能性の平均値を検出特徴点の利用可能性として決定しても良い。また、利用可能性が所定の値より小さい保持特徴点の割合が所定の値より大きかった場合に利用可能性を0としても良い。また、保持特徴点までの距離に反比例する加重平均によって利用可能性が決定されても良い。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
1:情報処理装置、110:特徴入力部、120:配置決定部、130:特徴保持部、140:利用可能性決定部、150:画像入力部、160:検出部、170:算出部、80:画像合成部、1100:撮像装置、1200:画像表示部

Claims (19)

  1. 現実空間における複数の特徴を入力データから取得する取得手段と、
    前記入力データを取得した装置の位置姿勢の算出に利用すべき度合いを、前記現実空間における3次元の位置が既知である特徴に対応付けて保持する保持手段と、
    前記取得された特徴のうちの一つの特徴の近傍に存在している特徴に対応付けられた前記度合いに基づいて、前記一つの特徴に対して位置姿勢の算出に利用すべき度合いを決定する決定手段と、を備え
    前記保持手段は、前記現実空間における3次元の位置の経時変化が大きい特徴よりも小さい特徴に、より高い前記度合いを対応付けて保持することを特徴とする情報処理装置。
  2. 前記決定手段は、前記一つの特徴の位置姿勢算出への利用の可否を2値の前記度合いとして決定することを特徴とする請求項1に記載の情報処理装置。
  3. 現実空間における複数の特徴を入力データから取得する取得手段と、
    前記入力データを取得した装置の位置姿勢の算出に利用すべき度合いを、前記現実空間における位置が既知である特徴に対応付けて保持する保持手段と、
    前記取得された特徴のうちの一つの特徴の近傍に存在している特徴に対応付けられた前記度合いに基づいて、前記一つの特徴に対して位置姿勢の算出に利用すべき度合いを決定する決定手段と、を備え、
    前記決定手段は、前記一つの特徴の近傍にある特徴のうち対応付けられた前記度合いが所定の値より小さいものが所定の割合より多い場合に、前記一つの特徴を利用不可に決定することを特徴とする情報処理装置。
  4. 現実空間における複数の特徴を入力データから取得する取得手段と、
    前記入力データを取得した装置の位置姿勢の算出に利用すべき度合いを、前記現実空間における位置が既知である特徴に対応付けて保持する保持手段と、
    前記取得された特徴のうちの一つの特徴の近傍に存在している特徴に対応付けられた前記度合いに基づいて、前記一つの特徴に対して位置姿勢の算出に利用すべき度合いを決定する決定手段と、を備え、
    前記決定手段は、前記一つの特徴の近傍にある特徴の対応付けられた前記度合いの平均値が所定の値より小さい場合に前記一つの特徴を利用不可に決定することを特徴とする情報処理装置。
  5. 前記決定手段は、前記一つの特徴の近傍にある特徴において、対応付けられた前記度合いが利用不可である特徴が所定の割合より多い場合に、前記一つの特徴の前記度合いを利用不可に決定し、他の場合に前記一つの特徴の利用可に決定することを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。
  6. 前記決定手段は、さらに、前記複数の特徴の各々について、近傍の特徴に基づいて前記度合いが利用不可に決定された特徴の近傍に存在する特徴に対応付けられた前記度合いを利用不可に変更することを特徴とする請求項3に記載の情報処理装置。
  7. 前記決定手段は、近傍に対応付けられた前記度合いが利用不可に決定された特徴が存在し、近傍の特徴の前記度合いの平均値が所定の閾値以下の場合に、当該特徴に対する前記度合いを利用不可に変更することを特徴とする請求項6に記載の情報処理装置。
  8. 前記決定手段による特徴の利用不可への前記変更は、再帰的に実行されることを特徴とする請求項6または7に記載の情報処理装置。
  9. 前記決定手段によって利用可に決定された特徴に基づいて、前記装置の位置姿勢を算出する算出手段と、をさらに備えることを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。
  10. 前記決定手段は、前記装置の位置姿勢を算出するための重みとして前記度合いを決定し、
    前記算出手段は、前記度合いに基づいて、前記装置の位置姿勢を算出することを特徴とする請求項9に記載の情報処理装置。
  11. 現実空間における複数の特徴を入力データから取得する取得手段と、
    前記入力データを取得した装置の位置姿勢の算出に利用すべき度合いを、前記現実空間における位置が既知である特徴に対応付けて保持する保持手段と、
    前記取得された特徴のうちの一つの特徴の近傍に存在している特徴に対応付けられた前記度合いに基づいて、前記一つの特徴に対して位置姿勢の算出に利用すべき度合いを決定する決定手段と、
    前記決定手段によって利用可に決定された特徴に基づいて算出された前記装置の位置姿勢に基づいて、前記複数の特徴の前記度合いを更新する更新手段と、を備えることを特徴とする情報処理装置。
  12. 前記更新手段は、
    記算出された前記装置の位置姿勢に基づいて前記複数の特徴を前記特徴の座標系に投影し、
    前記投影された特徴の位置と対応する特徴の位置との差に基づいて前記投影された特徴の前記度合いを更新し、前記複数の特徴のうちの一つの特徴の前記度合いを、投影された前記複数の特徴の配置において前記一つの特徴の近傍に存在している特徴の前記度合いに基づいて更新する、ことを特徴とする請求項11に記載の情報処理装置。
  13. された前記装置の位置姿勢に基づいて、撮像装置によって撮像した画像に仮想物体の像を合成する画像合成手段と、
    前記画像合成手段が合成した画像を表示する表示手段と、をさらに備えることを特徴とする請求項9乃至12のいずれか1項に記載の情報処理装置。
  14. 前記入力データを取得した装置は、撮像装置であって、
    前記取得手段は、前記入力データとして前記撮像装置によって撮像された画像から前記特徴を取得することを特徴とする請求項1乃至13のいずれか1項に記載の情報処理装置。
  15. 現実空間における複数の特徴を入力データから取得する取得工程と、
    前記入力データを取得した装置の位置姿勢の算出に利用すべき度合いを、前記現実空間における3次元の位置が既知である特徴に対応付けて保持する保持工程と、
    前記取得された特徴のうちの一つの特徴の近傍に存在している特徴に対応付けられた前記度合いに基づいて、前記一つの特徴に対して位置姿勢の算出に利用すべき度合いを決定する決定工程と、を有し、
    前記保持工程では、前記現実空間における3次元の位置の経時変化が大きい特徴よりも小さい特徴に、より高い前記度合いを対応付けて保持することを特徴とする情報処理方法。
  16. 現実空間における複数の特徴を入力データから取得する取得工程と、
    前記入力データを取得した装置の位置姿勢の算出に利用すべき度合いを、前記現実空間における位置が既知である特徴に対応付けて保持する保持工程と、
    前記取得された特徴のうちの一つの特徴の近傍に存在している特徴に対応付けられた前記度合いに基づいて、前記一つの特徴に対して位置姿勢の算出に利用すべき度合いを決定する決定工程と、を有し、
    前記決定工程では、前記一つの特徴の近傍にある特徴のうち対応付けられた前記度合いが所定の値より小さいものが所定の割合より多い場合に、前記一つの特徴を利用不可に決定することを特徴とする情報処理方法。
  17. 現実空間における複数の特徴を入力データから取得する取得工程と、
    前記入力データを取得した装置の位置姿勢の算出に利用すべき度合いを、前記現実空間における位置が既知である特徴に対応付けて保持する保持工程と、
    前記取得された特徴のうちの一つの特徴の近傍に存在している特徴に対応付けられた前記度合いに基づいて、前記一つの特徴に対して位置姿勢の算出に利用すべき度合いを決定する決定工程と、を備え、
    前記決定工程では、前記一つの特徴の近傍にある特徴の対応付けられた前記度合いの平均値が所定の値より小さい場合に前記一つの特徴を利用不可に決定することを特徴とする情報処理方法。
  18. 現実空間における複数の特徴を入力データから取得する取得工程と、
    前記入力データを取得した装置の位置姿勢の算出に利用すべき度合いを、前記現実空間における位置が既知である特徴に対応付けて保持する保持工程と、
    前記取得された特徴のうちの一つの特徴の近傍に存在している特徴に対応付けられた前記度合いに基づいて、前記一つの特徴に対して位置姿勢の算出に利用すべき度合いを決定する決定工程と、
    前記決定工程によって利用可に決定された特徴に基づいて算出された前記装置の位置姿勢に基づいて、前記複数の特徴の前記度合いを更新する更新工程と、を有することを特徴とする情報処理方法。
  19. コンピュータを、請求項1乃至14のいずれか1項に記載の情報処理装置の各手段として機能させることを特徴とするプログラム。
JP2017001434A 2017-01-06 2017-01-06 情報処理装置およびその制御方法、プログラム Active JP6894707B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017001434A JP6894707B2 (ja) 2017-01-06 2017-01-06 情報処理装置およびその制御方法、プログラム
US15/861,800 US10861185B2 (en) 2017-01-06 2018-01-04 Information processing apparatus and method of controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017001434A JP6894707B2 (ja) 2017-01-06 2017-01-06 情報処理装置およびその制御方法、プログラム

Publications (3)

Publication Number Publication Date
JP2018112790A JP2018112790A (ja) 2018-07-19
JP2018112790A5 JP2018112790A5 (ja) 2020-02-13
JP6894707B2 true JP6894707B2 (ja) 2021-06-30

Family

ID=62783250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017001434A Active JP6894707B2 (ja) 2017-01-06 2017-01-06 情報処理装置およびその制御方法、プログラム

Country Status (2)

Country Link
US (1) US10861185B2 (ja)
JP (1) JP6894707B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10957068B2 (en) 2017-01-06 2021-03-23 Canon Kabushiki Kaisha Information processing apparatus and method of controlling the same
CN109708649B (zh) * 2018-12-07 2021-02-09 中国空间技术研究院 一种遥感卫星的姿态确定方法及系统
US11748445B1 (en) 2019-04-30 2023-09-05 Apple Inc. Techniques for managing feature maps
US11410328B1 (en) * 2019-04-30 2022-08-09 Apple Inc. Techniques for maintaining feature point maps
US11288877B2 (en) 2020-01-10 2022-03-29 38th Research Institute, China Electronics Technology Group Corp. Method for matching a virtual scene of a remote scene with a real scene for augmented reality and mixed reality
CN111260793B (zh) * 2020-01-10 2020-11-24 中国电子科技集团公司第三十八研究所 面向增强和混合现实的远程虚实高精度匹配定位的方法

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348175A (ja) * 1999-06-08 2000-12-15 Sony Corp 対応点検出装置及び方法
JP2002032741A (ja) * 2000-07-13 2002-01-31 Sony Corp 3次元画像生成システムおよび3次元画像生成方法、並びにプログラム提供媒体
US20070140529A1 (en) * 2005-12-21 2007-06-21 Fujifilm Corporation Method and device for calculating motion vector between two images and program of calculating motion vector between two images
JP4789745B2 (ja) * 2006-08-11 2011-10-12 キヤノン株式会社 画像処理装置および方法
US8903135B2 (en) * 2010-06-30 2014-12-02 Panasonic Corporation Stereo image processing apparatus and method of processing stereo image
WO2012011432A1 (ja) * 2010-07-20 2012-01-26 株式会社エヌ・ティ・ティ・ドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法、及び、画像予測復号プログラム
US8953847B2 (en) * 2010-10-01 2015-02-10 Saab Ab Method and apparatus for solving position and orientation from correlated point features in images
EP2640057B1 (en) * 2010-11-11 2016-07-27 Panasonic Intellectual Property Corporation of America Image processing device, image processing method and program
US8401225B2 (en) * 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
JP5530391B2 (ja) 2011-04-05 2014-06-25 日本電信電話株式会社 カメラポーズ推定装置、カメラポーズ推定方法及びカメラポーズ推定プログラム
US8842163B2 (en) * 2011-06-07 2014-09-23 International Business Machines Corporation Estimation of object properties in 3D world
US9525862B2 (en) * 2011-08-31 2016-12-20 Metaio Gmbh Method for estimating a camera motion and for determining a three-dimensional model of a real environment
JP5820236B2 (ja) * 2011-10-28 2015-11-24 キヤノン株式会社 画像処理装置及びその制御方法
JP5680524B2 (ja) * 2011-12-09 2015-03-04 株式会社日立国際電気 画像処理装置
JP6188387B2 (ja) * 2012-04-17 2017-08-30 パナソニック株式会社 視差算出装置及び視差算出方法
JP6107081B2 (ja) * 2012-11-21 2017-04-05 富士通株式会社 画像処理装置、画像処理方法及びプログラム
EP2951783B1 (en) * 2013-02-04 2019-04-03 Harman International Industries, Inc. Method and system for detecting moving objects
US10055013B2 (en) * 2013-09-17 2018-08-21 Amazon Technologies, Inc. Dynamic object tracking for user interfaces
JP6237326B2 (ja) * 2014-02-25 2017-11-29 富士通株式会社 姿勢推定装置、姿勢推定方法及び姿勢推定用コンピュータプログラム
US9779331B2 (en) * 2014-04-24 2017-10-03 Conduent Business Services, Llc Method and system for partial occlusion handling in vehicle tracking using deformable parts model
JP6405891B2 (ja) * 2014-10-29 2018-10-17 富士通株式会社 位置・姿勢推定装置、位置・姿勢推定方法、及び、プログラム
CN107430841B (zh) * 2015-03-31 2021-03-09 索尼公司 信息处理设备、信息处理方法、程序以及图像显示系统
JP6502485B2 (ja) * 2015-05-21 2019-04-17 オリンパス株式会社 撮像装置
JP6493877B2 (ja) 2015-08-25 2019-04-03 富士フイルム株式会社 基準点評価装置、方法およびプログラム、並びに位置合せ装置、方法およびプログラム
JPWO2017060951A1 (ja) * 2015-10-05 2018-07-05 株式会社日立製作所 画像圧縮装置、画像復号装置、および画像処理方法
TWI587246B (zh) * 2015-11-20 2017-06-11 晶睿通訊股份有限公司 影像物件判別方法及其具有影像物件判別功能的攝影系統
US10095928B2 (en) * 2015-12-22 2018-10-09 WorldViz, Inc. Methods and systems for marker identification
WO2017199285A1 (ja) * 2016-05-16 2017-11-23 オリンパス株式会社 画像処理装置及び画像処理方法
GB2552648B (en) * 2016-07-22 2020-09-16 Imperial College Sci Tech & Medicine Estimating dimensions for an enclosed space using a multi-directional camera
US9964955B2 (en) * 2016-08-04 2018-05-08 Canvas Technology, Inc. System and methods of determining a geometric pose of a camera based on spatial and visual mapping
JP2018051728A (ja) * 2016-09-30 2018-04-05 ファナック株式会社 対象物の三次元位置を検出する検出方法および検出装置
US10957068B2 (en) * 2017-01-06 2021-03-23 Canon Kabushiki Kaisha Information processing apparatus and method of controlling the same
US10347001B2 (en) * 2017-04-28 2019-07-09 8th Wall Inc. Localizing and mapping platform
JP7032871B2 (ja) * 2017-05-17 2022-03-09 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、記憶媒体
US10406645B2 (en) * 2017-05-24 2019-09-10 Trimble Inc. Calibration approach for camera placement
WO2018220711A1 (ja) * 2017-05-30 2018-12-06 オリンパス株式会社 画像処理装置
JP6949612B2 (ja) * 2017-08-09 2021-10-13 キヤノン株式会社 動画再生装置およびその制御方法、並びにプログラム
JP6412998B1 (ja) * 2017-09-29 2018-10-24 株式会社Qoncept 動体追跡装置、動体追跡方法、動体追跡プログラム
JP2019129371A (ja) * 2018-01-23 2019-08-01 富士通株式会社 動画像符号化装置、動画像符号化方法、動画像復号装置、動画像復号方法、及び動画像符号化用コンピュータプログラムならびに動画像復号用コンピュータプログラム

Also Published As

Publication number Publication date
US10861185B2 (en) 2020-12-08
US20180197308A1 (en) 2018-07-12
JP2018112790A (ja) 2018-07-19

Similar Documents

Publication Publication Date Title
JP6894707B2 (ja) 情報処理装置およびその制御方法、プログラム
JP6985897B2 (ja) 情報処理装置およびその制御方法、プログラム
JP6338021B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US11037325B2 (en) Information processing apparatus and method of controlling the same
Klein et al. Parallel tracking and mapping for small AR workspaces
JP5746477B2 (ja) モデル生成装置、3次元計測装置、それらの制御方法及びプログラム
WO2017041731A1 (en) Markerless multi-user multi-object augmented reality on mobile devices
Gee et al. Real-time model-based SLAM using line segments
US11830216B2 (en) Information processing apparatus, information processing method, and storage medium
JP6503906B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN110568447A (zh) 视觉定位的方法、装置及计算机可读介质
Vidas et al. Real-time mobile 3D temperature mapping
JP2004213332A (ja) キャリブレーション装置、キャリブレーション方法、キャリブレーション用プログラム、及び、キャリブレーション治具
JP6744747B2 (ja) 情報処理装置およびその制御方法
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
JP2011085971A (ja) 画像処理装置、画像処理方法、画像処理プログラム、記録媒体及び画像処理システム
JP6860620B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2019190974A (ja) キャリブレーション装置、キャリブレーション方法、及びプログラム
JP6061770B2 (ja) カメラ姿勢推定装置及びそのプログラム
JP6817742B2 (ja) 情報処理装置およびその制御方法
JP2017011328A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP4938748B2 (ja) 画像認識装置及びプログラム
WO2019013162A1 (ja) 情報処理装置、情報処理方法
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
JP2006113832A (ja) ステレオ画像処理装置およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191226

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210604

R151 Written notification of patent or utility model registration

Ref document number: 6894707

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151