JP2015528936A - ビジョン支援慣性カメラポーズ推定とビジョンベースのみのカメラポーズ推定との間の適応的な切替え - Google Patents

ビジョン支援慣性カメラポーズ推定とビジョンベースのみのカメラポーズ推定との間の適応的な切替え Download PDF

Info

Publication number
JP2015528936A
JP2015528936A JP2015517335A JP2015517335A JP2015528936A JP 2015528936 A JP2015528936 A JP 2015528936A JP 2015517335 A JP2015517335 A JP 2015517335A JP 2015517335 A JP2015517335 A JP 2015517335A JP 2015528936 A JP2015528936 A JP 2015528936A
Authority
JP
Japan
Prior art keywords
target
pose
vision
inertial sensor
inertia
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015517335A
Other languages
English (en)
Other versions
JP2015528936A5 (ja
JP6140278B2 (ja
Inventor
アルヴィンド・ラマナンダン
クリストファー・ブラナー
マヘシュ・ラマチャンドラン
アビーシェク・ティアギ
ダニエル・ノブロック
ミュラリ・ラマスワミ・チャリ
Original Assignee
クアルコム,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クアルコム,インコーポレイテッド filed Critical クアルコム,インコーポレイテッド
Publication of JP2015528936A publication Critical patent/JP2015528936A/ja
Publication of JP2015528936A5 publication Critical patent/JP2015528936A5/ja
Application granted granted Critical
Publication of JP6140278B2 publication Critical patent/JP6140278B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

モバイルデバイスは、慣性センサー測定値からの寄与、およびビジョンベースの測定値からの寄与を含む、ビジョン支援慣性ナビゲーションシステム(VINS)を使用して、カメラとターゲットとの間の相対的ポーズを追跡する。モバイルデバイスがターゲットの動きを検出したとき、カメラとターゲットとの間の相対的ポーズを追跡するための慣性センサー測定値からの寄与が低減または除去される。ターゲットの動きは、ターゲットが移動したことを示す不一致が存在するかどうかを判断するために、キャプチャされた画像からのビジョンのみ測定値を慣性ベースの測定値と比較することによって検出され得る。追加または代替として、ターゲットの動きは、キャプチャされた画像から抽出された特徴ベクトルの投影を使用して検出され得る。

Description

関連出願の相互参照
本出願は、本出願の譲受人に譲渡され、参照により本明細書に組み込まれる、2012年6月14日に出願した「Adaptive Switching Between Vision Aided INS and Vision Only Pose」という名称の米国出願第13/523,634号の優先権を主張するものである。
本明細書に記載された主題の実施形態は、ポーズ決定に関し、より詳細には、ポーズ決定のためのビジョンベースの技法の使用に関する。
拡張現実(AR)タイプの用途では、撮像された環境に対するカメラのポーズ(並進(translation)および姿勢)が決定され、追跡される。ビジョンのみポーズ手法では、環境における特徴豊富なターゲットに対するカメラのポーズは、たとえばビデオのフレームなど、キャプチャされた画像を使用して決定され、追跡される。ビジョンのみポーズは、たとえば、フレームごとに推定され、ポーズ精緻化アルゴリズムの初期化ポイントを提供する、次のフレームにおけるポーズを予測するために、統計モデルが使用される。
セルラー電話など、現代のデバイスは、一般的に、慣性ナビゲーションシステム(INS)として知られる、慣性フレームに対するデバイスのポーズの変化率を測定することが可能な慣性センサーを備えている。絶対的ポーズ、すなわち、慣性フレームに対するデバイスのポーズ、および相対的ポーズ、すなわち、ターゲットに対するカメラのポーズは、一定の変換によって異なるので、INSによって提供される情報は、ターゲットに対するカメラのビジョンのみポーズの推定を向上させるために使用され得る。ビジョンのみポーズとINSとの組合せは、一般的に、ビジョン支援INS(VINS)と呼ばれる。
VINS手法は、ビジョンのみポーズまたはINSの別々の場合よりも多くの情報を使用し、したがって、一般に、VINSは、いずれかの方法単独よりも良く機能する。それにもかかわらず、いくつかの状況の下では、VINS手法は、ビジョンのみ手法と比較して機能が不十分である。さらに、VINS手法の性能は、モバイルデバイスの外部の状態に基づいて低下し得、またしたがって、低下は、予測不可能であり得る。
モバイルデバイスは、慣性センサー測定値からの寄与、およびビジョンベースの測定値からの寄与を含む、ビジョン支援慣性ナビゲーションシステム(VINS)を使用して、カメラとターゲットとの間の相対的ポーズを追跡する。モバイルデバイスがターゲットの動きを検出したとき、カメラとターゲットとの間の相対的ポーズを追跡するための慣性センサー測定値からの寄与が低減または除去される。ターゲットの動きは、ターゲットが移動したことを示す不一致が存在するかどうかを判断するために、キャプチャされた画像からのビジョンのみ測定値を慣性ベースの測定値と比較することによって検出され得る。追加または代替として、ターゲットの動きは、キャプチャされた画像から抽出された特徴ベクトルの投影を使用して検出され得る。
一実装形態では、方法は、慣性センサー測定値からの寄与およびビジョンベースの測定値からの寄与を使用して、カメラとターゲットとの間の相対的ポーズを追跡するステップと、ターゲットの動きを検出するステップと、ターゲットの動きが検出されると、カメラとターゲットとの間の相対的ポーズを追跡するために、慣性センサー測定値からの寄与を低減するステップとを含む。
一実装形態では、モバイルデバイスは、ターゲットの画像をキャプチャすることが可能なカメラと、慣性センサーと、ターゲットのキャプチャされた画像を受信するために結合され、慣性センサーから信号を受信するために結合されたプロセッサであり、プロセッサは、ターゲットのキャプチャされた画像を使用してビジョンベースの測定値、および慣性センサーからの信号を使用して慣性センサー測定値を生成するように構成され、プロセッサは、慣性センサー測定値からの寄与、およびビジョンベースの測定値からの寄与を使用してカメラとターゲットとの間の相対的ポーズを追跡するように構成され、プロセッサは、ターゲットの動きを検出し、ターゲットの動きが検出されると、カメラとターゲットとの間の相対的ポーズを追跡するために、慣性センサー測定値からの寄与を低減するようにさらに構成される、プロセッサとを含む。
一実装形態では、モバイルデバイスは、慣性センサー測定値からの寄与およびビジョンベースの測定値からの寄与を使用して、カメラとターゲットとの間の相対的ポーズを追跡するための手段と、ターゲットの動きを検出するための手段と、ターゲットの動きが検出されると、カメラとターゲットとの間の相対的ポーズを追跡するために、慣性センサー測定値からの寄与を低減するための手段とを含む。
一実装形態では、プログラムコードを記憶した非一時的コンピュータ可読媒体は、慣性センサー測定値からの寄与およびビジョンベースの測定値からの寄与を使用して、カメラとターゲットとの間の相対的ポーズを追跡するためのプログラムコードと、ターゲットの動きを検出するためのプログラムコードと、ターゲットの動きが検出されると、カメラとターゲットとの間の相対的ポーズを追跡するために、慣性センサー測定値からの寄与を低減するためのプログラムコードとを含む。
VINS追跡手法とビジョンのみ追跡手法との間を適応的に切り替えることによって、ターゲットを検出し、追跡することが可能なモバイルデバイスを示す図である。 異なる時間の静止しているターゲットおよび移動しているモバイルデバイス、ならびにビジョンのみ手法およびVINS手法を使用して生成されたポーズの平面図である。 図2と類似しているが、異なる時間の移動しているモバイルデバイスおよび移動しているターゲット、ならびにビジョンのみ手法およびVINS手法を使用して生成されたポーズの平面図である。 ターゲットが静止しているときのVINS手法と、ターゲットが移動しているときのビジョンのみ手法との間を適応的に切り替えることによって、ターゲットを検出し、追跡する方法を示すフローチャートである。 ビジョンベースの測定値および慣性センサー測定値によって決定されるポーズの少なくとも一部を使用することによって、ターゲットが移動しているかどうかを決定する方法を示すフローチャートである。 投影された特徴ベクトルを使用して、ターゲットが移動しているかどうかを決定する別の方法を示すフローチャートである。 VINS手法とビジョンのみ手法との間を適応的に切り替えることによって、ターゲットを検出し、追跡することが可能なモバイルデバイスのブロック図である。
図1は、ターゲット101が静止しているときのVINS手法と、ターゲットが移動しているときのビジョンのみ手法との間を適応的に切り替えることによって、ターゲット101を検出し、追跡することが可能なモバイルデバイス100を示す。いくつかの実装形態では、モバイルデバイス100は、慣性センサー測定値の寄与を完全に除去する代わりに、ターゲット101の動きが検出されると、慣性センサー測定値の寄与を実質的に低減することができる。
本明細書で使用するモバイルデバイスは、セルラーまたは他のワイヤレス通信デバイス、パーソナル通信システム(PCS)デバイス、パーソナルナビゲーションデバイス(PND)、個人情報マネージャ(PIM)、携帯情報端末(PDA)、またはビジョンベースの追跡もしくはVINSで使用され得る環境の画像をキャプチャすることが可能なワイヤレス通信デバイス、コンピュータ、ラップトップ、タブレットコンピュータなどを含む他の適したモバイルデバイスなど、任意のポータブル電子デバイスを指す。モバイルデバイスは、ナビゲーション測位信号など、ワイヤレス通信および/またはナビゲーション信号を受信することが可能であり得る。「モバイルデバイス」という用語はまた、衛星信号受信、支援データ受信、および/または位置関連処理がそのデバイスにおいて行われるか、パーソナルナビゲーションデバイス(PND)において行われるかにかかわらず、短距離ワイヤレス、赤外線、有線接続、または他の接続などによって、PNDと通信するデバイスを含むものである。
モバイルデバイス100は、タッチスクリーンディスプレイでもよいディスプレイ102を含む。モバイルデバイス100は、ディスプレイ102に表示されるものとして示されるターゲット101などの環境を撮像する前方を向いたカメラ108を含む。カメラ108によって生成される画像またはフレームは、コンピュータビジョンベースのポーズを生成するために、ビジョンポーズモジュール112によって使用される。カメラ108が画像および/またはビデオフレームをキャプチャすることができること、ならびに画像およびフレームの用語は、本明細書では互換的に使用されることを理解されたい。モバイルデバイス100は、たとえば加速度計、またはジャイロスコープなどの慣性センサー110も含み、これは、モバイルデバイス100のポーズの決定を支援するために使用され得る。慣性センサー110の出力は、モバイルデバイスのポーズの変化を決定するために、慣性センサーシステム(INS)モジュール114によって使用され、INSポーズを生成することができる。モバイルデバイス100は、ビジョンベースポーズモジュール112からのポーズおよびINSモジュール114からのポーズを結合するVINSモジュール116をさらに含む。INSモジュール114およびVINSモジュール116は別々に示されているが、INSモジュール114がVINSモジュール116の一部でもよいことを理解されたい。動作中、モバイルデバイス100は、ターゲット101が静止しているとき、ターゲット101に対するポーズ、すなわち、慣性基準フレームに対するポーズを決定するために、VINSモジュール116を使用し、ターゲット101が移動しているとき、ターゲット101に対するポーズを決定するために、ビジョンベースポーズモジュール112に切り替える。
モバイルデバイス100は、たとえばモバイルデバイス100がセルラー電話である場合、スピーカ104、マイクロフォン106など、本開示に関連のない他の特徴も含み得る。
図2は、参照番号100t1および100t2によって識別されるように、第1の時間t1および第2の時間t2における静止しているターゲット101および移動しているモバイルデバイス100の平面図を示す。第1の時間t1に、モバイルデバイス100のビジョンベースポーズモジュール112は、ターゲット101に対する第1のポーズC(t1)を生成する。第2の時間t2に、モバイルデバイス100のビジョンベースポーズモジュール112は、ターゲット101に対する第2のポーズC(t2)を生成する。第1の時間t1と第2の時間t2との間に、モバイルデバイス100は、経路G(t1,t2)によって示されるように移動する。INSモジュール114は、モバイルデバイスの位置G(t1,t2)の変化を測定するために、慣性センサー110からサンプリングされる信号を使用する。図2の破線によって示されるように、位置G(t1,t2)の変化および第1のポーズC(t1)が結合されると、すなわちG(t1,t2)*C(t1)となると、これはINSモジュール114またはVINSモジュール116によって実行され得、結果は、第2のポーズC(t2)と理想的には同じである。VINSモジュール116は、最終的なポーズを生成するために、たとえば、拡張カルマンフィルタを使用して、ビジョンベースポーズモジュール112からのポーズC(t2)からの結果、およびINSモジュール114から生じるポーズG(t1,t2)*C(t1)からの結果を結合する。拡張カルマンフィルタの使用が単に1つの考えられるポーズ推定器にすぎないこと、および必要な場合、他のポーズ推定器が使用されてもよいことを理解されたい。
図3は、図2と類似しているが、参照番号によって識別されるように、第1の時間t1および第2の時間t2における移動しているモバイルデバイス100および移動しているターゲット101の平面図を示す。ビジョンベースポーズモジュール112は、ターゲット101とカメラ108との間の相対的ポーズを推定し、一方、INSモジュール114は、慣性センサー110と慣性フレームとの間のポーズの変化率を測定するために、慣性センサー110から信号をサンプリングする。ターゲット101が慣性フレームに対して静止している場合、慣性センサー測定値は、原則として、図2に示すように、ターゲット101に対するカメラ108のポーズの変化率を追跡することができる。しかしながら、ターゲット101が移動する場合、ターゲット101の動きは、INSモジュール114でなく、ビジョンベースポーズモジュール112に影響を及ぼす。したがって、図3に示すように、ターゲット101が時間t1と時間t2との間を移動したので、ビジョンベースポーズモジュール112は、ポーズC'(t2)を生成し、これは、図2に示すように静止したターゲット101のために生成されたポーズC(t2)とは異なる。しかしながら、INSモジュール114は、慣性センサー110からサンプリングされる信号のみを使用し、したがって、モバイルデバイスのポーズG(t1、t2)の変化を生成し、これは、ターゲット101の位置の変化とは無関係である。図3の破線によって示されるように、INSモジュール114からの結果として生じるポーズG(t1,t2)*C(t1)は、時間t1におけるターゲット101の位置に関連し、したがって、移動した後の時間t2におけるターゲット101と関連するビジョンベースのポーズC'(t2)とは異なることになる。VINSモジュール116は、不正確である結合されたポーズ118を生成するために、ビジョンベースポーズモジュール112からのポーズC'(t2)からの結果、およびINSモジュール114から生じるポーズG(t1,t2)*C(t1)からの結果を結合する。したがって、ターゲット101が移動しているとき、ビジョンベースポーズモジュール112単独によって生成されるポーズは、VINSモジュール116によって生成されるポーズよりも正確であることがわかる。したがって、慣性システムに対してターゲット101が移動しているとき、ビジョンベースポーズモジュール112からのポーズが最も正確なポーズとして使用されるべきである。
図4は、ターゲットが静止しているときのVINS手法と、ターゲットが移動しているときのビジョンのみ手法との間を適応的に切り替えることによって、ターゲットを検出し、追跡する方法を示すフローチャートである。図示のように、慣性センサー測定値からの寄与およびビジョンベースの測定値からの寄与を使用して、カメラとターゲットとの間の相対的ポーズが追跡される(202)。言い換えれば、カメラとターゲットとの間のポーズを追跡するために、VINSが実行される。VINS手法は、図2および図3を参照して上述されており、当業者によく知られている。一般に、VINS手法は、ビジョンベース技法を使用して決定されるポーズと、慣性センサーを使用して生成されるポーズとを結合することによって、ポーズを推定することができる。必要な場合、異なる技法からのポーズは、推定されたVINSポーズを生成するために重みが付けられ得る。例として、図2および図3からのパラメータを使用して、VINSポーズは、次のように決定され得、この場合、w1およびw2は、調整可能な加重係数である。
Figure 2015528936
ターゲットが移動していない場合(204)、引き続きVINS手法が使用される(206)。一方、ターゲットが移動していると決定されると(204)、カメラとターゲットとの間の相対的ポーズを追跡するための慣性センサー測定値からの寄与が低減される(208)。例として、ターゲットの動きが検出されると、ビジョンベースの追跡のみが使用されるように、慣性センサー測定値からの寄与が除去され得る。ビジョンベースの追跡の使用は、図2および図3を参照して概略的に上述されており、当業者によく知られている。本開示は、たとえば、慣性センサーを使用して生成されるポーズの影響の意味のある効果を除去するために、式1における加重係数を調整することによって、慣性センサー測定値からの寄与を必ずしも完全に除去するというわけではないが、実質的に低減することを企図していることを理解されたい。必要な場合、重み付けは、ターゲット動き検出における信頼性に基づいて変わり得る。たとえば、信頼性の変化は、画像フレームの質、ノイズなどの結果であり得る。たとえば、ターゲット101が移動しており、しかし、信頼性が非常に低いことを動き検出が示す場合、たとえば式1におけるw1など、慣性ベースのポーズの重み付けは、0よりも大きくてよく、たとえば、w1=0.3である。他方では、検出に対する信頼性が高い場合、慣性ベースのポーズの重み付けは、0に近く、または0に等しくなり得る。ターゲットの動きが停止したことが検出されると、モバイルデバイスは、VINS手法に切り替わって戻ることができ、カメラとターゲットとの間の相対的ポーズを追跡するために、慣性センサー測定値からの寄与が使用される。
加えて、説明したように、ターゲットの動きの検出(204)は、すなわち、ハンドジッタなどによって生じる小さい動きを無視して、カメラが静止していると決定される(203)ときのみ、実行され得る。カメラは、慣性センサー110からの測定値に基づいて、静止している、または移動していると決定され得る。たとえば、ジャイロスコープなどとすることができる、慣性センサー110からの測定値のノルムの標準偏差は、所定の時間期間にわたって計算され得、標準偏差があるしきい値を超える場合、モバイルデバイスが動いていると結論づけられ得る。モバイルデバイス100が移動していると決定された場合、引き続きVINSが使用される(206)。モバイルデバイス100が静止していると決定された場合、モバイルデバイス100は、上記で説明したように、ターゲットが移動しているかどうかの評価に進むことができる(204)。モーションブラーおよびローリングシャッターなどのモーションアーティファクトが低減するので、モバイルデバイスが静止しているとき、ビジョンベースのポーズの推定値は、一般により正確であるので、モバイルデバイス100が静止していると決定することは有用である。したがって、堅牢性が増加し、ターゲットの動きの誤検出の確率はより少ない。
ターゲットの動きを検出する(204)ための方法がいくつかある。上記で説明したように、ターゲット101が静止しているとき、慣性センサー測定値を使用して生成されたポーズ推定値は、ビジョンベースの技法を使用して生成されるポーズ推定値とほぼ同じになることになる。一方、ターゲット101が移動するとき、ターゲットの動きは、ビジョンベースの技法を使用して生成されるポーズ推定値に影響を及ぼすことになるが、慣性センサー測定値を使用して生成されるポーズ推定値には影響を及ぼすことはない。このように、ポーズ推定値、またはポーズの決定された変化の不一致は、ターゲット101が静止しているか移動しているかを決定するために使用され得る。
図5は、ビジョンベースの測定値および慣性センサー測定値によって決定されるポーズの少なくとも一部を使用することによって、ターゲットが移動しているかどうかを決定する方法を示すフローチャートである。図示のように、ターゲットに対するカメラのビジョンベースのポーズの少なくとも一部が決定される(302)。例として、必要な場合、たとえば、ビジョンベースポーズモジュール112からのビジョンベースの姿勢のみが決定され得、それによって、カメラに対するターゲットの回転を検出する。あるいは、姿勢よりむしろ並進ベクトルが使用され得る。カメラの慣性ベースのポーズの少なくとも一部の変化が慣性センサー測定値に基づいて決定される(304)。また、必要な場合、たとえば、INSモジュール114からの慣性ベースの姿勢のみが決定され得る。あるいは、姿勢よりむしろ並進ベクトルが使用され得る。たとえば、所定のタイムウィンドウにわたる慣性センサー110からのサンプル信号を統合することによって、慣性ベースのポーズの少なくとも一部の変化が決定され得る。時間量、すなわち、統合間隔は、センサーバイアスおよび姿勢エラーから生じる重力の成分の統合の効果を制限するように十分に小さく、しかし、ターゲットの動きの効果が背景センサーノイズと検出可能に異なるように十分に長くなければならない。動きを検出するための並進ベクトルおよび姿勢の使用は、並進加速度、並進速度、角加速度、および角速度を使用することに、数学的に等しいことを理解されたい。
ターゲットの動きを検出するために、ビジョンベースのポーズの少なくとも一部、および慣性ベースのポーズの少なくとも一部の変化が使用される(306)。一例では、ビジョンベースのポーズは、慣性ベースのポーズと比較され、慣性ベースのポーズの変化を使用して決定され得、これは、ターゲットが移動したかどうかを判断するために、しきい値と比較される。別の例では、慣性ベースのポーズの変化は、ビジョンベースのポーズの変化と比較され、複数のビジョンベースのポーズを使用して決定され得、これは、ターゲットが移動したかどうかを決定するために、しきい値と比較される。ポーズまたはポーズの変化の間の差は、慣性センサー測定ノイズのためにスケーリングされるポーズまたはポーズの変化の差のノルムとして決定され得る。使用されるしきい値は、小さい動きを検出するのに十分小さく、しかし、たとえばハンドジッタなど、意図的でない動きを除外するのに十分大きくなければならない。
ビジョンベースのポーズが慣性ベースのポーズと比較される本例では、慣性ベースのポーズの少なくとも一部は、慣性ベースのポーズの少なくとも一部の変化を使用して決定される。例として、慣性ベースの姿勢における変化は、現在の慣性ベースの姿勢を決定するために、それより前のビジョンベースの姿勢と結合され得る。ビジョンベースのポーズの少なくとも一部と慣性ベースのポーズの少なくとも一部との間の差が決定され、ターゲットが移動したと決定するために、しきい値と比較され得る。
慣性ベースのポーズの変化がビジョンベースのポーズの変化と比較される本例では、ビジョンベースのポーズの少なくとも一部の変化は、ビジョンベースのポーズの少なくとも一部、およびそれより前のビジョンベースのポーズの少なくとも一部に基づいて決定され得る。例として、第1のビジョンベースの姿勢は、ビジョンベースの姿勢の変化を決定するために、第2のビジョンベースの姿勢と比較され得る。慣性ベースのポーズの少なくとも一部の変化と、ビジョンベースのポーズの少なくとも一部の変化との間の差が決定され、ターゲットが移動したかどうかを判断するために、しきい値と比較され得る。
追加または代替として、ターゲット101の動きは、密結合のVINS手法が使用されるとき、キャプチャされた画像における特徴ベクトルを投影することによって検出され得る。図6は、投影された特徴ベクトルを使用して、ターゲットの動きを検出することを示すフローチャートである。図示するように、特徴がキャプチャされた画像から抽出される(402)。特徴は、Speeded UP Robust Features(SURF)、スケール不変特徴変換(SIFT)、または任意の他の所望の特徴抽出技法を使用して抽出され得る。特徴ベクトルの投影は、慣性センサーからの測定値に基づいて予測される(404)。特徴ベクトルの予測された投影は、その後キャプチャされた画像における抽出された特徴と比較される(406)。差は、平均差または他の統計メトリックであり得、ターゲットが移動しているかどうかを判断するために、しきい値と比較される(408)。
図7は、記述されたプロセスを使用して、ターゲットが移動しているとき、VINS手法とビジョンのみ手法との間を適応的に切り替えることによって、ターゲット101を検出し、追跡することが可能なモバイルデバイス100のブロック図である。モバイルデバイス100は、たとえば、ビデオフレームとして、ターゲット101の画像をキャプチャするカメラ108と、慣性センサー110とを含む。慣性センサー110は、たとえば、加速度計、ジャイロスコープなどでもよい。モバイルデバイス100は、ディスプレイ102、およびキーパッド122、またはユーザが情報をモバイルデバイス100に入力することのできる他の入力デバイスを含む、ユーザインターフェース120を含み得る。ユーザインターフェース120は、たとえばモバイルデバイスがセルラー電話などである場合、スピーカ104およびマイクロフォン106を含むこともできる。もちろん、モバイルデバイス100は、本開示に無関係の他の要素を含み得る。
モバイルデバイス100は、カメラ108および慣性センサー110に接続され、カメラ108および慣性センサー110と通信する制御ユニット150も含む。制御ユニット150は、バス150b、プロセッサ152および関連するメモリ154によって提供され得、ハードウェア156、ソフトウェア158、ならびにファームウェア160を含み得る。制御ユニット150は、慣性センサー110によってキャプチャされる画像を使用して、ターゲットに対する、カメラ108、およびしたがってモバイルデバイス100のポーズを決定するビジョンベースポーズモジュール112を含み得る。制御ユニット150は、慣性センサー110からサンプリングされる信号に基づいて、モバイルデバイスのポーズの変化を決定するINSモジュール114をさらに含み得る。INSモジュール114は、慣性センサーからの決定されたポーズの変化、およびビジョンベースポーズモジュール112からのモバイルデバイスの以前決定されたポーズを使用して、ターゲットに対するモバイルデバイスのポーズを決定することができる。制御ユニット150は、ビジョンベースポーズモジュール112からのポーズおよびINSモジュール114からのポーズ(またはポーズの変化)を結合するVINSモジュール116をさらに含む。制御ユニット150は、上記で説明したようにターゲットが移動しているかどうかを検出するターゲット動き検出モジュール162をさらに含む。
たとえば、ビジョンベースポーズモジュール112、INSモジュール114、VINSモジュール116、およびターゲット動き検出モジュール162など様々な処理ユニットは、明快のために、互いとは別に、およびプロセッサ152とは別に示されているが、一緒に結合されてもよく、たとえば、INSモジュール114は、VINSモジュール116の一部、および/もしくはプロセッサ152の一部でもよく、またはプロセッサ152において稼働されるソフトウェア158における命令に基づいて、プロセッサで実装され得る。本明細書で使用する場合、プロセッサ152および/または様々な処理ユニットは、1つまたは複数のマイクロプロセッサ、組込み型プロセッサ、コントローラ、特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)などを含み得るが、必ずしもそれらを含む必要はないことが理解されよう。プロセッサという用語は、特定のハードウェアではなく、システムによって実施される機能について説明するものである。さらに、本明細書で使用する場合、「メモリ」という用語は、モバイルデバイスに関連する長期メモリ、短期メモリ、または他のメモリを含む、任意のタイプのコンピュータ記憶媒体を指し、任意の特定のタイプのメモリもしくは任意の特定の数のメモリ、またはメモリが記憶される媒体のタイプに限定されない。
本明細書に記載された方法は、用途に応じて様々な手段によって実施され得る。たとえば、これらの方法は、ハードウェア156、ファームウェア160、ソフトウェア158、またはそれらの任意の組合せで実施されてもよい。ハードウェアの実装形態の場合、処理ユニットは、本明細書に記載された機能を実行するように設計された、1つもしくは複数の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタル信号プロセッシングデバイス(DSPD)、プログラマブル論理デバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、電子デバイス、他の電子ユニット、またはそれらの組合せ内で実装されてもよい。
ファームウェアおよび/またはソフトウェアの実装形態の場合、これらの方法を、本明細書に記載された機能を実行するモジュール(たとえば、プロシージャ、関数など)で実装することができる。本明細書に記載された方法を実装する際に、命令を有形に具現化する任意の機械可読媒体を使用することができる。たとえば、ソフトウェアコードは、メモリ154に記憶され、プロセッサ152によって実行され得る。メモリは、プロセッサ152内に、またはプロセッサ152の外部に実装され得る。ファームウェアおよび/またはソフトウェアで実装された場合、これらの関数は、コンピュータ可読媒体上に1つもしくは複数の命令またはコードとして格納され得る。例には、データ構造で符号化された非一時的なコンピュータ可読媒体、およびコンピュータプログラムで符号化されたコンピュータ可読媒体が含まれる。コンピュータ可読媒体には、物理的コンピュータ記憶媒体が含まれる。記憶媒体は、コンピュータによってアクセスされ得る任意の入手可能な媒体であり得る。限定ではなく、例として、そのようなコンピュータ可読媒体は、RAM、ROM、EEPROM、CD-ROMもしくは他の光ディスクストレージ、磁気ディスクストレージもしくは他の磁気ストレージデバイス、または所望のプログラムコードを命令もしくはデータ構造の形で記憶するために使用されコンピュータによってアクセスされ得る任意の他の媒体を含むことができ、本明細書で使用するディスク(diskおよびdisc)には、コンパクトディスク(disc)(CD)、レーザディスク(登録商標)(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)、およびブルーレイディスク(disc)が含まれ、ディスク(disk)は通常、データを磁気的に再生するが、ディスク(disc)はデータをレーザによって光学的に再生する。上記の組合せもコンピュータ可読媒体の範囲の中に含まれるべきである。
一実装形態では、モバイルデバイスは、慣性センサー測定値からの寄与、およびビジョンベースの測定値からの寄与を使用して、カメラとターゲットとの間の相対的ポーズを追跡するための手段を含み、これは、たとえば、VINSモジュール116またはプロセッサ152でもよい。モバイルデバイスは、ターゲットの動きを検出するための手段をさらに含み得、これは、ターゲット動き検出モジュール162またはプロセッサ152でもよい。モバイルデバイスは、ターゲットの動きが検出されると、カメラとターゲットとの間の相対的ポーズを追跡するために、慣性センサー測定値からの寄与を低減するための手段をさらに含み得、これは、VINSモジュール116、ビジョンベースポーズモジュール112、またはプロセッサ152でもよい。加えて、ターゲットの動きを検出するための手段は、たとえばビジョンベースポーズモジュール112またはプロセッサ152でもよい、ターゲットに対するカメラのビジョンベースのポーズの少なくとも一部を決定するための手段と、INSモジュール114またはプロセッサ152でもよい、慣性センサー測定値に基づいてカメラの慣性ベースのポーズの少なくとも一部の変化を決定するための手段と、たとえばターゲット動き検出モジュール162またはプロセッサ152でもよい、ビジョンベースポーズの少なくとも一部、および慣性ベースのポーズの少なくとも一部の変化を使用して、ターゲットの動きを検出するための手段とを含み得る。モバイルデバイスは、ターゲットの動きを検出する前に、カメラが静止していることを決定するための手段をさらに含み得、これは、たとえば、慣性センサー110、INSモジュール114、またはプロセッサ152でもよい。さらに、ターゲットの動きを検出するための手段は、慣性センサー測定値に基づいて特徴ベクトルの投影を使用するための手段を含み得、これは、たとえば、ビジョンベースポーズモジュール112、INSモジュール114、ターゲット動き検出モジュール162、またはプロセッサ152でもよい。
説明のために本発明を特定の実施形態に関連して示したが、本発明はそれらに限定されない。本発明の範囲から逸脱することなく様々な適合および改変を行うことができる。したがって、添付の特許請求の範囲における趣旨および範囲は、上記の説明に限定されるべきではない。
100 モバイルデバイス
101 ターゲット
102 ディスプレイ
104 スピーカ
106 マイクロフォン
108 カメラ
110 慣性センサー
112 ビジョンベースポーズモジュール
114 慣性センサーシステム(INS)モジュール
116 VINSモジュール
120 ユーザインターフェース
122 キーパッド
150 制御ユニット
150b バス
152 プロセッサ
154 メモリ
156 ハードウェア
158 ソフトウェア
160 ファームウェア
162 ターゲット動き検出モジュール

Claims (28)

  1. 慣性センサー測定値からの寄与およびビジョンベースの測定値からの寄与を使用して、カメラとターゲットとの間の相対的ポーズを追跡するステップと、
    前記ターゲットの動きを検出するステップと、
    前記ターゲットの動きが検出されると、前記カメラと前記ターゲットとの間の前記相対的ポーズを追跡するために、前記慣性センサー測定値からの前記寄与を低減するステップと
    を含む方法。
  2. 前記慣性センサー測定値からの前記寄与を低減するステップが、前記慣性センサー測定値からの前記寄与を除去するステップを含み、前記ターゲットの前記動きが検出されると、前記カメラと前記ターゲットとの間の前記相対的ポーズが、ビジョンベースの測定値のみを使用して追跡される、請求項1に記載の方法。
  3. 前記ターゲットの動きを検出するステップが、
    前記ターゲットに対する前記カメラのビジョンベースのポーズの少なくとも一部を決定するステップと、
    前記カメラの慣性ベースのポーズの少なくとも一部の変化を慣性センサー測定値に基づいて決定するステップと、
    前記ビジョンベースのポーズの前記少なくとも前記一部、および、前記慣性ベースのポーズの前記少なくとも前記一部の前記変化を使用して、前記ターゲットの動きを検出するステップと
    を含む、請求項1に記載の方法。
  4. 前記ビジョンベースのポーズの前記少なくとも前記一部が、ビジョンベースの姿勢を含み、
    前記慣性ベースのポーズの前記少なくとも前記一部の前記変化が、慣性ベースの姿勢の変化を含み、
    前記ビジョンベースのポーズの前記少なくとも前記一部、および、前記慣性ベースのポーズの前記少なくとも前記一部の前記変化を使用するステップが、前記ビジョンベースの姿勢、および、前記慣性ベースの姿勢の前記変化を使用して、前記ターゲットの前記動きを検出するステップを含む
    請求項3に記載の方法。
  5. 前記ビジョンベースのポーズの前記少なくとも前記一部の変化を決定するステップ
    をさらに含み、
    前記ビジョンベースのポーズの前記少なくとも前記一部、および、前記慣性ベースのポーズの前記少なくとも前記一部の前記変化を使用するステップが、
    前記慣性ベースのポーズの前記少なくとも前記一部の前記変化と、前記ビジョンベースのポーズの前記少なくとも前記一部の前記変化との間の差を決定するステップと、
    前記差をしきい値と比較して、前記ターゲットが移動したと決定するステップと
    を含む、請求項3に記載の方法。
  6. 慣性ベースのポーズの少なくとも一部の前記変化を使用して、前記慣性ベースのポーズの前記少なくとも一部を決定するステップ
    をさらに含み、
    前記ビジョンベースのポーズの前記少なくとも前記一部、および、前記慣性ベースのポーズの前記少なくとも前記一部の前記変化を使用するステップが、
    前記ビジョンベースのポーズの前記少なくとも前記一部と、前記慣性ベースのポーズの前記少なくとも前記一部との間の差を決定するステップと、
    前記差をしきい値と比較して、前記ターゲットが移動したと決定するステップと
    を含む、請求項3に記載の方法。
  7. 前記ターゲットの前記動きを検出する前に前記カメラが静止していると決定するステップをさらに含む請求項1に記載の方法。
  8. 前記ターゲットの動きを検出するステップが、前記慣性センサー測定値に基づく特徴ベクトルの投影を使用するステップを含む、請求項1に記載の方法。
  9. キャプチャされた画像から特徴を抽出するステップと、
    前記慣性センサー測定値に基づいて特徴ベクトルの前記投影を予測するステップと、
    特徴ベクトルの前記投影を、キャプチャされた画像から抽出された抽出特徴ベクトルと比較して、差を決定するステップと、
    前記差をしきい値と比較して、前記ターゲットが移動したと決定するステップと
    をさらに含む、請求項8に記載の方法。
  10. ターゲットの画像をキャプチャすることが可能なカメラと、
    慣性センサーと、
    前記ターゲットのキャプチャされた画像を受信するために結合され、前記慣性センサーから信号を受信するために結合されたプロセッサであり、前記ターゲットの前記キャプチャされた画像を使用してビジョンベースの測定値、および、前記慣性センサーからの前記信号を使用して慣性センサー測定値を生成するように構成され、前記慣性センサー測定値からの寄与、および、前記ビジョンベースの測定値からの寄与を使用して前記カメラと前記ターゲットとの間の相対的ポーズを追跡するように構成され、前記ターゲットの動きを検出し、前記ターゲットの動きが検出されると、前記カメラと前記ターゲットとの間の前記相対的ポーズを追跡するために、前記慣性センサー測定値からの前記寄与を低減するようにさらに構成される、プロセッサと
    を含むモバイルデバイス。
  11. 前記プロセッサが、前記慣性センサー測定値からの前記寄与を除去するように構成されることによって、前記慣性センサー測定値からの前記寄与を低減するように構成され、前記ターゲットの前記動きが検出されると、前記ビジョンベースの測定値のみを使用して、前記カメラと前記ターゲットとの間の前記相対的ポーズを追跡するように構成される、請求項10に記載のモバイルデバイス。
  12. 前記プロセッサが、
    前記ターゲットに対する前記カメラのビジョンベースのポーズの少なくとも一部を決定し、
    前記カメラの慣性ベースのポーズの少なくとも一部の変化を慣性センサー測定値に基づいて決定し、
    前記ビジョンベースのポーズの前記少なくとも前記一部、および、前記慣性ベースのポーズの前記少なくとも前記一部の前記変化を使用して、前記ターゲットの動きを検出する
    ように構成されることによって、前記ターゲットの動きを検出するように構成される、請求項10に記載のモバイルデバイス。
  13. 前記ビジョンベースのポーズの前記少なくとも前記一部が、ビジョンベースの姿勢を含み、
    前記慣性ベースのポーズの前記少なくとも前記一部の前記変化が、慣性ベースの姿勢の変化を含み、
    前記プロセッサが、前記ビジョンベースの姿勢、および、前記慣性ベースの姿勢の前記変化を使用して、前記ターゲットの前記動きを検出するように構成されることによって、前記ビジョンベースのポーズの前記少なくとも前記一部、および、前記慣性ベースのポーズの前記少なくとも前記一部の前記変化を使用するように構成される
    請求項12に記載のモバイルデバイス。
  14. 前記プロセッサが、前記ビジョンベースのポーズの前記少なくとも前記一部の変化を決定するようにさらに構成され、
    前記慣性ベースのポーズの前記少なくとも前記一部の前記変化と、前記ビジョンベースのポーズの前記少なくとも前記一部の前記変化との間の差を決定し、
    前記差をしきい値と比較して、前記ターゲットが移動したと決定する
    ように構成されることによって、前記ビジョンベースのポーズの前記少なくとも前記一部、および、前記慣性ベースのポーズの前記少なくとも前記一部の前記変化を使用するように構成される、請求項12に記載のモバイルデバイス。
  15. 前記プロセッサが、慣性ベースのポーズの少なくとも一部の前記変化を使用して、前記慣性ベースのポーズの前記少なくとも前記一部を決定するようにさらに構成され、
    前記ビジョンベースのポーズの前記少なくとも前記一部と、前記慣性ベースのポーズの前記少なくとも前記一部との間の差を決定し、
    前記差をしきい値と比較して、前記ターゲットが移動したと決定する
    ように構成されることによって、前記ビジョンベースのポーズの前記少なくとも前記一部、および、前記慣性ベースのポーズの前記少なくとも前記一部の前記変化を使用するように構成される、請求項12に記載のモバイルデバイス。
  16. 前記プロセッサが、前記ターゲットの前記動きを検出する前に前記カメラが静止していると決定するようにさらに構成される、請求項10に記載のモバイルデバイス。
  17. 前記プロセッサが、前記慣性センサー測定値に基づいて特徴ベクトルの投影を使用するように構成されることによって、前記ターゲットの動きを検出するように構成される、請求項10に記載のモバイルデバイス。
  18. 前記プロセッサが、
    前記キャプチャされた画像から特徴を抽出し、
    前記慣性センサー測定値に基づいて特徴ベクトルの前記投影を予測し、
    特徴ベクトルの前記投影を、キャプチャされた画像から抽出された抽出特徴ベクトルと比較して、差を決定し、
    前記差をしきい値と比較して、前記ターゲットが移動したと決定する
    ようにさらに構成される、請求項17に記載のモバイルデバイス。
  19. 慣性センサー測定値からの寄与およびビジョンベースの測定値からの寄与を使用して、カメラとターゲットとの間の相対的ポーズを追跡するための手段と、
    前記ターゲットの動きを検出するための手段と、
    前記ターゲットの動きが検出されると、前記カメラと前記ターゲットとの間の前記相対的ポーズを追跡するために、前記慣性センサー測定値からの前記寄与を低減するための手段と
    を含むモバイルデバイス。
  20. 前記慣性センサー測定値からの前記寄与を低減するための前記手段が、前記慣性センサー測定値からの前記寄与を除去する、請求項19に記載のモバイルデバイス。
  21. 前記ターゲットの動きを検出するための前記手段が、
    前記ターゲットに対する前記カメラのビジョンベースのポーズの少なくとも一部を決定するための手段と、
    前記カメラの慣性ベースのポーズの少なくとも一部の変化を慣性センサー測定値に基づいて決定するための手段と、
    前記ビジョンベースのポーズの前記少なくとも前記一部、および、前記慣性ベースのポーズの前記少なくとも前記一部の前記変化を使用して、前記ターゲットの動きを検出するための手段と
    を含む、請求項19に記載のモバイルデバイス。
  22. 前記ターゲットの前記動きを検出する前に前記カメラが静止していると決定するための手段をさらに含む請求項19に記載のモバイルデバイス。
  23. 前記ターゲットの動きを検出するための前記手段が、前記慣性センサー測定値に基づいて特徴ベクトルの投影を使用するための手段を含む、請求項19に記載のモバイルデバイス。
  24. プログラムコードを記憶した非一時的コンピュータ可読記録媒体であって、
    慣性センサー測定値からの寄与およびビジョンベースの測定値からの寄与を使用して、カメラとターゲットとの間の相対的ポーズを追跡するためのプログラムコードと、
    前記ターゲットの動きを検出するためのプログラムコードと、
    前記ターゲットの動きが検出されると、前記カメラと前記ターゲットとの間の前記相対的ポーズを追跡するために、前記慣性センサー測定値からの前記寄与を低減するためのプログラムコードと
    を含む、非一時的コンピュータ可読記録媒体。
  25. 前記慣性センサー測定値からの前記寄与を低減するための前記プログラムコードが、前記慣性センサー測定値からの前記寄与を除去する、請求項24に記載の非一時的コンピュータ可読記録媒体。
  26. 前記ターゲットの動きを検出するための前記プログラムコードが、
    前記ターゲットに対する前記カメラのビジョンベースのポーズの少なくとも一部を決定するためのプログラムコードと、
    前記カメラの慣性ベースのポーズの少なくとも一部の変化を慣性センサー測定値に基づいて決定するためのプログラムコードと、
    前記ビジョンベースのポーズの前記少なくとも前記一部、および、前記慣性ベースのポーズの前記少なくとも前記一部の前記変化を使用して、前記ターゲットの動きを検出するためのプログラムコードと
    を含む、請求項24に記載の非一時的コンピュータ可読記録媒体。
  27. 前記ターゲットの前記動きを検出する前に前記カメラが静止していると決定するためのプログラムコードをさらに含む請求項24に記載の非一時的コンピュータ可読記録媒体。
  28. 前記ターゲットの動きを検出するための前記プログラムコードが、前記慣性センサー測定値に基づいて特徴ベクトルの投影を使用するためのプログラムコードを含む、請求項24に記載の非一時的コンピュータ可読記録媒体。
JP2015517335A 2012-06-14 2013-06-10 ビジョン支援慣性カメラポーズ推定とビジョンベースのみのカメラポーズ推定との間の適応的な切替え Active JP6140278B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/523,634 US9123135B2 (en) 2012-06-14 2012-06-14 Adaptive switching between vision aided INS and vision only pose
US13/523,634 2012-06-14
PCT/US2013/045012 WO2013188308A1 (en) 2012-06-14 2013-06-10 Adaptive switching between a vision aided intertial camera pose estimation and a vision based only camera pose estimation

Publications (3)

Publication Number Publication Date
JP2015528936A true JP2015528936A (ja) 2015-10-01
JP2015528936A5 JP2015528936A5 (ja) 2016-07-14
JP6140278B2 JP6140278B2 (ja) 2017-05-31

Family

ID=48670855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015517335A Active JP6140278B2 (ja) 2012-06-14 2013-06-10 ビジョン支援慣性カメラポーズ推定とビジョンベースのみのカメラポーズ推定との間の適応的な切替え

Country Status (9)

Country Link
US (1) US9123135B2 (ja)
EP (1) EP2862146B1 (ja)
JP (1) JP6140278B2 (ja)
KR (1) KR102029896B1 (ja)
CN (1) CN104364823B (ja)
ES (1) ES2883277T3 (ja)
IN (1) IN2014MN02390A (ja)
TW (1) TWI518640B (ja)
WO (1) WO2013188308A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019155840A1 (ja) * 2018-02-07 2019-08-15 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9766074B2 (en) 2008-03-28 2017-09-19 Regents Of The University Of Minnesota Vision-aided inertial navigation
US9159133B2 (en) * 2012-11-05 2015-10-13 Qualcomm Incorporated Adaptive scale and/or gravity estimation
US9243916B2 (en) 2013-02-21 2016-01-26 Regents Of The University Of Minnesota Observability-constrained vision-aided inertial navigation
US9367811B2 (en) * 2013-03-15 2016-06-14 Qualcomm Incorporated Context aware localization, mapping, and tracking
US9607401B2 (en) 2013-05-08 2017-03-28 Regents Of The University Of Minnesota Constrained key frame localization and mapping for vision-aided inertial navigation
US10055009B2 (en) * 2014-05-30 2018-08-21 Apple Inc. Dynamic display refresh rate based on device motion
US10012504B2 (en) * 2014-06-19 2018-07-03 Regents Of The University Of Minnesota Efficient vision-aided inertial navigation using a rolling-shutter camera with inaccurate timestamps
US9658070B2 (en) 2014-07-11 2017-05-23 Regents Of The University Of Minnesota Inverse sliding-window filters for vision-aided inertial navigation systems
TWI524758B (zh) 2014-12-09 2016-03-01 財團法人工業技術研究院 電子裝置及其漸增式姿態估算及攝影方法
US9984301B2 (en) * 2015-04-20 2018-05-29 Qualcomm Incorporated Non-matching feature-based visual motion estimation for pose determination
KR102462799B1 (ko) * 2015-11-05 2022-11-03 삼성전자주식회사 자세 추정 방법 및 자세 추정 장치
US10203209B2 (en) 2016-05-25 2019-02-12 Regents Of The University Of Minnesota Resource-aware large-scale cooperative 3D mapping using multiple mobile devices
US11466990B2 (en) 2016-07-22 2022-10-11 Regents Of The University Of Minnesota Square-root multi-state constraint Kalman filter for vision-aided inertial navigation system
JP6601352B2 (ja) * 2016-09-15 2019-11-06 株式会社デンソー 車両姿勢推定装置
US10503245B2 (en) 2016-09-21 2019-12-10 Apple Inc. Relative intertial measurement system
CN106550188B (zh) * 2016-10-13 2019-04-02 中国科学院上海技术物理研究所 一种基于惯导信息的长线列红外电子稳像方法
TWI601099B (zh) * 2016-11-16 2017-10-01 Chunghwa Telecom Co Ltd Camera attitude estimation method
US10510160B2 (en) * 2016-12-20 2019-12-17 Samsung Electronics Co., Ltd. Multiscale weighted matching and sensor fusion for dynamic vision sensor tracking
CN106851050B (zh) * 2017-03-13 2020-04-24 Oppo广东移动通信有限公司 运动检测方法和装置、移动设备
US10529074B2 (en) * 2017-09-28 2020-01-07 Samsung Electronics Co., Ltd. Camera pose and plane estimation using active markers and a dynamic vision sensor
US10839547B2 (en) * 2017-09-28 2020-11-17 Samsung Electronics Co., Ltd. Camera pose determination and tracking
GB2567012B (en) * 2017-10-02 2021-05-12 Advanced Risc Mach Ltd Motion Sensing
US10907971B2 (en) 2017-12-08 2021-02-02 Regents Of The University Of Minnesota Square root inverse Schmidt-Kalman filters for vision-aided inertial navigation and mapping
US11940277B2 (en) 2018-05-29 2024-03-26 Regents Of The University Of Minnesota Vision-aided inertial navigation system for ground vehicle localization
CN109598688A (zh) * 2018-12-06 2019-04-09 联想(北京)有限公司 一种处理方法及电子设备
CN111371982B (zh) * 2018-12-25 2021-11-30 北京初速度科技有限公司 一种数据同步方法及处理器、车载终端
US10955245B2 (en) 2019-04-30 2021-03-23 Samsung Electronics Co., Ltd. System and method for low latency, high performance pose fusion
US11776153B2 (en) * 2019-10-08 2023-10-03 Zebra Technologies Corporation Method, system and apparatus for mobile dimensioning
CN112272757A (zh) * 2019-11-22 2021-01-26 深圳市大疆创新科技有限公司 一种探测装置的外参数标定方法、装置及可移动平台
CN113074726A (zh) * 2021-03-16 2021-07-06 深圳市慧鲤科技有限公司 位姿确定方法及装置、电子设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003281504A (ja) * 2002-03-22 2003-10-03 Canon Inc 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム
JP2005033319A (ja) * 2003-07-08 2005-02-03 Canon Inc 位置姿勢計測方法及び装置
JP2006503379A (ja) * 2002-10-15 2006-01-26 ユニバーシティ・オブ・サザン・カリフォルニア 拡張仮想環境
JP2007327938A (ja) * 2006-05-10 2007-12-20 Topcon Corp 画像処理装置及びその処理方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6064749A (en) * 1996-08-02 2000-05-16 Hirota; Gentaro Hybrid tracking for augmented reality using both camera motion detection and landmark tracking
WO2004059900A2 (en) 2002-12-17 2004-07-15 Evolution Robotics, Inc. Systems and methods for visual simultaneous localization and mapping
US20100013917A1 (en) * 2003-08-12 2010-01-21 Keith Hanna Method and system for performing surveillance
US7650016B2 (en) * 2004-07-30 2010-01-19 Lockheed Martin Corporation System and method for tracking motion of an object image
US20070070069A1 (en) 2005-09-26 2007-03-29 Supun Samarasekera System and method for enhanced situation awareness and visualization of environments
US8059887B2 (en) * 2006-09-25 2011-11-15 Sri International System and method for providing mobile range sensing
CN100543775C (zh) * 2007-07-26 2009-09-23 上海交通大学 基于多目相机的三维人体运动跟踪的方法
US8229163B2 (en) 2007-08-22 2012-07-24 American Gnc Corporation 4D GIS based virtual reality for moving target prediction
US20090110267A1 (en) 2007-09-21 2009-04-30 The Regents Of The University Of California Automated texture mapping system for 3D models
US8374388B2 (en) * 2007-12-28 2013-02-12 Rustam Stolkin Real-time tracking of non-rigid objects in image sequences for which the background may be changing
US9766074B2 (en) 2008-03-28 2017-09-19 Regents Of The University Of Minnesota Vision-aided inertial navigation
US8731239B2 (en) * 2009-12-09 2014-05-20 Disney Enterprises, Inc. Systems and methods for tracking objects under occlusion
TWI393074B (zh) * 2009-12-10 2013-04-11 Ind Tech Res Inst 移動物體偵測裝置與方法
US8335348B2 (en) * 2009-12-14 2012-12-18 Indian Institute Of Technology Bombay Visual object tracking with scale and orientation adaptation
US8494225B2 (en) 2010-02-19 2013-07-23 Julian L. Center Navigation method and aparatus
JP5455124B2 (ja) * 2010-04-01 2014-03-26 国立大学法人鳥取大学 カメラ姿勢パラメータ推定装置
US8531504B2 (en) 2010-06-11 2013-09-10 Intel Corporation System and method for 3D video stabilization by fusing orientation sensor readings and image alignment estimates
JP5738569B2 (ja) 2010-10-15 2015-06-24 任天堂株式会社 画像処理プログラム、装置、システムおよび方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003281504A (ja) * 2002-03-22 2003-10-03 Canon Inc 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム
JP2006503379A (ja) * 2002-10-15 2006-01-26 ユニバーシティ・オブ・サザン・カリフォルニア 拡張仮想環境
JP2005033319A (ja) * 2003-07-08 2005-02-03 Canon Inc 位置姿勢計測方法及び装置
JP2007327938A (ja) * 2006-05-10 2007-12-20 Topcon Corp 画像処理装置及びその処理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019155840A1 (ja) * 2018-02-07 2019-08-15 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US11443540B2 (en) 2018-02-07 2022-09-13 Sony Corporation Information processing apparatus and information processing method

Also Published As

Publication number Publication date
IN2014MN02390A (ja) 2015-08-21
CN104364823A (zh) 2015-02-18
WO2013188308A1 (en) 2013-12-19
EP2862146B1 (en) 2021-07-14
KR102029896B1 (ko) 2019-10-08
US20130335562A1 (en) 2013-12-19
ES2883277T3 (es) 2021-12-07
KR20150023720A (ko) 2015-03-05
EP2862146A1 (en) 2015-04-22
CN104364823B (zh) 2017-07-18
TW201411555A (zh) 2014-03-16
US9123135B2 (en) 2015-09-01
TWI518640B (zh) 2016-01-21
JP6140278B2 (ja) 2017-05-31

Similar Documents

Publication Publication Date Title
JP6140278B2 (ja) ビジョン支援慣性カメラポーズ推定とビジョンベースのみのカメラポーズ推定との間の適応的な切替え
JP6043856B2 (ja) Rgbdカメラを用いた頭部ポーズ推定
US9116001B2 (en) Adaptive estimation of frame time stamp latency
JP6374107B2 (ja) アイトラッキングシステムのための改良されたキャリブレーション
US9854171B2 (en) Image stabilizing apparatus and method based on a predicted movement position
US10848672B2 (en) Image stabilizing method and apparatus
EP3117400B1 (en) Sensor-based camera motion detection for unconstrained slam
US20130107066A1 (en) Sensor aided video stabilization
JP6215337B2 (ja) 適応型スケールおよび/または重力推定
JP5774226B2 (ja) 方位センサに基づくホモグラフィ分解の曖昧性の解決
JP2016514251A (ja) カメラ補助による動き方向および速度推定
US20140029837A1 (en) Inertial sensor aided instant autofocus
KR101885839B1 (ko) 객체추적을 위한 특징점 선별 장치 및 방법
WO2014175356A1 (ja) 情報処理システム、情報処理方法及びプログラム
US20130107064A1 (en) Sensor aided image stabilization
JP2016500890A (ja) 並列化可能なアーキテクチャ内の画像を使用して、サーフェルの局所的なジオメトリまたは面法線を初期化し、解くための方法
Areekath et al. Sensor assisted motion estimation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160523

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170428

R150 Certificate of patent or registration of utility model

Ref document number: 6140278

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250