JP6503070B2 - 携帯型デバイスの位置を決定するための方法 - Google Patents

携帯型デバイスの位置を決定するための方法 Download PDF

Info

Publication number
JP6503070B2
JP6503070B2 JP2017534811A JP2017534811A JP6503070B2 JP 6503070 B2 JP6503070 B2 JP 6503070B2 JP 2017534811 A JP2017534811 A JP 2017534811A JP 2017534811 A JP2017534811 A JP 2017534811A JP 6503070 B2 JP6503070 B2 JP 6503070B2
Authority
JP
Japan
Prior art keywords
portable device
frame rate
image
determining
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2017534811A
Other languages
English (en)
Other versions
JP2018513433A (ja
Inventor
ロイメラ キンモ
ロイメラ キンモ
ファン リキシン
ファン リキシン
Original Assignee
ノキア テクノロジーズ オサケユイチア
ノキア テクノロジーズ オサケユイチア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ノキア テクノロジーズ オサケユイチア, ノキア テクノロジーズ オサケユイチア filed Critical ノキア テクノロジーズ オサケユイチア
Publication of JP2018513433A publication Critical patent/JP2018513433A/ja
Application granted granted Critical
Publication of JP6503070B2 publication Critical patent/JP6503070B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Description

いくつかのバージョンは、ディスプレイおよびカメラを備えた携帯型デバイスの位置の決定に関する。
携帯型デバイスは、ディスプレイおよびカメラを備えることができる。ポイント・クラウドが、デバイスの環境を表現することができる。カメラにより捕捉される画像フレームは、複数の視覚的特徴を含むことができる。携帯型デバイスの位置は、視覚的特徴とポイント・クラウドを比較することによって決定可能である。携帯型デバイスは、例えば拡張現実の応用分野において使用することができる。
いくつかのバージョンは、携帯型デバイスの位置を決定するための方法に関するものであることができる。いくつかのバージョンは、携帯型デバイスに関するものであることができる。いくつかのバージョンは、携帯型デバイスの位置を決定するためのコンピュータ・プログラムに関するものであることができる。いくつかのバージョンは、携帯型デバイスの位置を決定するためのコンピュータ・プログラム・プロダクトに関するものであることができる。いくつかのバージョンは、携帯型デバイスのディスプレイ上に情報を表示するための方法に関するものであることができる。いくつかのバージョンは、ユーザー・インターフェースに関するものであることができる。
ある態様によると、
− 携帯型デバイスのカメラから捕捉された画像フレームのシーケンスを取得するステップと、
− 携帯型デバイスの慣性センサーを使用することにより運動データを取得するステップと、
− 運動データにしたがってサンプリング・フレーム・レートを決定するステップと、
− サンプリング・フレーム・レートにしたがって捕捉された画像フレームから追跡画像を選択するステップと、
− 追跡画像をポイント・クラウドと比較することにより、携帯型デバイスの位置を決定するステップと、
− 決定された位置に基づいてデバイスのディスプレイ上に情報を表示するステップと、
を含む方法が提供されている。
ある態様によると、
− ディスプレイと、
− 画像フレーム・シーケンスを捕捉するように整えられたカメラと、
− 運動データを提供するための慣性センサーと、
− 運動データにしたがってサンプリング・フレーム・レートを決定し、追跡画像とポイント・クラウドを比較することによって携帯型デバイスの位置を決定し、決定された位置に基づいたディスプレイ上の情報の表示を制御するための制御ユニットと、
を備えた、携帯型デバイスが提供されている。
ある態様によると、少なくとも1つのプロセッサ上で実行された場合、装置またはシステムに、
− 携帯型デバイスのカメラから捕捉された画像フレームのシーケンスを取得させ、
− 携帯型デバイスの慣性センサーから運動データを取得させ、
− 運動データにしたがってサンプリング・フレーム・レートを決定させ、
− サンプリング・フレーム・レートにしたがって捕捉された画像フレームから追跡画像を選択させ、
− 追跡画像をポイント・クラウドと比較することにより、携帯型デバイスの位置を決定させ、
− 決定された位置に基づいてデバイスのディスプレイ上に情報を表示させる、
ように構成されたコンピュータ・プログラム・コードを含むコンピュータ・プログラムが提供されている。
ある態様によると、情報を表示するための手段において、
− 携帯型デバイスのカメラから捕捉された画像フレームのシーケンスを取得するための手段と、
− 携帯型デバイスの慣性センサーから運動データを取得するための手段と、
− 運動データにしたがってサンプリング・フレーム・レートを決定するための手段と、
− サンプリング・フレーム・レートにしたがって捕捉された画像フレームから追跡画像を選択するための手段と、
− 追跡画像をポイント・クラウドと比較することにより、携帯型デバイスの位置を決定するための手段と、
− 決定された位置に基づいてデバイスのディスプレイ上に情報を表示するための手段と、
を含む、手段が提供されている。
携帯型デバイスの位置は、外部オブジェクトの画像を捕捉し、前記外部オブジェクトを表わすポイント・クラウドとこの画像を比較することによって測定することができる。しかしながら、前記比較には、多数の追跡計算が関与する可能性があり、このことで今度は携帯型デバイスのバッテリからの電気エネルギーが消費される可能性がある。
例えば追跡された画像が有意に変化しない場合および/または視覚的追跡が失敗する確率が高い場合、視覚的追跡計算の数を削減するために、モーション・センサーから得たモーション・センサー・データを使用することができる。視覚的追跡計算の数を削減すると、デバイスの電力消費を削減することができる。
携帯型デバイスは、バッテリにより電力供給を受けることができる。平均電力消費量を削減することで、バッテリのサイズの縮小を可能にすることができる。電力消費量を削減することによって、一回の再充電による携帯型デバイスの動作時間を延長させることができる。電力消費量を削減することで、電池式拡張現実デバイスの利用時間を著しく延長することができる。平均電力消費量の削減により、携帯型デバイスのバッテリの無線再充電を容易にすることができる。
視覚的追跡計算のためのフレーム・レートは、ポイント・クラウドとの画像フレームの比較から緩慢な変化が標示された場合に、低減する可能性がある。この場合、位置の小さな変化を決定するために、モーション・センサー・データを使用することができる。
例えば、連続する画像間の差が小さい場合、視覚的追跡計算のフレーム・レートを削減することができる。この場合、携帯型デバイスの位置の小さな変化を、モーション・センサー・データを使用することによって決定することができる。
カメラの運動に起因して過度にぼけていない特徴のみを使用することにより、特徴マッチングを行なうことができる。
視覚的追跡品質を監視するためには、視覚的品質査定方法を任意に使用することができる。視覚的追跡品質が一定の閾値より高く維持されているかぎり、画像解析のためのフレーム・レートを低減させることができる。視覚的追跡品質が過度に低い場合、画像解析のためのフレーム・レートを増大させることができる。
以下の実施例においては、添付図面を参照しながら、いくつかの変形形態についてより詳しく説明する。
例として、環境内の携帯型デバイスを示す。 例として、環境内のヘッド・マウント型デバイスを示す。 例として、携帯型デバイスの機能的ユニットを示す。 携帯型デバイスのカメラにより捕捉されたビデオ・シーケンスの画像フレームからの追跡画像のサンプリングを示す。 例として、携帯型デバイスのカメラにより捕捉された画像フレームからの追跡画像の選択を示す。 例として、追跡画像の視覚的特徴をポイント・クラウドと比較することによる携帯型デバイスの位置の決定を示す。 例として、ポイント・クラウドのサブセットに対するポイントの選択を示す。 例として、追跡画像を選択するためおよび携帯型デバイスの位置を決定するための方法ステップを示す。 例として、追跡画像を選択するため、ポイント・クラウドのサブセットを形成するため、および携帯型デバイスの位置を決定するための方法ステップを示す。 例として、追跡画像を選択するため、ポイント・クラウドのサブセットを形成するため、および携帯型デバイスの位置を外挿するための方法ステップを示す。 例として、追跡のロバスト性を監視するための方法ステップを示す。 例として、通信システムを示す。 例として、携帯型デバイスを示す。
図1aを参照すると、携帯型デバイス500を移動させて、環境ENV1内で使用することができる。環境ENV1は、1つ以上の実オブジェクトOBJ1、OBJ2、OBJ3、OBJ4を含むことができる。オブジェクトは視覚的特徴F1、F2を含むことができる。デバイス500は、視覚的特徴F1、F2の画像を捕捉するように整えることのできるカメラCAM1を備えることができる。デバイス500は、外部オブジェクトの画像を捕捉するためのカメラCAM1を備えることができる。視覚的特徴F1、F2をポイント・クラウドPCと比較することによってデバイス500の位置POSを決定するように、デバイス500を整えることができる。ポイント・クラウドPCは、環境のオブジェクトOBJ1、OBJ2を表わすことができ、例えばデバイス500のメモリ中に、ポイント・クラウドPCを記憶することができる。その後、デバイス500の決定された位置POSを、例えばデバイス500の動作を制御するために使用することができる。
ポイント・クラウドPCkは、複数のポイントPを含むことができる。ポイントは1つ以上のオブジェクトOBJ1、OBJ2を表わすことができる。デバイス500は、ポイント・クラウドPCkを記憶するためのメモリを備えることができる。追跡画像IMGkをポイント・クラウドPCkと比較することにより、デバイスの瞬時位置POSkを決定するように、デバイス500を構成することができる。
デバイス500は、捕捉された画像および情報INF1、INF2を表示するためのディスプレイDISP1を備えることができる。ディスプレイDISP1は、例えばタッチ・スクリーンであることができる。
INF1、INF2がデバイス500の決定された位置POSに基づいてデータベースから選択されるようにディスプレイDISP1上に情報INF1、INF2を表示するように整えることができる。デバイス500の決定された位置に基づいて、ディスプレイDISP1上の表示された情報INF1、INF2が選択されるように、情報INF1、INF2を表示するように、デバイス500を整えることができる。決定された位置POSを、デバイス500上で実行中のアプリケーションに対するユーザー入力として使用することができる。
決定された位置POSを、デバイス500上で実行中の拡張現実アプリケーションなどを制御するためのユーザー入力として使用することができる。例えば、デバイスは、デバイスが、情報INF1と結びつけられた店舗(例えば「ABC」の扉OBJ1の近くにあることを決定することができる。デバイスは、デバイスの決定された位置に基づいてデータベースから関連する情報を検索することができる。決定された位置POSに基づいてデータベースから情報INF1を読み取ることができる。デバイス500は、デバイス500のユーザーに対して追加情報を提供する目的で、扉OBJ1の画像SUB1を情報INF1と共に表示することができる。例えば、デバイスは、デバイスが地下鉄の駅の扉OBJ3に近いことを決定することができる。デバイス500は、デバイス500のユーザーに対して追加情報を提供する目的で、扉OBJ3の画像SUB3を情報INF2(例えば「M」)と共に表示することができる。ディスプレイDISP1は、画像DIMG1を表示するように構成されることができる。表示された画像DIMG1は、デバイス500の視野内にあるオブジェクトの画像を含むことができる。表示された画像DIMG1は、表示された情報INF1、INF2を含むことができる。オブジェクトOBJ1、OBJ3の画像SUB1、SUB3を、例えば部分画像と呼ぶことができる。
オブジェクトOBJ2、OBJ2、OBJ3、OBJ4およびデバイス500は、直交方向SX、SYおよびSZによりおよび静止基準点REF1により定義される実空間内の位置を有することができる。デバイス500の位置は、デバイス500の限定のポイントC1の位置を意味することができる。ポイントC1は、例えば、カメラCAM1のレンズLNS1の中心にあることができる。デバイス500を、空間の三次元および角度の三次元内で移動させることができる。時間tkにおけるデバイス500の位置POSkを、デバイス500の空間位置を規定することおよびデバイス500の角度位置を定義することによって、完全に定義することができる。空間位置は、3つの空間座標(xk、yk、zk)により規定することができ、角度位置は3つの角座標(αk、βk、γk)により規定することができる。デバイス500は、直交方向SU、SV、SWによって定義される移動体座標系を有することができる。移動体座標系は、デバイス500に固定され、デバイス500と共に移動する。
ここで図1bを参照すると、デバイス500は、ヘッド・マウント式デバイス500であることができる。ヘッド・マウント式デバイス500は、仮想画像VOB1、VOB2をユーザーU1に表示するための仮想ディスプレイDISP1を備えることができる。ユーザーU1は、デバイス500を装着することができる。ヘッド・マウント式デバイス500のユーザーU1の視野内にあるオブジェクトOBJ1、OBJ2の画像IMGkを捕捉するように、カメラCAM1を整えることができる。
仮想ディスプレイDISP1は、第1の光学エンジン10aを備えることができる。仮想ディスプレイDISP1は、任意には、光学エンジン10aの射出瞳を拡張させるための射出瞳エクステンダー(EPE)20aを備えることができる。射出瞳エクステンダーは同様に、例えばビーム・エクスパンダーとも呼ぶことができる。仮想ディスプレイDISP1は、1つ以上の光ビームB1を生成でき、このビームは、ユーザーU1の目E1に衝突して、ユーザーU1の目E1の網膜上に光学画像を形成することができる。光ビームB1は、網膜上に光学画像を形成することができる。ユーザーU1に対して1つ以上の仮想画像VOB1、VOB2を表示するように、仮想ディスプレイDISP1を整えることができる。デバイス500の決定された位置に基づいてディスプレイDISP1上に情報INF1、INF2を表示するように、デバイス500を整えることができる。仮想画像VOB1は、情報INF1を表わすことができ、仮想画像VOB1は、情報INF2を表わすことができる。デバイス500は、デバイス500のユーザーに対して追加の情報を提供する目的で、デバイス500のユーザーU1が見た場合に仮想画像VOB1の位置が実オブジェクトOBJ1の位置とマッチングするように、仮想画像VOB1を表示することができる。デバイス500は、デバイス500のユーザーU1が見た場合に、仮想画像VOB1の位置が実オブジェクトOBJ1の位置と関係づけされるように、仮想画像VOB1を表示することができる。
拡張現実アプリケーションのためには、射出瞳エクステンダー20aは、ユーザーU1が射出瞳エクステンダー20aを通して環境ENV1の実オブジェクトを見ることができるように少なくとも部分的に透明であることができる。しかしながら、仮想ディスプレイDISP1は、同様に、ユーザーU1に対し環境ENV1の実オブジェクトの画像を表示することもできる。この場合、射出瞳エクステンダー20aは、射出瞳エクステンダー20aを通した実オブジェクトの直接的ビューイングを可能にする必要がない。
デバイス500は、任意には、ユーザーU1のもう一方の目E2に仮想画像を表示するための第2の光学エンジン10bおよび/または第2の射出瞳エクステンダー20bを備えることができる。仮想ディスプレイDISP1は、1つ以上の光ビームB2を生成することができ、このビームは、ユーザーU1の第2の目E2に衝突して、ユーザーU1の目E2の網膜上に光学画像を形成することができる。光ビームB2は、網膜上に光学画像を形成できる。両目E1、E2のために同じ画像を生成するように、光学エンジン10a、10bを整えることができる。目E1に第1の画像を生成するように光学エンジン10aを整え、目E2に第2の画像を生成するように光学エンジン10bを整えて、立体画像を表示することができる。
デバイス500は、任意には、デバイス500の装着を容易にするための1つ以上のイヤ・ピース91a、91bを備えることができる。デバイス500は同様に、ヘッドギヤまたはヘルメットに取付けることもできる。
図2を参照すると、デバイス500は、データを処理しおよび/またはデバイス500の動作を制御するための制御ユニットCNT1を備えることができる。制御ユニットCNT1は、1つ以上のデータ・プロセッサを備えることができる。
デバイス500は、映像を捕捉するためのカメラCAM1を含むことができる。カメラCAM1は、外部オブジェクトOBJ1、OBJ2の複数の連続する画像フレームFj、Fj+、Fj+2、...を含む画像シーケンスSEQ1を捕捉することができる。カメラCAM1は、結像光学系LNS1と画像センサーDET1とを備えることができる。画像センサーDET1は、検出器画素の二次元アレイを含むことができる。画像センサーDET1は、例えばCMOSデバイス(相補型金属酸化膜半導体)またはCCDデバイス(電荷結合素子)であることができる。
デバイス500は、運動データMDATを提供するように整えることが可能であるセンサーSEN1、センサーSEN2、および/またはセンサーSEN3を備えることができる。運動データMDATを、モーション・センサー・データとも呼ぶこともできる。
デバイス500は、ジャイロスコープを含む慣性センサーSEN1を備えることができる。ジャイロスコープは例えば、レーザー・ジャイロスコープまたは振動構造ジャイロスコープであることができる。慣性センサーSEN1は、例えば微小電気機械システム(MEMS)を使用することによって実装可能である。慣性センサーSEN1を、角速度ωu、ωvおよび/またはωwを標示するセンサー信号SMVを提供するように整えることができる。慣性センサーSEN1から取得したセンサー信号SMVは、角速度ωu、ωv、および/またはωwを標示する運動データMDATを含むことができる。ωuは、軸SUを中心とする角速度を意味する。ωvは、軸SVを中心とする角速度を意味する。ωwは、軸SWを中心とする角速度を意味する。ジャイロスコープは、3軸ジャイロスコープであることができる。
デバイス500は、加速度センサーを含む慣性センサーSEN2を備えることができる。慣性センサーSEN2は、例えば微小電気機械システム(MEMS)を使用することによって実装可能である。加速度au、avおよび/またはawを標示するセンサー信号SMVを提供するように、慣性センサーSEN2を整えることができる。慣性センサーSEN2から取得したセンサー信号SMVは、加速度au、ayおよび/またはawを標示する運動データMDATを含むことができる。auは、方向SUにおける加速度を意味し、avは、方向SVにおける加速度を意味し、awは方向SWにおける加速度を意味する。慣性センサーSEN2は3軸加速度センサーであることができる。加速度センサーSEN2は同様に、重力方向を決定するための情報も提供することができる。
デバイス500は、磁気コンパスSEN3を含むことができる。デバイス500の配向角α、βおよび/またはγを標示するセンサー信号SMVを提供するように磁気コンパスSEN3を整えることができる。磁気コンパスSEN3から取得したセンサー信号SMVは、デバイス500の配向角α、βおよび/またはγを標示する運動データMDATを含むことができる。方向SX、SYおよびSZとの関係におけるデバイス500の配向は、地球の磁場との関係および重力方向との関係におけるデバイス500の配向を測定することによって測定することができる。デバイス500の角速度は、デバイス500の配向角α、βおよび/またはγの変化率から決定できる。センサーSEN3から取得したセンサー信号SMVから1つ以上の角速度値を決定するように、デバイス500を構成することができる。デバイス500を、センサーSEN3から取得した運動データMDATから1つ以上の角速度値を決定するように構成することができる。
デバイス500は、ユーザー・インターフェースUIF1を備えることができる。ユーザー・インターフェースUIF1は、ディスプレイDISP1を備えることができる。ディスプレイDISP1は、例えば仮想ディスプレイまたはタッチ・スクリーンであることができる。ユーザー・インターフェースUIF1は、ユーザーU1からのユーザー入力を受信するための入力ユニットKEY1を備えることができる。入力ユニットKEY1は、例えばタッチ・スクリーン、1つ以上のキー、マウス、視線追跡ユニット、および/または音声認識ユニット(およびマイクロフォン)を含むことができる。ユーザー入力は同様に、デバイス500の位置POSから決定することもできる。例えば、一定の方法でのデバイス500のシェイキングは、所定のユーザー入力を表わすことができる。
デバイス500は、第2のデバイスからデータを受信するためおよび第2のデバイスにデータを伝送するための通信ユニットRXTX1を備えることができる。第2のデバイスは、例えば、インターネット・サーバーSERV1であることができる。COM1は、通信信号を意味する。
デバイス500は、デバイス500の他のユニットに電気エネルギーを提供するためのバッテリBAT1を備えることができる。バッテリは、例えば再充電可能リチウムイオン電池または再充電可能ニッケル水素電池であることができる。詳細には、バッテリBAT1は、制御ユニットCNT1に対してエネルギーを提供することができる。
デバイス500は、デバイス500の動作を制御するためのコンピュータ・プログラムPROG1を記憶するためのメモリMEM1を備えることができる。デバイス500は、ポイント・クラウドPCkを記憶するためのメモリMEM2を備えることができる。デバイス500は、例えばデバイス500の決定された位置を記憶するためのメモリMEM3を備えることができる。
図3aを参照すると、カメラCAM1は、複数の連続する画像フレームFj-2、...Fj、Fj+、Fj+2、...、Fj+11を含む画像シーケンスSEQ1を捕捉することができる。各画像フレームは、デバイス500の瞬時位置から見た場合の環境ENV1の瞬時ビューを表わすことができる。画像フレームFj-2、...Fj、Fj+、Fj+2、...、Fj+11は、フレーム・レートfSEQ1で捕捉可能である。
視覚的追跡は、通常、カメラCAM1のフレーム・レートfSEQ1で実行可能である。
フレーム・レートfSEQ1は、例えば24Hz〜120Hzの範囲内にあることができる。カメラCAM1が実際に運動または回転していない場合、連続的画像間の差は、小さいものであることができ、追跡計算の大部分は冗長計算となる可能性がある。回転がほとんどまたは全く無いことをセンサー信号SMVが標示した場合、これは同様に、連続する画像フレーム間の差が小さいものであり得ることも標示する。この場合、視覚的追跡計算のためのフレーム・レートfAは、カメラCAM1のフレーム・レートfSEQ1と比較して削減される可能性がある。
追跡画像IMGの視覚的特徴F1、F2をポイント・クラウドPCと比較することにより、デバイス500の位置を決定することができる。追跡画像IMGk-1、IMGk、IMGk+1、IMGk+2、IMGk+3、IMGk+4を、フレーム・サンプリング・レートfAにしたがって、連続する画像フレームFj-2、...Fj、Fj+、Fj+2、...、Fj+11から選択することができる。フレーム・サンプリング・レートfAは、フレーム・レートfSEQ1の例えば1/2、1/3、1/4、1/6、1/6、1/7または1/8倍であることができる。シーケンスSEQ1を第1のフレーム・レートfSEQ1で捕捉することができ、サンプリング・フレーム・レートfAは、第1のフレーム・レートを整数NDIVで除したものに等しいものであることができる。サンプリング・フレーム・レートfAを、サンプリング・フレーム・レートfAがフレーム・レートfSEQ1を整数NDIVで除したものに等しくなるように、決定することができる。整数NDIVは、第1の時間周期中第1の値を有することができ、整数NDIVは、第2の時間周期中、第2の異なる値を有することができる。例えば、整数NDIVは、tk-1からtk+1までの第1の時間周期中、3に等しいものであることができ、整数NDIVは、tk+1からtk+4の第2の時間周期中、2に等しいことができる。
携帯型デバイス500の運動は、例えば慣性センサーSEN1および/またはSEN2を使用することにより検出可能である。慣性センサーは、例えば3軸加速度計および/または3軸ジャイロスコープを備えることができる。ジャイロスコープは、例えばレーザー・ジャイロスコープまたは振動構造ジャイロスコープであることができる。慣性センサーSEN1は、例えば微小電気機械システム(MEMS)を使用することによって実装可能である。携帯型デバイスの運動を標示するセンサー信号SMVを提供するように、慣性センサーSEN1を整えることができる。センサー信号SMVは、携帯型デバイス500の運動を規定する運動データMDATを含むことができる。運動データMDATは、例えば、一方向(例えば方向SU)におけるデバイス500の加速度ak、および/または1つの軸(例えば方向SU)を中心としたデバイスの角速度をωkを規定することができる。
センサー信号SMVは、同様に、コンパスから取得した運動データMDATを含むこともできる。センサー信号は、磁気コンパスから取得した運動データMDATを含むことができる。
視覚的追跡のためのフレーム・レートfAは、例えば、カメラCAM1によって捕捉された2つに1つの画像フレームを解析することにより、フレーム・レートfSEQ1の1/2であることができる。視覚的追跡のためのフレーム・レートfAは、例えば、カメラCAM1によって捕捉された3つに1つの画像フレームを解析することにより、フレーム・レートfSEQ1の1/3であることができる。視覚的追跡のためのフレーム・レートは、例えば、カメラCAM1により捕捉された4つに1つの画像フレームを解析することにより、フレーム・レートfSEQ1の1/4であることができる。視覚的追跡のためのフレーム・レートfAは、例えば、フレーム・レートfSEQ1の1/2、1/3、1/4、1/5、1/6、1/7、1/8、..、1/15、1/16、1/17、..、1/31、1/32、1/33、..であることができる。携帯型デバイス500の位置を、センサー信号から決定することができる。携帯型デバイス500の位置は、画像フレームから先行位置を決定し、センサー信号からの位置の変化を決定することによって外挿できる。携帯型デバイス500がより高速で運動または回転し始めたことをセンサー信号が標示した時点で、視覚的追跡のためのフレーム・レートfAを増大させることができる。視覚的追跡のためのフレーム・レートfAがカメラCAM1のフレーム・レートfSEQ1に等しくなるように、すなわち、カメラCAM1によって捕捉される全ての画像フレームを解析できるように、フレーム・レートfAを増大させることができる。一実施形態においては、カメラCAM1のフレーム・レートfSEQ1を、公称フレーム・レートfoから削減することができる。
追跡画像IMGk-1は、時間tk-1において捕捉された画像フレームFであることができる。
追跡画像IMGkは、時間tkにおいて捕捉された画像フレームFであることができる。追跡画像IMGk+1は、時間tk+1において捕捉された画像フレームFであることができる。
ポイント・クラウドを再構成または更新することができる。先行ポイント・クラウドPCk-1を更新することによって、ポイント・クラウドPCkを決定することができる。ポイント・クラウドPCkを更新することによって、後続ポイント・クラウドPCk+1を決定することができる。
ポイント・クラウドPCkは、複数の先に捕捉された画像、IMGk-2、IMGk-1を解析することによって形成されたものであることができる。ポイント・クラウドPCkは、再構成されたポイント・クラウドであることができる。ポイント・クラウドPCkを、捕捉された画像IMGkの解析に基づいて更新することができる。更新されたポイント・クラウドPCk+1は、先行ポイント・クラウドPCkから、および1つ以上の先行画像IMGk-2、IMGk-1、IMGkの解析に基づいて、決定することができる。
ポイント・クラウドPCkまたはPCk+1は、同様にデータベースから、または第2のデバイスのメモリから取得することもできる。ポイント・クラウドPCkまたはPCk+1は、例えばインターネットを介してかまたは移動体通信システムを介して、デバイス500に通信可能である。
時間tk-1、tk、tk+1、tk+2、tk+3、tk+4...において捕捉された画像フレームを、追跡画像IMGk、IMGk+1、IMGk+2、IMGk+3、IMGk+4、...として使用することができる。該方法は、時間tk-1、tk、tk+1、tk+2、tk+3、tk+4...に対応する複数の連続するポイント・クラウドPCk-1、PCk+1、PCk+2、PCk+3、PCk+4...を決定するステップを含むことができる。サンプリング・フレーム・レートfAがフレーム・レートfSEQ1よりも低い場合、1つ以上の捕捉された画像フレームが追跡画像として使用されることはない。例えば、追跡画像として画像フレームFj+2およびFj+3が使用されないように、捕捉された画像フレームFj+1およびFj+4を、追跡画像IMGk、IMGk+1として使用することができる。画像フレームFj+3は、時間tj+3において捕捉可能である。画像フレームFj+3は、画像フレームFj+1の捕捉後、および画像フレームFj+4の捕捉前に捕捉することができる。
ポイント・クラウドと追跡画像の比較は、電力を消費する可能性がある。フレーム・サンプリング・レートfAは、エネルギーを節約するため、フレーム・レートfSEQ1より低いものであることができる。フレーム・サンプリング・レートfAは、慣性センサーSEN1から取得したセンサー信号SMVに基づいて調整可能である。フレーム・サンプリング・レートfAは、慣性センサーSEN2から取得したセンサー信号SMVに基づいて調整することができる。フレーム・サンプリング・レートfAは磁気コンパスSEN3から取得したセンサー信号SMVに基づいて調整することができる。
図3bを参照すると、シーケンスSEQ1の画像フレームは、デバイス500の瞬時位置から見た場合の環境ENV1の瞬時ビューを表わすことができる。追跡画像IMGkは、フレーム・サンプリング・レートfAにしたがって、画像フレームFj-1、Fj、Fj+1、Fj+2から選択可能である。追跡画像の数は、シーケンスSEQ1の画像フレームの数より少ないものであることができる。さらに、直近の追跡画像は、カメラCAM1により捕捉された直近の画像フレームでない画像フレームであり得る。
図4aを参照すると、追跡画像IMGkは、複数の特徴F1、F2、...を含むことができる。特徴F1、F2、...は、例えば視覚的特徴と呼ぶことができ、画像IMGkは、例えば追跡画像と呼ぶことができる。画像IMGkの特徴F1、F2...は、環境ENV1の実オブジェクトOBJ1、OBJ2の特徴F1,F2の部分画像であることができる。
ポイント・クラウドPCkは、3次元仮想空間内で複数のポイントを含むことができる。ポイント・クラウドの各ポイントは、画像フレーム内に出現する候補特徴を表わすことができる。
仮想空間は、直交する方向SX’、SY’、SZ’および基準点REF2により定義することができる。ポイント・クラウドPCkの各ポイントPの空間位置は、空間座標(x’、y’、z’)によって定義できる。デバイス500は、ポイント・クラウドPCkのポイントの位置を記憶するためのメモリを備えることができる。
デバイス500は、仮想空間内に仮想位置POS2kを有することができる。デバイス500の仮想位置POS2kは、デバイス500の仮想空間位置を規定し、デバイス500の仮想角位置を定義することによって定義することができる。空間位置は、3つの空間座標(x’、y’、z’)によって規定でき、角位置は、3つの角座標(α’、β’、γ’)により規定することができる。
デバイス500は、追跡画像IMGkの視覚的特徴F1、F2、...をポイント・クラウドPCkのポイントPと比較することによって、仮想位置POS2kを決定するように構成することができる。追跡画像IMGkの視覚的特徴F1、F2、....が、ポイント・クラウドPCkのポイントPと充分な程度にマッチングするように、仮想空間内のデバイス500の仮想位置POS2kを決定するように、デバイス500を構成することができる。位置POS2kは、ポイント・クラウドPCkのポイントPとの関係において、すなわち仮想空間内で、デバイスの位置を規定することができる。その後、環境ENV1内のデバイス500の位置POSkを、座標変換により仮想位置POS2kから決定することができる。仮想空間の座標系は同様に、デバイス500の位置POSkが仮想位置POS2kに等しくなるように、選択されることができる。その場合、座標変換は必要とされない。
デバイス500は、ポイント・クラウドPCkから1つ以上の候補画像を決定するように構成されることができる。候補画像とは、ポイントPを仮想位置POS2kから見た場合の、ポイント・クラウドPCkのポイントPの画像を意味する。ポイント・クラウドPCkの各ポイントPは、候補画像の1ポイントに対応することができる。候補画像の複数のポイントを計算し、候補のポイントが追跡画像IMGkのポイントとマッチングするか否かを検査するように、デバイス500を構成することができる。
換言すると、追跡計算を行なうようにデバイス500を構成することができる。ポイント・クラウドPCkは、典型的には、異なる方向から見た場合に、異なって見える。デバイス500は、候補画像のポイントが追跡画像の特徴F1、F2とマッチングするように、位置POS2kを決定するように構成されることができる。
デバイスの位置は、
− 携帯型デバイス500のカメラCAM1から捕捉された画像フレームFj、Fj+1、Fj+2のシーケンスSEQを取得するステップと、
− 携帯型デバイス500の慣性センサーSEN1を使用することによって、慣性センサーSEN2を使用することによって、および/またはコンパスSEN3を使用することによって、運動データMDATを取得するステップと、
− 運動データMDATにしたがってサンプリング・フレーム・レートFAを決定するステップと、
− サンプリング・フレーム・レートFAにしたがって捕捉された画像フレームFj、Fj+1、Fj+2から追跡画像IMGKを選択するステップと、
− 追跡画像IMGKをポイント・クラウドPCKと比較することにより、携帯型デバイス500の位置POSk、POS2kを決定するステップと、
を含む方法によって決定することができる。
その後、決定された位置POSk、POS2kに基づいてデバイス500のディスプレイDISP1上に情報INF1、INF2を表示することができる。ディスプレイDISP1は、例えば仮想ディスプレイまたはタッチ・スクリーンであることができる。
追跡画像IMGkの各々の視覚的特徴をポイント・クラウドPCkの各ポイントと比較する場合、追跡画像IMGkの比較には大量のデータ処理が必要となる可能性がある。
比較を容易にするために、ポイント・クラウドPCkのサブセットSCkを形成することができる。サブセットSCkのポイント数は、実質的に、ポイント・クラウドPCkのポイント数よりも少ないものであり得る。
例えば、視覚的特徴F1は、デバイスに近いオブジェクトOBJ1のポイントを表わすことができ、視覚的特徴F2は、デバイス500から遠いオブジェクトOBJ3のポイントを表わすことができる。デバイス500が高速で運動した場合、視覚的特徴F1は、視覚的特徴F2よりも高い確率で追跡画像IMGk内でぶれる。デバイス500が並進運動する場合、視覚的特徴F1は、遠隔のオブジェクトOBJ3の視覚的特徴F2に比べて、追跡画像IMGk内でぶれる確率が高い。デバイス500は、ぶれた特徴に関連した比較動作を削減することによって、電力を節約することができる。
デバイス500は、追跡画像IMGk内の鮮明な特徴に対応する確率の高いポイントPを選択することによって、ポイント・クラウドPCkのサブセットSCkを形成するように構成されることができる。デバイス500は、追跡画像IMGk内のぶれた特徴に対応する確率の高いポイントPを拒絶することによって、ポイント・クラウドPCkのサブセットSCkを形成するように構成されることができる。デバイス500は、ポイント・クラウドPCkの各ポイントについて、ぶれ値BVを決定するように構成されることができる。1つのポイントのぶれ値BVは、前記ポイントに対応する特徴の推定上のぶれの程度を標示することができる。
カメラが過度に急速に回転または運動している場合、画像フレーム内に出現する特徴はぶれる可能性がある。この場合、視覚的追跡は失敗する確率が高い。時として視覚的特徴を全く識別できない可能性もある。しかしながら、ポイント・クラウドのポイントに対応する特徴のぶれの程度は、センサー信号に基づいて計算することができる。ぶれの程度を、例えばぶれ値によって規定することができる。特徴のぶれ値が閾値を上回った場合、これは、その特徴が過度にぶれているために認識されないことを標示することができる。追跡計算においては、ぶれた特徴に結びつけられたポイントを無視することができる。特徴マッチングは、比較的鮮明な特徴に対応するポイントについてのみ行なうことができる。高速モーション中、携帯型デバイスの位置を決定するために、センサー信号を使用することができる。閾値は、例えばカメラの分解能および/またはカメラの露出時間に依存する可能性がある。
デバイス500は、高速vkで運動することができ、および/またはデバイスは、角速度ωkで回転することができる。追跡画像IMGkの1つ以上の視覚的特徴F1、F2は、速度vkが過度に高い場合および/または角速度ωkの場合に、ぶれる可能性がある。例えば、デバイス500を装着しているユーザーU1が走るかまたは頭を回して、追跡画像IMGkがぶれた視覚的特徴F1、F2を含む可能性がある。追跡画像IMGkの1つ以上の視覚的特徴F1、F2は同様に、カメラCAM1が急速に加速している場合にもぶれる可能性がある。オブジェクトの1つの特徴のぶれの程度は、カメラCAM1とオブジェクトOBJ1、OBJ2の間の距離に依存することができる。ぶれの程度は同様に、カメラCAM1の分解能、および/または照明条件にも依存することができる。
デバイス500は、1つ以上のセンサー信号SMVを提供するため、慣性センサーSEN1、SEN2を備えることができる。デバイス500は、センサー信号SMVを提供するため1つ以上の慣性センサーSEN1、SEN2を備えることができる。慣性センサーSEN1、SEN2は、例えば加速度センサーおよびジャイロスコープであることができる。センサー信号SMVは、デバイス500の加速度および/または角速度ωkを標示することができる。速度はvkは、デバイス500の加速度を積分することによって決定できる。
図4bを参照すると、デバイス500は、先行する仮想位置POS2k-1を有することができる。ポイント・クラウドPCkの各ポイントPは、前記ポイントPと先行仮想位置POS2k-1の間の距離L’と結びつけられることができる。デバイス500の先行仮想位置POS2k-1とポイントPの間の距離L’を、前記ポイントPの空間座標(x’、y’、z’)に基づいて計算することができる。ポイントPのぶれ値BVを、角速度ωk、速度vkおよび/または加速度akを使用することによっておよび距離L’を使用することによって計算することができる。前記ポイントのぶれ値BVが制限値BVBLURを超える場合、ポイントPをサブセットSCkから拒絶することができる。
デバイス500は、追跡画像IMGkの視覚的特徴F1、F2、...をサブセットSCkのポイントPと比較することによって、デバイス500の仮想位置POS2kを決定するように構成されることができる。デバイス500は、追跡画像IMGkの視覚的特徴F1、F2、...がサブセットSCkのポイントPと充分な程度でマッチングするように、仮想空間内でのデバイス500の仮想位置POS2kを決定するように構成されることができる。
図5aは、追跡画像を選択するためおよび追跡画像の視覚的特徴をポイント・クラウドと比較することによりデバイス500の位置を決定するための方法ステップを示す。
ステップ810において、デバイス500のカメラCAM1から、捕捉された画像フレームFj、Fj+1、Fj+2のシーケンスを取得することができる。センサーSEN1、SEN2および/またはSEN3から、センサー信号SMVを取得することができる。運動データMDATを、センサーSEN1、SEN2および/またはSEN3から得ることができる。
ステップ815において、センサー信号SMVに基づいて、フレーム・サンプリング・レートfAを決定することができる。フレーム・サンプリング・レートfAを、運動データMDATに基づいて決定することができる。例えば、デバイスの加速度および角速度の関数として、フレーム・サンプリング・レートfAを決定することができる。例えば、デバイス500の加速度が所定の制限aLIM1よりも低く、デバイスの角速度が所定の制限ωLIM1よりも低い場合などに、フレーム・サンプリング・レートfAを、シーケンスSEQ1のフレーム・レートより低くなるように決定することができる。例えば、デバイス500の加速度が所定の制限aLIM2よりも高くおよび/またはデバイスの角速度が所定の制限ωLIM2よりも高い場合、フレーム・サンプリング・レートfAを、シーケンスSEQ1のフレーム・レートfSEQ1に等しくなるように決定することができる。
サンプリング・フレーム・レートfAが、フレーム・レートfSEQ1を整数NDIVで除したものに等しくなるように、サンプリング・フレーム・レートfAを決定することができる。整数NDIVは、デバイスの角速度ωが第1の所定の制限ωLIM1よりも低く、デバイスの加速度が第2の所定の制限aLIM1よりも低い場合に、例えば2以上であることができる。
ステップ820において、フレーム・サンプリング・レートfAにしたがってシーケンスSEQ1の画像フレームから1つ以上の追跡画像をサンプリングすることができる。
ステップ850において、デバイス500の位置POSkは、追跡画像IMGkの視覚的特徴F1、F2をポイント・クラウドPCkのポイントと比較することによって決定することができる。
ステップ890においては、決定された位置POSkに基づいて、デバイス500の動作を制御することができる。例えば、位置POSkに基づいてデータベースから情報を読み取ることができる。例えば、拡張現実アプリケーションを実行している場合、位置POSkに基づいて、データベースから情報を読み取ることができる。例えば、表示される情報INF1、INF2を、位置POSkに基づいて選択することができる。例えば、ディスプレイ上の情報の位置を、位置POSkに基づいて決定することができる。例えば、2つ以上の選択肢から選択を行なうために、決定された位置POSkをユーザー入力として使用することができる。
図5bを参照すると、ポイント・クラウドのサブセットSCkを使用することにより、比較動作の数を削減することができる。ステップ825では、デバイス500の運動データMDATおよび先行(仮想)位置POS2k-1を使用することによって、サブセットSCkを形成することができる。ポイント・クラウドPCkのポイントPのぶれ値BVは、角速度ωk、速度vkおよび/または加速度akを使用することによって、および距離L’を使用することによって計算可能である。前記ポイントのぶれ値BVが制限値BVBLURを超えた場合、サブセットSCkからポイントPを拒絶することができる。ステップ825は、例えばステップ820の後、ステップ820の前、またはステップ815の前(ただしステップ810の後)に実施できる。
該方法は、以下のステップを含むことができる:
− 前記ポイントPの位置に基づいて、および運動データMDATに基づいて、ポイント・クラウドPCkのポイントPについてぶれ値BVを決定するステップ、
− ぶれ値BVが所定の制限BVBLURを超えた場合、ポイント・クラウドPCkのサブセットSCkから前記ポイントPを拒絶するステップ、および
− 追跡画像IMGkをサブセットSCkと比較することにより、携帯型デバイス500の位置POSkを決定するステップ。
より高いぶれ値BVは、より高いぶれの程度を標示することができる。その場合、前記ポイントのぶれ値BVが所定の制限BVBLURよりも高い場合、ポイント・クラウドPCkのサブセットSCkからポイントPを拒絶することができる。代替的には、より低いぶれ値BVは、より高いぶれの程度を標示することができる。その場合、前記ポイントのぶれ値BVが所定の制限BVBLURよりも低い場合、ポイント・クラウドPCkのサブセットSCkからポイントPを拒絶することができる。
該方法は、以下のステップを含むことができる:
− ポイント・クラウドPCkのポイントPの位置に基づいておよび運動データMDATに基づいてこのポイントPについてのぶれ値BVを決定するステップ、
− 前記ぶれ値BVを所定の制限BVBLURと比較するステップ、
− 比較に基づいて、ポイント・クラウドPCkのサブセットSCkに対し前記ポイントを選択するか、またはポイント・クラウドPCkのサブセットから前記ポイントを拒絶するステップ、および
− 追跡画像IMGkをサブセットSCkと比較することにより、携帯型デバイス500の位置POSkを決定するするステップ。
図5cを参照すると、決定された位置は、時として、運動データMDATを使用することによって補正できる。ΔtAは、現時点tと追跡画像IMGk捕捉時間tkとの間の時間的遅延(t−tk)を意味することができる。時間的遅延が短い(例えば制限LIM1よりも短い)場合、追跡画像IMGkは、現状を表わす可能性がある。時間的遅延が長い場合、追跡画像IMGkを解析することにより決定される位置POSkは現位置と異なる可能性がある。
時間的遅延ΔtAは、ステップ860において検査できる。時間的遅延ΔtAが所定値より小さい場合、ステップ850において決定された中間位置POSkを、時間tにおけるデバイス500の位置POS(t)として使用することができる(ステップ880)。時間的遅延ΔtAが所定値より小さくない場合、運動データMDATを使用することにより位置を補正することができる。ステップ865では、センサー信号SMVを使用することによって、時間的遅延ΔtAに基づいて、デバイスの側方変位DPOSおよび/またはデバイスの配向の角変化を計算することができる。センサーSEN1、SEN2および/またはSEN3から取得した運動データMDATを使用することによって、時間的遅延ΔtAに基づいて、デバイスの側方変位DPOSおよび/またはデバイスの配向の角変化を計算することができる。
該方法は、以下のステップを含むことができる:
− 運動データMDATを使用することにより、位置変化DPOSを決定するステップ、
− 前記変化DPOSおよび先行の決定された位置POSkを使用して、補正された位置POS(t)を決定するステップ。
ステップ870では、次に、中間位置POSkに変化DPOSを加えることによって、時間tにおけるデバイス500の瞬時位置POS(t)を決定することができる。
ステップ890において、決定された瞬時位置POS(t)に基づいて、デバイス500の動作を制御することができる。
図6を参照すると、より難易度の高い追跡条件に自動的に適応するように、デバイス500を整えることができる。
ステップ852において、マッチング・ポイントの数NMPを計数することができる。ポイント・クラウドPCkのマッチング・ポイントを、比較動作において発見することができる。こうして、マッチング・ポイントの数NMPの計数には、非常に低いまたは無視できる量のデータ処理力しか必要でない可能性がある。
数NMPは、ステップ855で検査できる。マッチング・ポイントの数NMPが、所定値NMP、LIM1よりも小さい場合には、フレーム・サンプリング・レートfAを、ステップ856で一時的に増大させることができる。タイマー値TIMも同様に、ステップ856でリセットすることができる。
該方法は、以下のステップを含むことができる:
− 画像フレーム中に出現するマッチングする特徴の数を標示する指標値NMPを決定するステップおよび、
− マッチングする特徴の数NMPが所定の制限NMPLIM1よりも小さい場合に、サンプリング・フレーム・レートfAを増大させるステップ。
マッチング・ポイントの数NMPが所定値よりも多い場合、およびタイマー値TIMが所定値INTERVAL1よりも低い場合には、フレーム・サンプリング・レートfAは、ステップ815において決定された値に保たれることができる。
タイマー値TIMは、経時的に、または例えばステップ852において、増大させることができる。タイマー値TIMは、ステップ857で検査できる。タイマー値TIMが所定値INTERVAL1よりも高い場合には、フレーム・サンプリング・レートfAを、ステップ858で一時的に低減させることができる。
図6のステップ850において決定された位置は、図5a、5bまたは5c内で示されているように、ステップ890においてデバイス500の動作を制御するために使用することができる。
視覚的追跡のロバスト性を監視することができる。詳細には、ロバスト性は、デバイス500が実質的に静止している状況下で監視することができる。ロバスト性は、解析のために低いフレーム・レートを使用する場合に脅かされる可能性がある。ロバスト性は、例えば、画像ノイズをひき起こす可能性のある低い照度に起因して脅かされる場合がある。センサー信号が有意なモーションを標示しないときに視覚的追跡が少数のマッチングする特徴しか提供しないと考えられる場合には、追跡のためのフレーム・レートを、ロバストな追跡が再開されるまで、一時的に増大させることができる。後に、ロバストな追跡をより低いフレーム・レートで維持できるように、追跡のためのフレーム・レートを減少させることができる。このようにして、難易度の高いおよび/または変動する追跡条件にデバイスを自動的に適応させることができる。視覚的追跡の品質を監視するために、視覚的品質査定方法を使用することができる。査定方法は、例えば、マッチングする特徴の数を計数するステップを含むことができる。査定方法は、計算コストおよび/または電力消費を増大させることなく実装できる。
映像シーケンスSEQ1は、データ圧縮コーデックを使用することによって、例えば、MPEG−4 Part2コーデック、H.264/MPEG−4 AVCコーデック、H.264コーデック、Windows Media Video(WMV)、Div XProコーデック、または未来のコーデック(例えばHigh Efficiency Video Coding、HEVC、H.265)を使用することによって、記憶および/または通信されることができる。映像データVDATA1、VDATA2は、例えば、MPEG−4 Part2コーデック、H.264/MPEG−4 AVCコーデック、H.264コーデック、Windows Media Video(WMV)、DivXProコーデック、または未来のコーデック(例えばHigh Efficiency Video Coding、HEVC、H.265)を使用することによって、エンコードおよび/またはデコードすることができる。映像データは同様に、例えば無損失コーデックを使用することによって、エンコードおよび/またはデコードすることもできる。
図7aは、例として、携帯型デバイス500を備えることのできる通信システム1000を示す。システム1000は、互いに通信するおよび/またはサーバー1240と通信するように整えることが可能な複数のデバイス500、600を備えることができる。デバイス500、600は、携帯型デバイスであることができる。1つ以上のデバイス500は、ユーザー入力を受信するためのユーザー・インターフェースUIF1を備えることができる。1つ以上のデバイス500および/またはサーバー1240は、ポイント・クラウドPCkを生成するように構成された1つ以上のデータ・プロセッサを備えることができる。システム1000は、エンドユーザー・デバイス、例えば1つ以上の携帯型デバイス500、600、モバイル・フォンまたはスマート・フォン600、インターネット・アクセス・デバイス(インターネット・タブレット)、パーソナル・コンピュータ1260、ディスプレイまたは画像プロジェクタ1261(例えばテレビ)および/またはビデオ・プレーヤー1262を備えることができる。デバイス500または携帯カメラの1つ以上は、画像データを捕捉するための画像センサーDET1を備えることができる。サーバー、モバイル・フォン、スマート・フォン、インターネット・アクセス・デバイスまたはパーソナル・コンピュータは、画像データ、情報INF1、INF2および/またはポイント・クラウド・データPCkを流通させるように整えることができる。データの分散および/または記憶は、ネットワーク・サービス・フレームワークの中で、1つ以上のサーバー1240、1241、1242、および1つ以上のユーザー・デバイスを用いて実装されることができる。図7aの実施例において示されているように、システム1000の異なるデバイスを、インターネットまたはローカル・エリア・ネットワーク(LAN)などの固定ネットワーク1210を介して接続することができる。デバイスは、移動体通信ネットワーク1220、例えばグローバル・システム・フォー・モバイル通信(GSM(登録商標))ネットワーク、第3世代(3G)ネットワーク、3.5世代(3.5G)ネットワーク、第4世代(4G)ネットワーク、ワイヤレス・ローカル・エリア・ネットワーク(WLAN)、Bluetooth(登録商標)、または他の現代のおよび未来のネットワークを介して接続可能である。異なるネットワークを、通信インターフェース1280を用いて互いに接続することができる。ネットワーク(1210および/または1220)は、データ・ハンドリングのためのルーターおよびスイッチ(図示せず)などのネットワーク要素を含むことができる。ネットワークは、異なるデバイスのためのネットワークへのアクセスを提供するための1つ以上の基地局1230および1231などの通信インターフェースを含むことができる。基地局1230、1231は、それ自体、固定接続1276および/または無線接続1277を介して、移動体通信ネットワーク1220に接続されることができる。ネットワークに接続された一定数のサーバーが存在できる。例えば、ソーシャル・メディア・サービスなどのネットワーク・サービスを提供するためのサーバー1240をネットワーク1210に接続することができる。サーバー1240は、デバイス500上で実行中の拡張現実アプリケーションのために、追加情報INF1、INF2を生成し、および/または流通させることができる。ネットワーク・サービスを提供するための第2のサーバー1241を、ネットワーク1210に接続することができる。ネットワーク・サービスを提供するためのサーバー1242を、移動体通信ネットワーク1220に接続することができる。上述のデバイスのいくつか、例えばサーバー1240、1241、1242を、それらがネットワーク1210内に存在する通信要素とインターネットを構築するように整えることができる。デバイス500、600、1260、1261、1262は同様に、多数の部品で構成され得る。1つ以上のデバイスを、無線接続1273を介してネットワーク1210、1220に接続することができる。デバイス500とシステム1000の第2のデバイスの間の通信COM1は、固定および/または無線の通信であることができる。1つ以上のデバイスを、固定接続1270、1271、1272および1280などの通信接続を介してネットワーク1210、1220に接続することができる。1つ以上のデバイスを、無線接続1273を介してインターネットに接続することができる。1つ以上のデバイスを、固定接続を介して移動体ネットワーク1220に接続することができる。無線接続COM1、1279および/または1282を介して移動体ネットワーク1220に対し、デバイス500、600を接続することができる。接続1271〜1282は、通信接続のそれぞれの端部において通信インターフェースを用いて実装可能である。ユーザー・デバイス500、600または1260は、同様に、さまざまなネットワークデバイス1240、1241および1242と同様に、ウェブ・サービス・サーバーとしても作用することができる。このウェブ・サービス・サーバーの機能を、多数のデバイスを横断して分散させることができる。アプリケーション要素およびライブラリを、1つのデバイス上に存在するソフトウェア・コンポーネントとして実装することができる。代替的には、ソフトウェア・コンポーネントを、複数のデバイスを横断して分散させることができる。ソフトウェア・コンポーネントを複数のデバイスを横断して分散させて、クラウドを形成することができる。
図7bは、通信システム1000の一部として使用可能な携帯型デバイス500を示す。デバイスは、例えばヘッド・マウント式デバイス、仮想ディスプレイ、モバイル・フォン、スマート・フォン、コミュニケータ、ポータブル・コンピュータ、カメラ、または携帯情報端末(PDA)であることができる。デバイス500は、デバイス500の位置を決定するため、デバイス500の動作を制御するため、および/またはデバイス500の決定された位置にしたがって情報INF1、INF2を表示するための制御ユニットCNT1を備えることができる。デバイスは、データを受信および/または伝送するための通信ユニットRXTX1を含むことができる。デバイス500は、通信ユニットRXTX1を使用することにより、情報INF1、INF2を受信することができる。デバイス500は、通信ユニットRXTX1を使用することにより、通信システム1000の1つ以上の他のデバイスに対して決定された位置を通信することができる。デバイス500は、環境ENV1の外部オブジェクトの画像フレームを捕捉するための1つ以上のカメラ・ユニットCAM1を備えることができる。デバイス500は、運動データMDATを提供するためのセンサーSEN1を含むことができる。センサーSEN1は、非結像センサーであることができる。SEN1は、慣性センサーであることができる。デバイスは、ユーザーU1からのコマンドを受信するためのユーザー・インターフェースUIF1を備えることができる。ユーザー・インターフェースUIF1は、ディスプレイDISP1を含むことができる。ディスプレイDISP1を、ユーザーU1に仮想画像を表示するように整えることができる。ユーザー・インターフェースUIF1は、例えばタッチ・スクリーン、タッチパッド、1つ以上のキー、マウス、ジェスチャー入力デバイスおよび/または音声認識ユニットを含むことができる。デバイス500は、コンピュータ・プログラム・コードを記憶するためのメモリMEM1を備えることができる。コードは、デバイス500に、例えばデバイス500の位置を決定させ、デバイス500の動作を制御させ、および/またはデバイス500の決定された位置にしたがって情報INF1、INF2を表示させることができる。デバイス500は、他のデータ、例えばポイント・クラウド・データを記憶するためのメモリを備えることができる(図2)。携帯型デバイス500は、制御ユニットCNT1に対して電気エネルギーを提供するためのバッテリを備えることができる。
当業者にとっては、本発明に係るデバイスおよび方法の修正および変形形態が理解可能であることは明白である。図は概略図である。添付図面に関連して以上で説明した特定の実施形態は、単に例示的なものにすぎず、添付の特許請求の範囲によって定義される本発明の範囲を限定することを意図したものではない。

Claims (14)

  1. 携帯型デバイスのカメラから捕捉された画像フレームのシーケンスを取得するステップと、
    前記携帯型デバイスの慣性センサーを使用することにより運動データを取得するステップと、
    前記運動データにしたがって、サンプリング・フレーム・レートを決定するステップと、
    前記サンプリング・フレーム・レートにしたがって、前記捕捉された画像フレームから追跡画像を選択するステップと、
    前記追跡画像をポイント・クラウドと比較することにより、前記携帯型デバイスの位置を決定するステップと、
    前記決定された位置に基づいて前記携帯型デバイスのディスプレイの上に情報を表示するステップと、
    前記ポイント・クラウドのポイントの位置に基づいて、および、前記運動データに基づいて該ポイントについてのぶれ値を決定するステップと、
    前記ぶれ値を所定制限と比較するステップと、
    前記比較に基づいて、前記ポイント・クラウドのサブセットに対し前記ポイントを選択するか、または前記サブセットから前記ポイントを拒絶するステップと、
    前記追跡画像を前記サブセットと比較することにより、前記携帯型デバイスの前記位置を決定するステップと、
    を含む方法。
  2. 前記シーケンスは第1フレーム・レートで捕捉され、
    前記サンプリング・フレーム・レートは、整数で除した前記第1フレーム・レートに等しい、
    請求項1に記載の方法。
  3. 前記整数は、前記携帯型デバイスの角速度が第1所定制限より低く、前記携帯型デバイスの加速度が第2所定制限よりも低いとき、2以上である、請求項2に記載の方法。
  4. 前記サンプリング・フレーム・レートは、前記携帯型デバイスの角速度が第3所定制限以上であり、および/または、前記携帯型デバイスの加速度が第4所定制限以上であるとき、前記第1フレーム・レートに等しい、請求項2または3のいずれか1項に記載の方法。
  5. 前記運動データを使用することにより、位置の変化を決定するステップと、
    前記変化および前に決定された位置を使用して、補正された位置を決定するステップと、
    を更に含む、請求項1ないし4のいずれか1項に記載の方法。
  6. 画像フレーム中に出現するマッチングする特徴の数を標示する指標値を決定するステップと、
    前記マッチングする特徴の数が所定制限よりも小さいとき、前記サンプリング・フレーム・レートを増加するステップと、
    を更に含む、請求項1ないし5のいずれか1項に記載の方法。
  7. ディスプレイと、
    画像フレーム・シーケンスを捕捉するように整えられたカメラと、
    運動データを提供するための慣性センサーと、
    制御ユニットと
    を備える携帯型デバイスであって、
    前記制御ユニットは、
    前記運動データにしたがってサンプリング・フレーム・レートを決定し、
    追跡画像をポイント・クラウドと比較することによって前記携帯型デバイスの位置を決定し、
    前記決定された位置に基づいて前記ディスプレイの上の情報の表示を制御し、
    前記制御ユニットは、更に、
    前記ポイント・クラウドのポイントの位置に基づいておよび前記運動データに基づいてこのポイントについてのぶれ値を決定し、
    前記ぶれ値を所定制限と比較し、
    前記比較に基づいて、前記ポイント・クラウドのサブセットに対し前記ポイントを選択するか、または前記サブセットから前記ポイントを拒絶し、
    前記追跡画像を前記サブセットと比較することにより、前記携帯型デバイスの前記位置を決定する、
    ように構成される、
    携帯型デバイス
  8. 前記カメラは、第1フレーム・レートで画像フレームの前記シーケンスを捕捉するように構成され、
    前記サンプリング・フレーム・レートが、整数で除した前記第1フレーム・レートに等しい、
    請求項7に記載の携帯型デバイス。
  9. 前記制御ユニットは、前記携帯型デバイスの角速度が第1所定制限より低く、前記携帯型デバイスの加速度が第2所定制限よりも低いとき、前記整数が2以上であるようにサンプリング・フレーム・レートを決定するように構成される、
    請求項8に記載の携帯型デバイス。
  10. 前記カメラは、第1フレーム・レートで画像フレームの前記シーケンスを捕捉するように構成され、
    前記制御ユニットは、前記サンプリング・フレーム・レートは、前記携帯型デバイスの角速度が第3所定制限以上であり、および/または、前記携帯型デバイスの加速度が第4所定制限以上であるとき、前記第1フレーム・レートに等しい、ように、サンプリング・フレーム・レートを決定するように構成される、
    請求項7ないし9のいずれか1項に記載の携帯型デバイス。
  11. 前記制御ユニットは、更に、
    前記運動データを使用することにより、位置の変化を決定し、
    前記変化および前に決定された位置を使用して、補正された位置を決定する、
    ように構成される、
    請求項7ないし10のいずれか1項に記載の携帯型デバイス。
  12. 更に、電力を供給するためのバッテリを備える、請求項7ないし11のいずれか1項に記載の携帯型デバイス。
  13. 前記制御ユニットは、更に、
    画像フレーム中に出現するマッチングする特徴の数を標示する指標値を決定し、
    前記マッチングする特徴の数が所定制限よりも小さいとき、前記サンプリング・フレーム・レートを増大させる、
    ように構成される、
    請求項7ないし12のいずれか1項に記載の携帯型デバイス。
  14. 携帯型デバイスのカメラから捕捉された画像フレームのシーケンスを取得するためのコードと、
    前記携帯型デバイスの慣性センサーから運動データを取得するためのコードと、
    前記運動データにしたがってサンプリング・フレーム・レートを決定させるためのコードと、
    前記サンプリング・フレーム・レートにしたがって、前記捕捉された画像フレームから追跡画像を選択するためのコードと、
    前記追跡画像をポイント・クラウドと比較することによって前記携帯型デバイスの位置を決定するためのコードと、
    前記決定された位置に基づいて前記携帯型デバイスのディスプレイの上に情報を表示するためのコードと、
    前記ポイント・クラウドのポイントの位置に基づいて、および、前記運動データに基づいて該ポイントについてのぶれ値を決定するためのコードと、
    前記ぶれ値を所定制限と比較するためのコードと、
    前記比較に基づいて、前記ポイント・クラウドのサブセットに対し前記ポイントを選択するか、または前記サブセットから前記ポイントを拒絶するためのコードと、
    前記追跡画像を前記サブセットと比較することにより、前記携帯型デバイスの前記位置を決定するためのコードと、
    を備えるコンピュータ・プログラム。
JP2017534811A 2014-12-30 2015-12-03 携帯型デバイスの位置を決定するための方法 Expired - Fee Related JP6503070B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB1423327.4A GB2533788A (en) 2014-12-30 2014-12-30 Method for determining the position of a portable device
GB1423327.4 2014-12-30
PCT/FI2015/050846 WO2016107963A1 (en) 2014-12-30 2015-12-03 Method for determining the position of a portable device

Publications (2)

Publication Number Publication Date
JP2018513433A JP2018513433A (ja) 2018-05-24
JP6503070B2 true JP6503070B2 (ja) 2019-04-17

Family

ID=52471610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017534811A Expired - Fee Related JP6503070B2 (ja) 2014-12-30 2015-12-03 携帯型デバイスの位置を決定するための方法

Country Status (6)

Country Link
US (1) US10217021B2 (ja)
EP (1) EP3241183B1 (ja)
JP (1) JP6503070B2 (ja)
CN (1) CN107111885B (ja)
GB (1) GB2533788A (ja)
WO (1) WO2016107963A1 (ja)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160109586A (ko) * 2015-03-12 2016-09-21 삼성전자주식회사 이미지 처리 시스템, 및 이를 포함하는 모바일 컴퓨팅 장치
CN106170676B (zh) * 2015-07-14 2018-10-09 深圳市大疆创新科技有限公司 用于确定移动平台的移动的方法、设备以及系统
US10395117B1 (en) 2016-08-29 2019-08-27 Trifo, Inc. Visual-inertial positional awareness for autonomous and non-autonomous tracking
US10366508B1 (en) 2016-08-29 2019-07-30 Perceptin Shenzhen Limited Visual-inertial positional awareness for autonomous and non-autonomous device
US10571925B1 (en) 2016-08-29 2020-02-25 Trifo, Inc. Autonomous platform guidance systems with auxiliary sensors and task planning
US10032276B1 (en) 2016-08-29 2018-07-24 PerceptIn, Inc. Visual-inertial positional awareness for autonomous and non-autonomous device
US10043076B1 (en) 2016-08-29 2018-08-07 PerceptIn, Inc. Visual-inertial positional awareness for autonomous and non-autonomous tracking
US10453213B2 (en) * 2016-08-29 2019-10-22 Trifo, Inc. Mapping optimization in autonomous and non-autonomous platforms
US10162362B2 (en) 2016-08-29 2018-12-25 PerceptIn, Inc. Fault tolerance to provide robust tracking for autonomous positional awareness
US10410328B1 (en) 2016-08-29 2019-09-10 Perceptin Shenzhen Limited Visual-inertial positional awareness for autonomous and non-autonomous device
US10571926B1 (en) 2016-08-29 2020-02-25 Trifo, Inc. Autonomous platform guidance systems with auxiliary sensors and obstacle avoidance
US10402663B1 (en) * 2016-08-29 2019-09-03 Trifo, Inc. Visual-inertial positional awareness for autonomous and non-autonomous mapping
US10390003B1 (en) 2016-08-29 2019-08-20 Perceptln Shenzhen Limited Visual-inertial positional awareness for autonomous and non-autonomous device
US11314262B2 (en) 2016-08-29 2022-04-26 Trifo, Inc. Autonomous platform guidance systems with task planning and obstacle avoidance
GB2557212A (en) * 2016-11-30 2018-06-20 Nokia Technologies Oy Methods and apparatuses for determining positions of multi-directional image capture apparatuses
US10241587B2 (en) * 2016-12-22 2019-03-26 Microsoft Technology Licensing, Llc Magnetic tracker power duty cycling
US20180203504A1 (en) * 2017-01-16 2018-07-19 Htc Corporation Movement tracking method and movement tracking system
GB2561368B (en) 2017-04-11 2019-10-09 Nokia Technologies Oy Methods and apparatuses for determining positions of multi-directional image capture apparatuses
US10444761B2 (en) 2017-06-14 2019-10-15 Trifo, Inc. Monocular modes for autonomous platform guidance systems with auxiliary sensors
US10496104B1 (en) 2017-07-05 2019-12-03 Perceptin Shenzhen Limited Positional awareness with quadocular sensor in autonomous platforms
US10462370B2 (en) 2017-10-03 2019-10-29 Google Llc Video stabilization
US10171738B1 (en) * 2018-05-04 2019-01-01 Google Llc Stabilizing video to reduce camera and face movement
US11624909B2 (en) 2018-06-18 2023-04-11 Magic Leap, Inc. Head-mounted display systems with power saving functionality
JP7378431B2 (ja) 2018-06-18 2023-11-13 マジック リープ, インコーポレイテッド フレーム変調機能性を伴う拡張現実ディスプレイ
CN109099901B (zh) * 2018-06-26 2021-09-24 中科微易(苏州)智能科技有限公司 基于多源数据融合的全自动压路机定位方法
CN109598688A (zh) * 2018-12-06 2019-04-09 联想(北京)有限公司 一种处理方法及电子设备
CN111337039B (zh) * 2018-12-18 2021-07-20 北京四维图新科技股份有限公司 拥堵路段的地图数据采集方法、装置、系统及存储介质
US11774983B1 (en) 2019-01-02 2023-10-03 Trifo, Inc. Autonomous platform guidance systems with unknown environment mapping
US11069085B2 (en) * 2019-02-13 2021-07-20 Toyota Research Institute, Inc. Locating a vehicle based on labeling point cloud data of a scene
US11120273B2 (en) * 2019-06-21 2021-09-14 Gfycat, Inc. Adaptive content classification of a video content item
CN110727288A (zh) * 2019-11-13 2020-01-24 昆明能讯科技有限责任公司 一种基于点云的电力巡检精准三维航线规划方法
CN111780774B (zh) * 2020-06-09 2022-05-03 北京五一视界数字孪生科技股份有限公司 运动轨迹的生成方法、装置、存储介质和电子设备
US11190689B1 (en) 2020-07-29 2021-11-30 Google Llc Multi-camera video stabilization
CN114079781B (zh) * 2020-08-18 2023-08-22 腾讯科技(深圳)有限公司 一种点云媒体的数据处理方法、装置、设备及存储介质
JP2024501285A (ja) * 2020-12-23 2024-01-11 マジック リープ, インコーポレイテッド ヘッドマウントディスプレイ用接眼部撮像アセンブリ
US11741631B2 (en) 2021-07-15 2023-08-29 Vilnius Gediminas Technical University Real-time alignment of multiple point clouds to video capture
CN117472068B (zh) * 2023-12-27 2024-05-03 深圳市奇航疆域技术有限公司 一种不良网络场景下的机器人控制方法及系统

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6952212B2 (en) * 2000-03-24 2005-10-04 Telefonaktiebolaget Lm Ericsson (Publ) Frame decimation for structure from motion
JP2003316259A (ja) * 2002-02-25 2003-11-07 Mitsubishi Electric Corp 撮影映像処理方法及び撮影映像処理システム
JP2010118019A (ja) * 2008-11-14 2010-05-27 Sharp Corp 端末装置、配信装置、端末装置の制御方法、配信装置の制御方法、制御プログラムおよび記録媒体
GB201208088D0 (en) * 2012-05-09 2012-06-20 Ncam Sollutions Ltd Ncam
US8798357B2 (en) * 2012-07-09 2014-08-05 Microsoft Corporation Image-based localization
CN104662435A (zh) * 2012-09-27 2015-05-27 Metaio有限公司 确定与用于捕获至少一个图像的捕获装置关联的装置的位置和方向的方法
US9161172B2 (en) 2012-11-06 2015-10-13 Qualcomm Incorporated Map-based adaptive sampling of orientation sensors for positioning
JP6016622B2 (ja) * 2012-12-26 2016-10-26 キヤノン株式会社 撮像装置及びその制御方法、並びにプログラム
US9142019B2 (en) * 2013-02-28 2015-09-22 Google Technology Holdings LLC System for 2D/3D spatial feature processing
JP2014174638A (ja) * 2013-03-06 2014-09-22 Nippon Telegr & Teleph Corp <Ntt> 指示位置算出装置、ディスプレイ指示システム、方法及びプログラム
US9699375B2 (en) * 2013-04-05 2017-07-04 Nokia Technology Oy Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
US9037396B2 (en) * 2013-05-23 2015-05-19 Irobot Corporation Simultaneous localization and mapping for a mobile robot
CN103559711B (zh) * 2013-11-05 2016-04-27 余洪山 基于三维视觉系统图像特征和三维信息的运动估计方法
CN103646424B (zh) * 2013-11-26 2016-05-04 北京空间机电研究所 一种空中无缝虚拟漫游系统构建方法

Also Published As

Publication number Publication date
EP3241183B1 (en) 2019-10-16
US10217021B2 (en) 2019-02-26
WO2016107963A1 (en) 2016-07-07
EP3241183A1 (en) 2017-11-08
CN107111885B (zh) 2020-10-09
EP3241183A4 (en) 2018-08-15
CN107111885A (zh) 2017-08-29
GB2533788A (en) 2016-07-06
US20170357873A1 (en) 2017-12-14
GB201423327D0 (en) 2015-02-11
JP2018513433A (ja) 2018-05-24

Similar Documents

Publication Publication Date Title
JP6503070B2 (ja) 携帯型デバイスの位置を決定するための方法
US10754423B2 (en) Providing virtual reality experience service
WO2019223468A1 (zh) 相机姿态追踪方法、装置、设备及系统
KR20180073327A (ko) 영상 표시 방법, 저장 매체 및 전자 장치
Hwang et al. Monoeye: Multimodal human motion capture system using a single ultra-wide fisheye camera
WO2019055388A1 (en) 4D CAMERA TRACKING AND OPTICAL STABILIZATION
WO2019183914A1 (en) Dynamic video encoding and view adaptation in wireless computing environments
CN111788538B (zh) 头戴式显示器以及减少所连接的远程显示器中视觉诱发运动疾病的方法
US20230388632A1 (en) Dynamic adjustment of exposure and iso to limit motion blur
US20230300464A1 (en) Direct scale level selection for multilevel feature tracking under motion blur
JP2009245207A (ja) 確率分布構築方法、確率分布構築装置、および確率分布構築プログラム、並びに被写体検出方法、被写体検出装置、および被写体検出プログラム
KR20240008915A (ko) 모션 블러 완화를 위한 선택적 이미지 피라미드 계산
US20220375041A1 (en) Selective image pyramid computation for motion blur mitigation in visual-inertial tracking
Han et al. Video stabilization for camera shoot in mobile devices via inertial-visual state tracking
US11765457B2 (en) Dynamic adjustment of exposure and iso to limit motion blur
US11683585B2 (en) Direct scale level selection for multilevel feature tracking under motion blur
US20220114740A1 (en) Camera motion information based three-dimensional (3d) reconstruction
KR20240006669A (ko) 늦은-워핑에서의 동적 오버-렌더링
CN111684784B (zh) 图像处理方法和装置
US20230421717A1 (en) Virtual selfie stick
WO2023276480A1 (ja) 撮影システム、撮影方法及びプログラム
CN117321635A (zh) 用于多级别特征跟踪的直接尺度级别选择
CN117337575A (zh) 用于运动模糊减轻的选择性图像金字塔计算
JP6360389B2 (ja) 映像提示装置及びプログラム
CN117441343A (zh) 曝光和iso的动态调整的相关应用

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190322

R150 Certificate of patent or registration of utility model

Ref document number: 6503070

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees