JP2021520528A - コンピュータ生成現実デバイス及び触覚デバイスで使用される座標系の座標系アライメント - Google Patents
コンピュータ生成現実デバイス及び触覚デバイスで使用される座標系の座標系アライメント Download PDFInfo
- Publication number
- JP2021520528A JP2021520528A JP2020537685A JP2020537685A JP2021520528A JP 2021520528 A JP2021520528 A JP 2021520528A JP 2020537685 A JP2020537685 A JP 2020537685A JP 2020537685 A JP2020537685 A JP 2020537685A JP 2021520528 A JP2021520528 A JP 2021520528A
- Authority
- JP
- Japan
- Prior art keywords
- electronic device
- coordinate system
- pose
- tactile
- cgr
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/76—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries based on eigen-space representations, e.g. from pose or different illumination conditions; Shape manifolds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
a)VP<=イプシロン
b)V^(t)<=イプシロン
触覚デバイス130、サーバ140、及び/又は、CGRデバイス100によって実行されるものとして上述した一部又は総ての動作は、代替的に、ネットワークオペレータクラウドコンピューティングリソースの一部である別のノードによって実行され得る。例えば、それらの動作は、例えばクラウドRAN又はコアネットワーク等の通信ネットワーク事業者のクラウドサーバ又はクラウドリソース内など、エッジに近いネットワーク機能として実行され得る。
図7は、本開示の幾つかの実施形態に従う様に構成された触覚デバイス130のブロック図である。触覚デバイス130は、動きセンサ740、ネットワークインタフェース回路730、少なくとも1つのプロセッサ回路710(プロセッサ)、及び、少なくとも1つのメモリ720(メモリ)を含み得る。動きセンサ740は、慣性測定ユニットを含み得る。ネットワークインタフェース回路730は、有線(例えば、イーサネット、USBなど)及び/又は無線(例えば、Wi−Fi、ブルートゥース、セルラー等)ネットワークインタフェースを介して別の電子デバイスと通信する様に構成される。触覚デバイス130は、力フィードバック及び/又は振動フィードバック等の触覚フィードバックをユーザに提供する様に構成された触覚フィードバック生成デバイス750を含み得る。プロセッサ710は、動きセンサ740、ネットワークインタフェース回路730、触覚フィードバック生成デバイス750、及び、メモリ720に接続される。メモリ720は、動作を実行するためにプロセッサ710により実行されるプログラムコードを格納する。プロセッサ710は、1つ又は複数のデータネットワークにわたって配置又は分散され得る、汎用及び/又は専用プロセッサ(例えば、マイクロプロセッサ及び/又はデジタル信号プロセッサ)等の1つ又は複数のデータ処理回路を含み得る。プロセッサ710は、以下にコンピュータ可読媒体として説明される、メモリ720内のプログラムコード722のコンピュータプログラム命令を実行して、触覚デバイス130について本明細書に開示される1つ又は複数の実施形態の動作及び方法の一部又は総てを実行する様に構成される。
本発明の概念の様々な実施形態の上記の説明において、本明細書で使用される用語は、特定の実施形態を説明することのみを目的とし、本発明の概念を限定することを意図しないことを理解されたい。他に定義されない限り、本明細書で使用される総ての用語(技術的及び科学的用語を含む)は、本開示が属する技術分野の当業者によって一般に理解されるのと同じ意味を有する。さらに、一般的に使用される辞書で定義されている用語等の用語は、この仕様及び関連技術の文脈での意味と一致する意味を持つものとして解釈されるべきであり、本明細書で明確にその様に定義された、理想化された又は過度に形式的な意味で解釈されないことが理解される。
Claims (26)
- 第1電子デバイス(130)の位置を測定するために第2電子デバイス(100、500)を制御する前記第1電子デバイス(130)であって、
前記第1電子デバイス(130)の動きを検知する様に構成された動きセンサ(740)と、
前記第2電子デバイス(100、500)と通信する様に構成されたネットワークインタフェース回路(730)と、
前記動きセンサ(740)及び前記ネットワークインタフェース回路(730)に接続されたプロセッサ(710)と、
メモリ(720)であって、
前記第1電子デバイス(130)が、前記動きセンサ(740)によって検知された、定義されたルールを満たす動きのレベルを有するとの判定(204、308、408)に応答して、
前記第1電子デバイス(130)の位置を測定するための要求を前記第2電子デバイス(100、500)に送信(206、310、410)することと、
前記第1電子デバイス(130)の前記位置を検知して、前記メモリ(720)に格納(208、316、416)することと、
前記第1電子デバイス(130)の前記位置を測定するために使用され得るセンサデータを格納したことを示す確認応答を前記第2電子デバイス(100、500)から受信(222、340、440)することと、
を含む動作を実行するために、前記プロセッサ(710)によって実行されるプログラムコードを格納する前記メモリ(720)と、
を備えている、第1電子デバイス。 - 請求項1に記載の第1電子デバイス(130)であって、
前記第1電子デバイス(130)は、触覚デバイスであって、ユーザによる前記触覚デバイスの移動の測定と、触覚フィードバックをユーザに提供することとの内の少なくとも1つを実行する様に構成された前記触覚デバイスを含み、
前記要求は、現実世界オブジェクト上のオーバーレイとしてグラフィックを表示する様に構成されたコンピュータ生成現実デバイスを含む前記第2電子デバイス(100、500)に送信される、第1電子デバイス。 - 請求項1又は2に記載の第1電子デバイス(130)であって、
前記動作は、さらに、
前記第1電子デバイス(130)の前記位置の測定値を前記第2電子デバイス(100、500)から受信(234)することと、
前記メモリから読み出された前記第1電子デバイス(130)の前記位置と、前記第2電子デバイス(100、500)から受信した前記第1電子デバイス(130)の前記位置の前記測定値と、に基づいて、第1座標系で参照されるポーズを第2座標系で参照されるポーズに変換するための変換行列を判定(236)することと、
を含み、
前記第1座標系及び前記第2座標系の内の一方は、前記第1電子デバイス及び前記第2電子デバイスの内の一方のポーズを参照するために使用され、前記第1座標系及び前記第2座標系の内の他方は、前記第1電子デバイス及び前記第2電子デバイスの内の他方のポーズを参照するために使用される、第1電子デバイス。 - 請求項3に記載の第1電子デバイス(130)であって、さらに、
前記プロセッサ(710)に接続された触覚フィードバック生成デバイス(750)を備え、
前記動作は、さらに、
変換されたポーズを生成するために、前記変換行列を使用して、前記第1電子デバイス(130)のポーズを前記第1座標系及び前記第2座標系の内の一方から前記第1座標系及び前記第2座標系の内の他方に変換することと、
前記変換されたポーズに基づき、前記触覚フィードバック生成デバイス(750)による触覚フィードバックの生成を制御(238)することと、
を含む、第1電子デバイス。 - 請求項1から4のいずれか1項に記載の第1電子デバイス(130)であって、
前記動作は、さらに、
前記要求が前記第2電子デバイス(100、500)に送信されたときと、前記確認応答が前記第2電子デバイス(100、500)から受信されたときと、の間の時間間隔中に検知された前記第1電子デバイス(130)の動きのレベルが、前記定義されたルールを満たさなくなった中止条件が生じたかを判定(224、360、460)することと、
前記中止条件が生じたことに応答して、前記第1電子デバイス(130)の前記位置を測定するための動作を中止するために、中止メッセージを前記第2電子デバイス(100、500)に送信(226)することと、
を含む、第1電子デバイス。 - 請求項1から5のいずれか1項に記載の第1電子デバイス(130)であって、さらに、
前記要求が前記第2電子デバイス(100、500)に送信されたときと、前記確認応答が前記第2電子デバイス(100、500)から受信されたときと、の間の時間間隔中において、前記第1電子デバイス(130)が静止したままであることに応答して、前記動きセンサ(740)によって検知された動きの前記レベルが、前記定義されたルールを満たすと判定(204)することを含む、第1電子デバイス。 - 請求項1から6のいずれか1項に記載の第1電子デバイス(130)であって、さらに、
前記要求が前記第2電子デバイス(100、500)に送信されたときと、前記確認応答が前記第2電子デバイス(100、500)から受信されたときと、の間の時間間隔中において、前記第1電子デバイス(130)が定義された閾値量を超えた変化をしない速度を有すると判定することに応答して、前記動きセンサ(740)によって検知された動きの前記レベルが、前記定義されたルールを満たすと判定(204)することと、
前記メモリから読み出された前記第1電子デバイス(130)の前記位置が、前記第1電子デバイス(130)の前記速度によって前記時間間隔の少なくとも一部分に渡って変化したと判定された量に基づいて、前記第1電子デバイス(130)の更新された位置を推定することと、
前記第1電子デバイス(130)の前記位置の測定値を前記第2電子デバイス(100、500)から受信(234)することと、
前記第1電子デバイス(130)の前記更新された位置と、前記第2電子デバイス(100、500)から受信した前記第1電子デバイス(130)の前記位置と、に基づいて、第1座標系で参照されるポーズを第2座標系で参照されるポーズに変換するための変換行列を判定(236)することと、
を含み、
前記第1座標系及び前記第2座標系の内の一方は、前記第1電子デバイス及び前記第2電子デバイスの内の一方のポーズを参照するために使用され、前記第1座標系及び前記第2座標系の内の他方は、前記第1電子デバイス及び前記第2電子デバイスの内の他方のポーズを参照するために使用される、第1電子デバイス。 - 請求項1から7のいずれか1項に記載の第1電子デバイス(130)であって、さらに、
前記要求が前記第2電子デバイス(100、500)に送信されたときと、前記確認応答が前記第2電子デバイス(100、500)から受信されたときと、の間の時間間隔中に検知された前記第1電子デバイス(130)の動きのレベルが、前記定義されたルールを満たさなくなった中止条件が生じたかを判定する(224、360、460)ことと、
前記中止条件が生じたことに応答して、第1座標系で参照されるポーズを第2座標系で参照されるポーズに変換するための変換行列を判定するための動作を中止するために、中止メッセージをサーバ(140)に送信(362、462)することと、
を含み、
前記第1座標系及び前記第2座標系の内の一方は、前記第1電子デバイス及び前記第2電子デバイスの内の一方のポーズを参照するために使用され、前記第1座標系及び前記第2座標系の内の他方は、前記第1電子デバイス及び前記第2電子デバイスの内の他方のポーズを参照するために使用される、第1電子デバイス。 - 第2電子デバイス(100、500)に対する第1電子デバイス(130)の位置を測定するための前記第2電子デバイス(100、500)であって、
前記第1電子デバイス(130)の位置を示し得るセンサデータを出力する様に構成されたセンサ(110)と、
前記第1電子デバイス(130)と通信する様に構成されたネットワークインタフェース回路(830)と、
前記センサ(110)及び前記ネットワークインタフェース回路(830)に接続されたプロセッサ(810)と、
メモリ(820)であって、
前記第2電子デバイス(100、500)による前記第1電子デバイス(130)の位置の測定値を送信する要求を受信(214、430)することと、
前記要求に応答して、前記第1電子デバイス(130)の前記位置の測定値を生成するための動作を開始(216、432)することと、
前記センサ(110)によって出力された、前記第1電子デバイス(130)の前記位置を示し得るセンサデータを前記メモリ(820)に格納(218、434)することと、
前記センサデータが格納されたことを示す確認応答を送信(220、436)することと、
前記メモリに格納された前記センサデータに基づき前記第1電子デバイス(130)の前記位置の測定値を生成(230、454)することと、
前記第1電子デバイス(130)の前記位置の前記測定値を送信(232、456)することと、
を含む動作を実行するために、前記プロセッサ(810)によって実行されるプログラムコードを格納する前記メモリ(820)と、
を備えている、第2電子デバイス。 - 請求項9に記載の第2電子デバイス(100、500)であって、
前記動作は、さらに、
前記要求が受信されたときと、前記第2電子デバイス(100、500)によって前記確認応答が送信されたときと、の間の時間間隔中に検知された前記第1電子デバイス(130)の動きのレベルが、定義されたルールを満たさなくなったことを示す中止メッセージを受信したかを判定(228、230、452、454)すること、を含み、
前記第1電子デバイス(130)の前記位置の前記測定値の送信は、中止メッセージが受信されなかったとの前記判定(228、230、452、454)に応答して実行される、第2電子デバイス。 - 請求項9又は10に記載の第2電子デバイス(100、500)であって、
前記センサ(110)は、カメラを備え、
前記メモリに格納された前記センサデータに基づき前記第1電子デバイス(130)の前記位置の前記測定値を生成するための前記動作は、前記カメラからのデジタル写真において、前記第1電子デバイス(130)に接続されたマーカと、前記第1電子デバイス(130)のハウジングの一部に接続されたマーカとの内の少なくとも1つの位置を識別することを含む、第2電子デバイス。 - 請求項9から11のいずれか1項に記載の第2電子デバイス(100、500)であって、
前記第2電子デバイス(100、500)は、コンピュータ生成現実(CGR)デバイスを備え、
前記第1電子デバイス(130)は、触覚デバイスであって、ユーザによる前記触覚デバイスの移動の測定と、触覚フィードバックをユーザに提供することとの内の少なくとも1つを実行する様に構成されている前記触覚デバイスを含む、第2電子デバイス。 - 請求項12に記載の第2電子デバイス(100、500)であって、
前記第1電子デバイス(130)の前記位置の前記測定値を送信(232、456)することは、第1座標系で参照されるポーズを第2座標系で参照されるポーズに変換するための変換行列を判定するため、前記触覚デバイスの前記位置の前記測定値を前記触覚デバイスに送信(232)すること、を含み、
前記第1座標系及び前記第2座標系の内の一方は、前記触覚デバイス及び前記CGRデバイスの内の一方のポーズを参照するために使用され、前記第1座標系及び前記第2座標系の内の他方は、前記触覚デバイス及び前記CGRデバイスの内の他方のポーズを参照するために使用される、第2電子デバイス。 - 請求項9から13のいずれか1項に記載の第2電子デバイス(100、500)であって、さらに、
前記第1電子デバイス(130)により検知され、かつ、前記第1電子デバイス(130)から受信した前記第1電子デバイス(130)の前記位置と、前記第2電子デバイス(100、500)による前記第1電子デバイス(130)の前記位置の前記測定値と、に基づいて、第1座標系で参照されるポーズを第2座標系で参照されるポーズに変換するための変換行列を判定(457)することであって、前記第1座標系及び前記第2座標系の内の一方は、前記第1電子デバイス及び前記第2電子デバイスの内の一方のポーズを参照するために使用され、前記第1座標系及び前記第2座標系の内の他方は、前記第1電子デバイス及び前記第2電子デバイスの内の他方のポーズを参照するために使用される、前記判定(457)することと、
前記変換行列に基づき判定されたポーズを有するグラフィックオブジェクトを表示デバイス(850)に表示(458)することと、
を含む、第2電子デバイス。 - 請求項9から14のいずれか1項に記載の第2電子デバイス(100、500)であって、
前記第1電子デバイス(130)の前記位置の前記測定値を送信(232、456)することは、第1座標系で参照されるポーズを第2座標系で参照されるポーズに変換するための変換行列を判定するため、前記位置の前記測定値を使用するサーバに前記位置の前記測定値を送信(456)すること、を含み、
前記第1座標系及び前記第2座標系の内の一方は、前記第1電子デバイス及び前記第2電子デバイスの内の一方のポーズを参照するために使用され、前記第1座標系及び前記第2座標系の内の他方は、前記第1電子デバイス及び前記第2電子デバイスの内の他方のポーズを参照するために使用される、第2電子デバイス。 - 請求項9から15のいずれか1項に記載の第2電子デバイス(500)であって、さらに、
前記第2電子デバイス(500)のユーザに面するカメラ(502)を使用してユーザの目からの反射のデジタル画像をキャプチャ(600)することであって、前記ユーザの目からの前記反射は、前記第2電子デバイス(500)の表示デバイス(850)に表示された仮想コンピュータ生成オブジェクトの反射である第1コンポーネントと、現実世界オブジェクトからの光の反射である第2コンポーネントと、を含む、前記キャプチャ(600)することと、
前記仮想コンピュータ生成オブジェクトと前記現実世界オブジェクトとの間のミスアラインメントの計測値を抽出するために前記画像を処理(602)することと、
ミスアライメントの前記計測値が定義されたアライメントルールを満たさないことに応答して、更新された変換行列を生成するための動作を開始(604)することと、
を含む、第2電子デバイス。 - サーバ(140)であって、
第1電子デバイス(130)及び第2電子デバイス(100、500)と通信する様に構成されたネットワークインタフェース回路(930)と、
前記ネットワークインタフェース回路(930)に接続されたプロセッサ(910)と、
メモリ(920)であって、
前記第1電子デバイス(130)の位置の前記第1電子デバイス(130)による測定値を、前記第1電子デバイス(130)から受信(320)することと、
前記第1電子デバイス(130)の位置の前記第2電子デバイス(100、500)による測定値を、前記第2電子デバイス(100、500)から受信(370)することと、
前記第1電子デバイス(130)から受信した前記第1電子デバイスの前記位置と、前記第2電子デバイス(100)から受信した前記第1電子デバイスの前記位置と、に応答して、第1座標系で参照されるポーズを第2座標系で参照されるポーズに変換するための変換行列を生成(374)することと、
を含む動作を実行するために、前記プロセッサ(910)によって実行されるプログラムコードを格納する前記メモリ(920)と、
を備え、
前記第1座標系及び前記第2座標系の内の一方は、前記第1電子デバイス及び前記第2電子デバイスの内の一方のポーズを参照するために使用され、前記第1座標系及び前記第2座標系の内の他方は、前記第1電子デバイス及び前記第2電子デバイスの内の他方のポーズを参照するために使用される、サーバ。 - 請求項17に記載のサーバであって、前記動作は、さらに、
前記第2電子デバイス(100、500)から通信される、前記第1電子デバイス(130)の前記位置を測定するために使用され得るセンサデータを前記第2電子デバイス(100、500)が格納したことを示す確認応答を観察(338)することと、
前記位置の前記測定値を送信する前記第2電子デバイス(100、500)への要求が観察されたときと、前記第2電子デバイス(100、500)が前記センサデータを格納したことを示す前記確認応答を前記第2電子デバイス(100、500)が通信したときと、の間の時間間隔中に検知された前記第1電子デバイス(130)の動きのレベルが、定義されたルールを満たさなくなったことを示す中止メッセージが受信されたかを判定(372)することと、
を含み、
前記変換行列を生成(374)するための前記動作は、前記第2電子デバイス(100、500)から通信される前記確認応答を受信する前に、中止メッセージが受信されなかった場合にのみ実行される、サーバ。 - 請求項17に記載のサーバであって、
前記第1電子デバイス(130)は、触覚デバイスであって、ユーザによる前記触覚デバイスの移動の測定と、触覚フィードバックをユーザに提供することとの内の少なくとも1つを実行する様に構成されている前記触覚デバイスを含み、
前記第2電子デバイス(100、500)は、コンピュータ生成現実(CGR)デバイスを含む、サーバ。 - 請求項17に記載のサーバであって、さらに、
前記変換行列を使用して、触覚フィードバック生成デバイス(750)による触覚フィードバックの生成を制御(380)することと、
前記変換行列に基づき判定されるポーズを有するグラフィックオブジェクトの表示デバイス(850)への表示を制御(380)することと、
の内の少なくとも1つを実行すること、を含み、
前記表示デバイス(850)は、前記第2電子デバイス(100、500)内にある、サーバ。 - 第1電子デバイス(130)の位置を測定するために第2電子デバイス(100、500)を制御する前記第1電子デバイス(130)による方法であって、
前記第1電子デバイス(130)が、定義されたルールを満たす動きのレベルを有すると判定(204、308、408)することに応答して、
前記第1電子デバイス(130)の位置を測定するための要求を前記第2電子デバイス(100、500)に送信(206、310、410)することと、
前記第1電子デバイス(130)の前記位置を検知して、メモリに格納(208、316、416)することと、
前記第1電子デバイス(130)の前記位置を測定するために使用され得るセンサデータを格納したことを示す確認応答を前記第2電子デバイス(100、500)から受信ことと、
を含む、方法。 - 請求項21に記載の方法であって、さらに、
請求項2から8のいずれか1項に記載の動作を実行することを含む、方法。 - 第2電子デバイス(100、500)に対する第1電子デバイス(130)の位置を測定するための前記第2電子デバイス(100、500)による方法であって、
前記第2電子デバイス(100、500)による前記第1電子デバイス(130)の位置の測定値を送信する要求を受信(214、430)することと、
前記要求に応答して、前記第1電子デバイス(130)の前記位置の測定値を生成するための動作を開始(216、432)することと、
センサによって出力された、前記第1電子デバイス(130)の前記位置を示し得るセンサデータをメモリに格納(218、434)することと、
前記センサデータが格納されたことを示す確認応答を送信(220、436)することと、
前記メモリに格納された前記センサデータに基づき前記第1電子デバイス(130)の前記位置の測定値を生成することと、
前記第1電子デバイス(130)の前記位置の前記測定値を送信(232、456)することと、
を含む、方法。 - 請求項23に記載の方法であって、さらに、
請求項10から16のいずれか1項に記載の動作を実行することを含む、方法。 - サーバ(140)による方法であって、
第1電子デバイス(130)の位置の前記第1電子デバイス(130)による測定値を、前記第1電子デバイス(130)から受信(320)することと、
前記第1電子デバイス(130)の位置の第2電子デバイス(100、500)による測定値を、前記第2電子デバイス(100、500)から受信(370)することと、
前記第1電子デバイス(130)から受信した前記第1電子デバイスの前記位置と、前記第2電子デバイス(100)から受信した前記第1電子デバイスの前記位置と、に応答して、第1座標系で参照されるポーズを第2座標系で参照されるポーズに変換するための変換行列を生成(374)することと、
を含み、
前記第1座標系及び前記第2座標系の内の一方は、前記第1電子デバイス及び前記第2電子デバイスの内の一方のポーズを参照するために使用され、前記第1座標系及び前記第2座標系の内の他方は、前記第1電子デバイス及び前記第2電子デバイスの内の他方のポーズを参照するために使用される、方法。 - 請求項25に記載の方法であって、さらに、
請求項18から20のいずれか1項に記載の動作を実行することを含む、方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2018/054481 WO2019161903A1 (en) | 2018-02-23 | 2018-02-23 | Coordinating alignment of coordinate systems used for a computer generated reality device and a haptic device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021520528A true JP2021520528A (ja) | 2021-08-19 |
JP7079848B2 JP7079848B2 (ja) | 2022-06-02 |
Family
ID=61283229
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020537685A Active JP7079848B2 (ja) | 2018-02-23 | 2018-02-23 | コンピュータ生成現実デバイス及び触覚デバイスで使用される座標系の座標系アライメント |
Country Status (12)
Country | Link |
---|---|
US (3) | US11526216B2 (ja) |
EP (2) | EP3756073B1 (ja) |
JP (1) | JP7079848B2 (ja) |
CN (1) | CN111801642B (ja) |
BR (1) | BR112020017167A2 (ja) |
DK (1) | DK3756073T3 (ja) |
ES (1) | ES2927183T3 (ja) |
PL (1) | PL3756073T3 (ja) |
PT (1) | PT3756073T (ja) |
RU (1) | RU2751130C1 (ja) |
SG (1) | SG11202006100QA (ja) |
WO (1) | WO2019161903A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9649558B2 (en) * | 2014-03-14 | 2017-05-16 | Sony Interactive Entertainment Inc. | Gaming device with rotatably placed cameras |
US11455078B1 (en) | 2020-03-31 | 2022-09-27 | Snap Inc. | Spatial navigation and creation interface |
WO2022025885A1 (en) * | 2020-07-29 | 2022-02-03 | Nokia Technologies Oy | Geo-location assisted mobile augmented reality |
TW202232288A (zh) * | 2020-10-23 | 2022-08-16 | 日商和冠股份有限公司 | 電腦、方法及程式 |
US12105283B2 (en) | 2020-12-22 | 2024-10-01 | Snap Inc. | Conversation interface on an eyewear device |
US11782577B2 (en) | 2020-12-22 | 2023-10-10 | Snap Inc. | Media content player on an eyewear device |
US11797162B2 (en) * | 2020-12-22 | 2023-10-24 | Snap Inc. | 3D painting on an eyewear device |
TWI779922B (zh) * | 2021-11-10 | 2022-10-01 | 財團法人資訊工業策進會 | 擴增實境處理裝置以及方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005147894A (ja) * | 2003-11-17 | 2005-06-09 | Canon Inc | 計測方法、計測装置 |
JP2007004714A (ja) * | 2005-06-27 | 2007-01-11 | Canon Inc | 情報処理方法、情報処理装置 |
WO2011122214A1 (ja) * | 2010-03-30 | 2011-10-06 | 株式会社カプコン | プログラム及びそのプログラムを記録した記録媒体 |
JP2012512485A (ja) * | 2008-12-17 | 2012-05-31 | 株式会社ソニー・コンピュータエンタテインメント | 最小限のユーザ入力による追跡システムの較正 |
JP2013011979A (ja) * | 2011-06-28 | 2013-01-17 | Jvc Kenwood Corp | 動作指示装置、動作指示システム、動作指示方法、及びプログラム |
JP2017037554A (ja) * | 2015-08-12 | 2017-02-16 | セイコーエプソン株式会社 | 画像表示装置、コンピュータープログラム、および画像表示システム |
US20170220119A1 (en) * | 2016-02-01 | 2017-08-03 | Lori Ann Potts | Object motion tracking with remote device |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8730156B2 (en) * | 2010-03-05 | 2014-05-20 | Sony Computer Entertainment America Llc | Maintaining multiple views on a shared stable virtual space |
JP2009180536A (ja) * | 2008-01-29 | 2009-08-13 | Omron Corp | 画像処理装置、画像処理方法、およびプログラム |
US20130234925A1 (en) * | 2012-03-09 | 2013-09-12 | Nokia Corporation | Method and apparatus for performing an operation at least partially based upon the relative positions of at least two devices |
US9058681B2 (en) * | 2012-06-01 | 2015-06-16 | The Boeing Company | Sensor-enhanced localization in virtual and physical environments |
KR101887422B1 (ko) * | 2012-11-19 | 2018-09-10 | 삼성전자주식회사 | 설정된 디바이스의 위치정보를 디스플레이하는 전자 장치 및 방법 |
US10137361B2 (en) * | 2013-06-07 | 2018-11-27 | Sony Interactive Entertainment America Llc | Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system |
US9600925B2 (en) * | 2014-01-06 | 2017-03-21 | Oculus Vr, Llc | Calibration of multiple rigid bodies in a virtual reality system |
US10943395B1 (en) * | 2014-10-03 | 2021-03-09 | Virtex Apps, Llc | Dynamic integration of a virtual environment with a physical environment |
KR102414356B1 (ko) * | 2015-06-26 | 2022-06-29 | 삼성전자 주식회사 | 전자 장치 및 그의 햅틱 피드백 제공 방법 |
US10509468B2 (en) * | 2016-01-27 | 2019-12-17 | Tactai, Inc. | Providing fingertip tactile feedback from virtual objects |
US10078377B2 (en) * | 2016-06-09 | 2018-09-18 | Microsoft Technology Licensing, Llc | Six DOF mixed reality input by fusing inertial handheld controller with hand tracking |
US10249090B2 (en) * | 2016-06-09 | 2019-04-02 | Microsoft Technology Licensing, Llc | Robust optical disambiguation and tracking of two or more hand-held controllers with passive optical and inertial tracking |
US11740690B2 (en) * | 2017-01-27 | 2023-08-29 | Qualcomm Incorporated | Systems and methods for tracking a controller |
-
2018
- 2018-02-23 BR BR112020017167-0A patent/BR112020017167A2/pt not_active Application Discontinuation
- 2018-02-23 RU RU2020125740A patent/RU2751130C1/ru active
- 2018-02-23 ES ES18707347T patent/ES2927183T3/es active Active
- 2018-02-23 WO PCT/EP2018/054481 patent/WO2019161903A1/en unknown
- 2018-02-23 PL PL18707347.3T patent/PL3756073T3/pl unknown
- 2018-02-23 US US16/963,788 patent/US11526216B2/en active Active
- 2018-02-23 JP JP2020537685A patent/JP7079848B2/ja active Active
- 2018-02-23 CN CN201880090166.3A patent/CN111801642B/zh active Active
- 2018-02-23 DK DK18707347.3T patent/DK3756073T3/da active
- 2018-02-23 EP EP18707347.3A patent/EP3756073B1/en active Active
- 2018-02-23 SG SG11202006100QA patent/SG11202006100QA/en unknown
- 2018-02-23 EP EP22182743.9A patent/EP4086736A1/en active Pending
- 2018-02-23 PT PT187073473T patent/PT3756073T/pt unknown
-
2022
- 2022-10-31 US US17/977,149 patent/US11868545B2/en active Active
-
2023
- 2023-08-10 US US18/447,376 patent/US20230384872A1/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005147894A (ja) * | 2003-11-17 | 2005-06-09 | Canon Inc | 計測方法、計測装置 |
JP2007004714A (ja) * | 2005-06-27 | 2007-01-11 | Canon Inc | 情報処理方法、情報処理装置 |
JP2012512485A (ja) * | 2008-12-17 | 2012-05-31 | 株式会社ソニー・コンピュータエンタテインメント | 最小限のユーザ入力による追跡システムの較正 |
WO2011122214A1 (ja) * | 2010-03-30 | 2011-10-06 | 株式会社カプコン | プログラム及びそのプログラムを記録した記録媒体 |
JP2013011979A (ja) * | 2011-06-28 | 2013-01-17 | Jvc Kenwood Corp | 動作指示装置、動作指示システム、動作指示方法、及びプログラム |
JP2017037554A (ja) * | 2015-08-12 | 2017-02-16 | セイコーエプソン株式会社 | 画像表示装置、コンピュータープログラム、および画像表示システム |
US20170220119A1 (en) * | 2016-02-01 | 2017-08-03 | Lori Ann Potts | Object motion tracking with remote device |
Also Published As
Publication number | Publication date |
---|---|
JP7079848B2 (ja) | 2022-06-02 |
RU2751130C1 (ru) | 2021-07-08 |
ES2927183T3 (es) | 2022-11-03 |
SG11202006100QA (en) | 2020-07-29 |
US20230384872A1 (en) | 2023-11-30 |
US20200348767A1 (en) | 2020-11-05 |
BR112020017167A2 (pt) | 2020-12-22 |
EP3756073B1 (en) | 2022-07-20 |
US11868545B2 (en) | 2024-01-09 |
PL3756073T3 (pl) | 2022-11-21 |
CN111801642A (zh) | 2020-10-20 |
DK3756073T3 (da) | 2022-08-29 |
US20230050367A1 (en) | 2023-02-16 |
EP3756073A1 (en) | 2020-12-30 |
PT3756073T (pt) | 2022-08-19 |
WO2019161903A1 (en) | 2019-08-29 |
CN111801642B (zh) | 2024-10-18 |
US11526216B2 (en) | 2022-12-13 |
EP4086736A1 (en) | 2022-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7079848B2 (ja) | コンピュータ生成現実デバイス及び触覚デバイスで使用される座標系の座標系アライメント | |
US11740690B2 (en) | Systems and methods for tracking a controller | |
WO2019176308A1 (ja) | 情報処理装置、情報処理方法、および、プログラム | |
US10746815B2 (en) | Magnetic interference detection and correction | |
JP6598191B2 (ja) | 画像表示システムおよび画像表示方法 | |
WO2019155840A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
WO2017213974A1 (en) | Tap event location with a selection apparatus | |
KR101444858B1 (ko) | 원격 존재 장치 | |
KR20160014601A (ko) | 다수의 3d 디스플레이들에 대해 오브젝트를 렌더링하기 위한 방법 및 장치 | |
TW201621553A (zh) | 三維虛擬飛行滑鼠及和其一起使用之顯示器 | |
US11029753B2 (en) | Human computer interaction system and human computer interaction method | |
JP2016110177A (ja) | 3次元入力装置及び入力システム | |
US20150268735A1 (en) | User interface device and user interface method | |
CA2913954A1 (en) | Telepresence method and system for tracking head movement of a user | |
JP6882147B2 (ja) | 操作案内システム | |
CN105262982B (zh) | 机器人控制系统 | |
JP7300436B2 (ja) | 情報処理装置、システム、情報処理方法および情報処理プログラム | |
US20230353860A1 (en) | System, imaging apparatus, information processing apparatus, information processing method, and information processing program | |
JP6375279B2 (ja) | 相対位置判定方法、ディスプレイ制御方法、及び当該方法を適用するシステム | |
JP2013172211A (ja) | 遠隔操作装置、遠隔操作システム | |
CN116204060A (zh) | 鼠标指针基于手势的移动和操纵 | |
CN115066281A (zh) | 增强现实(ar)应用的姿势评估数据 | |
JP2015073214A5 (ja) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200803 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20210303 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211001 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220506 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220523 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7079848 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |