JP6986003B2 - トラッキングシステム及びそのトラッキング方法 - Google Patents

トラッキングシステム及びそのトラッキング方法 Download PDF

Info

Publication number
JP6986003B2
JP6986003B2 JP2018226577A JP2018226577A JP6986003B2 JP 6986003 B2 JP6986003 B2 JP 6986003B2 JP 2018226577 A JP2018226577 A JP 2018226577A JP 2018226577 A JP2018226577 A JP 2018226577A JP 6986003 B2 JP6986003 B2 JP 6986003B2
Authority
JP
Japan
Prior art keywords
sensors
sensor
hmd
user
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018226577A
Other languages
English (en)
Other versions
JP2020047239A (ja
Inventor
永明 周
俊偉 林
毅剛 謝
嘉偉 ▲呉▼
Original Assignee
未來市股▲ふん▼有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 未來市股▲ふん▼有限公司 filed Critical 未來市股▲ふん▼有限公司
Publication of JP2020047239A publication Critical patent/JP2020047239A/ja
Application granted granted Critical
Publication of JP6986003B2 publication Critical patent/JP6986003B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0334Foot operated pointing devices

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、トラッキングシステム及びトラッキング方法に関連し、より具体的には、ユーザのより低い体の挙動を可視化する能力のあるトラッキングシステム及びトラッキング方法に関連する。
技術の進歩と発展によって、コンピュータゲームとユーザとの間の相互作用(interaction:インタラクション)の要望が増加している。人間・コンピュータ相互作用技術、例えば、体性感覚ゲーム(somatosensory games)、仮想現実(VR:virtual reality)環境、拡張現実(AR:augmented reality)環境及びエクステンデッドリアリティ(XR:extended reality)環境は、その生理学的及び娯楽的な機能により人気を得ている。従来のXR技術は、アウトサイドイン(outside-in)又はインサイドアウト(inside-out)のトラッキング方法によってユーザの動きをトラッキングすることによってユーザを可視化し、それは、リアルタイムで、動くオブジェクトのシーン座標(scene coordinates)をトレースし、例えば、ヘッドマウントディスプレイ(HMDs:head-mounted displays)、モーションコントローラ周辺装置又はカメラである。このように、仮想環境でユーザに同時に相互作用を提供するために、HMD、モーションコントローラ周辺装置又はカメラは、一緒に動作し、仮想環境においてユーザによるジェスチャーに対して反応することができる。
しかしながら、ユーザの体の動きは、3つの直交する軸に関して、フォワード/バックワード(forward/backward)(すなわち、サージ(surge))、アップ/ダウン(up/down)(すなわち、ヒーブ(heave))、レフト/ライト(left/right)(すなわち、スウェイ(sway))の移動(translation)として、位置を自由に変化させ、それは、3つの直交する軸に関する回転を通して方向(orientation)における変化と結合される。仮想環境における従来のトラッキングシステムは、ユーザの体の動きを感知(sense)するために少なくとも4つのセンサ、アウトサイドイン又はインサイドアウトのトラッカ及びカメラを装着する必要があり、それは、仮想環境で体験するとき、ユーザにとっては、不便な結果となる。
したがって、本発明は、ユーザにより良い使用シナリオを提供するトラッキングシステム(tracking system)及びトラッキング方法(tracking method)を提供する。
本発明は、ユーザの頭に装着され仮想環境においてユーザの体の動きを視覚化するように構成されたヘッドマウントディスプレイ(HMD)と、ユーザの足に装着され、ユーザの体の動きにしたがってユーザの体の情報を決定し、決定された体の情報をHMDに送信するように構成された複数のセンサであって、HMDは、決定された体の情報にしたがって、ユーザの体の動きを可視化する、複数のセンサとを備え、体の情報は、複数のセンサとHMDとの間の複数の相互関係(mutual relationships)に関連する、トラッキングシステムを開示する。
本発明は、ヘッドマウントディスプレイ(HMD)に対するトラッキング方法を開示し、HMDは、仮想環境においてユーザの体の動きを視覚化する。このトラッキング方法は、複数のセンサによって、ユーザの体の動きにしたがって、ユーザの体の情報を決定することと、複数のセンサによって決定された体の情報をHMDに送信することとを含み、HMDは、決定された体の情報にしたがってユーザの体の動きを視覚化し、体の情報は、複数のセンサとHMDとの間の複数の相互関係に関連し、HMDは、ユーザの頭に装着され、複数のセンサは、ユーザの足に装着される。
本発明のこれらの及び他の目的は、いくつかの図面に説明された好ましい実施形態の以下の詳細な説明を読んだ後に、当業者にとって明らかになることを確信する。
本発明の実施形態によるトラッキングシステムの概略図である。 本発明の実施形態によるトラッキングシステムの実装例の概略図である。 本発明の実施形態によるトラッキングプロセスの概略図である。
本発明の実施形態によるトラッキングシステム10の概略図である図1を参照する。トラッキングシステム10は、ヘッドマウントディスプレイ(HMD)102と複数のセンサ104を含む。HMD102は、ユーザの頭に装着され、仮想環境においてユーザの体の動きを視覚化するように構成することができる。センサ104は、ユーザの足に装着され、ユーザの体の動きにしたがってユーザの体の情報を決定し、HMD102に決定された体の情報を送信するように構成することができ、それによって、HMD102は、決定された体の情報にしたがってユーザの体の動きを視覚化することができる。例としては、三次元空間において、ユーザの体の動きを視覚化するように、センサ104は、6自由度(DOF:degrees-of-freedom)センサでも良い。実施形態において、HMD102とセンサ104との間の第1の接続C1は、ブルートゥース(登録商標)であり、センサ間の第2の接続C2は、超音波(ultrasonic)、レーザ(laser)、又は磁力(magnetic force)であるが、これらに限定されるものではない。特に、体の情報は、センサ104とHMD102との間の複数の相互関係に関連する。したがって、本発明のトラッキングシステム10は、ユーザ体験を向上されるために、追加のアウトサイドイン又はインサイドアウトカメラ又はトラッカを実装すること無く、リアルタイムでユーザの体の動きを可視化する。
上述の例は、本発明のトラッキングシステム10がアウトサイドイン又はインサイドアウトカメラ又はトラッカを実装せずにユーザの体の動きを視覚化することを簡単に説明する。特に、当業者は、適切な変更を行うことができる。例えば、第1の接続C1と第2の接続C2は、これらに制限されることなく、本発明の範囲に属する、互いに通信できる任意の別の方法で実装しても良い。
本発明のセンサ104は、第1のセンサ104_1と第2のセンサ104_2とを備える。詳細には、第1のセンサ104_1と第2のセンサ104_2は、さらに、第1のセンサ104_1の第1の座標と、第2のセンサ104_2の第2の座標をシミュレートする第1の慣性計測装置(IMU:inertial measurement unit)106_1と第2の慣性計測装置(IMU)106_2を、それぞれ備える。第1のセンサ104_1と第2のセンサ104_2は、超音波、レーザ、又は磁力を介して互いに接続されても良いので、各センサの座標は、共用され、そして、センサの正確な位置を知る。言い換えれば、第1のセンサ104_1は、第2のセンサ104_2の相対位置と相対距離を知り、第2のセンサ104_2は、第1のセンサ104_1の相対位置と相対距離を知る。その上、実施形態において、センサ104は、ブルートゥースを経由して、HMD102と接続しても良く、HMD102とセンサ104との間の相対位置と相対距離が分かる。それ故に、HMD102とセンサ104の相互の位置は、互いに知っており、そのため、HMD102及びセンサ104がユーザによって装着されたとき、ユーザによって生成された体の動きは、センサ104によって検知された体の情報にしたがってそれぞれ決定することができる。このように、本発明のセンサ104は、追加のアウトサイドイン又はインサイドアウトのカメラ又はトラッカを実装すること無しにリアルタイムでユーザの体の動きを可視化する。
実施形態において、図2を参照すると、それは、本発明の実施形態によるトラッキングシステムの実装例の概略図である。図2に示されるように、ユーザが仮想環境にいて、HMD102とセンサ104を装着しているとき、トラッキングシステム10は、ユーザの体の動きをトラッキングするためのアウトサイドイン又はインサイドアウトのカメラ又はトラッカから開放されている。それに加えて、HMD102は、第1の接続C1を介してセンサ104に接続され、センサ104によって相対位置と相対距離を知ることができる。その上、センサ104は、相互に接続され、相互に座標を受け取ることができるので、第1の座標と第2の座標は、センサの位置を校正するために利用することができ、それによって、体の情報の精度が向上する。すなわち、本発明のトラッキングシステム10は、アウトサイドイン又はインサイドアウトのカメラ又はトラッカ無しで、ユーザの体の動きをトラッキングし、大いにユーザ体験を向上させる。
異なるアプリケーションと設計コンセプトに基づいて、本発明のトラッキングシステム10は、あらゆる種類の方法として実装することができる。さらに、トラッキングシステム10の動作プロセスは、図3に示されるトラッキングプロセス30で終了しても良く、以下のステップを含む:
ステップ302:開始。
ステップ304:センサ104は、ユーザの体の動きにしたがってユーザの体の情報を決定する。
ステップ306:センサ104は、決定された体の情報をHMDへ送信する。
ステップ308:終了。
トラッキングプロセス30の詳細は、トラッキングシステム10の上述の実施形態を参照することができ、簡潔さのために本明細書では述べない。
特に、上述の実施形態は、本発明の概念を説明し、当業者であれば、これらに制限されず、それに応じて、適切に変更することができる。磁気計測器(magnetic meter)又は球面アンテナアレイ(spherical antenna array)は、センサの位置を校正するためにセンサに追加することができ、それによって、ユーザの体の動きの可視化の精度を向上し、さらに、ユーザ体験を向上する。
要するに、本発明は、アウトサイドイン又はインサイドアウトのトラッキングデバイス無しで仮想環境においてトラッキングシステム及びトラッキング方法を提供し、より具体的には、ユーザが仮想現実環境を体験するとき、より良い体験を提供する。
当業者は、本発明の教示にとどまる間、本装置と本方法の数多くの変更及び修正が可能であることに容易に気づく。それに応じて、上述の開示は、添付請求項の境界や限度によってのみ制限されると解釈されるべきである。

Claims (14)

  1. トラッキングシステムであって、
    ユーザの頭に装着され、仮想環境において前記ユーザの体の動きを仮想化するように構成された、ヘッドマウントディスプレイ(HMD)と、
    前記ユーザの足に装着され、前記ユーザの前記体の動きにしたがって、前記ユーザの体の情報を決定し、前記決定された体の情報を前記HMDに送信するように構成された複数のセンサであって、前記複数のセンサの各々が、第1の接続を介して前記HMDに接続され、前記複数のセンサは、第2の接続を介して相互に直接接続され、前記複数のセンサのうち各2つのセンサ間、及び、前記複数のセンサの各々と前記HMDとの間の複数の相互関係が知らされ、前記複数のセンサの各々が、座標を作製するために前記センサの動きを検出する慣性計測装置を含み、前記複数のセンサの各々が、前記複数のセンサの各々の座標を、前記第2の接続を介して相互に、及び、前記第1の接続を介して前記HMDと共用し、前記HMDは、前記決定された体の情報にしたがって、前記ユーザの前記体の動きを仮想化する、複数のセンサと、
    を備え、
    前記体の情報は、前記複数のセンサのうち各2つのセンサ間、及び、前記複数のセンサの各々と前記HMDとの間の前記複数の相互関係に関連し、
    複数のセンサの1つが、前記第2の接続を介した前記共用された座標及び前記第1の接続を介した前記共用された座標にしたがって、前記複数の相互関係のうち前記複数のセンサの1つと別のセンサとの間の相対距離及び相対位置を校正し、前記複数のセンサのうち2つのセンサ間の相対位置及び相対距離が前記複数のセンサのうちの1つのセンサによって知らされる、トラッキングシステム。
  2. 前記複数のセンサは、第1のセンサと第2のセンサを備え、前記第1のセンサは、前記第1のセンサの動きを検出する第1の慣性計測装置(IMU)を備え、前記第2のセンサは、前記第2のセンサの動きを検出する第2のIMUを備え、前記動きは、前記センサの座標を得るために使用される、請求項1に記載のトラッキングシステム。
  3. 前記複数の相互関係は、前記第1のセンサ、前記第2のセンサ及び前記HMDとの間の複数の相対距離、及び前記第1のセンサ、前記第2のセンサ及び前記HMDとの間の相対位置を含む、請求項2に記載のトラッキングシステム。
  4. 前記第1のセンサの座標と、前記第2のセンサの座標は、相互に及び前記HMDと共用されている、請求項2に記載のトラッキングシステム。
  5. 前記HMDは、ブルートゥース(登録商標)を介して、前記複数のセンサに接続されている、請求項1に記載のトラッキングシステム。
  6. 前記複数のセンサは、6自由度(DOF)センサである、請求項1に記載のトラッキングシステム。
  7. 前記複数のセンサは、超音波、レーザ、又は磁力を介して相互に接続されている、請求項1に記載のトラッキングシステム。
  8. ヘッドマウントディスプレイ(HMD)システムに対するトラッキング方法であって、前記HMDは、仮想環境においてユーザの体の動きを仮想化し、前記トラッキング方法は、
    複数のセンサによって、前記ユーザの前記体の動きにしたがって、前記ユーザの体の情報を決定することと、
    前記複数のセンサによって、前記決定された体の情報を前記HMDに送信することと、
    を含み、
    前記HMDは、前記決定された体の情報にしたがって前記ユーザの前記体の動きを仮想化し、
    前記体の情報は、前記複数のセンサのうち各2つのセンサ間、及び、前記複数のセンサの各々と前記HMDとの間の複数の相互関係に関連し、
    前記HMDは、前記ユーザの頭に装着され、前記複数のセンサは、前記ユーザの足に装着され、前記複数のセンサの各々が、第1の接続を介して前記HMDに接続され、前記複数のセンサは、第2の接続を介して相互に直接接続され、前記複数のセンサのうち各2つのセンサ間、及び、前記複数のセンサの各々と前記HMDとの間の前記複数の相互関係が知らされ、前記複数のセンサの各々が、座標を作製するために前記センサの動きを検出する慣性計測装置を含み、前記複数のセンサの各々が、前記複数のセンサの各々の座標を、前記第2の接続を介して相互に、及び、前記第1の接続を介して前記HMDと共用し、
    複数のセンサの1つが、前記第2の接続を介した前記共用された座標及び前記第1の接続を介した前記共用された座標にしたがって、前記複数の相互関係のうち前記複数のセンサの1つと別のセンサとの間の相対距離及び相対位置を校正し、前記複数のセンサのうち2つのセンサ間の相対位置及び相対距離が前記複数のセンサのうちの1つのセンサによって知らされる、トラッキング方法。
  9. 前記複数のセンサは、第1のセンサと第2のセンサを備え、前記第1のセンサは、前記第1のセンサの動きを検出する第1の慣性計測装置(IMU)を備え、前記第2のセンサは、前記第2のセンサの動きを検出する第2のIMUを備え、前記動きは、前記センサの座標を得るために使用される、請求項8に記載のトラッキング方法。
  10. 前記複数の相互関係は、前記第1のセンサ、前記第2のセンサ及び前記HMDとの間の複数の相対距離、及び前記第1のセンサ、前記第2のセンサ及び前記HMDとの間の相対位置である、請求項9に記載のトラッキング方法。
  11. 前記第1のセンサの座標と、前記第2のセンサの座標は、相互に及び前記HMDと共用されている、請求項9に記載のトラッキング方法。
  12. 前記HMDは、ブルートゥース(登録商標)を介して、前記複数のセンサに接続されている、請求項8に記載のトラッキング方法。
  13. 前記複数のセンサは、6自由度(DOF)センサである、請求項8に記載のトラッキング方法。
  14. 前記複数のセンサは、超音波、レーザ、又は磁力を介して相互に接続されている、請求項8に記載のトラッキング方法。
JP2018226577A 2018-09-19 2018-12-03 トラッキングシステム及びそのトラッキング方法 Active JP6986003B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/136,198 US10817047B2 (en) 2018-09-19 2018-09-19 Tracking system and tacking method using the same
US16/136198 2018-09-19

Publications (2)

Publication Number Publication Date
JP2020047239A JP2020047239A (ja) 2020-03-26
JP6986003B2 true JP6986003B2 (ja) 2021-12-22

Family

ID=64744605

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018226577A Active JP6986003B2 (ja) 2018-09-19 2018-12-03 トラッキングシステム及びそのトラッキング方法

Country Status (5)

Country Link
US (1) US10817047B2 (ja)
EP (1) EP3627289A1 (ja)
JP (1) JP6986003B2 (ja)
CN (1) CN110928404B (ja)
TW (1) TWI735830B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10496808B2 (en) 2016-10-25 2019-12-03 Apple Inc. User interface for managing access to credentials for use in an operation
US10698701B1 (en) 2019-06-01 2020-06-30 Apple Inc. User interface for accessing an account
CN112416125A (zh) 2020-11-17 2021-02-26 青岛小鸟看看科技有限公司 Vr头戴式一体机
US12111962B2 (en) * 2021-02-19 2024-10-08 Apple Inc. User interfaces and device settings based on user identification
CN117180720B (zh) * 2023-11-07 2024-01-05 成都孚谦科技有限公司 一种基于体感追踪器技术的虚拟动作游戏交互系统及方法

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6757068B2 (en) 2000-01-28 2004-06-29 Intersense, Inc. Self-referenced tracking
WO2006020846A2 (en) * 2004-08-11 2006-02-23 THE GOVERNMENT OF THE UNITED STATES OF AMERICA as represented by THE SECRETARY OF THE NAVY Naval Research Laboratory Simulated locomotion method and apparatus
US7636645B1 (en) * 2007-06-18 2009-12-22 Ailive Inc. Self-contained inertial navigation system for interactive control using movable controllers
KR101483713B1 (ko) 2008-06-30 2015-01-16 삼성전자 주식회사 모션 캡쳐 장치 및 모션 캡쳐 방법
JP2010240185A (ja) 2009-04-07 2010-10-28 Kanazawa Inst Of Technology 動作学習支援装置
US9067097B2 (en) * 2009-04-10 2015-06-30 Sovoz, Inc. Virtual locomotion controller apparatus and methods
US20110270135A1 (en) * 2009-11-30 2011-11-03 Christopher John Dooley Augmented reality for testing and training of human performance
US10052035B2 (en) * 2013-10-25 2018-08-21 Qualcomm Incorporated System and method for obtaining bodily function measurements using a mobile device
US10415975B2 (en) 2014-01-09 2019-09-17 Xsens Holding B.V. Motion tracking with reduced on-body sensors set
US9649558B2 (en) * 2014-03-14 2017-05-16 Sony Interactive Entertainment Inc. Gaming device with rotatably placed cameras
WO2016033717A1 (zh) * 2014-09-01 2016-03-10 北京诺亦腾科技有限公司 一种组合式运动捕捉系统
JP6391465B2 (ja) 2014-12-26 2018-09-19 Kddi株式会社 ウェアラブル端末装置およびプログラム
US10073516B2 (en) * 2014-12-29 2018-09-11 Sony Interactive Entertainment Inc. Methods and systems for user interaction within virtual reality scene using head mounted display
CN107209565B (zh) * 2015-01-20 2020-05-05 微软技术许可有限责任公司 用于显示固定大小的增强现实对象的方法和系统
EP3067783A1 (en) * 2015-03-11 2016-09-14 ETH Zurich Method and system to track human locomotion by relative positional tracking of body parts of the human
US10248188B2 (en) * 2015-06-03 2019-04-02 James M. O'Neil System and method for generating wireless signals and controlling digital responses from physical movement
US10324522B2 (en) 2015-11-25 2019-06-18 Jakob Balslev Methods and systems of a motion-capture body suit with wearable body-position sensors
US10353489B2 (en) * 2016-04-13 2019-07-16 Seiko Epson Corporation Foot input device and head-mounted display device
DE102016212236A1 (de) * 2016-07-05 2018-01-11 Siemens Aktiengesellschaft Interaktionssystem und -verfahren
US11341776B2 (en) 2016-07-15 2022-05-24 Htc Corporation Method, electronic apparatus and recording medium for automatically configuring sensors
WO2018143360A1 (ja) 2017-02-03 2018-08-09 良夫 川又 相対位置検出システム及び画像表示システム
CN206819290U (zh) * 2017-03-24 2017-12-29 苏州创捷传媒展览股份有限公司 一种虚拟现实多人互动的系统
WO2018208924A1 (en) * 2017-05-09 2018-11-15 Google Llc Augmented and/or virtual reality footwear
US10379613B2 (en) * 2017-05-16 2019-08-13 Finch Technologies Ltd. Tracking arm movements to generate inputs for computer systems
US11016116B2 (en) * 2018-01-11 2021-05-25 Finch Technologies Ltd. Correction of accumulated errors in inertial measurement units attached to a user

Also Published As

Publication number Publication date
TW202013147A (zh) 2020-04-01
TWI735830B (zh) 2021-08-11
CN110928404A (zh) 2020-03-27
US10817047B2 (en) 2020-10-27
EP3627289A1 (en) 2020-03-25
CN110928404B (zh) 2024-04-19
JP2020047239A (ja) 2020-03-26
US20200089311A1 (en) 2020-03-19

Similar Documents

Publication Publication Date Title
JP6986003B2 (ja) トラッキングシステム及びそのトラッキング方法
TWI722280B (zh) 用於多個自由度之控制器追蹤
US10540006B2 (en) Tracking torso orientation to generate inputs for computer systems
US20190228584A1 (en) Robust optical disambiguation and tracking of two or more hand-held controllers with passive optical and inertial tracking
US10521011B2 (en) Calibration of inertial measurement units attached to arms of a user and to a head mounted device
US11127380B2 (en) Content stabilization for head-mounted displays
US8988438B2 (en) Motion capture apparatus and method
JP2022529245A (ja) 電磁追跡のためのセンサ融合
JP2017058777A (ja) 視線誘導のためのコンピュータ・プログラム
CN113614795A (zh) 移动设备的相对空间定位
JP2004265222A (ja) インタフェース方法、装置、およびプログラム
JP2006252468A (ja) 画像処理方法、画像処理装置
JP2017059212A (ja) 視線誘導のためのコンピュータ・プログラム
Wright et al. Leap motion performance in an augmented reality workspace: Integrating devices with an interactive platform
US20230418369A1 (en) Device tracking with integrated angle-of-arrival data
WO2018196221A1 (zh) 一种交互方法、设备及系统
Caruso et al. AR-Mote: A wireless device for Augmented Reality environment
WO2022246795A1 (zh) 虚拟现实体验安全区域更新方法及装置
JP7466733B1 (ja) 画像表示装置および画像表示システム
US11845001B2 (en) Calibration system and method for handheld controller
WO2022085395A1 (ja) コンピュータ、方法、及びプログラム
CN110554784B (zh) 输入方法、装置、显示设备及存储介质
Wright et al. Leap Motion Performance in an Augmented Reality Workspace
CN115167685A (zh) 共享虚拟场景的交互方法及控制器、手持设备及虚拟系统
JP2024056455A (ja) 情報処理システム、情報処理方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200417

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200923

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201218

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20201218

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210108

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210112

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20210129

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20210209

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210629

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210817

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20211005

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20211116

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20211116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211126

R150 Certificate of patent or registration of utility model

Ref document number: 6986003

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150