JP2019532444A - 仮想光線を用いたオブジェクト制御 - Google Patents

仮想光線を用いたオブジェクト制御 Download PDF

Info

Publication number
JP2019532444A
JP2019532444A JP2019531856A JP2019531856A JP2019532444A JP 2019532444 A JP2019532444 A JP 2019532444A JP 2019531856 A JP2019531856 A JP 2019531856A JP 2019531856 A JP2019531856 A JP 2019531856A JP 2019532444 A JP2019532444 A JP 2019532444A
Authority
JP
Japan
Prior art keywords
portable controller
control
space
controllable
controllable object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019531856A
Other languages
English (en)
Inventor
ガリクソン、ジェフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Reavire Inc
Original Assignee
Reavire Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Reavire Inc filed Critical Reavire Inc
Publication of JP2019532444A publication Critical patent/JP2019532444A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

オブジェクトを制御する技術は、仮想光線を生成する出力を与える携帯用コントローラを含む。この仮想光線は、位置および方向を有する。仮想光線の位置は、周囲空間のセンサからの入力に基づき、携帯用コントローラの位置として測定される。ユーザが携帯用コントローラを移動および/または回転させると、仮想光線が空間内を通過し、様々なオブジェクトと交差する。仮想光線が身元と位置がわかっている制御可能オブジェクトの位置と交差すると、携帯用コントローラは、そのオブジェクトを識別し、ユーザからのオブジェクト制御のための遠隔制御入力を受け付ける。この携帯用コントローラを用いることで、ユーザは、身元と空間内の位置がわかっている任意の制御可能オブジェクトを制御することができ、仮想および物理オブジェクトを制御することができる。【選択図】図1

Description

[関連出願の相互参照]
以下の出願済みの仮特許出願に基づき、優先権を主張する。
・米国仮出願第62/378,486号、2016年8月23日出願、「多因子認証強度可変型の均一認証方法を用いた権利付与および身元確認のためのセキュアハブ」
・米国仮出願第62/378,494号、2016年8月23日出願、「仮想機密情報隔離施設」
・米国仮出願第62/378,498号、2016年8月23日出願、「三次元空間における実オブジェクトおよび仮想オブジェクト用のユニバーサル・コントローラ」
・米国仮出願第62/397,226号、2016年9月20日出願、「独立した物理スペース間での仮想オブジェクトの制御および移動方法を含む、実三次元空間における共通座標系に参照された拡張現実のシステム」
・米国仮出願第62/491,048号、2017年4月27日出願、「同延現実システム」
上記の各仮特許出願の内容および教示は、その全体を参照により本明細書に援用する。
遠隔制御は、多くの家庭用電子機器にとって不可欠な部分となっている。赤外線(IR)リモコン装置は、ほとんどあらゆるテレビ受像機、ブルーレイ・ディスク・プレイヤー、オーディオシステム、またはそのほかの電子娯楽製品において、標準装備である。IRリモコン装置を使用する際、ユーザはリモコン装置を機器に向けてボタンを押下する。リモコン装置は、ユーザによるボタン押下をIR信号へと変換し、このIR信号は空中を移動して、当該機器のIR検出器に到達する。機器は、検出したIR信号を対応するコマンドに変換し、これを実行して状態や設定に所望の変更を行う。
家庭用機器の中には、無線周波数(RF)遠隔制御を用いるものもある。RFリモコン装置は、ユーザによるボタン押下をRF通信信号へと変換し、このRF通信信号は空中を移動して、当該機器のRF対応機器のアンテナに到達する。機器内部の回路は、RF信号を復号してコマンドに変換し、これを実行して所望の変更を行う。
また、各種のユニバーサル・リモコン装置が当技術分野で知られている。ユーザは、制御対象の機器の製造者および型式を識別するコードを入力することにより、ユニバーサル・リモコン装置をプログラムすることができる。ユニバーサル・リモコン装置は、入力された機器の製造者および型式用のコマンドを(例えばオンボードのデータベースから)取得し、ユーザがボタンを押下すると制御コマンドの実行を開始する。IRおよびRFのユニバーサル・リモコン装置が知られており、IRおよびRF技術を組み合わせたユニバーサル・リモコン装置もある。
遠隔制御のその他の周知のソリューションとして、スマートホーム・ソフトウェアポータルや音声操作システムがある。また、従来のスマートフォンにアプリをダウンロードして、スマートフォンをリモコン装置として使えるようにすることもできる。
しかしながら、リモコン装置は急速に増加しやすく、リモコン装置がたくさんある代表的な家庭では、その数が非常に多いために管理が難しい。リモコン装置の中にはめったに使われないものもある。よく置き忘れられるものもある。ユニバーサル・リモコン装置は、家庭内のリモコン装置の数を減らすために役立つが、そのプログラムや使用が難しい人もいる。
リモコン装置の従来のソリューションに対して、オブジェクトを制御する改良された技術は、仮想光線を生成する出力を与える携帯用コントローラを含む。この仮想光線は、位置および方向を有する。仮想光線の位置は、周囲空間のセンサからの入力に基づき、携帯用コントローラの位置として測定される。ユーザが携帯用コントローラを移動および/または回転させると、仮想光線が空間内を通過し、様々なオブジェクトと交差する。仮想光線が身元と位置がわかっている制御可能オブジェクトの位置と交差すると、携帯用コントローラは、そのオブジェクトを識別し、ユーザからのオブジェクト制御のための遠隔制御入力を受け付ける。この携帯用コントローラを用いることで、ユーザは、身元と空間内の位置がわかっている任意の制御可能オブジェクトを制御することができる。
好都合には、多数の別々のリモコン装置を単一の携帯用コントローラに置き換えて、広範囲にわたる機器や電化製品に単一の制御パラダイムを与えることができる。この制御パラダイムは、多くの利便性や利点を可能とし、仮想オブジェクトおよび物理オブジェクトに拡張可能なものである。
ある例では、携帯用コントローラの位置測定は、携帯用コントローラからの無線信号の送信を含む。無線信号は空間内を伝播して複数のアンテナに到達し、これらのアンテナは無線信号を処理して対応する出力を生成する。この出力が処理されて、携帯用コントローラの位置となる。
ある例では、携帯用コントローラはクリック・トゥ・キャプチャ機能を備えており、これによってユーザはボタンをクリックして、空間内で仮想光線が現在交差している任意のオブジェクトの身元をキャプチャすることができる。身元がキャプチャされると、ユーザは、携帯用コントローラを快適な角度に自由に向けなおし、もはや携帯用コントローラがキャプチャされたオブジェクトに向けられていない状態であってもキャプチャされたオブジェクトの選択および制御を行うことができる。
ある例では、携帯用コントローラは、以前に制御したオブジェクトの履歴を格納する。ユーザは、この履歴から制御可能オブジェクトを選択し、携帯用コントローラをそのオブジェクトにむけずに、また同じ部屋にいることなく、オブジェクトに制御インストラクションを送信することができる。
ある例では、制御可能オブジェクトの制御位置は、3D空間内のユーザ定義領域として規定される。制御位置は、オブジェクトの一部または全部と交差していてもよく、ユーザに定義されたようにオブジェクトからオフセットしてもよい。
ユーザは、制御可能オブジェクトのユーザ定義位置をトレーニング手続きによって規定してもよい。ある例では、トレーニング手続きは、携帯用コントローラを空間内の複数のトレーニング位置からオブジェクトの所望の制御位置へ向け、この所望の制御位置をトレーニング位置から伸びる仮想光線の交差点の領域として識別することを含んでもよい。別の例では、トレーニング手続きは、携帯用コントローラで所望の制御位置にタッチして、制御位置を携帯用コントローラの現在の位置として確立することを含む。ある例では、トレーニングは、例えば範囲の全体が制御位置となるようにオブジェクトの頂点をトレーニングすることによる二次元または三次元空間の範囲の定義を含んでもよい。別の例では、トレーニングは、それぞれオブジェクトの制御位置を提供する複数の独立領域の識別を含んでもよい。
ある例では、制御可能オブジェクトは仮想オブジェクトである。例えば、携帯用コントローラは、仮想オブジェクトをホログラムとして周囲の空間の既知の位置に表示する3Dヘッドセットと通信して動作してもよい。3Dヘッドセットを使用する際、ユーザは、携帯用コントローラを操作して、3Dヘッドセットを介して目に見えるホログラムを選択して操作してもよい。ある例では、3Dヘッドセットと通信して動作する携帯用コントローラは、ホログラフィック・ポインティング・デバイスを設けてもよく、ユーザは、これを操作して、3Dヘッドセットを介して目に見えるホログラムを選択して操作することができる。
ある実施形態は、携帯用コントローラを用いて3D(三次元)空間のオブジェクトを制御する方法に関する。この方法は、複数の制御可能オブジェクトと前記3D空間における前記制御可能オブジェクトの制御位置とをそれぞれ関連付けるオブジェクトデータベースを格納することを含む。各制御位置は前記3D空間における対応する領域を表し、当該領域に前記携帯用コントローラを向けて対応する制御可能オブジェクトを制御することができる。この方法は、さらに、前記3D空間における前記携帯用コントローラの位置を測定し、前記3D空間における前記携帯用コントローラの方向を測定することを含む。この方法は、さらに、前記携帯用コントローラの測定された位置と前記携帯用コントローラの測定された方向とを結合して、原点が前記携帯用コントローラの測定された位置におかれ、方向が前記携帯用コントローラの測定された方向に基づく仮想光線を構成することを含む。前記仮想光線が前記オブジェクトデータベースの制御可能オブジェクトの制御位置と交差するように前記携帯用コントローラが向けられることに応えて、この方法は、さらに(i)前記制御可能オブジェクトを制御するユーザ入力を前記携帯用コントローラによって受け付け、(ii)前記ユーザ入力に基づく前記制御可能オブジェクトを制御する制御インストラクションを前記携帯用コントローラから送信することを含む。
別の実施形態は、オブジェクトを制御する携帯用コントローラに関する。この携帯用コントローラは、ユーザインターフェースと、無線通信インターフェースと、3D(三次元)空間における前記携帯用コントローラの方向を測定するよう構成された測定回路とを含む。携帯用コントローラは、さらに、プロセッサのセットおよびメモリを含む。前記プロセッサのセットと前記メモリとは合わせて制御回路を形成し、前記制御回路は、前記測定回路に前記携帯用コントローラの方向の測定を行うよう指示し、前記無線インターフェースに前記携帯用コントローラの方向の測定を伝達する信号を含む無線信号を複数のセンサに送信して、(i)前記複数のセンサによって受信される前記無線信号に基づいて、測定される前記携帯用コントローラの位置を有効化し、(ii)それぞれ、原点が前記携帯用コントローラの測定された位置におかれ、方向が前記携帯用コントローラの測定された方向に基づく、複数の仮想光線を生成するよう指示する。制御回路は、さらに、前記仮想光線の一つと交差する制御可能オブジェクトを識別し、前記無線インターフェースに前記識別された制御可能オブジェクトを制御する制御インストラクションを送信するよう指示するよう構成されている。
上記の概要は、読み手が本明細書に提示の例示的特徴を容易に理解するための手助けとして説明のために提示されるものであるが、決して本明細書の必須要素を定めたり実施形態を限定したりすることを意図するものではない。言うまでもなく、上記の特徴は技術的に意味を成す方法で組み合わせることが可能であり、またそのような組み合わせは、明確に認識されるか否かにかかわらず、全て本明細書において開示されることが意図されている。
上記およびその他の特徴ならびに利点は、添付の図面に示すように、以下に述べる本発明の具体的な実施形態の説明から明らかになろう。図面において、いずれの図においても同様の参照符号は同一または類似の要素を示すものである。図面は必ずしも縮尺通りではなく、各種の実施形態の原理を図示することに重点が置かれている。
図1は、改良された技術の実施形態を実施することができる例示的環境の上平面図である。 図2は、図1の電子環境に関連して用いることのできる例示的電子構成部品のブロック図である。 図3は、例示的携帯用コントローラの正面図である。 図4は、図3の例示的携帯用コントローラのある電子的機能のブロック図である。 図5Aおよび図5Bは、図3および図4の携帯用コントローラの図であり、テレビを選択するための携帯用コントローラの使用を示す図である。 図6Aおよび図6Bは、図3および図4の携帯用コントローラの図であり、複数のオブジェクトの一つを選択するための携帯用コントローラの使用を示す図である。 図7A〜図7Cは、特定の制御位置において携帯用コントローラをトレーニングする各種の例示的様態を示す図である。 図8は、空間内の特定の範囲において携帯用コントローラをトレーニングする例示的構成の正面図である。 図9は、複数の独立した領域として制御位置を認識するよう携帯用コントローラをトレーニングする構成の上面図である。 図10は、図3および図4の携帯用コントローラで使用されるよう構成されたレガシー電子機器の正面図である。 図11は、図1の環境の上平面図であり、ユーザが3Dヘッドセットを装着し携帯用コントローラを用いてホログラムを制御する図である。 図12は、図1の環境の一部を示す図であり、ユーザが携帯用コントローラを用いてホログラムを選択して操作する図である。 図13は、ナイフに似せてみせた例示的携帯用コントローラの側面図である。 図14は、銃に似せてみせた例示的携帯用コントローラの側面図である。 図15は、3D空間においてオブジェクトを制御する例示的方法を示すフローチャートである。
以下に、本発明の実施形態を説明する。これらの実施形態は本発明の特徴と原理を説明するための例として提示されているが、本発明が特定の実施形態に限定されるわけではないことは言うまでもない。
オブジェクトを制御する改良された技術は、別のサーバと通信して仮想光線を生成する携帯用コントローラを含む。仮想光線が身元と位置がわかっている制御可能オブジェクトの位置と交差すると、携帯用コントローラは、そのオブジェクトを識別し、ユーザからのオブジェクト制御のための遠隔制御入力を受け付ける。この携帯用コントローラを用いることで、ユーザは、身元と空間内の位置がわかっている任意の制御可能オブジェクトを制御することができる。ある例では、この制御可能オブジェクトは仮想オブジェクトであり、携帯用コントローラはホログラフィック・ポインティング・デバイスとしての役割を果たす。
図1に、本明細書の改良された技術の実施形態を実施することができる例示的環境100を示す。ここで、ユーザ110は3D(三次元)物理空間112に位置しており、物理空間112においてオブジェクトを制御するための携帯用コントローラ120を操作する。このようなオブジェクトの例としては、テレビ受像機150、スピーカー152(例えば、152a〜152d)、ブルーレイ・ディスク・プレイヤー154がある。携帯用コントローラ120は、3D空間112における自身の向きを測定する測定回路を含む。また、携帯用コントローラ120は、Wi−Fi(IEEE802.11)および/またはBluetooth(登録商標)信号などの無線信号を用いてサーバ装置160と通信する無線インターフェースを含む。
物理空間112内の各位置に配置されるセンサ140(例えば、140a〜140c)は、携帯用コントローラ120の存在を検出し、検出情報を出力として送信する。センサ140からの出力は、有線または無線接続を用いてサーバ装置160に伝達される。サーバ装置160は、この出力を処理してそこから物理空間112における携帯用コントローラ120の3D位置を測定するよう構成される。
図に示すように、サーバ装置160は、マップデータ162と、オブジェクトデータベース164と、レイトレーサ166とを含む。マップデータ162は、壁、床、天井、家具、階段、扉、窓、その他の位置、サイズ、向きなどの、物理空間112の物理的特徴を記述するものである。マップデータ162は、任意の適切な3D座標系に従ってこれらの特徴の位置を表現することができる。オブジェクトデータベース164は、テレビ受像機150、スピーカー152、およびブルーレイ・ディスク・プレイヤー154などの物理空間112における制御可能オブジェクトについての情報を格納する。このような情報の例としては、各制御可能オブジェクトの一意識別子、当該制御可能オブジェクトのエイリアス(ニックネーム)、携帯用コントローラ120でオブジェクトを制御するユーザインターフェース画面のライブラリ、オブジェクトの状態および/または設定を変更するための制御インストラクションおよび対応するコードのセット、および所望または関係のある情報がある。また、オブジェクトデータベース164は、各オブジェクトと関連して制御位置を格納してもよく、上述のようにこの制御位置は同じ3D座標系に基づいて表現することができる。本明細書において、「制御位置」は、制御可能オブジェクトのために定義された3D空間112内の物理的範囲であり、ここに携帯用コントローラ120を向けて制御可能オブジェクトを制御することができる。
例示的操作では、ユーザ110は携帯用コントローラ120を物理空間112のどこかに向ける。ユーザ110が携帯用コントローラ120を移動し回転させると、携帯用コントローラ120の測定回路が新たに方向測定122を生成し、例えば無線信号によって新たな測定をサーバ装置160へ送信する。同時に、センサ140は、(例えば、パス142a〜142cによって)携帯用コントローラ120の存在を検出し、出力を生成し、これらの出力をサーバ装置160へ送信する。サーバ装置160は、センサ140からの出力を受信し、3D空間112内の携帯用コントローラ120の位置の更新された測定を生成する。そして、サーバ装置160のレイトレーサ166は、携帯用コントローラ120から受信した方向測定と対応する位置測定とを結合することによって仮想光線を生成する。各仮想光線130は、携帯用コントローラ120の測定位置であってもよい「原点」と、同時に測定される携帯用コントローラ120の向きに基づいた対応する「方向」とを有する。ある例では、サーバ160は、測定回路からの出力を、IRビームが従来のIRリモコンの端部から伸びるのと同様に、仮想光線130の方向が常に携帯用コントローラ120に平行に伸びるよう、既知の角度だけ調整することができる。ただし、言うまでもなく、仮想光線は全く物理的なものではなく、むしろ3D空間112を参照する幾何学的実体である。例えば、各仮想光線130の原点は、座標のセットを有する3D空間内の点である。各仮想光線130の方向は、3D座標系内でこの座標のセットに対して形成される角度である。
ユーザ120が携帯用コントローラ120を移動し回転させると、仮想光線130が物理空間112内を通過し、様々なオブジェクトの位置と交差する。仮想光線130がオブジェクトデータベース164にリストされる制御可能オブジェクトの制御位置と交差すると、サーバ装置160は、交差点を検出し、例えば無線信号を用いて携帯用コントローラ120に交差点コンテント124を送り返す。
交差点コンテント124の例としては、固有の名称および/またはエイリアスなど、オブジェクトデータベース164に交差したオブジェクトと関連して格納された情報がある。また、交差点コンテント124は、交差したオブジェクトを制御する制御セット、交差したオブジェクトと相互作用を行うユーザインターフェース画面、および/またはその他の情報を含んでもよい。
携帯用コントローラ120は、交差点コンテント124を受信し、ユーザ110に対して交差したオブジェクトの警告を出す。例えば、携帯用コントローラ120は、タッチスクリーンに交差したオブジェクトの識別子を表示する。そして、ユーザ110は、携帯用コントローラ120と相互作用して交差したオブジェクトを制御するユーザ入力を与えることができる。例えば、携帯用コントローラ120は、タッチスクリーンおよび/または物理的なボタンまたはその他の制御を介してユーザ入力を受信し、交差したオブジェクトを制御するインストラクションを送信する。ある例では、携帯用コントローラ120は、例えばWi−FiまたはBluetooth信号を用いて、インストラクションを交差したオブジェクトに直接送信する。別の例においては、携帯用コントローラ120はインストラクションをサーバ装置160に送信し、次にサーバ装置160がユーザに指定された状態および/または設定の変更をもたらすインストラクションを交差したオブジェクトに送信する。
一例において、センサ140は、携帯用コントローラ120および近傍にあるその他の無線機器からのWi−Fi(IEEE802.11)信号を検出するアンテナとして実現される。アンテナによるWi−Fiパケットなどの無線信号検出に応じて、アンテナは、検出に関する情報をサーバ装置160に送信し、サーバ装置160は、この情報を他のアンテナからの類似の検出情報とともに処理して無線信号の発信元を特定する。この種のアプローチの例が2017年3月7日出願の米国特許出願第15/452,451号「測定された装置位置を用いたコンピュータネットワークへのアクセス制御」に記載されているが、これは本明細書に参照により援用されるものである。援用文書に開示されるアプローチを用いることにより、サーバ装置160は、携帯用コントローラ120の位置を1センチ単位の正確さで測定することができる。言うまでもなく、アンテナは、様々な技術を用いてオブジェクトを見つける際に用いることができるものであり、本発明は援用文書に開示される特定の技術に限定されるものではない。また、各種の実施形態においては、カメラや音響変換器など、アンテナ以外のセンサを用いることもできる。
援用文書に開示されるアプローチ(および類似のアプローチ)を用いることにより、携帯用コントローラ120が十分な数(一般的には3以上)のアンテナの範囲にあるならば、携帯用コントローラ120によって送信された各Wi−Fiパケットがそれぞれの位置測定の基礎としての機能を果たす。また、位置測定の基礎としての機能を果たす同一のWi−Fiパケットが、携帯用コントローラ120の方向の伝達に用いられる方向情報122を伝達してもよい。
仮想光線130を生成するための位置および方向測定は、時間軸における同一の時点またはほぼ同一の時点を指す。ただし、言うまでもなく、方向のサンプリングとパケットの送信との時間差がヒューマン・スケールの観点からみて極めて小さいならば、厳密な同時性は求められない。本明細書において、対応する方向および位置の測定は、数ミリ秒以下の差であれば同時と考えるものとする。
すでに述べたように、サーバ装置160は、仮想光線130がオブジェクトの制御位置と交差したとき、制御可能オブジェクトを検出する。制御可能オブジェクトの制御位置は、二次元領域であっても三次元領域であってもよい。例えば、ユーザ110がテレビ受像機150を側面から制御したいと思うようなことは考えられないため、テレビ受像機150用の制御位置は二次元とすることができる。しかしながら、ユーザ110がスピーカーを複数の角度から制御する機会はより多いため、スピーカー152用の制御位置は三次元とすることができる。一般に、オブジェクトの制御位置は、ユーザ110がオブジェクトを制御するときに見るオブジェクトの視認可能な面または体積に一致する。ただし、ユーザ110が制御位置を制御されているオブジェクトからオフセットしたいと考えることもあるため、厳密に求められるわけではない。例えば、ランプ(不図示)の制御位置は、そのランプが置かれているテーブルと一致するものとすることができる。実際、制御位置は、ユーザの利便性を念頭に置いて柔軟に設定することができ、制御されているオブジェクトの物理的位置との関係の必要性もない。
同様に、オブジェクトの制御位置は、オブジェクトの電子コントローラの位置から空間的に分離されていることも多い。例えば、スピーカー152の制御はどこか別の場所にある増幅器によって行うことができるが、スピーカー152の制御位置は空間内のその物理的体積に対応してもよい。一例では、ユーザ110は、携帯用コントローラ120を任意のスピーカー152に向けてボリュームを上下することができる。この例が示唆するように、ユーザ110がいずれのスピーカーに向けても4個のスピーカー全てのボリュームを制御できるため、オブジェクトの制御位置を複数の独立した領域として設けることができる。
本明細書において、携帯用コントローラ120に対するあるアクティビティを説明し、サーバ装置160に対する別のアクティビティを説明したが、あるアクティビティがどちらか一方によって行われてもよいし両方によって行われてもよいことは言うまでもない。例えば、サーバ装置160ではなく携帯用コントローラ120に、マップ162および/またはオブジェクトデータベース164を格納してもよい。携帯用コントローラ120の位置を測定する際、サーバ装置160はセンサ140の前処理出力用のハブとしてのみ機能し、前処理の結果が位置測定を行うことのできる携帯用コントローラ120へ送信される。ただし、携帯用コントローラ120にマップまたはオブジェクト情報を格納しつづけることを避けることによってセキュリティを向上させることができる。
図2は、サーバ装置160および関連する要素の例をより詳細に示すものである。ここで、サーバ装置160は、LPS(ローカルポジショニングサービス)基地局210、ボールト装置220、アプリケーションサーバ230、およびスイッチ/ルーター240を含む。各種の例において、これらの要素は、個別に、または単一の統合ユニットとして、または物理ユニットの任意の組み合わせとして設けることができる。
LPS基地局210は、センサ(例えばアンテナ)140からの入力を受信して、そこから携帯用コントローラ120の位置および近傍のWi−Fi装置の位置を生成する。一例では、LPS基地局210は、装置がその通常の通信の一部として発信する無線パケット(例えば、イーサネット(登録商標)Wi−Fiパケット)を用いて装置の位置を測定する。LPS基地局210は、センサ140の範囲内にある保護領域212の3Dマップを維持する。保護領域212は、スイッチ/ルーター240とのWi−Fi通信が許可される物理空間112に対する領域を定義する。一例では、LPS基地局210が受信するパケットは、保護領域212にあることが確認されている装置からこのパケットが発せられた場合に限り、スイッチ/ルーター240を通過することができるようになっている。アンテナおよびLPS基地局210を用いた位置測定のさらに詳細は、上記の米国特許出願第15/452,451に記載されている。
ボールト装置220は、権利を格納し発信するセキュアハブである。こうした権利の例として、特定のコンテンツにアクセスするためのコンテンツ権、他の当事者との通信を確立するための通信権、および特定の装置および要素でアクションを実行するためのアクション権がある。例えば、ボールト装置220は、マップデータ162およびオブジェクトデータベース164、またはその一部をセキュアに格納することができ、またコンテンツ権および/または通信権を用いてこれらのマップおよびオブジェクトデータの公開をセキュアに制御することができる。ボールト装置220のさらに詳細は、2016年11月9日に出願された米国特許出願第15/347,551号「身元確認およびセキュアな権利付与のためのボールト装置」に記載されており、その内容および教示は参照により本明細書に援用される。
LPS基地局210およびボールト装置220の機能は、セキュリティを高め、そのほかにも利点があるが、その具体的詳細については別段の指定がない限り任意と考える。
アプリケーションサーバ230は、アプリケーション232などのソフトウェア・アプリケーションを実行するよう構成されたコンピュータ装置である。アプリケーションサーバ230は、汎用コンピュータとして実施されてもよく、ゲームハブなどの専用のシステムとして実施されてもよい。
スイッチ/ルーター240は、従来の設計とすることができる。例えば、スイッチ/ルーター240は、LPS基地局210、ボールト装置220、およびアプリケーションサーバ230に接続し、物理空間112内に有線LAN170を広げるLAN(ローカルエリア・ネットワーク)ポートを有する。スイッチ/ルーター240は、WAN/インターネット250に接続するWAN(広域ネットワーク)ポートを有してもよい。ある例では、スイッチ/ルーター240は有線装置のみであり、無線サービスはLPS基地局210によって例えばアンテナのうち1以上を用いて行われる。別の例では、スイッチ/ルーター240は、直接的に優先および無線通信をサポートする。
スイッチ/ルーター240は、WANポートを用いて、1以上のパブリックサーバ260に接続することができる。これらは、オンラインショップ(例えば、ソフトウェアの購入、ゲームの購入、制御可能オブジェクトの制御ソフトウェアのダウンロードなど)や、ボールトに基づく通信をサポートする各種のサーバを含んでもよい。また、スイッチ/ルーター240は、WAN/インターネット250を介してその他のユーザの同様に構成されたネットワークと通信し、例えば様々なローカルネットワークや位置にわたるマルチプレイヤーゲームまたは別のアプリケーションをサポートする。
具体的には示さないが、言うまでもなく、LPS基地局210、ボールト装置220、およびアプリケーションサーバ230は、それぞれに処理回路とメモリとを備えている。各メモリは、対応する処理回路によって実行されると処理回路に本明細書に説明されるような各種の処理およびアクティビティを実行させるインストラクションを格納することができる。特に指定のない限り、サーバ装置160による任意のアクティビティは、任意の要素またはこれら要素の任意の組み合わせによって行うことができることは言うまでもない。
一例では、携帯用コントローラ120は、援用される米国特許出願第15/347,551号に記載される種類のボールトネットワーク要素である。また、制御可能な物理オブジェクトもボールトネットワーク要素または装置、すなわち、ボールト装置220に登録しボールトプロトコルに準拠した要素または装置であってもよい。ボールト要素として、携帯用コントローラ120は、保護領域212内でのみ動作する。例えば、サーバ装置160は、携帯用コントローラ120の位置が保護領域212にあることを確認できない場合は携帯用コントローラ120から受信されるパケットを全て無視するよう構成されてもよい。
ある例では、ボールトプロトコルは、携帯用コントローラ120が別のボールトネットワークで用いられることを許可することができる。例えば、ユーザ110は、携帯用コントローラ120を(異なる物理空間内の)異なるボールトネットワークに持ち込み、別の空間内で携帯用コントローラ120を限定的な目的で用いることができる。
図3は、携帯用コントローラ120の物理的構成の例を示す。携帯用コントローラ120の制御およびインターフェースの例としては、以下のものがある。
・タッチスクリーン310:プログラム可能なタッチスクリーン。
・共通アクション・ダイナミックバックライトパッド312:選択されたオブジェクトのほとんどの共通アクションの制御。
・左多機能ボタン320a:選択/ナビゲーションボタン。
・右多機能ボタン320b:選択/ナビゲーションボタン。
・狭視野カメラ330:写真、ビデオ、マッピング、またはゲーム用の光ファイバー、光導体、またはそのほかの狭視野カメラ。
・自撮りカメラ332:生体認証に用いることができる。
・通信用スピーカー340:電話またはそのほかのオーディオ機能用のスピーカー。
・マイク342:音声コマンド、音声ID(認証)、電話、および/またはそのほかのオーディオ用途。
・面一接続ローカルインターフェース350:双方向性ビデオゲーム装置のインターフェース。
・指紋センサ360:生体認証入力。
図3の物理的構成は、説明のためのものである。例えば、携帯用コントローラ120は、ボタン、制御、およびインターフェースをさらに備えてもよい。代替的に、ボタン、制御、およびインターフェースの数はもっと少なくてもよいし、図示されるものとは異なるものであってもよい。
ある例では、ユーザ110は、使用前に携帯用コントローラ120に認証される必要がある。自撮りカメラ332、マイク342、および指紋センサ360は、様々な種類の生体認証に対応している。また、ある例では、携帯用コントローラ120は、複数のユーザに対応することができ、各ユーザが使用前に携帯用コントローラ120に認証される必要がある。
図4は、以下を含む携帯用コントローラ120の追加要素の構成例を示す。
・無線インターフェース410:Wi−Fiおよび/またはBluetoothインターフェース。
・ユーザインターフェース420:図3に示すタッチスクリーン310、各種のボタン、および制御のハードウェアおよびソフトウェア対応。
・測定回路430:慣性計測装置(IMU)など、携帯用コントローラ120の方向を測定する方向測定回路。
・加速度計(1以上)440:携帯用コントローラ120の加速度を測定する。加速度計(1以上)は、測定回路430の一部として設けてもよく、または別途設けてもよい。
・プロセッサ450:関連する処理ハードウェアと合わせてデータ処理を行う1以上のマイクロプロセッサおよび/またはマイクロコントローラ。
・メモリ460:1以上のROM(リードオンリーメモリ)などの不揮発性メモリ、フラッシュドライブ、および/または磁気ディスクドライブ、ならびにRAM(ランダムアクセスメモリ)などの揮発性メモリ。
・バッテリ470:携帯用コントローラ120に電力を供給するバッテリ。再充電可能であってもよいし、使い捨てであってもよい。
プロセッサ450とメモリ460とは、合わせて制御回路を形成し、本明細書に記載するような各手法方法および機能を実行するよう構成されている。また、メモリ460は、実行可能なインストラクションの形で実現された各種のソフトウェア構成を含む。実行可能なインストラクションがプロセッサ450によって実行されると、プロセッサ450はこのソフトウェア構成の動作を行う。
ある例では、加速度計440は、携帯用コントローラ120の位置の変化を測定する局所機構となってもよい。プロセッサ450は、加速度計から出力を受け取り、無線インターフェース420がパケットを送信する速度の変化にこの出力を適用する。例えば、プロセッサ450は、携帯用コントローラ120の移動速度の増加の検出にこたえて、無線インターフェース410がパケットを送信するレートを高くするようにしてもよい。同様に、プロセッサ450は、携帯用コントローラ120の移動速度の減少の検出にこたえて、無線インターフェース410がパケットを送信するレートを低くするようにしてもよい。パケットをより高いレートで送信することにより、サーバ装置160は、携帯用コントローラ120が急に移動したときにその位置をうまく追跡することができるようになる。パケットをより低いレートで送信することにより、携帯用コントローラ120が移動していないまたはゆっくりと移動するときに電力を(バッテリ寿命)を節約することができる。位置測定を開始する目的で送信されるパケットは、空であっても良いし、ほぼ空のペイロードであってもよい。携帯用コントローラ120は、新しく位置測定を行いたいときにはいつでもこの「位置表示パケット」を送信することができる。
ある例では、バッテリ470は再充電可能なバッテリであり、携帯用コントローラ120はさらに充電コネクタ(不図示)を含む。ある変更例では、携帯用コントローラ120には充電器(不図示)が設けられてもよい。充電器は、携帯用コントローラ120の充電とこれを直立方向に保持するという二つの目的を果たすことができる。ある例では、携帯用コントローラ120は、自身が充電器に置かれていることを検出し、測定回路430の直立位置への較正を開始する。
ある例では、メモリ460は、先に携帯用コントローラ120によって制御されたオブジェクトの履歴462を格納する。ユーザ110は、履歴をナビゲートして先に制御されたオブジェクトを選択し、新しい制御インストラクションをそのオブジェクトに発行することができる。こうして、履歴462は、携帯用コントローラ120をオブジェクトに向けることなく、または同じ部屋にいることなく、オブジェクトを制御する方法を提供する。
図5Aおよび図5Bは、物理空間112における制御可能オブジェクトの検出の例を示す。図5Aにおいて、ユーザは携帯用コントローラ120をテレビ受像機150に向け、仮想光線130がテレビ受像機150の制御位置と交差するようにする(図1)。図5Bに示すように、携帯用コントローラ120は、タッチスクリーン310に交差した要素(「TV」)を識別するスクリーン要素510を表示する。例えば、サーバ装置160は、オブジェクトデータベース164内のオブジェクトの制御位置にアクセスし、仮想光線130とテレビ受像機150の制御位置との交差点を検出する。その後、サーバ装置160は、携帯用コントローラ120にタッチスクリーン310に交差した要素の識別子(この場合はエイリアス)を表示させる。そして、ユーザ110は、スクリーン要素510をクリックしてテレビ受像機150を選択し、ユーザインターフェース制御を開始してテレビ受像機150に対して所望の設定を行うことができる。例えば、ユーザがコマンドを入力すると、携帯用コントローラ120はエンコードされたコマンドをテレビ受像機150に送信し、テレビ受像機150は、エンコードされたコマンドを受信し復号化して、具体的な設定を有効にする。一例では、携帯用コントローラ120は、テレビ受像機150に送信されるすべての通信において、例えば、ボールトネットワークプロトコルに従って、ローリング暗号化キーを用いる。この例において、テレビ受像機150は、ボールトネットワーク装置または要素でもあり、ボールトプロトコルに準拠して動作し、携帯用コントローラ120から受信するエンコードされたインストラクションの復号に必要なキーを含む。
ある例では、携帯用コントローラ120は、クリック・トゥ・キャプチャ機能520を含み、ユーザは、携帯用コントローラ120の左多機能ボタン320a(図示)や任意のボタンなどのボタンを押下して、または制御により、これを呼び出すことができる。ユーザ110は、携帯用コントローラ120をテレビ受像機150に向けている間、すなわち仮想光線130がテレビ受像機150に定義された制御位置と交差している間に、クリック・トゥ・キャプチャ機能520を呼び出す。呼び出されると、クリック・トゥ・キャプチャ機能520は、テレビ受像機の検出をキャプチャして保持し、これによりユーザ110は携帯用コントローラ120をテレビ受像機150に向けるのをやめることができる。むしろ、ユーザ110は、携帯用コントローラ120を任意の快適または便利な角度にむけてテレビ受像機150を制御するユーザ入力を入力することができる。こうして、クリック・トゥ・キャプチャ機能520は、携帯用コントローラ120を向けることによる特定性と、携帯用コントローラ120を向け続けることなくオブジェクトを制御することができる快適さを組み合わせる。
図6Aおよび図6Bは、物理空間112における複数の制御可能オブジェクトの検出の例を示す。図6Aにおいて、携帯用コントローラ120は、テレビ受像機150、増幅器620、およびサブウーファ630という三つの異なる要素と仮想光線130が交差するように向けられている。検出は上述のように開始されるが、今回は、仮想光線130がこれら三つ全ての制御位置と交差するため、三つのオブジェクト全てが検出される。
図6Bにおいて、携帯用コントローラ120は、タッチスクリーン310に交差した要素(「TV」、「Amp」、および「Sub」)を識別するスクリーン要素610を表示する。ユーザ110は、タッチスクリーン310を操作して表示されたオブジェクトのいずれかを選択し、すでに述べたように、選択したオブジェクトを制御するユーザ入力を行う。ユーザ110が携帯用コントローラ120を三つのオブジェクト全てに向けている間にクリック・トゥ・キャプチャ機能520を呼び出す場合、携帯用コントローラ120は、ユーザが所望のオブジェクトを選択して任意の快適な角度で設定を行うユーザ入力を行うことができるように、三つのオブジェクト全ての検出をキャプチャして保持する。
ある例では、サーバ装置160は、仮想光線130が交差したオブジェクトを検出する際に、マップ情報162を適用する。例えば、サーバ装置160は、壁の後ろや別の部屋にあるオブジェクトなど、携帯用コントローラ120の視点で見た場合に隠れることがわかっているオブジェクトをフィルタリングすることができる。このようにフィルタリングすることにより、ユーザ110に対して、ユーザの現在の位置においては関連性があるとは考えられない選択肢の提示の回避を手助けすることができる。ある変更例においては、現在見えないオブジェクトを制御する選択肢が望まれることもあるため、現在見えないオブジェクトをフィルタリングするか否かはオブジェクト単位で割り当てる属性とすることができる。
図7A〜図7Cは、ユーザ110が制御可能オブジェクト710の制御位置を確立するために採用可能な各種の技術を示す。図7Aにおいて、ユーザ110は、携帯用コントローラ120を例えば適切な制御の操作を行うことにより、トレーニングモードにし、携帯用コントローラ120をオブジェクト710に向ける。この例においては、オブジェクト710は、ボールトネットワークに登録された制御位置が特定されていない制御可能オブジェクトとする。
トレーニングモードでは、携帯用コントローラ120は、狭視野カメラ330によってキャプチャされた画像を表示することができる(図3)。好ましくは、カメラ330は、その光軸730が仮想光線130の方向に揃うように携帯用コントローラ120に搭載されている。例えば、光軸730と仮想光線130とは平行に構成される。ある例では、光軸730と仮想光線130とは同一線上にあってもよい。いずれの構成においても、カメラ330の視野の中心は、視覚化されたオブジェクト上の仮想光線130の交差点に密接に対応する。携帯用コントローラ120は、正確にセンタリングできるよう、十字線722を表示してもよい。携帯用コントローラ120は、オブジェクト710に向けられたとき、このモードでの特定のボタン押下を仮想光線130の現在の値(例えば、その位置および方向)を登録するインストラクションとして翻訳することができる。
一般に、制御可能オブジェクトの制御位置の識別には単一の視線では不十分である。例えば、図7Aに示す仮想光線130の値は、オブジェクト710の制御位置が仮想光線130上のどこかにあることを示すだけである。少なくとも、もう一つ別の視線が必要である。
図7Bにおいて、ユーザ110は、異なる視線でオブジェクト710を見て、仮想光線の三つの値130a、130b、および130cを登録する。仮想光線130a、130b、および130cの交差点は、オブジェクト710の位置を一意に識別する。
図7Bにおいて、ユーザは、携帯用コントローラ120でオブジェクト710またはオブジェクト710の一部にタッチするのみである。ユーザ110は、このタッチを識別するためにボタンを押下してもよく、また、例えば加速度計(1以上)440の出力をモニタすることにより、携帯用コントローラ120がこのタッチを自動的に検出してもよい。接触点710aは、接触の時点で、携帯用コントローラ120の位置とされてもよい。例えば、プロセッサ(1以上)450は、ユーザのボタン押下するまたは加速度計(1以上)440をモニタすることにより接触が検出されると、無線インターフェース410に位置表示パケットを送信させてもよい。
オブジェクトの制御位置が単に空間内の地点となる場合、サーバ装置160は、この「点」に対して、携帯用コントローラ120を苦労なく制御位置に向けることができるよう、例えば数センチ四方などの一定のデフォルトのサイズを与える。他の例では、この点は単独で用いられることはなく、オブジェクトの制御位置の定義に用いられる複数の点の一つである。
図8は、ユーザ110がオブジェクト810の制御位置の識別に採用することのできる範囲トレーニングの例を示す。ここで、オブジェクト810は、四つの前頂点820a〜820dと四つの後頂点830a〜830dを含む8つの頂点を有する底面が長方形の角柱の形状をしている。複数の視線および/またはタッチトレーニング(図7Bおよび/または図7C)を用いて、ユーザ110は、8つの頂点それぞれまたは、任意のサブセットで携帯用コントローラ120のトレーニングを行うことができる。また、ユーザ110は、頂点ではない点でトレーニングを行ってもよい。その後、システム(携帯用コントローラ120およびサーバ装置160)は、オブジェクト810の制御位置をトレーニングされた頂点の全てを含む最小の凸範囲として生成する。範囲トレーニングを用いる場合、トレーニングされる点は合わせて形状を形成することになるため、有限の大きさである必要はない。
言うまでもなく、オブジェクト810の制御位置は、二次元であっても、三次元であってもよい。例えば、オブジェクト810が壁にかけられたフラットスクリーンTVである場合には、制御の際にはユーザ110が常にオブジェクトの前にいることになるため、その位置を3D範囲としてトレーニングすることには恩恵が少ないかもしれない。このような場合には、(斜線で示すように)2D平面領域で十分である。代替的に、オブジェクト810が部屋の中心にある擬石暖炉である場合、オブジェクト810を3D範囲でトレーニングすることは、3D範囲によりユーザ110が携帯用コントローラ120をどの角度からでも簡単に制御位置に向けることができるようになるため、もっと効果が出るかもしれない。
図9に、関連するポイントトレーニングの例を示す。図に示すのは天井である(見上げた状態)。天井は、埋め込み照明910a〜910dおよびシーリングファン920を有していてもよい。この例では、照明910a〜910dおよびシーリングファン920は、それぞれがボールトネットワーク要素または装置である電子コントローラ(不図示)を有していると仮定される。
シーリングファン920の存在については、長方形一つが四つの照明全てを含むことができる。照明910a〜910dの制御位置の確立に範囲トレーニングを使用することがかなっているかもしれない。ユーザ110は、単に携帯用コントローラ120を真上に向けて、特に狙いをつけることなく、クリック・トゥ・キャプチャボタンを押下することができる。ただし、照明910a〜910dの範囲トレーニングは、携帯用コントローラ120が照明910a〜910dに向けられていたのかシーリングファン920に向けられていたのかについて曖昧さが生じることになる。
オブジェクト選択における曖昧さ回避のため、ユーザ110は、照明910a〜910dの関連ポイントトレーニングを採用することができる。このトレーニングは、各照明について個別にトレーニングを行うものであるが、グループの一部として照明の定義を行うものである。個々の照明の位置のトレーニングは、すでに述べたアプローチのうち任意のものを用いて開始することができる(個々の照明に対する複数の視線、タッチ、または範囲)。そして、オブジェクトデータベース164は、携帯用コントローラ120を任意のトレーニング位置に向けることにより、ユーザが照明910a〜910dすべてを合わせて制御できるように、照明910a〜910dをトレーニングされた位置全てと関連付ける。
本明細書において、制御可能オブジェクトの検出は仮想光線130とオブジェクトの制御位置との厳密な交差点に基づいて説明されているが、本明細書の実施形態が近似の交差点を含んでもよいことは言うまでもない。例えば、携帯用コントローラ120は、仮想光線130が正確にオブジェクトの制御位置と交差していなくてもオブジェクト(図5B)を表示することができる。そのため、システムが、特にオブジェクト間に曖昧さがほとんどまたは全くない場合のポインティングエラーを許容することができる。また、システムは、時間とともにユーザの癖を学習することができ、癖によってユーザが通常行う具体的選択が示唆される場合には、制御対象のオブジェクトについて複数の選択肢をユーザに提示することが回避できるようになる。
図10は、携帯用コントローラ120を用いて本質的にはボールト装置または要素ではないオブジェクトを制御する構成例を示す。例えば、オブジェクト1010は、自然にはボールトネットワーク対応していない古いテレビである。ただし、テレビ1010は、遠隔制御コマンドを従来のIRリモコンから受信するIR(赤外線)検出器1020を有する。
ここで、アダプタ1030が、ボールトネットワーク対応装置または要素として設けられている。アダプタ1030は、例えば無線インターフェースを用いてボールトネットワークと通信し、テレビ1010のIR検出器1020の前に取り付けることのできるIR源1032を含む。オブジェクトデータベース162は、アダプタ1030に関する情報を格納し、この情報はテレビ1010を制御するインストラクションを含んでもよい。ユーザ110は、例えばテレビ1010本体を含む立方体としてアダプタ1030の制御位置を定義する。そして、ユーザ110は、携帯用コントローラ120を向けて、他のボールトネットワーク対応オブジェクトと同様に、テレビ1010を制御することができる。アダプタ1030は、テレビ1010のIR検出器1020が受信することのできるIR信号に変換するようIR源1032に命令するコマンドを携帯用コントローラ120から受信し、本来のIR遠隔制御/リモコン装置に反応するときのようにテレビ1010に設定を変更させる。
携帯用コントローラ120は、プログラマが各種のオリジナルで有用な方法で利用することのできるプラットフォームを提供する。例えば、狭視野カメラ330は、物理空間の正確なマッピングと特性評価を可能とする。ユーザ110は、物理空間112を通過して、カメラ330を壁、天井、床、家具、その他に向けることができる。サーバ装置160は、カメラからの画像と方向および位置情報を組み合わせることにより、物理空間112の正確なマップを生成することができる。
携帯用コントローラ120は、この物理空間におけるどの制御可能オブジェクトでも制御することができ、様々な制御可能オブジェクトの間のアクティビティを制御するためにソフトウェア・アプリケーションを開発してもよい。例えば、ユーザ110は、第1コンピュータなど、あるオブジェクトに携帯用コントローラ120を向け、第2コンピュータなど、別のオブジェクトにポインタをドラッグすることができる。携帯用コントローラ120は、第1コンピュータから第2コンピュータへあるファイルを移動させたりコンピュータ間にネットワーク接続を確立したりするなど、適切なアクションをユーザ110が選択することができるようにするための状況依存メニューを表示してもよい。別の例として、ユーザ110は、コンピュータに格納された画像が電子写真立てに表示されるよう、携帯用コントローラ120をあるコンピュータに向けて電子写真立てにドラッグすることができる。実際、携帯用コントローラ120を用いた制御可能オブジェクト間のアクション制御には、ほぼ無限の可能性がある。
図11は、携帯用コントローラ120のさらに別の適用例を示し、ここでは仮想オブジェクトを制御する。この例では、ユーザは、拡張現実(AR)ヘッドセットや複合現実(MR)ヘッドセットなど、3Dヘッドセット1110を装着する。ARヘッドセットの例としてはグーグルグラスがあり、MRヘッドセットの例としてはマイクロソフト・ホロレンズがある。3Dヘッドセット1110は、3D画像を生成することができる。例えば、3Dヘッドセット1110は、ユーザの目の前に配置された一対の透明または半透明の表示要素(それぞれの目に一つの表示要素)を含む。3Dヘッドセット1110は、さらに、ローカルの環境をスキャンしてユーザの周囲の特徴を識別する1以上のカメラを含む。3Dヘッドセットのコンピュータは、左右の目それぞれに仮想画像を生成し、ユーザ110が見た時に、物理空間に3Dオブジェクトがあるように見える。本明細書において、これらの仮想オブジェクトを「ホログラム」と呼び、二つのホログラム1120および1130を図示する。ホログラム1120および1130は、ユーザ110からは物理空間112内の固定位置にあるように見えて、ユーザが移動しても正しい視点と大きさを維持することができ、あたかも自然な環境の一部であるかのように見える。一例では、3Dヘッドセット1110は携帯用コントローラ120と対をなしており、付近で動作しているかもしれない他の3Dヘッドセットまたはほかの携帯用コントローラの干渉なしに通信できるようになっている。
一例では、ホログラム1120および1130は、オブジェクトデータベース164に入力されてそれぞれ制御位置を有する制御可能オブジェクトである。仮想オブジェクトの場合、制御位置は、ユーザ110によるトレーニングではなく、ソフトウェア(例えば、ゲームやそのほかのアプリケーション)によって割り当てることができる。また、仮想オブジェクトの制御位置は、例えば仮想オブジェクトが空間112内で移動することが可能となるため、時間とともに変化してもよい。
ユーザ110は、ユーザが物理オブジェクトを選択するのとほぼ同じやり方で、すなわち携帯用コントローラ120を仮想オブジェクトの見かけ上の位置に向けることにより、仮想オブジェクトを選択することができる。仮想光線130が仮想オブジェクトの制御位置と交差すると、仮想オブジェクトの識別子がタッチスクリーン310に表示される。代替的に、タッチスクリーン310に通常表示されている要素が、代わりに3Dヘッドセット1110に表示される(または両方の位置に表示される)。ユーザ110は、携帯用コントローラ120での制御、および/または3Dヘッドセット1110を通して目に見える制御を用いて仮想オブジェクトと相互作用することができる。
言うまでもなく、携帯用コントローラ120を用いて仮想オブジェクトを制御することは、創造的応用へのいくつもの新しい道を開くことになる。そのような応用例の一つを図12に示す。
図12に、仮想オブジェクトに対するポインティングデバイスとしての携帯用コントローラ120の使用例を示す。この文脈における携帯用コントローラ120は、ホログラフィック・ポインタまたは「ホログラフィック・マウス」の一種として考えることができる。
図に示す例において、ユーザ110は、携帯用コントローラ120をホログラム1210と相互作用するホログラフィック・マウスとして操作する。ホログラム1210は、従来のホログラムであってもよく、またはユーザが有効化して既定の動作を行うことができるホログラフィック・アイコンであってもよい。3Dヘッドセット1110は、ホログラム1210を投影して、環境112内の対応する位置にあらわれるようにする。一例では、3Dヘッドセット1110は、ユーザ110に対して目に見える特徴として仮想光線130を射出し、仮想光線130の長さに沿ったどこかにホログラフィック・カーソル1220(「X」で示す)を投影する。
一例では、携帯用コントローラ120は、携帯用コントローラ120がホログラフィック・マウスとして用いられたとき、特定の制御へのユーザアクセスを提供する。これらの制御は、図3に示すような物理的なボタンもしくは制御装置またはその組み合わせを用いることにより、(タッチスクリーン310または3Dヘッドセット1110を介した)ソフト制御を用いて実施される。ホログラフィック制御の例としては、以下のものがある。
・十字キー:方向パッド。用途によって一次元または二次元モードで用いられる。一次元モードでは、十字キーは、仮想光線130に沿ってホログラフィック・カーソル1220までの距離を定義することができる。例えば、このモードで十字キーを操作することで、ホログラフィック・カーソル1220を、方向1230、すなわち仮想光線130に沿って前後に移動させることができる。二次元モードでは、十字キーは、クリック・トゥ・キャプチャ機能520(図5)と関連して用いて、二次元平面でホログラフィック・カーソル1220を動かすことができる。
・選択ボタン:選択ボタンは、オブジェクトの選択および選択解除に用いられる。
・スライス平面ボタン:スライス平面の定義に用いられる。スライス平面は、仮想光線130に直交する。矢印1240は、スライス平面の例を示す。一例では、3Dヘッドセット1110は、ユーザ110とスライス平面1240との間にある仮想コンテンツをユーザの視線から隠すよう構成される。スライス平面1240と交差するホログラムは、可視状態にされ、現在選択可能となる。通常、スライス平面の背後のホログラムも可視状態にあるが、通常は選択できない。
・回転ボタン:ユーザ110は、一つのホログラムを、そのホログラムがユーザが望むように物理空間にフィットするよう、またはユーザがそのホログラムの特定の部分を見ることができるよう、回転することができる。ユーザ110は、ホログラムの集まりを、その集まりをよく見ることができるように、回転しようとしてもよい。
・メタデータボタン:メタデータボタンは、通常のウィンドウズ(登録商標)OS(オペレーティング・システム)マウスの右ボタンに対する3Dで類似したものである。ホログラムがメタデータ制御ポイントを有することにより、同様の効果を実現することができる。
以下に、ホログラフィック・マウスとして採用された場合の携帯用コントローラ120の一般的な使用例を示す。
・オブジェクトの選択:仮想光線130上にある現実または仮想の第1オブジェクトにホログラフィック・カーソル1220を置く。カーソル1220がホログラフィック・アイコンの上に来ると、アイコンにフォーカスが合う。アイコンにフォーカスが合っている間にユーザが選択ボタンを押すと、フォーカスが固定される。これは、カーソル1220がオブジェクトから外れてもアイコンにフォーカスが合ったままになることを意味する。
・オブジェクト群の選択:境界ボックスを生成することによりオブジェクト群が選択される。
・オブジェクト群へまたはオブジェクト群からオブジェクトを追加または削除:ここで、任意のオブジェクト群へのフォーカスが固定されている。そして、ユーザ110が、別のオブジェクトまたはオブジェクト群に固定フォーカスを追加または削除したいと考えることができる。ウィンドウズOSでは、アイコンまたはアイコン群をオブジェクト群へのまたはオブジェクト群からの追加削除を可能にする選択を行う間、制御キーを押下してホールドする。キーボードを使用可能な場合、この方法が機能し続ける。ただし、ユーザ110はキーボードを使用可能でないこともあるため、別のオプションが必要となる。メタデータボタンは、機能的オプションおよびメタデータのドロップダウン・リストを提示する。これらのオプションの一つには「制御」という名前がつけられる。メタデータボタンがもう一度押下されると、制御オプションだったものには「制御解除」という名前がつけられる。これにより、余分なボタンまたは別の物理インターフェースを追加することなく、アイコンの追加および削除についてなじみのある経験がもたらされる。
・選択対象を移動する:ユーザ110は、一般に、二つの異なる理由から3D空間でアイコンを移動させたいと考える。まず一つはアイコンの再配置である。二つ目は、ユーザ操作のために一つを選択することができるようにするため、アイコン群を移動させることである。ウィンドウズOSでは、全てのアイコンがユーザに同じように見えるように2D平面上に配置されるため、この二つ目の概念は必要でない。3D空間では、ユーザがアイコンを差別化することができるようにするためだけにアイコンを移動させる必要が出てきてもよい。一例では、選択の移動は十字キーを押すことにより、行われる。十字キーは、スライスボタンが押下されない限り、一次元的である。この選択(すなわち、フォーカス固定されたアイコン群)は、選択時の距離に等しい距離で仮想光線130までジャンプする。そして、携帯用コントローラ120を動かすことにより、3D空間内でこの選択が仮想光線130に追従することになる。十字キーを用いることにより、選択を仮想光線130の光路上を遠近方向に移動させることになる。選択をもう一度押下することにより、移動プロセスが終了し、選択されたオブジェクトはフォーカスが固定されたままとなる。
・選択対象を回転:ユーザは、回転ボタンをまず押下してホールドすることにより選択を回転させる。回転ボタンが押下されている間、3D空間内での携帯用コントローラ120の回転が、選択の回転を制御する。回転ボタンを押下するとき、携帯用コントローラ120が選択の方を向いている必要はない。手首は全方向に360度自由に回転することはできないため、ユーザは、選択を所望の方向に向けるため、回転解除を数回押下することになる。選択の回転に対するマウスの回転の度数の割合は、ユーザまたは用途の必要要件によって柔軟性がある。
・選択対象を配置:ホログラムを移動させる理由が二つあるため、一般に、ホログラムの新しい位置への配置は自動的に行うことができない。ユーザ110が、選択を配置せずにこの選択から固定フォーカスを外す場合、選択は元の位置に戻る。ユーザは、メタデータボタンを用いてドロップダウンメニューの位置選択を選択することって選択を配置する。
・スライス平面:スライス平面は、オブジェクトを3D空間内でサーチする方法である。ユーザは、スライス平面ボタンを押下する。ユーザは、携帯用コントローラ120を向けて仮想光線130の方向を選択する。スライス平面1240は、カーソル1220がある場所に仮想光線130に直交して形成される。また、ユーザは、十字キーを用いてユーザからスライス平面1240までの仮想光線130上の距離を決定する。ユーザがスライス平面1240の配置に満足すれば、ユーザはスライス平面ボタンを押下して平面をロックする。選択が行われない場合、スライス平面1240は全てのアイコン(ホログラム)と相互作用を行う。選択が行われる場合、スライス平面1240は選択に含まれるオブジェクトとのみ相互作用を行う。スライス平面1240の動作は以下の通りである。スライス平面1240とユーザとの間のアイコンは表示されない。スライス平面1240と交差するアイコンは、フォーカスが明るく,または強調されて表示される。スライス平面の背後のアイコンは、フォーカスが弱くなる。スライス平面がロックされた後、ユーザは、携帯用コントローラ120をスライス平面上の選択に向ける、または二次元モードで十字キーを使用することにより、平面の範囲にかかるカーソルを制御することができる。
・有効化:これは、ウィンドウズOSにより、ファイルを開いたりアプリケーションを開始したりすることと同義である。標準のマウスとの一貫性のために、選択ボタンのダブルクリックとなる。
・表示の変更:ユーザは、選択の表示を3D表示から他のフォーマットでのアイコン群の表示に変更することができる。これは、メタデータボタンの押下により実現する。このアクションを起こすために、マウスにより、選択をポイントする必要はない。ユーザは、選択肢のリストから別の表示を選択する。選択されると、適切な表示が現われる。例としては、標準的なファイル名のウィンドウのようなラベル付きリスト、および平面上のホログラムのグリッドがある。
携帯用コントローラ120の仮想コンテンツへの適用により、携帯用コントローラ120をゲームで使用する機会が生じる。例えば、携帯用コントローラ120は、複合現実ゲームのゲームコントローラとして設けられてもよい。ARまたはMRヘッドセットとともに用いられる場合、ヘッドセットが透明であるため、ユーザはヘッドセットを通して携帯用コントローラ120を見ることができる。
よりリアルなゲーム体験をもたらすために、携帯用コントローラ120は、疑似的なナイフ(図13)または疑似的な銃(図14)の形で実現されてもよい。このようにして、ゲーム中でナイフとして用いられる場合、ユーザには携帯用コントローラ120aがナイフに見えることになる。同様に、ゲーム中で銃として用いられる場合、ユーザには携帯用コントローラ120bが銃に見えることになる。言うまでもなく、多種多様な携帯用コントローラの物理的な実施形態を生み出すことができ、このような実施形態には具体的な使用例に合わせたボタンおよびその他の制御装置が含まれる。
図15に、環境100との関連で実行することのできる例示的方法1500を示す。方法1500は、通常、例えば携帯用コントローラ120およびサーバ装置160に実現されたソフトウェア構成によって行われる。方法1500の各種の動作は任意の適切なやり方により、指示することができる。よって、説明されたものとは異なる順序により、動作が行われる実施形態を構成することができ、これはある動作を同時に行うことも含まれている。
1510において、オブジェクトデータベース164は、複数の制御可能オブジェクト(例えば、オブジェクト150、152、154)と3D空間112における制御可能オブジェクトの制御位置とをそれぞれ関連付けて格納される。各制御位置は、3D空間112における対応する領域を表し、ここに携帯用コントローラ120を向けて対応する制御可能オブジェクトを制御することができる。
1520において、3D空間112における携帯用コントローラ120の位置が測定される。例えば、携帯用コントローラ120は、空間112内をセンサ140へ進むWi−Fiパケットを発信し、センサ140はパケットを検出して出力を生成し、この出力は制御回路160へと送られる。制御回路160は、出力を処理し、携帯用コントローラ120の位置の測定を生成する。
1530において、3D空間112における携帯用コントローラ120の方向が測定される。例えば、携帯用コントローラ120は、携帯用コントローラ120の方向を測定する測定回路430を含む。
1540において、携帯用コントローラ120の測定された位置と携帯用コントローラ120の測定された方向とが結合されて、仮想光線130が構成される。この仮想光線は、その原点が携帯用コントローラ120の測定された位置におかれ、方向は携帯用コントローラ120の測定された方向に基づいている。
1550において、仮想光線130がオブジェクトデータベース164の制御可能オブジェクトの制御位置と交差するように携帯用コントローラ120を向けるのに応えて、(i)制御可能オブジェクトを制御するユーザ入力が携帯用コントローラ120によって受け付けられ、(ii)ユーザ入力に基づいて制御可能オブジェクトを制御する制御インストラクションが携帯用コントローラ120から送信される。
以上、オブジェクトを制御する改良された技術を説明した。本技術は、仮想光線130を生成する出力を与える携帯用コントローラ120を含む。仮想光線130は、位置および方向を有する。仮想光線130の位置は、周囲の空間112内のセンサ140からの入力に基づいて、携帯用コントローラ120の位置として測定される。ユーザ110が携帯用コントローラ120を移動および/または回転させると、仮想光線130が空間内を通過し、各種のオブジェクトと交差する。仮想光線130が身元と位置とがわかっている制御可能オブジェクトの位置と交差すると、携帯用コントローラ120はオブジェクトを識別してユーザ110からのオブジェクト制御のための遠隔制御入力を受け付ける。携帯用コントローラ120を用いることにより、ユーザは、身元と空間内の位置がわかっている任意の制御可能オブジェクトを制御することができ、仮想および物理オブジェクトを制御することができる。
いくつかの実施形態を説明したが、無数の代替的な実施形態または変形例が可能である。例えば、携帯用コントローラ120は、ボールトネットワーク要素として説明された。しかしながら、携帯用コントローラ120はボールトネットワークを含まない状況で用いることができるため、これは単なる例である。
また、本明細書の具体的な実施形態を参照して特徴を説明したが、このような特徴は開示された実施形態およびその変形例のいずれに含まれてもよく、またこれによって含まれる。よって、ある実施形態との関連により、開示された特徴は、別の実施形態の変形例として含まれることも言うまでもない。
さらにまた、本改良またはその一部は、1以上の非一時的なコンピュータ読み取り可能な記憶媒体を含むコンピュータプログラム製品として実現することができ、記憶媒体の霊として、磁気ディスク、磁気テープ、コンパクトディスク、DVD、光ディスク、フラッシュドライブ、半導体ドライブ、SD(セキュア・デジタル)チップもしくは装置、特定用途向け集積回路(ASIC)、および/またはフィールド・プログラマブル・ゲート・アレイ(FPGA)など(図15の媒体1560として例示される)がある。コンピュータ読み取り可能媒体の数はいくつであってもよい。媒体は、携帯用コントローラ120および/またはサーバ装置160の1以上のコンピュータまたはその他のプロセッサにより、実行されると、本明細書により説明した1以上の処理を行うインストラクションによって、エンコードされてもよい。このような媒体は製造品または機械と考えられ、ある機械から別の機械へと輸送することができる。
本明細書において、「備える(comprising)」、「含む(including)」、「含む(containing)」、および「有する(having)」という用語は、何かのある項目、工程、要素、または局面を、非限定的に説明することを意図したものである。また、本明細書において、特にそうではないことが明記されない限り、「セット」という用語は1以上の何かを意味する。これは、「のセット」という語句が単数もしくは複数のオブジェクトに続くか否か、または単数もしくは複数の動詞と対になっているかどうかとは関係なく当てはまる。また、「第1」、「第2」、「第3」などの通常の表現は、本明細書では形容詞として用いることができるが、このような通常の表現は識別のために用いられ、特に明記されない限り、順番や序列を意味するものではない。よって、例えば、「第2」のイベントは「第1のイベント」の前に起こっても後に起こってもよく、また第1のイベントが起こらなくてもよい。加えて、本明細書における「第1」の要素、特徴、または作用とされる特定の要素、特徴、または作用の識別は、「第2」またはその他の要素、特徴、または作用の存在が必要であると解釈されるべきものではない。むしろ、「第1」のアイテムは一つだけであてもよい。本明細書においてある実施形態を説明したが、これらは例としてのみ提示されたものであり、本発明が特定の実施形態に限定されるものではないことは言うまでもない。
したがって、本発明の範囲を逸脱することなく本明細書の実施形態の形状や細部について様々な変更が可能であることは、当業者には言うまでもない。

Claims (24)

  1. 携帯用コントローラを用いて3D(三次元)空間のオブジェクトを制御する方法であって、
    複数の制御可能オブジェクトと前記3D空間における前記制御可能オブジェクトの制御位置とをそれぞれ関連付けるオブジェクトデータベースを格納し、各制御位置は前記3D空間における対応する領域を表し、当該領域に前記携帯用コントローラを向けて対応する制御可能オブジェクトを制御することができ、
    前記3D空間における前記携帯用コントローラの位置を測定し、
    前記3D空間における前記携帯用コントローラの方向を測定し、
    前記携帯用コントローラの測定された位置と前記携帯用コントローラの測定された方向とを結合して、原点が前記携帯用コントローラの測定された位置におかれ方向が前記携帯用コントローラの測定された方向に基づく仮想光線を構成し、
    前記仮想光線が前記オブジェクトデータベースの制御可能オブジェクトの制御位置と交差するように前記携帯用コントローラが向けられることに応えて、(i)前記制御可能オブジェクトを制御するユーザ入力を前記携帯用コントローラによって受け付け、(ii)前記ユーザ入力に基づく前記制御可能オブジェクトを制御する制御インストラクションを前記携帯用コントローラから送信する方法であって、
    前記方法はさらに、
    前記3D空間の物理的特徴を表すマップ情報を格納し、
    前記仮想光線が制御位置と交差するオブジェクトのセットの識別子を前記携帯用コントローラによって表示する方法であって、
    前記方法は、さらに、前記識別子を表示するとき、前記仮想光線が制御位置と交差するが前記マップ情報により前記携帯用コントローラの視線から隠れることが示されるオブジェクトの識別子をフィルタリングする方法。
  2. 前記携帯用コントローラの位置の測定は、
    前記携帯用コントローラによって、空間内を伝播して複数のアンテナに到達する無線信号を送信し、前記アンテナはそれぞれ前記無線信号を処理して対応する出力を生成し、
    前記複数のアンテナからの前記出力を処理して、前記3D空間における前記携帯用コントローラの位置を生成することを含む請求項1に記載の方法。
  3. さらに、
    前記仮想光線が前記制御可能オブジェクトの制御位置と交差する間、前記携帯用コントローラによって、前記携帯用コントローラに前記制御可能オブジェクトの身元をキャプチャするよう指示するキャプチャコマンドを前記携帯用コントローラのユーザから受信し、前記キャプチャコマンドの受信後は前記携帯用コントローラがどこを向いていようと、前記携帯用コントローラを用いたその後の前記制御可能オブジェクトの制御を可能とし、
    その後、前記仮想光線が前記制御可能オブジェクトの制御位置と交差しなくなると、前記携帯用コントローラが、前記制御可能オブジェクトを制御するユーザ入力を受信し、前記制御可能オブジェクトを制御する制御インストラクションを送信する請求項2に記載の方法。
  4. さらに、
    前記仮想光線が前記オブジェクトデータベースにおいて識別される複数の前記制御可能オブジェクトの制御位置と交差することに応えて、
    前記携帯用コントローラによって、前記複数の制御可能オブジェクトに対して定義された指標のリストを表示し、
    前記仮想光線が前記複数の制御可能オブジェクトの制御位置と交差する間、前記携帯用コントローラによって、前記携帯用コントローラに前記複数の制御可能オブジェクトの指標のリストをキャプチャするよう指示する別のキャプチャコマンドを受信し、前記別のキャプチャコマンドの受信後は前記携帯用コントローラがどこを向いていようと、その後の前記複数の制御可能オブジェクトのいずれかの制御を可能とし、
    その後、前記仮想光線が前記選択された制御可能オブジェクトの制御位置と交差しなくなると、前記携帯用コントローラが、前記複数の制御可能オブジェクトの一つを選択するユーザ入力を受信し、前記選択された制御可能オブジェクトを制御する請求項3に記載の方法。
  5. さらに、
    (A)前記携帯用コントローラによって以前に制御した制御可能オブジェクトの履歴を格納し、
    (B)前記携帯用コントローラにより、前記履歴から選択された制御可能オブジェクトを制御するユーザ入力を受信し、
    (C)前記携帯用コントローラから、前記選択された制御可能オブジェクトを制御する制御インストラクションを送信する方法であって、
    前記(B)および(C)は、前記仮想光線が前記選択された制御可能オブジェクトの制御位置と交差することなく行われる請求項3に記載の方法。
  6. さらに、
    前記3D空間内のユーザ定義領域に特定の制御可能オブジェクトの制御位置を規定し、前記特定の制御可能オブジェクトの制御位置は、前記携帯用コントローラを向けて前記特定の制御可能オブジェクトを制御する位置である請求項3に記載の方法。
  7. 前記特定の制御可能オブジェクトは、前記3D空間内の位置を占める電子コントローラに電気的に接続され、
    前記特定の制御可能オブジェクトの制御位置は前記電子コントローラの位置と交差しない請求項6に記載の方法。
  8. 前記特定の制御可能オブジェクトの制御位置の規定は、前記3D空間における前記特定の制御可能オブジェクトの制御位置と前記特定の制御可能オブジェクトとを関連付けるトレーニング手続きを前記携帯用コントローラが実行することを含む請求項6に記載の方法。
  9. 前記トレーニング手続きの実行は、
    前記携帯用コントローラによって、トレーニングする前記特定の制御可能オブジェクトのユーザ選択を受信し、
    前記携帯用コントローラが前記3D空間内の複数の異なる位置から前記特定の制御可能オブジェクトの制御位置に向けられると、前記携帯用コントローラによって前記仮想光線の値を取得し、
    前記特定の制御可能オブジェクトの制御位置を、前記仮想光線の前記取得された値の3D空間内で交差する領域として計算することを含む請求項8に記載の方法。
  10. 前記トレーニング手続きの実行は、
    前記携帯用コントローラによって、トレーニングする前記特定の制御可能オブジェクトのユーザ選択を受信し、
    前記携帯用コントローラが前記特定の制御可能オブジェクトの制御位置に物理的に配置されることにより、前記携帯用コントローラによって、前記3D空間における現在の位置を前記特定の制御可能オブジェクトの制御位置として前記携帯用コントローラに割り当てるよう指示するユーザ入力を受信することを含む請求項8に記載の方法。
  11. 前記特定の制御可能オブジェクトの制御位置は、空間内の特定の領域にわたり、
    前記トレーニング手続きの実行は、
    前記携帯用コントローラによって、空間内の前記特定の領域複数の頂点の前記3D空間における位置を取得し、
    前記制御位置の3D領域を前記複数の頂点を含む最小の凸形として計算することを含む請求項8に記載の方法。
  12. 前記特定の制御可能オブジェクトの制御位置は、前記3D空間における対応する位置に複数の独立領域を含み、
    前記トレーニング手続きの実行は、
    前記携帯用コントローラによって、前記3D空間における前記複数の独立領域のそれぞれの位置を取得し、
    前記独立領域の前記取得された3D位置を、前記制御可能オブジェクトの前記制御位置が3D空間における前記複数の独立領域のいずれにも対応するように、前記特定の制御可能オブジェクトの制御位置として統合することを含む請求項8に記載の方法。
  13. 携帯用コントローラを用いて3D(三次元)空間のオブジェクトを制御する方法であって、
    複数の制御可能オブジェクトと前記3D空間における前記制御可能オブジェクトの制御位置とをそれぞれ関連付けるオブジェクトデータベースを格納し、各制御位置は前記3D空間における対応する領域を表し、当該領域に前記携帯用コントローラを向けて対応する制御可能オブジェクトを制御することができ、
    前記3D空間における前記携帯用コントローラの位置を測定し、
    前記3D空間における前記携帯用コントローラの方向を測定し、
    前記携帯用コントローラの測定された位置と前記携帯用コントローラの測定された方向とを結合して、原点が前記携帯用コントローラの測定された位置におかれ方向が前記携帯用コントローラの測定された方向に基づく仮想光線を構成し、
    前記仮想光線が前記オブジェクトデータベースの制御可能オブジェクトの制御位置と交差するように前記携帯用コントローラが向けられることに応えて、(i)前記制御可能オブジェクトを制御するユーザ入力を前記携帯用コントローラによって受け付け、(ii)前記ユーザ入力に基づく前記制御可能オブジェクトを制御する制御インストラクションを前記携帯用コントローラから送信する方法であって、
    前記オブジェクトデータベースは、前記3D空間における仮想制御可能オブジェクトの制御位置を格納し、
    前記方法は、さらに、
    前記携帯用コントローラと前記仮想制御可能オブジェクトをホログラムとして描画するよう構成された3Dヘッドセットとの間の電子通信を確立し、
    前記仮想光線が前記仮想制御可能オブジェクトの制御位置と交差するように前記携帯用コントローラが向けられることに応えて、前記仮想制御可能オブジェクトを制御するユーザ入力を前記携帯用コントローラによって受け付ける方法。
  14. さらに、
    前記仮想光線の値を前記3Dヘッドセットに送信し、前記3Dヘッドセットが前記仮想光線上に現れるよう投影されたホログラフィック・カーソルを描画できるようにする請求項13に記載の方法。
  15. さらに、
    前記携帯用コントローラによって、前記3Dヘッドセットによって前記仮想光線上に描画された前記ホログラフィック・カーソルの奥行を調整するユーザ入力を受信する請求項14に記載の方法。
  16. さらに、
    前記携帯用コントローラによって、前記ホログラフィック・カーソルがポイントするホログラムを選択するユーザ入力を受信する請求項14に記載の方法。
  17. さらに、
    前記携帯用コントローラによって、前記選択されたホログラムを回転するユーザ入力を受信する請求項16に記載の方法。
  18. さらに、
    前記携帯用コントローラによって、前記選択されたホログラムを移動させるユーザ入力を受信する請求項16に記載の方法。
  19. さらに、
    前記携帯用コントローラによって、前記選択されたホログラムと相互作用を行う選択肢のリストを表示するユーザ入力を受信する請求項16に記載の方法。
  20. さらに、
    前記携帯用コントローラによって、前記仮想光線に直交するスライス平面を生成するユーザ入力を受信し、前記スライス平面が前記携帯用コントローラに前記スライス平面に対するホログラムの位置に基くホログラムの選択を可能とする請求項16に記載の方法。
  21. 前記携帯用コントローラの方向の測定が、前記携帯用コントローラ120内の測定回路によって行われ、前記携帯用コントローラの方向の測定が、前記携帯用コントローラから分離したサーバ装置によって行われる請求項1に記載の方法。
  22. オブジェクトを制御する携帯用コントローラであって、
    ユーザインターフェースと、
    無線通信インターフェースと、
    3D(三次元)空間における前記携帯用コントローラの方向を測定するよう構成された測定回路と、
    プロセッサのセットと、
    メモリと、
    を備え、
    前記プロセッサのセットと前記メモリとは合わせて制御回路を形成し、前記制御回路は、
    前記測定回路に前記携帯用コントローラの方向の測定を行うよう指示し、
    前記無線インターフェースに前記携帯用コントローラの方向の測定を伝達する信号を含む無線信号を複数のセンサに送信して、(i)前記複数のセンサによって受信される前記無線信号に基づいて、測定される前記携帯用コントローラの位置を有効化し、(ii)それぞれ、原点が前記携帯用コントローラの測定された位置におかれ方向が前記携帯用コントローラの測定された方向に基づく、複数の仮想光線を生成するよう指示し、
    前記仮想光線の一つと交差する制御可能オブジェクトを識別し、
    前記無線インターフェースに前記識別された制御可能オブジェクトを制御する制御インストラクションの送信を指示するよう構成される制御回路であって、
    前記無線信号を送信するよう構成された前記制御回路は、さらに、無線パケットのセットを送信するよう構成され、前記無線パケットのセットは、それぞれ、(i)前記携帯用コントローラの対応する位置測定の基礎としての役割を果たし、(ii)前記対応する無線パケットの送信から数ミリ秒以内に行われた対応する前記携帯用コントローラの方向の測定を含む、携帯用コントローラ。
  23. さらに、
    加速度計のセットを備え、
    前記制御回路は、さらに、
    前記加速度計のセットからの出力に基づいて、前記無線インターフェースに無線パケットの送信を指示するレートを変化させ、加速度のレベルが高い場合は前記レートが高く、加速度のレベルが低い場合は前記レートが低くなるよう構成される請求項22に記載の携帯用コントローラ。
  24. 前記携帯用コントローラは、(i)銃、(ii)剣のうち、一つに類似した外見を有する請求項23に記載の携帯用コントローラ。
JP2019531856A 2016-08-23 2017-08-16 仮想光線を用いたオブジェクト制御 Pending JP2019532444A (ja)

Applications Claiming Priority (13)

Application Number Priority Date Filing Date Title
US201662378498P 2016-08-23 2016-08-23
US201662378486P 2016-08-23 2016-08-23
US201662378494P 2016-08-23 2016-08-23
US62/378,498 2016-08-23
US62/378,486 2016-08-23
US62/378,494 2016-08-23
US201662397226P 2016-09-20 2016-09-20
US62/397,226 2016-09-20
US201762491048P 2017-04-27 2017-04-27
US62/491,048 2017-04-27
US15/655,489 2017-07-20
US15/655,489 US11269480B2 (en) 2016-08-23 2017-07-20 Controlling objects using virtual rays
PCT/US2017/047154 WO2018038997A1 (en) 2016-08-23 2017-08-16 Controlling objects using virtual rays

Publications (1)

Publication Number Publication Date
JP2019532444A true JP2019532444A (ja) 2019-11-07

Family

ID=59506377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019531856A Pending JP2019532444A (ja) 2016-08-23 2017-08-16 仮想光線を用いたオブジェクト制御

Country Status (4)

Country Link
US (3) US11269480B2 (ja)
JP (1) JP2019532444A (ja)
CN (1) CN109791446A (ja)
WO (2) WO2018038834A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021199785A1 (ja) * 2020-03-31 2021-10-07 株式会社Nttドコモ 情報処理システム

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9652896B1 (en) 2015-10-30 2017-05-16 Snap Inc. Image based tracking in augmented reality systems
US9984499B1 (en) 2015-11-30 2018-05-29 Snap Inc. Image and point cloud based tracking and in augmented reality systems
US10987573B2 (en) 2016-10-11 2021-04-27 Valve Corporation Virtual reality hand gesture generation
US11625898B2 (en) * 2016-10-11 2023-04-11 Valve Corporation Holding and releasing virtual objects
US10307669B2 (en) 2016-10-11 2019-06-04 Valve Corporation Electronic controller with finger sensing and an adjustable hand retainer
US10843068B2 (en) * 2017-01-18 2020-11-24 Xvisio Technology Corp. 6DoF inside-out tracking game controller
US10319149B1 (en) 2017-02-17 2019-06-11 Snap Inc. Augmented reality anamorphosis system
US10074381B1 (en) 2017-02-20 2018-09-11 Snap Inc. Augmented reality speech balloon system
US10387730B1 (en) 2017-04-20 2019-08-20 Snap Inc. Augmented reality typography personalization system
US11054272B2 (en) * 2017-05-11 2021-07-06 Disney Enterprises, Inc. Physical navigation guided via story-based augmented and/or mixed reality experiences
JP6832794B2 (ja) * 2017-06-05 2021-02-24 ルネサスエレクトロニクス株式会社 無線通信システム
US10740974B1 (en) 2017-09-15 2020-08-11 Snap Inc. Augmented reality system
EP3489882A1 (en) * 2017-11-27 2019-05-29 Nokia Technologies Oy An apparatus and associated methods for communication between users experiencing virtual reality
KR102028036B1 (ko) * 2018-01-18 2019-11-04 주식회사 뉴냅스 뇌연결성 기반의 시지각 트레이닝 장치, 방법 및 프로그램
US11513589B2 (en) 2018-03-05 2022-11-29 Reavire, Inc. Maintaining localization and orientation of electronic headset after loss of slam tracking
US11054638B2 (en) 2018-06-13 2021-07-06 Reavire, Inc. Tracking pointing direction of device
US11212277B1 (en) * 2018-07-02 2021-12-28 Knwn Technologies, Inc. System and method for securing, perfecting and accelerating biometric identification via holographic environmental data
EP3599538B1 (en) * 2018-07-24 2023-07-19 Nokia Technologies Oy Method and apparatus for adding interactive objects to a virtual reality environment
US10997760B2 (en) 2018-08-31 2021-05-04 Snap Inc. Augmented reality anthropomorphization system
US10939236B1 (en) 2018-11-30 2021-03-02 Snap Inc. Position service to determine relative position to map features
US10921878B2 (en) * 2018-12-27 2021-02-16 Facebook, Inc. Virtual spaces, mixed reality spaces, and combined mixed reality spaces for improved interaction and collaboration
EP3680753B1 (en) * 2019-01-09 2022-01-05 Nokia Technologies Oy An apparatus and associated methods for presentation of a virtual reality space
US11972529B2 (en) 2019-02-01 2024-04-30 Snap Inc. Augmented reality system
US11189097B2 (en) * 2019-06-14 2021-11-30 In It Vr, Llc Simulated reality transition element location
CN110348198B (zh) 2019-06-21 2024-04-12 华为技术有限公司 仿真对象的身份识别方法、相关装置及系统
US11288868B2 (en) 2019-07-26 2022-03-29 Foretell Studios, LLC Simulated reality adaptive user space
US10991163B2 (en) 2019-09-20 2021-04-27 Facebook Technologies, Llc Projection casting in virtual environments
US11086406B1 (en) 2019-09-20 2021-08-10 Facebook Technologies, Llc Three-state gesture virtual controls
US11176745B2 (en) 2019-09-20 2021-11-16 Facebook Technologies, Llc Projection casting in virtual environments
US10802600B1 (en) * 2019-09-20 2020-10-13 Facebook Technologies, Llc Virtual interactions at a distance
US11170576B2 (en) 2019-09-20 2021-11-09 Facebook Technologies, Llc Progressive display of virtual objects
US11189099B2 (en) 2019-09-20 2021-11-30 Facebook Technologies, Llc Global and local mode virtual object interactions
CN110717993B (zh) * 2019-10-12 2021-04-02 西安维度视界科技有限公司 一种分体式ar眼镜系统的交互方法、系统及介质
US11086476B2 (en) * 2019-10-23 2021-08-10 Facebook Technologies, Llc 3D interactions with web content
EP3825792A1 (de) * 2019-11-21 2021-05-26 Deutsche Telekom AG Verfahren zur steuerung wenigstens eines aktuators eines smart-home-systems und/oder zur generierung und/oder übertragung wenigstens einer steuerungsnachricht zu dem wenigstens einen aktuator des smart-home-systems unter verwendung einer bedienvorrichtung, system, verwendung einer bedienvorrichtung, einer sensoreinrichtung oder einer steuerungseinrichtung, computerprogramm und computerlesbares medium
US11175730B2 (en) 2019-12-06 2021-11-16 Facebook Technologies, Llc Posture-based virtual space configurations
US11475639B2 (en) 2020-01-03 2022-10-18 Meta Platforms Technologies, Llc Self presence in artificial reality
US11340695B2 (en) * 2020-01-24 2022-05-24 Magic Leap, Inc. Converting a 2D positional input into a 3D point in space
US11660528B2 (en) 2020-03-12 2023-05-30 Reavire, Inc. Populating virtual objects in physical environments
US11181975B2 (en) * 2020-03-12 2021-11-23 International Business Machines Corporation Field of view movement variation-based security profile assignment to physical assets at a location
US20210304515A1 (en) * 2020-03-26 2021-09-30 Wormhole Labs, Inc. Systems and Methods of User Controlled Viewing of Non-User Avatars
US20210358294A1 (en) * 2020-05-15 2021-11-18 Microsoft Technology Licensing, Llc Holographic device control
US11257280B1 (en) 2020-05-28 2022-02-22 Facebook Technologies, Llc Element-based switching of ray casting rules
US11256336B2 (en) 2020-06-29 2022-02-22 Facebook Technologies, Llc Integration of artificial reality interaction modes
US11335068B2 (en) * 2020-07-27 2022-05-17 Facebook Technologies, Llc. Systems and methods for user interaction with artificial reality environments
US11227445B1 (en) 2020-08-31 2022-01-18 Facebook Technologies, Llc Artificial reality augments and surfaces
US11176755B1 (en) 2020-08-31 2021-11-16 Facebook Technologies, Llc Artificial reality augments and surfaces
US11178376B1 (en) 2020-09-04 2021-11-16 Facebook Technologies, Llc Metering for display modes in artificial reality
US11593994B2 (en) * 2020-11-05 2023-02-28 Kyndryl, Inc. Creating working boundaries in a multi-user environment
US11113893B1 (en) 2020-11-17 2021-09-07 Facebook Technologies, Llc Artificial reality environment with glints displayed by an extra reality device
US11461973B2 (en) 2020-12-22 2022-10-04 Meta Platforms Technologies, Llc Virtual reality locomotion via hand gesture
US11409405B1 (en) 2020-12-22 2022-08-09 Facebook Technologies, Llc Augment orchestration in an artificial reality environment
US11294475B1 (en) 2021-02-08 2022-04-05 Facebook Technologies, Llc Artificial reality multi-modal input switching model
US11295503B1 (en) 2021-06-28 2022-04-05 Facebook Technologies, Llc Interactive avatars in artificial reality
US11762952B2 (en) 2021-06-28 2023-09-19 Meta Platforms Technologies, Llc Artificial reality application lifecycle
US12008717B2 (en) 2021-07-07 2024-06-11 Meta Platforms Technologies, Llc Artificial reality environment control through an artificial reality environment schema
JP6989199B1 (ja) * 2021-10-06 2022-01-05 クラスター株式会社 情報処理装置
US11748944B2 (en) 2021-10-27 2023-09-05 Meta Platforms Technologies, Llc Virtual object structures and interrelationships
US11798247B2 (en) 2021-10-27 2023-10-24 Meta Platforms Technologies, Llc Virtual object structures and interrelationships
US11726587B2 (en) 2021-11-03 2023-08-15 Htc Corporation Virtual image display system and pointing direction control method of control device thereof
US11783555B2 (en) * 2021-11-16 2023-10-10 Peer Inc System and method for transferring content from one virtual environment to another
KR102513444B1 (ko) * 2021-11-25 2023-03-24 한국과학기술원 스마트 홈 시스템에서 객체 등록을 지원하는 방법 및 장치
WO2024030393A1 (en) * 2022-07-31 2024-02-08 Walker Stanley A platform agnostic system for spatially synchronization of physical and virtual locations
US20240054737A1 (en) * 2022-08-11 2024-02-15 Peer Inc Systems and method for enhanced portal systems in augmented reality virtual environments
US11947862B1 (en) 2022-12-30 2024-04-02 Meta Platforms Technologies, Llc Streaming native application content to artificial reality devices
US11991222B1 (en) 2023-05-02 2024-05-21 Meta Platforms Technologies, Llc Persistent call control user interface element in an artificial reality environment

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001258082A (ja) * 2000-03-09 2001-09-21 Seiko Epson Corp リモコンシステム
US20040080412A1 (en) * 2002-10-26 2004-04-29 Smith Mark T. Location requests by a network device
JP2004253869A (ja) * 2003-02-18 2004-09-09 Sharp Corp 遠隔制御装置
JP2005354543A (ja) * 2004-06-14 2005-12-22 Sanyo Electric Co Ltd リモコン装置
JP2007266772A (ja) * 2006-03-27 2007-10-11 Toshiba Corp 機器操作装置および機器操作方法
WO2011065028A1 (ja) * 2009-11-30 2011-06-03 パナソニック株式会社 通信装置
WO2011155118A1 (ja) * 2010-06-07 2011-12-15 パナソニック株式会社 オブジェクト選択装置、オブジェクト選択プログラム、及びオブジェクト選択方法
US20110312311A1 (en) * 2010-06-16 2011-12-22 Qualcomm Incorporated Methods and apparatuses for gesture based remote control
WO2014002322A1 (ja) * 2012-06-26 2014-01-03 日本電気株式会社 携帯端末、電子機器制御システム、及び電子機器制御方法
WO2014208168A1 (ja) * 2013-06-26 2014-12-31 ソニー株式会社 情報処理装置、制御方法、プログラム、および記憶媒体
WO2015118135A1 (en) * 2014-02-07 2015-08-13 Koninklijke Philips N.V. Network centric localization
US20150277699A1 (en) * 2013-04-02 2015-10-01 Cherif Atia Algreatly Interaction method for optical head-mounted display
JP5944600B1 (ja) * 2015-08-28 2016-07-05 株式会社タカラトミー 頭部装着型ディスプレイを備えた情報処理装置

Family Cites Families (121)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5717406A (en) * 1995-06-07 1998-02-10 Sanconix Inc. Enhanced position calculation
WO1998017172A2 (en) * 1996-10-24 1998-04-30 Massachusetts Institute Of Technology Patient monitoring finger ring sensor
US6249680B1 (en) * 1997-01-08 2001-06-19 U.S. Wireless Corporation Radio transmitter location finding in CDMA wireless communication systems
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US5999208A (en) * 1998-07-15 1999-12-07 Lucent Technologies Inc. System for implementing multiple simultaneous meetings in a virtual reality mixed media meeting room
US6505275B1 (en) 2000-07-24 2003-01-07 Sun Microsystems, Inc. Method for scalable memory efficient thread-local object allocation
JP2002157606A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像表示制御装置、複合現実感提示システム、画像表示制御方法、及び処理プログラムを提供する媒体
US7095422B2 (en) * 2002-01-23 2006-08-22 Michihiko Shouji Image processing system, image processing apparatus, and display apparatus
US6990639B2 (en) * 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
AU2003217819B2 (en) 2002-03-01 2008-04-03 Extreme Networks, Inc. Location aware data network
US20030235172A1 (en) * 2002-06-24 2003-12-25 Intel Corporation Asset tracking methods and apparatus
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7038661B2 (en) * 2003-06-13 2006-05-02 Microsoft Corporation Pointing device and cursor for use in intelligent computing environments
US7042391B2 (en) * 2003-12-12 2006-05-09 Xerox Corporation Mobile device and method for determining location of mobile device
US7667700B1 (en) * 2004-03-05 2010-02-23 Hrl Laboratories, Llc System and method for navigating operating in a virtual environment
EP1779344A4 (en) * 2004-07-29 2009-08-19 Motiva Llc SYSTEM FOR MEASURING HUMAN MOVEMENT
US7817014B2 (en) * 2004-07-30 2010-10-19 Reva Systems Corporation Scheduling in an RFID system having a coordinated RFID tag reader array
US20060143292A1 (en) * 2004-12-28 2006-06-29 Taubenheim David B Location-based network access
WO2007022587A1 (en) * 2005-08-26 2007-03-01 Bruce Joy Distributed 3d environment framework
JP4302710B2 (ja) * 2006-04-11 2009-07-29 シャープ株式会社 画像処理装置制御システム
US9405372B2 (en) * 2006-07-14 2016-08-02 Ailive, Inc. Self-contained inertial navigation system for interactive control using movable controllers
US20080052750A1 (en) * 2006-08-28 2008-02-28 Anders Grunnet-Jepsen Direct-point on-demand information exchanges
US20080094398A1 (en) * 2006-09-19 2008-04-24 Bracco Imaging, S.P.A. Methods and systems for interacting with a 3D visualization system using a 2D interface ("DextroLap")
CA2685353C (en) * 2007-03-07 2016-04-26 Ideaflood, Inc. Multi-instance, multi-user animation platforms
US8059111B2 (en) * 2008-01-21 2011-11-15 Sony Computer Entertainment America Llc Data transfer using hand-held device
US8555207B2 (en) * 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
US8350850B2 (en) 2008-03-31 2013-01-08 Microsoft Corporation Using photo collections for three dimensional modeling
US8077157B2 (en) * 2008-03-31 2011-12-13 Intel Corporation Device, system, and method of wireless transfer of files
US20100083189A1 (en) * 2008-09-30 2010-04-01 Robert Michael Arlein Method and apparatus for spatial context based coordination of information among multiple devices
US9550125B2 (en) * 2008-10-14 2017-01-24 Roblox Corporation Dynamic and scalable topology for virtual world environments
JP4936479B2 (ja) * 2009-03-26 2012-05-23 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
US9067097B2 (en) * 2009-04-10 2015-06-30 Sovoz, Inc. Virtual locomotion controller apparatus and methods
US8656473B2 (en) * 2009-05-14 2014-02-18 Microsoft Corporation Linking web identity and access to devices
US9344510B2 (en) * 2009-07-03 2016-05-17 International Business Machines Corporation Pushing content from a local device to a remote display
US9571625B2 (en) * 2009-08-11 2017-02-14 Lg Electronics Inc. Electronic device and control method thereof
US8312392B2 (en) * 2009-10-02 2012-11-13 Qualcomm Incorporated User interface gestures and methods for providing file sharing functionality
US8672763B2 (en) * 2009-11-20 2014-03-18 Sony Computer Entertainment Inc. Controller for interfacing with a computing program using position, orientation, or motion
US20110154014A1 (en) * 2009-12-18 2011-06-23 Sony Ericsson Mobile Communications Ab Data exchange for mobile devices
WO2011090886A2 (en) * 2010-01-25 2011-07-28 Rambus Inc. Directional beam steering system and method to detect location and motion
US8893022B2 (en) * 2010-04-01 2014-11-18 Microsoft Corporation Interactive and shared viewing experience
US20110320963A1 (en) * 2010-06-28 2011-12-29 Rovi Technologies Corporation Systems and methods for controlling multiple user access to media devices in a connected platform environment
US9378296B2 (en) * 2010-08-24 2016-06-28 International Business Machines Corporation Virtual world construction
WO2012046392A1 (ja) * 2010-10-08 2012-04-12 パナソニック株式会社 姿勢推定装置及び姿勢推定方法
KR101700377B1 (ko) * 2010-10-20 2017-01-26 삼성전자주식회사 아바타 생성을 위한 처리 장치 및 방법
US20130044612A1 (en) * 2011-08-16 2013-02-21 Olaf J. Hirsch Autonomous wi-fi based ranging device
WO2013028908A1 (en) * 2011-08-24 2013-02-28 Microsoft Corporation Touch and social cues as inputs into a computer
KR101944846B1 (ko) * 2011-10-28 2019-02-01 매직 립, 인코포레이티드 증강 및 가상 현실을 위한 시스템 및 방법
US9048876B2 (en) 2011-11-18 2015-06-02 Sandisk Enterprise Ip Llc Systems, methods and devices for multi-tiered error correction
US20130141419A1 (en) * 2011-12-01 2013-06-06 Brian Mount Augmented reality with realistic occlusion
US9084217B2 (en) * 2012-01-03 2015-07-14 Wavion Ltd. Single-site localization via multipath fingerprinting
US9041739B2 (en) * 2012-01-31 2015-05-26 Microsoft Technology Licensing, Llc Matching physical locations for shared virtual experience
US20130244684A1 (en) * 2012-03-13 2013-09-19 Google Inc. Permissions based on wireless network data
US9288632B2 (en) * 2012-05-01 2016-03-15 Intel Corporation Simultaneous localization and mapping using spatial and temporal coherence for indoor location
US20130326364A1 (en) * 2012-05-31 2013-12-05 Stephen G. Latta Position relative hologram interactions
US9041622B2 (en) * 2012-06-12 2015-05-26 Microsoft Technology Licensing, Llc Controlling a virtual object with a real controller device
US9256961B2 (en) * 2012-06-28 2016-02-09 Here Global B.V. Alternate viewpoint image enhancement
US9519344B1 (en) * 2012-08-14 2016-12-13 Position Imaging, Inc. User input system for immersive interaction
US9477312B2 (en) * 2012-11-05 2016-10-25 University Of South Australia Distance based modelling and manipulation methods for augmented reality systems using ultrasonic gloves
JP6094190B2 (ja) * 2012-12-10 2017-03-15 ソニー株式会社 情報処理装置および記録媒体
US9223003B2 (en) * 2012-12-18 2015-12-29 Intel Corporation Differentiated station location
TWI489126B (zh) * 2012-12-19 2015-06-21 Ind Tech Res Inst 一種動態無線訊號強度修正系統與方法
US9342929B2 (en) * 2013-01-22 2016-05-17 Microsoft Technology Licensing, Llc Mixed reality experience sharing
US9619988B2 (en) * 2013-01-31 2017-04-11 Precyse Technologies Funding, Llc Method of controlling location monitoring and reporting
US20180082565A1 (en) * 2013-01-31 2018-03-22 Precyse Technologies, Inc. Method of controlling location monitoring and reporting
US20140349637A1 (en) * 2013-03-15 2014-11-27 Elwha LLC, a limited liability corporation of the State of Delaware Facilitating wireless communication in conjunction with orientation position
US9793596B2 (en) * 2013-03-15 2017-10-17 Elwha Llc Facilitating wireless communication in conjunction with orientation position
US9367136B2 (en) * 2013-04-12 2016-06-14 Microsoft Technology Licensing, Llc Holographic object feedback
EP2992352A4 (en) * 2013-04-30 2017-01-04 Nokia Technologies OY Controlling operation of a device
US9823330B2 (en) * 2013-05-03 2017-11-21 Cisco Technology, Inc. Angle of arrival location sensing with antenna array
DE102013106119A1 (de) * 2013-06-12 2014-12-18 Deutsche Telekom Ag Hierarchisches Authentifizierungs- und Autorisierungssystem
WO2014204330A1 (en) * 2013-06-17 2014-12-24 3Divi Company Methods and systems for determining 6dof location and orientation of head-mounted display and associated user movements
US10048761B2 (en) * 2013-09-30 2018-08-14 Qualcomm Incorporated Classification of gesture detection systems through use of known and yet to be worn sensors
US9516503B2 (en) * 2013-10-31 2016-12-06 Aruba Networks, Inc. Location based access
US20150201443A1 (en) * 2014-01-10 2015-07-16 Qualcomm Incorporated Point and share using ir triggered p2p
KR101550580B1 (ko) * 2014-01-17 2015-09-08 한국과학기술연구원 사용자 인터페이스 장치 및 그것의 제어 방법
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
GB2525902A (en) * 2014-05-08 2015-11-11 Ibm Mobile device data transfer using location information
US9526983B2 (en) * 2014-06-04 2016-12-27 Chih-Feng Lin Virtual reality avatar traveling control system and virtual reality avatar traveling control method
CN105301771B (zh) * 2014-06-06 2020-06-09 精工爱普生株式会社 头部佩戴型显示装置、检测装置、控制方法以及计算机程序
US20170140552A1 (en) 2014-06-25 2017-05-18 Korea Advanced Institute Of Science And Technology Apparatus and method for estimating hand position utilizing head mounted color depth camera, and bare hand interaction system using same
US10134187B2 (en) * 2014-08-07 2018-11-20 Somo Innvoations Ltd. Augmented reality with graphics rendering controlled by mobile device position
US9599821B2 (en) * 2014-08-08 2017-03-21 Greg Van Curen Virtual reality system allowing immersion in virtual space to consist with actual movement in actual space
GB201414609D0 (en) * 2014-08-18 2014-10-01 Tosas Bautista Martin Systems and methods for dealing with augmented reality overlay issues
CN106717053B (zh) * 2014-08-29 2020-11-06 株式会社东芝 无线通信装置
US9818225B2 (en) * 2014-09-30 2017-11-14 Sony Interactive Entertainment Inc. Synchronizing multiple head-mounted displays to a unified space and correlating movement of objects in the unified space
US20160133230A1 (en) * 2014-11-11 2016-05-12 Bent Image Lab, Llc Real-time shared augmented reality experience
US9335862B1 (en) * 2014-11-14 2016-05-10 International Business Machines Corporation Virtual multi-device navigation in surface computing system
US10055892B2 (en) * 2014-11-16 2018-08-21 Eonite Perception Inc. Active region determination for head mounted displays
EP3218074A4 (en) * 2014-11-16 2017-11-29 Guy Finfter System and method for providing an alternate reality ride experience
WO2016079774A1 (en) * 2014-11-21 2016-05-26 Johri Abhishek System and method for data and command input
US9851786B2 (en) * 2014-12-10 2017-12-26 Sixense Entertainment, Inc. System and method for assisting a user in remaining in a selected area while the user is in a virtual reality environment
US10115149B1 (en) * 2014-12-18 2018-10-30 Amazon Technologies, Inc. Virtual world electronic commerce platform
US10073516B2 (en) * 2014-12-29 2018-09-11 Sony Interactive Entertainment Inc. Methods and systems for user interaction within virtual reality scene using head mounted display
US10163255B2 (en) * 2015-01-07 2018-12-25 Geopogo, Inc. Three-dimensional geospatial visualization
KR101659849B1 (ko) * 2015-01-09 2016-09-29 한국과학기술원 아바타를 이용한 텔레프레즌스 제공 방법, 상기 방법을 수행하는 시스템 및 컴퓨터 판독 가능한 기록 매체
CN105871952A (zh) * 2015-01-20 2016-08-17 阿里巴巴集团控股有限公司 信息处理方法及装置
TWI540522B (zh) * 2015-02-26 2016-07-01 宅妝股份有限公司 採用虛擬實境與擴增實境技術的虛擬購物系統與方法
US10156908B2 (en) * 2015-04-15 2018-12-18 Sony Interactive Entertainment Inc. Pinch and hold gesture navigation on a head-mounted display
US20160321880A1 (en) * 2015-04-28 2016-11-03 Immersion Corporation Systems And Methods For Tactile Guidance
KR20180022674A (ko) * 2015-05-27 2018-03-06 지엔 아이피 피티와이 엘티디 위치-특정 게임화를 포함하는, 신체적으로 수행된 기능의 센서-기반 모니터링에 의해 게임화가 가능하도록 구성된 구조, 장치 및 방법
CN104902564B (zh) * 2015-05-29 2018-10-23 东华大学 一种高健壮性和精度的三角形质心定位方法
DE102016110902A1 (de) * 2015-06-14 2016-12-15 Facense Ltd. Head-Mounted-Devices zur Erfassung thermischer Messwerte
US10722802B2 (en) * 2015-07-24 2020-07-28 Silver Curve Games, Inc. Augmented reality rhythm game
KR20170012979A (ko) * 2015-07-27 2017-02-06 삼성전자주식회사 영상 공유 서비스를 위한 전자 장치 및 방법
US9740011B2 (en) * 2015-08-19 2017-08-22 Microsoft Technology Licensing, Llc Mapping input to hologram or two-dimensional display
US20170302709A1 (en) * 2015-12-31 2017-10-19 Maria Francisca Jones Virtual meeting participant response indication method and system
US20170193289A1 (en) * 2015-12-31 2017-07-06 Microsoft Technology Licensing, Llc Transform lightweight skeleton and using inverse kinematics to produce articulate skeleton
JP2017136142A (ja) * 2016-02-02 2017-08-10 セイコーエプソン株式会社 情報端末、動作評価システム、動作評価方法、動作評価プログラム、及び記録媒体
KR20230098927A (ko) * 2016-03-31 2023-07-04 매직 립, 인코포레이티드 포즈들 및 멀티-dof 제어기들을 사용하는 3d 가상 객체들과상호작용들
US10509487B2 (en) * 2016-05-11 2019-12-17 Google Llc Combining gyromouse input and touch input for navigation in an augmented and/or virtual reality environment
US11006856B2 (en) * 2016-05-17 2021-05-18 Harshavardhana Narayana Kikkeri Method and program product for multi-joint tracking combining embedded sensors and an external sensor
US20180005445A1 (en) * 2016-06-30 2018-01-04 Microsoft Technology Licensing, Llc Augmenting a Moveable Entity with a Hologram
US10482662B2 (en) * 2016-06-30 2019-11-19 Intel Corporation Systems and methods for mixed reality transitions
US10657701B2 (en) * 2016-06-30 2020-05-19 Sony Interactive Entertainment Inc. Dynamic entering and leaving of virtual-reality environments navigated by different HMD users
US20180095635A1 (en) * 2016-10-04 2018-04-05 Facebook, Inc. Controls and Interfaces for User Interactions in Virtual Spaces
US10127886B2 (en) * 2016-10-14 2018-11-13 Microsoft Technology Licensing, Llc Modifying hand occlusion of holograms based on contextual information
CN108012324B (zh) * 2016-10-26 2021-01-12 华为技术有限公司 一种获得位置关系的方法和寻物的方法、设备及系统
US10068380B2 (en) * 2016-11-17 2018-09-04 Adobe Systems Incorporated Methods and systems for generating virtual reality environments from electronic documents
IL308490A (en) * 2016-12-05 2024-01-01 Magic Leap Inc Virtual user input controls in a mixed reality environment
US10438393B2 (en) * 2017-03-16 2019-10-08 Linden Research, Inc. Virtual reality presentation of body postures of avatars
US11011077B2 (en) * 2017-06-29 2021-05-18 Verb Surgical Inc. Virtual reality training, simulation, and collaboration in a robotic surgical system

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001258082A (ja) * 2000-03-09 2001-09-21 Seiko Epson Corp リモコンシステム
US20040080412A1 (en) * 2002-10-26 2004-04-29 Smith Mark T. Location requests by a network device
JP2004253869A (ja) * 2003-02-18 2004-09-09 Sharp Corp 遠隔制御装置
JP2005354543A (ja) * 2004-06-14 2005-12-22 Sanyo Electric Co Ltd リモコン装置
JP2007266772A (ja) * 2006-03-27 2007-10-11 Toshiba Corp 機器操作装置および機器操作方法
WO2011065028A1 (ja) * 2009-11-30 2011-06-03 パナソニック株式会社 通信装置
WO2011155118A1 (ja) * 2010-06-07 2011-12-15 パナソニック株式会社 オブジェクト選択装置、オブジェクト選択プログラム、及びオブジェクト選択方法
US20110312311A1 (en) * 2010-06-16 2011-12-22 Qualcomm Incorporated Methods and apparatuses for gesture based remote control
JP2013532338A (ja) * 2010-06-16 2013-08-15 クアルコム,インコーポレイテッド ジェスチャーベースの遠隔制御のための方法および装置
WO2014002322A1 (ja) * 2012-06-26 2014-01-03 日本電気株式会社 携帯端末、電子機器制御システム、及び電子機器制御方法
US20150277699A1 (en) * 2013-04-02 2015-10-01 Cherif Atia Algreatly Interaction method for optical head-mounted display
WO2014208168A1 (ja) * 2013-06-26 2014-12-31 ソニー株式会社 情報処理装置、制御方法、プログラム、および記憶媒体
WO2015118135A1 (en) * 2014-02-07 2015-08-13 Koninklijke Philips N.V. Network centric localization
JP5944600B1 (ja) * 2015-08-28 2016-07-05 株式会社タカラトミー 頭部装着型ディスプレイを備えた情報処理装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021199785A1 (ja) * 2020-03-31 2021-10-07 株式会社Nttドコモ 情報処理システム

Also Published As

Publication number Publication date
US11269480B2 (en) 2022-03-08
US20200183567A1 (en) 2020-06-11
US11635868B2 (en) 2023-04-25
US20180059901A1 (en) 2018-03-01
US10503351B2 (en) 2019-12-10
WO2018038834A1 (en) 2018-03-01
US20180061127A1 (en) 2018-03-01
CN109791446A (zh) 2019-05-21
US20220317856A9 (en) 2022-10-06
WO2018038997A1 (en) 2018-03-01

Similar Documents

Publication Publication Date Title
JP2019532444A (ja) 仮想光線を用いたオブジェクト制御
US10928975B2 (en) On-the-fly adjustment of orientation of virtual objects
CN108027649B (zh) 定位增强现实环境中的设备
US9852546B2 (en) Method and system for receiving gesture input via virtual control objects
US20150187137A1 (en) Physical object discovery
US20180321798A1 (en) Information processing apparatus and operation reception method
JP6139679B2 (ja) 情報処理端末およびゲーム装置
US20190026950A1 (en) Program executed on a computer for providing virtual space, method and information processing apparatus for executing the program
KR20200098034A (ko) 가상 현실 유저 인터페이스를 제공하기 위한 전자 장치 및 그의 동작 방법
US20190043263A1 (en) Program executed on a computer for providing vertual space, method and information processing apparatus for executing the program
JP2017187952A (ja) 表示制御方法及び当該表示制御方法をコンピュータに実行させるためのプログラム
WO2019138661A1 (ja) 情報処理装置および情報処理方法
CN113269877A (zh) 获取房间布局平面图的方法和电子设备
KR102590132B1 (ko) 디스플레이 장치, 및 디스플레이 장치의 제어방법
US10915945B2 (en) Method and apparatuses for intelligent TV startup based on consumer behavior and real time content availability
WO2022066438A1 (en) Asymmetric presentation of an environment
WO2018057121A1 (en) Input method for modeling physical objects in vr/digital
KR20170023491A (ko) 카메라 및 이를 포함하는 가상 현실 시스템
US20240115933A1 (en) Group control of computer game using aggregated area of gaze
US20240042312A1 (en) Haptics support for ui navigation
US11632529B2 (en) Projecting content onto water to enhance computer simulation
US20240173618A1 (en) User-customized flat computer simulation controller
JP6952065B2 (ja) 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置
US20240119921A1 (en) Gradual noise canceling in computer game
WO2018216327A1 (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210302