JPWO2021021670A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2021021670A5
JPWO2021021670A5 JP2022504602A JP2022504602A JPWO2021021670A5 JP WO2021021670 A5 JPWO2021021670 A5 JP WO2021021670A5 JP 2022504602 A JP2022504602 A JP 2022504602A JP 2022504602 A JP2022504602 A JP 2022504602A JP WO2021021670 A5 JPWO2021021670 A5 JP WO2021021670A5
Authority
JP
Japan
Prior art keywords
item
user
processor
real
world
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022504602A
Other languages
Japanese (ja)
Other versions
JP2022542363A (en
Publication date
Application filed filed Critical
Priority claimed from PCT/US2020/043596 external-priority patent/WO2021021670A1/en
Publication of JP2022542363A publication Critical patent/JP2022542363A/en
Publication of JPWO2021021670A5 publication Critical patent/JPWO2021021670A5/ja
Pending legal-status Critical Current

Links

Description

本方法はさらに、少なくとも1つのセンサを用いて、ユーザの頭部の移動に起因するディスプレイデバイスの移動を感知することと、ユーザの視界内で、仮想オブジェクトが、少なくとも1つの実世界オブジェクトに対して定常のままであるように、仮想オブジェクトの場所を調節することとを含んでもよい。
本発明は、例えば、以下を提供する。
(項目1)
拡張現実ビューアであって、
少なくとも1つのセンサであって、前記少なくとも1つのセンサは、複数の実世界オブジェクトのうちの少なくとも1つの場所および前記ユーザによって開始される波移動を感知するように位置付けられる、少なくとも1つのセンサと、
記憶デバイスと、
遊動生物オブジェクトを含む前記記憶デバイス上のデータのセットと、
前記記憶デバイスに接続されるプロセッサと、
ディスプレイモジュールであって、前記ディスプレイモジュールは、前記記憶デバイス上にあり、前記実世界オブジェクトのうちの少なくとも1つの場所に対して前記遊動生物オブジェクトの所望の表示を決定するように、前記プロセッサによって実行可能である、ディスプレイモジュールと、
データストリーム発生器であって、前記データストリーム発生器は、前記記憶デバイス上にあり、前記データおよび前記所望の表示に基づいてデータストリームを発生させるように、前記プロセッサによって実行可能である、データストリーム発生器と、
光発生器であって、前記光発生器は、前記データストリームを受信し、前記データストリームに基づいて光を発生させるように、前記プロセッサに接続される、光発生器と、
ディスプレイデバイスであって、前記ディスプレイデバイスは、発生される光を受光するように、かつ前記光を前記ユーザに表示するように位置付けられ、前記光は、前記ユーザに可視であり、前記所望の表示に従ってレンダリングされる前記遊動生物オブジェクトのレンダリングを生成する、ディスプレイデバイスと、
遊動サブルーチンであって、前記遊動サブルーチンは、前記記憶デバイス上にあり、前記実世界オブジェクトに対して前記遊動生物オブジェクトを移動させるように、前記プロセッサによって実行可能である、遊動サブルーチンと、
波移動ルーチンであって、前記波移動ルーチンは、前記記憶デバイス上にあり、前記少なくとも1つのセンサによって感知される前記波移動に応答して前記遊動生物オブジェクトを移動させるように、前記プロセッサによって実行可能である、波移動ルーチンと
を備える、拡張現実ビューア。
(項目2)
前記データは、複数の遊動生物オブジェクトを含み、前記遊動サブルーチンは、前記実世界オブジェクトに対して、かつ相互に対して前記複数の遊動生物オブジェクトを移動させるように、前記プロセッサによって実行可能である、項目1に記載の拡張現実ビューア。
(項目3)
前記波移動は、標的ゾーン内で開始され、前記遊動オブジェクトは、前記標的ゾーンから外に移動される、項目1に記載の拡張現実ビューア。
(項目4)
前記波移動を感知する前記少なくとも1つのセンサは、前記ユーザの手の画像を検出するカメラである、項目1に記載の拡張現実ビューア。
(項目5)
ハンドヘルドコントローラをさらに備え、前記センサは、前記ユーザの手に保持されるハンドヘルドコントローラに搭載される、項目1に記載の拡張現実ビューア。
(項目6)
人工知能システムであって、前記人工知能システムは、前記記憶デバイス上にあり、
波移動を感知することと、
人工知能クラスタとして、前記遊動生物オブジェクトの移動を前記波移動と関連付けることと、
前記アクションが感知される第1の時間に存在するパラメータを決定することと、
前記第1の時間に存在する前記パラメータを人工知能クラスタと関連付けることと、
第2の時間においてパラメータを感知することと、
前記第2の時間における前記パラメータが前記第1の時間における前記パラメータと同一であるかどうかを決定することと、
前記第2の時間における前記パラメータが前記第2の時間における前記パラメータと同一であるという決定が行われる場合、前記波移動ルーチンを実行することと
を行うように、前記プロセッサを用いて実行可能である、人工知能システム
をさらに備える、項目1に記載の拡張現実ビューア。
(項目7)
前記少なくとも1つのセンサは、視線追跡カメラを含み、前記パラメータは、前記視線追跡カメラを使用する前記ユーザの視線追跡によって決定されるような凝視方向である、項目6に記載の拡張現実ビューア。
(項目8)
複数の遊動生物オブジェクトが存在し、前記遊動サブルーチンは、前記実世界オブジェクトに対して前記複数の遊動生物オブジェクトを移動させるように、前記プロセッサによって実行可能であり、
パーソナルアシスタントモジュールであって、前記パーソナルアシスタントモジュールは、前記記憶デバイス上にあり、
前記複数の遊動生物オブジェクトの中からパーソナルアシスタント遊動生物オブジェクトを選択することと、
前記パーソナルアシスタント遊動生物オブジェクトとともに、前記パーソナルアシスタント遊動生物オブジェクト以外の前記遊動生物オブジェクトのうちの少なくとも1つを移動させることと
を行うように前記プロセッサを用いて実行可能である、パーソナルアシスタントモジュール
をさらに備える、項目1に記載の拡張現実ビューア。
(項目9)
前記遊動生物オブジェクトは、第1のタイプの魚であり、前記記憶デバイス上にあり、第1の前後様式で前記魚の身体を関節運動させるように、前記プロセッサを用いて実行可能である移動モジュールをさらに備える、項目1に記載の拡張現実ビューア。
(項目10)
前記移動モジュールは、前記第1の前後様式と異なる第2の前後様式で第2のタイプの魚の身体を関節運動させるように、前記プロセッサを用いて実行可能である、項目9に記載の拡張現実ビューア。
(項目11)
前記移動モジュールは、
前記少なくとも1つのセンサを用いて、前記ユーザの手の遅い手の移動を感知することと、
前記手の移動の緩速に応答して、低速において前記第1の前後様式で前記魚の身体を関節運動させることと、
前記少なくとも1つのセンサを用いて、前記ユーザの手の速い手の移動を感知することと、
前記手の移動の急速に応答して、高速において前記第1の前後様式で前記魚の身体を関節運動させることと
を行うように、前記プロセッサを用いて実行可能である、
項目10に記載の拡張現実ビューア。
(項目12)
前記移動モジュールは、前記手が前記緩速において移動するときに、前記手の近くに留まるように前記第1の魚を移動させ、前記手が前記急速において移動するときに、前記手から逃れるように前記第1の魚を移動させるように、前記プロセッサを用いて実行可能である、項目11に記載の拡張現実ビューア。
(項目13)
前記ディスプレイデバイスは、前記ユーザが前記実世界オブジェクトのうちの少なくとも1つを視認している間に、前記ユーザに発生される前記光を表示する、項目1に記載の拡張現実ビューア。
(項目14)
前記ディスプレイデバイスは、前記少なくとも1つの実世界オブジェクトからの光が前記ユーザの眼に到達することを可能にするシースルーディスプレイデバイスである、項目13に記載の拡張現実ビューア。
(項目15)
頭部装着型構造であって、前記頭部装着型構造は、前記ユーザの頭部上に装着されるように成形され、前記ディスプレイデバイスは、前記頭部装着型構造に搭載され、前記少なくとも1つのセンサは、前記ユーザの頭部の移動に起因する前記ディスプレイデバイスの移動を感知するために好適である種類である、頭部装着型構造と、
位置調節モジュールであって、前記位置調節モジュールは、前記ユーザの視界内で、前記遊動生物オブジェクトが、前記少なくとも1つの実世界オブジェクトに対して定常のままであるように、前記遊動生物オブジェクトの場所を調節するように前記プロセッサによって実行可能である、位置調節モジュールと
をさらに備える、項目1に記載の拡張現実ビューア。
(項目16)
拡張現実可視化方法であって、
少なくとも1つのセンサを用いて、複数の実世界オブジェクトのうちの少なくとも1つの場所を感知することと、
記憶デバイス上に、遊動生物オブジェクトを含むデータを記憶することと、
プロセッサを用いて、前記実世界オブジェクトのうちの少なくとも1つの場所に対して前記遊動生物オブジェクトの所望の表示を決定することと、
前記プロセッサによって、前記データおよび前記所望の表示に基づいてデータストリームを発生させることと、
光発生器を用いて、前記データストリームに基づいて光を発生させることと、
ディスプレイデバイスを用いて、ユーザに発生される前記光を表示することであって、前記光は、前記ユーザに可視であり、前記所望の表示に従ってレンダリングされる前記遊動生物オブジェクトのレンダリングを生成する、ことと、
前記プロセッサを用いて、前記実世界オブジェクトに対して前記遊動生物オブジェクトを移動させることと、
前記少なくとも1つのセンサを用いて、前記ユーザによって開始される波移動を感知することと、
前記プロセッサを用いて、前記少なくとも1つのセンサによって感知される前記波移動に応答して、前記遊動生物オブジェクトを移動させることと
を含む、方法。
(項目17)
前記データは、複数の遊動生物オブジェクトを含み、
前記プロセッサを用いて、前記実世界オブジェクトに対して、かつ相互に対して、前記複数の遊動生物オブジェクトを移動させることをさらに含む、
項目16に記載の方法。
(項目18)
前記波移動は、標的ゾーン内で開始され、前記遊動オブジェクトは、前記標的ゾーンから外に移動される、項目16に記載の方法。
(項目19)
前記波移動を感知する前記少なくとも1つのセンサは、前記ユーザの手の画像を検出するカメラである、項目16に記載の方法。
(項目20)
前記センサは、前記ユーザの手に保持されるハンドヘルドコントローラに搭載される、項目16に記載の方法。
(項目21)
前記少なくとも1つのセンサを用いて、前記波移動を感知することと、
前記プロセッサを用いて、人工知能クラスタとして、前記遊動生物オブジェクトの移動を前記波移動と関連付けることと、
前記少なくとも1つのプロセッサを用いて、前記アクションが感知される第1の時間に存在するパラメータを決定することと、
前記プロセッサを用いて、前記第1の時間に存在する前記パラメータを前記人工知能クラスタと関連付けることと、
前記少なくとも1つのセンサを用いて、第2の時間においてパラメータを感知することと、
前記プロセッサを用いて、前記第2の時間における前記パラメータが前記第1の時間における前記パラメータと同一であるかどうかを決定することと、
前記第2の時間における前記パラメータが前記第2の時間における前記パラメータと同一であるという決定が行われる場合、前記遊動生物オブジェクトの移動を実行することと
さらに含む、項目16に記載の方法。
(項目22)
前記アクションは、前記ユーザによって開始される波運動であり、前記パラメータは、前記ユーザの凝視方向である、項目21に記載の方法。
(項目23)
前記プロセッサを用いて、前記実世界オブジェクトに対して複数の遊動生物オブジェクトを移動させることと、
前記プロセッサを用いて、前記複数の遊動生物オブジェクトの中からパーソナルアシスタント遊動生物オブジェクトを選択することと、
前記プロセッサを用いて、前記パーソナルアシスタント遊動生物オブジェクトとともに、前記パーソナルアシスタント遊動生物オブジェクト以外の前記遊動生物オブジェクトのうちの少なくとも1つを移動させることと
をさらに含む、項目16に記載の方法。
(項目24)
前記遊動生物オブジェクトは、第1のタイプの魚であり、
前記プロセッサを用いて、第1の前後様式で前記魚の身体を関節運動させることをさらに含む、
項目16に記載の方法。
(項目25)
前記プロセッサを用いて、前記第1の前後様式と異なる第2の前後様式で第2のタイプの魚の身体を関節運動させることをさらに含む、項目24に記載の方法。
(項目26)
前記少なくとも1つのセンサを用いて、前記ユーザの手の遅い手の移動を感知することと、
前記プロセッサを用いて、前記手の移動の緩速に応答して、低速において前記第1の前後様式で前記魚の身体を関節運動させることと、
前記少なくとも1つのセンサを用いて、前記ユーザの手の速い手の移動を感知することと、
前記プロセッサを用いて、前記手の移動の急速に応答して、高速において前記第1の前後様式で前記魚の身体を関節運動させることと
をさらに含む、項目25に記載の方法。
(項目27)
前記プロセッサを用いて、前記手が前記緩速において移動するときに、前記手の近くに留まるように前記第1の魚を移動させることと、
前記プロセッサを用いて、前記手が前記急速において移動するときに、前記手から逃れるように前記第1の魚を移動させることと
をさらに含む、項目26に記載の方法。
(項目28)
前記ディスプレイデバイスは、前記実世界オブジェクトのうちの少なくとも1つを視認している間に、前記ユーザに発生される前記光を表示する、項目16に記載の方法。
(項目29)
前記ディスプレイデバイスは、前記少なくとも1つの実世界オブジェクトからの光が前記ユーザの眼に到達することを可能にするシースルーディスプレイデバイスである、項目28に記載の方法。
(項目30)
前記少なくとも1つのセンサを用いて、前記ユーザの頭部の移動に起因する前記ディスプレイデバイスの移動を感知することと、
前記ユーザの視界内で、前記遊動生物オブジェクトが、前記少なくとも1つの実世界オブジェクトに対して定常のままであるように、前記遊動生物オブジェクトの場所を調節することと
をさらに含む、項目16に記載の方法。
(項目31)
拡張現実ビューアであって、
少なくとも1つのセンサであって、前記少なくとも1つのセンサは、複数の実世界オブジェクトのうちの少なくとも1つの場所を感知するように位置付けられる、少なくとも1つのセンサと、
記憶デバイスと、
遊動生物オブジェクトを含む前記記憶デバイス上のデータのセットと、
前記記憶デバイスに接続されるプロセッサと、
ディスプレイモジュールであって、前記ディスプレイモジュールは、前記記憶デバイス上にあり、前記実世界オブジェクトのうちの少なくとも1つの場所に対して前記遊動生物オブジェクトの所望の表示を決定するように、前記プロセッサによって実行可能である、ディスプレイモジュールと、
データストリーム発生器であって、前記データストリーム発生器は、前記記憶デバイス上にあり、前記データおよび前記所望の表示に基づいてデータストリームを発生させるように、前記プロセッサによって実行可能である、データストリーム発生器と、
光発生器であって、前記光発生器は、前記データストリームを受信し、前記データストリームに基づいて光を発生させるように、前記プロセッサに接続される、光発生器と、
ディスプレイデバイスであって、前記ディスプレイデバイスは、発生される光を受光するように、かつ前記光を前記ユーザに表示するように位置付けられ、前記光は、前記ユーザに可視であり、前記所望の表示に従ってレンダリングされる前記遊動生物オブジェクトのレンダリングを生成する、ディスプレイデバイスと、
遊動サブルーチンであって、前記遊動サブルーチンは、前記記憶デバイス上にあり、前記実世界オブジェクトに対して前記遊動生物オブジェクトを移動させるように、前記プロセッサによって実行可能である、遊動サブルーチンと、
読出エージェントであって、前記読出エージェントは、前記記憶デバイス上にあり、リソースから着信情報を読み出し、前記着信情報を前記実世界オブジェクトに対する前記遊動生物オブジェクトの場所と関連付け、前記着信情報を前記遊動生物オブジェクトの場所から前記ユーザに通信するように、前記プロセッサを用いて実行可能である、読出エージェントと
を備える、拡張現実ビューア。
(項目32)
前記読出エージェントは、前記光源をアクティブ化し、前記ディスプレイを通して前記着信情報を表示する、項目31に記載の拡張現実ビューア。
(項目33)
スピーカをさらに備え、前記読出エージェントは、前記ユーザに前記着信情報が聞こえるように、前記スピーカをアクティブ化する、項目31に記載の拡張現実ビューア。
(項目34)
伝送エージェントであって、前記伝送エージェントは、前記記憶デバイス上にあり、
前記少なくとも1つのセンサを用いて、前記ユーザによる命令を感知することと、
前記少なくとも1つのセンサを用いて、前記命令が、前記ユーザによって、前記実世界オブジェクトに対する前記遊動生物オブジェクトの場所における前記遊動生物オブジェクトに指向されることを感知することと、
前記命令に基づいて、発信通信およびリソースを決定することと、
前記発信通信を前記リソースに通信することと
を行うように、前記プロセッサを用いて実行可能である、伝送エージェント
をさらに備える、項目31に記載の拡張現実ビューア。
(項目35)
前記通信を感知する前記少なくとも1つのセンサは、前記ユーザから音声命令を受信するために好適なマイクロホンである、項目34に記載の拡張現実ビューア。
(項目36)
前記遊動生物オブジェクトは、第1のタイプの魚であり、
移動モジュールであって、前記移動モジュールは、前記記憶デバイス上にあり、第1の前後様式で前記魚の身体を関節運動させるように、前記プロセッサを用いて実行可能である、移動モジュール
をさらに備える、項目31に記載の拡張現実ビューア。
(項目37)
前記ディスプレイデバイスは、前記ユーザが前記実世界オブジェクトのうちの少なくとも1つを視認している間に、前記ユーザに発生される前記光を表示する、項目31に記載の拡張現実ビューア。
(項目38)
前記ディスプレイデバイスは、前記少なくとも1つの実世界オブジェクトからの光が前記ユーザの眼に到達することを可能にするシースルーディスプレイデバイスである、項目37に記載の拡張現実ビューア。
(項目39)
前記ユーザの頭部上に装着されるように成形される頭部装着型構造であって、前記ディスプレイデバイスは、前記頭部装着型構造に搭載され、前記少なくとも1つのセンサは、前記ユーザの頭部の移動に起因する前記ディスプレイデバイスの移動を感知するために好適である種類である、頭部装着型構造と、
位置調節モジュールであって、前記位置調節モジュールは、前記ユーザの視界内で、前記遊動生物オブジェクトが、前記少なくとも1つの実世界オブジェクトに対して定常のままであるように、前記遊動生物オブジェクトの場所を調節するように前記プロセッサによって実行可能である、位置調節モジュールと
をさらに備える、項目31に記載の拡張現実ビューア。
(項目40)
拡張現実可視化方法であって、
少なくとも1つのセンサを用いて、複数の実世界オブジェクトのうちの少なくとも1つの場所を感知することと、
記憶デバイス上に、遊動生物オブジェクトを含むデータを記憶することと、
プロセッサを用いて、前記実世界オブジェクトのうちの少なくとも1つの場所に対して前記遊動生物オブジェクトの所望の表示を決定することと、
前記プロセッサによって、前記データおよび前記所望の表示に基づいてデータストリームを発生させることと、
光発生器を用いて、前記データストリームに基づいて光を発生させることと、
ディスプレイデバイスを用いて、ユーザに発生される前記光を表示することであって、前記光は、前記ユーザに可視であり、前記所望の表示に従ってレンダリングされる前記遊動生物オブジェクトのレンダリングを生成する、ことと、
前記プロセッサを用いて、前記実世界オブジェクトに対して前記遊動生物オブジェクトを移動させることと、
前記プロセッサを用いて、リソースから着信情報を読み出すことと、
前記プロセッサを用いて、前記着信情報を前記実世界オブジェクトに対する前記遊動生物オブジェクトの場所と関連付けることと、
前記プロセッサを用いて、前記着信情報を前記遊動生物オブジェクトの場所から前記ユーザに通信することと
を含む、方法。
(項目41)
前記着信情報は、前記ユーザに表示される、項目40に記載の方法。
(項目42)
前記ユーザには、前記着信情報が聞こえる、項目40に記載の方法。
(項目43)
前記少なくとも1つのセンサを用いて、前記ユーザによる命令を感知することと、
前記少なくとも1つのセンサを用いて、前記命令が、前記ユーザによって、前記実世界オブジェクトに対する前記遊動生物オブジェクトの場所における前記遊動生物オブジェクトに指向されることを感知することと、
前記プロセッサを用いて、前記命令に基づいて、発信通信およびリソースを決定することと、
前記プロセッサを用いて、前記発信通信を前記リソースに通信することと
をさらに含む、項目40に記載の方法。
(項目44)
前記ユーザは、前記命令を話す、項目43に記載の方法。
(項目45)
前記遊動生物オブジェクトは、第1のタイプの魚であり、
前記プロセッサを用いて、第1の前後様式で前記魚の身体を関節運動させることをさらに含む、
項目40に記載の方法。
(項目46)
前記ディスプレイデバイスは、前記ユーザが前記実世界オブジェクトのうちの少なくとも1つを視認している間に、前記ユーザに発生される前記光を表示する、項目40に記載の方法。
(項目47)
前記ディスプレイデバイスは、前記少なくとも1つの実世界オブジェクトからの光が前記ユーザの眼に到達することを可能にするシースルーディスプレイデバイスである、項目46に記載の方法。
(項目48)
前記少なくとも1つのセンサを用いて、前記ユーザの頭部の移動に起因する前記ディスプレイデバイスの移動を感知することと、
前記ユーザの視界内で、前記遊動生物オブジェクトが、前記少なくとも1つの実世界オブジェクトに対して定常のままであるように、前記遊動生物オブジェクトの場所を調節することと
をさらに含む、項目40に記載の方法。
(項目49)
拡張現実ビューアであって、
少なくとも1つのセンサであって、前記少なくとも1つのセンサは、複数の実世界オブジェクトのうちの少なくとも1つの場所を感知するように位置付けられる、少なくとも1つのセンサと、
記憶デバイスと、
遊動生物オブジェクトを含む前記記憶デバイス上のデータのセットと、
前記記憶デバイスに接続されるプロセッサと、
ディスプレイモジュールであって、前記ディスプレイモジュールは、前記記憶デバイス上にあり、前記実世界オブジェクトのうちの少なくとも1つの場所に対して前記遊動生物オブジェクトの所望の表示を決定するように、前記プロセッサによって実行可能である、ディスプレイモジュールと、
データストリーム発生器であって、前記データストリーム発生器は、前記記憶デバイス上にあり、前記データおよび前記所望の表示に基づいてデータストリームを発生させるように、前記プロセッサによって実行可能である、データストリーム発生器と、
光発生器であって、前記光発生器は、前記データストリームを受信し、前記データストリームに基づいて光を発生させるように、前記プロセッサに接続される、光発生器と、
ディスプレイデバイスであって、前記ディスプレイデバイスは、発生される光を受光するように、かつ前記光を前記ユーザに表示するように位置付けられ、前記光は、前記ユーザに可視であり、前記所望の表示に従ってレンダリングされる前記遊動生物オブジェクトのレンダリングを生成する、ディスプレイデバイスと、
遊動サブルーチンであって、前記遊動サブルーチンは、前記記憶デバイス上にあり、前記実世界オブジェクトに対して前記遊動生物オブジェクトを移動させるように、前記プロセッサによって実行可能である、遊動サブルーチンと、
伝送エージェントであって、前記伝送エージェントは、前記記憶デバイス上にあり、
前記少なくとも1つのセンサを用いて、前記ユーザによる命令を感知することと、
前記少なくとも1つのセンサを用いて、前記命令が、前記ユーザによって、前記実世界オブジェクトに対する前記遊動生物オブジェクトの場所における前記遊動生物オブジェクトに指向されることを感知することと、
前記命令に基づいて、発信通信およびリソースを決定することと、
前記発信通信を前記リソースに通信することと
を行うように、前記プロセッサを用いて実行可能である、伝送エージェントと
を備える、拡張現実ビューア。
(項目50)
読出エージェントであって、前記読出エージェントは、前記記憶デバイス上にあり、リソースから着信情報を読み出し、前記着信情報を前記実世界オブジェクトに対する前記遊動生物オブジェクトの場所と関連付け、前記着信情報を前記遊動生物オブジェクトの場所から前記ユーザに通信するように、前記プロセッサを用いて実行可能である、読出エージェント
をさらに備える、項目49に記載の拡張現実ビューア。
(項目51)
前記読出エージェントは、前記光源をアクティブ化し、前記ディスプレイを通して前記着信情報を表示する、項目50に記載の拡張現実ビューア。
(項目52)
スピーカをさらに備え、前記読出エージェントは、前記ユーザに前記着信情報が聞こえるように、前記スピーカをアクティブ化する、項目50に記載の拡張現実ビューア。
(項目53)
前記通信を感知する前記少なくとも1つのセンサは、前記ユーザから音声命令を受信するために好適なマイクロホンである、項目49に記載の拡張現実ビューア。
(項目54)
前記遊動生物オブジェクトは、第1のタイプの魚であり、
移動モジュールであって、前記移動モジュールは、前記記憶デバイス上にあり、第1の前後様式で前記魚の身体を関節運動させるように、前記プロセッサを用いて実行可能である、移動モジュール
をさらに備える、項目49に記載の拡張現実ビューア。
(項目55)
前記ディスプレイデバイスは、前記ユーザが前記実世界オブジェクトのうちの少なくとも1つを視認している間に、前記ユーザに発生される前記光を表示する、項目49に記載の拡張現実ビューア。
(項目56)
前記ディスプレイデバイスは、前記少なくとも1つの実世界オブジェクトからの光が前記ユーザの眼に到達することを可能にするシースルーディスプレイデバイスである、項目55に記載の拡張現実ビューア。
(項目57)
前記ユーザの頭部上に装着されるように成形される頭部装着型構造であって、前記ディスプレイデバイスは、前記頭部装着型構造に搭載され、前記少なくとも1つのセンサは、前記ユーザの頭部の移動に起因する前記ディスプレイデバイスの移動を感知するために好適である種類である、頭部装着型構造と、
位置調節モジュールであって、前記位置調節モジュールは、前記ユーザの視界内で、前記遊動生物オブジェクトが、前記少なくとも1つの実世界オブジェクトに対して定常のままであるように、前記遊動生物オブジェクトの場所を調節するように前記プロセッサによって実行可能である、位置調節モジュールと
をさらに備える、項目49に記載の拡張現実ビューア。
(項目58)
拡張現実可視化方法であって、
少なくとも1つのセンサを用いて、複数の実世界オブジェクトのうちの少なくとも1つの場所を感知することと、
記憶デバイス上に、遊動生物オブジェクトを含むデータを記憶することと、
プロセッサを用いて、前記実世界オブジェクトのうちの少なくとも1つの場所に対して前記遊動生物オブジェクトの所望の表示を決定することと、
前記プロセッサによって、前記データおよび前記所望の表示に基づいてデータストリームを発生させることと、
光発生器を用いて、前記データストリームに基づいて光を発生させることと、
ディスプレイデバイスを用いて、ユーザに発生される前記光を表示することであって、前記光は、前記ユーザに可視であり、前記所望の表示に従ってレンダリングされる前記遊動生物オブジェクトのレンダリングを生成する、ことと、
前記プロセッサを用いて、前記実世界オブジェクトに対して前記遊動生物オブジェクトを移動させることと、
前記プロセッサを用いて、リソースから着信情報を読み出すことと、
前記プロセッサを用いて、前記着信情報を前記実世界オブジェクトに対する前記遊動生物オブジェクトの場所と関連付けることと、
前記少なくとも1つのセンサを用いて、前記ユーザによる命令を感知することと、
前記少なくとも1つのセンサを用いて、前記命令が、前記ユーザによって、前記実世界オブジェクトに対する前記遊動生物オブジェクトの場所における前記遊動生物オブジェクトに指向されることを感知することと、
前記プロセッサを用いて、前記命令に基づいて、発信通信およびリソースを決定することと、
前記プロセッサを用いて、前記発信通信を前記リソースに通信することと
を含む、方法。
(項目59)
前記プロセッサを用いて、前記着信情報を前記遊動生物オブジェクトの場所から前記ユーザに通信することをさらに含む、項目58に記載の方法。
(項目60)
前記着信情報は、前記ユーザに表示される、項目59に記載の方法。
(項目61)
前記ユーザには、前記着信情報が聞こえる、項目59に記載の方法。
(項目62)
前記ユーザは、前記命令を話す、項目58に記載の方法。
(項目63)
前記遊動生物オブジェクトは、第1のタイプの魚であり、
前記プロセッサを用いて、第1の前後様式で前記魚の身体を関節運動させることをさらに含む、
項目58に記載の方法。
(項目64)
前記ディスプレイデバイスは、前記ユーザが前記実世界オブジェクトのうちの少なくとも1つを視認している間に、前記ユーザに発生される前記光を表示する、項目58に記載の方法。
(項目65)
前記ディスプレイデバイスは、前記少なくとも1つの実世界オブジェクトからの光が前記ユーザの眼に到達することを可能にするシースルーディスプレイデバイスである、項目64に記載の方法。
(項目66)
前記少なくとも1つのセンサを用いて、前記ユーザの頭部の移動に起因する前記ディスプレイデバイスの移動を感知することと、
前記ユーザの視界内で、前記遊動生物オブジェクトが、前記少なくとも1つの実世界オブジェクトに対して定常のままであるように、前記遊動生物オブジェクトの場所を調節することと
をさらに含む、項目58に記載の方法。
(項目67)
拡張現実ビューアであって、
複数の実世界オブジェクトのうちの少なくとも1つの場所を感知するように位置付けられる少なくとも1つのセンサと、
記憶デバイスと、
遊動生物オブジェクトを含む前記記憶デバイス上のデータのセットと、
前記記憶デバイスに接続されるプロセッサと、
ディスプレイモジュールであって、前記ディスプレイモジュールは、前記記憶デバイス上にあり、前記実世界オブジェクトのうちの少なくとも1つの場所に対して前記遊動生物オブジェクトの所望の表示を決定するように、前記プロセッサによって実行可能である、ディスプレイモジュールと、
データストリーム発生器であって、前記データストリーム発生器は、前記記憶デバイス上にあり、前記データおよび前記所望の表示に基づいてデータストリームを発生させるように、前記プロセッサによって実行可能である、データストリーム発生器と、
光発生器であって、前記光発生器は、前記データストリームを受信し、前記データストリームに基づいて光を発生させるように、前記プロセッサに接続される、光発生器と、
ディスプレイデバイスであって、前記ディスプレイデバイスは、発生される光を受光するように、かつ前記光を前記ユーザに表示するように位置付けられ、前記光は、前記ユーザに可視であり、前記所望の表示に従ってレンダリングされる前記遊動生物オブジェクトのレンダリングを生成する、ディスプレイデバイスと、
遊動サブルーチンであって、前記遊動サブルーチンは、前記記憶デバイス上にあり、前記実世界オブジェクトに対して前記遊動生物オブジェクトを移動させるように、前記プロセッサによって実行可能である、遊動サブルーチンと、
伝送エージェントであって、前記伝送エージェントは、前記記憶デバイス上にあり、
前記少なくとも1つのセンサを用いて、前記ユーザによる命令を感知することと、
前記少なくとも1つのセンサを用いて、前記命令が、前記ユーザによって、前記実世界オブジェクトに対する前記遊動生物オブジェクトの場所における前記遊動生物オブジェクトに指向されることを感知することと、
前記命令に基づいて、発信通信およびIOTデバイスを決定することと、
前記発信通信を前記IOTデバイスに通信し、前記IOTデバイスを動作させることと
を行うように、前記プロセッサを用いて実行可能である、伝送エージェントと
を備える、拡張現実ビューア。
(項目68)
前記通信を感知する前記少なくとも1つのセンサは、前記ユーザから音声命令を受信するために好適なマイクロホンである、項目67に記載の拡張現実ビューア。
(項目69)
前記遊動生物オブジェクトは、第1のタイプの魚であり、
移動モジュールであって、前記移動モジュールは、前記記憶デバイス上にあり、第1の前後様式で前記魚の身体を関節運動させるように、前記プロセッサを用いて実行可能である、移動モジュール
をさらに備える、項目67に記載の拡張現実ビューア。
(項目70)
前記ディスプレイデバイスは、前記ユーザが前記実世界オブジェクトのうちの少なくとも1つを視認している間に、前記ユーザに発生される前記光を表示する、項目67に記載の拡張現実ビューア。
(項目71)
前記ディスプレイデバイスは、前記少なくとも1つの実世界オブジェクトからの光が前記ユーザの眼に到達することを可能にするシースルーディスプレイデバイスである、項目70に記載の拡張現実ビューア。
(項目72)
前記ユーザの頭部上に装着されるように成形される頭部装着型構造であって、前記ディスプレイデバイスは、前記頭部装着型構造に搭載され、前記少なくとも1つのセンサは、前記ユーザの頭部の移動に起因する前記ディスプレイデバイスの移動を感知するために好適である種類である、頭部装着型構造と、
位置調節モジュールであって、前記位置調節モジュールは、前記ユーザの視界内で、前記遊動生物オブジェクトが、前記少なくとも1つの実世界オブジェクトに対して定常のままであるように、前記遊動生物オブジェクトの場所を調節するように前記プロセッサによって実行可能である、位置調節モジュールと
をさらに備える、項目67に記載の拡張現実ビューア。
(項目73)
拡張現実可視化方法であって、
少なくとも1つのセンサを用いて、複数の実世界オブジェクトのうちの少なくとも1つの場所を感知することと、
記憶デバイス上に、遊動生物オブジェクトを含むデータを記憶することと、
プロセッサを用いて、前記実世界オブジェクトのうちの少なくとも1つの場所に対して前記遊動生物オブジェクトの所望の表示を決定することと、
前記プロセッサによって、前記データおよび前記所望の表示に基づいてデータストリームを発生させることと、
光発生器を用いて、前記データストリームに基づいて光を発生させることと、
ディスプレイデバイスを用いて、ユーザに発生される前記光を表示することであって、前記光は、前記ユーザに可視であり、前記所望の表示に従ってレンダリングされる前記遊動生物オブジェクトのレンダリングを生成する、ことと、
前記プロセッサを用いて、前記実世界オブジェクトに対して前記遊動生物オブジェクトを移動させることと、
前記プロセッサを用いて、リソースから着信情報を読み出すことと、
前記プロセッサを用いて、前記着信情報を前記実世界オブジェクトに対する前記遊動生物オブジェクトの場所と関連付けることと、
前記少なくとも1つのセンサを用いて、前記ユーザによる命令を感知することと、
前記少なくとも1つのセンサを用いて、前記命令が、前記ユーザによって、前記実世界オブジェクトに対する前記遊動生物オブジェクトの場所における前記遊動生物オブジェクトに指向されることを感知することと、
前記プロセッサを用いて、前記命令に基づいて、発信通信およびIOTデバイスを決定することと、
前記プロセッサを用いて、前記発信通信を前記IOTデバイスに通信し、前記IOTデバイスを動作させることと
を含む、方法。
(項目74)
前記通信を感知する前記少なくとも1つのセンサは、前記ユーザから音声命令を受信するために好適なマイクロホンである、項目73に記載の方法。
(項目75)
前記遊動生物オブジェクトは、第1のタイプの魚であり、
前記プロセッサを用いて、第1の前後様式で前記魚の身体を関節運動させることをさらに含む、
項目73に記載の方法。
(項目76)
前記ディスプレイデバイスは、前記ユーザが前記実世界オブジェクトのうちの少なくとも1つを視認している間に、前記ユーザに発生される前記光を表示する、項目73に記載の方法。
(項目77)
前記ディスプレイデバイスは、前記少なくとも1つの実世界オブジェクトからの光が前記ユーザの眼に到達することを可能にするシースルーディスプレイデバイスである、項目76に記載の方法。
(項目78)
前記少なくとも1つのセンサを用いて、前記ユーザの頭部の移動に起因する前記ディスプレイデバイスの移動を感知することと、
前記ユーザの視界内で、前記遊動生物オブジェクトが、前記少なくとも1つの実世界オブジェクトに対して定常のままであるように、前記遊動生物オブジェクトの場所を調節することと
をさらに含む、項目73に記載の方法。
(項目79)
拡張現実ビューアであって、
少なくとも1つのセンサであって、前記少なくとも1つのセンサは、複数の実世界オブジェクトのうちの少なくとも1つの場所を感知するように位置付けられる、少なくとも1つのセンサと、
記憶デバイスと、
遊動生物オブジェクトを含む前記記憶デバイス上のデータのセットと、
前記記憶デバイスに接続されるプロセッサと、
ディスプレイモジュールであって、前記ディスプレイモジュールは、前記記憶デバイス上にあり、前記実世界オブジェクトのうちの少なくとも1つの場所に対して前記遊動生物オブジェクトの所望の表示を決定するように、前記プロセッサによって実行可能である、ディスプレイモジュールと、
データストリーム発生器であって、前記データストリーム発生器は、前記記憶デバイス上にあり、前記データおよび前記所望の表示に基づいてデータストリームを発生させるように、前記プロセッサによって実行可能である、データストリーム発生器と、
光発生器であって、前記光発生器は、前記データストリームを受信し、前記データストリームに基づいて光を発生させるように、前記プロセッサに接続される、光発生器と、
ディスプレイデバイスであって、前記ディスプレイデバイスは、発生される光を受光するように、かつ前記光を前記ユーザに表示するように位置付けられ、前記光は、前記ユーザに可視であり、前記所望の表示に従ってレンダリングされる前記遊動生物オブジェクトのレンダリングを生成する、ディスプレイデバイスと、
遊動サブルーチンであって、前記遊動サブルーチンは、前記記憶デバイス上にあり、前記実世界オブジェクトに対して前記遊動生物オブジェクトを移動させるように、前記プロセッサによって実行可能である、遊動サブルーチンと、
人工知能システムであって、前記人工知能システムは、前記記憶デバイス上にあり、
前記少なくとも1つのセンサを使用して、前記ユーザによるアクションを感知することと、
前記ユーザのアクションに応答する前記遊動生物オブジェクトを伴うルーチンを実施することと、
人工知能クラスタとして、前記ルーチンを前記アクションと関連付けることと、
前記アクションが感知される第1の時間に存在するパラメータを決定することと、
前記第1の時間に存在する前記パラメータを人工知能クラスタと関連付けることと、
第2の時間においてパラメータを感知することと、
前記第2の時間における前記パラメータが前記第1の時間における前記パラメータと同一であるかどうかを決定することと、
前記第2の時間における前記パラメータが前記第1の時間における前記パラメータと同一であるという決定が行われる場合、前記ルーチンを実行することと
を行うように、前記プロセッサを用いて実行可能である、人工知能システムと
を備える、拡張現実ビューア。
(項目80)
前記少なくとも1つのセンサは、視線追跡カメラを含み、前記アクションは、前記ユーザによって開始される波運動であり、前記パラメータは、前記視線追跡カメラを使用する前記ユーザの視線追跡によって決定されるような凝視方向である、項目79に記載の拡張現実ビューア。
(項目81)
前記アクションは、標的ゾーン内で開始される波移動であり、前記遊動オブジェクトは、前記標的ゾーンから外に移動される、項目79に記載の拡張現実ビューア。
(項目82)
前記少なくとも1つのセンサは、前記ユーザの凝視方向を感知するように位置付けられる視線追跡カメラを含み、
凝視方向移動ルーチンであって、前記凝視方向移動ルーチンは、前記記憶デバイス上にあり、前記視線追跡カメラによって感知される前記凝視方向に応答して、前記遊動生物オブジェクトを移動させるように、前記プロセッサによって実行可能である、凝視方向移動ルーチン
をさらに備える、項目79に記載の拡張現実ビューア。
(項目83)
複数の遊動生物オブジェクトが存在し、前記遊動サブルーチンは、前記実世界オブジェクトに対して前記複数の遊動生物オブジェクトを移動させるように、前記プロセッサによって実行可能であり、
パーソナルアシスタントモジュールであって、前記パーソナルアシスタントモジュールは、前記記憶デバイス上にあり、
前記複数の遊動生物オブジェクトの中からパーソナルアシスタント遊動生物オブジェクトを選択することと、
前記パーソナルアシスタント遊動生物オブジェクトとともに、前記パーソナルアシスタント遊動生物オブジェクト以外の前記遊動生物オブジェクトのうちの少なくとも1つを移動させることと
を行うように、前記プロセッサを用いて実行可能である、パーソナルアシスタントモジュール
をさらに備える、項目79に記載の拡張現実ビューア。
(項目84)
前記ディスプレイデバイスは、前記ユーザが前記実世界オブジェクトのうちの少なくとも1つを視認している間に、前記ユーザに発生される前記光を表示する、項目79に記載の拡張現実ビューア。
(項目85)
前記ディスプレイデバイスは、前記少なくとも1つの実世界オブジェクトからの光が前記ユーザの眼に到達することを可能にするシースルーディスプレイデバイスである、項目84に記載の拡張現実ビューア。
(項目86)
前記ユーザの頭部上に装着されるように成形される頭部装着型構造であって、前記ディスプレイデバイスは、前記頭部装着型構造に搭載され、前記少なくとも1つのセンサは、前記ユーザの頭部の移動に起因する前記ディスプレイデバイスの移動を感知するために好適である種類である、頭部装着型構造と、
位置調節モジュールであって、前記位置調節モジュールは、前記ユーザの視界内で、前記遊動生物オブジェクトが、前記少なくとも1つの実世界オブジェクトに対して定常のままであるように、前記遊動生物オブジェクトの場所を調節するように前記プロセッサによって実行可能である、位置調節モジュールと
をさらに備える、項目79に記載の拡張現実ビューア。
(項目87)
拡張現実可視化方法であって、
少なくとも1つのセンサを用いて、複数の実世界オブジェクトのうちの少なくとも1つの場所を感知することと、
記憶デバイス上に、遊動生物オブジェクトを含むデータを記憶することと、
プロセッサを用いて、前記実世界オブジェクトのうちの少なくとも1つの場所に対して前記遊動生物オブジェクトの所望の表示を決定することと、
前記プロセッサによって、前記データおよび前記所望の表示に基づいてデータストリームを発生させることと、
光発生器を用いて、前記データストリームに基づいて光を発生させることと、
ディスプレイデバイスを用いて、ユーザに発生される前記光を表示することであって、前記光は、前記ユーザに可視であり、前記所望の表示に従ってレンダリングされる前記遊動生物オブジェクトのレンダリングを生成する、ことと、
前記プロセッサを用いて、前記実世界オブジェクトに対して前記遊動生物オブジェクトを移動させることと、
前記少なくとも1つのセンサを用いて、前記ユーザによるアクションを感知することと、
前記プロセッサを用いて、前記ユーザのアクションに応答する前記遊動生物オブジェクトを伴うルーチンを実施することと、
前記プロセッサを用いて、人工知能クラスタとして、前記ルーチンを前記アクションと関連付けることと、
前記少なくとも1つのプロセッサを用いて、前記アクションが感知される第1の時間に存在するパラメータを決定することと、
前記プロセッサを用いて、前記第1の時間に存在する前記パラメータを前記人工知能クラスタと関連付けることと、
前記少なくとも1つのセンサを用いて、第2の時間においてパラメータを感知することと、
前記プロセッサを用いて、前記第2の時間における前記パラメータが前記第1の時間における前記パラメータと同一であるかどうかを決定することと、
前記第2の時間における前記パラメータが前記第1の時間における前記パラメータと同一であるという決定が行われる場合、前記ルーチンを実行することと
を含む、方法。
(項目88)
前記アクションは、前記ユーザによって開始される波運動であり、前記パラメータは、前記ユーザの凝視方向である、項目87に記載の方法。
(項目89)
前記アクションは、標的ゾーン内で開始される波移動であり、前記遊動オブジェクトは、前記標的ゾーンから外に移動される、項目87に記載の方法。
(項目90)
前記少なくとも1つのセンサによって、前記ユーザの凝視方向を感知することと、
前記プロセッサによって、前記凝視方向に応答して前記遊動生物オブジェクトを移動させることと
をさらに含む、項目87に記載の方法。
(項目91)
前記プロセッサを用いて、前記実世界オブジェクトに対して複数の遊動生物オブジェクトを移動させることと、
前記プロセッサを用いて、前記複数の遊動生物オブジェクトの中からパーソナルアシスタント遊動生物オブジェクトを選択することと、
前記プロセッサを用いて、前記パーソナルアシスタント遊動生物オブジェクトとともに、前記パーソナルアシスタント遊動生物オブジェクト以外の前記遊動生物オブジェクトのうちの少なくとも1つを移動させることと
をさらに含む、項目87に記載の方法。
(項目92)
前記ディスプレイデバイスは、前記ユーザが前記実世界オブジェクトのうちの少なくとも1つを視認している間に、前記ユーザに発生される前記光を表示する、項目87に記載の方法。
(項目93)
前記ディスプレイデバイスは、前記少なくとも1つの実世界オブジェクトからの光が前記ユーザの眼に到達することを可能にするシースルーディスプレイデバイスである、項目92に記載の方法。
(項目94)
前記少なくとも1つのセンサを用いて、前記ユーザの頭部の移動に起因する前記ディスプレイデバイスの移動を感知することと、
前記ユーザの視界内で、前記遊動生物オブジェクトが、前記少なくとも1つの実世界オブジェクトに対して定常のままであるように、前記遊動生物オブジェクトの場所を調節することと
をさらに含む、項目87に記載の方法。
(項目95)
拡張現実ビューアであって、
少なくとも1つのセンサであって、前記少なくとも1つのセンサは、複数の実世界オブジェクトのうちの少なくとも1つの場所を感知するように位置付けられる、少なくとも1つのセンサと、
記憶デバイスと、
第1のタイプの魚を含む前記記憶デバイス上のデータのセットと、
前記記憶デバイスに接続されるプロセッサと、
ディスプレイモジュールであって、前記ディスプレイモジュールは、前記記憶デバイス上にあり、前記実世界オブジェクトのうちの少なくとも1つの場所に対して第1のタイプの前記魚の所望の表示を決定するように、前記プロセッサによって実行可能である、ディスプレイモジュールと、
データストリーム発生器であって、前記データストリーム発生器は、前記記憶デバイス上にあり、前記データおよび前記所望の表示に基づいてデータストリームを発生させるように、前記プロセッサによって実行可能である、データストリーム発生器と、
光発生器であって、前記光発生器は、前記データストリームを受信し、前記データストリームに基づいて光を発生させるように、前記プロセッサに接続される、光発生器と、
ディスプレイデバイスであって、前記ディスプレイデバイスは、発生される光を受光するように、かつ前記光を前記ユーザに表示するように位置付けられ、前記光は、前記ユーザに可視であり、前記所望の表示に従ってレンダリングされる第1のタイプの前記魚のレンダリングを生成する、ディスプレイデバイスと、
遊動サブルーチンであって、前記遊動サブルーチンは、前記記憶デバイス上にあり、前記実世界オブジェクトに対して第1のタイプの前記魚を移動させるように、前記プロセッサによって実行可能である、遊動サブルーチンと、
移動モジュールであって、前記移動モジュールは、前記記憶デバイス上にあり、第1の前後様式で前記魚の身体を関節運動させるように、前記プロセッサを用いて実行可能である、移動モジュールと
を備える、拡張現実ビューア。
(項目96)
前記遊動サブルーチンは、前記実世界オブジェクトに対して、かつ相互に対して第1のタイプの前記複数の魚を移動させるように、前記プロセッサによって実行可能である、項目95に記載の拡張現実ビューア。
(項目97)
前記少なくとも1つのセンサは、前記ユーザによって開始される波移動を感知し、
波移動ルーチンであって、前記波移動ルーチンは、前記記憶デバイス上にあり、前記少なくとも1つのセンサによって感知される前記波移動に応答して第1のタイプの前記魚を移動させるように、前記プロセッサによって実行可能である、波移動ルーチン
をさらに備える、項目95に記載の拡張現実ビューア。
(項目98)
人工知能システムであって、前記人工知能システムは、前記記憶デバイス上にあり、
前記少なくとも1つのセンサを使用して、前記ユーザによるアクションを感知することと、
前記ユーザのアクションに応答する第1のタイプの前記魚を伴うルーチンを実施することと、
人工知能クラスタとして、前記ルーチンを前記アクションと関連付けることと、
前記アクションが感知される第1の時間に存在するパラメータを決定することと、
前記第1の時間に存在する前記パラメータを人工知能クラスタと関連付けることと、
第2の時間においてパラメータを感知することと、
前記第2の時間における前記パラメータが前記第1の時間における前記パラメータと同一であるかどうかを決定することと、
前記第2の時間における前記パラメータが前記第1の時間における前記パラメータと同一であるという決定が行われる場合、前記ルーチンを実行することと
を行うように、前記プロセッサを用いて実行可能である、人工知能システム
をさらに備える、項目95に記載の拡張現実ビューア。
(項目99)
前記少なくとも1つのセンサは、前記ユーザの凝視方向を感知するように位置付けられる視線追跡カメラを含み、
凝視方向移動ルーチンであって、前記凝視方向移動ルーチンは、前記記憶デバイス上にあり、前記視線追跡カメラによって感知される前記凝視方向に応答して、第1のタイプの前記魚を移動させるように、前記プロセッサによって実行可能である、凝視方向移動ルーチン
をさらに備える、項目95に記載の拡張現実ビューア。
(項目100)
第1のタイプの複数の魚が存在し、前記遊動サブルーチンは、前記実世界オブジェクトに対して第1のタイプの前記複数の魚を移動させるように、前記プロセッサによって実行可能であり、
パーソナルアシスタントモジュールであって、前記パーソナルアシスタントモジュールは、前記記憶デバイス上にあり、
第1のタイプの前記複数の魚の中から第1のタイプのパーソナルアシスタント魚を選択することと、
第1のタイプの前記パーソナルアシスタント魚とともに、第1のタイプの前記パーソナルアシスタント魚以外の第1のタイプの前記魚のうちの少なくとも1つを移動させることと
を行うように、前記プロセッサを用いて実行可能である、パーソナルアシスタントモジュール
をさらに備える、項目95に記載の拡張現実ビューア。
(項目101)
前記移動モジュールは、前記第1の前後様式と異なる第2の前後様式で第2のタイプの魚の身体を関節運動させるように、前記プロセッサを用いて実行可能である、項目95に記載の拡張現実ビューア。
(項目102)
前記移動モジュールは、
前記少なくとも1つのセンサを用いて、前記ユーザの手の遅い手の移動を感知することと、
前記手の移動の緩速に応答して、低速において前記第1の前後様式で前記魚の身体を関節運動させることと、
前記少なくとも1つのセンサを用いて、前記ユーザの手の速い手の移動を感知することと、
前記手の移動の急速に応答して、高速において前記第1の前後様式で前記魚の身体を関節運動させることと
を行うように、前記プロセッサを用いて実行可能である、
項目101に記載の拡張現実ビューア。
(項目103)
前記移動モジュールは、
前記手が前記緩速において移動するときに、前記手の近くに留まるように前記第1の魚を移動させることと、
前記手が前記急速において移動するときに、前記手から逃れるように前記第1の魚を移動させることと
を行うように、前記プロセッサを用いて実行可能である、
項目102に記載の拡張現実ビューア。
(項目104)
頂点アニメーションルーチンであって、前記頂点アニメーションルーチンは、前記記憶デバイス上にあり、
第1のタイプの前記魚を表す第1のタイプのメッシュの魚を記憶することと、
テクスチャを第1のタイプのメッシュの前記魚と関連付けることと、
第1のタイプのメッシュの前記魚を操作し、前記ユーザの視界内で前記テクスチャおよび第1のタイプの前記魚の移動を引き起こすことと
を行うように、前記プロセッサを用いて実行可能である、頂点アニメーションルーチン
をさらに備える、項目95に記載の拡張現実ビューア。
(項目105)
第1のタイプのメッシュの前記魚は、第1のタイプの前記魚を関節運動させるように操作される、項目104に記載の拡張現実ビューア。
(項目106)
第1のタイプのメッシュの同一の魚が、前記テクスチャおよび第1のタイプの前記魚の移動を引き起こすために複数回使用される、項目104に記載の拡張現実ビューア。
(項目107)
前記ディスプレイデバイスは、前記ユーザが前記実世界オブジェクトのうちの少なくとも1つを視認している間に、前記ユーザに発生される前記光を表示する、項目95に記載の拡張現実ビューア。
(項目108)
前記ディスプレイデバイスは、前記少なくとも1つの実世界オブジェクトからの光が前記ユーザの眼に到達することを可能にするシースルーディスプレイデバイスである、項目107に記載の拡張現実ビューア。
(項目109)
前記ユーザの頭部上に装着されるように成形される頭部装着型構造であって、前記ディスプレイデバイスは、前記頭部装着型構造に搭載され、前記少なくとも1つのセンサは、前記ユーザの頭部の移動に起因する前記ディスプレイデバイスの移動を感知するために好適である種類である、頭部装着型構造と、
位置調節モジュールであって、前記位置調節モジュールは、前記ユーザの視界内で、第1のタイプの前記魚が、前記少なくとも1つの実世界オブジェクトに対して定常のままであるように、第1のタイプの前記魚の場所を調節するように前記プロセッサによって実行可能である、位置調節モジュールと
をさらに備える、項目95に記載の拡張現実ビューア。
(項目110)
拡張現実可視化方法であって、
少なくとも1つのセンサを用いて、複数の実世界オブジェクトのうちの少なくとも1つの場所を感知することと、
記憶デバイス上に、第1のタイプの魚を含むデータを記憶することと、
プロセッサを用いて、前記実世界オブジェクトのうちの少なくとも1つの場所に対して第1のタイプの前記魚の所望の表示を決定することと、
前記プロセッサによって、前記データおよび前記所望の表示に基づいてデータストリームを発生させることと、
光発生器を用いて、前記データストリームに基づいて光を発生させることと、
ディスプレイデバイスを用いて、ユーザに発生される前記光を表示することであって、前記光は、前記ユーザに可視であり、前記所望の表示に従ってレンダリングされる第1のタイプの前記魚のレンダリングを生成する、ことと、
前記プロセッサを用いて、前記実世界オブジェクトに対して第1のタイプの前記魚を移動させることと、
前記プロセッサを用いて、第1の前後様式で前記魚の身体を関節運動させることと
を含む、方法。
(項目111)
前記プロセッサを用いて、前記実世界オブジェクトに対して、かつ相互に対して第1のタイプの前記複数の魚を移動させることをさらに含む、項目110に記載の方法。
(項目112)
前記少なくとも1つのセンサによって、前記ユーザによって開始される波移動を感知することと、
前記プロセッサによって、前記少なくとも1つのセンサによって感知される前記波移動に応答して第1のタイプの前記魚を移動させることと
をさらに含む、項目110に記載の方法。
(項目113)
前記少なくとも1つのセンサを用いて、前記ユーザによるアクションを感知することと、
前記プロセッサを用いて、前記ユーザのアクションに応答する第1のタイプの前記魚を伴うルーチンを実施することと、
前記プロセッサを用いて、人工知能クラスタとして、前記ルーチンを前記アクションと関連付けることと、
前記少なくとも1つのプロセッサを用いて、前記アクションが感知される第1の時間に存在するパラメータを決定することと、
前記プロセッサを用いて、前記第1の時間に存在する前記パラメータを前記人工知能クラスタと関連付けることと、
前記少なくとも1つのセンサを用いて、第2の時間においてパラメータを感知することと、
前記プロセッサを用いて、前記第2の時間における前記パラメータが前記第1の時間における前記パラメータと同一であるかどうかを決定することと、
前記第2の時間における前記パラメータが前記第1の時間における前記パラメータと同一であるという決定が行われる場合、前記ルーチンを実行することと
をさらに含む、項目110に記載の方法。
(項目114)
前記少なくとも1つのセンサによって、前記ユーザの凝視方向を感知することと、
前記プロセッサによって、前記凝視方向に応答して第1のタイプの前記魚を移動させることと
をさらに含む、項目110に記載の方法。
(項目115)
前記プロセッサを用いて、前記実世界オブジェクトに対して第1のタイプの複数の魚を移動させることと、
前記プロセッサを用いて、第1のタイプの前記複数の魚の中から第1のタイプのパーソナルアシスタント魚を選択することと、
前記プロセッサを用いて、第1のタイプの前記パーソナルアシスタント魚とともに、第1のタイプの前記パーソナルアシスタント魚以外の第1のタイプの前記魚のうちの少なくとも1つを移動させることと
をさらに含む、項目110に記載の方法。
(項目116)
前記プロセッサを用いて、前記第1の前後様式と異なる第2の前後様式で第2のタイプの魚の身体を関節運動させることをさらに含む、項目110に記載の方法。
(項目117)
前記少なくとも1つのセンサを用いて、前記ユーザの手の遅い手の移動を感知することと、
前記プロセッサを用いて、前記手の移動の緩速に応答して、低速において前記第1の前後様式で前記魚の身体を関節運動させることと、
前記少なくとも1つのセンサを用いて、前記ユーザの手の速い手の移動を感知することと、
前記プロセッサを用いて、前記手の移動の急速に応答して、高速において前記第1の前後様式で前記魚の身体を関節運動させることと
をさらに含む、項目116に記載の方法。
(項目118)
前記プロセッサを用いて、前記手が前記緩速において移動するときに、前記手の近くに留まるように前記第1の魚を移動させることと、
前記プロセッサを用いて、前記手が前記急速において移動するときに、前記手から逃れるように前記第1の魚を移動させることと
をさらに含む、項目117に記載の方法。
(項目119)
前記プロセッサを用いて、第1のタイプの前記魚を表す第1のタイプのメッシュの魚を記憶することと、
前記プロセッサを用いて、テクスチャを第1のタイプのメッシュの前記魚と関連付けることと、
前記プロセッサを用いて、第1のタイプのメッシュの前記魚を操作し、前記ユーザの視界内で前記テクスチャおよび第1のタイプの前記魚の移動を引き起こすことと
をさらに含む、項目110に記載の方法。
(項目120)
第1のタイプのメッシュの前記魚は、第1のタイプの前記魚を関節運動させるように操作される、項目119に記載の方法。
(項目121)
第1のタイプのメッシュの同一の魚が、前記テクスチャおよび第1のタイプの前記魚の移動を引き起こすために複数回使用される、項目119に記載の方法。
(項目122)
前記ディスプレイデバイスは、前記ユーザが前記実世界オブジェクトのうちの少なくとも1つを視認している間に、前記ユーザに発生される前記光を表示する、項目110に記載の方法。
(項目123)
前記ディスプレイデバイスは、前記少なくとも1つの実世界オブジェクトからの光が前記ユーザの眼に到達することを可能にするシースルーディスプレイデバイスである、項目122に記載の方法。
(項目124)
前記少なくとも1つのセンサを用いて、前記ユーザの頭部の移動に起因する前記ディスプレイデバイスの移動を感知することと、
前記ユーザの視界内で、第1のタイプの前記魚が、前記少なくとも1つの実世界オブジェクトに対して定常のままであるように、第1のタイプの前記魚の場所を調節することと
をさらに含む、項目110に記載の方法。
(項目125)
拡張現実ビューアであって、
少なくとも1つのセンサであって、前記少なくとも1つのセンサは、複数の実世界オブジェクトのうちの少なくとも1つの場所を感知するように位置付けられる、少なくとも1つのセンサと、
記憶デバイスと、
遊動生物オブジェクトを含む前記記憶デバイス上のデータのセットと、
前記記憶デバイスに接続されるプロセッサと、
表面抽出ルーチンであって、前記表面抽出ルーチンは、前記記憶デバイス上にあり、前記実世界オブジェクトの中から表面を識別するように、前記プロセッサを用いて実行可能である、表面抽出ルーチンと、
ディスプレイモジュールであって、前記ディスプレイモジュールは、前記記憶デバイス上にあり、前記実世界オブジェクトのうちの少なくとも1つの場所に対して前記遊動生物オブジェクトの所望の表示を決定するように、前記プロセッサによって実行可能である、ディスプレイモジュールと、
データストリーム発生器であって、前記データストリーム発生器は、前記記憶デバイス上にあり、前記データおよび前記所望の表示に基づいてデータストリームを発生させるように、前記プロセッサによって実行可能である、データストリーム発生器と、
光発生器であって、前記光発生器は、前記データストリームを受信し、前記データストリームに基づいて光を発生させるように、前記プロセッサに接続される、光発生器と、
ディスプレイデバイスであって、前記ディスプレイデバイスは、発生される光を受光するように、かつ前記光を前記ユーザに表示するように位置付けられ、前記光は、前記ユーザに可視であり、前記所望の表示に従ってレンダリングされる前記遊動生物オブジェクトのレンダリングを生成する、ディスプレイデバイスと、
遊動サブルーチンであって、前記遊動サブルーチンは、前記記憶デバイス上にあり、前記実世界オブジェクトに対して前記遊動生物オブジェクトを移動させるように、前記プロセッサによって実行可能である、遊動サブルーチンと、
奥行生成モジュールであって、前記奥行生成モジュールは、前記記憶デバイス上にあり、前記所望の表示に従って、3次元空間内で、前記ユーザに対向する側で、前記ユーザと前記遊動生物オブジェクトとの間に前記表面を伴って、前記遊動生物オブジェクトを前記ユーザに表示するように前記プロセッサを用いて実行可能である、奥行生成モジュールと
を備える、拡張現実ビューア。
(項目126)
前記表面は、壁または天井の2次元表面である、項目125に記載の拡張現実ビューア。
(項目127)
前記奥行生成モジュールは、それを通して前記遊動生物オブジェクトが前記ユーザに可視である前記表面内のポート孔を前記ユーザに表示するように、前記プロセッサを用いて実行可能である、項目125に記載の拡張現実ビューア。
(項目128)
前記遊動生物オブジェクトは、3次元遊動生物オブジェクトである、項目125に記載の拡張現実ビューア。
(項目129)
眺望設置ルーチンであって、前記眺望設置ルーチンは、前記記憶デバイス上にあり、
前記実世界オブジェクトを含む空間を捕捉することと、
実世界メッシュとして前記空間を表すことと、
前記実世界メッシュから垂直および水平面を収集することと、
床からの高さ、寸法、配向、および前記実世界メッシュに対する場所によって、前記面をフィルタ処理することと、
ポータルフレームと、前記選択場所における眺望内の全てのコンテンツとを含む青写真を創出することと、
前記ユーザが、前記ポータルを通して前記眺望を覗き込み得るように、前記実世界メッシュ材料のオクルージョン材料に孔を切開することと
を行うように、前記プロセッサを用いて実行可能である、眺望設置ルーチン
をさらに備える、項目125に記載の拡張現実ビューア。
(項目130)
前記ディスプレイデバイスは、前記ユーザが前記実世界オブジェクトのうちの少なくとも1つを視認している間に、前記ユーザに発生される前記光を表示する、項目125に記載の拡張現実ビューア。
(項目131)
前記ディスプレイデバイスは、前記少なくとも1つの実世界オブジェクトからの光が前記ユーザの眼に到達することを可能にするシースルーディスプレイデバイスである、項目130に記載の拡張現実ビューア。
(項目132)
前記ユーザの頭部上に装着されるように成形される頭部装着型構造であって、前記ディスプレイデバイスは、前記頭部装着型構造に搭載され、前記少なくとも1つのセンサは、前記ユーザの頭部の移動に起因する前記ディスプレイデバイスの移動を感知するために好適である種類である、頭部装着型構造と、
位置調節モジュールであって、前記位置調節モジュールは、前記ユーザの視界内で、前記遊動生物オブジェクトが、前記少なくとも1つの実世界オブジェクトに対して定常のままであるように、前記遊動生物オブジェクトの場所を調節するように前記プロセッサによって実行可能である、位置調節モジュールと
をさらに備える、項目125に記載の拡張現実ビューア。
(項目133)
拡張現実可視化方法であって、
少なくとも1つのセンサを用いて、複数の実世界オブジェクトのうちの少なくとも1つの場所を感知することと、
記憶デバイス上に、遊動生物オブジェクトを含むデータを記憶することと、
前記プロセッサを用いて、前記実世界オブジェクトの中から表面を識別することと、
プロセッサを用いて、前記実世界オブジェクトのうちの少なくとも1つの場所に対して前記遊動生物オブジェクトの所望の表示を決定することと、
前記プロセッサによって、前記データおよび前記所望の表示に基づいてデータストリームを発生させることと、
光発生器を用いて、前記データストリームに基づいて光を発生させることと、
ディスプレイデバイスを用いて、ユーザに発生される前記光を表示することであって、前記光は、前記ユーザに可視であり、前記所望の表示に従ってレンダリングされる前記遊動生物オブジェクトのレンダリングを生成する、ことと、
前記プロセッサを用いて、前記実世界オブジェクトに対して前記遊動生物オブジェクトを移動させることと
を含み、
前記プロセッサは、前記所望の表示に従って、3次元空間内で、前記ユーザに対向する表面の側で、前記ユーザと前記遊動生物オブジェクトとの間に前記表面を伴って、前記遊動生物オブジェクトを前記ユーザに表示する、方法。
(項目134)
前記表面は、壁または天井の2次元表面である、項目133に記載の方法。
(項目135)
前記プロセッサは、それを通して前記遊動生物オブジェクトが前記ユーザに可視である前記表面内のポート孔を前記ユーザに表示する、項目133に記載の方法。
(項目136)
前記遊動生物オブジェクトは、3次元遊動生物オブジェクトである、項目133に記載の方法。
(項目137)
前記プロセッサを用いて、前記実世界オブジェクトを含む空間を捕捉することと、
前記プロセッサを用いて、実世界メッシュとして前記空間を表すことと、
前記プロセッサを用いて、前記実世界メッシュから垂直および水平面を収集することと、
前記プロセッサを用いて、床からの高さ、寸法、配向、および前記実世界メッシュに対する場所によって、前記面をフィルタ処理することと、
前記プロセッサを用いて、ポータルフレームと、前記選択場所における眺望内の全てのコンテンツとを含む青写真を創出することと、
前記プロセッサを用いて、前記ユーザが、前記ポータルを通して前記眺望を覗き込み得るように、前記実世界メッシュ材料のオクルージョン材料に孔を切開することと
をさらに含む、項目133に記載の方法。
(項目138)
前記ディスプレイデバイスは、前記ユーザが前記実世界オブジェクトのうちの少なくとも1つを視認している間に、前記ユーザに発生される前記光を表示する、項目133に記載の方法。
(項目139)
前記ディスプレイデバイスは、前記少なくとも1つの実世界オブジェクトからの光が前記ユーザの眼に到達することを可能にするシースルーディスプレイデバイスである、項目138に記載の方法。
(項目140)
前記少なくとも1つのセンサを用いて、前記ユーザの頭部の移動に起因する前記ディスプレイデバイスの移動を感知することと、
前記ユーザの視界内で、前記遊動生物オブジェクトが、前記少なくとも1つの実世界オブジェクトに対して定常のままであるように、前記遊動生物オブジェクトの場所を調節することと
をさらに含む、項目133に記載の方法。
(項目141)
拡張現実ビューアであって、
少なくとも1つのセンサであって、前記少なくとも1つのセンサは、複数の実世界オブジェクトのうちの少なくとも1つの場所を感知するように位置付けられる、少なくとも1つのセンサと、
記憶デバイスと、
遊動生物オブジェクトを含む前記記憶デバイス上のデータのセットと、
前記記憶デバイスに接続されるプロセッサと、
表面抽出ルーチンであって、前記表面抽出ルーチンは、前記記憶デバイス上にあり、前記実世界オブジェクトの中から表面を識別するように、前記プロセッサを用いて実行可能である、表面抽出ルーチンと、
ディスプレイモジュールであって、前記ディスプレイモジュールは、前記記憶デバイス上にあり、前記実世界オブジェクトのうちの少なくとも1つの場所に対して前記遊動生物オブジェクトの所望の表示を決定するように、前記プロセッサによって実行可能である、ディスプレイモジュールと、
データストリーム発生器であって、前記データストリーム発生器は、前記記憶デバイス上にあり、前記データおよび前記所望の表示に基づいてデータストリームを発生させるように、前記プロセッサによって実行可能である、データストリーム発生器と、
光発生器であって、前記光発生器は、前記データストリームを受信し、前記データストリームに基づいて光を発生させるように、前記プロセッサに接続される、光発生器と、
ディスプレイデバイスであって、前記ディスプレイデバイスは、発生される光を受光するように、かつ前記光を前記ユーザに表示するように位置付けられ、前記光は、前記ユーザに可視であり、前記所望の表示に従ってレンダリングされる前記遊動生物オブジェクトのレンダリングを生成する、ディスプレイデバイスと、
遊動サブルーチンであって、前記遊動サブルーチンは、前記記憶デバイス上にあり、前記実世界オブジェクトに対して前記遊動生物オブジェクトを移動させるように、前記プロセッサによって実行可能である、遊動サブルーチンと、
眺望設置ルーチンであって、前記眺望設置ルーチンは、前記記憶デバイス上にあり、
前記実世界オブジェクトを含む空間を捕捉することと、
実世界メッシュとして前記空間を表すことと、
前記実世界メッシュから垂直および水平面を収集することと、
床からの高さ、寸法、配向、および前記実世界メッシュに対する場所によって、前記面をフィルタ処理することと、
ポータルフレームと、前記選択場所における前記眺望内の全てのコンテンツとを含む青写真を創出することと、
前記ユーザが、前記ポータルを通して前記眺望を覗き込み得るように、前記実世界メッシュ材料のオクルージョン材料に孔を切開することと
を行うように、前記プロセッサを用いて実行可能である、眺望設置ルーチンと
を備える、拡張現実ビューア。
(項目142)
前記表面は、壁または天井の2次元表面である、項目141に記載の拡張現実ビューア。
(項目143)
奥行生成モジュールであって、前記奥行生成モジュールは、前記記憶デバイス上にあり、前記所望の表示に従って、3次元空間内で、前記ユーザに対向する側で、前記ユーザと前記遊動生物オブジェクトとの間に前記表面を伴って、前記遊動生物オブジェクトを前記ユーザに表示するように前記プロセッサを用いて実行可能である、奥行生成モジュール
をさらに備える、項目141に記載の拡張現実ビューア。
(項目144)
前記奥行生成モジュールは、それを通して前記遊動生物オブジェクトが前記ユーザに可視である前記表面内のポート孔を前記ユーザに表示するように、前記プロセッサを用いて実行可能である、項目143に記載の拡張現実ビューア。
(項目145)
前記遊動生物オブジェクトは、3次元遊動生物オブジェクトである、項目143に記載の拡張現実ビューア。
(項目146)
前記ディスプレイデバイスは、前記ユーザが前記実世界オブジェクトのうちの少なくとも1つを視認している間に、前記ユーザに発生される前記光を表示する、項目141に記載の拡張現実ビューア。
(項目147)
前記ディスプレイデバイスは、前記少なくとも1つの実世界オブジェクトからの光が前記ユーザの眼に到達することを可能にするシースルーディスプレイデバイスである、項目146に記載の拡張現実ビューア。
(項目148)
前記ユーザの頭部上に装着されるように成形される頭部装着型構造であって、前記ディスプレイデバイスは、前記頭部装着型構造に搭載され、前記少なくとも1つのセンサは、前記ユーザの頭部の移動に起因する前記ディスプレイデバイスの移動を感知するために好適である種類である、頭部装着型構造と、
位置調節モジュールであって、前記位置調節モジュールは、前記ユーザの視界内で、前記遊動生物オブジェクトが、前記少なくとも1つの実世界オブジェクトに対して定常のままであるように、前記遊動生物オブジェクトの場所を調節するように前記プロセッサによって実行可能である、位置調節モジュールと
をさらに備える、項目141に記載の拡張現実ビューア。
(項目149)
拡張現実可視化方法であって、
少なくとも1つのセンサを用いて、複数の実世界オブジェクトのうちの少なくとも1つの場所を感知することと、
記憶デバイス上に、遊動生物オブジェクトを含むデータを記憶することと、
前記プロセッサを用いて、前記実世界オブジェクトの中から表面を識別することと、
プロセッサを用いて、前記実世界オブジェクトのうちの少なくとも1つの場所に対して前記遊動生物オブジェクトの所望の表示を決定することと、
前記プロセッサによって、前記データおよび前記所望の表示に基づいてデータストリームを発生させることと、
光発生器を用いて、前記データストリームに基づいて光を発生させることと、
ディスプレイデバイスを用いて、ユーザに発生される前記光を表示することであって、前記光は、前記ユーザに可視であり、前記所望の表示に従ってレンダリングされる前記遊動生物オブジェクトのレンダリングを生成する、ことと、
前記プロセッサを用いて、前記実世界オブジェクトに対して前記遊動生物オブジェクトを移動させることと、
前記プロセッサを用いて、前記実世界オブジェクトを含む空間を捕捉することと、
前記プロセッサを用いて、実世界メッシュとして前記空間を表すことと、
前記プロセッサを用いて、前記実世界メッシュから垂直および水平面を収集することと、
前記プロセッサを用いて、床からの高さ、寸法、配向、および前記実世界メッシュに対する場所によって、前記面をフィルタ処理することと、
前記プロセッサを用いて、ポータルフレームと、前記選択場所における眺望内の全てのコンテンツとを含む青写真を創出することと、
前記プロセッサを用いて、前記ユーザが、前記ポータルを通して前記眺望を覗き込み得るように、前記実世界メッシュ材料のオクルージョン材料に孔を切開することと
を含む、方法。
(項目150)
前記表面は、壁または天井の2次元表面である、項目149に記載の方法。
(項目151)
前記プロセッサは、前記所望の表示に従って、3次元空間内で、前記ユーザに対向する表面の側で、前記ユーザと前記遊動生物オブジェクトとの間に前記表面を伴って、前記遊動生物オブジェクトを前記ユーザに表示する、項目149に記載の方法。
(項目152)
前記プロセッサは、それを通して前記遊動生物オブジェクトが前記ユーザに可視である、前記表面内のポート孔を前記ユーザに表示する、項目151に記載の方法。
(項目153)
前記遊動生物オブジェクトは、3次元遊動生物オブジェクトである、項目151に記載の方法。
(項目154)
前記ディスプレイデバイスは、前記ユーザが前記実世界オブジェクトのうちの少なくとも1つを視認している間に、前記ユーザに発生される前記光を表示する、項目149に記載の方法。
(項目155)
前記ディスプレイデバイスは、前記少なくとも1つの実世界オブジェクトからの光が前記ユーザの眼に到達することを可能にするシースルーディスプレイデバイスである、項目154に記載の方法。
(項目156)
前記少なくとも1つのセンサを用いて、前記ユーザの頭部の移動に起因する前記ディスプレイデバイスの移動を感知することと、
前記ユーザの視界内で、前記遊動生物オブジェクトが、前記少なくとも1つの実世界オブジェクトに対して定常のままであるように、前記遊動生物オブジェクトの場所を調節することと
をさらに含む、項目149に記載の方法。
(項目157)
拡張現実ビューアであって、
少なくとも1つのセンサであって、前記少なくとも1つのセンサは、複数の実世界オブジェクトのうちの少なくとも1つの場所を感知するように位置付けられる、少なくとも1つのセンサと、
記憶デバイスと、
仮想オブジェクトを含む前記記憶デバイス上のデータのセットと、
前記記憶デバイスに接続されるプロセッサと、
ディスプレイモジュールであって、前記ディスプレイモジュールは、前記記憶デバイス上にあり、前記実世界オブジェクトのうちの少なくとも1つの場所に対して前記仮想オブジェクトの所望の表示を決定するように、前記プロセッサによって実行可能である、ディスプレイモジュールと、
データストリーム発生器であって、前記データストリーム発生器は、前記記憶デバイス上にあり、前記データおよび前記所望の表示に基づいてデータストリームを発生させるように、前記プロセッサによって実行可能である、データストリーム発生器と、
光発生器であって、前記光発生器は、前記データストリームを受信し、前記データストリームに基づいて光を発生させるように、前記プロセッサに接続される、光発生器と、
ディスプレイデバイスであって、前記ディスプレイデバイスは、発生される光を受光するように、かつ前記光を前記ユーザに表示するように位置付けられ、前記光は、前記ユーザに可視であり、前記所望の表示に従ってレンダリングされる前記仮想オブジェクトのレンダリングを生成する、ディスプレイデバイスと、
頂点アニメーションルーチンであって、前記頂点アニメーションルーチンは、前記記憶デバイス上にあり、
前記仮想オブジェクトを表す仮想オブジェクトメッシュを記憶することと、
テクスチャを前記仮想オブジェクトメッシュと関連付けることと、
前記仮想オブジェクトメッシュを操作し、前記ユーザの視界内で前記テクスチャおよび前記仮想オブジェクトの移動を引き起こすことと
を行うように、前記プロセッサを用いて実行可能である、頂点アニメーションルーチンと
を備える、拡張現実ビューア。
(項目158)
前記遊動生物オブジェクトは、第1のタイプの魚であり、
移動モジュールであって、前記移動モジュールは、前記記憶デバイス上にあり、第1の前後様式で前記魚の身体を関節運動させるように、前記プロセッサを用いて実行可能である、移動モジュール
をさらに備える、項目157に記載の拡張現実ビューア。
(項目159)
前記仮想オブジェクトメッシュは、前記仮想オブジェクトを関節運動させるように操作される、項目157に記載の拡張現実ビューア。
(項目160)
同一の仮想オブジェクトメッシュが、前記テクスチャおよび前記仮想オブジェクトの移動を引き起こすために複数回使用される、項目157に記載の拡張現実ビューア。
(項目161)
前記ディスプレイデバイスは、前記実世界オブジェクトのうちの少なくとも1つを視認している間に、前記ユーザに発生される前記光を表示する、項目157に記載の拡張現実ビューア。
(項目162)
前記ディスプレイデバイスは、前記少なくとも1つの実世界オブジェクトからの光が前記ユーザの眼に到達することを可能にするシースルーディスプレイデバイスである、項目161に記載の拡張現実ビューア。
(項目163)
前記ユーザの頭部上に装着されるように成形される頭部装着型構造であって、前記ディスプレイデバイスは、前記頭部装着型構造に搭載され、前記少なくとも1つのセンサは、前記ユーザの頭部の移動に起因する前記ディスプレイデバイスの移動を感知するために好適である種類である、頭部装着型構造と、
位置調節モジュールであって、前記位置調節モジュールは、前記ユーザの視界内で、前記仮想オブジェクトが、前記少なくとも1つの実世界オブジェクトに対して定常のままであるように、前記仮想オブジェクトの場所を調節するように前記プロセッサによって実行可能である、位置調節モジュールと
をさらに備える、項目157に記載の拡張現実ビューア。
(項目164)
拡張現実可視化方法であって、
少なくとも1つのセンサを用いて、複数の実世界オブジェクトのうちの少なくとも1つの場所を感知することと、
記憶デバイス上に、仮想オブジェクトを含むデータを記憶することと、
プロセッサを用いて、前記実世界オブジェクトのうちの少なくとも1つの場所に対して前記仮想オブジェクトの所望の表示を決定することと、
前記プロセッサによって、前記データおよび前記所望の表示に基づいてデータストリームを発生させることと、
光発生器を用いて、前記データストリームに基づいて光を発生させることと、
ディスプレイデバイスを用いて、ユーザに発生される前記光を表示することであって、前記光は、前記ユーザに可視であり、前記所望の表示に従ってレンダリングされる前記仮想オブジェクトのレンダリングを生成する、ことと、
前記プロセッサを用いて、前記仮想オブジェクトを表す仮想オブジェクトメッシュを記憶することと、
前記プロセッサを用いて、テクスチャを前記仮想オブジェクトメッシュと関連付けることと、
前記プロセッサを用いて、前記仮想オブジェクトメッシュを操作し、前記ユーザの視界内で前記テクスチャおよび前記仮想オブジェクトの移動を引き起こすことと
を含む、方法。
(項目165)
前記遊動生物オブジェクトは、第1のタイプの魚であり、
前記プロセッサを用いて、第1の前後様式で前記魚の身体を関節運動させることをさらに含む、
項目164に記載の方法。
(項目166)
前記仮想オブジェクトメッシュは、前記仮想オブジェクトを関節運動させるように操作される、項目164に記載の方法。
(項目167)
同一の仮想オブジェクトメッシュが、前記テクスチャおよび前記仮想オブジェクトの移動を引き起こすために複数回使用される、項目164に記載の方法。
(項目168)
前記ディスプレイデバイスは、前記実世界オブジェクトのうちの少なくとも1つを視認している間に、前記ユーザに発生される前記光を表示する、項目164に記載の方法。
(項目169)
前記ディスプレイデバイスは、前記少なくとも1つの実世界オブジェクトからの光が前記ユーザの眼に到達することを可能にするシースルーディスプレイデバイスである、項目168に記載の方法。
(項目170)
前記少なくとも1つのセンサを用いて、前記ユーザの頭部の移動に起因する前記ディスプレイデバイスの移動を感知することと、
前記ユーザの視界内で、前記仮想オブジェクトが、前記少なくとも1つの実世界オブジェクトに対して定常のままであるように、前記仮想オブジェクトの場所を調節することと
をさらに含む、項目164に記載の方法。
(項目171)
拡張現実ビューアであって、
少なくとも1つのセンサであって、前記少なくとも1つのセンサは、複数の実世界オブジェクトのうちの少なくとも1つの場所を感知するように位置付けられる、少なくとも1つのセンサと、
記憶デバイスと、
サンゴ群の要素を含む前記記憶デバイス上のデータのセットと、
前記記憶デバイスに接続されるプロセッサと、
サンゴ群スポーナであって、前記サンゴ群スポーナは、前記記憶デバイス上にあり、
体積を決定することと、
前記体積の最大高さから前記体積の床まで、前記体積内のランダム点において線トレースを実施することと、
有効場所が前記線トレースによって識別されるかどうかを決定することと、
有効場所が識別される場合、前記識別に応答して、異なるスケールおよび回転を試行し、設置毎にスコアを発生させながら、ボックストレースを実施し、ランダムクラスタが世界メッシュに重複することなく適合するであろうかどうかを試験することと、
スコアの中から最高スコアを伴う厳選された設置を決定することと、
前記最高スコアを伴う設置に前記サンゴ群を創出することと
を行うように、前記プロセッサを用いて実行可能である、サンゴ群スポーナと、
データストリーム発生器であって、前記データストリーム発生器は、前記記憶デバイス上にあり、前記データおよび前記所望の表示に基づいてデータストリームを発生させるように、前記プロセッサによって実行可能である、データストリーム発生器と、
光発生器であって、前記光発生器は、前記データストリームを受信し、前記データストリームに基づいて光を発生させるように、前記プロセッサに接続される、光発生器と、
ディスプレイデバイスであって、前記ディスプレイデバイスは、発生される光を受光するように、かつ前記光を前記ユーザに表示するように位置付けられ、前記光は、前記ユーザに可視であり、前記所望の表示に従ってレンダリングされる前記サンゴ群のレンダリングを生成する、ディスプレイデバイスと
を備える、拡張現実ビューア。
(項目172)
前記記憶デバイス上にあり、眺望を設置するように前記プロセッサを用いて実行可能である眺望設置ルーチンをさらに備え、前記体積は、前記眺望によって拘束される、項目171に記載の拡張現実ビューア。
(項目173)
サンゴスポーナシステムであって、前記サンゴスポーナシステムは、前記記憶デバイス上にあり、
前記記憶デバイス上に少なくとも第1のタイプの第1のサンゴ要素を記憶することと、
前記第1のサンゴ要素を含む複数のサンゴ要素から前記サンゴ群を構築することと
を行うように、前記プロセッサを用いて実行可能である、サンゴスポーナシステム
をさらに備える、項目171に記載の拡張現実ビューア。
(項目174)
前記サンゴスポーナシステムは、複数の第1のサンゴ要素から前記サンゴ群を構築するように、前記プロセッサを用いて実行可能である、項目173に記載の拡張現実ビューア。
(項目175)
前記サンゴスポーナシステムは、前記記憶デバイス上に少なくとも第2のタイプの第2のサンゴ要素を記憶するように、前記プロセッサを用いて実行可能であり、前記複数のサンゴ要素は、前記第2のサンゴ要素を含む、項目173に記載の拡張現実ビューア。
(項目176)
前記サンゴスポーナシステムは、サンゴ群設定を決定するように、前記プロセッサを用いて実行可能であり、前記プロセッサは、前記設定に従って、前記サンゴ群を構築する、項目173に記載の拡張現実ビューア。
(項目177)
前記設定は、検出される利用可能な空間であり、前記サンゴ要素の数は、前記利用可能な空間に基づいて選択される、項目176に記載の拡張現実ビューア。
(項目178)
前記サンゴスポーナシステムは、周囲光をシミュレートするように、前記プロセッサを用いて実行可能であり、前記設定は、前記周囲光であり、サンゴ要素の数は、前記周囲光に基づいて選択され、前記サンゴ要素の配向は、前記周囲光に基づいて選択される、項目176に記載の拡張現実ビューア。
(項目179)
前記サンゴスポーナシステムは、複数のサンゴ群設定を伴う前記記憶デバイス上のデータ表を含み、前記サンゴスポーナシステムは、前記複数のサンゴ群設定に従って、前記サンゴ群を構築する、項目176に記載の拡張現実ビューア。
(項目180)
前記サンゴ群設定は、個体数、種の最大計数、創出タイプ、および高さベースの割合のうちの少なくとも1つを含む、項目179に記載の拡張現実ビューア。
(項目181)
前記サンゴスポーナシステムは、設置実行可能性、成長、およびファイルへの有効点のキャッシングをチェックするための頂点クローリングおよびレイキャストアルゴリズムを含む、項目179に記載の拡張現実ビューア。
(項目182)
前記サンゴスポーナシステムは、最初に、影の通過を計算し、次いで、全てのサンゴ群のインスタンス化された静的メッシュを生成するランタイムサンゴ静的メッシュループを含む、項目181に記載の拡張現実ビューア。
(項目183)
前記サンゴスポーナシステムは、ある種が成長するべきではないボックスコライダを設置するための衝突ベースの除外構成を含む、項目182に記載の拡張現実ビューア。
(項目184)
前記ディスプレイデバイスは、前記実世界オブジェクトのうちの少なくとも1つを視認している間に、前記ユーザに発生される前記光を表示する、項目171に記載の拡張現実ビューア。
(項目185)
前記ディスプレイデバイスは、前記少なくとも1つの実世界オブジェクトからの光が前記ユーザの眼に到達することを可能にするシースルーディスプレイデバイスである、項目184に記載の拡張現実ビューア。
(項目186)
前記ユーザの頭部上に装着されるように成形される頭部装着型構造であって、前記ディスプレイデバイスは、前記頭部装着型構造に搭載され、前記少なくとも1つのセンサは、前記ユーザの頭部の移動に起因する前記ディスプレイデバイスの移動を感知するために好適である種類である、頭部装着型構造と、
位置調節モジュールであって、前記位置調節モジュールは、前記ユーザの視界内で、前記仮想オブジェクトが、前記少なくとも1つの実世界オブジェクトに対して定常のままであるように、前記仮想オブジェクトの場所を調節するように前記プロセッサによって実行可能である、位置調節モジュールと
をさらに備える、項目171に記載の拡張現実ビューア。
(項目187)
拡張現実可視化方法であって、
少なくとも1つのセンサを用いて、複数の実世界オブジェクトのうちの少なくとも1つの場所を感知することと、
記憶デバイス上に、サンゴ群の要素を含むデータを記憶することと、
前記プロセッサを用いて、前記サンゴ群を設置することであって、前記サンゴ群を設置することは、
体積を決定することと、
前記体積の最大高さから前記体積の床まで、前記体積内のランダム点において線トレースを実施することと、
有効場所が前記線トレースによって識別されるかどうかを決定することと、
有効場所が識別される場合、前記識別に応答して、異なるスケールおよび回転を試行し、設置毎にスコアを発生させながら、ボックストレースを実施し、ランダムクラスタが世界メッシュに重複することなく適合するであろうかどうかを試験することと、
スコアの中から最高スコアを伴う厳選された設置を決定することと、
前記最高スコアを伴う設置に前記サンゴ群を創出することと
を含む、ことと、
前記プロセッサによって、前記データおよび前記所望の表示に基づいてデータストリームを発生させることと、
光発生器を用いて、前記データストリームに基づいて光を発生させることと、
ディスプレイデバイスを用いて、ユーザに発生される前記光を表示することであって、前記光は、前記ユーザに可視であり、前記所望の表示に従ってレンダリングされる前記仮想オブジェクトのレンダリングを生成する、ことと
を含む、方法。
(項目188)
眺望を設置することをさらに含み、前記体積は、前記眺望によって拘束される、項目187に記載の方法。
(項目189)
前記記憶デバイス上に少なくとも第1のタイプの第1のサンゴ要素を記憶することと、
前記プロセッサを用いて、前記第1のサンゴ要素を含む複数のサンゴ要素から前記サンゴ群を構築することと
をさらに含む、項目187に記載の方法。
(項目190)
前記プロセッサは、複数の第1のサンゴ要素から前記サンゴ群を構築する、項目189に記載の方法。
(項目191)
前記記憶デバイス上に少なくとも第2のタイプの第2のサンゴ要素を記憶することをさらに含み、前記複数のサンゴ要素は、前記第2のサンゴ要素を含む、項目189に記載の方法。
(項目192)
前記プロセッサを用いて、サンゴ群設定を決定することをさらに含み、前記プロセッサは、前記設定に従って、前記サンゴ群を構築する、項目189に記載の方法。
(項目193)
前記設定は、検出される利用可能な空間であり、前記サンゴ要素の数は、前記利用可能な空間に基づいて選択される、項目192に記載の方法。
(項目194)
前記プロセッサを用いて、周囲光をシミュレートすることをさらに含み、前記設定は、前記周囲光であり、サンゴ要素の数は、前記周囲光に基づいて選択され、前記サンゴ要素の配向は、前記周囲光に基づいて選択される、項目192に記載の方法。
(項目195)
複数のサンゴ群設定を伴う前記記憶デバイス上のデータ表を記憶することをさらに含み、前記プロセッサは、前記複数のサンゴ群設定に従って、前記サンゴ群を構築する、項目192に記載の方法。
(項目196)
前記サンゴ群設定は、個体数、種の最大計数、創出タイプ、および高さベースの割合のうちの少なくとも1つを含む、項目195に記載の方法。
(項目197)
前記プロセッサを用いて、設置実行可能性、成長、およびファイルへの有効点のキャッシングをチェックするための頂点クローリングおよびレイキャストアルゴリズムを実行することをさらに含む、項目195に記載の方法。
(項目198)
前記プロセッサを用いて、最初に、影の通過を計算し、次いで、全てのサンゴ群のインスタンス化された静的メッシュを生成するランタイムサンゴ静的メッシュループを実行することをさらに含む、項目197に記載の方法。
(項目199)
前記プロセッサを用いて、ある種が成長するべきではないボックスコライダを設置するための衝突ベースの除外構成を実行することをさらに含む、項目198に記載の方法。
(項目200)
前記ディスプレイデバイスは、前記実世界オブジェクトのうちの少なくとも1つを視認している間に、前記ユーザに発生される前記光を表示する、項目187に記載の方法。
(項目201)
前記ディスプレイデバイスは、前記少なくとも1つの実世界オブジェクトからの光が前記ユーザの眼に到達することを可能にするシースルーディスプレイデバイスである、項目200に記載の方法。
(項目202)
前記少なくとも1つのセンサを用いて、前記ユーザの頭部の移動に起因する前記ディスプレイデバイスの移動を感知することと、
前記ユーザの視界内で、前記仮想オブジェクトが、前記少なくとも1つの実世界オブジェクトに対して定常のままであるように、前記仮想オブジェクトの場所を調節することと
をさらに含む、項目187に記載の方法。
(項目203)
拡張現実ビューアであって、
少なくとも1つのセンサであって、前記少なくとも1つのセンサは、複数の実世界オブジェクトのうちの少なくとも1つの場所を感知するように位置付けられる、少なくとも1つのセンサと、
記憶デバイスと、
前記記憶デバイスに接続されるプロセッサと、
サンゴスポーナシステムであって、前記サンゴスポーナシステムは、前記記憶デバイス上にあり、前記記憶デバイス上に少なくとも第1のタイプの第1のサンゴ要素を記憶し、前記第1のサンゴ要素を含む複数のサンゴ要素から前記サンゴ群を構築するように、前記プロセッサを用いて実行可能である、サンゴスポーナシステムと、
ディスプレイモジュールであって、前記ディスプレイモジュールは、前記記憶デバイス上にあり、前記実世界オブジェクトのうちの少なくとも1つの場所に対して前記サンゴ群の所望の表示を決定するように、前記プロセッサによって実行可能である、ディスプレイモジュールと、
データストリーム発生器であって、前記データストリーム発生器は、前記記憶デバイス上にあり、前記データおよび前記所望の表示に基づいてデータストリームを発生させるように、前記プロセッサによって実行可能である、データストリーム発生器と、
光発生器であって、前記光発生器は、前記データストリームを受信し、前記データストリームに基づいて光を発生させるように、前記プロセッサに接続される、光発生器と、
ディスプレイデバイスであって、前記ディスプレイデバイスは、発生される光を受光するように、かつ前記光を前記ユーザに表示するように位置付けられ、前記光は、前記ユーザに可視であり、前記所望の表示に従ってレンダリングされる前記サンゴ群のレンダリングを生成する、ディスプレイデバイスと
を備える、拡張現実ビューア。
(項目204)
前記仮想オブジェクトは、サンゴ群である、項目203に記載の拡張現実ビューア。
(項目205)
サンゴ群スポーナであって、前記サンゴ群スポーナは、前記記憶デバイス上にあり、
体積を決定することと、
前記体積の最大高さから前記体積の床まで、前記体積内のランダム点において線トレースを実施することと、
有効場所が前記線トレースによって識別されるかどうかを決定することと、
有効場所が識別される場合、前記識別に応答して、異なるスケールおよび回転を試行し、設置毎にスコアを発生させながら、ボックストレースを実施し、ランダムクラスタが世界メッシュに重複することなく適合するであろうかどうかを試験することと、
スコアの中から最高スコアを伴う厳選された設置を決定することと、
前記最高スコアを伴う設置に前記サンゴ群を創出することと
を行うように、前記プロセッサを用いて実行可能である、サンゴ群スポーナ
をさらに備える、項目204に記載の拡張現実ビューア。
(項目206)
前記記憶デバイス上にあり、眺望を設置するように前記プロセッサを用いて実行可能である眺望設置ルーチンをさらに備え、前記体積は、前記眺望によって拘束される、項目205に記載の拡張現実ビューア。
(項目207)
前記サンゴスポーナシステムは、複数の第1のサンゴ要素から前記サンゴ群を構築するように、前記プロセッサを用いて実行可能である、項目203に記載の拡張現実ビューア。
(項目208)
前記サンゴスポーナシステムは、前記記憶デバイス上に少なくとも第2のタイプの第2のサンゴ要素を記憶するように、前記プロセッサを用いて実行可能であり、前記複数のサンゴ要素は、前記第2のサンゴ要素を含む、項目203に記載の拡張現実ビューア。
(項目209)
前記サンゴスポーナシステムは、サンゴ群設定を決定するように、前記プロセッサを用いて実行可能であり、前記プロセッサは、前記設定に従って、前記サンゴ群を構築する、項目203に記載の拡張現実ビューア。
(項目210)
前記設定は、検出される利用可能な空間であり、前記サンゴ要素の数は、前記利用可能な空間に基づいて選択される、項目209に記載の拡張現実ビューア。
(項目211)
前記サンゴスポーナシステムは、周囲光をシミュレートするように、前記プロセッサを用いて実行可能であり、前記設定は、前記周囲光であり、サンゴ要素の数は、前記周囲光に基づいて選択され、前記サンゴ要素の配向は、前記周囲光に基づいて選択される、項目209に記載の拡張現実ビューア。
(項目212)
前記サンゴスポーナシステムは、複数のサンゴ群設定を伴う前記記憶デバイス上のデータ表を含み、前記サンゴスポーナシステムは、前記複数のサンゴ群設定に従って、前記サンゴ群を構築する、項目209に記載の拡張現実ビューア。
(項目213)
前記サンゴ群設定は、個体数、種の最大計数、創出タイプ、および高さベースの割合のうちの少なくとも1つを含む、項目212に記載の拡張現実ビューア。
(項目214)
前記サンゴスポーナシステムは、設置実行可能性、成長、およびファイルへの有効点のキャッシングをチェックするための頂点クローリングおよびレイキャストアルゴリズムを含む、項目212に記載の拡張現実ビューア。
(項目215)
前記サンゴスポーナシステムは、最初に、影の通過を計算し、次いで、全てのサンゴ群のインスタンス化された静的メッシュを生成するランタイムサンゴ静的メッシュループを含む、項目214に記載の拡張現実ビューア。
(項目216)
前記サンゴスポーナシステムは、ある種が成長するべきではないボックスコライダを設置するための衝突ベースの除外構成を含む、項目215に記載の拡張現実ビューア。
(項目217)
前記ディスプレイデバイスは、前記実世界オブジェクトのうちの少なくとも1つを視認している間に、前記ユーザに発生される前記光を表示する、項目203に記載の拡張現実ビューア。
(項目218)
前記ディスプレイデバイスは、前記少なくとも1つの実世界オブジェクトからの光が前記ユーザの眼に到達することを可能にするシースルーディスプレイデバイスである、項目217に記載の拡張現実ビューア。
(項目219)
前記ユーザの頭部上に装着されるように成形される頭部装着型構造であって、前記ディスプレイデバイスは、前記頭部装着型構造に搭載され、前記少なくとも1つのセンサは、前記ユーザの頭部の移動に起因する前記ディスプレイデバイスの移動を感知するために好適である種類である、頭部装着型構造と、
位置調節モジュールであって、前記位置調節モジュールは、前記ユーザの視界内で、前記仮想オブジェクトが、前記少なくとも1つの実世界オブジェクトに対して定常のままであるように、前記仮想オブジェクトの場所を調節するように前記プロセッサによって実行可能である、位置調節モジュールと
をさらに備える、項目203に記載の拡張現実ビューア。
(項目220)
拡張現実可視化方法であって、
少なくとも1つのセンサを用いて、複数の実世界オブジェクトのうちの少なくとも1つの場所を感知することと、
前記記憶デバイス上に少なくとも第1のタイプの第1のサンゴ要素を記憶することと、
プロセッサを用いて、前記第1のサンゴ要素を含む複数のサンゴ要素から前記サンゴ群を構築することと、
前記プロセッサを用いて、前記実世界オブジェクトのうちの少なくとも1つの場所に対して前記仮想オブジェクトの所望の表示を決定することと、
前記プロセッサによって、前記データおよび前記所望の表示に基づいてデータストリームを発生させることと、
光発生器を用いて、前記データストリームに基づいて光を発生させることと、
ディスプレイデバイスを用いて、ユーザに発生される前記光を表示することであって、前記光は、前記ユーザに可視であり、前記所望の表示に従ってレンダリングされる前記サンゴ群のレンダリングを生成する、ことと
を含む、方法。
(項目221)
前記仮想オブジェクトは、サンゴ群である、項目220に記載の方法。
(項目222)
前記プロセッサを用いて、前記サンゴ群を設置することであって、前記サンゴ群を設置することは、
体積を決定することと、
前記体積の最大高さから前記体積の床まで、前記体積内のランダム点において線トレースを実施することと、
有効場所が前記線トレースによって識別されるかどうかを決定することと、
有効場所が識別される場合、前記識別に応答して、異なるスケールおよび回転を試行し、設置毎にスコアを発生させながら、ボックストレースを実施し、ランダムクラスタが世界メッシュに重複することなく適合するであろうかどうかを試験することと、
スコアの中から最高スコアを伴う厳選された設置を決定することと、
前記最高スコアを伴う設置に前記サンゴ群を創出することと
を含む、こと
をさらに含む、項目221に記載の方法。
(項目223)
眺望を設置することをさらに含み、前記体積は、前記眺望によって拘束される、項目222に記載の方法。
(項目224)
前記プロセッサは、複数の第1のサンゴ要素から前記サンゴ群を構築する、項目220に記載の方法。
(項目225)
前記記憶デバイス上に少なくとも第2のタイプの第2のサンゴ要素を記憶することをさらに含み、前記複数のサンゴ要素は、前記第2のサンゴ要素を含む、項目220に記載の方法。
(項目226)
前記プロセッサを用いて、サンゴ群設定を決定することをさらに含み、前記プロセッサは、前記設定に従って、前記サンゴ群を構築する、項目220に記載の方法。
(項目227)
前記設定は、検出される利用可能な空間であり、前記サンゴ要素の数は、前記利用可能な空間に基づいて選択される、項目226に記載の方法。
(項目228)
前記プロセッサを用いて、周囲光をシミュレートすることをさらに含み、前記設定は、前記周囲光であり、サンゴ要素の数は、前記周囲光に基づいて選択され、前記サンゴ要素の配向は、前記周囲光に基づいて選択される、項目226に記載の方法。
(項目229)
複数のサンゴ群設定を伴う前記記憶デバイス上のデータ表を記憶することをさらに含み、前記プロセッサは、前記複数のサンゴ群設定に従って、前記サンゴ群を構築する、項目226に記載の方法。
(項目230)
前記サンゴ群設定は、個体数、種の最大計数、創出タイプ、および高さベースの割合のうちの少なくとも1つを含む、項目229に記載の方法。
(項目231)
前記プロセッサを用いて、設置実行可能性、成長、およびファイルへの有効点のキャッシングをチェックするための頂点クローリングおよびレイキャストアルゴリズムを実行することをさらに含む、項目229に記載の方法。
(項目232)
前記プロセッサを用いて、最初に、影の通過を計算し、次いで、全てのサンゴ群のインスタンス化された静的メッシュを生成するランタイムサンゴ静的メッシュループを実行することをさらに含む、項目231に記載の方法。
(項目233)
前記プロセッサを用いて、ある種が成長するべきではないボックスコライダを設置するための衝突ベースの除外構成を実行することをさらに含む、項目232に記載の方法。
(項目234)
前記ディスプレイデバイスは、前記実世界オブジェクトのうちの少なくとも1つを視認している間に、前記ユーザに発生される前記光を表示する、項目220に記載の方法。
(項目235)
前記ディスプレイデバイスは、前記少なくとも1つの実世界オブジェクトからの光が前記ユーザの眼に到達することを可能にするシースルーディスプレイデバイスである、項目234に記載の方法。
(項目236)
前記少なくとも1つのセンサを用いて、前記ユーザの頭部の移動に起因する前記ディスプレイデバイスの移動を感知することと、
前記ユーザの視界内で、前記仮想オブジェクトが、前記少なくとも1つの実世界オブジェクトに対して定常のままであるように、前記仮想オブジェクトの場所を調節することと
をさらに含む、項目220に記載の方法。
The method further includes sensing, with the at least one sensor, movement of the display device due to movement of the user's head; and adjusting the location of the virtual object so that it remains stationary.
The present invention provides, for example, the following.
(Item 1)
an augmented reality viewer,
at least one sensor, said at least one sensor positioned to sense the location of at least one of a plurality of real-world objects and said user-initiated wave movement;
a storage device;
a set of data on the storage device containing mobile organism objects;
a processor connected to the storage device;
a display module, said display module residing on said storage device and executed by said processor to determine a desired display of said nomadic creature object relative to a location of at least one of said real-world objects; a display module, which may be
A data stream generator, said data stream generator residing on said storage device and executable by said processor to generate a data stream based on said data and said desired representation. a generator;
a light generator coupled to the processor such that the light generator receives the data stream and generates light based on the data stream;
A display device, said display device positioned to receive light generated and to display said light to said user, said light being visible to said user and displaying said desired display. a display device that produces a rendering of the nomadic creature object rendered according to
a wandering subroutine, said wandering subroutine residing on said storage device and executable by said processor to move said wandering creature object relative to said real-world object;
A wave movement routine, said wave movement routine residing on said storage device and executed by said processor to move said mobile biological object in response to said wave movement sensed by said at least one sensor. possible, wave transfer routines and
Augmented Reality Viewer.
(Item 2)
the data includes a plurality of nomadic creature objects, and the loitering subroutine is executable by the processor to move the plurality of nomadic creature objects relative to the real-world objects and to each other; The augmented reality viewer of item 1.
(Item 3)
Augmented reality viewer according to item 1, wherein the wave movement is initiated within a target zone and the floating object is moved out of the target zone.
(Item 4)
The augmented reality viewer of item 1, wherein the at least one sensor for sensing wave movement is a camera that detects an image of the user's hand.
(Item 5)
2. The augmented reality viewer of item 1, further comprising a handheld controller, wherein the sensor is mounted on the handheld controller held in the hand of the user.
(Item 6)
an artificial intelligence system, said artificial intelligence system residing on said storage device;
sensing wave travel;
As an artificial intelligence cluster, associating movement of said nomadic creature object with said wave movement;
determining a parameter present at a first time the action is sensed;
associating the parameter present at the first time with an artificial intelligence cluster;
sensing the parameter at a second time;
determining whether the parameter at the second time is the same as the parameter at the first time;
if a determination is made that the parameter at the second time is the same as the parameter at the second time, performing the wave-shifting routine;
an artificial intelligence system executable with said processor to perform
The augmented reality viewer of item 1, further comprising:
(Item 7)
7. The augmented reality viewer of item 6, wherein the at least one sensor comprises an eye-tracking camera and the parameter is gaze direction as determined by eye-tracking of the user using the eye-tracking camera.
(Item 8)
wherein there are a plurality of nomadic creature objects, the nomadic subroutine is executable by the processor to move the nomadic creature objects relative to the real-world object;
a personal assistant module, said personal assistant module residing on said storage device;
selecting a personal assistant nomadic creature object from among the plurality of nomadic creature objects;
moving at least one of said nomadic creature objects other than said personal assistant nomadic creature object together with said personal assistant nomadic creature object;
a personal assistant module executable with the processor to perform
The augmented reality viewer of item 1, further comprising:
(Item 9)
The mobile creature object is a first type of fish, is on the storage device, and has a movement module executable with the processor to articulate the fish body in a first back-and-forth manner. The augmented reality viewer of item 1, further comprising.
(Item 10)
Augmented reality according to item 9, wherein the movement module is executable with the processor to articulate a second type of fish body in a second anterior-posterior manner different from the first anterior-posterior manner. viewer.
(Item 11)
The moving module is
sensing slow hand movements of the user's hand with the at least one sensor;
articulating the fish body in the first back-and-forth manner at a low speed in response to slowing the movement of the hand;
sensing rapid hand movement of the user's hand with the at least one sensor;
articulating said fish body in said first back-and-forth manner at high speed in response to movement of said hand rapidly;
executable with the processor to perform
11. Augmented reality viewer according to item 10.
(Item 12)
The movement module moves the first fish to stay near the hand when the hand moves at the slow speed and to escape from the hand when the hand moves at the rapid speed. 12. Augmented reality viewer according to item 11, executable with the processor to move the first fish to.
(Item 13)
2. The augmented reality viewer of item 1, wherein the display device displays the light generated to the user while the user is viewing at least one of the real-world objects.
(Item 14)
14. Augmented reality viewer according to item 13, wherein said display device is a see-through display device allowing light from said at least one real-world object to reach said user's eyes.
(Item 15)
A head-mounted structure, the head-mounted structure shaped to be worn on the user's head, the display device mounted on the head-mounted structure, and the at least one a head-mounted structure, wherein two sensors are of a type suitable for sensing movement of the display device due to movement of the user's head;
A position adjustment module, the position adjustment module positioning the mobile biological object such that the mobile biological object remains stationary with respect to the at least one real-world object within the user's field of view. a position adjustment module executable by the processor to adjust
The augmented reality viewer of item 1, further comprising:
(Item 16)
An augmented reality visualization method comprising:
sensing the location of at least one of a plurality of real-world objects using at least one sensor;
storing data, including the mobile object, on a storage device;
determining, with a processor, a desired representation of the nomadic creature object relative to the location of at least one of the real-world objects;
generating, by the processor, a data stream based on the data and the desired representation;
generating light based on the data stream with a light generator;
displaying the generated light to a user with a display device, the light being visible to the user and producing a rendering of the mobile creature object rendered according to the desired display; and
using the processor to move the mobile creature object relative to the real-world object;
sensing wave movement initiated by the user with the at least one sensor;
using the processor to move the mobile biological object in response to the wave movement sensed by the at least one sensor;
A method, including
(Item 17)
the data includes a plurality of moving creature objects;
further comprising using the processor to move the plurality of nomadic creature objects relative to the real-world objects and relative to each other;
17. The method of item 16.
(Item 18)
17. Method according to item 16, wherein the wave movement is initiated within a target zone and the floating object is moved out of the target zone.
(Item 19)
17. Method according to item 16, wherein the at least one sensor sensing the wave movement is a camera detecting an image of the user's hand.
(Item 20)
17. Method according to item 16, wherein the sensor is mounted on a handheld controller held in the hand of the user.
(Item 21)
sensing the wave movement with the at least one sensor;
associating movement of the nomadic creature object with the wave movement, as an artificial intelligence cluster, using the processor;
determining, with the at least one processor, a parameter present at a first time the action is sensed;
associating, with the processor, the parameter present at the first time with the artificial intelligence cluster;
sensing a parameter at a second time using the at least one sensor;
determining, with the processor, whether the parameter at the second time is the same as the parameter at the first time;
If a determination is made that the parameter at the second time is the same as the parameter at the second time, performing movement of the nomadic creature object.
17. The method of item 16, further comprising.
(Item 22)
22. Method according to item 21, wherein the action is a wave motion initiated by the user and the parameter is the gaze direction of the user.
(Item 23)
using the processor to move a plurality of mobile creature objects relative to the real-world object;
selecting, with the processor, a personal assistant nomadic creature object from among the plurality of nomadic creature objects;
using the processor to move at least one of the nomadic creature objects other than the personal assistant nomadic creature object together with the personal assistant nomadic creature object;
17. The method of item 16, further comprising:
(Item 24)
the nomadic creature object is a first type of fish;
further comprising articulating the fish body in a first anterior-posterior fashion with the processor;
17. The method of item 16.
(Item 25)
25. The method of item 24, further comprising using the processor to articulate the body of the second type of fish in a second anterior-posterior manner different from the first anterior-posterior manner.
(Item 26)
sensing slow hand movements of the user's hand with the at least one sensor;
using the processor to articulate the fish body in the first back-and-forth manner at a slow speed in response to the slow movement of the hand;
sensing rapid hand movement of the user's hand with the at least one sensor;
using the processor to articulate the fish body in the first back-and-forth fashion at high speed in rapid response to movement of the hand;
26. The method of item 25, further comprising:
(Item 27)
using the processor to move the first fish to stay near the hand when the hand moves at the slow speed;
using the processor to move the first fish away from the hand when the hand moves at the rapid speed;
27. The method of item 26, further comprising:
(Item 28)
17. The method of item 16, wherein the display device displays the light generated to the user while viewing at least one of the real-world objects.
(Item 29)
29. Method according to item 28, wherein said display device is a see-through display device allowing light from said at least one real-world object to reach said user's eyes.
(Item 30)
sensing movement of the display device due to movement of the user's head with the at least one sensor;
adjusting the location of the roaming biological object such that the roaming biological object remains stationary relative to the at least one real-world object within the field of view of the user;
17. The method of item 16, further comprising:
(Item 31)
an augmented reality viewer,
at least one sensor, said at least one sensor positioned to sense the location of at least one of the plurality of real-world objects;
a storage device;
a set of data on the storage device containing mobile organism objects;
a processor connected to the storage device;
a display module, said display module residing on said storage device and executed by said processor to determine a desired display of said nomadic creature object relative to a location of at least one of said real-world objects; a display module, which may be
A data stream generator, said data stream generator residing on said storage device and executable by said processor to generate a data stream based on said data and said desired representation. a generator;
a light generator coupled to the processor such that the light generator receives the data stream and generates light based on the data stream;
A display device, said display device positioned to receive light generated and to display said light to said user, said light being visible to said user and displaying said desired display. a display device that produces a rendering of the nomadic creature object rendered according to
a wandering subroutine, said wandering subroutine residing on said storage device and executable by said processor to move said wandering creature object relative to said real-world object;
A reading agent, the reading agent being on the storage device, reading incoming information from a resource, associating the incoming information with a location of the roaming creature object relative to the real-world object, and retrieving the incoming information from the roaming creature. a read agent, executable with said processor, to communicate with said user from the location of an object;
Augmented reality viewer.
(Item 32)
32. The augmented reality viewer of item 31, wherein the reading agent activates the light source and displays the incoming information through the display.
(Item 33)
32. The augmented reality viewer of clause 31, further comprising a speaker, wherein the reading agent activates the speaker such that the user hears the incoming information.
(Item 34)
a transmission agent, said transmission agent being on said storage device;
sensing commands by the user with the at least one sensor;
sensing, with the at least one sensor, that the instruction is directed by the user to the nomadic creature object at the nomadic creature object's location relative to the real-world object;
determining outgoing communications and resources based on the instructions;
communicating the outgoing communication to the resource;
a transmission agent executable with said processor to perform
32. The augmented reality viewer of item 31, further comprising:
(Item 35)
35. Augmented reality viewer according to item 34, wherein the at least one sensor for sensing the communication is a microphone suitable for receiving voice commands from the user.
(Item 36)
the nomadic creature object is a first type of fish;
A movement module, said movement module residing on said storage device and executable with said processor to articulate said fish body in a first forward-backward fashion.
32. The augmented reality viewer of item 31, further comprising:
(Item 37)
32. Augmented reality viewer according to item 31, wherein the display device displays the light generated to the user while the user is viewing at least one of the real-world objects.
(Item 38)
38. Augmented reality viewer according to item 37, wherein said display device is a see-through display device allowing light from said at least one real-world object to reach said user's eye.
(Item 39)
A head-mounted structure shaped to be worn on the user's head, wherein the display device is mounted on the head-mounted structure and the at least one sensor is mounted on the user's head. a head-mounted structure, of a type suitable for sensing movement of the display device due to movement of a part;
A position adjustment module, the position adjustment module positioning the mobile biological object such that the mobile biological object remains stationary with respect to the at least one real-world object within the user's field of view. a position adjustment module executable by the processor to adjust
32. The augmented reality viewer of item 31, further comprising:
(Item 40)
An augmented reality visualization method comprising:
sensing the location of at least one of a plurality of real-world objects using at least one sensor;
storing data, including the mobile object, on a storage device;
determining, with a processor, a desired representation of the nomadic creature object relative to the location of at least one of the real-world objects;
generating, by the processor, a data stream based on the data and the desired representation;
generating light based on the data stream with a light generator;
displaying the generated light to a user with a display device, the light being visible to the user and producing a rendering of the mobile creature object rendered according to the desired display; and
using the processor to move the mobile creature object relative to the real-world object;
reading incoming information from a resource with the processor;
associating, with the processor, the incoming information with a location of the nomadic creature object relative to the real-world object;
using the processor to communicate the incoming call information from the location of the mobile creature object to the user;
A method, including
(Item 41)
41. The method of item 40, wherein the incoming call information is displayed to the user.
(Item 42)
41. The method of item 40, wherein the user hears the incoming call information.
(Item 43)
sensing commands by the user with the at least one sensor;
sensing, with the at least one sensor, that the instruction is directed by the user to the nomadic creature object at the nomadic creature object's location relative to the real-world object;
determining, with the processor, outgoing communications and resources based on the instructions;
communicating the outgoing communication to the resource with the processor;
41. The method of item 40, further comprising:
(Item 44)
44. The method of item 43, wherein the user speaks the command.
(Item 45)
the nomadic creature object is a first type of fish;
further comprising articulating the fish body in a first anterior-posterior fashion with the processor;
40. The method of item 40.
(Item 46)
41. Method according to item 40, wherein the display device displays the light generated to the user while the user is viewing at least one of the real-world objects.
(Item 47)
47. Method according to item 46, wherein said display device is a see-through display device allowing light from said at least one real-world object to reach said user's eye.
(Item 48)
sensing movement of the display device due to movement of the user's head with the at least one sensor;
adjusting the location of the roaming biological object such that the roaming biological object remains stationary relative to the at least one real-world object within the field of view of the user;
41. The method of item 40, further comprising:
(Item 49)
an augmented reality viewer,
at least one sensor, said at least one sensor positioned to sense the location of at least one of the plurality of real-world objects;
a storage device;
a set of data on the storage device containing mobile organism objects;
a processor connected to the storage device;
a display module, said display module residing on said storage device and executed by said processor to determine a desired display of said nomadic creature object relative to a location of at least one of said real-world objects; a display module, which may be
A data stream generator, said data stream generator residing on said storage device and executable by said processor to generate a data stream based on said data and said desired representation. a generator;
a light generator coupled to the processor such that the light generator receives the data stream and generates light based on the data stream;
A display device, said display device positioned to receive light generated and to display said light to said user, said light being visible to said user and displaying said desired display. a display device that produces a rendering of the nomadic creature object rendered according to
a wandering subroutine, said wandering subroutine residing on said storage device and executable by said processor to move said wandering creature object relative to said real-world object;
a transmission agent, said transmission agent being on said storage device;
sensing commands by the user with the at least one sensor;
sensing, with the at least one sensor, that the instruction is directed by the user to the nomadic creature object at the nomadic creature object's location relative to the real-world object;
determining outgoing communications and resources based on the instructions;
communicating the outgoing communication to the resource;
a transmission agent, executable with said processor, to perform
Augmented reality viewer.
(Item 50)
A reading agent, the reading agent being on the storage device, reading incoming information from a resource, associating the incoming information with a location of the roaming creature object relative to the real-world object, and retrieving the incoming information from the roaming creature. a read agent executable with said processor to communicate to said user from the location of an object
50. The augmented reality viewer of item 49, further comprising:
(Item 51)
51. Augmented reality viewer according to item 50, wherein the reading agent activates the light source and displays the incoming information through the display.
(Item 52)
51. The augmented reality viewer of item 50, further comprising a speaker, wherein the reading agent activates the speaker such that the user hears the incoming information.
(Item 53)
50. Augmented reality viewer according to item 49, wherein said at least one sensor for sensing said communication is a microphone suitable for receiving voice commands from said user.
(Item 54)
the nomadic creature object is a first type of fish;
A movement module, said movement module residing on said storage device and executable with said processor to articulate said fish body in a first forward-backward fashion.
50. The augmented reality viewer of item 49, further comprising:
(Item 55)
50. Augmented reality viewer according to item 49, wherein the display device displays the light generated to the user while the user is viewing at least one of the real-world objects.
(Item 56)
56. Augmented reality viewer according to item 55, wherein said display device is a see-through display device allowing light from said at least one real-world object to reach said user's eyes.
(Item 57)
A head-mounted structure shaped to be worn on the user's head, wherein the display device is mounted on the head-mounted structure and the at least one sensor is mounted on the user's head. a head-mounted structure, of a type suitable for sensing movement of the display device due to movement of a part;
A position adjustment module, wherein the position adjustment module determines the position of the mobile biological object such that the mobile biological object remains stationary with respect to the at least one real-world object within the user's field of view. a position adjustment module executable by the processor to adjust
50. The augmented reality viewer of item 49, further comprising:
(Item 58)
An augmented reality visualization method comprising:
sensing the location of at least one of a plurality of real-world objects using at least one sensor;
storing data, including the mobile object, on a storage device;
determining, with a processor, a desired representation of the nomadic creature object relative to the location of at least one of the real-world objects;
generating, by the processor, a data stream based on the data and the desired representation;
generating light based on the data stream with a light generator;
displaying the generated light to a user with a display device, the light being visible to the user and producing a rendering of the mobile creature object rendered according to the desired display; and
using the processor to move the mobile creature object relative to the real-world object;
reading incoming information from a resource with the processor;
associating, with the processor, the incoming information with a location of the nomadic creature object relative to the real-world object;
sensing commands by the user with the at least one sensor;
sensing, with the at least one sensor, that the instruction is directed by the user to the nomadic creature object at the nomadic creature object's location relative to the real-world object;
determining, with the processor, outgoing communications and resources based on the instructions;
communicating the outgoing communication to the resource with the processor;
A method, including
(Item 59)
59. The method of clause 58, further comprising using the processor to communicate the incoming information from the location of the mobile creature object to the user.
(Item 60)
60. Method according to item 59, wherein the incoming call information is displayed to the user.
(Item 61)
60. Method according to item 59, wherein the user hears the incoming call information.
(Item 62)
59. Method according to item 58, wherein the user speaks the command.
(Item 63)
the nomadic creature object is a first type of fish;
further comprising articulating the fish body in a first anterior-posterior fashion with the processor;
58. The method of item 58.
(Item 64)
59. Method according to item 58, wherein the display device displays the light generated to the user while the user is viewing at least one of the real-world objects.
(Item 65)
65. Method according to item 64, wherein said display device is a see-through display device allowing light from said at least one real-world object to reach said user's eye.
(Item 66)
sensing movement of the display device due to movement of the user's head with the at least one sensor;
adjusting the location of the roaming biological object such that the roaming biological object remains stationary relative to the at least one real-world object within the field of view of the user;
59. The method of item 58, further comprising:
(Item 67)
an augmented reality viewer,
at least one sensor positioned to sense the location of at least one of the plurality of real-world objects;
a storage device;
a set of data on the storage device containing mobile organism objects;
a processor connected to the storage device;
a display module, said display module residing on said storage device and executed by said processor to determine a desired display of said nomadic creature object relative to a location of at least one of said real-world objects; a display module, which may be
A data stream generator, said data stream generator residing on said storage device and executable by said processor to generate a data stream based on said data and said desired representation. a generator;
a light generator coupled to the processor such that the light generator receives the data stream and generates light based on the data stream;
A display device, said display device positioned to receive light generated and to display said light to said user, said light being visible to said user and displaying said desired display. a display device that produces a rendering of the nomadic creature object rendered according to
a wandering subroutine, said wandering subroutine residing on said storage device and executable by said processor to move said wandering creature object relative to said real-world object;
a transmission agent, said transmission agent being on said storage device;
sensing commands by the user with the at least one sensor;
sensing, with the at least one sensor, that the instruction is directed by the user to the nomadic creature object at the nomadic creature object's location relative to the real-world object;
determining outgoing communications and IOT devices based on the instructions;
communicating the outgoing communication to the IOT device and operating the IOT device;
a transmission agent, executable with said processor, to perform
Augmented reality viewer.
(Item 68)
68. Augmented reality viewer according to item 67, wherein the at least one sensor for sensing the communication is a microphone suitable for receiving voice commands from the user.
(Item 69)
the nomadic creature object is a first type of fish;
A movement module, said movement module residing on said storage device and executable with said processor to articulate said fish body in a first forward-backward fashion.
68. The augmented reality viewer of item 67, further comprising:
(Item 70)
68. Augmented reality viewer according to item 67, wherein the display device displays the light generated to the user while the user is viewing at least one of the real-world objects.
(Item 71)
71. Augmented reality viewer according to item 70, wherein said display device is a see-through display device allowing light from said at least one real-world object to reach said user's eyes.
(Item 72)
A head-mounted structure shaped to be worn on the user's head, wherein the display device is mounted on the head-mounted structure and the at least one sensor is mounted on the user's head. a head-mounted structure, of a type suitable for sensing movement of the display device due to movement of a part;
A position adjustment module, the position adjustment module positioning the mobile biological object such that the mobile biological object remains stationary with respect to the at least one real-world object within the user's field of view. a position adjustment module executable by the processor to adjust
68. The augmented reality viewer of item 67, further comprising:
(Item 73)
An augmented reality visualization method comprising:
sensing the location of at least one of a plurality of real-world objects using at least one sensor;
storing data, including the mobile object, on a storage device;
determining, with a processor, a desired representation of the nomadic creature object relative to the location of at least one of the real-world objects;
generating, by the processor, a data stream based on the data and the desired representation;
generating light based on the data stream with a light generator;
displaying the generated light to a user with a display device, the light being visible to the user and producing a rendering of the mobile creature object rendered according to the desired display; and
using the processor to move the mobile creature object relative to the real-world object;
reading incoming information from a resource with the processor;
associating, with the processor, the incoming information with a location of the nomadic creature object relative to the real-world object;
sensing commands by the user with the at least one sensor;
sensing, with the at least one sensor, that the instruction is directed by the user to the nomadic creature object at the nomadic creature object's location relative to the real-world object;
determining, with the processor, an originating communication and an IOT device based on the instructions;
using the processor to communicate the outgoing communication to the IOT device to operate the IOT device;
A method, including
(Item 74)
74. Method according to item 73, wherein the at least one sensor for sensing the communication is a microphone suitable for receiving voice commands from the user.
(Item 75)
the nomadic creature object is a first type of fish;
further comprising articulating the fish body in a first anterior-posterior fashion with the processor;
74. The method of item 73.
(Item 76)
74. The method of item 73, wherein the display device displays the light generated to the user while the user is viewing at least one of the real-world objects.
(Item 77)
77. Method according to item 76, wherein said display device is a see-through display device allowing light from said at least one real-world object to reach said user's eye.
(Item 78)
sensing movement of the display device due to movement of the user's head with the at least one sensor;
adjusting the location of the roaming biological object such that the roaming biological object remains stationary relative to the at least one real-world object within the field of view of the user;
74. The method of item 73, further comprising:
(Item 79)
an augmented reality viewer,
at least one sensor, said at least one sensor positioned to sense the location of at least one of the plurality of real-world objects;
a storage device;
a set of data on the storage device containing mobile organism objects;
a processor connected to the storage device;
a display module, said display module residing on said storage device and executed by said processor to determine a desired display of said nomadic creature object relative to a location of at least one of said real-world objects; a display module, which may be
A data stream generator, said data stream generator residing on said storage device and executable by said processor to generate a data stream based on said data and said desired representation. a generator;
a light generator coupled to the processor such that the light generator receives the data stream and generates light based on the data stream;
A display device, said display device positioned to receive light generated and to display said light to said user, said light being visible to said user and displaying said desired display. a display device that produces a rendering of the nomadic creature object rendered according to
a wandering subroutine, said wandering subroutine residing on said storage device and executable by said processor to move said wandering creature object relative to said real-world object;
an artificial intelligence system, said artificial intelligence system residing on said storage device;
sensing actions by the user using the at least one sensor;
performing a routine involving the mobile creature object responsive to the user's actions;
associating the routine with the action as an artificial intelligence cluster;
determining a parameter present at a first time the action is sensed;
associating the parameter present at the first time with an artificial intelligence cluster;
sensing the parameter at a second time;
determining whether the parameter at the second time is the same as the parameter at the first time;
executing the routine if a determination is made that the parameter at the second time is the same as the parameter at the first time;
an artificial intelligence system executable with said processor to perform
Augmented Reality Viewer.
(Item 80)
wherein the at least one sensor comprises an eye-tracking camera, the action is a wave motion initiated by the user, and the parameters are as determined by eye-tracking of the user using the eye-tracking camera. 80. Augmented reality viewer according to item 79, which is a gaze direction.
(Item 81)
80. Augmented reality viewer according to item 79, wherein the action is wave movement initiated within a target zone and the floating object is moved out of the target zone.
(Item 82)
the at least one sensor includes an eye-tracking camera positioned to sense the gaze direction of the user;
a gaze direction shifting routine, said gaze direction shifting routine being on said storage device, said processor to move said mobile biological object in response to said gaze direction sensed by said eye tracking camera; gaze direction shift routine, which can be executed by
80. The augmented reality viewer of item 79, further comprising:
(Item 83)
wherein there are a plurality of nomadic creature objects, the nomadic subroutine is executable by the processor to move the nomadic creature objects relative to the real-world object;
a personal assistant module, said personal assistant module residing on said storage device;
selecting a personal assistant nomadic creature object from among the plurality of nomadic creature objects;
moving at least one of said nomadic creature objects other than said personal assistant nomadic creature object together with said personal assistant nomadic creature object;
a personal assistant module executable with said processor to perform
80. The augmented reality viewer of item 79, further comprising:
(Item 84)
80. Augmented reality viewer according to item 79, wherein the display device displays the light generated to the user while the user is viewing at least one of the real-world objects.
(Item 85)
85. Augmented reality viewer according to item 84, wherein said display device is a see-through display device allowing light from said at least one real-world object to reach said user's eyes.
(Item 86)
A head-mounted structure shaped to be worn on the user's head, wherein the display device is mounted on the head-mounted structure and the at least one sensor is mounted on the user's head. a head-mounted structure, of a type suitable for sensing movement of the display device due to movement of a part;
A position adjustment module, wherein the position adjustment module determines the position of the mobile biological object such that the mobile biological object remains stationary with respect to the at least one real-world object within the user's field of view. a position adjustment module executable by the processor to adjust
80. The augmented reality viewer of item 79, further comprising:
(Item 87)
An augmented reality visualization method comprising:
sensing the location of at least one of a plurality of real-world objects using at least one sensor;
storing data, including the mobile object, on a storage device;
determining, with a processor, a desired representation of the nomadic creature object relative to the location of at least one of the real-world objects;
generating, by the processor, a data stream based on the data and the desired representation;
generating light based on the data stream with a light generator;
displaying the generated light to a user with a display device, the light being visible to the user and producing a rendering of the mobile creature object rendered according to the desired display; and
using the processor to move the mobile creature object relative to the real-world object;
sensing actions by the user with the at least one sensor;
using the processor to perform a routine involving the mobile creature object responsive to the user's actions;
associating the routine with the action, using the processor as an artificial intelligence cluster;
determining, with the at least one processor, a parameter present at a first time the action is sensed;
associating, with the processor, the parameter present at the first time with the artificial intelligence cluster;
sensing a parameter at a second time using the at least one sensor;
determining, with the processor, whether the parameter at the second time is the same as the parameter at the first time;
executing the routine if a determination is made that the parameter at the second time is the same as the parameter at the first time;
A method, including
(Item 88)
88. Method according to item 87, wherein the action is a wave motion initiated by the user and the parameter is the gaze direction of the user.
(Item 89)
88. Method according to item 87, wherein the action is wave movement initiated within a target zone and the floating object is moved out of the target zone.
(Item 90)
sensing the gaze direction of the user with the at least one sensor;
moving, by the processor, the mobile creature object in response to the gaze direction;
88. The method of item 87, further comprising:
(Item 91)
using the processor to move a plurality of mobile creature objects relative to the real-world object;
selecting, with the processor, a personal assistant nomadic creature object from among the plurality of nomadic creature objects;
using the processor to move at least one of the nomadic creature objects other than the personal assistant nomadic creature object together with the personal assistant nomadic creature object;
88. The method of item 87, further comprising:
(Item 92)
88. Method according to item 87, wherein the display device displays the light generated to the user while the user is viewing at least one of the real-world objects.
(Item 93)
93. Method according to item 92, wherein said display device is a see-through display device allowing light from said at least one real-world object to reach said user's eye.
(Item 94)
sensing movement of the display device due to movement of the user's head with the at least one sensor;
adjusting the location of the roaming biological object such that the roaming biological object remains stationary relative to the at least one real-world object within the field of view of the user;
88. The method of item 87, further comprising:
(Item 95)
an augmented reality viewer,
at least one sensor, said at least one sensor positioned to sense the location of at least one of the plurality of real-world objects;
a storage device;
a set of data on the storage device including a first type of fish;
a processor connected to the storage device;
a display module, said display module on said storage device, said processor to determine a desired display of said fish of a first type for a location of at least one of said real-world objects; a display module executable by
A data stream generator, said data stream generator residing on said storage device and executable by said processor to generate a data stream based on said data and said desired representation. a generator;
a light generator coupled to the processor such that the light generator receives the data stream and generates light based on the data stream;
A display device, said display device positioned to receive light generated and to display said light to said user, said light being visible to said user and displaying said desired display. a display device that produces a rendering of the fish of a first type rendered according to
a floating subroutine, said floating subroutine residing on said storage device and executable by said processor to move said fish of a first type relative to said real-world object;
a movement module, said movement module residing on said storage device and executable with said processor to articulate said fish body in a first anterior-posterior fashion; and
Augmented reality viewer.
(Item 96)
96. Augmented reality viewer according to item 95, wherein the loitering subroutine is executable by the processor to move the plurality of fish of the first type relative to the real-world objects and relative to each other.
(Item 97)
the at least one sensor senses the user-initiated wave movement;
a wave-moving routine, said wave-moving routine being on said storage device and adapted to move said fish of a first type in response to said wave-moving sensed by said at least one sensor; A wave transfer routine executable by a processor
96. The augmented reality viewer of item 95, further comprising:
(Item 98)
an artificial intelligence system, said artificial intelligence system residing on said storage device;
sensing actions by the user using the at least one sensor;
performing a routine involving the fish of a first type responsive to the user's action;
associating the routine with the action as an artificial intelligence cluster;
determining a parameter present at a first time the action is sensed;
associating the parameter present at the first time with an artificial intelligence cluster;
sensing the parameter at a second time;
determining whether the parameter at the second time is the same as the parameter at the first time;
executing the routine if a determination is made that the parameter at the second time is the same as the parameter at the first time;
an artificial intelligence system executable with said processor to perform
96. The augmented reality viewer of item 95, further comprising:
(Item 99)
the at least one sensor includes an eye-tracking camera positioned to sense the gaze direction of the user;
a gaze direction shifting routine, said gaze direction shifting routine being on said storage device and adapted to move said fish of a first type in response to said gaze direction sensed by said eye-tracking camera; , a gaze direction shift routine executable by the processor;
96. The augmented reality viewer of item 95, further comprising:
(Item 100)
a plurality of fish of a first type are present, the loitering subroutine is executable by the processor to move the plurality of fish of the first type relative to the real-world object;
a personal assistant module, said personal assistant module residing on said storage device;
selecting a personal assistant fish of a first type from among the plurality of fish of a first type;
moving at least one of the fish of a first type other than the personal assistant fish of the first type together with the personal assistant fish of the first type;
a personal assistant module executable with said processor to perform
96. The augmented reality viewer of item 95, further comprising:
(Item 101)
96. Augmented reality according to item 95, wherein said movement module is executable with said processor to articulate a second type of fish body in a second anterior-posterior manner different from said first anterior-posterior manner. viewer.
(Item 102)
The moving module is
sensing slow hand movements of the user's hand with the at least one sensor;
articulating the fish body in the first back-and-forth manner at a low speed in response to slowing the movement of the hand;
sensing rapid hand movement of the user's hand with the at least one sensor;
articulating said fish body in said first back-and-forth manner at high speed in response to movement of said hand rapidly;
executable with the processor to perform
101. The augmented reality viewer of item 101.
(Item 103)
The moving module is
moving the first fish to stay near the hand when the hand moves at the slow speed;
moving said first fish away from said hand when said hand moves at said rapid speed;
executable with the processor to perform
102. Augmented reality viewer according to item 102.
(Item 104)
a vertex animation routine, said vertex animation routine residing on said storage device;
storing fish of a first type mesh representing said fish of a first type;
associating a texture with the fish of a first type of mesh;
manipulating the fish of a first type mesh to cause movement of the texture and the fish of a first type within the user's field of view;
A vertex animation routine executable with the processor to perform
96. The augmented reality viewer of item 95, further comprising:
(Item 105)
105. Augmented reality viewer according to item 104, wherein said fish of a first type mesh is manipulated to articulate said fish of a first type.
(Item 106)
105. Augmented reality viewer according to item 104, wherein the same fish of a mesh of a first type is used multiple times to cause said texture and movement of said fish of a first type.
(Item 107)
96. Augmented reality viewer according to item 95, wherein the display device displays the light generated to the user while the user is viewing at least one of the real-world objects.
(Item 108)
108. Augmented reality viewer according to item 107, wherein said display device is a see-through display device that allows light from said at least one real-world object to reach said user's eyes.
(Item 109)
A head-mounted structure shaped to be worn on the user's head, wherein the display device is mounted on the head-mounted structure and the at least one sensor is mounted on the user's head. a head-mounted structure, of a type suitable for sensing movement of the display device due to movement of a part;
a position adjustment module, wherein the position adjustment module adjusts a first position such that the fish of a first type remains stationary with respect to the at least one real-world object within the field of view of the user; a position adjustment module executable by said processor to adjust the location of said fish of type
96. The augmented reality viewer of item 95, further comprising:
(Item 110)
An augmented reality visualization method comprising:
sensing the location of at least one of a plurality of real-world objects using at least one sensor;
storing data including a first type of fish on a storage device;
determining, with a processor, a desired representation of said fish of a first type for a location of at least one of said real-world objects;
generating, by the processor, a data stream based on the data and the desired representation;
generating light based on the data stream with a light generator;
Displaying the generated light to a user with a display device, the light being visible to the user and producing a rendering of the fish of a first type rendered according to the desired display. to do and
using the processor to move the fish of a first type relative to the real-world object;
articulating the fish body in a first back-and-forth fashion with the processor;
A method, including
(Item 111)
111. The method of item 110, further comprising using the processor to move the plurality of fish of the first type relative to the real-world object and relative to each other.
(Item 112)
sensing wave movement initiated by the user with the at least one sensor;
moving, by the processor, the fish of a first type in response to the wave movement sensed by the at least one sensor;
111. The method of item 110, further comprising:
(Item 113)
sensing actions by the user with the at least one sensor;
performing, with the processor, a routine involving the fish of a first type responsive to the user's actions;
associating the routine with the action, using the processor as an artificial intelligence cluster;
determining, with the at least one processor, a parameter present at a first time the action is sensed;
associating, with the processor, the parameter present at the first time with the artificial intelligence cluster;
sensing a parameter at a second time using the at least one sensor;
determining, with the processor, whether the parameter at the second time is the same as the parameter at the first time;
executing the routine if a determination is made that the parameter at the second time is the same as the parameter at the first time;
111. The method of item 110, further comprising:
(Item 114)
sensing the gaze direction of the user with the at least one sensor;
moving, by the processor, the fish of a first type in response to the gaze direction;
111. The method of item 110, further comprising:
(Item 115)
using the processor to move a plurality of fish of a first type relative to the real-world object;
selecting, with the processor, a personal assistant fish of a first type from among the plurality of fish of a first type;
using the processor to move at least one of the fish of a first type other than the personal assistant fish of the first type along with the personal assistant fish of the first type;
111. The method of item 110, further comprising:
(Item 116)
111. The method of item 110, further comprising using the processor to articulate a body of a second type of fish in a second anterior-posterior manner different from the first anterior-posterior manner.
(Item 117)
sensing slow hand movements of the user's hand with the at least one sensor;
using the processor to articulate the fish body in the first back-and-forth manner at a slow speed in response to the slow movement of the hand;
sensing rapid hand movement of the user's hand with the at least one sensor;
using the processor to articulate the fish body in the first back-and-forth fashion at high speed in rapid response to movement of the hand;
117. The method of item 116, further comprising:
(Item 118)
using the processor to move the first fish to stay near the hand when the hand moves at the slow speed;
using the processor to move the first fish away from the hand when the hand moves at the rapid speed;
118. The method of item 117, further comprising:
(Item 119)
storing, with the processor, a mesh of fish of a first type representing the fish of a first type;
associating, with the processor, a texture with the fish of a first type of mesh;
using the processor to manipulate the fish of a first type of mesh to cause movement of the texture and the fish of the first type within the field of view of the user;
111. The method of item 110, further comprising:
(Item 120)
120. Method according to item 119, wherein said fish of a first type of mesh is manipulated to articulate said fish of a first type.
(Item 121)
120. Method according to item 119, wherein the same fish of a first type of mesh is used multiple times to cause said texture and movement of said fish of a first type.
(Item 122)
111. Method according to item 110, wherein the display device displays the light generated to the user while the user is viewing at least one of the real-world objects.
(Item 123)
123. Method according to item 122, wherein said display device is a see-through display device allowing light from said at least one real-world object to reach said user's eye.
(Item 124)
sensing movement of the display device due to movement of the user's head with the at least one sensor;
adjusting the location of the fish of the first type such that the fish of the first type remains stationary with respect to the at least one real-world object within the field of view of the user;
111. The method of item 110, further comprising:
(Item 125)
an augmented reality viewer,
at least one sensor, said at least one sensor positioned to sense the location of at least one of the plurality of real-world objects;
a storage device;
a set of data on the storage device containing mobile organism objects;
a processor connected to the storage device;
a surface extraction routine, said surface extraction routine residing on said storage device and executable with said processor to identify a surface among said real-world objects;
a display module, said display module residing on said storage device and executed by said processor to determine a desired display of said nomadic creature object relative to a location of at least one of said real-world objects; a display module, which may be
A data stream generator, said data stream generator residing on said storage device and executable by said processor to generate a data stream based on said data and said desired representation. a generator;
a light generator coupled to the processor such that the light generator receives the data stream and generates light based on the data stream;
A display device, said display device positioned to receive light generated and to display said light to said user, said light being visible to said user and displaying said desired display. a display device that produces a rendering of the nomadic creature object rendered according to
a wandering subroutine, said wandering subroutine residing on said storage device and executable by said processor to move said wandering creature object relative to said real-world object;
A depth generation module, said depth generation module being on said storage device, according to said desired representation, in three-dimensional space, on the side facing said user, between said user and said nomadic creature object. a depth generation module executable with the processor to display the mobile creature object to the user, with the surface in
Augmented reality viewer.
(Item 126)
126. Augmented reality viewer according to item 125, wherein the surface is a two-dimensional surface of a wall or ceiling.
(Item 127)
126. Extension according to clause 125, wherein the depth generation module is executable with the processor to display to the user portholes in the surface through which the mobile creature object is visible to the user. reality viewer.
(Item 128)
126. Augmented reality viewer according to item 125, wherein the nomadic creature object is a 3D nomadic creature object.
(Item 129)
a vista installation routine, said vista installation routine residing on said storage device;
Capturing a space containing the real-world object;
representing the space as a real-world mesh;
collecting vertical and horizontal planes from the real-world mesh;
filtering the faces by height above the floor, dimensions, orientation, and location relative to the real-world mesh;
creating a blueprint that includes a portal frame and all content within vistas at the selected location;
cutting holes in an occlusion material of the real-world mesh material so that the user can peer into the vista through the portal;
a vista installation routine executable with said processor to perform
126. The augmented reality viewer of item 125, further comprising:
(Item 130)
126. Augmented reality viewer according to item 125, wherein the display device displays the light generated to the user while the user is viewing at least one of the real-world objects.
(Item 131)
131. Augmented reality viewer according to item 130, wherein said display device is a see-through display device that allows light from said at least one real-world object to reach said user's eyes.
(Item 132)
A head-mounted structure shaped to be worn on the user's head, wherein the display device is mounted on the head-mounted structure and the at least one sensor is mounted on the user's head. a head-mounted structure, of a type suitable for sensing movement of the display device due to movement of a part;
A position adjustment module, the position adjustment module positioning the mobile biological object such that the mobile biological object remains stationary with respect to the at least one real-world object within the user's field of view. a position adjustment module executable by the processor to adjust
126. The augmented reality viewer of item 125, further comprising:
(Item 133)
An augmented reality visualization method comprising:
sensing the location of at least one of a plurality of real-world objects using at least one sensor;
storing data, including the mobile object, on a storage device;
identifying a surface among the real-world objects with the processor;
determining, with a processor, a desired representation of the nomadic creature object relative to the location of at least one of the real-world objects;
generating, by the processor, a data stream based on the data and the desired representation;
generating light based on the data stream with a light generator;
displaying the generated light to a user with a display device, the light being visible to the user and producing a rendering of the mobile creature object rendered according to the desired display; and
using the processor to move the mobile creature object with respect to the real-world object;
including
The processor renders the mobile creature object to the user in a three-dimensional space, on the side of the surface facing the user, with the surface between the user and the mobile creature object, according to the desired display. How to display in.
(Item 134)
134. The method of item 133, wherein the surface is a two-dimensional surface of a wall or ceiling.
(Item 135)
134. The method of item 133, wherein the processor displays to the user portholes in the surface through which the mobile biological object is visible to the user.
(Item 136)
134. A method according to item 133, wherein the nomadic creature object is a three-dimensional nomadic creature object.
(Item 137)
Capturing a space containing the real-world object with the processor;
representing the space as a real-world mesh with the processor;
collecting vertical and horizontal planes from the real-world mesh with the processor;
filtering, with the processor, the faces by height above floor, size, orientation, and location relative to the real-world mesh;
creating, with the processor, a blueprint that includes a portal frame and all content within a vista at the selected location;
using the processor to cut holes in occlusion material of the real-world mesh material so that the user can peer into the vista through the portal;
134. The method of item 133, further comprising:
(Item 138)
134. The method of item 133, wherein the display device displays the light generated to the user while the user is viewing at least one of the real-world objects.
(Item 139)
139. Method according to item 138, wherein said display device is a see-through display device allowing light from said at least one real-world object to reach said user's eye.
(Item 140)
sensing movement of the display device due to movement of the user's head with the at least one sensor;
adjusting the location of the roaming biological object such that the roaming biological object remains stationary relative to the at least one real-world object within the field of view of the user;
134. The method of item 133, further comprising:
(Item 141)
an augmented reality viewer,
at least one sensor, said at least one sensor positioned to sense the location of at least one of the plurality of real-world objects;
a storage device;
a set of data on the storage device containing mobile organism objects;
a processor connected to the storage device;
a surface extraction routine, said surface extraction routine residing on said storage device and executable with said processor to identify a surface among said real-world objects;
a display module, said display module residing on said storage device and executed by said processor to determine a desired display of said nomadic creature object relative to a location of at least one of said real-world objects; a display module, which may be
A data stream generator, said data stream generator residing on said storage device and executable by said processor to generate a data stream based on said data and said desired representation. a generator;
a light generator coupled to the processor such that the light generator receives the data stream and generates light based on the data stream;
A display device, said display device positioned to receive light generated and to display said light to said user, said light being visible to said user and displaying said desired display. a display device that produces a rendering of the nomadic creature object rendered according to
a wandering subroutine, said wandering subroutine residing on said storage device and executable by said processor to move said wandering creature object relative to said real-world object;
a vista installation routine, said vista installation routine residing on said storage device;
Capturing a space containing the real-world object;
representing the space as a real-world mesh;
collecting vertical and horizontal planes from the real-world mesh;
filtering the faces by height above the floor, dimensions, orientation, and location relative to the real-world mesh;
creating a blueprint containing a portal frame and all content within the vista at the selected location;
cutting holes in an occlusion material of the real-world mesh material so that the user can peer into the vista through the portal;
a vista installation routine executable with said processor to perform
Augmented reality viewer.
(Item 142)
142. Augmented reality viewer according to item 141, wherein said surface is a two-dimensional surface of a wall or ceiling.
(Item 143)
A depth generation module, said depth generation module being on said storage device, according to said desired representation, in three-dimensional space, on the side facing said user, between said user and said nomadic creature object. depth generation module executable with the processor to display the mobile creature object to the user, with the surface in
141. The augmented reality viewer of item 141, further comprising:
(Item 144)
144. Extension according to clause 143, wherein the depth generation module is executable with the processor to display to the user portholes in the surface through which the mobile creature object is visible to the user. reality viewer.
(Item 145)
144. The augmented reality viewer of item 143, wherein the nomadic creature object is a three-dimensional nomadic creature object.
(Item 146)
142. Augmented reality viewer according to item 141, wherein the display device displays the light generated to the user while the user is viewing at least one of the real-world objects.
(Item 147)
147. Augmented reality viewer according to item 146, wherein said display device is a see-through display device allowing light from said at least one real-world object to reach said user's eyes.
(Item 148)
A head-mounted structure shaped to be worn on the user's head, wherein the display device is mounted on the head-mounted structure and the at least one sensor is mounted on the user's head. a head-mounted structure, of a type suitable for sensing movement of the display device due to movement of a part;
A position adjustment module, the position adjustment module positioning the mobile biological object such that the mobile biological object remains stationary with respect to the at least one real-world object within the user's field of view. a position adjustment module executable by the processor to adjust
141. The augmented reality viewer of item 141, further comprising:
(Item 149)
An augmented reality visualization method comprising:
sensing the location of at least one of a plurality of real-world objects using at least one sensor;
storing data, including the mobile object, on a storage device;
identifying a surface among the real-world objects with the processor;
determining, with a processor, a desired representation of the nomadic creature object relative to the location of at least one of the real-world objects;
generating, by the processor, a data stream based on the data and the desired representation;
generating light based on the data stream with a light generator;
displaying the generated light to a user with a display device, the light being visible to the user and producing a rendering of the mobile creature object rendered according to the desired display; and
using the processor to move the mobile creature object relative to the real-world object;
capturing, with the processor, a space containing the real-world object;
representing the space as a real-world mesh with the processor;
collecting vertical and horizontal planes from the real-world mesh with the processor;
filtering, with the processor, the faces by height above floor, size, orientation, and location relative to the real-world mesh;
creating, with the processor, a blueprint that includes a portal frame and all content within a vista at the selected location;
using the processor to cut holes in occlusion material of the real-world mesh material so that the user can peer into the vista through the portal;
A method, including
(Item 150)
149. Method according to item 149, wherein the surface is a two-dimensional surface of a wall or ceiling.
(Item 151)
The processor renders the mobile creature object to the user in a three-dimensional space, on the side of the surface facing the user, with the surface between the user and the mobile creature object, according to the desired display. 149. The method of item 149, wherein
(Item 152)
152. The method of item 151, wherein the processor displays to the user portholes in the surface through which the mobile biological object is visible to the user.
(Item 153)
152. A method according to item 151, wherein the nomadic creature object is a three-dimensional nomadic creature object.
(Item 154)
150. The method of item 149, wherein the display device displays the light generated to the user while the user is viewing at least one of the real-world objects.
(Item 155)
155. Method according to item 154, wherein said display device is a see-through display device allowing light from said at least one real-world object to reach said user's eye.
(Item 156)
sensing movement of the display device due to movement of the user's head with the at least one sensor;
adjusting the location of the roaming biological object such that the roaming biological object remains stationary relative to the at least one real-world object within the field of view of the user;
149. The method of item 149, further comprising:
(Item 157)
an augmented reality viewer,
at least one sensor, said at least one sensor positioned to sense the location of at least one of the plurality of real-world objects;
a storage device;
a set of data on the storage device including virtual objects;
a processor connected to the storage device;
a display module, said display module residing on said storage device and executable by said processor to determine a desired display of said virtual object relative to at least one location of said real-world object a display module that is
A data stream generator, said data stream generator residing on said storage device and executable by said processor to generate a data stream based on said data and said desired representation. a generator;
a light generator coupled to the processor such that the light generator receives the data stream and generates light based on the data stream;
A display device, said display device positioned to receive light generated and to display said light to said user, said light being visible to said user and displaying said desired display. a display device that produces a rendering of the virtual object rendered according to
a vertex animation routine, said vertex animation routine residing on said storage device;
storing a virtual object mesh representing the virtual object;
associating a texture with the virtual object mesh;
manipulating the virtual object mesh to cause movement of the texture and the virtual object within the user's field of view;
a vertex animation routine executable with the processor to perform
Augmented reality viewer.
(Item 158)
the nomadic creature object is a first type of fish;
A movement module, said movement module residing on said storage device and executable with said processor to articulate said fish body in a first forward-backward fashion.
158. The augmented reality viewer of item 157, further comprising:
(Item 159)
158. Augmented reality viewer according to item 157, wherein the virtual object mesh is manipulated to articulate the virtual object.
(Item 160)
158. Augmented reality viewer according to item 157, wherein the same virtual object mesh is used multiple times to cause movement of said texture and said virtual object.
(Item 161)
158. Augmented reality viewer according to item 157, wherein said display device displays said light generated to said user while viewing at least one of said real-world objects.
(Item 162)
162. Augmented reality viewer according to item 161, wherein said display device is a see-through display device allowing light from said at least one real-world object to reach said user's eyes.
(Item 163)
A head-mounted structure shaped to be worn on the user's head, wherein the display device is mounted on the head-mounted structure and the at least one sensor is mounted on the user's head. a head-mounted structure, of a type suitable for sensing movement of the display device due to movement of a part;
a position adjustment module, wherein the position adjustment module adjusts the location of the virtual object such that the virtual object remains stationary with respect to the at least one real-world object within the field of view of the user; a position adjustment module executable by said processor to
158. The augmented reality viewer of item 157, further comprising:
(Item 164)
An augmented reality visualization method comprising:
sensing the location of at least one of a plurality of real-world objects using at least one sensor;
storing data, including virtual objects, on a storage device;
determining, with a processor, a desired representation of the virtual object for at least one location of the real-world object;
generating, by the processor, a data stream based on the data and the desired representation;
generating light based on the data stream with a light generator;
displaying said light generated to a user with a display device, said light being visible to said user and producing a rendering of said virtual object rendered according to said desired display; and,
storing, with the processor, a virtual object mesh representing the virtual object;
associating, with the processor, a texture with the virtual object mesh;
using the processor to manipulate the virtual object mesh to cause movement of the texture and the virtual object within the user's field of view;
A method, including
(Item 165)
the nomadic creature object is a first type of fish;
further comprising articulating the fish body in a first anterior-posterior fashion with the processor;
164. The method of item 164.
(Item 166)
165. Method according to item 164, wherein the virtual object mesh is manipulated to articulate the virtual object.
(Item 167)
165. Method according to item 164, wherein the same virtual object mesh is used multiple times to cause movement of said texture and said virtual object.
(Item 168)
165. Method according to item 164, wherein said display device displays said light generated to said user while viewing at least one of said real-world objects.
(Item 169)
169. Method according to item 168, wherein said display device is a see-through display device allowing light from said at least one real-world object to reach said user's eye.
(Item 170)
sensing movement of the display device due to movement of the user's head with the at least one sensor;
adjusting the location of the virtual object such that the virtual object remains stationary with respect to the at least one real-world object within the field of view of the user;
165. The method of item 164, further comprising:
(Item 171)
an augmented reality viewer,
at least one sensor, said at least one sensor positioned to sense the location of at least one of the plurality of real-world objects;
a storage device;
a set of data on the storage device including coral colony elements;
a processor connected to the storage device;
a coral colony spawner, said coral colony spawner being on said storage device;
determining the volume;
performing a line trace at a random point within the volume from the maximum height of the volume to the floor of the volume;
determining whether a valid location is identified by the line trace;
If a valid location is identified, a box trace is performed while trying different scales and rotations, generating a score for each placement, in response to said identification, to fit random clusters to the world mesh without overlap. and testing whether
determining the selected installation with the highest score among the scores;
creating said coral colony in a setting with said highest score;
a coral colony spawner executable with the processor to perform
A data stream generator, said data stream generator residing on said storage device and executable by said processor to generate a data stream based on said data and said desired representation. a generator;
a light generator coupled to the processor such that the light generator receives the data stream and generates light based on the data stream;
A display device, said display device positioned to receive light generated and to display said light to said user, said light being visible to said user and displaying said desired display. a display device that produces a rendering of said coral colony rendered according to
Augmented Reality Viewer.
(Item 172)
172. The augmented reality viewer of item 171, further comprising a view setting routine residing on the storage device and executable with the processor to set a view, wherein the volume is constrained by the view.
(Item 173)
a coral spawner system, said coral spawner system being on said storage device;
storing at least a first type of first coral element on the storage device;
constructing the coral colony from a plurality of coral elements including the first coral element;
a coral spawner system executable with said processor to perform
171. The augmented reality viewer of item 171, further comprising:
(Item 174)
174. The augmented reality viewer of clause 173, wherein the coral spawner system is executable with the processor to construct the coral colony from a plurality of first coral elements.
(Item 175)
The coral spawner system is executable with the processor to store second coral elements of at least a second type on the storage device, wherein the plurality of coral elements comprises the second coral elements. 174. The augmented reality viewer of item 173, comprising a coral element.
(Item 176)
174. The augmented reality viewer of clause 173, wherein the coral spawner system is executable with the processor to determine coral colony settings, and wherein the processor constructs the coral colony according to the settings.
(Item 177)
177. The augmented reality viewer of item 176, wherein the setting is detected available space, and wherein the number of coral elements is selected based on the available space.
(Item 178)
The coral spawner system is executable with the processor to simulate ambient light, the setting is the ambient light, and the number of coral elements is selected based on the ambient light. 177. The augmented reality viewer of item 176, wherein the orientation of the coral elements is selected based on the ambient light.
(Item 179)
177. The method of clause 176, wherein the coral spawner system includes a data table on the storage device with a plurality of coral colony settings, the coral spawner system constructing the coral colony according to the plurality of coral colony settings. Augmented Reality Viewer.
(Item 180)
179. The augmented reality viewer of clause 179, wherein the coral community settings include at least one of population count, maximum species count, generation type, and height-based percentage.
(Item 181)
180. The augmented reality viewer of item 179, wherein said coral spawner system includes vertex crawling and raycasting algorithms for checking installation feasibility, growth, and caching of valid points to file.
(Item 182)
182. Augmented reality according to item 181, wherein the coral spawner system includes a runtime coral static mesh loop that first computes shadow passages and then generates instanced static meshes of all coral colonies. viewer.
(Item 183)
183. The augmented reality viewer of item 182, wherein the coral spawner system includes a collision-based exclusion configuration for placing box colliders where species should not grow.
(Item 184)
172. Augmented reality viewer according to item 171, wherein said display device displays said light generated to said user while viewing at least one of said real-world objects.
(Item 185)
185. Augmented reality viewer according to item 184, wherein said display device is a see-through display device that allows light from said at least one real-world object to reach said user's eyes.
(Item 186)
A head-mounted structure shaped to be worn on the user's head, wherein the display device is mounted on the head-mounted structure and the at least one sensor is mounted on the user's head. a head-mounted structure, of a type suitable for sensing movement of the display device due to movement of a part;
a position adjustment module, wherein the position adjustment module adjusts the location of the virtual object such that the virtual object remains stationary with respect to the at least one real-world object within the field of view of the user; a position adjustment module executable by said processor to
171. The augmented reality viewer of item 171, further comprising:
(Item 187)
An augmented reality visualization method comprising:
sensing the location of at least one of a plurality of real-world objects using at least one sensor;
storing data including elements of coral communities on a storage device;
Placing the coral colony using the processor, wherein placing the coral colony comprises:
determining the volume;
performing a line trace at a random point within the volume from the maximum height of the volume to the floor of the volume;
determining whether a valid location is identified by the line trace;
If a valid location is identified, a box trace is performed while trying different scales and rotations, generating a score for each placement, in response to said identification, to fit random clusters to the world mesh without overlap. and testing whether
determining the selected installation with the highest score among the scores;
creating said coral colony in a setting with said highest score;
including
generating, by the processor, a data stream based on the data and the desired representation;
generating light based on the data stream with a light generator;
displaying said light generated to a user with a display device, said light being visible to said user and producing a rendering of said virtual object rendered according to said desired display; and
A method, including
(Item 188)
188. The method of item 187, further comprising installing a vista, wherein the volume is constrained by the vista.
(Item 189)
storing at least a first type of first coral element on the storage device;
constructing, with the processor, the coral colony from a plurality of coral elements including the first coral element;
188. The method of item 187, further comprising:
(Item 190)
190. The method of item 189, wherein the processor constructs the coral colony from a plurality of first coral elements.
(Item 191)
190. The method of item 189, further comprising storing at least a second type of second coral element on the storage device, wherein the plurality of coral elements includes the second coral element.
(Item 192)
190. The method of item 189, further comprising determining coral colony settings with the processor, wherein the processor builds the coral colony according to the settings.
(Item 193)
193. The method of item 192, wherein the setting is detected available space, and wherein the number of coral elements is selected based on the available space.
(Item 194)
Simulating ambient light with the processor, wherein the setting is the ambient light, the number of coral elements is selected based on the ambient light, and the orientation of the coral elements is determined by the 193. Method according to item 192, selected based on ambient light.
(Item 195)
193. The method of item 192, further comprising storing a data table on the storage device with a plurality of coral colony settings, wherein the processor constructs the coral colony according to the plurality of coral colony settings.
(Item 196)
196. The method of item 195, wherein the coral community settings include at least one of population numbers, maximum species counts, generation types, and height-based proportions.
(Item 197)
196. The method of item 195, further comprising using said processor to perform vertex crawling and raycasting algorithms for checking installation feasibility, growth, and caching of valid points to files.
(Item 198)
in item 197, further comprising using said processor to first compute shadow passages and then run a runtime coral static mesh loop that generates instantiated static meshes for all coral colonies. described method.
(Item 199)
199. The method of item 198, further comprising using the processor to perform a collision-based exclusion configuration for placing box colliders where species should not grow.
(Item 200)
188. Method according to item 187, wherein said display device displays said light generated to said user while viewing at least one of said real-world objects.
(Item 201)
201. The method of item 200, wherein the display device is a see-through display device that allows light from the at least one real-world object to reach the user's eye.
(Item 202)
sensing movement of the display device due to movement of the user's head with the at least one sensor;
adjusting the location of the virtual object such that the virtual object remains stationary with respect to the at least one real-world object within the field of view of the user;
188. The method of item 187, further comprising:
(Item 203)
an augmented reality viewer,
at least one sensor, said at least one sensor positioned to sense the location of at least one of the plurality of real-world objects;
a storage device;
a processor connected to the storage device;
A coral spawner system, said coral spawner system being on said storage device and storing on said storage device at least a first coral element of a first type, comprising said first coral element a coral spawner system executable with the processor to build the coral colony from a plurality of coral elements;
a display module, said display module residing on said storage device and executable by said processor to determine a desired representation of said coral colony relative to the location of at least one of said real-world objects a display module that is
A data stream generator, said data stream generator residing on said storage device and executable by said processor to generate a data stream based on said data and said desired representation. a generator;
a light generator coupled to the processor such that the light generator receives the data stream and generates light based on the data stream;
A display device, said display device positioned to receive light generated and to display said light to said user, said light being visible to said user and displaying said desired display. a display device that produces a rendering of said coral colony rendered according to
Augmented reality viewer.
(Item 204)
204. Augmented reality viewer according to item 203, wherein the virtual object is a coral colony.
(Item 205)
a coral colony spawner, said coral colony spawner being on said storage device;
determining the volume;
performing a line trace at a random point within the volume from the maximum height of the volume to the floor of the volume;
determining whether a valid location is identified by the line trace;
If a valid location is identified, a box trace is performed while trying different scales and rotations, generating a score for each placement, in response to said identification, to fit random clusters to the world mesh without overlap. and testing whether
determining the selected installation with the highest score among the scores;
creating said coral colony in a setting with said highest score;
a coral colony spawner executable with said processor to perform
204. The augmented reality viewer of item 204, further comprising:
(Item 206)
206. The augmented reality viewer of item 205, further comprising a view setting routine residing on the storage device and executable with the processor to set a view, wherein the volume is constrained by the view.
(Item 207)
204. The augmented reality viewer of clause 203, wherein the coral spawner system is executable with the processor to construct the coral colony from a plurality of first coral elements.
(Item 208)
The coral spawner system is executable with the processor to store second coral elements of at least a second type on the storage device, wherein the plurality of coral elements comprises the second coral elements. 204. The augmented reality viewer of item 203, including a coral element.
(Item 209)
204. The augmented reality viewer of item 203, wherein the coral spawner system is executable with the processor to determine coral colony settings, and wherein the processor constructs the coral colony according to the settings.
(Item 210)
210. The augmented reality viewer of item 209, wherein the setting is detected available space, and wherein the number of coral elements is selected based on the available space.
(Item 211)
The coral spawner system is executable with the processor to simulate ambient light, the setting is the ambient light, and the number of coral elements is selected based on the ambient light. 209. The augmented reality viewer of item 209, wherein the orientation of the coral elements is selected based on the ambient light.
(Item 212)
210. According to item 209, wherein the coral spawner system includes a data table on the storage device with a plurality of coral colony settings, and wherein the coral spawner system constructs the coral colony according to the plurality of coral colony settings. Augmented Reality Viewer.
(Item 213)
213. The augmented reality viewer of clause 212, wherein the coral community settings include at least one of number of individuals, maximum species count, generation type, and height-based percentage.
(Item 214)
213. The augmented reality viewer of item 212, wherein the coral spawner system includes vertex crawling and raycasting algorithms for checking installation feasibility, growth, and caching of valid points to file.
(Item 215)
215. Augmented reality according to item 214, wherein the coral spawner system includes a runtime coral static mesh loop that first computes shadow passages and then generates instanced static meshes of all coral colonies. viewer.
(Item 216)
216. The augmented reality viewer of clause 215, wherein the coral spawner system includes a collision-based exclusion configuration for placing box colliders where species should not grow.
(Item 217)
204. Augmented reality viewer according to item 203, wherein the display device displays the light generated to the user while viewing at least one of the real-world objects.
(Item 218)
218. Augmented reality viewer according to item 217, wherein said display device is a see-through display device that allows light from said at least one real-world object to reach said user's eyes.
(Item 219)
A head-mounted structure shaped to be worn on the user's head, wherein the display device is mounted on the head-mounted structure and the at least one sensor is mounted on the user's head. a head-mounted structure, of a type suitable for sensing movement of the display device due to movement of a part;
a position adjustment module, wherein the position adjustment module adjusts the location of the virtual object such that the virtual object remains stationary with respect to the at least one real-world object within the field of view of the user; a position adjustment module executable by said processor to
204. The augmented reality viewer of item 203, further comprising:
(Item 220)
An augmented reality visualization method comprising:
sensing the location of at least one of a plurality of real-world objects using at least one sensor;
storing at least a first type of first coral element on the storage device;
constructing, with a processor, the coral colony from a plurality of coral elements including the first coral element;
determining, with the processor, a desired representation of the virtual object for at least one location of the real-world object;
generating, by the processor, a data stream based on the data and the desired representation;
generating light based on the data stream with a light generator;
displaying said light generated to a user with a display device, said light being visible to said user and producing a rendering of said coral colony rendered according to said desired display; and
A method, including
(Item 221)
221. The method of item 220, wherein the virtual object is a coral colony.
(Item 222)
Placing the coral colony using the processor, wherein placing the coral colony comprises:
determining the volume;
performing a line trace at a random point within the volume from the maximum height of the volume to the floor of the volume;
determining whether a valid location is identified by the line trace;
If a valid location is identified, a box trace is performed while trying different scales and rotations, generating a score for each placement, in response to said identification, to fit random clusters to the world mesh without overlap. and testing whether
determining the selected installation with the highest score among the scores;
creating said coral colony in a setting with said highest score;
including
222. The method of item 221, further comprising:
(Item 223)
223. The method of item 222, further comprising installing a vista, wherein the volume is constrained by the vista.
(Item 224)
221. The method of item 220, wherein the processor constructs the coral colony from a plurality of first coral elements.
(Item 225)
221. The method of item 220, further comprising storing at least a second type of second coral element on the storage device, wherein the plurality of coral elements includes the second coral element.
(Item 226)
221. The method of item 220, further comprising determining coral colony settings with the processor, wherein the processor builds the coral colony according to the settings.
(Item 227)
227. The method of item 226, wherein the setting is the available space to be detected and the number of coral elements is selected based on the available space.
(Item 228)
Simulating ambient light with the processor, wherein the setting is the ambient light, the number of coral elements is selected based on the ambient light, and the orientation of the coral elements is determined by the 226. Method according to item 226, selected based on ambient light.
(Item 229)
227. The method of item 226, further comprising storing a data table on the storage device with a plurality of coral colony settings, wherein the processor constructs the coral colony according to the plurality of coral colony settings.
(Item 230)
230. The method of item 229, wherein the coral community settings include at least one of population numbers, maximum species counts, generation types, and height-based proportions.
(Item 231)
230. The method of item 229, further comprising using said processor to perform vertex crawling and raycasting algorithms for checking installation feasibility, growth, and caching of valid points to files.
(Item 232)
in item 231, further comprising using said processor to first compute shadow passages and then run a runtime coral static mesh loop that generates instantiated static meshes for all coral colonies. described method.
(Item 233)
233. The method of item 232, further comprising using the processor to perform a collision-based exclusion configuration for placing box colliders where species should not grow.
(Item 234)
221. Method according to item 220, wherein the display device displays the light generated to the user while viewing at least one of the real-world objects.
(Item 235)
235. The method of item 234, wherein the display device is a see-through display device that allows light from the at least one real-world object to reach the user's eye.
(Item 236)
sensing movement of the display device due to movement of the user's head with the at least one sensor;
adjusting the location of the virtual object such that the virtual object remains stationary with respect to the at least one real-world object within the field of view of the user;
220. The method of item 220, further comprising:

Claims (16)

拡張現実ビューアであって、
少なくとも1つのセンサであって、前記少なくとも1つのセンサは、複数の実世界オブジェクトのうちの少なくとも1つの場所を感知するように位置付けられる、少なくとも1つのセンサと、
記憶デバイスと、
遊動生物オブジェクトを含む前記記憶デバイス上のデータのセットと、
前記記憶デバイスに接続されるプロセッサと、
表面抽出ルーチンであって、前記表面抽出ルーチンは、前記記憶デバイス上にあり、前記実世界オブジェクトの中から表面を識別するように、前記プロセッサを用いて実行可能である、表面抽出ルーチンと、
ディスプレイモジュールであって、前記ディスプレイモジュールは、前記記憶デバイス上にあり、前記実世界オブジェクトのうちの少なくとも1つの場所に対して前記遊動生物オブジェクトの所望の表示を決定するように、前記プロセッサによって実行可能である、ディスプレイモジュールと、
データストリーム発生器であって、前記データストリーム発生器は、前記記憶デバイス上にあり、前記データおよび前記所望の表示に基づいてデータストリームを発生させるように、前記プロセッサによって実行可能である、データストリーム発生器と、
光発生器であって、前記光発生器は、前記データストリームを受信し、前記データストリームに基づいて光を発生させるように、前記プロセッサに接続される、光発生器と、
ディスプレイデバイスであって、前記ディスプレイデバイスは、発生される前記光を受光するように、かつ前記光を前記ユーザに表示するように位置付けられ、前記光は、前記ユーザに可視であり、前記所望の表示に従ってレンダリングされる前記遊動生物オブジェクトのレンダリングを生成する、ディスプレイデバイスと、
遊動サブルーチンであって、前記遊動サブルーチンは、前記記憶デバイス上にあり、前記実世界オブジェクトに対して前記遊動生物オブジェクトを移動させるように、前記プロセッサによって実行可能である、遊動サブルーチンと、
奥行生成モジュールであって、前記奥行生成モジュールは、前記記憶デバイス上にあり、前記所望の表示に従って、3次元空間内で、前記ユーザに対向する側で、前記ユーザと前記遊動生物オブジェクトとの間に前記表面を伴って、前記遊動生物オブジェクトを前記ユーザに表示するように前記プロセッサを用いて実行可能である、奥行生成モジュールと
を備える、拡張現実ビューア。
an augmented reality viewer,
at least one sensor, said at least one sensor positioned to sense the location of at least one of the plurality of real-world objects;
a storage device;
a set of data on the storage device containing mobile organism objects;
a processor connected to the storage device;
a surface extraction routine, said surface extraction routine residing on said storage device and executable with said processor to identify a surface among said real-world objects;
a display module, said display module residing on said storage device and executed by said processor to determine a desired display of said nomadic creature object relative to a location of at least one of said real-world objects; a display module, which may be
A data stream generator, said data stream generator residing on said storage device and executable by said processor to generate a data stream based on said data and said desired representation. a generator;
a light generator coupled to the processor such that the light generator receives the data stream and generates light based on the data stream;
A display device, said display device positioned to receive said light generated and to display said light to said user, said light being visible to said user and said desired a display device that produces a rendering of the ambulatory creature object rendered according to the display;
a wandering subroutine, said wandering subroutine residing on said storage device and executable by said processor to move said wandering creature object relative to said real-world object;
A depth generation module, said depth generation module being on said storage device, according to said desired representation, in three-dimensional space, on the side facing said user, between said user and said nomadic creature object. an augmented reality viewer, comprising: a depth generation module executable with the processor to display the mobile creature object to the user, with the surface on.
前記表面は、壁または天井の2次元表面である、請求項に記載の拡張現実ビューア。 2. The augmented reality viewer of Claim 1 , wherein the surface is a two-dimensional surface of a wall or ceiling. 前記奥行生成モジュールは、それを通して前記遊動生物オブジェクトが前記ユーザに可視である前記表面内のポート孔を前記ユーザに表示するように、前記プロセッサを用いて実行可能である、請求項に記載の拡張現実ビューア。 2. The depth generating module of claim 1 , wherein the depth generation module is executable with the processor to display to the user portholes in the surface through which the mobile creature object is visible to the user. Augmented reality viewer. 前記遊動生物オブジェクトは、3次元遊動生物オブジェクトである、請求項に記載の拡張現実ビューア。 2. The augmented reality viewer of claim 1 , wherein the nomadic creature object is a 3D nomadic creature object. 眺望設置ルーチンであって、前記眺望設置ルーチンは、前記記憶デバイス上にあり、
前記実世界オブジェクトを含む空間を捕捉することと、
実世界メッシュとして前記空間を表すことと、
前記実世界メッシュから垂直および水平面を収集することと、
床からの高さ、寸法、配向、および前記実世界メッシュに対する場所によって、前記面をフィルタ処理することと、
ポータルフレームと、前記選択場所における眺望内の全てのコンテンツとを含む青写真を創出することと、
前記ユーザが、前記ポータルを通して前記眺望を覗き込み得るように、前記実世界メッシュ材料のオクルージョン材料に孔を切開することと
を行うように、前記プロセッサを用いて実行可能である、眺望設置ルーチン
をさらに備える、請求項に記載の拡張現実ビューア。
a vista installation routine, said vista installation routine residing on said storage device;
Capturing a space containing the real-world object;
representing the space as a real-world mesh;
collecting vertical and horizontal planes from the real-world mesh;
filtering the faces by height above the floor, dimensions, orientation, and location relative to the real-world mesh;
creating a blueprint that includes a portal frame and all content within vistas at the selected location;
cutting a hole in an occlusion material of the real-world mesh material so that the user can peer into the vista through the portal; The augmented reality viewer of claim 1 , further comprising.
前記ディスプレイデバイスは、前記ユーザが前記実世界オブジェクトのうちの少なくとも1つを視認している間に、前記ユーザに発生される前記光を表示する、請求項に記載の拡張現実ビューア。 2. The augmented reality viewer of claim 1 , wherein said display device displays said light generated to said user while said user is viewing at least one of said real-world objects. 前記ディスプレイデバイスは、前記少なくとも1つの実世界オブジェクトからの光が前記ユーザの眼に到達することを可能にするシースルーディスプレイデバイスである、請求項に記載の拡張現実ビューア。 7. The augmented reality viewer of claim 6 , wherein said display device is a see-through display device that allows light from said at least one real-world object to reach said user's eye. 前記ユーザの頭部上に装着されるように成形される頭部装着型構造であって、前記ディスプレイデバイスは、前記頭部装着型構造に搭載され、前記少なくとも1つのセンサは、前記ユーザの頭部の移動に起因する前記ディスプレイデバイスの移動を感知するために好適である種類である、頭部装着型構造と、
位置調節モジュールであって、前記位置調節モジュールは、前記ユーザの視界内で、前記遊動生物オブジェクトが、前記少なくとも1つの実世界オブジェクトに対して定常のままであるように、前記遊動生物オブジェクトの場所を調節するように前記プロセッサによって実行可能である、位置調節モジュールと
をさらに備える、請求項に記載の拡張現実ビューア。
A head-mounted structure shaped to be worn on the user's head, wherein the display device is mounted on the head-mounted structure and the at least one sensor is mounted on the user's head. a head-mounted structure, of a type suitable for sensing movement of the display device due to movement of a part;
A position adjustment module, the position adjustment module positioning the mobile biological object such that the mobile biological object remains stationary with respect to the at least one real-world object within the user's field of view. 2. The augmented reality viewer of claim 1 , further comprising: a position adjustment module executable by the processor to adjust .
拡張現実可視化方法であって、
少なくとも1つのセンサを用いて、複数の実世界オブジェクトのうちの少なくとも1つの場所を感知することと、
記憶デバイス上に、遊動生物オブジェクトを含むデータを記憶することと、
前記プロセッサを用いて、前記実世界オブジェクトの中から表面を識別することと、
プロセッサを用いて、前記実世界オブジェクトのうちの少なくとも1つの場所に対して前記遊動生物オブジェクトの所望の表示を決定することと、
前記プロセッサによって、前記データおよび前記所望の表示に基づいてデータストリームを発生させることと、
光発生器を用いて、前記データストリームに基づいて光を発生させることと、
ディスプレイデバイスを用いて、ユーザに発生される前記光を表示することであって、前記光は、前記ユーザに可視であり、前記所望の表示に従ってレンダリングされる前記遊動生物オブジェクトのレンダリングを生成する、ことと、
前記プロセッサを用いて、前記実世界オブジェクトに対して前記遊動生物オブジェクトを移動させることと
を含み、
前記プロセッサは、前記所望の表示に従って、3次元空間内で、前記ユーザに対向する表面の側で、前記ユーザと前記遊動生物オブジェクトとの間に前記表面を伴って、前記遊動生物オブジェクトを前記ユーザに表示する、方法。
An augmented reality visualization method comprising:
sensing the location of at least one of a plurality of real-world objects using at least one sensor;
storing data, including the mobile object, on a storage device;
identifying a surface among the real-world objects with the processor;
determining, with a processor, a desired representation of the nomadic creature object relative to the location of at least one of the real-world objects;
generating, by the processor, a data stream based on the data and the desired representation;
generating light based on the data stream with a light generator;
displaying the generated light to a user with a display device, the light being visible to the user and producing a rendering of the mobile creature object rendered according to the desired display; and
using the processor to move the nomadic creature object relative to the real-world object;
The processor renders the mobile creature object to the user in a three-dimensional space, on the side of the surface facing the user, with the surface between the user and the mobile creature object, according to the desired display. How to display in.
前記表面は、壁または天井の2次元表面である、請求項に記載の方法。 10. The method of claim 9 , wherein the surface is a two-dimensional surface of a wall or ceiling. 前記プロセッサは、それを通して前記遊動生物オブジェクトが前記ユーザに可視である前記表面内のポート孔を前記ユーザに表示する、請求項に記載の方法。 10. The method of claim 9 , wherein the processor displays to the user portholes in the surface through which the mobile biological object is visible to the user. 前記遊動生物オブジェクトは、3次元遊動生物オブジェクトである、請求項に記載の方法。 10. The method of claim 9 , wherein the nomadic creature object is a three-dimensional nomadic creature object. 前記プロセッサを用いて、前記実世界オブジェクトを含む空間を捕捉することと、
前記プロセッサを用いて、実世界メッシュとして前記空間を表すことと、
前記プロセッサを用いて、前記実世界メッシュから垂直および水平面を収集することと、
前記プロセッサを用いて、床からの高さ、寸法、配向、および前記実世界メッシュに対する場所によって、前記面をフィルタ処理することと、
前記プロセッサを用いて、ポータルフレームと、前記選択場所における眺望内の全てのコンテンツとを含む青写真を創出することと、
前記プロセッサを用いて、前記ユーザが、前記ポータルを通して前記眺望を覗き込み得るように、前記実世界メッシュ材料のオクルージョン材料に孔を切開することと
をさらに含む、請求項に記載の方法。
capturing, with the processor, a space containing the real-world object;
representing the space as a real-world mesh with the processor;
collecting vertical and horizontal planes from the real-world mesh with the processor;
filtering, with the processor, the faces by height above floor, size, orientation, and location relative to the real-world mesh;
creating, with the processor, a blueprint that includes a portal frame and all content within a vista at the selected location;
10. The method of claim 9 , further comprising using the processor to cut holes in occlusion material of the real-world mesh material so that the user can peer into the vista through the portal.
前記ディスプレイデバイスは、前記ユーザが前記実世界オブジェクトのうちの少なくとも1つを視認している間に、前記ユーザに発生される前記光を表示する、請求項に記載の方法。 10. The method of claim 9 , wherein the display device displays the light generated to the user while the user is viewing at least one of the real-world objects. 前記ディスプレイデバイスは、前記少なくとも1つの実世界オブジェクトからの光が前記ユーザの眼に到達することを可能にするシースルーディスプレイデバイスである、請求項14に記載の方法。 15. The method of claim 14 , wherein the display device is a see-through display device that allows light from the at least one real-world object to reach the user's eye. 前記少なくとも1つのセンサを用いて、前記ユーザの頭部の移動に起因する前記ディスプレイデバイスの移動を感知することと、
前記ユーザの視界内で、前記遊動生物オブジェクトが、前記少なくとも1つの実世界オブジェクトに対して定常のままであるように、前記遊動生物オブジェクトの場所を調節することと
をさらに含む、請求項に記載の方法。
sensing movement of the display device due to movement of the user's head with the at least one sensor;
10. The method of claim 9 , further comprising adjusting a location of the roaming biological object such that the roaming biological object remains stationary relative to the at least one real-world object within the field of view of the user. described method.
JP2022504602A 2019-07-26 2020-07-24 Systems and methods for augmented reality Pending JP2022542363A (en)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201962879408P 2019-07-26 2019-07-26
US62/879,408 2019-07-26
US201962881355P 2019-07-31 2019-07-31
US62/881,355 2019-07-31
US201962899678P 2019-09-12 2019-09-12
US62/899,678 2019-09-12
PCT/US2020/043596 WO2021021670A1 (en) 2019-07-26 2020-07-24 Systems and methods for augmented reality

Publications (2)

Publication Number Publication Date
JP2022542363A JP2022542363A (en) 2022-10-03
JPWO2021021670A5 true JPWO2021021670A5 (en) 2023-07-31

Family

ID=74228803

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022504602A Pending JP2022542363A (en) 2019-07-26 2020-07-24 Systems and methods for augmented reality

Country Status (5)

Country Link
US (2) US11514673B2 (en)
EP (1) EP4004630A4 (en)
JP (1) JP2022542363A (en)
CN (1) CN114174895A (en)
WO (1) WO2021021670A1 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018127811A1 (en) 2017-01-06 2018-07-12 Platform Orthopedic Solutions Inc. System, platform and method for personalized shopping using an automated shopping assistant
JP7123554B2 (en) * 2017-12-25 2022-08-23 グリー株式会社 Game device, control method and control program
CN111837152A (en) * 2018-01-24 2020-10-27 耐克创新有限合伙公司 System, platform and method for personalized shopping using virtual shopping assistant
US11360733B2 (en) * 2020-09-10 2022-06-14 Snap Inc. Colocated shared augmented reality without shared backend
US20220291795A1 (en) * 2021-03-09 2022-09-15 Lenovo (Singapore) Pte. Ltd. Projecting interfaces on a surface
US11055894B1 (en) 2021-03-29 2021-07-06 Iteris, Inc. Conversion of object-related traffic sensor information at roadways and intersections for virtual dynamic digital representation of objects
US20230410437A1 (en) * 2022-06-15 2023-12-21 Sven Kratz Ar system for providing interactive experiences in smart spaces
US20230409158A1 (en) * 2022-06-15 2023-12-21 Sven Kratz Standardized ar interfaces for iot devices
CN115237503B (en) * 2022-08-01 2024-04-26 广州市影擎电子科技有限公司 VR-based ecological model building method and system

Family Cites Families (434)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6541736B1 (en) 2001-12-10 2003-04-01 Usun Technology Co., Ltd. Circuit board/printed circuit board having pre-reserved conductive heating circuits
US4344092A (en) 1980-10-21 1982-08-10 Circon Corporation Miniature video camera means for video system
US4652930A (en) 1984-11-19 1987-03-24 Rca Corporation Television camera structure
US4810080A (en) 1987-09-03 1989-03-07 American Optical Corporation Protective eyewear with removable nosepiece and corrective spectacle
US5142684A (en) 1989-06-23 1992-08-25 Hand Held Products, Inc. Power conservation in microprocessor controlled devices
US4997268A (en) 1989-07-24 1991-03-05 Dauvergne Hector A Corrective lens configuration
US5074295A (en) 1989-08-03 1991-12-24 Jamie, Inc. Mouth-held holder
US5007727A (en) 1990-02-26 1991-04-16 Alan Kahaney Combination prescription lens and sunglasses assembly
US5396635A (en) 1990-06-01 1995-03-07 Vadem Corporation Power conservation apparatus having multiple power reduction levels dependent upon the activity of the computer system
US5240220A (en) 1990-09-12 1993-08-31 Elbex Video Ltd. TV camera supporting device
EP0504930B1 (en) 1991-03-22 1998-06-10 Nikon Corporation Optical apparatus for correcting image deviation
WO1993001743A1 (en) 1991-07-22 1993-02-04 Adair Edwin Lloyd Sterile video microscope holder for operating room
US5251635A (en) 1991-09-03 1993-10-12 General Electric Company Stereoscopic X-ray fluoroscopy system using radiofrequency fields
US5224198A (en) 1991-09-30 1993-06-29 Motorola, Inc. Waveguide virtual image display
US5497463A (en) 1992-09-25 1996-03-05 Bull Hn Information Systems Inc. Ally mechanism for interconnecting non-distributed computing environment (DCE) and DCE systems to operate in a network system
US5937202A (en) 1993-02-11 1999-08-10 3-D Computing, Inc. High-speed, parallel, processor architecture for front-end electronics, based on a single type of ASIC, and method use thereof
US5410763A (en) 1993-02-11 1995-05-02 Etablissments Bolle Eyeshield with detachable components
US5682255A (en) 1993-02-26 1997-10-28 Yeda Research & Development Co. Ltd. Holographic optical devices for the transmission of optical signals of a plurality of channels
US6023288A (en) 1993-03-31 2000-02-08 Cairns & Brother Inc. Combination head-protective helmet and thermal imaging apparatus
EP0632360A1 (en) 1993-06-29 1995-01-04 Xerox Corporation Reducing computer power consumption by dynamic voltage and frequency variation
US5455625A (en) 1993-09-23 1995-10-03 Rosco Inc. Video camera unit, protective enclosure and power circuit for same, particularly for use in vehicles
US5835061A (en) 1995-06-06 1998-11-10 Wayport, Inc. Method and apparatus for geographic-based communications service
US5826092A (en) 1995-09-15 1998-10-20 Gateway 2000, Inc. Method and apparatus for performance optimization in power-managed computer systems
US5864365A (en) 1996-01-26 1999-01-26 Kaman Sciences Corporation Environmentally controlled camera housing assembly
US6064749A (en) 1996-08-02 2000-05-16 Hirota; Gentaro Hybrid tracking for augmented reality using both camera motion detection and landmark tracking
US5854872A (en) 1996-10-08 1998-12-29 Clio Technologies, Inc. Divergent angle rotator system and method for collimating light beams
US8005254B2 (en) 1996-11-12 2011-08-23 Digimarc Corporation Background watermark processing
US6012811A (en) 1996-12-13 2000-01-11 Contour Optik, Inc. Eyeglass frames with magnets at bridges for attachment
JP3465528B2 (en) 1997-04-22 2003-11-10 三菱瓦斯化学株式会社 New resin for optical materials
DE69836383T2 (en) * 1997-08-29 2007-10-11 Kabushiki Kaisha Sega Doing Business As Sega Corp. IMAGE PROCESSING SYSTEM AND METHOD
JPH11142783A (en) 1997-11-12 1999-05-28 Olympus Optical Co Ltd Image display device
US6385735B1 (en) 1997-12-15 2002-05-07 Intel Corporation Method and apparatus for limiting processor clock frequency
US6191809B1 (en) 1998-01-15 2001-02-20 Vista Medical Technologies, Inc. Method and apparatus for aligning stereo images
US6076927A (en) 1998-07-10 2000-06-20 Owens; Raymond L. Adjustable focal length eye glasses
JP2000099332A (en) 1998-09-25 2000-04-07 Hitachi Ltd Remote procedure call optimization method and program execution method using the optimization method
US6415388B1 (en) 1998-10-30 2002-07-02 Intel Corporation Method and apparatus for power throttling in a microprocessor using a closed loop feedback system
US6918667B1 (en) 1998-11-02 2005-07-19 Gary Martin Zelman Auxiliary eyewear attachment apparatus
US6487319B1 (en) 1998-11-18 2002-11-26 Sarnoff Corporation Apparatus and method for identifying the location of a coding unit
US7111290B1 (en) 1999-01-28 2006-09-19 Ati International Srl Profiling program execution to identify frequently-executed portions and to assist binary translation
US6556245B1 (en) 1999-03-08 2003-04-29 Larry Allan Holmberg Game hunting video camera
US7119819B1 (en) 1999-04-06 2006-10-10 Microsoft Corporation Method and apparatus for supporting two-dimensional windows in a three-dimensional environment
US6375369B1 (en) 1999-04-22 2002-04-23 Videolarm, Inc. Housing for a surveillance camera
WO2001056007A1 (en) 2000-01-28 2001-08-02 Intersense, Inc. Self-referenced tracking
JP4921634B2 (en) 2000-01-31 2012-04-25 グーグル インコーポレイテッド Display device
KR100487543B1 (en) 2000-09-01 2005-05-03 엘지전자 주식회사 Cpu scheduling method
JP4646374B2 (en) 2000-09-29 2011-03-09 オリンパス株式会社 Image observation optical system
TW522256B (en) 2000-12-15 2003-03-01 Samsung Electronics Co Ltd Wearable display system
US6715089B2 (en) 2001-01-22 2004-03-30 Ati International Srl Reducing power consumption by estimating engine load and reducing engine clock speed
US20020108064A1 (en) 2001-02-07 2002-08-08 Patrick Nunally System and method for optimizing power/performance in network-centric microprocessor-controlled devices
US6807352B2 (en) 2001-02-11 2004-10-19 Georgia Tech Research Corporation Optical waveguides with embedded air-gap cladding layer and methods of fabrication thereof
US6931596B2 (en) 2001-03-05 2005-08-16 Koninklijke Philips Electronics N.V. Automatic positioning of display depending upon the viewer's location
US20020140848A1 (en) 2001-03-30 2002-10-03 Pelco Controllable sealed chamber for surveillance camera
EP1249717A3 (en) 2001-04-10 2005-05-11 Matsushita Electric Industrial Co., Ltd. Antireflection coating and optical element using the same
WO2002088913A1 (en) 2001-04-27 2002-11-07 International Business Machines Corporation Method and apparatus for controlling processor operation speed
JP4682470B2 (en) 2001-07-16 2011-05-11 株式会社デンソー Scan type display device
US6622253B2 (en) 2001-08-02 2003-09-16 Scientific-Atlanta, Inc. Controlling processor clock rate based on thread priority
US6762845B2 (en) 2001-08-23 2004-07-13 Zygo Corporation Multiple-pass interferometry
DE60124961T2 (en) 2001-09-25 2007-07-26 Cambridge Flat Projection Displays Ltd., Fenstanton A flat-panel projection display
US6833955B2 (en) 2001-10-09 2004-12-21 Planop Planar Optics Ltd. Compact two-plane optical device
AU2002361572A1 (en) 2001-10-19 2003-04-28 University Of North Carolina At Chape Hill Methods and systems for dynamic virtual convergence and head mountable display
US7076674B2 (en) 2001-12-19 2006-07-11 Hewlett-Packard Development Company L.P. Portable computer having dual clock mode
US7305020B2 (en) 2002-02-04 2007-12-04 Vizionware, Inc. Method and system of reducing electromagnetic interference emissions
US6999087B2 (en) 2002-03-12 2006-02-14 Sun Microsystems, Inc. Dynamically adjusting sample density in a graphics system
EP1351117A1 (en) 2002-04-03 2003-10-08 Hewlett-Packard Company Data processing system and method
CN1666202A (en) 2002-04-25 2005-09-07 Arc国际公司 Apparatus and method for managing integrated circuit designs
US6849558B2 (en) 2002-05-22 2005-02-01 The Board Of Trustees Of The Leland Stanford Junior University Replication and transfer of microstructures and nanostructures
KR100382232B1 (en) 2002-05-31 2003-05-09 Palm Palm Tech Mobile terminal having enhanced power managing function and power managing method thereof
US7046515B1 (en) 2002-06-06 2006-05-16 Raytheon Company Method and apparatus for cooling a circuit component
US7155617B2 (en) 2002-08-01 2006-12-26 Texas Instruments Incorporated Methods and systems for performing dynamic power management via frequency and voltage scaling
US6714157B2 (en) 2002-08-02 2004-03-30 The Boeing Company Multiple time-interleaved radar operation using a single radar at different angles
KR100480786B1 (en) 2002-09-02 2005-04-07 삼성전자주식회사 Integrated type optical head with coupler
AU2003265891A1 (en) 2002-09-04 2004-03-29 Mentor Graphics (Holdings) Ltd. Polymorphic computational system and method in signals intelligence analysis
WO2004051450A2 (en) 2002-12-04 2004-06-17 Koninklijke Philips Electronics N.V. Software-based control of microprocessor power dissipation
US7306337B2 (en) 2003-03-06 2007-12-11 Rensselaer Polytechnic Institute Calibration-free gaze tracking under natural head movement
DE10311972A1 (en) 2003-03-18 2004-09-30 Carl Zeiss Head-mounted display (HMD) apparatus for use with eyeglasses, has optical projector that is fastened to rack, and under which eyeglasses are positioned when rack and eyeglasses are attached together
AU2003901272A0 (en) 2003-03-19 2003-04-03 Martin Hogan Pty Ltd Improvements in or relating to eyewear attachments
US7294360B2 (en) 2003-03-31 2007-11-13 Planar Systems, Inc. Conformal coatings for micro-optical elements, and method for making the same
US20040205757A1 (en) 2003-04-09 2004-10-14 Pering Trevor A. Performance scheduling using multiple constraints
EP1639394A2 (en) 2003-06-10 2006-03-29 Elop Electro-Optics Industries Ltd. Method and system for displaying an informative image against a background image
US20040268159A1 (en) 2003-06-30 2004-12-30 Microsoft Corporation Power profiling
US7134031B2 (en) 2003-08-04 2006-11-07 Arm Limited Performance control within a multi-processor system
US7434083B1 (en) 2004-01-06 2008-10-07 Apple Inc. Method and apparatus for the generation and control of clock signals
JP4699699B2 (en) 2004-01-15 2011-06-15 株式会社東芝 Beam light scanning apparatus and image forming apparatus
US7269590B2 (en) 2004-01-29 2007-09-11 Yahoo! Inc. Method and system for customizing views of information associated with a social network user
EP1731943B1 (en) 2004-03-29 2019-02-13 Sony Corporation Optical device and virtual image display device
US7219245B1 (en) 2004-06-03 2007-05-15 Advanced Micro Devices, Inc. Adaptive CPU clock management
US20060019723A1 (en) 2004-06-29 2006-01-26 Pieter Vorenkamp Automatic control of power save operation in a portable communication device utilizing historical usage information
GB0416038D0 (en) 2004-07-16 2004-08-18 Portland Press Ltd Document display system
EP1769275A1 (en) 2004-07-22 2007-04-04 Pirelli & C. S.p.A. Integrated wavelength selective grating-based filter
WO2006020846A2 (en) 2004-08-11 2006-02-23 THE GOVERNMENT OF THE UNITED STATES OF AMERICA as represented by THE SECRETARY OF THE NAVY Naval Research Laboratory Simulated locomotion method and apparatus
EP1850731A2 (en) 2004-08-12 2007-11-07 Elop Electro-Optical Industries Ltd. Integrated retinal imager and method
US9030532B2 (en) 2004-08-19 2015-05-12 Microsoft Technology Licensing, Llc Stereoscopic image display
US7029114B2 (en) 2004-09-03 2006-04-18 E'lite Optik U.S. L.P. Eyewear assembly with auxiliary frame and lens assembly
KR101399273B1 (en) 2004-09-16 2014-05-27 가부시키가이샤 니콘 MgF2 OPTICAL THIN FILM CONTAINING AMORPHOUS SILICON OXIDE BINDER, OPTICAL DEVICE HAVING SAME, AND METHOD FOR PRODUCING SUCH MgF2 OPTICAL THIN FILM
US20060090092A1 (en) 2004-10-25 2006-04-27 Verhulst Anton H Clock timing adjustment
US7536567B2 (en) 2004-12-10 2009-05-19 Hewlett-Packard Development Company, L.P. BIOS-based systems and methods of processor power management
US20060126181A1 (en) 2004-12-13 2006-06-15 Nokia Corporation Method and system for beam expansion in a display device
US8619365B2 (en) 2004-12-29 2013-12-31 Corning Incorporated Anti-reflective coating for optical windows and elements
GB0502453D0 (en) 2005-02-05 2005-03-16 Cambridge Flat Projection Flat panel lens
US7573640B2 (en) 2005-04-04 2009-08-11 Mirage Innovations Ltd. Multi-plane optical apparatus
US20060250322A1 (en) 2005-05-09 2006-11-09 Optics 1, Inc. Dynamic vergence and focus control for head-mounted displays
US7948683B2 (en) 2006-05-14 2011-05-24 Holochip Corporation Fluidic lens with manually-adjustable focus
US7644148B2 (en) 2005-05-16 2010-01-05 Hewlett-Packard Development Company, L.P. Historical data based workload allocation
US20090303599A1 (en) 2005-06-03 2009-12-10 Nokia Corporation General diffractive optics method for expanding an exit pupil
JP4776285B2 (en) 2005-07-01 2011-09-21 ソニー株式会社 Illumination optical device and virtual image display device using the same
US7739524B2 (en) 2005-08-29 2010-06-15 The Invention Science Fund I, Inc Power consumption management
US20070058248A1 (en) 2005-09-14 2007-03-15 Nguyen Minh T Sport view binocular-zoom lens focus system
US20080043334A1 (en) 2006-08-18 2008-02-21 Mirage Innovations Ltd. Diffractive optical relay and method for manufacturing the same
US20100232016A1 (en) 2005-09-28 2010-09-16 Mirage Innovations Ltd. Stereoscopic Binocular System, Device and Method
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US9658473B2 (en) 2005-10-07 2017-05-23 Percept Technologies Inc Enhanced optical and perceptual digital eyewear
US8696113B2 (en) 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
KR101193331B1 (en) 2005-10-14 2012-10-19 엘지전자 주식회사 Power Consumption Management System and Method in the Graphic Apparatus
US20090128902A1 (en) 2005-11-03 2009-05-21 Yehuda Niv Binocular Optical Relay Device
WO2007057500A1 (en) 2005-11-18 2007-05-24 Nanocomp Oy Ltd Method of producing a diffraction grating element
EP1952189B1 (en) 2005-11-21 2016-06-01 Microvision, Inc. Display with image-guiding substrate
US7917573B2 (en) 2005-11-30 2011-03-29 International Business Machines Corporation Measuring and reporting processor capacity and processor usage in a computer system with processors of different speed and/or architecture
JP2007199841A (en) 2006-01-24 2007-08-09 Seiko Epson Corp Controller of electronic apparatus, and bus control device
WO2007085682A1 (en) 2006-01-26 2007-08-02 Nokia Corporation Eye tracker device
JP2007219106A (en) 2006-02-16 2007-08-30 Konica Minolta Holdings Inc Optical device for expanding diameter of luminous flux, video display device and head mount display
US7461535B2 (en) 2006-03-01 2008-12-09 Memsic, Inc. Multi-temperature programming for accelerometer
IL174170A (en) 2006-03-08 2015-02-26 Abraham Aharoni Device and method for binocular alignment
US7353134B2 (en) 2006-03-09 2008-04-01 Dean A. Cirielli Three-dimensional position and motion telemetry input
CA2645817C (en) 2006-03-15 2016-05-03 Google Inc. Automatic display of resized images
CN101460882B (en) 2006-06-02 2010-10-27 诺基亚公司 Color distribution in exit pupil expanders, method and electronic device thereof
US7692855B2 (en) 2006-06-28 2010-04-06 Essilor International Compagnie Generale D'optique Optical article having a temperature-resistant anti-reflection coating with optimized thickness ratio of low index and high index layers
US9015501B2 (en) 2006-07-13 2015-04-21 International Business Machines Corporation Structure for asymmetrical performance multi-processors
US7724980B1 (en) 2006-07-24 2010-05-25 Adobe Systems Incorporated System and method for selective sharpening of images
US8214660B2 (en) 2006-07-26 2012-07-03 International Business Machines Corporation Structure for an apparatus for monitoring and controlling heat generation in a multi-core processor
US7640449B2 (en) 2006-08-17 2009-12-29 Via Technologies, Inc. Systems and methods for dynamic clock frequencies for low power design
US9582060B2 (en) 2006-08-31 2017-02-28 Advanced Silicon Technologies Llc Battery-powered device with reduced power consumption based on an application profile data
US20080068557A1 (en) 2006-09-20 2008-03-20 Gilbert Menduni Lens holding frame
WO2008053078A1 (en) 2006-10-31 2008-05-08 Oy Modines Ltd. Light outcoupling structure for a lighting device
US20080146942A1 (en) 2006-12-13 2008-06-19 Ep Medsystems, Inc. Catheter Position Tracking Methods Using Fluoroscopy and Rotational Sensors
JP4847351B2 (en) 2007-01-11 2011-12-28 キヤノン株式会社 Diffractive optical element and diffraction grating using the same
US7418368B2 (en) 2007-01-18 2008-08-26 International Business Machines Corporation Method and system for testing processor cores
JP4348441B2 (en) 2007-01-22 2009-10-21 国立大学法人 大阪教育大学 Position detection apparatus, position detection method, data determination apparatus, data determination method, computer program, and storage medium
US8726681B2 (en) 2007-01-23 2014-05-20 Hewlett-Packard Development Company, L.P. Method and system of cooling components of a computer system
US20090017910A1 (en) 2007-06-22 2009-01-15 Broadcom Corporation Position and motion tracking of an object
JP5194530B2 (en) 2007-04-09 2013-05-08 凸版印刷株式会社 Image display device and image display method
CN101688977B (en) 2007-06-04 2011-12-07 诺基亚公司 A diffractive beam expander and a virtual display based on a diffractive beam expander
US8060759B1 (en) 2007-06-29 2011-11-15 Emc Corporation System and method of managing and optimizing power consumption in a storage system
JP2009090689A (en) 2007-10-03 2009-04-30 Calsonic Kansei Corp Head-up display
US8508848B2 (en) 2007-12-18 2013-08-13 Nokia Corporation Exit pupil expanders with wide field-of-view
DE102008005817A1 (en) 2008-01-24 2009-07-30 Carl Zeiss Ag Optical display device
PL2242419T3 (en) 2008-02-14 2016-05-31 Nokia Technologies Oy Device and method for determining gaze direction
JP2009244869A (en) 2008-03-11 2009-10-22 Panasonic Corp Display apparatus, display method, goggle-type head-mounted display, and vehicle
US20090309819A1 (en) 2008-06-13 2009-12-17 Element Labs, Inc. Collapsible Support Structure for a Display
JP5181860B2 (en) 2008-06-17 2013-04-10 セイコーエプソン株式会社 Pulse width modulation signal generation apparatus, image display apparatus including the same, and pulse width modulation signal generation method
US8250389B2 (en) 2008-07-03 2012-08-21 International Business Machines Corporation Profiling an application for power consumption during execution on a plurality of compute nodes
US10885471B2 (en) 2008-07-18 2021-01-05 Disney Enterprises, Inc. System and method for providing location-based data on a wireless portable device
US7850306B2 (en) 2008-08-28 2010-12-14 Nokia Corporation Visual cognition aware display and visual data transmission architecture
US7885506B2 (en) 2008-09-26 2011-02-08 Nokia Corporation Device and a method for polarized illumination of a micro-display
EP2350774A4 (en) 2008-10-14 2014-11-05 Oblong Ind Inc Multi-process interactive systems and methods
EP2348982B1 (en) 2008-12-03 2020-03-25 St. Jude Medical, Atrial Fibrillation Division, Inc. System for determining the positioin of the tip of a medical catheter within the body of a patient
US20100153934A1 (en) 2008-12-12 2010-06-17 Peter Lachner Prefetch for systems with heterogeneous architectures
US8325088B2 (en) 2009-02-04 2012-12-04 Google Inc. Mobile device battery management
US8699141B2 (en) 2009-03-13 2014-04-15 Knowles Electronics, Llc Lens assembly apparatus and method
JP5121764B2 (en) 2009-03-24 2013-01-16 株式会社東芝 Solid-state imaging device
US9095436B2 (en) 2009-04-14 2015-08-04 The Invention Science Fund I, Llc Adjustable orthopedic implant and method for treating an orthopedic condition in a subject
US9383823B2 (en) * 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US20110022870A1 (en) 2009-07-21 2011-01-27 Microsoft Corporation Component power monitoring and workload optimization
US8758125B2 (en) * 2009-07-24 2014-06-24 Wms Gaming, Inc. Controlling event-driven behavior of wagering game objects
US8738949B2 (en) 2009-08-31 2014-05-27 Empire Technology Development Llc Power management for processor
JP5316391B2 (en) 2009-08-31 2013-10-16 ソニー株式会社 Image display device and head-mounted display
US11320571B2 (en) 2012-11-16 2022-05-03 Rockwell Collins, Inc. Transparent waveguide display providing upper and lower fields of view with uniform light extraction
US8305502B2 (en) 2009-11-11 2012-11-06 Eastman Kodak Company Phase-compensated thin-film beam combiner
US8605209B2 (en) 2009-11-24 2013-12-10 Gregory Towle Becker Hurricane damage recording camera system
US8909962B2 (en) 2009-12-16 2014-12-09 Qualcomm Incorporated System and method for controlling central processing unit power with guaranteed transient deadlines
US9244533B2 (en) 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
US8751854B2 (en) 2009-12-21 2014-06-10 Empire Technology Development Llc Processor core clock rate selection
US8565554B2 (en) 2010-01-09 2013-10-22 Microsoft Corporation Resizing of digital images
KR101099137B1 (en) 2010-01-29 2011-12-27 주식회사 팬택 Method and Apparatus for Providing Augmented Reality Information in Mobile Communication System
US8549339B2 (en) 2010-02-26 2013-10-01 Empire Technology Development Llc Processor core communication in multi-core processor
US8467133B2 (en) 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
US11275482B2 (en) 2010-02-28 2022-03-15 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US9547910B2 (en) 2010-03-04 2017-01-17 Honeywell International Inc. Method and apparatus for vision aided navigation using image registration
WO2011107831A1 (en) 2010-03-04 2011-09-09 Nokia Corporation Optical apparatus and method for expanding an exit pupil
JP5499854B2 (en) 2010-04-08 2014-05-21 ソニー株式会社 Optical position adjustment method for head mounted display
US8118499B2 (en) 2010-05-19 2012-02-21 LIR Systems, Inc. Infrared camera assembly systems and methods
US20110291964A1 (en) 2010-06-01 2011-12-01 Kno, Inc. Apparatus and Method for Gesture Control of a Dual Panel Electronic Device
JP2012015774A (en) 2010-06-30 2012-01-19 Toshiba Corp Stereoscopic image processing device and stereoscopic image imaging method
US8560876B2 (en) 2010-07-06 2013-10-15 Sap Ag Clock acceleration of CPU core based on scanned result of task for parallel execution controlling key word
US8854594B2 (en) 2010-08-31 2014-10-07 Cast Group Of Companies Inc. System and method for tracking
US8601288B2 (en) 2010-08-31 2013-12-03 Sonics, Inc. Intelligent power controller
KR101479262B1 (en) 2010-09-02 2015-01-12 주식회사 팬택 Method and apparatus for authorizing use of augmented reality information
JP5632693B2 (en) * 2010-09-28 2014-11-26 任天堂株式会社 Information processing program, information processing apparatus, information processing method, and information processing system
US20120081392A1 (en) 2010-09-30 2012-04-05 Apple Inc. Electronic device operation adjustment based on face detection
US8688926B2 (en) 2010-10-10 2014-04-01 Liqid Inc. Systems and methods for optimizing data storage among a plurality of solid state memory subsystems
KR101260576B1 (en) 2010-10-13 2013-05-06 주식회사 팬택 User Equipment and Method for providing AR service
JP5953311B2 (en) 2010-11-08 2016-07-20 シーリアル テクノロジーズ ソシエテ アノニムSeereal Technologies S.A. Display device
US20120113235A1 (en) 2010-11-08 2012-05-10 Sony Corporation 3d glasses, systems, and methods for optimized viewing of 3d video content
JP5854593B2 (en) 2010-11-17 2016-02-09 キヤノン株式会社 Multilayer diffractive optical element
US9304319B2 (en) 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
US9213405B2 (en) 2010-12-16 2015-12-15 Microsoft Technology Licensing, Llc Comprehension and intent-based content for augmented reality displays
US20160187654A1 (en) 2011-02-28 2016-06-30 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US8949637B2 (en) 2011-03-24 2015-02-03 Intel Corporation Obtaining power profile information with low overhead
US20120249544A1 (en) 2011-03-29 2012-10-04 Giuliano Maciocci Cloud storage of geotagged maps
US8856571B2 (en) 2011-04-05 2014-10-07 Apple Inc. Adjusting device performance over multiple time domains
KR101210163B1 (en) 2011-04-05 2012-12-07 엘지이노텍 주식회사 Optical sheet and method of fabricating the same
US8856355B2 (en) 2011-05-09 2014-10-07 Samsung Electronics Co., Ltd. Systems and methods for facilitating communication between mobile devices and display devices
US20150077312A1 (en) 2011-05-13 2015-03-19 Google Inc. Near-to-eye display having adaptive optics
WO2012166135A1 (en) 2011-06-01 2012-12-06 Empire Technology Development,Llc Structured light projection for motion detection in augmented reality
US10606066B2 (en) 2011-06-21 2020-03-31 Gholam A. Peyman Fluidic light field camera
US20120326948A1 (en) 2011-06-22 2012-12-27 Microsoft Corporation Environmental-light filter for see-through head-mounted display device
US9675304B2 (en) 2011-06-27 2017-06-13 Koninklijke Philips N.V. Live 3D angiogram using registration of a surgical tool curve to an X-ray image
CA2835138C (en) 2011-06-30 2019-09-10 Devon R. MCINTOSH Low-cost low-cog pm machine
US9100587B2 (en) 2011-07-22 2015-08-04 Naturalpoint, Inc. Hosted camera remote control
US8548290B2 (en) 2011-08-23 2013-10-01 Vuzix Corporation Dynamic apertured waveguide for near-eye display
US10670876B2 (en) 2011-08-24 2020-06-02 Digilens Inc. Waveguide laser illuminator incorporating a despeckler
US9342610B2 (en) * 2011-08-25 2016-05-17 Microsoft Technology Licensing, Llc Portals: registered objects as virtualized, personalized displays
US9025252B2 (en) 2011-08-30 2015-05-05 Microsoft Technology Licensing, Llc Adjustment of a mixed reality display for inter-pupillary distance alignment
KR101407670B1 (en) 2011-09-15 2014-06-16 주식회사 팬택 Mobile terminal, server and method for forming communication channel using augmented reality
US8998414B2 (en) 2011-09-26 2015-04-07 Microsoft Technology Licensing, Llc Integrated eye tracking and display system
US9835765B2 (en) 2011-09-27 2017-12-05 Canon Kabushiki Kaisha Optical element and method for manufacturing the same
US8847988B2 (en) 2011-09-30 2014-09-30 Microsoft Corporation Exercising applications for personal audio/visual system
US9125301B2 (en) 2011-10-18 2015-09-01 Integrated Microwave Corporation Integral heater assembly and method for carrier or host board of electronic package assembly
US8782454B2 (en) 2011-10-28 2014-07-15 Apple Inc. System and method for managing clock speed based on task urgency
US9678102B2 (en) 2011-11-04 2017-06-13 Google Inc. Calibrating intertial sensors using an image sensor
US8891918B2 (en) 2011-11-17 2014-11-18 At&T Intellectual Property I, L.P. Methods, systems, and products for image displays
US9333044B2 (en) 2011-12-30 2016-05-10 St. Jude Medical, Atrial Fibrillation Division, Inc. System and method for detection and avoidance of collisions of robotically-controlled medical devices
US8608309B2 (en) 2011-12-30 2013-12-17 A New Vision Llc Eyeglass system
CN104205087B (en) 2012-02-04 2018-01-16 英派尔科技开发有限公司 Core stage dynamic electric voltage and frequency regulation in chip multi-processor
GB2499635B (en) 2012-02-23 2014-05-14 Canon Kk Image processing for projection on a projection screen
US9704220B1 (en) 2012-02-29 2017-07-11 Google Inc. Systems, methods, and media for adjusting one or more images displayed to a viewer
CN103534748B (en) 2012-03-22 2017-05-17 索尼公司 Display device, image processing device, and image processing method
US10013511B2 (en) 2012-04-09 2018-07-03 Purdue Research Foundation System and method for energy usage accounting in software applications
US20130278633A1 (en) * 2012-04-20 2013-10-24 Samsung Electronics Co., Ltd. Method and system for generating augmented reality scene
WO2013164665A1 (en) 2012-05-03 2013-11-07 Nokia Corporation Image providing apparatus, method and computer program
US9665503B2 (en) 2012-05-22 2017-05-30 Xockets, Inc. Efficient packet handling, redirection, and inspection using offload processors
US8989535B2 (en) 2012-06-04 2015-03-24 Microsoft Technology Licensing, Llc Multiple waveguide imaging structure
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US9113291B2 (en) 2012-06-18 2015-08-18 Qualcomm Incorporated Location detection within identifiable pre-defined geographic areas
US8848741B2 (en) 2012-06-21 2014-09-30 Breakingpoint Systems, Inc. High-speed CLD-based TCP segmentation offload
US9696547B2 (en) * 2012-06-25 2017-07-04 Microsoft Technology Licensing, Llc Mixed reality system learned input and functions
US9767720B2 (en) * 2012-06-25 2017-09-19 Microsoft Technology Licensing, Llc Object-centric mixed reality space
US9645394B2 (en) * 2012-06-25 2017-05-09 Microsoft Technology Licensing, Llc Configured virtual environments
JP5538483B2 (en) * 2012-06-29 2014-07-02 株式会社ソニー・コンピュータエンタテインメント Video processing apparatus, video processing method, and video processing system
TW201403299A (en) 2012-07-04 2014-01-16 Acer Inc Central processor control method
US8605764B1 (en) 2012-07-09 2013-12-10 Microvision, Inc. Laser diode junction temperature compensation
US9031283B2 (en) 2012-07-12 2015-05-12 Qualcomm Incorporated Sensor-aided wide-area localization on mobile devices
US9841563B2 (en) * 2012-08-04 2017-12-12 Paul Lapstun Shuttered waveguide light field display
US9860522B2 (en) * 2012-08-04 2018-01-02 Paul Lapstun Head-mounted light field display
JP6218833B2 (en) 2012-08-20 2017-10-25 キャメロン,ドナルド,ケヴィン Processing resource allocation
CN102829880B (en) 2012-08-23 2014-04-16 江苏物联网研究发展中心 High-performance MEMS (Micro Electro Mechanical System) thermopile infrared detector based on black silicon and preparation method thereof
IN2015KN00682A (en) 2012-09-03 2015-07-17 Sensomotoric Instr Ges Für Innovative Sensorik Mbh
JP6350283B2 (en) 2012-09-12 2018-07-04 ソニー株式会社 Image display device, image display method, and recording medium
KR101923723B1 (en) 2012-09-17 2018-11-29 한국전자통신연구원 Metaverse client terminal and method for providing metaverse space for user interaction
US9177404B2 (en) 2012-10-31 2015-11-03 Qualcomm Incorporated Systems and methods of merging multiple maps for computer vision based tracking
US9576183B2 (en) 2012-11-02 2017-02-21 Qualcomm Incorporated Fast initialization for monocular visual SLAM
US9584382B2 (en) 2012-11-28 2017-02-28 At&T Intellectual Property I, L.P. Collecting and using quality of experience information
US20140168260A1 (en) 2012-12-13 2014-06-19 Paul M. O'Brien Waveguide spacers within an ned device
US20140340498A1 (en) * 2012-12-20 2014-11-20 Google Inc. Using distance between objects in touchless gestural interfaces
US8988574B2 (en) 2012-12-27 2015-03-24 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using bright line image
AU2013370897B2 (en) 2012-12-31 2017-03-30 Gentex Corporation Apparatus and method for fitting head mounted vision augmentation systems
US10716469B2 (en) 2013-01-25 2020-07-21 Wesley W. O. Krueger Ocular-performance-based head impact measurement applied to rotationally-centered impact mitigation systems and methods
US9336629B2 (en) 2013-01-30 2016-05-10 F3 & Associates, Inc. Coordinate geometry augmented reality process
GB201301764D0 (en) 2013-01-31 2013-03-20 Adlens Ltd Actuation of fluid-filled lenses
EP2956805A1 (en) 2013-02-15 2015-12-23 Adlens Ltd Adjustable lens and article of eyewear
US8884663B2 (en) 2013-02-25 2014-11-11 Advanced Micro Devices, Inc. State machine for low-noise clocking of high frequency clock
US9600068B2 (en) 2013-03-13 2017-03-21 Sony Interactive Entertainment Inc. Digital inter-pupillary distance adjustment
US9854014B2 (en) 2013-03-14 2017-12-26 Google Inc. Motion data sharing
US9779517B2 (en) 2013-03-15 2017-10-03 Upskill, Inc. Method and system for representing and interacting with augmented reality content
KR20160005680A (en) 2013-03-15 2016-01-15 임미 인크. Head mounted display with non-pupil forming optical path
US20160033770A1 (en) 2013-03-26 2016-02-04 Seiko Epson Corporation Head-mounted display device, control method of head-mounted display device, and display system
JP2014191718A (en) * 2013-03-28 2014-10-06 Sony Corp Display control device, display control method, and recording medium
US9079399B2 (en) 2013-05-16 2015-07-14 Océ-Technologies B.V. Method for operating a printing system
US9235395B2 (en) 2013-05-30 2016-01-12 National Instruments Corporation Graphical development and deployment of parallel floating-point math functionality on a system with heterogeneous hardware components
JP6232763B2 (en) 2013-06-12 2017-11-22 セイコーエプソン株式会社 Head-mounted display device and method for controlling head-mounted display device
US9256987B2 (en) 2013-06-24 2016-02-09 Microsoft Technology Licensing, Llc Tracking head movement when wearing mobile device
US9998863B2 (en) 2013-08-19 2018-06-12 Estimote Polska Sp. Z O. O. System and method for providing content using beacon systems
US9753303B2 (en) 2013-08-27 2017-09-05 Frameri Inc. Removable eyeglass lens and frame platform
JP6333965B2 (en) 2013-09-27 2018-05-30 インテル コーポレイション Technology to track wake clock usage
US9256072B2 (en) 2013-10-02 2016-02-09 Philip Scott Lyren Wearable electronic glasses that detect movement of a real object copies movement of a virtual object
US20150123966A1 (en) 2013-10-03 2015-05-07 Compedia - Software And Hardware Development Limited Interactive augmented virtual reality and perceptual computing platform
US20150097719A1 (en) 2013-10-03 2015-04-09 Sulon Technologies Inc. System and method for active reference positioning in an augmented reality environment
US9996797B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Interactions with virtual objects for machine control
KR102189115B1 (en) 2013-11-11 2020-12-09 삼성전자주식회사 System on-chip having a symmetric multi-processor, and method of determining a maximum operating clock frequency for the same
US9286725B2 (en) 2013-11-14 2016-03-15 Nintendo Co., Ltd. Visually convincing depiction of object interactions in augmented reality images
CN105706028B (en) 2013-11-19 2018-05-29 麦克赛尔株式会社 Projection-type image display device
WO2015079610A1 (en) 2013-11-26 2015-06-04 ソニー株式会社 Head-mounted display
KR102651578B1 (en) 2013-11-27 2024-03-25 매직 립, 인코포레이티드 Virtual and augmented reality systems and methods
WO2015100714A1 (en) 2014-01-02 2015-07-09 Empire Technology Development Llc Augmented reality (ar) system
US9524580B2 (en) 2014-01-06 2016-12-20 Oculus Vr, Llc Calibration of virtual reality systems
US10228562B2 (en) 2014-02-21 2019-03-12 Sony Interactive Entertainment Inc. Realtime lens aberration correction from eye tracking
US9383630B2 (en) 2014-03-05 2016-07-05 Mygo, Llc Camera mouth mount
US9871741B2 (en) 2014-03-10 2018-01-16 Microsoft Technology Licensing, Llc Resource management based on device-specific or user-specific resource usage profiles
US9251598B2 (en) 2014-04-10 2016-02-02 GM Global Technology Operations LLC Vision-based multi-camera factory monitoring with dynamic integrity scoring
US20170123775A1 (en) 2014-03-26 2017-05-04 Empire Technology Development Llc Compilation of application into multiple instruction sets for a heterogeneous processor
US20150301955A1 (en) 2014-04-21 2015-10-22 Qualcomm Incorporated Extending protection domains to co-processors
US9626802B2 (en) 2014-05-01 2017-04-18 Microsoft Technology Licensing, Llc Determining coordinate frames in a dynamic environment
WO2016018488A2 (en) 2014-05-09 2016-02-04 Eyefluence, Inc. Systems and methods for discerning eye signals and continuous biometric identification
EP2952850A1 (en) 2014-06-03 2015-12-09 Optotune AG Optical device, particularly for tuning the focal length of a lens of the device by means of optical feedback
RU2603238C2 (en) 2014-07-15 2016-11-27 Самсунг Электроникс Ко., Лтд. Light-guide structure, holographic optical device and imaging system
US9865089B2 (en) 2014-07-25 2018-01-09 Microsoft Technology Licensing, Llc Virtual reality environment with real world objects
JP6690538B2 (en) * 2014-08-28 2020-04-28 ソニー株式会社 Image processing apparatus and image processing system
US20160077338A1 (en) 2014-09-16 2016-03-17 Steven John Robbins Compact Projection Light Engine For A Diffractive Waveguide Display
US9494799B2 (en) 2014-09-24 2016-11-15 Microsoft Technology Licensing, Llc Waveguide eye tracking employing switchable diffraction gratings
US10176625B2 (en) 2014-09-25 2019-01-08 Faro Technologies, Inc. Augmented reality camera for use with 3D metrology equipment in forming 3D images from 2D camera images
US20160093269A1 (en) 2014-09-26 2016-03-31 Pixtronix, Inc. Laser-Pumped Phosphor Backlight and Methods
NZ745107A (en) 2014-09-29 2021-07-30 Magic Leap Inc Architectures and methods for outputting different wavelength light out of waveguides
US9612722B2 (en) 2014-10-31 2017-04-04 Microsoft Technology Licensing, Llc Facilitating interaction between users and their environments using sounds
US10371936B2 (en) 2014-11-10 2019-08-06 Leo D. Didomenico Wide angle, broad-band, polarization independent beam steering and concentration of wave energy utilizing electronically controlled soft matter
US20170243403A1 (en) 2014-11-11 2017-08-24 Bent Image Lab, Llc Real-time shared augmented reality experience
IL235642B (en) 2014-11-11 2021-08-31 Lumus Ltd Compact head-mounted display system protected by a hyperfine structure
US10794728B2 (en) 2014-12-19 2020-10-06 Invensense, Inc. Device and method for sensor calibration
US10096162B2 (en) 2014-12-22 2018-10-09 Dimensions And Shapes, Llc Headset vision system for portable devices that provides an augmented reality display and/or a virtual reality display
US10154239B2 (en) 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
US10018844B2 (en) 2015-02-09 2018-07-10 Microsoft Technology Licensing, Llc Wearable image display system
US9696795B2 (en) 2015-02-13 2017-07-04 Leap Motion, Inc. Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments
US10180734B2 (en) 2015-03-05 2019-01-15 Magic Leap, Inc. Systems and methods for augmented reality
WO2016146963A1 (en) 2015-03-16 2016-09-22 Popovich, Milan, Momcilo Waveguide device incorporating a light pipe
US9955862B2 (en) 2015-03-17 2018-05-01 Raytrx, Llc System, method, and non-transitory computer-readable storage media related to correction of vision defects using a visual display
US20160287337A1 (en) 2015-03-31 2016-10-06 Luke J. Aram Orthopaedic surgical system and method for patient-specific surgical procedure
EP3745167A1 (en) 2015-04-07 2020-12-02 Magic Leap, Inc. Diffraction grating and method of manufacture
US9779554B2 (en) 2015-04-10 2017-10-03 Sony Interactive Entertainment Inc. Filtering and parental control methods for restricting visual activity on a head mounted display
EP3164776B1 (en) 2015-04-20 2019-07-31 SZ DJI Technology Co., Ltd. Systems and methods for thermally regulating sensor operation
EP3292432B1 (en) 2015-04-23 2023-06-28 LEIA Inc. Dual light guide grating-based backlight and electronic display using same
US10909464B2 (en) 2015-04-29 2021-02-02 Microsoft Technology Licensing, Llc Semantic locations prediction
US9664569B2 (en) 2015-05-15 2017-05-30 Google Inc. Circuit board configurations facilitating operation of heat sensitive sensor components
KR20160139727A (en) 2015-05-28 2016-12-07 엘지전자 주식회사 Glass type terminal and method of controlling the same
GB2539009A (en) 2015-06-03 2016-12-07 Tobii Ab Gaze detection method and apparatus
JP6780642B2 (en) 2015-06-15 2020-11-04 ソニー株式会社 Information processing equipment, information processing methods and programs
CN108464030B (en) 2015-06-15 2021-08-24 希尔莱特有限责任公司 Method and system for communicating with beamforming antennas
FR3037672B1 (en) 2015-06-16 2017-06-16 Parrot DRONE COMPRISING IMPROVED COMPENSATION MEANS THROUGH THE INERTIAL CENTER BASED ON TEMPERATURE
US9519084B1 (en) 2015-06-18 2016-12-13 Oculus Vr, Llc Securing a fresnel lens to a refractive optical element
WO2017004695A1 (en) 2015-07-06 2017-01-12 Frank Jones Methods and devices for demountable head mounted displays
US11190681B1 (en) 2015-07-10 2021-11-30 Snap Inc. Systems and methods for DSP fast boot
US20170100664A1 (en) 2015-10-12 2017-04-13 Osterhout Group, Inc. External user interface for head worn computing
US20170038607A1 (en) 2015-08-04 2017-02-09 Rafael Camara Enhanced-reality electronic device for low-vision pathologies, and implant procedure
US9781246B2 (en) 2015-08-28 2017-10-03 Qualcomm Incorporated Augmenting reality using a small cell
US9489027B1 (en) 2015-08-31 2016-11-08 Wave Resource Strategies, Inc. System and method for the accurate recordation of power consumption in a computing device utilizing power profiles
US9880611B2 (en) 2015-08-31 2018-01-30 Google Llc Energy saving mode for electronic devices
WO2017039308A1 (en) 2015-08-31 2017-03-09 Samsung Electronics Co., Ltd. Virtual reality display apparatus and display method thereof
JP6615541B2 (en) * 2015-09-02 2019-12-04 株式会社バンダイナムコアミューズメント Projection system
US20150378407A1 (en) 2015-09-04 2015-12-31 Mediatek Inc. Loading-Based Dynamic Voltage And Frequency Scaling
KR102367792B1 (en) 2015-09-11 2022-02-28 아마존 테크놀로지스, 인크. System, method and computer-readable storage medium for customizable event-triggered computation at edge locations
US10082865B1 (en) 2015-09-29 2018-09-25 Rockwell Collins, Inc. Dynamic distortion mapping in a worn display
GB2542853B (en) 2015-10-02 2021-12-15 Cambridge Consultants Processing apparatus and methods
US10067346B2 (en) 2015-10-23 2018-09-04 Microsoft Technology Licensing, Llc Holographic display
US9983709B2 (en) 2015-11-02 2018-05-29 Oculus Vr, Llc Eye tracking using structured light
CA3004271C (en) 2015-11-04 2024-04-09 Magic Leap, Inc. Dynamic display calibration based on eye-tracking
US9671615B1 (en) 2015-12-01 2017-06-06 Microsoft Technology Licensing, Llc Extended field of view in near-eye display using wide-spectrum imager
US10445860B2 (en) 2015-12-08 2019-10-15 Facebook Technologies, Llc Autofocus virtual reality headset
US10025060B2 (en) 2015-12-08 2018-07-17 Oculus Vr, Llc Focus adjusting virtual reality headset
US20170185261A1 (en) 2015-12-28 2017-06-29 Htc Corporation Virtual reality device, method for virtual reality
EP3190447B1 (en) 2016-01-06 2020-02-05 Ricoh Company, Ltd. Light guide and virtual image display device
WO2017120475A1 (en) 2016-01-06 2017-07-13 University Of Utah Research Foundation Low-power large aperture adaptive lenses for smart eyeglasses
US9978180B2 (en) 2016-01-25 2018-05-22 Microsoft Technology Licensing, Llc Frame projection for augmented reality environments
WO2017127897A1 (en) * 2016-01-27 2017-08-03 Paul Lapstun Shuttered waveguide light field display
US10429639B2 (en) * 2016-01-31 2019-10-01 Paul Lapstun Head-mounted light field display
US9891436B2 (en) 2016-02-11 2018-02-13 Microsoft Technology Licensing, Llc Waveguide-based displays with anti-reflective and highly-reflective coating
JP6686504B2 (en) 2016-02-15 2020-04-22 セイコーエプソン株式会社 Head-mounted image display device
JP6686505B2 (en) 2016-02-15 2020-04-22 セイコーエプソン株式会社 Head-mounted image display device
JP6544447B2 (en) 2016-02-18 2019-07-17 富士電機株式会社 Signal transmission device
US9880441B1 (en) 2016-09-08 2018-01-30 Osterhout Group, Inc. Electrochromic systems for head-worn computer systems
US20170256096A1 (en) 2016-03-07 2017-09-07 Google Inc. Intelligent object sizing and placement in a augmented / virtual reality environment
CN111329553B (en) 2016-03-12 2021-05-04 P·K·朗 Devices and methods for surgery
US10223605B2 (en) * 2016-03-18 2019-03-05 Colorvision International, Inc. Interactive virtual aquarium simulation system and associated methods
CN108882892A (en) 2016-03-31 2018-11-23 Zoll医疗公司 The system and method for tracking patient motion
JP7055751B2 (en) 2016-04-07 2022-04-18 マジック リープ, インコーポレイテッド Systems and methods for augmented reality
EP3236211A1 (en) 2016-04-21 2017-10-25 Thomson Licensing Method and apparatus for estimating a pose of a rendering device
US10197804B2 (en) 2016-04-25 2019-02-05 Microsoft Technology Licensing, Llc Refractive coating for diffractive optical elements
NZ787459A (en) 2016-04-26 2023-05-26 Magic Leap Inc Electromagnetic tracking with augmented reality systems
US20170312032A1 (en) 2016-04-27 2017-11-02 Arthrology Consulting, Llc Method for augmenting a surgical field with virtual guidance content
US10241346B2 (en) 2016-05-07 2019-03-26 Microsoft Technology Licensing, Llc Degrees of freedom for diffraction elements in wave expander
US10215986B2 (en) 2016-05-16 2019-02-26 Microsoft Technology Licensing, Llc Wedges for light transformation
US11228770B2 (en) 2016-05-16 2022-01-18 Qualcomm Incorporated Loop sample processing for high dynamic range and wide color gamut video coding
GB201609027D0 (en) 2016-05-23 2016-07-06 Bae Systems Plc Waveguide manufacturing method
US10078377B2 (en) 2016-06-09 2018-09-18 Microsoft Technology Licensing, Llc Six DOF mixed reality input by fusing inertial handheld controller with hand tracking
US10114440B2 (en) 2016-06-22 2018-10-30 Razer (Asia-Pacific) Pte. Ltd. Applying power management based on a target time
US10372184B2 (en) 2016-06-28 2019-08-06 Renesas Electronics America Inc. Method and apparatus for implementing power modes in microcontrollers using power profiles
CN109417608B (en) 2016-07-07 2021-02-02 日立乐金光科技株式会社 Image display device
TW201803289A (en) 2016-07-11 2018-01-16 原相科技股份有限公司 Wireless transceiver apparatus and method capable of controlling gain(s) of amplifier(s) by detecting power of interference signal in the air with considerations of power saving and smaller circuit area
EP3494447B1 (en) 2016-08-04 2021-05-19 Reification Inc. Methods for simultaneous localization and mapping (slam) and related apparatus and systems
CN113240601B (en) 2016-08-04 2024-03-26 杜比实验室特许公司 Single depth tracking adjustment-vergence solution
US10676345B2 (en) 2016-08-15 2020-06-09 Y-Sensors Ltd. Temperature stabilized MEMS device
EP3500889B1 (en) 2016-08-22 2020-12-16 Magic Leap, Inc. Multi-layer diffractive eyepiece
US10690936B2 (en) 2016-08-29 2020-06-23 Mentor Acquisition One, Llc Adjustable nose bridge assembly for headworn computer
US20180067779A1 (en) 2016-09-06 2018-03-08 Smartiply, Inc. AP-Based Intelligent Fog Agent
US20180082480A1 (en) 2016-09-16 2018-03-22 John R. White Augmented reality surgical technique guidance
CA3036709A1 (en) 2016-09-26 2018-03-29 Magic Leap, Inc. Calibration of magnetic and optical sensors in a virtual reality or augmented reality display system
US10134192B2 (en) 2016-10-17 2018-11-20 Microsoft Technology Licensing, Llc Generating and displaying a computer generated image on a future pose of a real world object
US10373297B2 (en) 2016-10-26 2019-08-06 Valve Corporation Using pupil location to correct optical lens distortion
US10735691B2 (en) 2016-11-08 2020-08-04 Rockwell Automation Technologies, Inc. Virtual reality and augmented reality for industrial automation
EP3320829A1 (en) 2016-11-10 2018-05-16 E-Health Technical Solutions, S.L. System for integrally measuring clinical parameters of visual function
WO2018097831A1 (en) 2016-11-24 2018-05-31 Smith Joshua R Light field capture and rendering for head-mounted displays
JPWO2018101394A1 (en) * 2016-12-01 2019-10-24 ソニー株式会社 Information processing apparatus, information processing method, and program
CN108885533B (en) 2016-12-21 2021-05-07 杰创科科技有限公司 Combining virtual reality and augmented reality
US10203252B2 (en) 2016-12-29 2019-02-12 Industrial Technology Research Institute Microelectromechanical apparatus having a measuring range selector
KR102630774B1 (en) 2016-12-29 2024-01-30 매직 립, 인코포레이티드 Automatic control of wearable display device based on external conditions
US10489975B2 (en) 2017-01-04 2019-11-26 Daqri, Llc Environmental mapping system
US10436594B2 (en) 2017-01-17 2019-10-08 Blind InSites, LLC Devices, systems, and methods for navigation and usage guidance in a navigable space using wireless communication
US9978118B1 (en) 2017-01-25 2018-05-22 Microsoft Technology Licensing, Llc No miss cache structure for real-time image transformations with data compression
US20180255285A1 (en) 2017-03-06 2018-09-06 Universal City Studios Llc Systems and methods for layered virtual features in an amusement park environment
EP3376279B1 (en) 2017-03-13 2022-08-31 Essilor International Optical device for a head-mounted display, and head-mounted device incorporating it for augmented reality
US10452123B2 (en) 2017-03-30 2019-10-22 Google Llc Predictive power saving and screen dimming for computing devices
US10241545B1 (en) 2017-06-01 2019-03-26 Facebook Technologies, Llc Dynamic distortion correction for optical compensation
US11132533B2 (en) 2017-06-07 2021-09-28 David Scott Dreessen Systems and methods for creating target motion, capturing motion, analyzing motion, and improving motion
US11236993B1 (en) 2017-06-08 2022-02-01 Facebook Technologies, Llc Depth sensing using a time of flight system including a scanning beam in combination with a single photon avalanche diode array
GB201709199D0 (en) 2017-06-09 2017-07-26 Delamont Dean Lindsay IR mixed reality and augmented reality gaming system
US20190196690A1 (en) * 2017-06-23 2019-06-27 Zyetric Virtual Reality Limited First-person role playing interactive augmented reality
US10578870B2 (en) 2017-07-26 2020-03-03 Magic Leap, Inc. Exit pupil expander
US20190056591A1 (en) 2017-08-18 2019-02-21 Microsoft Technology Licensing, Llc Optical waveguide with multiple antireflective coatings
US9948612B1 (en) 2017-09-27 2018-04-17 Citrix Systems, Inc. Secure single sign on and conditional access for client applications
US10437065B2 (en) 2017-10-03 2019-10-08 Microsoft Technology Licensing, Llc IPD correction and reprojection for accurate mixed reality object placement
US10317680B1 (en) 2017-11-09 2019-06-11 Facebook Technologies, Llc Optical aberration correction based on user eye position in head mounted displays
ES2859474T3 (en) * 2017-11-13 2021-10-04 Vr Coaster Gmbh & Co Kg Device to experience a virtual reality simulation in an underwater world
US10599259B2 (en) 2017-11-20 2020-03-24 Google Llc Virtual reality / augmented reality handheld controller sensing
KR102411287B1 (en) 2017-11-22 2022-06-22 삼성전자 주식회사 Apparatus and method for controlling media output level
EP3717083A1 (en) * 2017-12-01 2020-10-07 Rhodan Marine Systems of Florida, LLC Dynamic augmented reality headset system
US10916059B2 (en) * 2017-12-06 2021-02-09 Universal City Studios Llc Interactive video game system having an augmented virtual representation
US10620430B2 (en) 2018-01-12 2020-04-14 Microsoft Technology Licensing, Llc Geometrically multiplexed RGB lasers in a scanning MEMS display system for HMDS
US11348257B2 (en) 2018-01-29 2022-05-31 Philipp K. Lang Augmented reality guidance for orthopedic and other surgical procedures
US10422989B2 (en) 2018-02-06 2019-09-24 Microsoft Technology Licensing, Llc Optical systems including a single actuator and multiple fluid-filled optical lenses for near-eye-display devices
GB201805301D0 (en) 2018-03-29 2018-05-16 Adlens Ltd Improvements In Or Relating To Variable Focusing Power Optical Devices
US10504288B2 (en) * 2018-04-17 2019-12-10 Patrick Piemonte & Ryan Staake Systems and methods for shared creation of augmented reality
JP6779939B2 (en) * 2018-04-19 2020-11-04 グリー株式会社 Game device, control method and control program
US10969486B2 (en) 2018-04-26 2021-04-06 SCRRD, Inc. Augmented reality platform and method for use of same
US10740966B2 (en) 2018-05-14 2020-08-11 Microsoft Technology Licensing, Llc Fake thickness on a two-dimensional object
US10825424B2 (en) 2018-06-05 2020-11-03 Magic Leap, Inc. Homography transformation matrices based temperature calibration of a viewing system
EP3810013A1 (en) 2018-06-19 2021-04-28 Tornier, Inc. Neural network for recommendation of shoulder surgery type
US11510027B2 (en) 2018-07-03 2022-11-22 Magic Leap, Inc. Systems and methods for virtual and augmented reality
US10902678B2 (en) * 2018-09-06 2021-01-26 Curious Company, LLC Display of hidden information
CN110942518B (en) * 2018-09-24 2024-03-29 苹果公司 Contextual Computer Generated Reality (CGR) digital assistant
US11017217B2 (en) 2018-10-09 2021-05-25 Midea Group Co., Ltd. System and method for controlling appliances using motion gestures
US10678323B2 (en) 2018-10-10 2020-06-09 Plutovr Reference frames for virtual environments
US10838488B2 (en) 2018-10-10 2020-11-17 Plutovr Evaluating alignment of inputs and outputs for virtual environments
US10516853B1 (en) 2018-10-10 2019-12-24 Plutovr Aligning virtual representations to inputs and outputs
US11216150B2 (en) * 2019-06-28 2022-01-04 Wen-Chieh Geoffrey Lee Pervasive 3D graphical user interface with vector field functionality
WO2021007581A1 (en) 2019-07-11 2021-01-14 Elo Labs, Inc. Interactive personal training system
US11174153B2 (en) 2019-08-21 2021-11-16 Invensense, Inc. Package level thermal gradient sensing
US11209656B1 (en) 2020-10-05 2021-12-28 Facebook Technologies, Llc Methods of driving light sources in a near-eye display

Similar Documents

Publication Publication Date Title
US11321924B2 (en) Caching and updating of dense 3D reconstruction data
US10678340B2 (en) System and method for providing user interface tools
JP2023076633A (en) Contextual-based rendering of virtual avatars
CN107315470B (en) Graphic processing method, processor and virtual reality system
US11514673B2 (en) Systems and methods for augmented reality
GB2578695A (en) Mixed reality gaming system
CN114995594A (en) Interaction with 3D virtual objects using gestures and multi-DOF controllers
US11493989B2 (en) Modes of user interaction
JP2019519020A (en) Visual backlighting around the visual field
CN116485929A (en) Augmented reality system and method of operating an augmented reality system
CN104380347A (en) Video processing device, video processing method, and video processing system
US20190026935A1 (en) Method and system for providing virtual reality experience based on ultrasound data
US11380072B2 (en) Neutral avatars
JPWO2021021670A5 (en)
JP2019175323A (en) Simulation system and program
JP2022537817A (en) Fast hand meshing for dynamic occlusion
JP2022543593A (en) Fast 3D reconstruction using depth information
CN112513785A (en) Augmented reality viewer with automatic surface selection placement and content orientation placement
US20230244354A1 (en) 3d models for displayed 2d elements
CN110458929B (en) Js-based indoor setting rendering method and system
JP2019175322A (en) Simulation system and program
CN115191006B (en) 3D model for displayed 2D elements
JP2024034143A (en) Information processing device and information processing method
JP2024033849A (en) Information processing device and information processing method