JP7359941B2 - 仮想現実および拡張現実のためのシステムおよび方法 - Google Patents
仮想現実および拡張現実のためのシステムおよび方法 Download PDFInfo
- Publication number
- JP7359941B2 JP7359941B2 JP2022508529A JP2022508529A JP7359941B2 JP 7359941 B2 JP7359941 B2 JP 7359941B2 JP 2022508529 A JP2022508529 A JP 2022508529A JP 2022508529 A JP2022508529 A JP 2022508529A JP 7359941 B2 JP7359941 B2 JP 7359941B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- head
- virtual object
- mounted device
- item
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/131—Protocols for games, networked simulations or virtual reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
- H04N7/157—Conference systems defining a virtual conference space and using avatars or agents
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Description
本発明は、例えば、以下を提供する。
(項目1)
第1および第2のユーザの間の通信を促進するコンピュータ実装方法であって、前記方法は、
第1の頭部装着型デバイスによって、前記第1の頭部装着型デバイスを装着する前記第1のユーザに、第1の仮想オブジェクトを表示することと、
第2の頭部装着型デバイスによって、前記第2の頭部装着型デバイスを装着する前記第2のユーザに、第2の仮想オブジェクトを表示することと、
前記第1および第2の頭部装着型デバイスによって、前記第1および第2の仮想オブジェクトを使用して前記第1および第2のユーザの間の通信を促進し、共通環境内に存在する前記第1および第2のユーザをシミュレートすることと
を含む、方法。
(項目2)
前記第1の仮想オブジェクトは、前記第2のユーザのアバタである、項目1に記載の方法。
(項目3)
前記第2の仮想オブジェクトは、前記第1のユーザのアバタである、項目1に記載の方法。
(項目4)
第1のプロセッサによって、前記第2の仮想オブジェクトを前記第2の頭部装着型デバイスに送信することをさらに含む、項目1に記載の方法。
(項目5)
第2のプロセッサによって、前記第1の仮想オブジェクトを前記第1の頭部装着型デバイスに送信することをさらに含む、項目1に記載の方法。
(項目6)
仮想体験を共有するコンピュータ実装方法であって、前記方法は、
第1の頭部装着型デバイスによって、前記第1の頭部装着型デバイスを装着する第1のユーザに、仮想オブジェクトを表示することと、
第2の頭部装着型デバイスによって、前記第2の頭部装着型デバイスを装着する第2のユーザに、前記仮想オブジェクトを表示することと、
前記第1および第2の頭部装着型デバイスによって、前記仮想オブジェクトに関連する前記第1のユーザと第2のユーザとの間の通信を促進することと
を含む、方法。
(項目7)
前記第1のユーザは、第1の地理的位置に位置し、
前記第2のユーザは、前記第1の地理的位置と異なる第2の地理的位置に位置する、項目6に記載の方法。
(項目8)
前記第1のユーザによって、前記仮想オブジェクトを修正することをさらに含む、項目7に記載の方法。
(項目9)
前記第2のユーザによって、前記仮想オブジェクトを修正することをさらに含む、項目7に記載の方法。
(項目10)
前記第1および第2の頭部装着型デバイスによって、前記第1および第2の頭部装着型デバイスの間の前記仮想オブジェクトに対する修正を通信することをさらに含む、項目7に記載の方法。
(項目11)
前記第1および第2の頭部装着型デバイスは、ネットワークによって通信可能に結合される、項目7に記載の方法。
(項目12)
前記第1のユーザによって、前記第1の頭部装着型デバイスに動作可能に結合される第1のユーザインターフェースデバイスを介して、前記仮想オブジェクトに関連する入力を提供することをさらに含む、項目7に記載の方法。
(項目13)
前記第1のユーザインターフェースデバイスは、触知インターフェースデバイスと、キーボードと、マウスと、ジョイスティックと、モーションキャプチャコントローラと、光学追跡デバイスと、オーディオ入力デバイスとから成る群から選択される、項目12に記載の方法。
(項目14)
前記第2のユーザによって、前記第2の頭部装着型デバイスに動作可能に結合される第2のユーザインターフェースデバイスを介して、前記仮想オブジェクトに関連する入力を提供することをさらに含む、項目7に記載の方法。
(項目15)
前記第2のユーザインターフェースデバイスは、触知インターフェースデバイスと、キーボードと、マウスと、ジョイスティックと、モーションキャプチャコントローラと、光学追跡デバイスと、オーディオ入力デバイスとから成る群から選択される、項目14に記載の方法。
(項目16)
前記第1および第2の頭部装着型デバイスに動作可能に結合されるセンサによって、前記仮想オブジェクトに関連する入力を提供することをさらに含む、項目7に記載の方法。
(項目17)
前記センサは、カメラと、光学検出デバイスとから成る群から選択される、項目16に記載の方法。
(項目18)
前記センサは、外向きに向いている、項目16に記載の方法。
(項目19)
前記センサは、ユーザに向かって内向きに向いている、項目16に記載の方法。
(項目20)
前記センサによって、赤外線構造化光を投影することをさらに含む、項目16に記載の方法。
(項目21)
前記入力は、ユーザに関連する瞳孔サイズと、瞳孔位置と、瞳孔角度と、眼の真球度と、眼の形状と、フィギュアモーションと、解剖学的データとから成る群から選択される、項目16に記載の方法。
(項目22)
プロセッサによって、前記入力を使用してユーザの視覚焦点を決定することをさらに含む、項目16に記載の方法。
(項目23)
プロセッサによって、前記入力を使用してユーザの環境の一部をマップすることをさらに含む、項目16に記載の方法。
(項目24)
前記第1および第2の頭部装着型デバイスに動作可能に結合される環境センサによって、地理的な場所に関連する環境入力を提供することをさらに含む、項目7に記載の方法。
(項目25)
前記環境センサは、カメラと、光学検出デバイスと、モーションキャプチャデバイスと、深度測定デバイスと、顔認識デバイスと、オブジェクト認識デバイスと、オーディオ認識デバイスと、CMOSセンサと、視野センサと、光学増強センサとから成る群から選択される、項目24に記載の方法。
(項目26)
前記環境入力は、モーションキャプチャデータと、ジェスチャ認識データと、深度感知データと、顔認識データと、オブジェクト認識データと、一意オブジェクト特徴認識データと、オーディオ認識データと、音声認識データと、音響源位置特定データと、ノイズ低減データと、赤外光データと、レーザ光データと、CMOSセンサデータと、視野データと、光学増強データとから成る群から選択される、項目24に記載の方法。
(項目27)
前記仮想オブジェクトは、コンピュータ支援設計ファイルに対応する、項目7に記載の方法。
(項目28)
前記仮想オブジェクトは、建設物情報モデリングシステム構成に対応する、項目7に記載の方法。
(項目29)
前記仮想オブジェクトは、建設物であり、
前記第1および第2の頭部装着型デバイスは、それぞれ、前記第1および第2のユーザに前記建設物の仮想ツアーを表示するように構成される、項目7に記載の方法。
(項目30)
前記仮想オブジェクトは、製造されるオブジェクトの3次元図面である、項目7に記載の方法。
(項目31)
前記製造されるオブジェクトは、自動車のコンポーネントである、項目30に記載の方法。
(項目32)
前記仮想オブジェクトは、教育体験に関連する、項目7に記載の方法。
(項目33)
前記仮想オブジェクトは、実験室オブジェクトと、ライブラリからのオブジェクトと、3次元ビデオと、科学モデルと、自然現象とから成る群から選択される、項目32に記載の方法。
(項目34)
前記第1および第2の頭部装着型デバイスは、前記第1および第2のユーザの間の1対1の教育体験を促進するように構成される、項目32に記載の方法。
(項目35)
前記第1および第2の頭部装着型デバイスは、一対多の教育体験を促進するように構成される、項目32に記載の方法。
(項目36)
実世界体験を共有するコンピュータ実装方法であって、前記方法は、
第1の頭部装着型デバイスによって、前記第1の頭部装着型デバイスを装着する第1のユーザの環境内の実世界オブジェクトの画像を捕捉することと、
プロセッサによって、前記実世界オブジェクトの画像に基づいて、仮想オブジェクトを発生させることと、
第2の頭部装着型デバイスによって、前記第2の頭部装着型デバイスを装着する第2のユーザに、前記仮想オブジェクトを表示することと、
前記第1および第2の頭部装着型デバイスによって、前記実世界オブジェクトに関連する前記第1のユーザと第2のユーザとの間の通信を促進することと
を含む、方法。
(項目37)
前記第1のユーザは、第1の地理的位置に位置し、
前記第2のユーザは、前記第1の地理的位置と異なる第2の地理的位置に位置する、項目36に記載の方法。
(項目38)
前記仮想オブジェクトは、前記実世界オブジェクトに対応する、項目36に記載の方法。
(項目39)
前記プロセッサによって、前記実世界の画像に基づいて、メッシュまたは点群を発生させることをさらに含む、項目36に記載の方法。
(項目40)
前記第2の頭部装着型デバイスは、前記第2のユーザが前記仮想オブジェクトを修正することを可能にするように構成される、項目36に記載の方法。
(項目41)
前記第1の頭部装着型デバイスは、前記第2のユーザが前記仮想オブジェクトを修正することに基づいて、前記第1のユーザに第1の仮想オブジェクトを表示するように構成される、項目40に記載の方法。
(項目42)
前記第1および第2の頭部装着型デバイスは、前記第1および第2の頭部装着型デバイスの間の前記仮想オブジェクトに修正を通信するように構成される、項目36に記載の方法。
(項目43)
前記第1および第2の頭部装着型デバイスは、ネットワークによって通信可能に結合される、項目36に記載の方法。
(項目44)
前記第1および第2の頭部装着型デバイスおよび前記プロセッサは、前記第1のユーザに対する前記実世界オブジェクトのビューと実質的に同一である前記仮想オブジェクトのビューを前記第2のユーザに表示するように構成される、項目36に記載の方法。
(項目45)
前記第2のユーザは、前記実世界オブジェクトに関連する専門知識を有する、項目36に記載の方法。
(項目46)
前記第2のユーザは、前記実世界オブジェクトについての情報へのアクセスを有する、項目36に記載の方法。
(項目47)
前記第1の頭部装着型デバイスによって、前記実世界オブジェクトのテクスチャを感知することと、
前記プロセッサによって、前記実世界オブジェクトのテクスチャに基づいて、前記仮想オブジェクトのテクスチャを発生させることと、
前記第2の頭部装着型デバイスによって、前記第2のユーザに前記仮想オブジェクトのテクスチャを表示することと
をさらに含む、項目36に記載の方法。
(項目48)
前記第1の頭部装着型デバイスに動作可能に結合される振動センサによって、前記実世界オブジェクトに関連する振動を検出することと、
前記プロセッサによって、前記実世界オブジェクトに関連する前記振動に基づいて、前記仮想オブジェクトに関連する振動を発生させることと、
前記第2の頭部装着型デバイスに動作可能に結合される触知インターフェースデバイスによって、前記第2のユーザに前記仮想オブジェクトに関連する前記振動を提供することと
をさらに含む、項目36に記載の方法。
(項目49)
前記第1の頭部装着型デバイスに動作可能に結合される嗅覚センサによって、前記実世界オブジェクトに関連する匂いを検出することと、
前記プロセッサによって、前記実世界オブジェクトに関連する前記匂いに基づいて、前記仮想オブジェクトに関連する匂いを発生させることと、
前記第2の頭部装着型デバイスに動作可能に結合される嗅覚インターフェースデバイスによって、前記第2のユーザに前記仮想オブジェクトに関連する前記匂いを提供することと
をさらに含む、項目36に記載の方法。
(項目50)
前記実世界オブジェクトおよび前記仮想オブジェクトは両方とも、前記第1の地理的な場所における医療手技に関連する、項目37に記載の方法。
(項目51)
前記仮想オブジェクトに関連する前記第1および第2のユーザの間の前記通信は、前記第1のユーザによる前記医療手技の実施を促進する、項目50に記載の方法。
(項目52)
前記医療手技は、外科手術手技と、患者の診断と、現場医療手技とから成る群から選択される、項目50に記載の方法。
(項目53)
前記実世界オブジェクトおよび前記仮想オブジェクトは両方とも、前記第1の地理的な場所における緊急インシデントに関連する、項目37に記載の方法。
(項目54)
前記第2のユーザは、前記第1の地理的な場所についての情報へのアクセスを有する、項目53に記載の方法。
(項目55)
前記第1の地理的な場所についての前記情報は、前記地理的な場所のCAD図面と、前記地理的な場所におけるガスおよび電気アーキテクチャの概要と、前記地理的な場所におけるカメラ情報とから成る群から選択される、項目54に記載の方法。
(項目56)
前記第2の頭部装着型デバイスは、前記第2のユーザを前記第1の地理的な場所を修正するように促進するように構成される、項目53に記載の方法。
(項目57)
前記第1の地理的な場所は、火災が生じている建設物を備える、項目53に記載の方法。
(項目58)
前記実世界オブジェクトに関連する前記第1のユーザと第2のユーザとの間の前記通信は、前記第1のユーザまたは前記第2のユーザに関する眼追跡情報を含む、項目53に記載の方法。
(項目59)
前記実世界オブジェクトおよび前記仮想オブジェクトは両方とも、前記第1の地理的な場所における小売取引に関連する、項目37に記載の方法。
(項目60)
前記小売取引は、在庫品の追跡と、在庫品の管理と、販売訓練と、セキュリティシナリオの管理と、返品取引の促進と、顧客の商品選択の補助とから成る群から選択される、項目59に記載の方法。
(項目61)
前記実世界オブジェクトおよび前記仮想オブジェクトは両方とも、エンターテインメント体験に関連する、項目37に記載の方法。
(項目62)
前記第1および第2の頭部装着型デバイスは、没入型ニュース報道を促進するように構成される、項目61に記載の方法。
(項目63)
前記第1および第2の頭部装着型デバイスは、前記第1のユーザの第1の地理的な場所からの要素を組み込むエンターテインメントを促進するように構成される、項目61に記載の方法。
(項目64)
前記第1の頭部装着型デバイスによって、前記第1のユーザに発生される仮想オブジェクトを表示することをさらに含み、
前記仮想オブジェクトは、前記実世界オブジェクトに関する、項目61に記載の方法。
(項目65)
前記発生される仮想オブジェクトは、テキストと、オーディオ視覚クリップとから成る群から選択される、項目64に記載の方法。
(項目66)
前記第1の頭部装着型デバイスによって、前記実世界オブジェクトを示す前記第1のユーザからのユーザ入力を受信することと、
前記実世界オブジェクトを示す前記第1のユーザからの前記ユーザ入力を受信することに応答して、前記第1の頭部装着型デバイスに、前記第1のユーザに前記発生される仮想オブジェクトを表示することと
をさらに含む、項目64に記載の方法。
(項目67)
前記ユーザ入力は、前記第1の頭部装着型デバイスに動作可能に結合されるコントローラのユーザ注視と、ユーザジェスチャと、ユーザ操作とから成る群から選択される、項目66に記載の方法。
種々の実施形態では、ユーザは、「空間コンピューティング」システムとも称され得る、図1に描写されるもの等の拡張現実システムを、そのようなシステムの動作されるときのユーザの周囲の3次元世界との相互作用に関連して、装着していてもよい(32)。そのようなシステムは、例えば、頭部装着可能ディスプレイコンポーネント(2)を備えてもよく、ユーザの周囲の環境をマップする、またはそのような環境に関する「メッシュ」または「点群」を生成するように構成され得る、種々のタイプのカメラ等の、上記に説明されるような環境感知能力を特徴としてもよい。限定ではないが、拡張現実(AR)、仮想現実(VR)、および/または複合現実(MR)表示機能性を提供するシステムを含む、空間コンピューティングシステムが、種々のアクティビティを促進するために採用されてもよい。例えば、空間コンピューティングシステムは、相互から地理的に遠隔であり得る個人を含む、複数の個人の相互作用を伴うアクティビティのための、通信および協働の効率を改良することができる。
建築、エンジニアリング、および建設における実施例:
健康およびフィットネスにおける実施例:
製造における実施例
小売における実施例:
教育における実施例:
メディアおよびエンターテインメントにおける実施例:
例証的実施形態:
システムアーキテクチャ概観
Claims (26)
- 実世界オブジェクトおよび仮想オブジェクトを伴う仮想体験を共有するコンピュータ実装方法であって、前記方法は、
第1のユーザによって装着される第1の頭部装着型デバイス上に配置される環境センサによって、実世界オブジェクトの第1のユーザのビューからの前記実世界オブジェクトの画像を捕捉することと、
前記捕捉された画像に基づいて、前記実世界オブジェクトの前記第1のユーザのビューからの、前記実世界オブジェクトに対応する仮想オブジェクトのビューを生成することと、
前記第1の頭部装着型デバイスによって、前記第1の頭部装着型デバイスを装着する前記第1のユーザに、前記実世界オブジェクトの前記第1のユーザのビューからの前記仮想オブジェクトのビューを表示することと、
第2の頭部装着型デバイスによって、前記第2の頭部装着型デバイスを装着する第2のユーザに、前記実世界オブジェクトの前記第1のユーザのビューからの前記仮想オブジェクトのビューを表示することと
を含み、
前記実世界オブジェクトの前記第1のユーザのビューからの前記仮想オブジェクトのビューは、前記実世界オブジェクトの前記第1のユーザのビューからの前記実世界オブジェクトの画像を捕捉するとともに、リアルタイムで前記第1の頭部装着型デバイスおよび第2の頭部装着型デバイスの両方上に表示される、方法。 - 前記第1のユーザは、第1の地理的位置に位置し、
前記第2のユーザは、前記第1の地理的位置と異なる第2の地理的位置に位置する、請求項1に記載の方法。 - 前記第1のユーザによって、前記仮想オブジェクトを修正することをさらに含む、請求項2に記載の方法。
- 前記第2のユーザによって、前記仮想オブジェクトを修正することをさらに含む、請求項2に記載の方法。
- 前記第1および第2の頭部装着型デバイスによって、前記第1および第2の頭部装着型デバイスの間の前記仮想オブジェクトに対する修正を通信することをさらに含む、請求項2に記載の方法。
- 前記第1および第2の頭部装着型デバイスは、ネットワークによって通信可能に結合される、請求項2に記載の方法。
- 前記第1のユーザによって、前記第1の頭部装着型デバイスに動作可能に結合される第1のユーザインターフェースデバイスを介して、前記仮想オブジェクトに関連する入力を提供することをさらに含む、請求項2に記載の方法。
- 前記第1のユーザインターフェースデバイスは、触知インターフェースデバイスと、キーボードと、マウスと、ジョイスティックと、モーションキャプチャコントローラと、光学追跡デバイスと、オーディオ入力デバイスとから成る群から選択される、請求項7に記載の方法。
- 前記第2のユーザによって、前記第2の頭部装着型デバイスに動作可能に結合される第2のユーザインターフェースデバイスを介して、前記仮想オブジェクトに関連する入力を提供することをさらに含む、請求項2に記載の方法。
- 前記第2のユーザインターフェースデバイスは、触知インターフェースデバイスと、キーボードと、マウスと、ジョイスティックと、モーションキャプチャコントローラと、光学追跡デバイスと、オーディオ入力デバイスとから成る群から選択される、請求項9に記載の方法。
- 前記第1および第2の頭部装着型デバイスに動作可能に結合されるセンサによって、前記仮想オブジェクトに関連する入力を提供することをさらに含む、請求項2に記載の方法。
- 前記センサは、カメラと、光学検出デバイスとから成る群から選択される、請求項11に記載の方法。
- 前記入力は、ユーザに関連する瞳孔サイズと、瞳孔位置と、瞳孔角度と、眼の真球度と、眼の形状と、フィギュアモーションと、解剖学的データとから成る群から選択される、請求項11に記載の方法。
- プロセッサによって、前記入力を使用してユーザの視覚焦点を決定することをさらに含む、請求項11に記載の方法。
- プロセッサによって、前記入力を使用してユーザの環境の一部をマップすることをさらに含む、請求項11に記載の方法。
- 前記第1および第2の頭部装着型デバイスに動作可能に結合される環境センサによって、前記実世界オブジェクトの画像を捕捉するために、地理的な場所に関連する環境入力を提供することをさらに含む、請求項2に記載の方法。
- 前記環境センサは、カメラと、光学検出デバイスと、モーションキャプチャデバイスと、深度測定デバイスと、顔認識デバイスと、オブジェクト認識デバイスと、オーディオ認識デバイスと、CMOSセンサと、視野センサと、光学増強センサとから成る群から選択される、請求項16に記載の方法。
- 前記環境入力は、モーションキャプチャデータと、ジェスチャ認識データと、深度感知データと、顔認識データと、オブジェクト認識データと、一意オブジェクト特徴認識データと、オーディオ認識データと、音声認識データと、音響源位置特定データと、ノイズ低減データと、赤外光データと、レーザ光データと、CMOSセンサデータと、視野データと、光学増強データとから成る群から選択される、請求項16に記載の方法。
- 前記仮想オブジェクトは、建設物であり、
前記第1および第2の頭部装着型デバイスは、それぞれ、前記第1および第2のユーザに前記建設物の仮想ツアーを表示するように構成される、請求項2に記載の方法。 - 前記仮想オブジェクトは、製造されるオブジェクトの3次元図面である、請求項2に記載の方法。
- 前記第2の頭部装着型デバイスを通して前記第2のユーザに表示される前記仮想オブジェクトのビューは、前記第2のユーザが、前記第2のユーザが前記第1のユーザの肩越しに見ているように、前記第1のユーザのアクティビティを可視化することを可能にする、請求項1に記載の方法。
- 前記第1のユーザは前記第1の頭部装着型デバイスを通して、かつ、前記第2のユーザは前記第2の頭部装着型デバイスを通して、前記仮想オブジェクトを協働して視認する、請求項1に記載の方法。
- 前記第1のユーザは前記第1の頭部装着型デバイスを通して、かつ、前記第2のユーザは前記第2の頭部装着型デバイスを通して、前記仮想オブジェクトを協働して操作する、請求項1に記載の方法。
- 前記第2の頭部装着型デバイスを通して前記第2のユーザに表示される前記仮想オブジェクトのビューは、前記第2のユーザが、前記第2のユーザが前記第1のユーザの肩越しに見ているように、前記第1のユーザのアクティビティを可視化することを可能にし、
前記第1のユーザは前記第1の頭部装着型デバイスを通して、かつ、前記第2のユーザは前記第2の頭部装着型デバイスを通して、前記仮想オブジェクトを協働して視認および操作する、請求項1に記載の方法。 - 前記第1の頭部装着型デバイスと前記第2の頭部装着型デバイスとの間で、個別の第1および第2の頭部装着型デバイスの個別のセンサによって検出されたオーディオと、テクスチャと、振動と、匂いとを含む媒体を通信することをさらに含む、請求項24に記載の方法。
- 前記第1のユーザは、第1の地理的位置に位置し、前記第2のユーザは、前記第1の地理的位置と異なる第2の地理的位置に位置し、
前記第1のユーザが前記第1の頭部装着型デバイスの第1のユーザインターフェースを操作することに基づいて、前記仮想オブジェクトを修正することであって、前記第1のユーザインターフェースは、触知インターフェースデバイスと、キーボードと、マウスと、ジョイスティックと、モーションキャプチャコントローラと、光学追跡デバイスと、オーディオ入力デバイスとから成る群から選択される、ことと、
前記第2のユーザが前記第2の頭部装着型デバイスの第2のユーザインターフェースを操作することに基づいて、前記仮想オブジェクトを修正することであって、前記第2のユーザインターフェースは、触知インターフェースデバイスと、キーボードと、マウスと、ジョイスティックと、モーションキャプチャコントローラと、光学追跡デバイスと、オーディオ入力デバイスとから成る群から選択される、ことと、
前記第1の頭部装着型デバイスと前記第2の頭部装着型デバイスとの間で、ネットワークを通して、前記仮想オブジェクトに対する個別の修正を通信することと
をさらに含み、
前記第2の頭部装着型デバイスを通して前記第2のユーザに表示される前記仮想オブジェクトのビューは、前記第2のユーザが、前記第2のユーザが前記第1のユーザの肩越しに見ているように、前記第1のユーザのアクティビティを可視化することを可能にし、
前記第1のユーザは前記第1の頭部装着型デバイスを通して、かつ、前記第2のユーザは前記第2の頭部装着型デバイスを通して、前記仮想オブジェクトを協働して視認および操作する、請求項1に記載の方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023167637A JP2023175884A (ja) | 2019-08-12 | 2023-09-28 | 仮想現実および拡張現実のためのシステムおよび方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962885794P | 2019-08-12 | 2019-08-12 | |
US62/885,794 | 2019-08-12 | ||
PCT/US2020/045731 WO2021030328A1 (en) | 2019-08-12 | 2020-08-11 | Systems and methods for virtual and augmented reality |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023167637A Division JP2023175884A (ja) | 2019-08-12 | 2023-09-28 | 仮想現実および拡張現実のためのシステムおよび方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022544240A JP2022544240A (ja) | 2022-10-17 |
JPWO2021030328A5 JPWO2021030328A5 (ja) | 2023-08-08 |
JP7359941B2 true JP7359941B2 (ja) | 2023-10-11 |
Family
ID=74566720
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022508529A Active JP7359941B2 (ja) | 2019-08-12 | 2020-08-11 | 仮想現実および拡張現実のためのシステムおよび方法 |
JP2023167637A Pending JP2023175884A (ja) | 2019-08-12 | 2023-09-28 | 仮想現実および拡張現実のためのシステムおよび方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023167637A Pending JP2023175884A (ja) | 2019-08-12 | 2023-09-28 | 仮想現実および拡張現実のためのシステムおよび方法 |
Country Status (5)
Country | Link |
---|---|
US (3) | US11537351B2 (ja) |
EP (1) | EP4014468A4 (ja) |
JP (2) | JP7359941B2 (ja) |
CN (1) | CN114222942A (ja) |
WO (1) | WO2021030328A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102516124B1 (ko) * | 2013-03-11 | 2023-03-29 | 매직 립, 인코포레이티드 | 증강 및 가상 현실을 위한 시스템 및 방법 |
KR102318391B1 (ko) | 2013-03-15 | 2021-10-26 | 매직 립, 인코포레이티드 | 디스플레이 시스템 및 방법 |
US20240070302A1 (en) * | 2022-08-31 | 2024-02-29 | Youjean Cho | Collaborative object associated with a geographical location |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080130950A1 (en) | 2006-12-01 | 2008-06-05 | The Boeing Company | Eye gaze tracker system and method |
US20120249741A1 (en) | 2011-03-29 | 2012-10-04 | Giuliano Maciocci | Anchoring virtual images to real world surfaces in augmented reality systems |
US20150163473A1 (en) | 2012-07-11 | 2015-06-11 | Sony Computer Entertainment Inc. | Image generating device and image generating method |
US20150215351A1 (en) | 2014-01-24 | 2015-07-30 | Avaya Inc. | Control of enhanced communication between remote participants using augmented and virtual reality |
US20150235435A1 (en) | 2013-03-11 | 2015-08-20 | Magic Leap, Inc. | Recognizing objects in a passable world model in augmented or virtual reality systems |
US20160225188A1 (en) | 2015-01-16 | 2016-08-04 | VRstudios, Inc. | Virtual-reality presentation volume within which human participants freely move while experiencing a virtual environment |
US20160321841A1 (en) | 2015-04-28 | 2016-11-03 | Jonathan Christen | Producing and consuming metadata within multi-dimensional data |
US20160371884A1 (en) | 2015-06-17 | 2016-12-22 | Microsoft Technology Licensing, Llc | Complementary augmented reality |
US9551873B2 (en) | 2014-05-30 | 2017-01-24 | Sony Interactive Entertainment America Llc | Head mounted device (HMD) system having interface with mobile computing device for rendering virtual reality content |
US20170092000A1 (en) | 2015-09-25 | 2017-03-30 | Moshe Schwimmer | Method and system for positioning a virtual object in a virtual simulation environment |
US20190371075A1 (en) | 2016-06-13 | 2019-12-05 | Sony Interactive Entertainment Inc. | HMD Transitions for Focusing on Specific Content in Virtual-Reality Environments |
US20200051336A1 (en) | 2016-11-21 | 2020-02-13 | Sony Corporation | Information processing device, information processing method, and program |
US20200117270A1 (en) | 2018-10-10 | 2020-04-16 | Plutovr | Evaluating alignment of inputs and outputs for virtual environments |
Family Cites Families (69)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5495576A (en) | 1993-01-11 | 1996-02-27 | Ritchey; Kurtis J. | Panoramic image based virtual reality/telepresence audio-visual system and method |
US6759979B2 (en) | 2002-01-22 | 2004-07-06 | E-Businesscontrols Corp. | GPS-enhanced system and method for automatically capturing and co-registering virtual models of a site |
US7386799B1 (en) | 2002-11-21 | 2008-06-10 | Forterra Systems, Inc. | Cinematic techniques in avatar-centric communication during a multi-user online simulation |
WO2005009566A2 (en) | 2003-07-17 | 2005-02-03 | Fabricio Vayra | Method and system for interaction with real-time events from a remote location, through use of a computer, game console or other module |
US11033821B2 (en) | 2003-09-02 | 2021-06-15 | Jeffrey D. Mullen | Systems and methods for location based games and employment of the same on location enabled devices |
US7403337B2 (en) | 2004-05-11 | 2008-07-22 | Universal Vision Biotechnology Co., Ltd. | Focus adjustable head mounted display system and method and device for realizing the system |
US6947219B1 (en) | 2004-06-02 | 2005-09-20 | Universal Vision Biotechnology Co., Ltd. | Focus adjustable head mounted display system for displaying digital contents and device for realizing the system |
US20060007056A1 (en) | 2004-07-09 | 2006-01-12 | Shu-Fong Ou | Head mounted display system having virtual keyboard and capable of adjusting focus of display screen and device installed the same |
US8585476B2 (en) | 2004-11-16 | 2013-11-19 | Jeffrey D Mullen | Location-based games and augmented reality systems |
US7737965B2 (en) | 2005-06-09 | 2010-06-15 | Honeywell International Inc. | Handheld synthetic vision device |
US9958934B1 (en) | 2006-05-01 | 2018-05-01 | Jeffrey D. Mullen | Home and portable augmented reality and virtual reality video game consoles |
SE0601216L (sv) | 2006-05-31 | 2007-12-01 | Abb Technology Ltd | Virtuell arbetsplats |
US20080071559A1 (en) | 2006-09-19 | 2008-03-20 | Juha Arrasvuori | Augmented reality assisted shopping |
JP5228307B2 (ja) | 2006-10-16 | 2013-07-03 | ソニー株式会社 | 表示装置、表示方法 |
US20080215994A1 (en) | 2007-03-01 | 2008-09-04 | Phil Harrison | Virtual world avatar control, interactivity and communication interactive messaging |
US20080303811A1 (en) | 2007-06-07 | 2008-12-11 | Leviathan Entertainment, Llc | Virtual Professional |
US8902227B2 (en) | 2007-09-10 | 2014-12-02 | Sony Computer Entertainment America Llc | Selective interactive mapping of real-world objects to create interactive virtual-world objects |
US20090089685A1 (en) | 2007-09-28 | 2009-04-02 | Mordecai Nicole Y | System and Method of Communicating Between A Virtual World and Real World |
US8063905B2 (en) | 2007-10-11 | 2011-11-22 | International Business Machines Corporation | Animating speech of an avatar representing a participant in a mobile communication |
US20090221368A1 (en) | 2007-11-28 | 2009-09-03 | Ailive Inc., | Method and system for creating a shared game space for a networked game |
KR20090067822A (ko) | 2007-12-21 | 2009-06-25 | 삼성전자주식회사 | 현실 인자를 반영하는 혼합 세계 생성 시스템 및 구현 방법 |
US8615383B2 (en) | 2008-01-18 | 2013-12-24 | Lockheed Martin Corporation | Immersive collaborative environment using motion capture, head mounted display, and cave |
WO2009108790A1 (en) | 2008-02-26 | 2009-09-03 | Ecity, Inc. | Method and apparatus for integrated life through virtual cities |
US8295546B2 (en) | 2009-01-30 | 2012-10-23 | Microsoft Corporation | Pose tracking pipeline |
US9511289B2 (en) | 2009-07-10 | 2016-12-06 | Valve Corporation | Player biofeedback for dynamically controlling a video game state |
JP5553635B2 (ja) | 2009-10-23 | 2014-07-16 | キヤノン株式会社 | 補償光学装置、撮像装置および補償光学方法、撮像方法 |
KR101652311B1 (ko) | 2010-01-26 | 2016-08-30 | 광주과학기술원 | 비전 영상 정보 저장 시스템과 그 방법, 및 상기 방법을 구현하는 프로그램이 기록된 기록매체 |
US8482859B2 (en) | 2010-02-28 | 2013-07-09 | Osterhout Group, Inc. | See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film |
US8893022B2 (en) | 2010-04-01 | 2014-11-18 | Microsoft Corporation | Interactive and shared viewing experience |
US8762041B2 (en) | 2010-06-21 | 2014-06-24 | Blackberry Limited | Method, device and system for presenting navigational information |
KR101420560B1 (ko) | 2010-08-09 | 2014-07-16 | 파나소닉 주식회사 | 광디바이스, 및 이것을 포함한 충전 시스템 |
US8941559B2 (en) | 2010-09-21 | 2015-01-27 | Microsoft Corporation | Opacity filter for display device |
US8638364B2 (en) | 2010-09-23 | 2014-01-28 | Sony Computer Entertainment Inc. | User interface system and method using thermal imaging |
US8884984B2 (en) | 2010-10-15 | 2014-11-11 | Microsoft Corporation | Fusing virtual content into real content |
US9122053B2 (en) | 2010-10-15 | 2015-09-01 | Microsoft Technology Licensing, Llc | Realistic occlusion for a head mounted augmented reality display |
US9511291B2 (en) | 2010-11-15 | 2016-12-06 | Bally Gaming, Inc. | System and method for enhanced augmented reality tracking |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
US8576276B2 (en) | 2010-11-18 | 2013-11-05 | Microsoft Corporation | Head-mounted display device which provides surround video |
US9213405B2 (en) | 2010-12-16 | 2015-12-15 | Microsoft Technology Licensing, Llc | Comprehension and intent-based content for augmented reality displays |
US20120182313A1 (en) | 2011-01-13 | 2012-07-19 | Pantech Co., Ltd. | Apparatus and method for providing augmented reality in window form |
US9113050B2 (en) | 2011-01-13 | 2015-08-18 | The Boeing Company | Augmented collaboration system |
US8401343B2 (en) | 2011-03-27 | 2013-03-19 | Edwin Braun | System and method for defining an augmented reality character in computer generated virtual reality using coded stickers |
US9071709B2 (en) | 2011-03-31 | 2015-06-30 | Nokia Technologies Oy | Method and apparatus for providing collaboration between remote and on-site users of indirect augmented reality |
AU2011205223C1 (en) | 2011-08-09 | 2013-03-28 | Microsoft Technology Licensing, Llc | Physical interaction with virtual objects for DRM |
US10019962B2 (en) | 2011-08-17 | 2018-07-10 | Microsoft Technology Licensing, Llc | Context adaptive user interface for augmented reality display |
US9342610B2 (en) | 2011-08-25 | 2016-05-17 | Microsoft Technology Licensing, Llc | Portals: registered objects as virtualized, personalized displays |
US9274595B2 (en) | 2011-08-26 | 2016-03-01 | Reincloud Corporation | Coherent presentation of multiple reality and interaction models |
US9323325B2 (en) | 2011-08-30 | 2016-04-26 | Microsoft Technology Licensing, Llc | Enhancing an object of interest in a see-through, mixed reality display device |
US9255813B2 (en) | 2011-10-14 | 2016-02-09 | Microsoft Technology Licensing, Llc | User controlled real object disappearance in a mixed reality display |
CA3164530C (en) | 2011-10-28 | 2023-09-19 | Magic Leap, Inc. | System and method for augmented and virtual reality |
CN105974587B (zh) | 2011-11-24 | 2018-09-28 | 松下知识产权经营株式会社 | 头戴式显示器装置 |
US20130141419A1 (en) | 2011-12-01 | 2013-06-06 | Brian Mount | Augmented reality with realistic occlusion |
US8963805B2 (en) | 2012-01-27 | 2015-02-24 | Microsoft Corporation | Executable virtual objects associated with real objects |
US20130215230A1 (en) | 2012-02-22 | 2013-08-22 | Matt Miesnieks | Augmented Reality System Using a Portable Device |
JP5958689B2 (ja) | 2012-03-22 | 2016-08-02 | セイコーエプソン株式会社 | 頭部装着型表示装置 |
US9122321B2 (en) | 2012-05-04 | 2015-09-01 | Microsoft Technology Licensing, Llc | Collaboration environment using see through displays |
US9696547B2 (en) | 2012-06-25 | 2017-07-04 | Microsoft Technology Licensing, Llc | Mixed reality system learned input and functions |
US9645394B2 (en) | 2012-06-25 | 2017-05-09 | Microsoft Technology Licensing, Llc | Configured virtual environments |
US20140178029A1 (en) | 2012-12-26 | 2014-06-26 | Ali Fazal Raheman | Novel Augmented Reality Kiosks |
US9342929B2 (en) | 2013-01-22 | 2016-05-17 | Microsoft Technology Licensing, Llc | Mixed reality experience sharing |
US9685003B2 (en) | 2013-06-03 | 2017-06-20 | Microsoft Technology Licensing, Llc | Mixed reality data collaboration |
US10139623B2 (en) | 2013-06-18 | 2018-11-27 | Microsoft Technology Licensing, Llc | Virtual object orientation and visualization |
CA2924156A1 (en) | 2013-09-17 | 2015-03-26 | Societe Des Arts Technologiques | Method, system and apparatus for capture-based immersive telepresence in virtual environment |
US9911231B2 (en) | 2013-10-08 | 2018-03-06 | Samsung Electronics Co., Ltd. | Method and computing device for providing augmented reality |
EP2996017B1 (en) * | 2014-09-11 | 2022-05-11 | Nokia Technologies Oy | Method, apparatus and computer program for displaying an image of a physical keyboard on a head mountable display |
US10216996B2 (en) | 2014-09-29 | 2019-02-26 | Sony Interactive Entertainment Inc. | Schemes for retrieving and associating content items with real-world objects using augmented reality and object recognition |
US10062208B2 (en) * | 2015-04-09 | 2018-08-28 | Cinemoi North America, LLC | Systems and methods to provide interactive virtual environments |
US10701318B2 (en) | 2015-08-14 | 2020-06-30 | Pcms Holdings, Inc. | System and method for augmented reality multi-view telepresence |
CA2941333A1 (en) * | 2015-10-30 | 2017-04-30 | Wal-Mart Stores, Inc. | Virtual conference room |
-
2020
- 2020-08-11 US US16/990,161 patent/US11537351B2/en active Active
- 2020-08-11 EP EP20852187.2A patent/EP4014468A4/en active Pending
- 2020-08-11 CN CN202080057107.3A patent/CN114222942A/zh active Pending
- 2020-08-11 JP JP2022508529A patent/JP7359941B2/ja active Active
- 2020-08-11 WO PCT/US2020/045731 patent/WO2021030328A1/en unknown
-
2022
- 2022-11-07 US US18/053,357 patent/US11928384B2/en active Active
-
2023
- 2023-09-28 JP JP2023167637A patent/JP2023175884A/ja active Pending
-
2024
- 2024-02-01 US US18/430,521 patent/US20240168699A1/en active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080130950A1 (en) | 2006-12-01 | 2008-06-05 | The Boeing Company | Eye gaze tracker system and method |
US20120249741A1 (en) | 2011-03-29 | 2012-10-04 | Giuliano Maciocci | Anchoring virtual images to real world surfaces in augmented reality systems |
US20150163473A1 (en) | 2012-07-11 | 2015-06-11 | Sony Computer Entertainment Inc. | Image generating device and image generating method |
US20150235435A1 (en) | 2013-03-11 | 2015-08-20 | Magic Leap, Inc. | Recognizing objects in a passable world model in augmented or virtual reality systems |
US20150215351A1 (en) | 2014-01-24 | 2015-07-30 | Avaya Inc. | Control of enhanced communication between remote participants using augmented and virtual reality |
US9551873B2 (en) | 2014-05-30 | 2017-01-24 | Sony Interactive Entertainment America Llc | Head mounted device (HMD) system having interface with mobile computing device for rendering virtual reality content |
US20160225188A1 (en) | 2015-01-16 | 2016-08-04 | VRstudios, Inc. | Virtual-reality presentation volume within which human participants freely move while experiencing a virtual environment |
US20160321841A1 (en) | 2015-04-28 | 2016-11-03 | Jonathan Christen | Producing and consuming metadata within multi-dimensional data |
US20160371884A1 (en) | 2015-06-17 | 2016-12-22 | Microsoft Technology Licensing, Llc | Complementary augmented reality |
US20170092000A1 (en) | 2015-09-25 | 2017-03-30 | Moshe Schwimmer | Method and system for positioning a virtual object in a virtual simulation environment |
US20190371075A1 (en) | 2016-06-13 | 2019-12-05 | Sony Interactive Entertainment Inc. | HMD Transitions for Focusing on Specific Content in Virtual-Reality Environments |
US20200051336A1 (en) | 2016-11-21 | 2020-02-13 | Sony Corporation | Information processing device, information processing method, and program |
US20200117270A1 (en) | 2018-10-10 | 2020-04-16 | Plutovr | Evaluating alignment of inputs and outputs for virtual environments |
Also Published As
Publication number | Publication date |
---|---|
US11537351B2 (en) | 2022-12-27 |
US20230082741A1 (en) | 2023-03-16 |
WO2021030328A1 (en) | 2021-02-18 |
US20240168699A1 (en) | 2024-05-23 |
US11928384B2 (en) | 2024-03-12 |
EP4014468A4 (en) | 2022-10-19 |
US20210048972A1 (en) | 2021-02-18 |
JP2023175884A (ja) | 2023-12-12 |
EP4014468A1 (en) | 2022-06-22 |
CN114222942A (zh) | 2022-03-22 |
JP2022544240A (ja) | 2022-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Çöltekin et al. | Extended reality in spatial sciences: A review of research challenges and future directions | |
LaViola Jr et al. | 3D user interfaces: theory and practice | |
Schuemie et al. | Research on presence in virtual reality: A survey | |
JP7359941B2 (ja) | 仮想現実および拡張現実のためのシステムおよび方法 | |
Dargan et al. | Augmented reality: A comprehensive review | |
Wang et al. | Mixed reality in architecture, design, and construction | |
Wang et al. | Tangible mixed reality for remote design review: a study understanding user perception and acceptance | |
Vafadar | Virtual reality: Opportunities and challenges | |
Ugwitz et al. | Eye-tracking in interactive virtual environments: implementation and evaluation | |
Komianos | Immersive applications in museums: an analysis of the use of xr technologies and the provided functionality based on systematic literature review | |
Pavithra et al. | An emerging immersive technology-a survey | |
Paulauskas et al. | Reconstruction of industrial and historical heritage for cultural enrichment using virtual and augmented reality | |
Park et al. | Virtual figure model crafting with VR HMD and Leap Motion | |
Chen et al. | Virtual, Augmented and Mixed Reality: Interaction, Navigation, Visualization, Embodiment, and Simulation: 10th International Conference, VAMR 2018, Held as Part of HCI International 2018, Las Vegas, NV, USA, July 15-20, 2018, Proceedings, Part I | |
Ali et al. | Review of virtual reality trends (previous, current, and future directions), and their applications, technologies and technical issues | |
Saggio et al. | Augmented reality for restoration/reconstruction of artefacts with artistic or historical value | |
Saini et al. | Virtual Reality: A Survey of Enabling Technologies and its Applications in IoT | |
Dai et al. | Research on Holographic Visualization Verification Platform for Construction Machinery Based on Mixed Reality Technology | |
Nesamalar et al. | An introduction to virtual reality techniques and its applications | |
Yenduri et al. | Spatial Computing: Concept, Applications, Challenges and Future Directions | |
Medeiros et al. | The Potential of VR-based Tactical Resource Planning on Spatial Data | |
Wirth et al. | Extended realities (XRs): how immersive technologies influence assessment and training for extreme environments | |
Radhika et al. | 10 Augmented Reality and Virtual Reality in disaster management systems: A review | |
Annaamalai et al. | Introduction to Augmented Reality | |
Luna | Introduction to Virtual Reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230731 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230731 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230731 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230908 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230928 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7359941 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |