JP2022046670A - 対話型拡張現実表示を表示するためのシステム、方法、及び媒体 - Google Patents
対話型拡張現実表示を表示するためのシステム、方法、及び媒体 Download PDFInfo
- Publication number
- JP2022046670A JP2022046670A JP2021211825A JP2021211825A JP2022046670A JP 2022046670 A JP2022046670 A JP 2022046670A JP 2021211825 A JP2021211825 A JP 2021211825A JP 2021211825 A JP2021211825 A JP 2021211825A JP 2022046670 A JP2022046670 A JP 2022046670A
- Authority
- JP
- Japan
- Prior art keywords
- content
- head
- display
- mounted display
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 93
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 25
- 238000000034 method Methods 0.000 title abstract description 154
- 230000004888 barrier function Effects 0.000 claims description 40
- 230000004044 response Effects 0.000 claims description 32
- 230000033001 locomotion Effects 0.000 claims description 13
- 238000005259 measurement Methods 0.000 claims description 4
- 230000003936 working memory Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 3
- 238000004891 communication Methods 0.000 abstract description 50
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 abstract description 43
- 230000008569 process Effects 0.000 description 92
- 230000015654 memory Effects 0.000 description 32
- 230000000007 visual effect Effects 0.000 description 21
- 210000003128 head Anatomy 0.000 description 17
- 230000003287 optical effect Effects 0.000 description 16
- 238000003860 storage Methods 0.000 description 16
- 238000012552 review Methods 0.000 description 12
- 238000005192 partition Methods 0.000 description 10
- 230000001413 cellular effect Effects 0.000 description 8
- 238000005286 illumination Methods 0.000 description 6
- 210000003205 muscle Anatomy 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 210000003484 anatomy Anatomy 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 240000004050 Pentaglottis sempervirens Species 0.000 description 4
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 241000699666 Mus <mouse, genus> Species 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000000153 supplemental effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000005036 nerve Anatomy 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 230000002085 persistent effect Effects 0.000 description 2
- 230000036316 preload Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 210000005166 vasculature Anatomy 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000003491 skin Anatomy 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/14—Display of multiple viewports
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/024—Multi-user, collaborative environment
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/02—Networking aspects
- G09G2370/022—Centralised management of display operation, e.g. in a server instead of locally
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Optics & Photonics (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本出願は、2016年12月5日に出願された米国仮出願第62/430,179号、2017年3月30日に出願された米国仮出願第62/479,214号、2017年5月1日に出願された米国仮出願第62/492,832号、及び2017年9月20日に出願された米国仮出願第62/560,869号に基づき、その利益を主張しその優先権を主張する。上記各出願は、あらゆる目的のためにその全体が参照により本明細書に組み込まれる。
該当しない
ヘッドマウントディスプレイの物理的環境における複数の物理的位置のうちの第1の物理的位置が前記ヘッドマウントディスプレイに最も近い位置にあることを判断し、第1の3次元モデルを含む第1のコンテンツを受信し、第2の3次元モデルを含む第2のコンテンツを受信し、透明ディスプレイを使用して第1の3次元モデルの第1のビューを第1の時刻に表示し、透明ディスプレイを使用してサーバから受信した1つ又は複数の命令に基づいて第1の時刻に続く第2の時刻に第2の3次元モデルの第1のビューを表示する、ようにプログラムされる。
用してサーバによって少なくとも部分的に提供されるサービスにログインするようにユーザに促し、第1のヘッドマウントディスプレイをサービスにログインするためにコードの画像を取り込むようにユーザに促すようにさらにプログラムされる。
時に表示し、物理的環境における第2の物理的位置に近いことに基づいて第2のコンテンツを表示し、複数のヘッドマウントディスプレイのうちの第3のヘッドマウントディスプレイ、及び第1の時刻に第2の物理的位置の近くに位置する複数のヘッドマウントディスプレイのうちの第4のヘッドマウントディスプレイが、第2の物理的位置に近いことに基づいて第2の物理的位置に対して同じ向きで第2の物理的位置に第2のコンテンツを同時に表示する。
の第1の位置に近いことに少なくとも部分的に基づいて第1の位置の第1のコンテンツを表示し、第1の表示情報に基づいて環境内の前記ヘッドマウントディスプレイの第2の位置に近いことに少なくとも部分的に基づいて第2の位置にある第2のコンテンツを表示し、第2の表示情報に基づいて環境内のヘッドマウントディスプレイの位置の第1の位置に近いことに少なくとも部分的に基づいて第1の位置に第3のコンテンツを表示する。
示終了後、様々なモデルを様々な物理的及び/又は仮想的な場所に(例えば、表示を構築する時にインストラクタによって入力された指示に従って)表示することができ、学生は様々なモデル間を自由に移動してクラスで話し合ったコンセプトをさらに探求することができる。
ップトップコンピュータ、タブレットコンピュータ、スマートフォン、ウェアラブルコンピュータ、ヘッドマウントディスプレイ(例えば、HMD100)などの任意の適切な演算デバイス又はデバイスの組合せとすることができる。いくつかの実施形態では、ユーザは、任意の適切な技法又は技法の組合せを使用してユーザ演算デバイス220及び/又はサーバ204を使用することで、コンテンツを選択し、表示を生成し、コンテンツをアップロードすることなどができる。例えば、ユーザ演算デバイス220は、任意の適切な数のステーション及び/又は任意の適切な数のHMDについてコンテンツの表示を生成及び/又は編集するように構成されている表示アプリケーションをメモリから実行することができる。別の例として、ユーザ演算デバイス220は、演算デバイス220又はリモートで実行された表示アプリケーションとの対話を容易にする他のアプリケーションによって実行されるウェブブラウザを介して、ネットワーク206を通じて他の演算デバイス(例えば、サーバ204、クラウドサーバなど)によって実行される表示アプリケーションと対話することができる。
してステーション202-3のコンテンツを表示し及び/又は要求することができる。追加又は代替として、いくつかの実施形態では、サーバ204は、任意の適切な時に命令及び/又はコンテンツをHMD100-2にプッシュすることができる。例えば、サーバ204は、HMD100-2がステーション202-2の近傍を離れてステーション202-3に近づいたと判断することができ、HMD100-2がステーション202-3に接近したとの判断に応答してステーション202に関連するコンテンツを表示するようにHMDに命令をプッシュすることができる(及び/又はコンテンツ自体をプッシュすることができる)。別の例として、サーバ204は、任意の適切な1つ又は複数のステーション202によって表示されているコンテンツを変更する命令を(例えばプレゼンタから)受信することができる。そのような指示に応答して、サーバ204は、新しいコンテンツを表示する指示(及び/又は新しいコンテンツ自体)を適切なHMD100にプッシュすることができる。さらに別の例として、サーバ204は、特定の時刻に特定のコンテンツを受信するように特定のHMD100を割り当てる命令を受信することができる。そのような例では、特定のHMD100の装着者は、コンテンツがサーバ204からステーションに関連付けられているという指示を受信した後に(及び/又はコンテンツ自体を受信した後に)HMD100がコンテンツを表示している割り当てステーションに移動するように促される。
フェースをユーザに提供することができる。追加又は代替として、いくつかの実施形態では、対をなすユーザデバイス(例えば、図8及び図9に関連して上述したようなユーザデバイス802)を使用して、ユーザによるレビューのためにHMD100-1によって表示できる3Dモデルを選択、カスタマイズ、設計などできる。
1106及び/又は1108に同じコンテンツを表示するようにすることができる。例えば、特定のHMDをマスターHMDとして指定することができ、マスターHMDと対になったHMDは、それらがマスターHMDと共にバリア1104の周りを移動しなくても表示スペース1106及び/又は1108に同じコンテンツを表示することができる。別の例として、リンクされたHMDはどのコンテンツを表示するかを決定することができる(例えば、HMDの大半が存在する場所に基づいて、バリア1104の周りを最も頻繁に移動した移動したHMDに基づいて、バリア1104の周囲を最も少ない回数で移動したHMDに基づいて、など)。いくつかの実施形態では、任意の適切な技法又は技法の組合せを使用して2つ以上の異なるHMDを互いにリンクすることができる。例えば、リンクされるべきHMDは、1つ又は複数の他のHMDとリンクされているとしてHMDを指定する構成ファイルの存在に基づくことができる。別の例として、最初に物理空間1102に入った時、物理空間1102に関連付けられたアプリケーションを起動した時など、セットアップルーチンの一部としてユーザにグループを選択するように促すことができる。そのような例では、経験を共有したいと思うユーザは、彼らが同じグループの一員であることを示すことができる。さらに別の例として、互いにリンクされるべき各HMDは、HMDをリンクさせることができる特定の視覚コード(例えば、QRコード(登録商標))の画像を取り込むことができる。さらに別の例として、HMDと対をなすデバイス(例えば、スマートフォン、タブレットコンピュータなど)を使用して、参加するグループを選択することができ、及び/又はリンクする1つ又は複数の他のHMDを選択することができる。
できる。
Claims (25)
- 対話型拡張現実感表示を表示するためのシステムであって、
複数のヘッドマウントディスプレイを備え、
前記複数のヘッドマウントディスプレイのうちの第1のヘッドマウントディスプレイに、透明ディスプレイ及び少なくとも1つのプロセッサが設けられ、
前記少なくとも1つのプロセッサが、
前記ヘッドマウントディスプレイの物理的環境における複数の物理的位置のうちの第1の物理的位置が前記ヘッドマウントディスプレイに最も近い位置にあることを判断し、
第1の3次元モデルを含む第1のコンテンツを受信し、
第2の3次元モデルを含む第2のコンテンツを受信し、
前記第1の3次元モデルの第1のビューを第1の時刻に前記透明ディスプレイを使用して表示し、
サーバから受信した1つ又は複数の命令に基づいて、前記第2の3次元モデルの第1のビューを前記第1の時刻に続く第2の時刻に前記透明ディスプレイを使用して表示する、ようにプログラムされる
対話型拡張現実感表示を表示するためのシステム。 - 前記少なくとも1つのプロセッサは、前記第1の時刻の後で前記第2の時刻の前の第3の時刻に前記サーバから前記命令を受け取るようにさらにプログラムされ、前記1つ又は
複数の命令は、前記第1のヘッドマウントディスプレイに前記第1のコンテンツの表示を中止させ該1つ又は複数の命令の受信に応答して前記第2のコンテンツの表示を開始させる少なくとも1つの命令を含んでいる、請求項1に記載のシステム。 - さらに前記サーバを備え、前記サーバは、
前記第2のコンテンツが表示されるべきであるという指示を受信し、
前記第2のコンテンツが表示されるべきであるという指示を受信したことに応答して、前記1つ又は複数の命令を少なくとも前記第1のヘッドマウントディスプレイに送信する、請求項2に記載のシステム。 - 前記複数のヘッドマウントディスプレイのうち第2のヘッドマウントディスプレイをさらに含み、前記第2のヘッドマウントディスプレイは少なくとも1つの第2のプロセッサを含み、前記少なくとも1つの第2のプロセッサは前記第2のヘッドマウントディスプレイを前記サーバとして機能させるようにプログラムされる請求項3記載のシステム。
- 前記第1のコンテンツ及び前記第2のコンテンツは、前記第1のコンテンツを表示する前にコンテンツのコーパスの一部として受信される、請求項1に記載のシステム。
- 前記第1のコンテンツは前記第1の時刻の前に受信され、前記第2のコンテンツは前記第1の時刻の後に受信される、請求項1に記載のシステム。
- 前記少なくとも1つのプロセッサは、前記第2のコンテンツが表示されるべきであるという指示の受信に応答して前記第2のコンテンツを要求するようにさらにプログラムされている、請求項6に記載のシステム。
- 前記少なくともプロセッサは、前記第2のコンテンツを前記第2のコンテンツに対する要求を送信することなく表示されるプッシュコンテンツとして前記サーバから受信するようにさらにプログラムされている、請求項6に記載のシステム。
- さらに頭部追跡システムを含み、
前記少なくとも1つのハードウェアプロセッサはさらに、
前記第1のコンテンツが、前記第1のヘッドマウントディスプレイの物理的環境における複数の物理的位置の第1の物理的位置に表示されるべきであるという指示を受信し、
前記第2のコンテンツが、前記第1のヘッドマウントディスプレイの物理的環境における複数の物理的位置の第2の物理的位置に表示されるべきであるという指示を受信し、
前記頭部追跡システムによって出力された情報から決定された前記第1の物理的位置に対する第1の頭部位置に少なくとも部分的に基づいて、前記第1の3次元モデルの前記第1のビューを前記第1の物理的位置に前記透明ディスプレイを使用して表示し、
前記頭部追跡システムによって出力された情報に基づいて、前記第1の頭部位置とは異なる前記第1の物理的位置に対する第2の頭部位置を決定し、
前記第2の頭部位置を決定したことに応答して、前記第2の頭部位置に基づいて前記第1の3次元モデルの第2のビューを表示し、
前記ヘッドマウントディスプレイの物理的環境における複数の物理的位置の前記第2の物理的位置が、前記複数の物理的位置のうち前記ヘッドマウントディスプレイに最も近くにあると判定し、
前記第2の物理的位置が前記複数の物理的位置の前記ヘッドマウントディスプレイに最も近い位置にあると決定したことに応答して、前記第2の物理的位置に固定された前記第2の3次元を表示する
ようにプログラムされている、請求項1に記載のシステム。 - 前記少なくとも1つのハードウェアプロセッサは、前記第2の物理的位置が前記複数のヘッドマウントディスプレイの最も近くに位置すると判定したことに応答して、前記第1の物理的位置における前記第1の3次元モデルの表示を禁止するようにさらにプログラムされる請求項9に記載のシステム。
- 前記頭部追跡システムが慣性測定ユニットを備える、請求項9に記載のシステム。
- 前記少なくとも1つのプロセッサは、前記ヘッドマウントディスプレイが前記第2の物理的位置により接近したと判断したことに応答して、前記サーバから前記第2のコンテンツを要求するようにさらにプログラムされる、請求項9に記載のシステム。
- 前記少なくともプロセッサは、前記第2のコンテンツに対する要求を送信することなく、前記第2のコンテンツを表示されるべきプッシュコンテンツとして前記サーバから受信するようにさらにプログラムされている、請求項9に記載のシステム。
- 少なくとも1つの入力デバイス、及び少なくとも1つの第3のプロセッサを備えた演算デバイスをさらに備え、
前記第3のプロセッサが、前記第1のコンテンツが前記第1の物理的位置に関連付けられ、前記第2のコンテンツが前記第2の物理的位置に関連付けられることを示す入力を前記入力デバイスから受信し、前記第1のコンテンツが前記第1の物理的位置に関連付けられ、前記第2のコンテンツが前記第2の物理的位置に関連付けられることを示す情報をサーバに送信し、前記情報は拡張マークアップ言語(XML)文書としてフォーマットされている、請求項1のシステム。 - 前記第1のヘッドマウントディスプレイと通信するように構成され、第2の慣性測定ユニット及び少なくとも1つの第4のプロセッサを備えたユーザ入力デバイスと、
少なくとも1つの第5のプロセッサを備えた前記複数のヘッドマウントディスプレイのうちの第2のヘッドマウントディスプレイとをさらに備え、
前記第4のプロセッサが、前記ユーザ入力デバイスの物理的な動きを示す情報を前記第1のヘッドマウントディスプレイに送信するようにプログラムされ、
前記第1のヘッドマウントディスプレイの前記少なくとも1つのプロセッサがさらに、前記第1の3次元モデルに関連して第1のユーザインタフェース要素を前記ユーザ入力デバイスの物理的な動きを示す情報に基づく位置に表示し、第1の3次元モデルに関連して前記ユーザインタフェース要素の位置を示す情報をサーバに送信するようにプログラムされ、
前記第5のプロセッサが、前記第1の3次元モデルに関連して前記ユーザインタフェースが表示されるべき前記位置を示す1つ又は複数の命令をサーバから受信し、
前記第1の3次元モデルに関連する前記ユーザインタフェース要素の前記位置に関連する前記サーバから受信した前記情報に基づいて、前記第1の3次元モデルに対する位置に前記ユーザインタフェース要素を表示する、ようにプログラムされている、
請求項1のシステム。 - 前記ユーザインタフェース要素は前記位置にドットとして表示される、請求項15に記載のシステム。
- さらに少なくとも1つの画像取込デバイスを含み、
前記少なくとも1つのプロセッサは、
モバイル演算デバイスによって表示されるコードの画像を取り込み、
前記画像にエンコードされた情報をサーバに送信して、前記第1のヘッドマウントディスプレイをモバイル演算デバイスとペアリングさせる、
請求項1に記載のシステム。 - 前記少なくとも1つのプロセッサはさらに、
前記サーバによって少なくとも部分的に提供されるサービスにログインするように前記モバイル演算デバイスを使用してユーザに促し、
前記コードの画像を取り込んで前記第1のヘッドマウントディスプレイをサービスにログインするようにユーザを促すようにプログラムされる、
請求項17に記載のシステム。 - 前記第1の物理的位置が前記物理的環境におけるバリアの第1の側面上の前記物理的環境の少なくとも第1の区画及び前記バリアの前記第1の側面上の前記物理環境の第2の区画に関連付けられ、前記第2の物理的位置が前記バリアの第2の側面上の物理的環境の少なくとも第3の区画及び前記バリアの第2の側面上の物理的環境の第4の区画に関連し、前記第2の区画が前記物理的環境における前記第1の区画と前記第3の区画の間に配置され、
前記少なくとも1つのハードウェアプロセッサは、
前記第1のヘッドマウントディスプレイが前記第1の区画内に配置されていると判断し、
前記第1のヘッドマウントディスプレイが前記第1の区画内に配置されていると判断したことに応答して、前記第1のコンテンツを前記第1の物理的位置に表示し、
前記第1のヘッドマウントディスプレイが前記第3の区画に移動したと判断し、
前記第1のヘッドマウントディスプレイが前記第3の区画に移動したと判断したことに応答して、前記第2のコンテンツを前記第2の物理的位置に表示する、請求項1に記載のシステム。 - 前記少なくとも1つのハードウェアプロセッサが、
第3の3次元モデルを含む第3のコンテンツを受信し、
前記第1のヘッドマウントディスプレイが前記第4の区画に移動したと判断し、
前記第1のヘッドマウントディスプレイが前記第4の区画に移動したと判断したことに応答して、前記第3のコンテンツを前記第1のヘッドマウントディスプレイの作業メモリ
にロードし、
前記第1のヘッドマウントディスプレイが前記第4の区画から前記第1の区画に移動したと判定し、
前記第1のヘッドマウントディスプレイが前記第4の区画から第1の区画に移動したとの決定に応答して、前記第1のヘッドマウントディスプレイの作業メモリにロードされた前記第3のコンテンツを表示する、ようにプログラムされている、請求項19に記載のシステム。 - さらに前記サーバを含み、前記サーバが、
第1の期間中に、前記第1のヘッドマウントディスプレイによる前記第1のコンテンツの表示の間に前記第1のヘッドマウントディスプレイの位置に関する情報を受信し、
前記第1の期間中に取り込まれた前記第1のヘッドマウントディスプレイの装着者の視野に対応するビデオを受信し、
前記第1のヘッドマウントディスプレイの位置に関する情報を記録し、
前記第1の期間中に前記第1のヘッドマウントディスプレイの視野に対応する前記ビデオを記録し、
前記第1の期間中に、前記第2のヘッドマウントディスプレイによる前記第1のコンテンツの表示中に第2のヘッドマウントディスプレイの位置に関する情報を受信し、
前記第1の期間中に取り込まれた前記第2のヘッドマウントディスプレイの装着者の視野に対応するビデオを受信し、
前記第2のヘッドマウントディスプレイの位置に関する情報を記録し、
前記第1の期間中に、前記第2のヘッドマウントディスプレイの視野に対応するビデオを記録し、
前記第1の期間中に記録されたコンテンツを表示する要求を前記第1の演算デバイスから受信し、
前記第1の演算デバイスに同時に、
前記第1のコンテンツを表示させ、
前記第1のヘッドマウントディスプレイの位置に関する前記記録された情報に基づいて前記第1のコンテンツに対する第1の位置に第1のアバターを表示させ、
前記第2のヘッドマウントディスプレイの位置に関する前記記録された情報に基づいて前記第1のコンテンツに対して第2の位置に第2のアバターを表示させ、
前記第1のヘッドマウントディスプレイが前記第1の位置にあった時に前記第1のヘッドマウントディスプレイによって取り込まれた前記ビデオの一部を第1のウィンドウに表示させ、
前記第2のヘッドマウントディスプレイが前記第2の位置にあった時に前記第2のヘッドマウントディスプレイによって取り込まれた前記ビデオの一部を第2のウィンドウに表示させる、
請求項1に記載のシステム。 - 前記サーバはさらに、前記第1のアバターと関連して前記第1のヘッドマウントディスプレイの装着者の視線を示す第1のユーザインタフェース要素を表示し、前記第2のアバターに関連して前記第2のヘッドマウントディスプレイの装着者の視線を示す第2のユーザインタフェース要素を表示するようにプログラムされる、請求項21に記載のシステム。
- 前記複数のヘッドマウントディスプレイのうちの第2のヘッドマウントディスプレイが、
仮想現実ディスプレイと、
少なくとも1つのプロセッサとを備え、
前記少なくとも1つのプロセッサが、
前記第1のコンテンツを受信し、
前記第2のコンテンツを受信し、
前記仮想現実ディスプレイを使用して前記第1の時刻に前記第1の3次元モデルの前記第1のビューを表示し、
前記仮想現実ディスプレイを使用して前記第1の時刻に続く前記第2の時刻に前記第2の3次元モデルの前記第1のビューを表示する、
請求項1に記載のシステム。 - 複数のヘッドマウントディスプレイを備える対話型拡張現実感表示を表示するためのシステムであって、前記複数のヘッドマウントディスプレイのそれぞれが、
第1のコンテンツ及び第2のコンテンツを含むサーバからコンテンツを受信し、
前記ヘッドマウントディスプレイの物理的環境における第1の物理的位置に近いことに少なくとも部分的に基づいて前記第1のコンテンツを表示し、前記複数のヘッドマウントディスプレイの第1のヘッドマウントディスプレイ、及び前記複数のヘッドマウントディスプレイのうちの第1の時刻に前記第1の物理的位置の近くに位置する第2のヘッドマウントディスプレイが、前記第1の物理的位置に近いことに基づいて前記第1の物理的位置に対して同じ向きで前記第1の物理的位置に前記第1のコンテンツを同時に表示し、
前記物理的環境における第2の物理的位置に近いことに基づいて前記第2のコンテンツを表示し、前記複数のヘッドマウントディスプレイのうちの第3のヘッドマウントディスプレイ、及び前記複数のヘッドマウントディスプレイのうちの前記第1の時刻に前記第2の物理的位置の近くに位置する第4のヘッドマウントディスプレイが、前記第2の物理的位置に近いことに基づいて前記第2の物理的位置に対して同じ向きで前記第2の物理的位置に前記第2のコンテンツを同時に表示する、
対話型拡張現実感表示を表示するためのシステム。 - 仮想現実ディスプレイを含むヘッドマウントディスプレイを備え、
前記ヘッドマウントディスプレイが、
第1のコンテンツ、第2のコンテンツ、第3のコンテンツを含むコンテンツを受信し、
第1の表示情報及び第2の表示情報を受信し、
前記第1の表示情報に基づいて、環境における前記ヘッドマウントディスプレイの位置の第1の位置に近いことに少なくとも部分的に基づいて第1の位置の前記第1のコンテンツを表示し、
前記第1の表示情報に基づいて、前記環境における前記ヘッドマウントディスプレイの第2の位置に近いことに少なくとも部分的に基づいて第2の位置にある前記第2のコンテンツを表示し、
前記第2の表示情報に基づいて、前記環境における前記ヘッドマウントディスプレイの位置の第1の位置に近いことに少なくとも部分的に基づいて第1の位置に前記第3のコンテンツを表示する
対話的にコンテンツを表示するシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023210078A JP2024037868A (ja) | 2016-12-05 | 2023-12-13 | 対話型拡張現実表示を表示するためのシステム、方法、及び媒体 |
Applications Claiming Priority (10)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662430179P | 2016-12-05 | 2016-12-05 | |
US62/430,179 | 2016-12-05 | ||
US201762479214P | 2017-03-30 | 2017-03-30 | |
US62/479,214 | 2017-03-30 | ||
US201762492832P | 2017-05-01 | 2017-05-01 | |
US62/492,832 | 2017-05-01 | ||
US201762560869P | 2017-09-20 | 2017-09-20 | |
US62/560,869 | 2017-09-20 | ||
PCT/US2017/064781 WO2018106735A1 (en) | 2016-12-05 | 2017-12-05 | Systems, methods, and media for displaying interactive augmented reality presentations |
JP2019530010A JP2020501265A (ja) | 2016-12-05 | 2017-12-05 | 対話型拡張現実表示を表示するためのシステム、方法、及び媒体 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019530010A Division JP2020501265A (ja) | 2016-12-05 | 2017-12-05 | 対話型拡張現実表示を表示するためのシステム、方法、及び媒体 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023210078A Division JP2024037868A (ja) | 2016-12-05 | 2023-12-13 | 対話型拡張現実表示を表示するためのシステム、方法、及び媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022046670A true JP2022046670A (ja) | 2022-03-23 |
JP2022046670A5 JP2022046670A5 (ja) | 2022-04-26 |
JP7409692B2 JP7409692B2 (ja) | 2024-01-09 |
Family
ID=62491351
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019530010A Pending JP2020501265A (ja) | 2016-12-05 | 2017-12-05 | 対話型拡張現実表示を表示するためのシステム、方法、及び媒体 |
JP2021211825A Active JP7409692B2 (ja) | 2016-12-05 | 2021-12-27 | 対話型拡張現実表示を表示するためのシステム、方法、及び媒体 |
JP2023210078A Pending JP2024037868A (ja) | 2016-12-05 | 2023-12-13 | 対話型拡張現実表示を表示するためのシステム、方法、及び媒体 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019530010A Pending JP2020501265A (ja) | 2016-12-05 | 2017-12-05 | 対話型拡張現実表示を表示するためのシステム、方法、及び媒体 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023210078A Pending JP2024037868A (ja) | 2016-12-05 | 2023-12-13 | 対話型拡張現実表示を表示するためのシステム、方法、及び媒体 |
Country Status (10)
Country | Link |
---|---|
US (3) | US10937391B2 (ja) |
EP (1) | EP3548958A4 (ja) |
JP (3) | JP2020501265A (ja) |
KR (2) | KR20190088545A (ja) |
CN (2) | CN110300909B (ja) |
AU (2) | AU2017373858B2 (ja) |
CA (1) | CA3046077A1 (ja) |
IL (1) | IL267052B1 (ja) |
MX (2) | MX2019006567A (ja) |
WO (1) | WO2018106735A1 (ja) |
Families Citing this family (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8314790B1 (en) * | 2011-03-29 | 2012-11-20 | Google Inc. | Layer opacity adjustment for a three-dimensional object |
US20140067869A1 (en) * | 2012-08-30 | 2014-03-06 | Atheer, Inc. | Method and apparatus for content association and history tracking in virtual and augmented reality |
US10867445B1 (en) * | 2016-11-16 | 2020-12-15 | Amazon Technologies, Inc. | Content segmentation and navigation |
KR20190088545A (ko) | 2016-12-05 | 2019-07-26 | 케이스 웨스턴 리저브 유니버시티 | 상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 시스템들, 방법들 및 매체들 |
EP3542252B1 (en) * | 2017-08-10 | 2023-08-02 | Google LLC | Context-sensitive hand interaction |
GB2569785B (en) * | 2017-12-20 | 2022-07-13 | Sony Interactive Entertainment Inc | Data processing |
US10990755B2 (en) * | 2017-12-21 | 2021-04-27 | International Business Machines Corporation | Altering text of an image in augmented or virtual reality |
US10567321B2 (en) | 2018-01-02 | 2020-02-18 | Snap Inc. | Generating interactive messages with asynchronous media content |
US10523606B2 (en) | 2018-01-02 | 2019-12-31 | Snap Inc. | Generating interactive messages with asynchronous media content |
JP2019145008A (ja) * | 2018-02-23 | 2019-08-29 | セイコーエプソン株式会社 | 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 |
US11741845B2 (en) * | 2018-04-06 | 2023-08-29 | David Merwin | Immersive language learning system and method |
GB2572786B (en) * | 2018-04-10 | 2022-03-09 | Advanced Risc Mach Ltd | Image processing for augmented reality |
US10916065B2 (en) * | 2018-05-04 | 2021-02-09 | Facebook Technologies, Llc | Prevention of user interface occlusion in a virtual reality environment |
US10768426B2 (en) * | 2018-05-21 | 2020-09-08 | Microsoft Technology Licensing, Llc | Head mounted display system receiving three-dimensional push notification |
US11063889B2 (en) | 2018-06-08 | 2021-07-13 | Snap Inc. | Generating interactive messages with entity assets |
EP3827359B1 (en) | 2018-07-24 | 2024-04-03 | Magic Leap, Inc. | Application sharing using scenegraphs |
US10581940B1 (en) * | 2018-08-20 | 2020-03-03 | Dell Products, L.P. | Head-mounted devices (HMDs) discovery in co-located virtual, augmented, and mixed reality (xR) applications |
JP6754815B2 (ja) * | 2018-11-07 | 2020-09-16 | スカパーJsat株式会社 | 拡張現実システム、拡張現実端末および方法 |
FR3091399A1 (fr) * | 2018-12-28 | 2020-07-03 | Orange | Procédé de commande d’un système de réalité virtualisée, et système pour la mise en œuvre du procédé |
US11137874B2 (en) | 2019-02-22 | 2021-10-05 | Microsoft Technology Licensing, Llc | Ergonomic mixed reality information delivery system for dynamic workflows |
US11150788B2 (en) * | 2019-03-14 | 2021-10-19 | Ebay Inc. | Augmented or virtual reality (AR/VR) companion device techniques |
US10890992B2 (en) | 2019-03-14 | 2021-01-12 | Ebay Inc. | Synchronizing augmented or virtual reality (AR/VR) applications with companion device interfaces |
US11012390B1 (en) | 2019-03-28 | 2021-05-18 | Snap Inc. | Media content response in a messaging system |
US11206505B2 (en) * | 2019-05-06 | 2021-12-21 | Universal City Studios Llc | Systems and methods for dynamically loading area-based augmented reality content |
US10665036B1 (en) * | 2019-08-03 | 2020-05-26 | VIRNECT inc. | Augmented reality system and method with dynamic representation technique of augmented images |
US11704874B2 (en) * | 2019-08-07 | 2023-07-18 | Magic Leap, Inc. | Spatial instructions and guides in mixed reality |
WO2021049791A1 (ko) * | 2019-09-09 | 2021-03-18 | 장원석 | 증강현실과 가상현실을 이용한 문서의 처리 시스템 및 그 방법 |
CN110908504B (zh) * | 2019-10-10 | 2021-03-23 | 浙江大学 | 一种增强现实博物馆协作交互方法与系统 |
US11743064B2 (en) * | 2019-11-04 | 2023-08-29 | Meta Platforms Technologies, Llc | Private collaboration spaces for computing systems |
US11468605B2 (en) * | 2019-12-12 | 2022-10-11 | Sony Interactive Entertainment Inc. | VR real player capture for in-game interaction view |
US11386652B2 (en) * | 2019-12-26 | 2022-07-12 | Paypal, Inc. | Tagging objects in augmented reality to track object data |
EP4103999A4 (en) * | 2020-02-14 | 2023-08-02 | Magic Leap, Inc. | SESSION MANAGER |
US11265274B1 (en) | 2020-02-28 | 2022-03-01 | Snap Inc. | Access and routing of interactive messages |
US11262588B2 (en) * | 2020-03-10 | 2022-03-01 | Magic Leap, Inc. | Spectator view of virtual and physical objects |
CN111610861A (zh) * | 2020-05-25 | 2020-09-01 | 歌尔科技有限公司 | 跨平台交互方法、ar装置及服务器和vr装置及服务器 |
CN111744189B (zh) * | 2020-07-27 | 2022-02-01 | 腾讯科技(深圳)有限公司 | 画面更新方法、装置、计算机设备和存储介质 |
US20220392172A1 (en) * | 2020-08-25 | 2022-12-08 | Scott Focke | Augmented Reality App and App Development Toolkit |
US11373375B2 (en) * | 2020-08-27 | 2022-06-28 | Micron Technology, Inc. | Augmented reality product display |
CN113313812A (zh) * | 2020-09-16 | 2021-08-27 | 阿里巴巴集团控股有限公司 | 家具展示、交互方法、装置、电子设备和存储介质 |
US11533351B2 (en) * | 2020-09-24 | 2022-12-20 | Apple Inc. | Efficient delivery of multi-camera interactive content |
JP2022110509A (ja) * | 2021-01-18 | 2022-07-29 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
US11620796B2 (en) * | 2021-03-01 | 2023-04-04 | International Business Machines Corporation | Expert knowledge transfer using egocentric video |
CN113141346B (zh) * | 2021-03-16 | 2023-04-28 | 青岛小鸟看看科技有限公司 | 基于串流的vr一拖多系统及方法 |
US11769134B2 (en) * | 2021-03-22 | 2023-09-26 | International Business Machines Corporation | Multi-user interactive ad shopping using wearable device gestures |
CN113761776B (zh) * | 2021-08-24 | 2023-03-14 | 中国人民解放军总医院第一医学中心 | 基于增强现实的心脏出血与止血模型的仿真系统和方法 |
WO2023087005A1 (en) * | 2021-11-12 | 2023-05-19 | Case Western Reserve University | Systems, methods, and media for controlling shared extended reality presentations |
WO2024062590A1 (ja) * | 2022-09-22 | 2024-03-28 | マクセル株式会社 | 仮想現実システム及びそれに用いるヘッドマウントディスプレイ |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012216135A (ja) * | 2011-04-01 | 2012-11-08 | Olympus Corp | 画像生成システム、プログラム及び情報記憶媒体 |
JP2015011360A (ja) * | 2013-06-26 | 2015-01-19 | 株式会社デジタル・スタンダード | 情報処理装置およびプログラム |
WO2015097792A1 (ja) * | 2013-12-25 | 2015-07-02 | 富士通株式会社 | ペアリング処理装置、ペアリング処理方法及びペアリング処理プログラム |
WO2016118330A1 (en) * | 2015-01-21 | 2016-07-28 | Smiths Medical Asd, Inc. | Medical device control |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8879994B2 (en) * | 2009-10-02 | 2014-11-04 | Blackberry Limited | Methods and devices for facilitating Bluetooth pairing using a camera as a barcode scanner |
KR101329882B1 (ko) * | 2010-08-12 | 2013-11-15 | 주식회사 팬택 | Ar 정보창 표시를 위한 사용자 장치 및 그 방법 |
US8941559B2 (en) | 2010-09-21 | 2015-01-27 | Microsoft Corporation | Opacity filter for display device |
KR101818024B1 (ko) * | 2011-03-29 | 2018-01-12 | 퀄컴 인코포레이티드 | 각각의 사용자의 시점에 대해 공유된 디지털 인터페이스들의 렌더링을 위한 시스템 |
KR101072395B1 (ko) | 2011-07-21 | 2011-10-11 | 한국해양연구원 | 천정 이동형 투명 디스플레이를 이용한 선박용 증강현실 시스템 및 그 구현 방법 |
US8847988B2 (en) | 2011-09-30 | 2014-09-30 | Microsoft Corporation | Exercising applications for personal audio/visual system |
US20130137076A1 (en) * | 2011-11-30 | 2013-05-30 | Kathryn Stone Perez | Head-mounted display based education and instruction |
US9977492B2 (en) | 2012-12-06 | 2018-05-22 | Microsoft Technology Licensing, Llc | Mixed reality presentation |
KR102387314B1 (ko) | 2013-03-11 | 2022-04-14 | 매직 립, 인코포레이티드 | 증강 및 가상 현실을 위한 시스템 및 방법 |
US9390561B2 (en) * | 2013-04-12 | 2016-07-12 | Microsoft Technology Licensing, Llc | Personal holographic billboard |
US9452354B2 (en) * | 2013-06-07 | 2016-09-27 | Sony Interactive Entertainment Inc. | Sharing three-dimensional gameplay |
US20140368537A1 (en) * | 2013-06-18 | 2014-12-18 | Tom G. Salter | Shared and private holographic objects |
US9256987B2 (en) | 2013-06-24 | 2016-02-09 | Microsoft Technology Licensing, Llc | Tracking head movement when wearing mobile device |
US10408613B2 (en) | 2013-07-12 | 2019-09-10 | Magic Leap, Inc. | Method and system for rendering virtual content |
KR101627169B1 (ko) * | 2013-09-27 | 2016-06-07 | 한국과학기술연구원 | 증강현실 컨텐츠 저작 및 제공 시스템 |
US20150097719A1 (en) * | 2013-10-03 | 2015-04-09 | Sulon Technologies Inc. | System and method for active reference positioning in an augmented reality environment |
KR20150084200A (ko) | 2014-01-13 | 2015-07-22 | 엘지전자 주식회사 | 헤드 마운트 디스플레이 및 제어 방법 |
US9524588B2 (en) * | 2014-01-24 | 2016-12-20 | Avaya Inc. | Enhanced communication between remote participants using augmented and virtual reality |
US9495801B2 (en) | 2014-05-01 | 2016-11-15 | Microsoft Technology Licensing, Llc | Pose tracking an augmented reality device |
US9798143B2 (en) * | 2014-08-11 | 2017-10-24 | Seiko Epson Corporation | Head mounted display, information system, control method for head mounted display, and computer program |
US9818225B2 (en) * | 2014-09-30 | 2017-11-14 | Sony Interactive Entertainment Inc. | Synchronizing multiple head-mounted displays to a unified space and correlating movement of objects in the unified space |
US10684485B2 (en) * | 2015-03-06 | 2020-06-16 | Sony Interactive Entertainment Inc. | Tracking system for head mounted display |
US20160343168A1 (en) * | 2015-05-20 | 2016-11-24 | Daqri, Llc | Virtual personification for augmented reality system |
US10339382B2 (en) * | 2015-05-31 | 2019-07-02 | Fieldbit Ltd. | Feedback based remote maintenance operations |
US10242643B2 (en) * | 2016-07-18 | 2019-03-26 | Microsoft Technology Licensing, Llc | Constrained head-mounted display communication |
KR20190088545A (ko) | 2016-12-05 | 2019-07-26 | 케이스 웨스턴 리저브 유니버시티 | 상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 시스템들, 방법들 및 매체들 |
-
2017
- 2017-12-05 KR KR1020197019171A patent/KR20190088545A/ko not_active IP Right Cessation
- 2017-12-05 JP JP2019530010A patent/JP2020501265A/ja active Pending
- 2017-12-05 CN CN201780085576.4A patent/CN110300909B/zh active Active
- 2017-12-05 IL IL267052A patent/IL267052B1/en unknown
- 2017-12-05 EP EP17878096.1A patent/EP3548958A4/en active Pending
- 2017-12-05 KR KR1020247006719A patent/KR20240033136A/ko not_active Application Discontinuation
- 2017-12-05 CN CN202111486591.4A patent/CN114236837A/zh active Pending
- 2017-12-05 WO PCT/US2017/064781 patent/WO2018106735A1/en active Application Filing
- 2017-12-05 AU AU2017373858A patent/AU2017373858B2/en active Active
- 2017-12-05 CA CA3046077A patent/CA3046077A1/en active Pending
- 2017-12-05 US US16/466,122 patent/US10937391B2/en active Active
- 2017-12-05 MX MX2019006567A patent/MX2019006567A/es unknown
-
2019
- 2019-06-05 MX MX2022010708A patent/MX2022010708A/es unknown
-
2021
- 2021-02-19 US US17/180,007 patent/US11580935B2/en active Active
- 2021-12-27 JP JP2021211825A patent/JP7409692B2/ja active Active
-
2022
- 2022-12-22 AU AU2022291565A patent/AU2022291565A1/en active Pending
-
2023
- 2023-01-27 US US18/102,332 patent/US11915670B2/en active Active
- 2023-12-13 JP JP2023210078A patent/JP2024037868A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012216135A (ja) * | 2011-04-01 | 2012-11-08 | Olympus Corp | 画像生成システム、プログラム及び情報記憶媒体 |
JP2015011360A (ja) * | 2013-06-26 | 2015-01-19 | 株式会社デジタル・スタンダード | 情報処理装置およびプログラム |
WO2015097792A1 (ja) * | 2013-12-25 | 2015-07-02 | 富士通株式会社 | ペアリング処理装置、ペアリング処理方法及びペアリング処理プログラム |
WO2016118330A1 (en) * | 2015-01-21 | 2016-07-28 | Smiths Medical Asd, Inc. | Medical device control |
Also Published As
Publication number | Publication date |
---|---|
CA3046077A1 (en) | 2018-06-14 |
US11580935B2 (en) | 2023-02-14 |
US20240005892A1 (en) | 2024-01-04 |
MX2019006567A (es) | 2020-09-07 |
KR20240033136A (ko) | 2024-03-12 |
US10937391B2 (en) | 2021-03-02 |
IL267052A (en) | 2019-07-31 |
EP3548958A1 (en) | 2019-10-09 |
IL267052B1 (en) | 2024-05-01 |
WO2018106735A1 (en) | 2018-06-14 |
AU2017373858A1 (en) | 2019-06-27 |
JP7409692B2 (ja) | 2024-01-09 |
JP2024037868A (ja) | 2024-03-19 |
EP3548958A4 (en) | 2020-07-29 |
AU2017373858B2 (en) | 2022-09-29 |
KR20190088545A (ko) | 2019-07-26 |
MX2022010708A (es) | 2022-09-27 |
CN114236837A (zh) | 2022-03-25 |
US20190304406A1 (en) | 2019-10-03 |
CN110300909B (zh) | 2021-12-24 |
AU2022291565A1 (en) | 2023-02-02 |
US11915670B2 (en) | 2024-02-27 |
CN110300909A (zh) | 2019-10-01 |
JP2020501265A (ja) | 2020-01-16 |
US20220013084A1 (en) | 2022-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7409692B2 (ja) | 対話型拡張現実表示を表示するためのシステム、方法、及び媒体 | |
US11663785B2 (en) | Augmented and virtual reality | |
US11087555B2 (en) | Recognizing objects in a passable world model in augmented or virtual reality systems | |
US20210312887A1 (en) | Systems, methods, and media for displaying interactive augmented reality presentations | |
CN116194869A (zh) | 人工现实协同工作环境 | |
US20230092103A1 (en) | Content linking for artificial reality environments | |
US20220291808A1 (en) | Integrating Artificial Reality and Other Computing Devices | |
JPWO2017068925A1 (ja) | 情報処理装置及び情報処理装置の制御方法、並びにコンピュータ・プログラム | |
US11527046B2 (en) | Real world beacons indicating virtual locations | |
KR20210007931A (ko) | 로봇 아바타를 통한 실시간 vr 서비스 제공방법 | |
US20230237731A1 (en) | Scalable parallax system for rendering distant avatars, environments, and dynamic objects | |
US20230072623A1 (en) | Artificial Reality Device Capture Control and Sharing | |
US20230236792A1 (en) | Audio configuration switching in virtual reality | |
Luna | Introduction to Virtual Reality | |
WO2023177773A1 (en) | Stereoscopic features in virtual reality | |
Bala et al. | 6 FRAGMENTS OF LAURA & HA-VITA | |
Krüger et al. | Integration of Mobile and Stationary Presentation Devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220126 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220415 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230825 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7409692 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |