KR20190088545A - 상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 시스템들, 방법들 및 매체들 - Google Patents

상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 시스템들, 방법들 및 매체들 Download PDF

Info

Publication number
KR20190088545A
KR20190088545A KR1020197019171A KR20197019171A KR20190088545A KR 20190088545 A KR20190088545 A KR 20190088545A KR 1020197019171 A KR1020197019171 A KR 1020197019171A KR 20197019171 A KR20197019171 A KR 20197019171A KR 20190088545 A KR20190088545 A KR 20190088545A
Authority
KR
South Korea
Prior art keywords
content
head mounted
mounted display
hmd
user
Prior art date
Application number
KR1020197019171A
Other languages
English (en)
Inventor
마크 에이. 그리솔드
에린 헤닝거
제프 므라카르
헨리 이스트맨
로버트 갓스칼
캐서린 수 쉬크
갈렌 틴글
Original Assignee
케이스 웨스턴 리저브 유니버시티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 케이스 웨스턴 리저브 유니버시티 filed Critical 케이스 웨스턴 리저브 유니버시티
Priority to KR1020247006719A priority Critical patent/KR20240033136A/ko
Publication of KR20190088545A publication Critical patent/KR20190088545A/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/022Centralised management of display operation, e.g. in a server instead of locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network

Abstract

상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 시스템들, 방법들 및 매체들이 제공된다. 일부 실시예들에서, 시스템은 복수의 헤드 장착 디스플레이들을 포함하며, 제1 헤드 장착 디스플레이는 투명 디스플레이 및 적어도 하나의 프로세서를 포함하고, 적어도 하나의 프로세서는, 헤드 장착 디스플레이의 물리적 환경에서의 복수의 물리적 위치들 중의 제1 물리적 위치가 헤드 장착 디스플레이에 가장 가깝게 위치된다는 것을 결정하고, 제1 3차원 모델을 포함하는 제1 콘텐츠를 수신하고, 제2 3차원 모델을 포함하는 제2 콘텐츠를 수신하고, 투명 디스플레이를 이용하여, 제1 시간에 제1 3차원 모델의 제1 뷰를 제시하며, 투명 디스플레이를 이용하여, 서버로부터 수신된 하나 이상의 명령어에 기반하여 제1 시간에 후속하는 제2 시간에 제2 3차원 모델의 제1 뷰를 제시하도록 프로그래밍된다.

Description

상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 시스템들, 방법들 및 매체들
관련 출원들에 대한 상호 참조
본 출원은 2016년 12월 5일자로 출원된 미국 가출원 제62/430,179호, 2017년 3월 30일자로 출원된 미국 가출원 제62/479,214호, 2017년 5월 1일자로 출원된 미국 가출원 제62/492,832호, 2017년 9월 20일자로 출원된 미국 가출원 제62/560,869호에 기반하고, 그 혜택을 주장하며, 이들의 우선권을 주장한다. 전술한 출원들 각각은 모든 목적들을 위해 그 전체가 참조로 본 명세서에 포함된다.
정부 지원 연구에 관한 진술
해당 없음
증강 현실 콘텐츠 및/또는 가상 현실 콘텐츠를 제시하는 디바이스들은 최근에 더 널리 보급되고 있다. 경험이 완전히 몰입형이고 콘텐츠가 한 명 이상의 사용자가 삽입될 수 있는 공통의 기준 프레임에 제시될 수 있기 때문에, 물리적 공간을 공유하거나 공유하지 않을 수 있는 개인들의 그룹에 가상 현실 콘텐츠를 제시하는 것이 비교적 용이하다. 예를 들어, 가상 현실 프리젠테이션은 하나 이상의 카메라에 의해 캡처된 장면(예를 들어, 자연 경관, 스포츠 이벤트 등)을 포함할 수 있고, 콘텐츠에 액세스하는 복수의 사용자들은 콘텐츠 내의 동일한 위치에 배치될 수 있지만, 이러한 사용자들은 사용자에 의해 선택된 배향에 따라 상이한 시야를 제시받을 수 있다. 다른 예로서, 가상 현실 프리젠테이션은 컴퓨터 생성 콘텐츠를 포함할 수 있고, 사용자들은 다양한 사용자들이 다양한 위치들에서 컴퓨터 생성 콘텐츠 내에 배치될 수 있고 서로 상호작용할 수 있는 상호작용적 경험에 참여할 수 있다. 이러한 예에서, 콘텐츠는 범용 기준 프레임을 가질 수 있고, 사용자에게 제시된 콘텐츠는 범용 기준 프레임에 대한 사용자의 위치 및 배향에 기반할 수 있다. 가상 현실 콘텐츠가 콘텐츠의 컨텍스트 내에서 사용자들 간의 상호작용을 허용할 가능성을 갖지만, 그 물리적 공간 내의 사용자들 간의 상호작용은 가상 현실의 완전히 몰입적인 성질로 인해 엄격하게 제한된다. 대조적으로, 증강 현실 콘텐츠를 제시하는 디바이스들이 물리적 환경과 상호작용하고 비교적 용이하게 서로 상호작용하는 것을 사용자들에게 허용할 수 있지만, 동일한 콘텐츠를 복수의 사용자들에게 제시하는 것은 동일한 방 안의 사용자들에 의해 이용되는 상이한 증강 현실 디바이스들이 동일한 좌표계를 이용하지 않을 수 있기 때문에 더 어렵다. 따라서, 상이한 사용자들이 동일한 증강 현실 콘텐츠를 시청하고 있더라도, 콘텐츠는 동일한 물리적 공간에 대응하여 제시되지 않을 수 있고, 상이한 배향을 가질 수 있고, 기타 등등이다. 더욱이, 증강 현실 디바이스들은 일반적으로 제시자로부터의 명령어들에 따라 콘텐츠를 제시하도록 조정할 수 있게 구성되지 않는다.
따라서, 상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 새로운 시스템들, 방법들 및 매체들이 바람직하다.
개시된 주제의 일부 실시예들에 따르면, 상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 시스템들, 방법들 및 매체들이 제공된다.
개시된 주제의 일부 실시예들에 따르면, 상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 시스템이 제공되며, 이러한 시스템은 복수의 헤드 장착 디스플레이들을 포함하고, 복수의 헤드 장착 디스플레이들 중의 제1 헤드 장착 디스플레이는 투명 디스플레이 및 적어도 하나의 프로세서를 포함하고, 적어도 하나의 프로세서는, 헤드 장착 디스플레이의 물리적 환경에서의 복수의 물리적 위치들 중의 제1 물리적 위치가 헤드 장착 디스플레이에 가장 가깝게 위치된다는 것을 결정하고, 제1 3차원 모델을 포함하는 제1 콘텐츠를 수신하고, 제2 3차원 모델을 포함하는 제2 콘텐츠를 수신하고, 투명 디스플레이를 이용하여, 제1 시간에 제1 3차원 모델의 제1 뷰를 제시하며, 투명 디스플레이를 이용하여, 서버로부터 수신된 하나 이상의 명령어에 기반하여 제1 시간에 후속하는 제2 시간에 제2 3차원 모델의 제1 뷰를 제시하도록 프로그래밍된다.
일부 실시예들에서, 적어도 하나의 프로세서는 제1 시간에 후속하고 제2 시간에 선행하는 제3 시간에 서버로부터 명령어들을 수신하도록 추가로 프로그래밍되고, 하나 이상의 명령어는 제1 헤드 장착 디스플레이로 하여금 하나 이상의 명령어를 수신하는 것에 응답하여 제1 콘텐츠를 제시하는 것을 중단하고 제2 콘텐츠를 제시하기 시작하게 하는 적어도 하나의 명령어를 포함한다.
일부 실시예들에서, 이러한 시스템은 서버를 더 포함하고, 이러한 서버는 제2 콘텐츠가 제시될 것이라는 표시를 수신하고, 제2 콘텐츠가 제시될 것이라는 표시를 수신하는 것에 응답하여, 하나 이상의 명령어를 적어도 제1 헤드 장착 디스플레이에 전송한다.
일부 실시예들에서, 이러한 시스템은 복수의 헤드 장착 디스플레이들 중의 제2 헤드 장착 디스플레이를 더 포함하고, 제2 헤드 장착 디스플레이는 적어도 하나의 제2 프로세서를 포함하고, 적어도 하나의 제2 프로세서는 제2 헤드 장착 디스플레이로 하여금 서버로서 작용하게 하도록 프로그래밍된다.
일부 실시예들에서, 제1 콘텐츠 및 제2 콘텐츠는 제1 콘텐츠를 제시하기 전에 콘텐츠의 코퍼스의 일부로서 수신된다.
일부 실시예들에서, 제1 콘텐츠는 제1 시간 전에 수신되고, 제2 콘텐츠는 제1 시간 뒤에 수신된다.
일부 실시예들에서, 적어도 하나의 프로세서는 제2 콘텐츠가 제시될 것이라는 표시를 수신하는 것에 응답하여 제2 콘텐츠를 요청하도록 추가로 프로그래밍된다.
일부 실시예들에서, 적어도 프로세서는 제2 콘텐츠에 대한 요청을 전송하지 않고 제시될 푸시된 콘텐츠로서 제2 콘텐츠를 서버로부터 수신하도록 추가로 프로그래밍된다.
일부 실시예들에서, 이러한 시스템은 헤드 추적 시스템을 더 포함하고, 적어도 하나의 하드웨어 프로세서는, 제1 콘텐츠가 제1 헤드 장착 디스플레이의 물리적 환경에서의 복수의 물리적 위치들 중의 제1 물리적 위치에서 제시될 것이라는 표시를 수신하고, 제2 콘텐츠가 제1 헤드 장착 디스플레이의 물리적 환경에서의 복수의 물리적 위치들 중의 제2 물리적 위치에서 제시될 것이라는 표시를 수신하고, 투명 디스플레이를 이용하여, 헤드 추적 시스템에 의해 출력된 정보로부터 결정된 제1 물리적 위치와 관련된 제1 헤드 위치에 적어도 부분적으로 기반하여 제1 물리적 위치에서 제1 3차원 모델의 제1 뷰를 제시하고, 헤드 추적 시스템에 의해 출력된 정보에 기반하여, 제1 헤드 위치와 상이하고 제1 물리적 위치와 관련된 제2 헤드 위치를 결정하고, 제2 헤드 위치를 결정하는 것에 응답하여, 제2 헤드 위치에 기반하여 제1 3차원 모델의 제2 뷰를 제시하고, 헤드 장착 디스플레이의 물리적 환경에서의 복수의 물리적 위치들 중의 제2 물리적 위치가 복수의 물리적 위치들 중 헤드 장착 디스플레이에 가장 가깝게 위치된다는 것을 결정하며, 제2 물리적 위치가 복수의 물리적 위치들 중 헤드 장착 디스플레이에 가장 가깝게 위치된다는 것을 결정하는 것에 응답하여, 제2 물리적 위치에서 고정된 제2 3차원을 제시하도록 추가로 프로그래밍된다.
일부 실시예들에서, 적어도 하나의 하드웨어 프로세서는 제2 물리적 위치가 복수의 물리적 위치들 중 헤드 장착 디스플레이에 가장 가깝게 위치된다는 것을 결정하는 것에 응답하여 제1 물리적 위치에서 제1 3차원 모델의 프리젠테이션을 금지하도록 추가로 프로그래밍된다.
일부 실시예들에서, 헤드 추적 시스템은 관성 측정 유닛을 포함한다.
일부 실시예들에서, 적어도 하나의 프로세서는 헤드 장착 디스플레이가 제2 물리적 위치에 더 근접하게 이동했다는 것을 결정하는 것에 응답하여 서버로부터 제2 콘텐츠를 요청하도록 추가로 프로그래밍된다.
일부 실시예들에서, 적어도 프로세서는 제2 콘텐츠에 대한 요청을 전송하지 않고 제시될 푸시된 콘텐츠로서 제2 콘텐츠를 서버로부터 수신하도록 추가로 프로그래밍된다.
일부 실시예들에서, 이러한 시스템은 컴퓨팅 디바이스를 더 포함하며, 컴퓨팅 디바이스는 적어도 하나의 입력 디바이스 및 적어도 하나의 제3 프로세서를 포함하고, 적어도 하나의 제3 프로세서는, 제1 콘텐츠가 제1 물리적 위치와 연관될 것이고, 제2 콘텐츠가 제2 물리적 위치와 연관될 것임을 표시하는 입력을 입력 디바이스로부터 수신하고, 제1 콘텐츠가 제1 물리적 위치와 연관될 것이고, 제2 콘텐츠가 제2 물리적 위치와 연관될 것임을 표시하는 정보를 서버에 전송하도록 프로그래밍되고, 정보는 확장가능 마크업 언어(Extensible Markup Language)(XML) 문서로서 포매팅된다.
일부 실시예들에서, 이러한 시스템은 제1 헤드 장착 디스플레이와 통신하도록 구성된 사용자 입력 디바이스, 및 복수의 헤드 장착 디스플레이들 중의 제2 헤드 장착 디스플레이를 더 포함하고, 사용자 입력 디바이스는 제2 관성 측정 유닛 및 적어도 하나의 제4 프로세서를 포함하고, 적어도 하나의 제4 프로세서는 제1 헤드 장착 디스플레이에게 사용자 입력 디바이스의 물리적 움직임들을 표시하는 정보를 전송하도록 프로그래밍되고, 제1 헤드 장착 디스플레이의 적어도 하나의 프로세서는, 사용자 입력 디바이스의 물리적 움직임들을 표시하는 정보에 기반하는 위치에서 제1 3차원 모델과 관련한 제1 사용자 인터페이스 요소를 제시하고, 제1 3차원 모델과 관련한 사용자 인터페이스 요소의 위치를 표시하는 정보를 서버에 전송하도록 추가로 프로그래밍되고, 복수의 헤드 장착 디스플레이들 중의 제2 헤드 장착 디스플레이는 적어도 하나의 제5 프로세서를 포함하고, 적어도 하나의 제5 프로세서는, 사용자 인터페이스 요소가 제1 3차원 모델과 관련하여 제시될 위치를 표시하는 하나 이상의 명령어를 서버로부터 수신하고, 제1 3차원 모델에 관련한 사용자 인터페이스 요소의 위치에 관련된 서버로부터 수신된 정보에 기반하여 제1 3차원 모델에 대한 위치에서 사용자 인터페이스 요소를 제시하도록 프로그래밍된다.
일부 실시예들에서, 사용자 인터페이스 요소는 위치에서 도트로서 제시된다.
일부 실시예들에서, 이러한 시스템은 적어도 하나의 이미지 캡처 디바이스를 더 포함하고, 적어도 하나의 프로세서는, 모바일 컴퓨팅 디바이스에 의해 표시된 코드의 이미지를 캡처하고, 제1 헤드 장착 디스플레이가 모바일 컴퓨팅 디바이스와 페어링되게 하기 위해 이미지에서 인코딩된 정보를 서버에 전송하도록 추가로 프로그래밍된다.
일부 실시예들에서, 적어도 하나의 프로세서는, 모바일 컴퓨팅 디바이스를 이용하여 서버에 의해 적어도 부분적으로 제공되는 서비스에 로그인하도록 사용자에게 프롬프팅하고, 코드의 이미지를 캡처하여 서비스에 대해 제1 헤드 장착 디스플레이에 로그인하게 사용자에게 프롬프팅하도록 추가로 프로그래밍된다.
일부 실시예들에서, 제1 물리적 위치는 적어도, 물리적 환경에서의 장벽의 제1 측 상의 물리적 환경의 제1 섹션 및 장벽의 제1 측 상의 물리적 환경의 제2 섹션과 연관되고, 제2 물리적 위치는 적어도, 장벽의 제2 측 상의 물리적 환경의 제3 섹션 및 장벽의 제2 측 상의 물리적 환경의 제4 섹션과 연관되고, 제2 섹션은 물리적 환경에서 제1 섹션과 제3 섹션 사이에 배치되고, 적어도 하나의 하드웨어 프로세서는, 제1 헤드 장착 디스플레이가 제1 섹션 내에 배치된다는 것을 결정하고, 제1 헤드 장착 디스플레이가 제1 섹션 내에 배치된다는 것을 결정하는 것에 응답하여, 제1 물리적 위치에 제1 콘텐츠를 제시하고, 제1 헤드 장착 디스플레이가 제3 섹션으로 이동했다는 것을 결정하고, 제1 헤드 장착 디스플레이가 제3 섹션으로 이동했다는 것을 결정하는 것에 응답하여, 제2 물리적 위치에 제2 콘텐츠를 제시하도록 구성된다.
일부 실시예들에서, 적어도 하나의 하드웨어 프로세서는, 제3 3차원 모델을 포함하는 제3 콘텐츠를 수신하고, 제1 헤드 장착 디스플레이가 제4 섹션으로 이동했다는 것을 결정하고, 제1 헤드 장착 디스플레이가 제4 섹션으로 이동했다는 것을 결정하는 것에 응답하여, 제3 콘텐츠를 제1 헤드 장착 디스플레이의 작동 메모리로 로딩하고, 제1 헤드 장착 디스플레이가 제4 섹션으로부터 제1 섹션으로 이동했다는 것을 결정하고, 제1 헤드 장착 디스플레이가 제4 섹션으로부터 제1 섹션으로 이동했다는 것을 결정하는 것에 응답하여, 제1 헤드 장착 디스플레이의 작동 메모리에 로딩된 제3 콘텐츠를 제시하도록 구성된다.
일부 실시예들에서, 이러한 시스템은 서버를 더 포함하고, 이러한 서버는, 제1 기간 동안의 제1 헤드 장착 디스플레이에 의한 제1 콘텐츠의 프리젠테이션 동안 제1 헤드 장착 디스플레이의 위치에 관한 정보를 수신하고, 제1 기간 동안 캡처된 제1 헤드 장착 디스플레이의 착용자의 시야에 대응하는 비디오를 수신하고, 제1 헤드 장착 디스플레이의 위치에 관한 정보를 기록하고, 제1 기간 동안 제1 헤드 장착 디스플레이의 시야에 대응하는 비디오를 기록하고, 제1 기간 동안의 제2 헤드 장착 디스플레이에 의한 제1 콘텐츠의 프리젠테이션 동안 제2 헤드 장착 디스플레이의 위치에 관한 정보를 수신하고, 제1 기간 동안 캡처된 제2 헤드 장착 디스플레이의 착용자의 시야에 대응하는 비디오를 수신하고, 제2 헤드 장착 디스플레이의 위치에 관한 정보를 기록하고, 제1 기간 동안 제2 헤드 장착 디스플레이의 시야에 대응하는 비디오를 기록하고, 제1 컴퓨팅 디바이스로부터, 제1 기간 동안 기록된 콘텐츠를 제시하라는 요청을 수신하고, 제1 컴퓨팅 디바이스로 하여금 동시에, 제1 콘텐츠를 제시하고, 제1 헤드 장착 디스플레이의 위치에 관한 기록된 정보에 기반하여 제1 콘텐츠에 대한 제1 위치에 제1 아바타를 제시하고, 제2 헤드 장착 디스플레이의 위치에 관한 기록된 정보에 기반하여 제1 콘텐츠에 대한 제2 위치에 제2 아바타를 제시하게 하도록 프로그래밍되며, 제1 윈도우는 제1 헤드 장착 디스플레이가 제1 위치에 있었을 때 제1 헤드 장착 디스플레이에 의해 캡처된 비디오의 일부를 보여주고, 제2 윈도우는 제2 헤드 장착 디스플레이가 제2 위치에 있었을 때 제2 헤드 장착 디스플레이에 의해 캡처된 비디오의 일부를 보여준다.
일부 실시예들에서, 이러한 서버는, 제1 아바타와 관련하여, 제1 헤드 장착 디스플레이의 착용자의 시선을 표시하는 제1 사용자 인터페이스 요소를 제시하고, 제2 아바타와 관련하여, 제2 헤드 장착 디스플레이의 착용자의 시선을 표시하는 제2 사용자 인터페이스 요소를 제시하도록 추가로 프로그래밍된다.
일부 실시예들에서, 복수의 헤드 장착 디스플레이들 중의 제2 헤드 장착 디스플레이는 가상 현실 디스플레이 및 적어도 하나의 프로세서를 포함하고, 적어도 하나의 프로세서는, 제1 콘텐츠를 수신하고, 제2 콘텐츠를 수신하고, 가상 현실 디스플레이를 이용하여, 제1 시간에 제1 3차원 모델의 제1 뷰를 제시하고, 가상 현실 디스플레이를 이용하여, 제1 시간에 후속하는 제2 시간에 제2 3차원 모델의 제1 뷰를 제시하도록 프로그래밍된다.
개시된 주제의 일부 실시예들에 따르면, 상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 다른 시스템이 제공되며, 이러한 시스템은 복수의 헤드 장착 디스플레이들을 포함하고, 복수의 헤드 장착 디스플레이들 각각은, 제1 콘텐츠 및 제2 콘텐츠를 포함하는 콘텐츠를 서버로부터 수신하고, 물리적 환경에서의 제1 물리적 위치에 대한 헤드 장착 디스플레이의 근접성에 적어도 부분적으로 기반하여 제1 콘텐츠를 제시하고 - 복수의 헤드 장착 디스플레이들 중의 제1 헤드 장착 디스플레이, 및 제1 시간에 제1 물리적 위치에 가깝게 위치하는 복수의 헤드 장착 디스플레이들 중의 제2 헤드 장착 디스플레이는 제1 물리적 위치에 대한 근접성에 기반하여 제1 물리적 위치에 대해 동일한 배향으로 제1 물리적 위치에 제1 콘텐츠를 동시에 제시함 -, 물리적 환경에서의 제2 물리적 위치에 대한 제1 헤드 장착 디스플레이의 근접성에 적어도 부분적으로 기반하여 제2 콘텐츠를 제시하도록 구성되고, 복수의 헤드 장착 디스플레이들 중의 제3 헤드 장착 디스플레이, 및 제1 시간에 제2 물리적 위치에 가깝게 위치하는 복수의 헤드 장착 디스플레이들 중의 제4 헤드 장착 디스플레이는 제2 물리적 위치에 대한 근접성에 기반하여 제2 물리적 위치에 대해 동일한 배향으로 제2 물리적 위치에 제2 콘텐츠를 동시에 제시한다.
개시된 주제의 일부 실시예들에 따르면, 상호작용적 콘텐츠를 표시하기 위한 시스템이 제공되며, 이러한 시스템은 가상 현실 디스플레이를 포함하는 헤드 장착 디스플레이를 포함하고, 헤드 장착 디스플레이는, 제1 콘텐츠, 제2 콘텐츠 및 제3 콘텐츠를 포함하는 콘텐츠를 수신하고, 제1 프리젠테이션 정보 및 제2 프리젠테이션 정보를 수신하고, 제1 프리젠테이션 정보에 기반하여, 환경에서의 제1 위치에 대한 헤드 장착 디스플레이의 위치의 근접성에 적어도 부분적으로 기반하여 제1 위치에 제1 콘텐츠를 제시하고, 제1 프리젠테이션 정보에 기반하여, 환경에서의 제2 위치에 대한 헤드 장착 디스플레이의 근접성에 적어도 부분적으로 기반하여 제2 위치에 제2 콘텐츠를 제시하고, 제2 프리젠테이션 정보에 기반하여, 환경에서의 제1 위치에 대한 헤드 장착 디스플레이의 위치의 근접성에 적어도 부분적으로 기반하여 제1 위치에 제3 콘텐츠를 제시하도록 구성된다.
개시된 주제의 일부 실시예들에 따르면, 상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 방법이 제공되며, 이러한 방법은, 헤드 장착 디스플레이의 물리적 환경에서의 복수의 물리적 위치들 중의 제1 물리적 위치가 헤드 장착 디스플레이에 가장 가깝게 위치된다는 것을 결정하는 단계, 제1 3차원 모델을 포함하는 제1 콘텐츠를 수신하는 단계, 제2 3차원 모델을 포함하는 제2 콘텐츠를 수신하는 단계, 투명 디스플레이를 이용하여, 제1 시간에 제1 3차원 모델의 제1 뷰를 제시하는 단계, 투명 디스플레이를 이용하여, 서버로부터 수신된 하나 이상의 명령어에 기반하여 제1 시간에 후속하는 제2 시간에 제2 3차원 모델의 제1 뷰를 제시하는 단계를 포함한다.
개시된 주제의 일부 실시예들에 따르면, 상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 다른 방법이 제공되며, 이러한 방법은, 제1 콘텐츠 및 제2 콘텐츠를 포함하는 콘텐츠를 서버로부터 수신하는 단계, 헤드 장착 디스플레이에 의해, 물리적 환경에서의 제1 물리적 위치에 대한 헤드 장착 디스플레이의 근접성에 적어도 부분적으로 기반하여 제1 콘텐츠를 제시하는 단계 - 복수의 헤드 장착 디스플레이들 중의 제1 헤드 장착 디스플레이, 및 제1 시간에 제1 물리적 위치에 가깝게 위치하는 복수의 헤드 장착 디스플레이들 중의 제2 헤드 장착 디스플레이는 제1 물리적 위치에 대한 근접성에 기반하여 제1 물리적 위치에 대해 동일한 배향으로 제1 물리적 위치에 제1 콘텐츠를 동시에 제시함 -, 헤드 장착 디스플레이에 의해, 물리적 환경에서의 제2 물리적 위치에 대한 제1 헤드 장착 디스플레이의 근접성에 적어도 부분적으로 기반하여 제2 콘텐츠를 제시하는 단계를 포함하고, 복수의 헤드 장착 디스플레이들 중의 제3 헤드 장착 디스플레이, 및 제1 시간에 제2 물리적 위치에 가깝게 위치하는 복수의 헤드 장착 디스플레이들 중의 제4 헤드 장착 디스플레이는 제2 물리적 위치에 대한 근접성에 기반하여 제2 물리적 위치에 대해 동일한 배향으로 제2 물리적 위치에 제2 콘텐츠를 동시에 제시한다.
개시된 주제의 일부 실시예들에 따르면, 상호작용적 콘텐츠를 표시하기 위한 방법이 제공되며, 이러한 방법은, 제1 콘텐츠, 제2 콘텐츠 및 제3 콘텐츠를 포함하는 콘텐츠를 수신하는 단계, 제1 프리젠테이션 정보 및 제2 프리젠테이션 정보를 수신하는 단계, 제1 프리젠테이션 정보에 기반하고 헤드 장착 디스플레이의 가상 현실 디스플레이를 이용하여, 환경에서의 제1 위치에 대한 헤드 장착 디스플레이의 위치의 근접성에 적어도 부분적으로 기반하여 제1 위치에 제1 콘텐츠를 제시하는 단계, 제1 프리젠테이션 정보에 기반하고 가상 현실 디스플레이를 이용하여, 환경에서의 제2 위치에 대한 헤드 장착 디스플레이의 근접성에 적어도 부분적으로 기반하여 제2 위치에 제2 콘텐츠를 제시하는 단계, 및 제2 프리젠테이션 정보에 기반하고 가상 현실 디스플레이를 이용하여, 환경에서의 제1 위치에 대한 헤드 장착 디스플레이의 위치의 근접성에 적어도 부분적으로 기반하여 제1 위치에 제3 콘텐츠를 제시하는 단계를 포함한다.
개시된 주제의 일부 실시예들에 따르면, 프로세서에 의해 실행될 때, 프로세서로 하여금 상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 방법을 수행하게 하는 컴퓨터 실행가능한 명령어들을 포함하는 비일시적 컴퓨터 판독가능한 매체가 제공되며, 이러한 방법은, 헤드 장착 디스플레이의 물리적 환경에서의 복수의 물리적 위치들 중의 제1 물리적 위치가 헤드 장착 디스플레이에 가장 가깝게 위치된다는 것을 결정하는 단계, 제1 3차원 모델을 포함하는 제1 콘텐츠를 수신하는 단계, 제2 3차원 모델을 포함하는 제2 콘텐츠를 수신하는 단계, 투명 디스플레이를 이용하여, 제1 시간에 제1 3차원 모델의 제1 뷰를 제시하는 단계, 투명 디스플레이를 이용하여, 서버로부터 수신된 하나 이상의 명령어에 기반하여 제1 시간에 후속하는 제2 시간에 제2 3차원 모델의 제1 뷰를 제시하는 단계를 포함한다.
개시된 주제의 일부 실시예들에 따르면, 프로세서에 의해 실행될 때, 프로세서로 하여금 상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 방법을 수행하게 하는 컴퓨터 실행가능한 명령어들을 포함하는 다른 비일시적 컴퓨터 판독가능한 매체가 제공되며, 이러한 방법은, 제1 콘텐츠 및 제2 콘텐츠를 포함하는 콘텐츠를 서버로부터 수신하는 단계, 헤드 장착 디스플레이에 의해, 물리적 환경에서의 제1 물리적 위치에 대한 헤드 장착 디스플레이의 근접성에 적어도 부분적으로 기반하여 제1 콘텐츠를 제시하는 단계 - 복수의 헤드 장착 디스플레이들 중의 제1 헤드 장착 디스플레이, 및 제1 시간에 제1 물리적 위치에 가깝게 위치하는 복수의 헤드 장착 디스플레이들 중의 제2 헤드 장착 디스플레이는 제1 물리적 위치에 대한 근접성에 기반하여 제1 물리적 위치에 대해 동일한 배향으로 제1 물리적 위치에 제1 콘텐츠를 동시에 제시함 -, 헤드 장착 디스플레이에 의해, 물리적 환경에서의 제2 물리적 위치에 대한 제1 헤드 장착 디스플레이의 근접성에 적어도 부분적으로 기반하여 제2 콘텐츠를 제시하는 단계를 포함하고, 복수의 헤드 장착 디스플레이들 중의 제3 헤드 장착 디스플레이, 및 제1 시간에 제2 물리적 위치에 가깝게 위치하는 복수의 헤드 장착 디스플레이들 중의 제4 헤드 장착 디스플레이는 제2 물리적 위치에 대한 근접성에 기반하여 제2 물리적 위치에 대해 동일한 배향으로 제2 물리적 위치에 제2 콘텐츠를 동시에 제시한다.
개시된 주제의 일부 실시예들에 따르면, 프로세서에 의해 실행될 때, 프로세서로 하여금 상호작용적 콘텐츠를 표시하기 위한 방법을 수행하게 하는 컴퓨터 실행가능한 명령어들을 포함하는 비일시적 컴퓨터 판독가능한 매체가 제공되며, 이러한 방법은, 제1 콘텐츠, 제2 콘텐츠 및 제3 콘텐츠를 포함하는 콘텐츠를 수신하는 단계, 제1 프리젠테이션 정보 및 제2 프리젠테이션 정보를 수신하는 단계, 제1 프리젠테이션 정보에 기반하고 헤드 장착 디스플레이의 가상 현실 디스플레이를 이용하여, 환경에서의 제1 위치에 대한 헤드 장착 디스플레이의 위치의 근접성에 적어도 부분적으로 기반하여 제1 위치에 제1 콘텐츠를 제시하는 단계, 제1 프리젠테이션 정보에 기반하고 가상 현실 디스플레이를 이용하여, 환경에서의 제2 위치에 대한 헤드 장착 디스플레이의 근접성에 적어도 부분적으로 기반하여 제2 위치에 제2 콘텐츠를 제시하는 단계, 및 제2 프리젠테이션 정보에 기반하고 가상 현실 디스플레이를 이용하여, 환경에서의 제1 위치에 대한 헤드 장착 디스플레이의 위치의 근접성에 적어도 부분적으로 기반하여 제1 위치에 제3 콘텐츠를 제시하는 단계를 포함한다.
개시된 주제의 다양한 목적들, 특징들 및 이점들은, 유사한 참조 번호들이 유사한 요소들을 식별하는 이하의 도면들과 관련하여 고려될 때 개시된 주제의 이하의 상세한 설명을 참조하면 더욱 충분히 이해될 수 있다.
도 1은 개시된 주제의 일부 실시예들에 따라 이용될 수 있는 헤드 장착 디스플레이의 예를 도시한다.
도 2는 개시된 주제의 일부 실시예들에 따른 네트워킹된 헤드 장착 디스플레이들의 시스템의 예를 도시한다.
도 3a는 개시된 주제의 일부 실시예들에 따른, 제시된 이미지와 상호작용하기 위한 시스템의 예를 도시한다.
도 3b는 개시된 주제의 일부 실시예들에 따른, 제시된 이미지와 상호작용하기 위한 다른 시스템의 예를 도시한다.
도 4는 개시된 주제의 일부 실시예들에 따라 적어도 하나의 헤드 장착 디스플레이, 적어도 하나의 서버, 및 적어도 하나의 사용자 입력 디바이스를 구현하는데 이용될 수 있는 하드웨어의 예를 도시한다.
도 5는 개시된 주제의 일부 실시예들에 따라 콘텐츠 및/또는 서버에의 프리젠테이션을 선택 및/또는 업로드하는 사용자 컴퓨팅 디바이스와, 콘텐츠를 수신하고 프리젠테이션에 따라 콘텐츠를 제시하는 헤드 장착 디스플레이 사이의 정보 흐름의 예를 도시한다.
도 6은 개시된 주제의 일부 실시예들에 따라 하나 이상의 헤드 장착 디스플레이에 콘텐츠를 분배하기 위한 프로세스의 예를 도시한다.
도 7은 개시된 주제의 일부 실시예들에 따라 헤드 장착 디스플레이를 이용하여 증강 현실 프리젠테이션을 생성하기 위한 프로세스의 예를 도시한다.
도 8은 개시된 주제의 일부 실시예들에 따라 서버와 페어링 동작을 수행하는 사용자 디바이스 및 헤드 장착 디스플레이의 예를 도시한다.
도 9는 개시된 주제의 일부 실시예들에 따라 도 8과 관련하여 전술한 바와 같은 로그인 및/또는 페어링 동작 동안 사용자 디바이스, 서버, 및 헤드 장착 디스플레이 사이의 정보 흐름의 예를 도시한다.
도 10은 개시된 주제의 일부 실시예들에 따라 3D 모델을 제1 헤드 장착 디스플레이의 사용자와 (예를 들어, 아바타로서) 연관시키고 제2 헤드 장착 디스플레이에 의해 3D 모델을 제시하기 위해 제1 헤드 장착 디스플레이, 서버, 및 제2 헤드 장착 디스플레이 사이의 정보 흐름의 예를 도시한다.
도 11은 개시된 주제의 일부 실시예들에 따라 시퀀스에서의 다양한 모델들을 제시하기 위한 디스플레이 공간의 예를 도시한다.
도 12는 개시된 주제의 일부 실시예들에 따라 제한된 물리적 공간에서 콘텐츠의 시퀀스를 제시하기 위한 프로세스의 예를 도시한다.
도 13a는 개시된 주제의 일부 실시예들에 따라 제1 헤드 장착 디스플레이의 사용자 및 제2 헤드 장착 디스플레이의 사용자가 가상 사고 피해자와 상호작용하는 제1 리뷰 모드의 예를 도시한다.
도 13b는 개시된 주제의 일부 실시예들에 따라 상이한 시점에서의 도 13a에 도시된 장면의 다른 뷰의 예를 도시한다.
도 13c는 개시된 주제의 일부 실시예들에 따라 또 다른 시간에서의 도 13a 및 도 13b에 도시된 장면의 조감도의 예를 도시한다.
도 13d는 개시된 주제의 일부 실시예들에 따른 증강 현실 세션의 리플레이의 예를 도시한다.
도 14는 개시된 주제의 일부 실시예들에 따라 하나 이상의 헤드 장착 디스플레이에 의해 기록된 미디어를 리뷰하기 위한 프로세스의 예를 도시한다.
개시된 주제의 임의의 실시예들을 상세하게 설명하기 전에, 개시된 주제는 그 애플리케이션에 있어서 이하의 설명에 개시되거나 이하의 도면들에 도시된 구성요소들의 배열 및 구성의 상세로 제한되지 않음을 이해해야 한다. 개시된 주제는 다른 실시예들도 가능하고, 다양한 방식들로 실시되거나 수행될 수 있다. 또한, 본 명세서에서 사용된 어구 및 용어는 설명을 위한 것임을 이해해야 하며 제한하는 것으로 간주하지 않아야 한다. 본 명세서에서 "포함하는" 또는 "갖는" 및 그 변형들의 사용은 그 뒤에 열거되는 항목들 및 그 등가물들뿐만 아니라 추가적인 항목들을 포함하도록 의도된다. 달리 특정하거나 제한하지 않는다면, "장착된", "연결된", "지지된" 및 "결합된"이라는 용어들과 그 변형들은 광의로서 사용되며, 직간접적인 장착들, 연결들, 지지들 및 결합들 모두를 포함한다. 또한, "연결된" 및 "결합된"이라는 것은 물리적인 또는 기계적인 연결들 또는 결합들에 제한되지 않는다.
이하의 논의는 관련 기술분야의 통상의 기술자가 개시된 주제의 실시예들을 제조하고 이용할 수 있게 하기 위해 제시된다. 관련 기술분야의 통상의 기술자는 예시된 실시예들에 대한 다양한 수정들을 쉽게 알 수 있을 것이며, 본 명세서에서의 일반적인 원리들은 개시된 주제의 실시예들을 벗어나지 않고 다른 실시예들 및 애플리케이션들에 적용될 수 있다. 따라서, 개시된 주제의 실시예들은 도시된 실시예들로 제한되도록 의도되지 않으며, 본 명세서에 개시된 원리들 및 특징들과 일치하는 가장 넓은 범위를 부여받아야 한다. 이하의 상세한 설명은 도면들을 참조하여 판독되어야 하며, 상이한 도면들에서의 유사한 요소들은 유사한 참조 번호들을 갖는다. 반드시 일정한 비율로 되어 있지는 않은 도면들은 선택된 실시예들을 도시하고, 개시된 주제의 실시예들의 범위를 제한하도록 의도되지 않는다. 통상의 기술자들은 본 명세서에서 제공된 예들이 많은 유용한 대안들을 가지며 개시된 주제의 실시예들의 범위 내에 속한다는 것을 인식할 것이다.
개시된 주제의 일부 실시예들에 따르면, 상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 (시스템들, 방법들 및/또는 매체들을 포함할 수 있는) 메커니즘들이 제공된다. 일부 실시예들에서, 사용자는 증강 현실 디바이스들을 이용하여 제시될 상호작용적 프리젠테이션을 생성할 수 있다. 예를 들어, 강사는, 강사가 학생들에게 전달하려고 시도하고 있는 개념들의 이해를 돕기 위해 다양한 홀로그램들(예를 들어, 3D 모델들, 차트들, 2D 그래픽들 등)을 표시하는데 이용될 콘텐츠를 생성 및/또는 선택할 수 있다. 더 특정한 예에서, 강사는 인간의 해부구조의 상이한 양태들을 보여주는 다양하고 상이한 홀로그램들을 생성할 수 있다.
일부 실시예들에서, 사용자는 상이한 물리적 위치들, 상이한 가상 위치들, 및/또는 상이한 시간들에서의 프리젠테이션을 위해 상호작용적 프리젠테이션의 상이한 부분들을 선택할 수 있다. 예를 들어, 강사는 상이한 개념들(또는 상이한 방식들에서의 동일한 개념들)을 순서화된 프리젠테이션으로 예시하는 인간의 해부구조의 상이한 3D 모델들을 배치할 수 있고/있거나, 상이한 물리적 위치들(예를 들어, 도 2와 관련하여 후술되는 바와 같은 스테이션들) 및/또는 가상 위치들(예를 들어, 도 10 및 도 11과 관련하여 후술되는 바와 같이 가상 박물관 내의 프리젠테이션 공간들)에 인간의 해부구조의 상이한 3D 모델들을 할당할 수 있다. 더 특정한 예에서, 강사는 일련의 3D 모델들에서 (예를 들어, 슬라이드 쇼와 유사한 방식으로) 보여지는 것을 논의할 수 있는 반면, 학생들은 청취하고/하거나 강사와 상호작용하면서 모델들 주위에서 자유롭게 이동할 기회를 갖는다. 프리젠테이션을 종료한 후에, 상이한 모델들이 (예를 들어, 프리젠테이션을 구성할 때 강사에 의해 입력된 명령어들에 따라) 상이한 물리적 및/또는 가상 위치들에서 제시될 수 있고, 학생들은 수업에서 논의된 개념들을 더 탐색하기 위해 상이한 모델들 사이에서 자유롭게 이동할 수 있다.
일부 실시예들에서, 사용자는 사용자가 착용한 증강 현실 디바이스를 통해 제시되고 있는 콘텐츠 내의 하나 이상의 위치를 강조하기 위해 하나 이상의 사용자 입력 디바이스를 이용할 수 있다. 동일한 위치(들)는 한 명 이상의 다른 사용자에게 동일한 콘텐츠를 제시하고 있는 다른 증강 현실 디바이스들에 의해 강조될 수 있다. 예를 들어, 강사는 증강 현실 디바이스를 이용하여 3D 모델을 볼 수 있고, 증강 현실 디바이스 및/또는 별개의 디바이스를 가상 "레이저 포인터"로서 이용하여, 강사가 착용한 증강 현실 디바이스에 의해 제시되는 3D 모델에서의 하나 이상의 특징을 강조할 수 있다. 이러한 예에서, 대응하는 포인터는 동일한 3D 모델 상의 동일한 장소에 있는 강사의 학생들이 착용하는 다른 증강 현실 디바이스들에 의해 복제될 수 있다.
일부 실시예들에서, 복수의 증강 현실 디바이스들은 증강 현실 디바이스들의 시간 및/또는 위치에 기반하여 관련 콘텐츠를 제공하기 위해 공통 서버 또는 서버들과 네트워킹될 수 있다. 예를 들어, 전술한 바와 같이, 강사는 상이한 3D 모델들을 상이한 물리적 공간들에 할당할 수 있다. 이러한 예에서, 서버는 특정한 학생에 가장 가까운 공간에 대해 콘텐츠만을 전송할 수 있다. 이것은 개별 증강 현실 디바이스들을 압도하지 않고도, 강사가 대량의 콘텐츠를 이용가능하게 할 수 있다. 추가적으로 또는 대안적으로, 이것은 (예를 들어, 강사에 의해 이용되는 "레이저 포인터"를 통해) 제1 사용자에 의해 제공되는 입력들이 제2 사용자의 디바이스(예를 들어, 학생의 증강 현실 디바이스)에 의해 투사되는 홀로그램 상에서 볼 수 있게 함으로써 상이한 학생들(또는 다른 사용자들) 간의 협력을 허용할 수 있다. 또한, 서버로부터 유사하게 위치된 증강 현실 디바이스들에 콘텐츠 및/또는 명령어들을 제공하는 것은 다양한 증강 현실 디바이스들이 모두 동일한 콘텐츠를 제시하고 있음을 보장함으로써 상이한 증강 현실 디바이스들의 착용자들에 의한 협력을 용이하게 할 수 있다.
본 명세서에서 설명된 메커니즘들이 일반적으로 교실 환경에서의 이용과 관련하여 설명되지만, 이러한 메커니즘들은 다양한 애플리케이션들에서 이용하도록 구성될 수 있다. 예를 들어, 본 명세서에서 설명된 메커니즘들은 대량의 상세를 갖는 3D 설계들을 생성할 때 협력 작업 공간들을 제공하도록, 멀티플레이어 증강 현실 게임 경험들을 제공하도록, 상호작용적 증강 현실 박물관 디스플레이들을 제공하도록 등등으로 구성될 수 있다.
도 1은 개시된 주제의 일부 실시예들에 따라 이용될 수 있는 헤드 장착 디스플레이(HMD)의 예(100)를 도시한다. 도 1에 도시된 바와 같이, 헤드 장착 디스플레이(100)는 홀로그래픽 객체들과 같은 이미지들을 HMD(100)의 착용자의 눈들에 제시하는데 이용될 수 있는 투명 디스플레이(102) 및 디스플레이 프로세서(104)를 포함할 수 있다. 일부 실시예들에서, 투명 디스플레이(102)는 물리적 환경의 외관을 투명 디스플레이(102)를 통해 물리적 환경을 보는 착용자에게 시각적으로 증강하도록 구성될 수 있다. 예를 들어, 일부 실시예들에서, 물리적 환경의 외관은 증강 현실 환경을 생성하기 위해 투명 디스플레이(102)를 통해 제시되는 그래픽 콘텐츠(예를 들어, 각각의 컬러 및 밝기를 각각 갖는 하나 이상의 픽셀)에 의해 증강될 수 있다. 추가적으로 또는 대안적으로, 일부 실시예들에서, 투명 디스플레이(102)는 (예를 들어, 물리적 환경이 HMD(100)를 통해 보여지는 것을 차단하기 위한 하나 이상의 기술을 이용함으로써) 완전 불투명 가상 환경을 렌더링하도록 구성될 수 있다. 일부 이러한 실시예들에서, HMD(100)는 가상 현실 환경을 제시하는데 이용될 수 있다.
도 1에 도시된 바와 같이, 일부 실시예들에서, 투명 디스플레이(102)는 (예를 들어, 시스루 유기 발광 다이오드(OLED) 디스플레이의 픽셀들과 같은) 렌즈들(106) 내에 위치한 하나 이상의 이미지 생성 요소(예를 들어, 디스플레이 픽셀들)를 포함할 수 있다. 추가적으로 또는 대안적으로, 일부 실시예들에서, 투명 디스플레이(102)는 렌즈들(106)의 에지 상에 광 변조기를 포함할 수 있다.
일부 실시예들에서, HMD(100)는 다양한 센서들 및/또는 다른 관련 시스템들을 포함할 수 있다. 예를 들어, HMD(100)는 착용자의 눈들의 시선 방향을 나타내는 시선 추적 데이터를 생성할 수 있는 하나 이상의 이미지 센서를 포함할 수 있는 시선 추적 시스템(108)을 포함할 수 있다. 일부 실시예들에서, 시선 추적 시스템(108)은 임의의 적합한 수 및 배열의 광원들 및/또는 이미지 센서들을 포함할 수 있다. 예를 들어, 도 1에 도시된 바와 같이, HMD(100)의 시선 추적 시스템(108)은 적어도 하나의 내향 센서(109)를 이용할 수 있다. 일부 실시예들에서, 사용자는 사용자의 눈들의 위치 및/또는 움직임을 추적하기 위해 시선 정보의 획득 및 이용을 허용하도록 프롬프팅될 수 있다.
일부 실시예들에서, HMD(100)는, 예를 들어, 착용자의 헤드의 방향 및/또는 배향을 결정함으로써, 착용자의 헤드 위치를 추적하는데 이용될 수 있는 헤드 포즈 데이터를 캡처하기 위해, 도 1에 도시된 움직임 센서들(112)과 같은, 하나 이상의 움직임 센서를 이용할 수 있는 헤드 추적 시스템(110)을 포함할 수 있다. 일부 실시예들에서, 헤드 추적 시스템(110)은 3-축 또는 3-자유도 위치 센서 시스템으로서 구성된 관성 측정 유닛을 포함할 수 있다.
일부 실시예들에서, 헤드 추적 시스템(110)은 또한 글로벌 포지셔닝 시스템(GPS) 또는 다른 글로벌 내비게이션 시스템들과 같은 다른 적합한 포지셔닝 기술들을 지원할 수 있다. 또한, 위치 센서 시스템들의 특정한 예들이 설명되었지만, 임의의 다른 적합한 위치 센서 시스템들이 이용될 수 있다는 것이 이해될 것이다. 예를 들어, 헤드 포즈 및/또는 움직임 데이터는, 임의의 수의 자이로스코프들, 가속도계들, 관성 측정 유닛들(IMU들), GPS 디바이스들, 기압계들, 자력계들, 카메라들(예를 들어, 가시 광 카메라들, 적외선 광 카메라들, 비행 시간 깊이 카메라들, 구조화된 광 깊이 카메라들 등), 통신 디바이스들(예를 들어, Wi-Fi 안테나들/인터페이스들, 블루투스 등) 등을 포함하지만 이에 제한되지 않는, 착용자 상에 장착된 센서들, 및/또는 착용자 외부에 있는 센서들의 임의의 적합한 조합으로부터의 센서 정보에 기반하여 결정될 수 있다.
일부 실시예들에서, HMD(100)는 환경의 이미지 데이터를 캡처하기 위해 광학 센서(114)와 같은 하나 이상의 외향 센서를 이용할 수 있는 광학 센서 시스템을 포함할 수 있다. 일부 실시예들에서, 캡처된 이미지 데이터는, 사용자 착용 HMD(100)에 의해, 광학 센서(114)의 시야 내의 다른 사람에 의해, 또는 광학 센서(114)의 시야 내의 물리적 객체에 의해, 제스처 기반 입력들 및/또는 임의의 다른 적합한 움직임들과 같은, 이미지 데이터에서 캡처된 움직임들을 검출하는데 이용될 수 있다. 추가적으로, 일부 실시예들에서, 하나 이상의 외향 센서(들)는 물리적 환경 및/또는 환경 내의 물리적 객체들로부터 2D 이미지 정보 및/또는 깊이 정보를 캡처할 수 있다. 예를 들어, 외향 센서(들)는 깊이 카메라, 가시 광 카메라, 적외선 광 카메라, 위치 추적 카메라, 및/또는 임의의 다른 적합한 이미지 센서 또는 이미지 센서들의 조합을 포함할 수 있다.
일부 실시예들에서, 구조화된 광 깊이 카메라는 구조화된 적외선 조명을 투사하고, 조명이 투사되는 장면으로부터 반사된 조명의 이미지 데이터를 생성하도록 구성될 수 있다. 이러한 실시예들에서, 장면의 깊이 맵은 이미지화된 장면의 다양한 영역들 내의 피처들 사이의 간격에 기반하여 구성될 수 있다. 추가적으로 또는 대안적으로, 일부 실시예들에서, 펄스 적외선 조명을 장면 상에 투사하고 장면으로부터 반사된 조명을 검출하도록 구성된 비행 시간 깊이 카메라는 HMD(100)에 통합될 수 있다. 일부 실시예들에서, 조명은 적외선 광원(116)에 의해 제공될 수 있다.
일부 실시예들에서, HMD(100)는 오디오 데이터를 캡처할 수 있는 마이크로폰(118)과 같은 하나 이상의 마이크로폰을 포함할 수 있는 마이크로폰 시스템을 포함할 수 있다. 다른 예들에서, 오디오는 스피커(120)와 같은 하나 이상의 스피커를 통해 착용자에게 제시될 수 있다.
일부 실시예들에서, HMD(100)는, 예를 들어, HMD(100)의 다양한 센서들 및 시스템들과 통신하는 (도 4와 관련하여 후술하는) 프로세서 및 메모리를 포함할 수 있는 제어기(122)와 같은 제어기를 포함할 수 있다. 일부 실시예들에서, 제어기는 센서들로부터 신호 입력들을 수신하고, HMD(100)의 포즈를 결정하고, 투명 디스플레이(102)를 이용하여 표시되는 콘텐츠에 대한 디스플레이 특성들을 조정하기 위해 프로세서에 의해 실행가능한 명령어들을 메모리에 저장할 수 있다.
일부 실시예들에서, HMD(100)는 마이크로소프트 테크놀로지 라이센싱사에 허여된 미국 특허 제9,495,801호에서 설명된 특징들과 같은 임의의 다른 적합한 특징들 또는 특징들의 조합을 가질 수 있으며, 이는 그 전체가 본 명세서에 참조로 포함된다. 본 명세서에서 HMD(100)의 설명은 개시된 주제와 관련하여 이용될 수 있는 하드웨어의 예시를 위한 것일 뿐이다. 그러나, 개시된 주제는 마이크로소프트사에 의해 제조된 HoloLens®, 및/또는 미국 특허 제8,847,988호, 미국 특허 제8,941,559호, 미국 특허 출원 공보 제2014/0160001호에서 설명된 디바이스들과 같은 임의의 적합한 증강 현실 디바이스에 의해 이용될 수 있으며, 이들 각각은 그 전체가 본 명세서에 참조로 포함된다.
도 2는 개시된 주제의 일부 실시예들에 따른 네트워킹된 HMD들(100)의 시스템의 예(200)를 도시한다. 도 2에 도시된 바와 같이, 시스템(200)은 동일한 물리적 공간(예를 들어, 동일한 방)에 위치한 다양한 HMD들(100-1 내지 100-5)을 포함할 수 있다. 시스템(200)은 다양한 스테이션들(202-1 내지 202-3)을 포함할 수 있으며, 이들은 하나 이상의 이미지가 HMD들(100)에 의해 표시되는 물리적 공간에서의 지점들에 대응할 수 있다. 예를 들어, 각각의 스테이션(202)은 하나 이상의 이미지에 대한 미리 결정된 공간 앵커로서 HMD들(100)에 의해 이용될 수 있다. 더 특정한 예에서, 스테이션들(202)은, HMD가 스테이션으로부터 비교적 멀리(예를 들어, 스테이션으로부터 5미터 초과하여) 이동하더라도, 스테이션이 시야에 있는 한 HMD가 스테이션에 대응하는 이미지를 제시하도록 지시받는 경우 HMD(예를 들어, HMD(100))에 의해 표시될 이미지들에 대한 공간 앵커들을 정의할 수 있다. 다른 예로서, 각각의 스테이션(202)은 HMD들(100)이 하나 이상의 이미지를 배치할 수 있는 좌표계를 정의하는데 이용될 수 있다. 더 특정한 예에서, 스테이션들(202)은 HMD(예를 들어, HMD(100))가 사용자가 특정한 스테이션에 비교적 가까울 때만 스테이션에 대응하는 이미지를 제시하도록 지시받고/받거나 HMD가 (예를 들어, 시스템(200)과 관련하여 그리고 도 6과 관련하여 후술하는 바와 같이) 시야 내의 가장 가까운 스테이션에 대응하는 하나 이상의 이미지를 단지 제시하도록 지시받는 글로벌 좌표계의 원점을 정의할 수 있다. 일부 실시예들에서, 각각의 스테이션(202)은 수동 및/또는 능동일 수 있다. 예를 들어, 하나 이상의 스테이션(202)은 (예를 들어, 광학 센서(114)에 의해 캡처된 이미지로부터) HMD(100)에 의해 인식될 수 있는 특정한 심볼(예를 들어, 글자, 숫자, 아이콘, QR 코드 등)을 갖는 종이 한 장일 수 있다. 다른 예로서, 하나 이상의 스테이션(202)은 (예를 들어, 광학 센서(114)에 의해 캡처된 이미지로부터) HMD(100)에 의해 인식될 수 있는 특정한 객체 또는 객체의 일부(예를 들어, 한 점의 가구, 캐릭터 인형, 장난감 등)일 수 있다. 또 다른 예로서, 하나 이상의 스테이션(202)은 HMD(100)와 통신할 수 있는 블루투스 디바이스(예를 들어, 블루투스 저에너지 비컨)와 같은 능동 디바이스일 수 있다. 또 다른 예로서, 스테이션들(202)은 HMD(100)가 통신할 수 있는 능동 또는 수동 RFID 디바이스일 수 있다. 일부 실시예들에서, 스테이션들(202)의 위치들은 사용자들이 다양한 스테이션들로 이동하는 것을 돕기 위해 HMD들(100-1 내지 100-5)에 의해 시각적으로 강조될 수 있다. 예를 들어, 사용자의 시야 내의 하나 이상의 스테이션(202)은 공, 텍스트, 스테이션과 관련하여 제시될 콘텐츠의 윤곽, 및/또는 임의의 다른 적합한 시각적 보조의 이미지에 의해 표현될 수 있다.
일부 실시예들에서, 시스템(200)은 각각의 스테이션과 관련하여 제시될 콘텐츠를 제어할 수 있는 서버(204)를 포함할 수 있다. 일부 실시예들에서, 서버(204)는 서버 컴퓨터, HMD, 태블릿 컴퓨터, 스마트폰, 개인용 컴퓨터, 랩톱 컴퓨터 등과 같은 임의의 적합한 컴퓨팅 디바이스를 이용하여 구현될 수 있다. 일부 실시예들에서, 각각의 HMD(100)는 통신 링크(208)를 통해 통신 네트워크(206)에 접속할 수 있고, 서버(204)는 통신 링크(212)를 통해 통신 네트워크(206)에 접속할 수 있다. 일부 이러한 실시예들(예를 들어, 스테이션들(202)이 능동 디바이스들인 실시예들)에서, 스테이션들(202)은 통신 링크(210)를 통해 통신 네트워크(206)에 접속할 수 있다. 일부 실시예들에서, 사용자 컴퓨팅 디바이스(220)는 통신 링크(222)를 통해 통신 네트워크(206)에 접속할 수 있다. 통신 네트워크(206)는 임의의 적합한 통신 네트워크 또는 통신 네트워크들의 조합일 수 있다. 예를 들어, 통신 네트워크(206)는 (하나 이상의 무선 라우터, 하나 이상의 스위치 등을 포함할 수 있는) Wi-Fi 네트워크, 피어-투-피어 네트워크(예를 들어, 블루투스 네트워크, 지그비 메시 네트워크 등), 셀룰러 네트워크(예를 들어, CDMA, GSM, LTE, LTE Advanced, WiMAX 등과 같은 임의의 적합한 표준을 따르는 3G 네트워크, 4G 네트워크 등), 유선 네트워크 등일 수 있다. 통신 링크들(208, 210 및 212) 각각은 Wi-Fi 링크들, 블루투스 링크들, 셀룰러 링크들 등과 같은 임의의 적합한 통신 링크 또는 통신 링크들의 조합일 수 있다.
일부 실시예들에서, 사용자는 각각의 스테이션(202)과 관련하여 제시될 콘텐츠를 선택하기 위해 사용자 컴퓨팅 디바이스(220)를 통해 서버(204)와 상호작용할 수 있다. 예를 들어, 사용자는 서버(204)에게 스테이션(202-2)에 근접한 HMD들로 하여금 특정한 다른 해부학적 특징들의 부재 시에(예를 들어, 근육들의 부재 시에, 골격계의 부재 시에, 기타 등등) 인간의 혈관계의 상호작용적 3D 모델을 보여주는 이미지들을 제시하도록 지시할 수 있는 반면, 사용자는 서버(204)에게 스테이션(202-3)에 근접한 HMD들로 하여금 혈관계가 어떻게 특정한 주요 근육 그룹들에 통합되는지를 보여주는 상호작용적 3D 모델을 보여주는 이미지들을 제시하도록 지시할 수 있다. 이들은 단지 예들로서 주어지고, 사용자는 각각의 스테이션과 관련하여 제시될 임의의 적합한 콘텐츠를 선택할 수 있다는 점에 유의한다. 일부 실시예들에서, 사용자는 서버(204)에게 각각의 스테이션에 대해 상이한 콘텐츠를 제시하도록 지시할 수 있고, 서버(204)는 HMD들(100)이 각각의 스테이션(202)에 대해 상이한 콘텐츠를 제시하게 한다. 일부 이러한 실시예들에서, HMD들(100)의 착용자들은 각각의 스테이션에서 상이한 콘텐츠를 관찰하기 위해 스테이션들 사이에서 이동할 수 있고, 사용자는 상이한 개념들을 입증하도록 선택했을 수 있다. 추가적으로 또는 대안적으로, 일부 실시예들에서, 사용자는 서버(204)에게 각각의 스테이션에서 동일한 콘텐츠를 제시하도록 지시할 수 있다. 예를 들어, 이러한 실시예들에서, 수업 내의 학생들은 어느 스테이션이 각각의 HMD(100)가 근처에 위치하는지에 관계없이 시스템(200) 내의 모든 HMD들(100)에 의해 표시되고 있는 특정한 콘텐츠를 강사가 논의하기 때문에 모두 따라갈 수 있다. 일부 실시예들에서, 사용자는 하나 이상의 기준점에 대한 하나 이상의 스테이션(202)의 위치(예를 들어, 방, 특정한 디바이스에 대한 기준점들 등에서의 위치들)를 지정할 수 있다.
일부 실시예들에서, 사용자는 사용자 컴퓨팅 디바이스(220) 및/또는 서버(204)를 통해 하나 이상의 스테이션(202)과 관련하여 제시될 프리젠테이션을 생성할 수 있다. 이러한 프리젠테이션은, 예를 들어, 어느 콘텐츠가 각각의 스테이션에서 제시될 것인지, 그 콘텐츠가 스테이션들에서 제시될 시간들(예를 들어, 시간 길이, 프리젠테이션 동안의 기간 등), 그 콘텐츠가 각각의 스테이션에서(및/또는 모든 스테이션들에 걸쳐) 제시될 순서, 어느 콘텐츠가 어느 HMD(100) 및/또는 HMD(100)와 연관된 어느 사용자에게 제시될 것인지, 및/또는 임의의 다른 적합한 정보를 포함할 수 있다. 일부 실시예들에서, 이러한 프리젠테이션은 제시될 콘텐츠, 그 콘텐츠가 제시될 순서, 그 콘텐츠가 제시될 시간(들), 어느 콘텐츠가 각각의 스테이션과 관련하여 제시될 것인지 등을 참조하는 문서로서 프리젠테이션 시에 서버(204)에 의해 각각의 HMD(100)에 전달될 수 있다. 예를 들어, 서버(204)는 HMD(100)가 HMD(100) 상에 이미 로딩된 콘텐츠로부터 프리젠테이션을 생성하는데 이용할 수 있는 XML 파일을 전송할 수 있다.
일부 실시예들에서, 사용자는 사용자 컴퓨팅 디바이스(220)로부터 HMD들(100)에 의해 제시될 콘텐츠 및/또는 콘텐츠의 식별 정보를 서버(204)에 업로드할 수 있다. 예를 들어, 사용자는 하나 이상의 해부학적 특징의 3D 표현을 생성하기 위해 (예를 들어, HMD들(100)에 의해) 이용될 수 있는 해부학적 모델들을 사용자 컴퓨팅 디바이스(220)로부터 서버(204)에 업로드할 수 있다. 다른 예로서, 사용자는 하나 이상의 해부학적 모델이 액세스될 수 있는 위치 정보(예를 들어, URL)를 제공할 수 있다. 일부 실시예들에서, HMD들(100)은 임의의 적합한 시간에 콘텐츠를 다운로드 및/또는 저장할 수 있다. 예를 들어, 관리자는 콘텐츠를 각각의 HMD(100)에 다운로드, 사이드로드 및/또는 아니면 전송하여, 증강 현실 콘텐츠의 프리젠테이션 및/또는 이러한 콘텐츠의 다른 프리젠테이션 중에 이용되게 할 수 있다. 더 특정한 예에서, HMD들(100)이 기관에 의해 소유되는 경우, 기관과 연관된 사용자는 HMD(100) 각각에 콘텐츠를 프리로드할 수 있다. 다른 예로서, 일부 실시예들에서, HMD(100)의 사용자는 콘텐츠를 제시하는데 이용될 수 있는 애플리케이션을 다운로드할 수 있다. 이러한 예에서, 콘텐츠를 업로드하는 사용자는 콘텐츠를 애플리케이션과 연관시킬 수 있고, 콘텐츠는 애플리케이션과 함께 그리고/또는 그 애플리케이션이 HMD 상에 설치된 후에는 그 애플리케이션에 의해 다운로드될 수 있다. 또 다른 예로서, 일부 실시예들에서, HMD(100)의 사용자는 다운로드될 콘텐츠를 선택할 수 있고/있거나 콘텐츠는 사용자에 대해 알려진 정보에 기반하여 자동으로 다운로드될 수 있다. 더 특정한 예에서, 사용자는 콘텐츠와 연관된 이벤트(예를 들어, 수업)에 참여하기 위한 사용자의 등록에 기반하여 콘텐츠를 다운로드하도록 허용될 수 있다. 다른 더 특정한 예에서, 콘텐츠는 그 콘텐츠가 제시될 동안의 이벤트(예를 들어, 수업)와의 사용자의 연관에 기반하여 자동으로 다운로드될 수 있다. 또 다른 예로서, 콘텐츠는 그 콘텐츠가 HMD(100)에 의해 요구될 때 주문형 방식으로 스트리밍 및/또는 다운로드될 수 있다. 일부 실시예들에서, 사용자는 콘텐츠에 대해 지불하도록 프롬프팅될 수 있고/있거나 콘텐츠에 대한 가입을 위해 서명할 수 있다.
일부 실시예들에서, 사용자 컴퓨팅 디바이스(220)는 개인용 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트폰, 웨어러블 컴퓨터, 헤드 장착 디스플레이(예를 들어, HMD(100)) 등과 같은 임의의 적합한 컴퓨팅 디바이스 또는 디바이스들의 조합일 수 있다. 일부 실시예들에서, 사용자는 임의의 적합한 기술 또는 기술들의 조합을 이용함으로써 사용자 컴퓨팅 디바이스(220) 및/또는 서버(204)를 이용하여 콘텐츠를 선택하거나, 프리젠테이션을 생성하거나, 콘텐츠를 업로드하거나, 기타 등등을 할 수 있다. 예를 들어, 사용자 컴퓨팅 디바이스(220)는 임의의 적합한 수의 스테이션들 및/또는 임의의 적합한 수의 HMD들에 대한 콘텐츠의 프리젠테이션들을 생성 및/또는 편집하도록 구성되는 메모리로부터의 프리젠테이션 애플리케이션을 실행할 수 있다. 다른 예로서, 사용자 컴퓨팅 디바이스(220)는, 원격 실행된 프리젠테이션 애플리케이션과의 상호작용을 용이하게 하는 컴퓨팅 디바이스(220)에 의해 실행되는 웹 브라우저 또는 다른 애플리케이션을 통한 네트워크(206)를 통해 다른 컴퓨팅 디바이스(예를 들어, 서버(204), 클라우드 서버 등)에 의해 실행되는 프리젠테이션 애플리케이션과 상호작용할 수 있다.
일부 실시예들에서, 각각의 HMD(100)는 각각의 스테이션과 연관된 콘텐츠를 제시하기 위해 (예를 들어, 통신 네트워크(206)를 통해) 서버(204)와 상호작용할 수 있는 애플리케이션을 실행할 수 있다. 특정한 HMD(100)가 스테이션의 미리 결정된 거리 내에 들어올 때(예를 들어, HMD(100-2)가 스테이션(202-2)에 접근할 때), 서버(204)는 스테이션(202-2)과 연관된 콘텐츠를 제공할 수 있다. HMD들(100)을 서버(204)와 네트워킹하는 것은 HMD들(100)이 HMD(100)가 메모리로부터 제시할 수 있는 것보다 더 많은 콘텐츠를 제시하는 것을 용이하게 할 수 있다. 또한, HMD들(100)을 서버(204)와 네트워킹하는 것은 제시자(예를 들어, HMD(100-1)의 사용자)가 상호작용적 프리젠테이션 동안 다양한 다른 HMD들(100)에 의해 제시되고 있는 콘텐츠를 제어하는 것을 용이하게 할 수 있다.
일부 실시예들에서, 시스템(200)은 임의의 적합한 기술 또는 기술들의 조합을 이용하여 특정한 HMD(100)에 의해 어느 콘텐츠가 제시될 것인지를 결정할 수 있다. 예를 들어, HMD(100)는 어느 스테이션(또는 스테이션들)이 가장 가까운지를 결정할 수 있고, 서버(204)로부터 그 스테이션과 연관된 콘텐츠를 요청할 수 있고/있거나 그 스테이션과 연관된 콘텐츠를 메모리로부터 제시할 수 있다. 이러한 예에서, HMD(100)는 임의의 적합한 기술을 이용하여, 예를 들어 외향 카메라(예를 들어, 광학 센서(114))에 의해 캡처된 이미지 데이터를 분석하는 것, 다양한 스테이션들(202)로부터 수신된 다양한 신호들(예를 들어, 블루투스 신호들)의 강도를 분석하는 것, GPS 수신기를 이용하여 결정된 HMD(100)의 GPS 좌표들을 분석하는 것 등에 의해 어느 스테이션(202)(또는 스테이션들)이 가장 가까운지를 결정할 수 있다. 다른 예로서, HMD(100)는 정보(예를 들어, 하나 이상의 이미지, 다양한 신호들의 신호 강도, GPS 좌표들 등)를, 어느 스테이션(또는 스테이션들)이 HMD(100)에 가장 가까운지를 결정할 수 있는 서버(204)에 제공할 수 있다. 또 다른 예로서, 서버(204)는 임의의 적합한 데이터(예를 들어, 다양한 HMD들로부터 스테이션에 의해 수신된 블루투스 신호의 신호 강도)에 기반하여, (예를 들어, 다른 인근 스테이션들보다 그 스테이션에 더 가까운 HMD들의 리스트로서, 스테이션으로부터 다양한 HMD들까지의 거리 등으로서) 어느 HMD들이 스테이션에 가장 가까운지를 나타내는 정보를 스테이션들(202)로부터 수신할 수 있다. 이러한 예에서, 각각의 스테이션은 열거되는 각각의 HMD가 단일 스테이션만에 의해 표시되도록 다른 인근 스테이션들과 협력할 수 있다.
일부 실시예들에서, HMD(100)는 상이한 콘텐츠가 임의의 적합한 시간에 제시될 것이라고 결정할 수 있다. 예를 들어, HMD(100-2)는 HMD(100-2)가 스테이션(202-2) 근방을 떠나서 스테이션(202-3)에 접근했다고 결정할 수 있고, 그 결정에 기반하여, HMD(100-2)가 스테이션(202-3)에 접근했다고 결정하는 것에 응답하여 스테이션(202-3)에 대한 콘텐츠를 제시 및/또는 요청할 수 있다. 추가적으로 또는 대안적으로, 일부 실시예들에서, 서버(204)는 임의의 적합한 시간에 명령어들 및/또는 콘텐츠를 HMD(100-2)에 푸시할 수 있다. 예를 들어, 서버(204)는 HMD(100-2)가 스테이션(202-2) 근방을 떠나서 스테이션(202-3)에 접근했다고 결정할 수 있고, HMD(100-2)가 스테이션(202-3)에 접근했다고 결정하는 것에 응답하여 스테이션(202-3)과 연관된 콘텐츠를 제시하기 위한 명령어들을 HMD에게 푸시할 수 있다(및/또는 콘텐츠 자체를 푸시할 수 있다). 다른 예로서, 서버(204)는 임의의 적합한 스테이션(202) 또는 스테이션들에 의해 (예를 들어, 제시자로부터) 제시되고 있는 콘텐츠를 변경하기 위한 명령어를 수신할 수 있다. 이러한 명령어에 응답하여, 서버(204)는 적합한 HMD들(100)에게 새로운 콘텐츠(및/또는 새로운 콘텐츠 자체)를 제시하기 위한 명령어를 푸시할 수 있다. 또 다른 예로서, 서버(204)는 특정한 시간들에 특정한 콘텐츠를 수신하기 위해 특정한 HMD들(100)을 할당하는 명령어들을 수신할 수 있다. 이러한 예에서, 특정한 HMD(100)의 착용자는, 콘텐츠가 서버(204)로부터 스테이션과 연관된다는 표시를 수신한 후(및/또는 콘텐츠 자체를 수신한 후) HMD(100)가 콘텐츠를 제시하고 있는 할당된 스테이션으로 이동하도록 프롬프팅될 수 있다.
일부 실시예들에서, 하나 이상의 스테이션(202)은 제시자에 의해 이용되어, 다른 스테이션들 근방의 HMD들에 의해 제시되고 있는 것을 제어할 수 있다. 예를 들어, 일부 실시예들에서, HMD(100-1)의 착용자는 스테이션들(202-2 및 202-3)(및/또는 임의의 다른 적합한 스테이션들) 중 하나 이상에서 제시되고 있는 콘텐츠를 제어하기 위해 임의의 적합한 사용자 인터페이스 디바이스(들)를 이용하여 스테이션(202-1)에서 제시되는 콘텐츠와 상호작용할 수 있다. 이러한 예에서, HMD(100-1)의 착용자는 음성 인식 시스템에 대한 음성 입력들, (예를 들어, HMD(100-1)에 통합된) 제스처 인식 시스템에 대한 입력들로서의 제스처들, 다른 컴퓨팅 디바이스의 입력 디바이스(예를 들어, 스마트폰, 태블릿 컴퓨터, 랩톱 컴퓨터 등과 같은 컴퓨팅 디바이스의 터치스크린; 랩톱 컴퓨터, 개인용 컴퓨터 등과 같은 컴퓨팅 디바이스의 마우스 및/또는 키보드), (예를 들어, 도 3a와 관련하여 후술하는 바와 같은) 전용 입력 디바이스 등과 같은 임의의 적합한 입력 디바이스 또는 디바이스들의 조합을 이용할 수 있다. 일부 실시예들에서, 서버(204)는 제시될 콘텐츠 및/또는 추가 콘텐츠를 어떻게 제시하는지에 관한 HMD들(100) 중 하나 이상에 대한 명령어들과 같은 추가 정보를 콘텐츠의 프리젠테이션 동안 HMD들(100)에 전달할 수 있다. 예를 들어, 도 3a 및 도 3b와 관련하여 후술하는 바와 같이, 제1 HMD(100-1)의 사용자는 입력 디바이스를 이용하여 (예를 들어, 공간을 지나는 라인, 콘텐츠 상의 도트, 사용자의 손 등을 통해) HMD(100-1)에 의해 제시되는 콘텐츠의 특정한 부분을 가리킬 수 있고, 서버(204)는 이들 HMD들 각각이 HMD(100-1)의 사용자가 콘텐츠의 특정한 부분을 가리키는 것을 나타내는 보충 콘텐츠를 제시하게 하는 명령어들을 동일한 콘텐츠를 제시하는 하나 이상의 다른 HMD(100)에 전송할 수 있다. 일부 실시예들에서, 이러한 추가 정보는 HMD들(100)에 의한 콘텐츠의 프리젠테이션을 제어하는데 이용될 수 있다. 예를 들어, HMD(100-1)의 사용자는 HMD(100-1)(및/또는 임의의 다른 적합한 디바이스)에의 입력을 통해 프리젠테이션을 제어할 수 있고, 하나 이상의 다른 HMD(100)는 하나 이상의 다른 HMD(100)로 하여금 HMD(100-1)의 사용자로부터의 입력에 따라서 어느 콘텐츠가 제시되고 있는지를 변경하게 하는 명령어들 및/또는 콘텐츠를 서버(204)로부터 수신할 수 있다. 일부 실시예들에서, HMD(100)는 (예를 들어, 어느 콘텐츠가 제시되는지에 대한 변경들을 포함하는) 프리젠테이션의 기록에 액세스할 수 있고, 프리젠테이션 동안 서버(204)에 의해 전송된 명령어들은 (예를 들어, 어느 콘텐츠를 제시할지를 표시하는 문서를 포함할 수 있는) 기록과 함께 (예를 들어, 파일로서) 포함될 수 있고/있거나 그 기록이 HMD(100)에 의해 제시될 때 명령어들을 스트리밍할 수 있다. 예를 들어, HMD(100)는 프리젠테이션의 제1 부분에 따라 특정한 3D 모델을 제시할 수 있고, 프리젠테이션 중에 3D 모델의 프리젠테이션 동안 서버(204)에 의해 전송된 명령어들에 기반하여 3D 모델과 연관하여 포인터를 제시할 수 있다. 이러한 예에서, 프리젠테이션 동안 기록된 오디오는 또한 사용자에게 (예를 들어, 스피커들(120)을 통해) 제시될 수 있다. 이것은 프리젠테이션이 제공되었을 때 존재한 사용자들이 경험한 바와 같이 사용자가 프리젠테이션을 경험하는 것을 용이하게 할 수 있다.
일부 실시예들에서, 오디오 정보는 또한 각각의 스테이션과 연관될 수 있으며, 이는 시각적 콘텐츠와 관련하여 HMD(100)에 의해 제시될 수 있다. 추가적으로 또는 대안적으로, 일부 실시예들에서, 오디오는 (예를 들어, 스테이션(202)의 일부인 하드웨어에 의해 및/또는 하나 이상의 HMD(100)의 마이크로폰(118)에 의해) 각각의 스테이션에서 기록될 수 있다. 일부 실시예들에서, 오디오는 (예를 들어, 연구 보조로서) 나중의 액세스를 위해 특정한 HMD(100)의 착용자의 요청에 기록될 수 있다.
HMD들(100-1 내지 100-5)이 (예를 들어, 동일한 방에서) 서로 로컬인 것으로 위에서 설명되었지만, 시스템(200) 내의 HMD들은 서로 로컬로 및/또는 서로 원격으로 배치될 수 있다. 예를 들어, 시스템(200)은 하나 이상의 원격 위치에 배치된 HMD들(100)의 한 명 이상의 착용자와 협력하고/하거나 상호작용하는데 이용될 수 있다. 일부 실시예들에서, 2개의 HMD들(100)은 이들 사이에 시선이 없는 경우 서로 원격일 수 있다. 예를 들어, 2개의 HMD들(100)은 이들이 모두 동일한 로컬 영역 네트워크(LAN) 또는 상이한 네트워크들에 접속되는지 여부에 관계없이, 이들이 서로 다른 방들에 위치하는 경우에 서로 원격인 것으로 고려될 수 있다. 다른 예로서, 상이한 LAN들에 접속되는 2개의 HMD들(100)은 서로 원격인 것으로 고려될 수 있다. 또 다른 예로서, 상이한 서브넷들에 접속되는 2개의 HMD들(100)은 서로 원격인 것으로 고려될 수 있다. 일부 실시예들에서, 예를 들어 도 3b와 관련하여 후술하는 바와 같이, 서로 원격인 2개의 HMD들(100)은 2개의 HMD들(100) 중 적어도 하나에 의해 제시되는 홀로그램과 관련하여 아바타와 함께 원격 사용자를 표현함으로써 협력하는데 이용될 수 있다.
일부 실시예들에서, 서버(204)는 HMD들(100)로부터 로컬로 또는 원격으로 배치될 수 있다. 추가적으로, 일부 실시예들에서, 상이한 콘텐츠를 제공하는 것, 중복 기능들을 제공하는 것 등을 위해 (상이한 물리적 위치들에 배치될 수 있는) 복수의 서버들(204)이 이용될 수 있다. 일부 실시예들에서, 시스템(200) 내의 HMD들 중 하나는, 업데이트된 정보 등을 분배하기 위해 다른 HMD들이 언제 프리젠테이션을 통해 이동할 것인지를 지시하는 것과 같이, 본 명세서에서 설명되는 서버(204)의 동작들 중 하나 이상을 수행할 수 있다. 예를 들어, 시스템(200) 내의 로컬 HMD들(100)은 메시 네트워크를 형성하도록 상호접속될 수 있고, 서버(204)로서 동작하는 HMD(예를 들어, HMD(100-1))는 업데이트된 정보를 제공함으로써 다른 HMD들의 동작을 제어할 수 있다. 추가적으로, 일부 실시예들에서, 서버(204)로서 동작하는 HMD는 메시 네트워크 내의 노드일 수 있고, 다른 네트워크(예를 들어, LAN, 셀룰러 등)를 통해 통신하여 (예를 들어, 도 3b와 관련하여 후술하는 바와 같이) 원격 사용자와 관련된 정보와 같은 다른 정보를 수신할 수 있다. 일부 이러한 실시예들에서, 서버(204)로서 동작하는 HMD는, 어느 HMD 또는 HMD들이 원격 사용자의 아바타가 홀로그램과 관련하여 제시될 것인지를 표시하는 정보, 아바타의 배치 정보 등을 분배할지를 결정할 수 있다.
일부 실시예들에서, 임의의 적합한 HMD(예를 들어, HMD(100-1))의 사용자는 HMD에 입력을 제공함으로써 (예를 들어, 슬라이드 쇼와 유사한 방식으로) 콘텐츠의 프리젠테이션을 제어할 수 있다. 예를 들어, 증강 현실 프리젠테이션을 통해 진행하기 위해, 사용자는 사용자 입력(예를 들어, 버튼, 터치 센서 등)을 태핑하고/하거나 이미지 센서(예를 들어, 광학 센서(114))에 의해 캡처될 수 있는 제스처를 수행할 수 있다. 다른 예로서, 증강 현실 프리젠테이션을 통해 뒤로 가기 위해, 사용자는 사용자 입력을 태핑 및 유지하고(예를 들어, 버튼을 유지하고, 터치 센서를 눌러서 유지하고, 기타 등등), 및/또는 상이한 제스처를 수행할 수 있다. 일부 실시예들에서, HMD(100-1)는 증강 현실 프리젠테이션을 통해 앞으로(또는 뒤로) 이동하기 위한 명령어들을 생성할 수 있고, 이러한 명령어들을 서버(204)(다른 HMD일 수 있음)로 전송할 수 있고, 이는 다른 HMD들이 HMD(100-1)에서 수신된 사용자 입력에 따라 새로운 콘텐츠를 제시하게 할 수 있다. 추가적으로 또는 대안적으로, 일부 실시예들에서, HMD(100-1)가 서버(204)로서 역할을 하는 경우, HMD(100-1)는 입력을 수신하는 것에 응답하여 HMD(100-1)에서 수신된 사용자 입력에 따라 다른 HMD들이 새로운 콘텐츠를 제시하게 할 수 있다. 시스템(200)이 증강 현실 디바이스 상의 물리적 환경에서 증강 현실 프리젠테이션을 제시하는 것과 관련하여 일반적으로 설명되지만, 이러한 시스템은 임의의 타입의 혼합 현실(예를 들어, 증강 가상 프리젠테이션) 또는 완전 가상 현실 프리젠테이션을 제시하도록 구성될 수 있다. 예를 들어, 물리적 환경 내의 위치들에 대응하는 스테이션들(202) 보다는, 스테이션들이 가상 환경 내의 지점들에 대응할 수 있다. 추가로 또는 대안적으로, 일부 실시예들에서, 시스템(200) 내의 하나 이상의 HMD는 증강 현실 디바이스일 수 있는 반면, 다른 HMD들은 가상 현실 디바이스들이다. 예를 들어, 원격 위치된 사용자는 가상 현실 디바이스를 이용하여 특정한 스테이션에서 그룹에 합류할 수 있다. 이러한 예에서, 가상 현실 디바이스는 3D 모델, 3D 모델의 사용자의 현재 뷰를 나타내는 3D 모델에 대한 위치들에 있는 다른 사용자들(예를 들어, 스테이션에 물리적으로 근접하게 위치한 증강 현실 디바이스들의 사용자들, 및/또는 가상 현실 디바이스들의 다른 사용자들)에 대응하는 아바타들 등을 제시할 수 있다. 일부 실시예들에서, 가상 현실 디바이스의 사용자는 제시되는 3D 모델의 뷰가, 사용자 입력 디바이스(예를 들어, 게임 제어기, 터치패드 등)에 의해 수신된 입력들, 사용자의 물리적 움직임들(예를 들어, 회전들, 병진들 등)을 표시하는 출력들, 또는 임의의 다른 적합한 정보와 같은 임의의 기술을 이용하여 변경되게 할 수 있다. 추가적으로 또는 대안적으로, 일부 실시예들에서, 가상 현실 디바이스의 사용자는 동일한 3D 모델을 보고 있는 증강 현실 디바이스의 관점을 채택할 수 있다. 일부 실시예들에서, 특정한 스테이션 주위의 그룹에 합류하는데 이용되는 가상 현실 디바이스는 혼합 현실 프리젠테이션을 생성하기 위해 (예를 들어, 스테이션 주위의 환경의 360도 비디오를 캡처하는 카메라에 의해) 스테이션에서 및/또는 그 인근에서 캡처된 비디오의 하나 이상의 부분을 제시할 수 있거나, 스테이션의 물리적 환경과 유사할 수 있거나 유사하지 않을 수 있는 가상 환경(예를 들어, 다른 스테이션들을 포함할 수 있는 가상 방)에서 3D 모델을 제시할 수 있거나, 또는 다른 사용자들에 대한 정보 및 3D 모델만을 제시할 수 있다(예를 들어, 단일 배경색을 이용하여 빈 환경에서 3D 모델을 제시할 수 있다).
도 3a는 개시된 주제의 일부 실시예들에 따라, 제시된 이미지와 상호작용하기 위한 시스템의 예(300)를 도시한다. 도 3a에 도시된 바와 같이, 사용자 입력 디바이스(302)는 통신 링크(304)를 통해 HMD(100-1)와 통신할 수 있다. 일부 실시예들에서, 통신 링크(304)는 사용자 입력 디바이스(302)와 HMD(100-1) 사이의 통신을 용이하게 할 수 있는 임의의 적합한 통신 링크일 수 있다. 예를 들어, 통신 링크(304)는 유선 링크(예를 들어, USB 링크, 이더넷 링크, 독점적 유선 통신 링크 등) 및/또는 무선 링크(예를 들어, 블루투스 링크, Wi-Fi 링크 등)일 수 있다. 일부 실시예들에서, 사용자 입력 디바이스(302)는 하나 이상의 다른 디바이스 및/또는 객체(예를 들어, HMD(100-1), 스테이션(202), HMD(100-1)의 착용자의 특정한 신체 부분 등)에 대한 사용자 입력 디바이스(302)의 위치, 및/또는 (예를 들어, 사용자 입력 디바이스(302)가 특정한 방향으로 가속되었다는 것, 사용자 입력 디바이스(302)가 특정한 방향으로 회전되었다는 것 등을 표시하는 센서 출력들에 기반한) 상대적인 위치 변경을 결정하기 위한 임의의 적합한 센서들을 포함할 수 있다. 예를 들어, 일부 실시예들에서, 사용자 입력 디바이스(302)는 하나 이상의 가속도계, 하나 이상의 자이로스코프, 하나 이상의 전자 나침반, 하나 이상의 이미지 센서, 관성 측정 유닛 등을 포함할 수 있다.
일부 실시예들에서, 사용자 입력 디바이스(302)는 HMD(100)에 의해 제시되는 콘텐츠의 특정한 부분(예를 들어, 홀로그램(306-1)의 일부)을 강조하는 것, 홀로그램(306-1)의 특정한 부분을 선택하는 것, 홀로그램(306-1)의 특정한 부분이 특정한 방식(예를 들어, "클릭 앤 드래그" 타입의 동작)으로 이동하게 하는 것 등을 하도록 HMD(100-1)의 착용자에 의해 포인팅 디바이스로서 이용될 수 있다. 예를 들어, 홀로그램(306-1)의 특정한 영역을 강조하는 사용자 인터페이스 요소(308)는 사용자 입력 디바이스(302)가 홀로그램(306-1)과 관련하여 가리키는 방향에 기반하는 위치에서 홀로그램(306-1)과 관련하여 제시될 수 있다. 도 3a에 도시된 바와 같이, 홀로그램(306-1)에 제시되고 있는 동일한 콘텐츠를 포함하는 제2 홀로그램(306-2)을 제시하고 있는 제2 HMD(100-2)는 또한 (예를 들어, HMD(100-1), HMD(100-2), 및/또는 다른 HMD와 같은 HMD에 의해 구현될 수 있는, 서버(204)로부터 수신된 명령어들에 기반하여) 사용자 인터페이스 요소(308)를 제시할 수 있다.
일부 실시예들에서, HMD(100-1) 및/또는 서버(204)는 사용자 입력 디바이스(302)의 움직임 및/또는 위치 데이터를 나타내는 데이터를 사용자 입력 디바이스(302)로부터 수신할 수 있다. 사용자 입력 디바이스(302)로부터의 데이터에 기반하여, HMD(100-1) 및/또는 서버(204)는 홀로그램(306-1)의 일부로서 (및 홀로그램(306-2)과 동일한 콘텐츠를 제시하는 다른 HMD(100)에 의해 제시되는 임의의 다른 홀로그램의 일부로서) 제시될 사용자 인터페이스 요소(308)의 위치 및/또는 방향을 결정할 수 있다.
일부 실시예들에서, 사용자 입력 디바이스(302)는 HMD(100-1)가 (도 2와 관련하여 전술한 바와 같이, 스테이션(202-1) 또는 임의의 다른 적합한 위치에 고정될 수 있는) 홀로그램(306-1)에 대해 가리키는 방향을 결정할 수 있는, HMD(100-1)의 필수 부분일 수 있다. HMD(100-1)가 가리키고 있는 방향에 관한 정보는 착용자의 눈들이 보고 있는 방향(예를 들어, 일부 경우들에서 시선 정보에 기반하여 증강될 수 있음)을 추론하는데 이용될 수 있다. 일부 실시예들에서, HMD(100)의 착용자가 보고 있는 추론된 위치는 (예를 들어, HMD(100-1)의 착용자가 보고 있는 곳을 나타내는 라인, 도트, 복수의 도트들 등으로서) 홀로그램(306-1)에 대해 사용자 인터페이스 요소(308)를 위치시키기 위한 입력으로서 이용될 수 있다.
일부 실시예들에서, 사용자 입력 디바이스(302)는 위치 정보를 HMD(100-1) 및/또는 서버(204)로 전달할 수 있는 별개의 디바이스일 수 있고, 이는 이어서 HMD(100-1)의 착용자가 가리키고 있는 곳을 나타내기 위해 사용자 인터페이스 요소(308)를 생성하는데 이용될 수 있다. 사용자 입력 디바이스(302)의 위치 정보에 기반하여 사용자 인터페이스 요소를 생성하기 위해 임의의 적합한 기술 또는 기술들의 조합이 이용될 수 있다. 예를 들어, 일부 실시예들에서, HMD(100-1) 및/또는 서버(204)는 착용자의 신체의 일부(예를 들어, HMD(100-1)의 위치에 기반하여 추론될 수 있는 사용자의 신체의 중심)에 대해 사용자 입력 디바이스(302)의 위치를 결정할 수 있고, 착용자의 신체 및 사용자 입력 디바이스(302)의 일부와 교차하는 라인을 그릴 수 있다. 다른 예로서, 일부 실시예들에서, HMD(100-1) 및/또는 서버(204)는 홀로그램(306-1)에 대해 사용자 입력 디바이스(302)의 위치 및/또는 배향을 결정할 수 있고, 그 위치 및 배향에 기반하여 사용자 입력 디바이스(302)로부터 라인을 그릴 수 있다. 이러한 예에서, 사용자 입력 디바이스(302)의 위치는 이전 예에서 보다도 더 정확하게 교정될 필요가 있을 수 있고, 홀로그램의 로컬 좌표들에서 계산될 수 있다. 따라서, 이러한 예에서, 사용자 인터페이스 요소(308)가 제시되는 위치의 정확도는 교정의 정확도, 홀로그램(306-1)의 고정점(또는 다른 위치 기준)으로부터의 거리(고정점으로부터 더 먼 거리들이 덜 정확하게 결정될 수 있음) 등에 기반하여 달라질 수 있다.
또 다른 예로서, 일부 실시예들에서, HMD(100-1) 및/또는 서버(204)는 사용자 입력 디바이스(302)로부터 제1 입력을 수신할 수 있으며, 이는 HMD(100-1)의 착용자가 홀로그램(306) 상에서 사용자 인터페이스 요소(308)의 생성을 개시하고 있다는 것을 시그널링할 수 있다. 제1 사용자 입력(예를 들어, 제1 버튼 누름)을 수신할 때, HMD(100-1) 및/또는 서버(204)는 홀로그램(306-1)에 대한 착용자의 현재 위치(예를 들어, 사용자의 신체로부터 홀로그램(306-1)의 중심을 향하여 뻗은 라인)에 기반하여 디폴트 위치에서 사용자 인터페이스 요소(308)를 생성할 수 있다. 제1 버튼 누름 후에, HMD(100) 및/또는 서버(204)는 사용자 입력 디바이스(302)로부터 수신된 출력에 기반하여 사용자 인터페이스 요소의 방향(예를 들어, 라인이 홀로그램(306-1)과 교차하는 지점 및/또는 라인이 홀로그램(306-1)과 교차하는 방향)을 변경할 수 있다. 이러한 예에서, 제1 버튼 누름 후에, 착용자는 사용자 인터페이스 디바이스(302)를 병진시켜 라인이 홀로그램(306-1)과 교차하는 지점을 올리고/내리고 및/또는 좌/우로 이동시킬 수 있고, 사용자 입력 디바이스(302)를 회전시켜 라인이 홀로그램(306-1)과 교차하는 배향을 변경할 수 있다. 제2 사용자 입력의 수신 시에, HMD(100-1) 및/또는 서버(204)는 홀로그램(306-1)에 대해 사용자 인터페이스 요소(308)의 위치 및/또는 배향을 고정할 수 있다. 홀로그램(306-1)에 제시될 라인에 대한 이러한 제어 방식은 2D 그래픽 사용자 인터페이스에서 포인터(예를 들어, 커서)를 제어하기 위한 마우스의 동작과 일부 유사할 수 있다.
일부 실시예들에서, HMD들(100)은 HMD들(100)의 사용자들에 대한 시험을 관리하는데 이용될 수 있다. 예를 들어, 서버(204)의 사용자는, 2개의 HMD들이 동일한 위치에서 동일한 배향으로 동일한 콘텐츠를 제시하지 않는 식으로, 콘텐츠가 HMD들(100)에 제시되게 하는 프리젠테이션을 생성할 수 있다. 즉, 이러한 예에서, 협력을 용이하게 하기 보다는, 콘텐츠는 각각의 사용자가 개별화된 콘텐츠를 제시받도록 분배될 수 있다. 일부 실시예들에서, 관리 사용자(예를 들어, 시험의 강사 또는 감독자)는 시험 콘텐츠를 제시하는 임의의 HMD(100)와 동일한 콘텐츠를 제시받도록 허용될 수 있다. 일부 실시예들에서, 사용자(예를 들어, 학생)는 사용자 입력 디바이스(302)와 같은 포인팅 디바이스를 이용하여, 시험 질문에 대한 답변을 제공하기 위해 홀로그램 내의 특정한 위치를 가리킬 수 있다. 추가적으로, 일부 실시예들에서, HMD(100) 및/또는 서버(204)는 사용자가 시험 질문에 정확하게 답변했는지 여부를 자동으로 결정하기 위해 사용자가 포인팅 디바이스로 강조하고 있는 홀로그램 내의 위치를 결정할 수 있다. 예를 들어, 사용자는 해부학적 홀로그램 상에 특정한 근육을 위치시키도록 프롬프팅될 수 있고, 서버(204)는 사용자가 사용자 입력 디바이스(302)로 가리키고 있는 위치가 근육에 대응하는지 여부를 결정할 수 있다.
도 3b는 개시된 주제의 일부 실시예들에 따라, 제시된 이미지와 상호작용하기 위한 다른 시스템의 예(310)를 도시한다. 도 3b에 도시된 바와 같이, 제1 위치에서 제1 사용자(312)에 의해 착용된 제1 HMD(100-1)는 홀로그램(306-1)을 제시할 수 있다. 일부 실시예들에서, HMD(100-1)는 홀로그램(306-1)에 대해 사용자(312)의 손(314)의 위치를 추적할 수 있다. 일부 실시예들에서, HMD(100-1)는 사용자의 손의 위치 및/또는 배향을 추적하기 위해 임의의 적합한 기술 또는 기술들의 조합을 이용할 수 있다. 예를 들어, HMD(100-1)는 하나 이상의 이미지 센서(예를 들어, 광학 센서(114))에 의해 생성된 이미지들 및/또는 장면 내의 깊이 정보와 같은 임의의 다른 적합한 데이터를 시각적으로 이용하여 사용자의 손의 위치를 추적할 수 있다. 다른 예로서, HMD(100-1)는 사용자의 손에 의해 유지되는(또는 아니면 부착되는) 디바이스의 위치를 감지하기 위해 하나 이상의 센서를 이용하여 사용자의 손의 위치를 추적할 수 있다.
일부 실시예들에서, HMD(100-1)는 홀로그램(306-1)에 대한 HMD(100-1) 및 사용자의 손의 위치를 표시하는 정보를 서버(204)에 전송할 수 있다. 도 3b에 도시된 바와 같이, 서버(204)는 홀로그램(306-1)과 동일한 콘텐츠를 포함하는 홀로그램(306-2)을 제시하는 제2 HMD(100-2)에 정보를 전송할 수 있고, 이러한 정보는 홀로그램(306-2)에 대해 HMD(100-1)의 사용자(312)를 나타내는 아바타(316)를 제시하기 위한 위치를 표시할 수 있다. HMD(100-2)는 이러한 정보를 이용하여 홀로그램(306-2)과 함께 손 요소(318) 및 아바타(316)를 제2 사용자(320)에게 제시할 수 있다. 일부 실시예들에서, HMD(100-1)는 홀로그램(306-1)(도시되지 않음)과 관련하여 사용자(320)의 아바타를 제시하도록 야기될 수 있다.
도 4는 개시된 주제의 일부 실시예들에 따라, HMD(100), 서버(204) 및 사용자 입력 디바이스(302) 중 적어도 하나를 구현하는데 이용될 수 있는 하드웨어의 예(400)를 도시한다. 도 4에 도시된 바와 같이, 일부 실시예들에서, HMD(100)는 프로세서(402), 디스플레이(404), 하나 이상의 입력(406), 하나 이상의 통신 시스템(408), 및/또는 메모리(410)를 포함할 수 있다. 일부 실시예들에서, 프로세서(402)는 중앙 처리 유닛(CPU), 그래픽 처리 유닛(GPU) 등과 같은 임의의 적합한 하드웨어 프로세서 또는 프로세서들의 조합일 수 있다. 일부 실시예들에서, 디스플레이(404)는 도 1과 관련하여 전술한 바와 같이 투명 디스플레이와 같은 임의의 적합한 디스플레이 디바이스(들)를 포함할 수 있다. 일부 실시예들에서, 입력들(406)은 시선 추적 시스템(108), 헤드 추적 시스템(110), 움직임 센서들(112), 광학 센서(114), 마이크로폰(118) 등과 같은 사용자 입력을 수신하는데 이용될 수 있는 임의의 적합한 입력 디바이스(들) 및/또는 센서(들)를 포함할 수 있다.
일부 실시예들에서, 통신 시스템들(408)은 통신 네트워크(206) 및/또는 임의의 다른 적합한 통신 네트워크들을 통해 정보를 전달하기 위한 임의의 적합한 하드웨어, 펌웨어 및/또는 소프트웨어를 포함할 수 있다. 예를 들어, 통신 시스템들(408)은 하나 이상의 송수신기, 하나 이상의 통신 칩 및/또는 칩셋 등을 포함할 수 있다. 더 특정한 예에서, 통신 시스템들(408)은 Wi-Fi 접속, 블루투스 접속, 셀룰러 접속 등을 설정하는데 이용될 수 있는 하드웨어, 펌웨어 및/또는 소프트웨어를 포함할 수 있다.
일부 실시예들에서, 메모리(410)는, 예를 들어 프로세서(402)에 의해 디스플레이(404)를 이용하여 콘텐츠를 제시하는 것, 통신 시스템(들)(408)을 통해 서버(204)와 통신하는 것 등에 이용될 수 있는 명령어들, 값들 등을 저장하는데 이용될 수 있는 임의의 적합한 저장 디바이스 또는 디바이스들을 포함할 수 있다. 메모리(410)는 임의의 적합한 휘발성 메모리, 비휘발성 메모리, 저장소, 임의의 다른 적합한 타입의 저장 매체, 또는 이들의 임의의 적합한 조합을 포함할 수 있다. 예를 들어, 메모리(410)는 RAM, ROM, EEPROM, 하나 이상의 플래시 드라이브, 하나 이상의 하드 디스크, 하나 이상의 솔리드 스테이트 드라이브, 하나 이상의 광학 드라이브 등을 포함할 수 있다. 일부 실시예들에서, 메모리(410)는 HMD(100)의 동작을 제어하기 위한 컴퓨터 프로그램을 인코딩하였을 수 있다. 일부 이러한 실시예들에서, 프로세서(402)는 컴퓨터 프로그램의 적어도 일부를 실행하여 콘텐츠(예를 들어, 하나 이상의 홀로그램)를 제시하는 것, 서버(204)로부터 콘텐츠를 수신하는 것, 서버(204)에게 정보를 전송하는 것 등을 할 수 있다. 일부 실시예들에서, HMD(100)는 유니티 테크놀로지스(Unity Technologies)로부터 이용가능한 Unity 3D와 같이, 서버(204)로부터 수신된 콘텐츠를 렌더링하기 위한 임의의 적합한 하드웨어 및/또는 소프트웨어를 이용할 수 있다. 추가적으로, 일부 실시예들에서, 임의의 적합한 통신 프로토콜들이 HMD(100)와 서버(204) 사이에서 제어 데이터, 이미지 데이터, 오디오 등을 전달하는데 이용될 수 있고, 이러한 네트워킹 소프트웨어는 유니티 테크놀로지스로부터 이용가능하다.
일부 실시예들에서, 서버(204)는 프로세서(412), 디스플레이(414), 하나 이상의 입력(416), 하나 이상의 통신 시스템(418), 및/또는 메모리(420)를 포함할 수 있다. 일부 실시예들에서, 프로세서(412)는 중앙 처리 유닛, 그래픽 처리 유닛 등과 같은 임의의 적합한 하드웨어 프로세서 또는 프로세서들의 조합일 수 있다. 일부 실시예들에서, 디스플레이(414)는 컴퓨터 모니터, 터치스크린, 텔레비전 등과 같은 임의의 적합한 디스플레이 디바이스들을 포함할 수 있다. 일부 실시예들에서, 입력들(416)은 키보드, 마우스, 터치스크린, 마이크로폰 등과 같이 사용자 입력을 수신하는데 이용될 수 있는 임의의 적합한 입력 디바이스들 및/또는 센서들을 포함할 수 있다.
일부 실시예들에서, 통신 시스템들(418)은 통신 네트워크(206) 및/또는 임의의 다른 적합한 통신 네트워크들을 통해 정보를 전달하기 위한 임의의 적합한 하드웨어, 펌웨어 및/또는 소프트웨어를 포함할 수 있다. 예를 들어, 통신 시스템들(418)은 하나 이상의 송수신기, 하나 이상의 통신 칩 및/또는 칩셋 등을 포함할 수 있다. 더 특정한 예에서, 통신 시스템들(418)은 Wi-Fi 접속, 블루투스 접속, 셀룰러 접속 등을 설정하는데 이용될 수 있는 하드웨어, 펌웨어 및/또는 소프트웨어를 포함할 수 있다.
일부 실시예들에서, 메모리(420)는, 예를 들어 프로세서(412)에 의해 디스플레이(414)를 이용하여 콘텐츠를 제시하는 것, 하나 이상의 HMD(100)와 통신하는 것 등에 이용될 수 있는 명령어들, 값들 등을 저장하는데 이용될 수 있는 임의의 적합한 저장 디바이스 또는 디바이스들을 포함할 수 있다. 메모리(420)는 임의의 적합한 휘발성 메모리, 비휘발성 메모리, 저장소, 임의의 다른 적합한 타입의 저장 매체, 또는 이들의 임의의 적합한 조합을 포함할 수 있다. 예를 들어, 메모리(420)는 RAM, ROM, EEPROM, 하나 이상의 플래시 드라이브, 하나 이상의 하드 디스크, 하나 이상의 솔리드 스테이트 드라이브, 하나 이상의 광학 드라이브 등을 포함할 수 있다. 일부 실시예들에서, 메모리(420)는 서버(204)의 동작을 제어하기 위한 서버 프로그램을 그 위에 인코딩하였을 수 있다. 이러한 실시예들에서, 프로세서(412)는 컴퓨터 프로그램의 적어도 일부를 실행하여 콘텐츠(예를 들어, 하나 이상의 홀로그램)를 하나 이상의 HMD(100)로 전송하고, 하나 이상의 HMD(100)로부터 콘텐츠를 수신하고, 하나 이상의 디바이스(예를 들어, HMD(100-1), 사용자 입력 디바이스(302), 다른 서버, 개인용 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트폰 등)로부터 명령어들을 수신할 수 있다.
일부 실시예들에서, 사용자 입력 디바이스(302)는 프로세서(422), 하나 이상의 입력(224), 하나 이상의 통신 시스템(426) 및/또는 메모리(428)를 포함할 수 있다. 일부 실시예들에서, 프로세서(422)는 중앙 처리 유닛, 그래픽 처리 유닛 등과 같은 임의의 적합한 하드웨어 프로세서 또는 프로세서들의 조합일 수 있다. 일부 실시예들에서, 입력들(424)은 하나 이상의 물리적 또는 소프트웨어 버튼, 하나 이상의 움직임 센서, 마이크로폰, 터치패드 등과 같이 사용자 입력을 수신하는데 이용될 수 있는 임의의 적합한 입력 디바이스들 및/또는 센서들을 포함할 수 있다.
일부 실시예들에서, 통신 시스템들(426)은 통신 링크(304) 및/또는 임의의 다른 적합한 통신 링크들을 통해 정보를 전달하기 위한 임의의 적합한 하드웨어, 펌웨어 및/또는 소프트웨어를 포함할 수 있다. 예를 들어, 통신 시스템들(426)은 하나 이상의 송수신기, 하나 이상의 통신 칩 및/또는 칩셋 등을 포함할 수 있다. 더 특정한 예에서, 통신 시스템들(426)은 Wi-Fi 접속, 블루투스 접속, 셀룰러 접속 등을 설정하는데 이용될 수 있는 하드웨어, 펌웨어 및/또는 소프트웨어를 포함할 수 있다.
일부 실시예들에서, 메모리(428)는, 예를 들어 프로세서(422)에 의해 사용자 입력이 수신되는 때를 결정하는 것, 센서 데이터를 기록하는 것, 하나 이상의 HMD(100)와 센서 데이터를 통신하는 것 등에 의해 이용될 수 있는 명령어들, 값들 등을 저장하는데 이용될 수 있는 임의의 적합한 저장 디바이스 또는 디바이스들을 포함할 수 있다. 메모리(428)는 임의의 적합한 휘발성 메모리, 비휘발성 메모리, 저장소, 임의의 다른 적합한 타입의 저장 매체, 또는 이들의 임의의 적합한 조합을 포함할 수 있다. 예를 들어, 메모리(428)는 RAM, ROM, EEPROM, 하나 이상의 플래시 드라이브, 하나 이상의 하드 디스크, 하나 이상의 솔리드 스테이트 드라이브, 하나 이상의 광학 드라이브 등을 포함할 수 있다. 일부 실시예들에서, 메모리(428)는 사용자 입력 디바이스(302)의 동작을 제어하기 위한 컴퓨터 프로그램을 그 위에 인코딩하였을 수 있다. 이러한 실시예들에서, 프로세서(422)는 컴퓨터 프로그램의 적어도 일부를 실행하여 (예를 들어, 센서 출력들을 나타내는) 데이터를 하나 이상의 HMD(100)로 전송하는 것, (예를 들어, 센서 출력들을 나타내는) 데이터를 하나 이상의 서버(204)로 전송하는 것 등을 할 수 있다.
도 5는 개시된 주제의 일부 실시예들에 따라 콘텐츠 및/또는 서버(204)에의 프리젠테이션을 선택 및/또는 업로드하는 사용자 컴퓨팅 디바이스(220)와, 콘텐츠를 수신하고 프리젠테이션에 따라 콘텐츠를 제시하는 HMD(100) 사이의 정보 흐름의 예(500)를 도시한다.
도 5에 도시된 바와 같이, 502에서, 일부 실시예들에서, 사용자 컴퓨팅 디바이스(220)는 하나 이상의 프리젠테이션이 생성될 콘텐츠의 코퍼스를 선택할 수 있다. 일부 실시예들에서, 사용자 컴퓨팅 디바이스(220)의 사용자는 임의의 적합한 기술 또는 기술들의 조합을 이용하여 콘텐츠의 코퍼스를 선택할 수 있다. 예를 들어, 일부 실시예들에서, 사용자는 사용자 컴퓨팅 디바이스(220)에 의해 적어도 부분적으로 실행되는 임의의 적합한 애플리케이션 또는 애플리케이션들의 조합을 이용하여 콘텐츠를 생성할 수 있다. 다른 예로서, 사용자 컴퓨팅 디바이스(220)의 사용자는 콘텐츠의 생성자 및/또는 발행자와 연관된 웹 페이지로부터 콘텐츠를 선택할 수 있고, 콘텐츠를 사용자 컴퓨팅 디바이스(220) 및/또는 서버(204)에 다운로드할 수 있다. 또 다른 예로서, 사용자 컴퓨팅 디바이스(220)의 사용자는 이러한 콘텐츠에 대한 액세스를 제공하는 사용자 컴퓨팅 디바이스(220)에 의해 적어도 부분적으로 실행되는 애플리케이션을 이용하여 콘텐츠를 선택할 수 있다. 또 다른 예로서, 사용자 컴퓨팅 디바이스(220)의 사용자는 사용자 컴퓨팅 디바이스(220)에 결합된 저장 매체(예를 들어, USB 드라이브, 외부 하드 드라이브, 광학 저장 매체 등)로부터 콘텐츠를 선택할 수 있다.
일부 실시예들에서, 콘텐츠의 코퍼스는, 사용자가 제시할 특징들의 특정한 조합을 선택할 수 있는 인간 해부구조의 3D 해부학적 모델들의 컬렉션과 같이, 콘텐츠 발행자에 의해 생성된 콘텐츠의 미리 선택된 컬렉션을 포함할 수 있다. 추가적으로 또는 대안적으로, 일부 실시예들에서, 콘텐츠의 코퍼스는 다양한 소스들로부터 사용자 컴퓨팅 디바이스(220)의 사용자에 의해 수집된 3D 모델들을 포함할 수 있다.
504에서, 일부 실시예들에서, 사용자 컴퓨팅 디바이스(220)는 콘텐츠의 코퍼스 및/또는 콘텐츠가 액세스될 수 있는 곳을 나타내는 정보를 서버(204)에 업로드할 수 있다. 일부 실시예들에서, 사용자 컴퓨팅 디바이스(220)는 콘텐츠 및/또는 위치 정보를 서버(204)에 업로드하기 위해 임의의 적합한 기술 또는 기술들의 조합을 이용할 수 있다. 예를 들어, 사용자 컴퓨팅 디바이스(220)는 서버(204)와 연관된 애플리케이션 프로그램 인터페이스(API)를 통해 콘텐츠 및/또는 위치 정보를 업로드할 수 있다. 다른 예로서, 사용자 컴퓨팅 디바이스(220)는 서버(204)와 연관된 웹 페이지 및/또는 다른 애플리케이션을 통해 콘텐츠 및/또는 위치 정보를 업로드할 수 있다. 또 다른 예로서, 사용자 컴퓨팅 디바이스(220)는 파일 전송 프로토콜(ftp)과 같은 임의의 다른 적합한 기술 또는 기술들의 조합을 이용하여 콘텐츠 및/또는 위치 정보를 업로드할 수 있다. 추가적으로 또는 대안적으로, 일부 실시예들에서, 사용자 컴퓨팅 디바이스(220)는 (예를 들어, 사용자 컴퓨팅 디바이스(220)에 결합된 하드 드라이브를 이용하여) 로컬로 콘텐츠의 코퍼스를 저장할 수 있다.
506에서, 일부 실시예들에서, 서버(204)는 사용자 컴퓨팅 디바이스(220)에 의해 업로드된 콘텐츠를 수신할 수 있고/있거나 사용자 컴퓨팅 디바이스(220)에 의해 식별된 위치(들)로부터 콘텐츠를 다운로드할 수 있고, (예를 들어, 웹 페이지, API 등을 통해) 사용자 컴퓨팅 디바이스(220)의 사용자에게 액세스 가능하도록 서버(204)와 연관된 저장소에 콘텐츠를 저장할 수 있다.
508에서, 일부 실시예들에서, 서버(204)는 선택된 콘텐츠의 코퍼스를 프리젠테이션 동안 콘텐츠의 적어도 일부를 제시하는 하나 이상의 HMD에 제공할 수 있다. 일부 실시예들에서, 서버(204)는 임의의 적합한 기술 또는 기술들의 조합을 이용하여 콘텐츠의 코퍼스의 일부 또는 전체 코퍼스를 HMD들 상에 로딩할 수 있다. 예를 들어, 서버(204)는 코퍼스의 적어도 일부를 HMD로 다운로드되는 애플리케이션의 일부로서 제공할 수 있다. 다른 예로서, 서버(204)는 HMD로부터의 요청에 응답하여 코퍼스의 적어도 일부를 제공할 수 있다. 또 다른 예로서, 서버(204)는 요구에 따라 콘텐츠를 제공할 수 있고/있거나 필요할 때 콘텐츠를 HMD들에 스트리밍할 수 있다. 더 특정한 예에서, 프리젠테이션이 시작되기 전에, 서버(204)는 그 프리젠테이션에서 이용되는 콘텐츠를 HMD들에 제공할 수 있다.
510에서, 일부 실시예들에서, 사용자 컴퓨팅 디바이스(220)의 사용자는 (예를 들어, 서버(204)로부터) 로컬로 및/또는 원격적으로 콘텐츠의 코퍼스에 액세스하는 로컬로 실행된 프리젠테이션 애플리케이션을 이용하여, 선택된 콘텐츠로부터 프리젠테이션을 생성할 수 있다. 일부 실시예들에서, 프리젠테이션 애플리케이션은 콘텐츠의 코퍼스로부터 콘텐츠의 서브세트를 포함하는 장면들의 생성을 용이하게 할 수 있다. 예를 들어, 프리젠테이션 애플리케이션은 사용자가 인간 해부구조의 3D 모델에서 제시할 특정한 신체 부분(들) 및 층(들)(예를 들어, 피부, 근육, 뼈, 신경 등), 및 다양한 부분들 및/또는 층들을 제시할 순서를 선택하는 것을 허용할 수 있다. 추가로, 이러한 예에서, 프리젠테이션 애플리케이션은 사용자가 특정한 근육 또는 신경과 같이 프리젠테이션의 일부에서 3D 모델의 특정한 부분을 강조하는 것을 허용할 수 있다.
일부 실시예들에서, 510에서, 사용자 컴퓨팅 디바이스(220)의 사용자는 다양한 스테이션들(예를 들어, 스테이션들(202)) 각각, 다양한 사용자들 또는 사용자들의 그룹들(예를 들어, HMD들(100)의 학생 사용자들) 각각, 다양한 프리젠테이션 공간들 각각 등에 대해 특정한 콘텐츠를 선택할 수 있다.
512에서, 일부 실시예들에서, 사용자 컴퓨팅 디바이스(220)는 어느 콘텐츠가 프리젠테이션에서 이용되는지를 표시하는 프리젠테이션 정보, 콘텐츠가 제시될 순서, 제시될 보충 콘텐츠(예를 들어, 텍스트, 오디오 등) 등을 서버(204)에 업로드할 수 있다. 일부 실시예들에서, 프리젠테이션 정보는 임의의 적합한 포맷으로 포매팅될 수 있다. 예를 들어, 프리젠테이션 정보는 사용자 컴퓨팅 디바이스(220)로부터 확장가능 마크업 언어(XML) 문서로서 업로드될 수 있다. 다른 예로서, 프리젠테이션은 콘텐츠 자체를 포함하는 미디어 파일로서 업로드될 수 있다(이 경우, 콘텐츠의 코퍼스는 서버(204)에 업로드될 필요가 없을 수 있다). 일부 실시예들에서, 서버(204)는 생략될 수 있고/있거나 도 5에 도시된 것보다 더 적은 기능들을 수행할 수 있다는 점에 유의한다. 예를 들어, 일부 실시예들에서, 콘텐츠는 먼저 서버(204)에 업로드되지 않고 사용자 컴퓨팅 디바이스(220) (또는 임의의 다른 소스)로부터 HMD(100)로 로딩될 수 있다. 다른 예로서, 일부 실시예들에서, 프리젠테이션 정보는 (인터넷 상의 노드들, 하나 이상의 이메일 서버, 하나 이상의 저장 서버 등과 같은 하나 이상의 다른 서버가 프리젠테이션 정보의 전송에 관여될 수 있더라도) 서버(204)를 통해 전송되지 않고 사용자 컴퓨팅 디바이스(220)로부터 HMD들(100)로 전송될 수 있다.
추가로 또는 대안으로서, 사용자 컴퓨팅 디바이스(220)에 의해 실행되고 있는 애플리케이션을 이용하여 프리젠테이션을 생성하기 위해, 사용자 컴퓨팅 디바이스(220)는 서버(204)와 상호작용하여 서버(204)에 의해 적어도 부분적으로 실행되는 애플리케이션을 이용하여 프리젠테이션을 생성할 수 있다. 예를 들어, 사용자 컴퓨팅 디바이스(220)는 서버(204)에 의해 실행되고 있는 애플리케이션에 대한 그래픽 사용자 인터페이스를 제공하는데 이용될 수 있고, 사용자 컴퓨팅 디바이스(220)에 의해 수신된 입력들은 애플리케이션의 동작을 제어하는데 이용될 수 있다. 일부 실시예들에서, 프리젠테이션이 서버(204)에 의해 적어도 부분적으로 실행되는 애플리케이션을 이용하여 생성되는 경우, 서버(204)는 (예를 들어, XML 문서로서) 프리젠테이션 정보를 생성하고 사용자 컴퓨팅 디바이스(220)로부터 이러한 정보를 수신하지 않을 수 있다.
516에서, 일부 실시예들에서, 서버(204)는 프리젠테이션을 경험하는데 이용될 적어도 특정한 프리젠테이션에 대한 프리젠테이션 정보를 HMD(100)에 제공할 수 있다. 일부 실시예들에서, 서버(204)는 임의의 적합한 시간에 프리젠테이션 정보를 제공할 수 있다. 예를 들어, 서버(204)는 (예를 들어, 사용자 컴퓨팅 디바이스(220)의 사용자에 의해 식별되는 바와 같이) 프리젠테이션이 제공될 특정한 수업 또는 그룹에 포함된 사용자와 연관된 임의의 HMD에게 생성된 후의 프리젠테이션 정보에 대한 액세스를 제공할 수 있다. 다른 예로서, 서버(204)는 특정한 위치에 존재하는 HMD들과, (예를 들어, 사용자 컴퓨팅 디바이스(220)의 사용자에 의해 식별되는 바와 같이) 프리젠테이션이 제공될 특정한 수업 또는 그룹에 포함된 사용자들과 연관된 HMD들에게 (예를 들어, 사용자 컴퓨팅 디바이스(220)의 사용자, HMD(100-1) 등에 의해 표시되는 바와 같이) 프리젠테이션의 시작에서 프리젠테이션 정보에 대한 액세스를 제공할 수 있다. 일부 실시예들에서, 콘텐츠와 관련하여 프리젠테이션 정보가 수신될 수 있다. 예를 들어, 프리젠테이션 정보는 콘텐츠의 일부로서 HMD(100)에 전송되는 파일일 수 있다.
518에서, 일부 실시예들에서, 프리젠테이션 정보를 수신한 HMD들은 프리젠테이션 정보에 따라 (예를 들어, 508에서 HMD 상에 로딩된 콘텐츠로부터) 콘텐츠를 제시할 수 있다. 예를 들어, 도 2와 관련하여 전술한 바와 같이, HMD(예를 들어, HMD(100-2))는 HMD가 제3 스테이션과 관련하여 특정한 3D 모델을 제시하는 것을 표시하는 프리젠테이션 정보에서 수신된 명령어들에 기반하여 제3 스테이션과 관련하여 특정한 3D 모델을 제시할 수 있다.
추가적으로 또는 대안적으로, 일부 실시예들에서, 서버(204)는 520에서 프리젠테이션 정보에 기반하고 HMD들로부터 수신된 정보에 기반하여 하나 이상의 HMD에 콘텐츠를 스트리밍할 수 있다. 예를 들어, 도 2와 관련하여 전술한 바와 같이, HMD는 어느 스테이션(들)이 HMD에 가장 가까운지 및/또는 HMD의 착용자의 시야 내에 있는지에 관한 정보를 제공할 수 있고, 서버(204)는 적합한 콘텐츠를 HMD에 스트리밍할 수 있다. 다른 예로서, HMD는 어느 스테이션(들)이 HMD에 가장 가까운지 및/또는 어느 스테이션(들)이 HMD의 착용자의 시야 내에 있는지를 결정하기 위해 서버(204)가 이용할 수 있는 정보를 제공할 수 있고, 서버(204)는 적합한 콘텐츠를 HMD에 스트리밍할 수 있다. 또 다른 예로서, 서버(204)는 HMD(100-2)의 착용자가 3D 모델의 특정한 부분을 가리키고 있다는 것을 나타내는 정보를 제1 HMD(예를 들어, HMD(100-2)) 및/또는 사용자 입력 디바이스(예를 들어, 사용자 입력 디바이스(302))로부터 수신할 수 있고, 서버(204)는 제2 HMD에 의해 콘텐츠에 통합될 보충 콘텐츠로서 동일한 콘텐츠를 보고 있는 다른 HMD(예를 들어, HMD(100-1))에 정보를 스트리밍할 수 있다.
522에서, 일부 실시예들에서, HMD(100)는 서버(204)로부터 수신된 스트리밍된 콘텐츠를 제시할 수 있다. 일부 실시예들에서, 522에서 제시된 스트리밍된 콘텐츠는 전체 3D 모델, 3D 모델에 대한 변경, 보충 콘텐츠 등과 같은 임의의 적합한 스트리밍된 콘텐츠일 수 있다.
도 6은 개시된 주제의 일부 실시예들에 따라 하나 이상의 헤드 장착 디스플레이에 콘텐츠를 분배하기 위한 프로세스의 예(600)를 도시한다. 도 6에 도시된 바와 같이, 602에서, 프로세스(600)는 HMD들에 의해 하나 이상의 증강 현실 프리젠테이션을 생성하는데 이용될 콘텐츠를 수신할 수 있다. 일부 실시예들에서, 콘텐츠는 임의의 적합한 포맷으로 및/또는 임의의 적합한 소스로부터 수신될 수 있다. 예를 들어, 사용자 컴퓨팅 디바이스(예를 들어, 사용자 컴퓨팅 디바이스(220))의 사용자는 콘텐츠를 (예를 들어, 서버(204)에) 업로드할 수 있다. 다른 예로서, 사용자는 콘텐츠를 검색하는데 이용될 수 있는 주소 및/또는 자격증명의 식별 정보를 제출할 수 있다. 일부 실시예들에서, 콘텐츠는 (예를 들어, 홀로그램들로서) HMD에 의해 제시될 수 있는 하나 이상의 3D 모델을 생성하는데 이용될 수 있는 임의의 적합한 시각 정보를 포함할 수 있다. 예를 들어, 일부 실시예들에서, 콘텐츠는 인간의 해부구조로부터의 다양한 계통들을 보여주는 홀로그램들을 생성하는데 HMD들에 의해 이용될 수 있는 인간의 해부구조의 다양한 3D 모델들을 포함할 수 있다.
604에서, 프로세스(600)는 콘텐츠의 적어도 일부를 증강 현실 프리젠테이션으로서 제시하는데 이용될 수 있는 하나 이상의 명령어를 수신할 수 있다. 예를 들어, 명령어들은 제시될 콘텐츠의 상이한 부분들, 콘텐츠의 상이한 부분들을 제시하는 순서, 특정한 콘텐츠를 제시하는 위치들(예를 들어, 방에서, 스테이션들과 관련하여, 기타 등등) 등을 식별할 수 있다. 일부 실시예들에서, 명령어들은 임의의 적합한 포맷으로 및/또는 임의의 적합한 기술 또는 기술들의 조합을 이용하여 수신될 수 있다. 예를 들어, 일부 실시예들에서, 명령어들은 이러한 명령어들을 지정하는 사용자 입력을 수신한 사용자 디바이스 상에 생성된 XML 파일로서 수신될 수 있다. 다른 예로서, 명령어들은 사용자 디바이스에 의해 제시될 수 있는 웹 페이지 또는 다른 적합한 사용자 인터페이스를 통해 사용자 디바이스로부터 수신될 수 있고, 증강 현실 프리젠테이션을 지정하기 위한 사용자 입력을 수신할 수 있다. 이러한 예에서, 사용자 입력들은 (예를 들어, XML 문서로서) 명령어들을 생성할 수 있는, 웹 페이지와 연관된 서버로 전달될 수 있다.
606에서, 프로세스(600)는 헤드 장착 디스플레이로부터 콘텐츠에 대한 요청을 수신할 수 있다. 예를 들어, 전술한 바와 같이, 특정한 사용자와 연관된 HMD(예를 들어, 이러한 연관은 사용자가 HMD에 의해 실행되고 있는 애플리케이션에 서명하는 것에 의해 생성될 수 있음)는 사용자와 연관된 정보(예를 들어, 콘텐츠가 할당되는 수업과 사용자가 연관되어 있음을 나타내는 정보)에 기반하여 및/또는 임의의 다른 적합한 기술 또는 기술들의 조합을 이용하여, 사용자로부터의 입력에 응답하여 콘텐츠를 요청할 수 있다. 일부 실시예들에서, 이러한 요청은 임의의 적합한 기술 또는 기술들의 조합을 이용하여 수신될 수 있다. 예를 들어, HMD는 콘텐츠와 연관된 특정한 주소(예를 들어, IP 주소, URL 등)로 내비게이팅할 수 있다. 다른 예로서, HMD는 애플리케이션들의 저장소에 액세스할 수 있고, 콘텐츠를 포함하는(및/또는 다운로드할 수 있는) 애플리케이션을 다운로드하라는 요청을 제출할 수 있다.
608에서, 프로세스(600)는 HMD가 콘텐츠를 수신할 권한이 있는지를 결정할 수 있다. 예를 들어, 프로세스(600)는 HMD가 콘텐츠를 수신할 권한이 있는 사용자 계정에 로그인되었는지 여부를 결정할 수 있다. 다른 예로서, 프로세스(600)는 HMD에 의해 실행되고 있는 애플리케이션이 콘텐츠를 수신할 권한이 있는 사용자 계정에 로그인되었는지 여부를 결정할 수 있다. 프로세스(600)가, 608에서, HMD가 콘텐츠를 수신할 권한이 없는 것으로 결정하는 경우(608에서 "아니오"), 프로세스(600)는 620으로 이동할 수 있고, (예를 들어, 로그인 스크린이 제시되게 하는 것, 도 8과 관련하여 후술되는 바와 같이 적합한 시각 코드의 이미지를 캡처하도록 사용자에게 프롬프팅하는 것 등에 의해) 콘텐츠에 액세스하기 위해 로그인하도록 사용자에게 프롬프팅할 수 있으며, 사용자가 HMD를 적합한 계정에 성공적으로 로그인할 때 608로 복귀할 수 있다.
그렇지 않고, 프로세스(600)가, 608에서, HMD가 콘텐츠를 수신할 권한이 있는 것으로 결정하는 경우(608에서 "예"), 프로세스(600)는 610으로 이동할 수 있다. 610에서, 프로세스(600)는 콘텐츠를 요청하는 HMD에게 콘텐츠를 전송할 수 있다. 일부 실시예들에서, 콘텐츠는 임의의 적합한 프로토콜(들)을 이용하고, 임의의 적합한 포맷으로 및/또는 임의의 적합한 압축을 적용하여 전송될 수 있다.
612에서, 프로세스(600)는 콘텐츠로부터 증강 현실 프리젠테이션들을 생성하기 위한 명령어들에 액세스하는 것(및/또는 아니면 콘텐츠 및/또는 콘텐츠와 연관된 서비스들에 액세스하는 것)에 이용될 수 있는 토큰을 허가된 HMD에게 전송할 수 있다. 일부 실시예들에서, 토큰은 임의의 적합한 형태를 취할 수 있다. 추가적으로, 일부 실시예들에서, 토큰은 미리 결정된 시간 후에 만료하도록 구성될 수 있다.
614에서, 프로세스(600)는 헤드 장착 디스플레이가 이전에 획득한 콘텐츠에 기반하여 증강 현실 프리젠테이션에 대한 요청을 수신할 수 있다. 일부 실시예들에서, 이러한 요청은 임의의 적합한 입력에 응답하여 HMD에 의해 전송될 수 있다. 예를 들어, 사용자는 HMD가 증강 현실 프리젠테이션을 요청하는 것을 표시하는 사용자 입력을 제공할 수 있다. 다른 예로서, HMD는 특정한 위치 및/또는 특정한 시간에 이용될 때 (예를 들어, 사용자 개입없이, 요청을 허가하는데만 필요한 사용자 입력으로, 기타 등등으로) 증강 현실 프리젠테이션을 자동으로 요청하도록 구성될 수 있다. 또 다른 예로서, HMD는 (예를 들어, 블루투스 비컨으로부터) 특정한 신호를 수신하는 것에 응답하여 및/또는 특정한 시각 큐(예를 들어, QR 코드)의 하나 이상의 이미지를 캡처하는 것에 응답하여 (예를 들어, 사용자 개입없이, 요청을 허가하는데만 필요한 사용자 입력으로, 기타 등등으로) 증강 현실 프리젠테이션을 자동으로 요청하도록 구성될 수 있다. 일부 실시예들에서, 요청은 612에서 HMD로 전송된 토큰으로 전송될 수 있다. 일부 실시예들에서, 614에서 수신된 요청은 특정한 증강 현실 프리젠테이션을 위한 명령어들에 대한 요청일 수 있다. 대안적으로, 일부 실시예들에서, 614에서 수신된 요청은 증강 현실 프리젠테이션을 위한 명령어들에 대한 일반적인 요청일 수 있고, 회신되는 명령어들은 관리자에 의해 선택되는 명령어들일 수 있다.
616에서, 프로세스(600)는 증강 현실 프리젠테이션을 위한 명령어들을 요청하는 HMD가 증강 현실 프리젠테이션을 수신할 권한이 있는지 여부를 결정할 수 있다. 예를 들어, 프로세스(600)는 HMD가 유효 토큰을 제출했는지 여부 및/또는 HMD가 허가된 사용자 계정에 로그인되어 있는지 여부를 결정할 수 있다. 프로세스(600)가 HMD가 증강 현실 프리젠테이션을 수신할 권한이 있는 것으로 결정하는 경우(616에서 "예"), 프로세스(600)는 618로 이동할 수 있고, 콘텐츠의 적어도 일부를 이용하여 증강 현실 프리젠테이션을 제시하기 위한 명령어들을 HMD에 제공할 수 있다. 그렇지 않고, 프로세스(600)가 HMD가 증강 현실 프리젠테이션을 수신할 권한이 없는 것으로 결정하는 경우(616에서 "아니오"), 프로세스(600)는 620으로 이동할 수 있고, 로그인하도록 HMD의 사용자에게 프롬프팅하는 것, 사용자가 프리젠테이션을 수신할 권한이 없다는 것을 표시하는 것, 에러 메시지를 제시하는 것 등을 할 수 있다. 일부 실시예들에서, 프로세스(600)의 하나 이상의 부분은 서버(204)(또는 복수의 서버들(204))에 의해 실행될 수 있다.
도 7은 개시된 주제의 일부 실시예들에 따라 헤드 장착 디스플레이를 이용하여 증강 현실 프리젠테이션을 생성하기 위한 프로세스의 예(700)를 도시한다. 도 7에 도시된 바와 같이, 702에서, 프로세스(700)는 사용자 식별 정보를 지정하는 입력을 수신할 수 있다. 예를 들어, 사용자는 HMD(100)에 의해 제시된 가상 키보드를 이용하여 사용자명 및/또는 패스워드를 타이핑할 수 있다. 다른 예로서, 사용자는 사용자를 식별하는데 이용될 수 있는 정보를 말할 수 있고, 프로세스(700)는 사용자의 신원을 검증하기 위해 임의의 적합한 음성 인식 기술 또는 기술들의 조합을 이용할 수 있다. 또 다른 예로서, 일부 실시예들에서, 사용자는 다른 디바이스(예를 들어, 스마트폰, 태블릿, 키보드)를 HMD(예를 들어, 블루투스를 이용함)와 페어링하고, 페어링된 디바이스의 입력을 이용하여 사용자 식별 정보를 입력할 수 있다. 또 다른 예로서, 도 8과 관련하여 후술하는 바와 같이, HMD는 사용자를 식별하는데 이용될 수 있는 이미지를 캡처할 수 있다.
704에서, 프로세스(700)는 증강 현실 프리젠테이션을 생성하는데 이용될 콘텐츠를 요청할 수 있다. 일부 실시예들에서, 이러한 요청은 임의의 적합한 기술 또는 기술들의 조합을 이용하여 생성될 수 있다. 예를 들어, 프로세스(700)를 실행하는 HMD는 사용자 입력에 기반하여 특정한 주소(예를 들어, IP 주소, URL 등)로 내비게이팅할 수 있고, (예를 들어, 웹 페이지 상의 링크를 선택하는 것, 그 주소에서의 정보에 대한 요청에 자동으로 응답하는 것 등에 의해) 그 주소에서의 콘텐츠를 요청할 수 있다. 다른 예로서, HMD는 HMD에 의해 실행 중인 애플리케이션을 이용하여 콘텐츠를 요청할 수 있고, 이는 다른 정보(예를 들어, 702에서 지정된 사용자가 콘텐츠를 이용하는 수업에 대해 서명된 것임을 표시하는 정보)에 기반하여 콘텐츠를 자동으로 다운로드할 수 있다.
706에서, 프로세스(700)는 증강 현실 프리젠테이션을 생성하는데 이용될 콘텐츠를 수신 및 저장할 수 있다. 일부 실시예들에서, 콘텐츠는 메모리(410)와 같은 임의의 적합한 위치에 저장될 수 있다.
708에서, 프로세스(700)는 콘텐츠로부터 특정한 증강 현실 프리젠테이션을 생성하기 위한 명령어들과 같이, 추가 정보를 요청할 때 프로세스(700)를 실행하고 있는 HMD를 인증하는데 이용될 토큰을 수신할 수 있다. 일부 실시예들에서, 토큰은 임의의 적합한 포맷으로 수신될 수 있고, HMD가 증강 현실 프리젠테이션에 액세스할 권한이 있다는 것을 결정하기 위해, 예를 들어 서버(204)에 의해 이용될 수 있는 임의의 적합한 정보를 포함할 수 있다.
710에서, 프로세스(700)는 콘텐츠로부터 증강 현실 프리젠테이션을 생성하는데 이용될 수 있는 정보에 대한 요청(및/또는 토큰)을 전송할 수 있다. 도 6의 614와 관련하여 전술한 바와 같이, 프로세스(700)는 임의의 적합한 입력에 응답하여 증강 현실 프리젠테이션에 대한 요청을 전송할 수 있다. 예를 들어, HMD는 증강 현실 프리젠테이션에 대한 요청으로서 기능할 수 있는 특정한 주소(예를 들어, URL)로 내비게이팅될 수 있다. 다른 예로서, HMD는 특정한 조건들이 충족될 때(예를 들어, HMD가 특정한 시간에 특정한 지오펜스 내에 있을 때, HMD가 다른 디바이스로부터 특정한 신호를 수신하고 있을 때 등) 증강 현실 프리젠테이션을 자동으로(예를 들어, 사용자 개입없이, 요청을 허가하는데만 필요한 사용자 입력으로, 기타 등등으로) 요청할 수 있다.
712에서, 프로세스(700)는 증강 현실 프리젠테이션을 생성하는데 이용될 수 있는 정보(예를 들어, 명령어들)를 수신할 수 있다. 일부 실시예들에서, 정보는 임의의 적합한 포맷으로 수신될 수 있다. 예를 들어, 정보는 어떤 콘텐츠가 제시될지, 어떤 순서로 콘텐츠가 제시될지, 어떤 위치(들)에서 특정한 콘텐츠가 제시될지 등을 표시하는 XML 문서일 수 있다.
714에서, 프로세스(700)는 수신된 명령어들에 기반하여 콘텐츠로부터 증강 현실 프리젠테이션을 생성할 수 있다. 예를 들어, 프로세스(700)는 어느 스테이션이 프로세스(700)를 실행하는 HMD에 가장 근접한지를 결정할 수 있고, 712에서 수신된 정보에 기반하여 그 스테이션에 대응하는 홀로그램을 제시할 수 있다. 일부 실시예들에서, 프로세스(700)는 HMD가 증강 현실 프리젠테이션의 어느 부분이 현재 사용자에게 제시되고 있는지를 표시하는 정보를 서버(예를 들어, 서버(204))로 전송하게 할 수 있다. 일부 실시예들에서, 이러한 정보는 제시되고 있는 특정한 콘텐츠에 관한 업데이트된 정보를 전달하기 위해 서버에 의해 이용될 수 있다. 대안적으로, 서버는 업데이트된 정보가 증강 현실 프리젠테이션의 어느 부분에 대응하는지에 관한 식별 정보를 갖는 업데이트된 정보를 전송할 수 있고, HMD는 식별 정보를 해석하여 업데이트된 정보가 현재 제시되고 있는 콘텐츠에 관련되는지 여부를 결정할 수 있다.
716에서, 프로세스(700)는 임의의 업데이트된 정보가 수신되었는지 여부를 결정할 수 있다. 일부 실시예들에서, 업데이트된 정보는 증강 현실 프리젠테이션의 일부로서 제시되는 콘텐츠의 프리젠테이션을 변경하기 위한 명령어들을 갖는 서버(예를 들어, 서버(204))로부터의 임의의 적합한 정보를 포함할 수 있다. 프로세스(700)가 업데이트된 정보가 수신되지 않았다고 결정하는 경우(716에서 "아니오"), 프로세스(700)는 716(및/또는 714)으로 복귀하여 업데이트된 정보가 수신되었는지 여부를 계속 결정(및/또는 증강 현실 프리젠테이션의 다른 부분이 생성 및/또는 제시될지 여부를 결정)할 수 있다. 그렇지 않고, 프로세스(700)가 업데이트된 정보가 수신되었다고 결정하는 경우(716에서 "예"), 프로세스(700)는 718로 이동할 수 있다.
718에서, 프로세스(700)는 업데이트된 정보에 기반하여 업데이트된 증강 현실 프리젠테이션을 생성할 수 있다. 일부 실시예들에서, 업데이트된 정보는 증강 현실 프리젠테이션에 영향을 줄 수 있는 임의의 적합한 정보를 포함할 수 있다. 예를 들어, 업데이트된 정보는 (예를 들어, 도 3b와 관련하여 전술한 바와 같이) 포인터 디바이스의 방향에 대응하는 사용자 인터페이스 요소의 위치의 표시일 수 있다. 이러한 예에서, 프로세스(700)는 (사용자 인터페이스 요소가 홀로그램이 보여지고 있는 각도로부터 보여질 수 있는 경우) 사용자 인터페이스 요소를 현재 제시되고 있는 홀로그램에 삽입할 수 있다. 다른 예로서, 업데이트된 정보는 프리젠테이션을 통해 앞으로 또는 프리젠테이션을 통해 뒤로 이동하기 위한 명령어와 같이, HMD에 의해 생성되는 증강 현실 프리젠테이션의 부분을 변경하기 위한 명령어일 수 있다. 또 다른 예로서, 업데이트된 정보는 (예를 들어, 프로세스(700)를 실행하는 HMD로부터 원격 위치한) 다른 HMD의 사용자의 3D 모델(예를 들어, 아바타) 및 제시되는 홀로그램과 관련하여 아바타가 제시되는 곳을 표시하는 위치 정보일 수 있다.
도 8은 개시된 주제의 일부 실시예들에 따라 서버(204)와 페어링 동작을 수행하는 사용자 디바이스(220) 및 HMD(100-1)의 예(800)를 도시한다. 도 8에 도시된 바와 같이, 사용자 디바이스(802)(예를 들어, 사용자 컴퓨팅 디바이스(220)로서 이용될 수 있거나 이용되지 않을 수 있는 스마트폰, 태블릿 컴퓨터, 개인용 컴퓨터, 랩톱 컴퓨터 등)는 시각 코드(보다 상세하게는, QR 코드)를 제시하고 있다. 일부 실시예들에서, 사용자 디바이스(802)는 본 명세서에서 설명된 콘텐츠 및/또는 증강 현실 프리젠테이션들과 연관된 애플리케이션 또는 서비스에 로그인하는데 이용될 수 있다. 일부 이러한 실시예들에서, 사용자 디바이스(802)는 링크를 선택하는 것(또는 임의의 다른 적합한 사용자 동작)에 응답하여 (예를 들어, LAN 접속, 셀룰러 접속 등을 포함할 수 있는) 통신 링크(804)를 통해 (예를 들어, 서버(204)로부터의) QR 코드를 검색하는데 이용될 수 있다. 일부 실시예들에서, 사용자 디바이스(802)는 QR 코드로의 링크를 갖는 이메일을 검색하는데 이용될 수 있고, QR 코드로의 링크(및/또는 QR 코드 자체)를 갖는 푸시 통지를 수신할 수 있고, QR 코드로의 링크(및/또는 QR 코드 자체)를 갖는 텍스트 메시지를 수신할 수 있고, QR 코드가 서버(204)로부터 검색될 수 있는 애플리케이션에 액세스할 수 있고, 기타 등등을 할 수 있다. HMD(100-1)는 (예를 들어, 광학 센서(114)를 이용하여) QR 코드의 이미지를 캡처할 수 있고, 이는 HMD(100-1)가 통신 링크(806)를 통해 HMD(100-1)가 사용자(802)와 페어링될 것이라는 것을 표시할 수 있는 요청을 (예를 들어, 서버(204)에) 제출하게 할 수 있다. 일부 실시예들에서, 서버(204)는 임의의 적합한 지속시간(예를 들어, 수업의 지속시간, 1일, 1주, 1달, 1학기, 무기한 등) 동안 사용자 디바이스(802)를 HMD(100-1)와 연관시킬 수 있고, 사용자 디바이스(802)를 통해 보충 콘텐츠를 제공할 수 있다. 예를 들어, 서버(204)는 HMD(100-1)에 의해 현재 제시되고 있는 증강 현실 프리젠테이션의 일부를 보충하는 콘텐츠를 사용자 디바이스(802)에게 푸시(또는 아니면 이용가능하게)할 수 있다. 더 특정한 예에서, 사용자 디바이스(802)는 증강 현실 프리젠테이션과 관련된 보충 텍스트를 제시할 수 있다. 다른 더 특정한 예에서, 사용자 디바이스(802)는 증강 현실 프리젠테이션에 관련된 시험 질문들을 제공할 수 있다. 다른 예로서, 사용자는 사용자 디바이스(802)를 이용하여, 현재 제시되고 있는 증강 현실 프리젠테이션의 일부와 자동으로 연관될 수 있는 노트들을 (예를 들어, 가상 키보드, 음성 인식 등을 이용하여) 할 수 있다. 또 다른 예로서, 사용자 디바이스(802)는 메모리 보조 등으로서 노트들을 보충하는데 사용자에 의해 이용될 수 있는 정보를 HMD(100-1)(예를 들어, 프리젠테이션 동안 캡처된 이미지들, 텍스트, 비디오, 오디오 등)로부터 수신할 수 있다.
도 9는 개시된 주제의 일부 실시예들에 따라, 도 8과 관련하여 전술한 바와 같은 로그인 및/또는 페어링 동작 동안의 사용자 디바이스(802), 서버(204), 및 HMD(100) 사이의 정보 흐름의 예(900)를 도시한다. 도 9에 도시된 바와 같이, 사용자 디바이스(802)는 HMD(100)에 로그인하기 위해 사용자 입력을 수신할 수 있다. 예를 들어, 902에서, 사용자 디바이스(802)는 웹 페이지로 내비게이팅하고/하거나 HMD(100-1)를 이용하는 것과 연관된 애플리케이션을 실행하여 증강 현실 프리젠테이션을 생성할 수 있다. 이러한 예에서, 사용자 디바이스(802)는 로그인 자격증명(예를 들어, 사용자명, 패스워드, 생체인식 정보 등)을 제공하는데 이용될 수 있다.
904에서, 사용자 디바이스(802)는 서버(204)로부터 HMD(100-1)에 의해 스캐닝될 시각 코드를 요청할 수 있다. 예를 들어, 도 8과 관련하여 전술한 바와 같이, 사용자 디바이스(802)는 서버(204)에서 HMD(100-1)를 사용자 디바이스(802)와 페어링하고/하거나 HMD(100-1)를 서버(204)에 인증하기 위해 HMD(100-1)에 의해 스캐닝될 수 있는 QR 코드를 요청할 수 있다.
906에서, 서버(204)는 사용자 디바이스(802)가 권한이 있는 것으로 결정되는 경우에 요청된 시각 코드를 제공할 수 있다. 일부 실시예들에서, 서버(204)는 임의의 적합한 포맷으로 및/또는 임의의 적합한 타입의 데이터로서 시각 코드를 제공할 수 있다. 예를 들어, QR 코드가 도 8과 관련하여 전술되었지만, 이것은 단지 예일 뿐이고, 바코드, 스테가노그래픽 인코딩된 정보를 갖는 이미지 등과 같은 임의의 적합한 기계 판독가능한 시각 코드가 이용될 수 있다. 추가적으로, 일부 실시예들에서, 시각 코드에 추가하여 또는 그 대신에, 서버(204)는 사용자 디바이스(802)로 하여금 HMD(100-1)에 의해 이용될 수 있는 인코딩된 사운드를 방출하게 하여 사용자 디바이스(802)와 페어링(및/또는 로그인)하게 할 수 있다.
908에서, 사용자 디바이스(802)는 시각 코드를 제시할 수 있고, (예를 들어, 도 8에 도시된 바와 같이) 시각 코드에 HMD(100-1)의 이미지 센서(예를 들어, 광학 센서(114))를 조준하도록 사용자에게 프롬프팅할 수 있다. 910에서, HMD(100-1)는 사용자 디바이스(802)에 의해 제시된 시각 코드의 이미지를 캡처할 수 있고, 912에서 시각 코드에 포함된 정보를 디코딩할 수 있다.
914에서, HMD(100-1)는 시각 코드의 이미지로부터 디코딩된 정보를 기반으로 서버(204)에 정보를 전송할 수 있다. 예를 들어, HMD(100-1)는 특정한 웹 페이지로 내비게이팅하고/하거나 시각 코드의 이미지를 캡처하는 것에 응답하여 특정한 주소로 요청을 전송할 수 있다.
916에서, 서버(204)는 914에서 HMD(100-1)에 의해 전송된 정보를 수신하는 것에 응답하여 사용자 디바이스(802)와 HMD(100-1)를 페어링할 수 있고/있거나 HMD(100-1)에 로그인할 수 있다. 일부 실시예들에서, 2개의 디바이스들이 페어링되는 표시는, 예를 들어 데이터베이스(204)에 유지되는 디바이스들의 데이터베이스 내의 엔트리를 통해, 임의의 적합한 기술 또는 기술들의 조합을 이용하여 표시될 수 있다.
918에서, HMD(100-1)는 HMD(100-1)의 착용자가 예를 들어 상이한 스테이션들 주위로 이동함에 따라 증강 현실 프리젠테이션으로부터 콘텐츠를 제시할 수 있다. 920에서, HMD(100-1)는 증강 현실 프리젠테이션으로부터의 어느 콘텐츠가 HMD(100-1)에 의해 현재 제시되고 있는지를 표시하는 정보를 전송할 수 있다. 추가적으로 또는 대안적으로, 서버(204)는 (예를 들어, 프리젠테이션을 통해 진행하기 위한 업데이트된 명령어들에 기반하는 것, HMD(100-1)의 위치에 기반하는 것 등에 의해) 어느 콘텐츠가 제시되고 있는지를 추적할 수 있다.
922에서, 서버(204)는 HMD(100-1)에 의해 현재 제시되고 있는 콘텐츠에 기반하여 보충 콘텐츠 및/또는 명령어들을 사용자 디바이스(802)에 푸시할 수 있다. 추가적으로 또는 대안적으로, 사용자 디바이스(802)는, 만약 있다면, 서버(204)로부터 업데이트된 정보를 주기적으로 요청할 수 있다. 924에서, 사용자 디바이스(802)는 922에서 서버(204)에 의해 전송된 보충 콘텐츠를 제시할 수 있다.
도 10은, 개시된 주제의 일부 실시예들에 따라, (예를 들어, 아바타로서) HMD(100-1)의 사용자와 3D 모델을 연관시키고 3D 모델을 HMD(100-2)에 의해 제시하기 위한 제1 HMD(100-1), 서버(204) 및 제2 HMD(100-2) 사이의 정보 흐름의 예(1000)를 도시한다. 도 10에 도시된 바와 같이, HMD(100-1)는 특정한 3D 모델이 100-1의 사용자와 연관될 것임을 나타내는 입력을 수신할 수 있다. 일부 실시예들에서, HMD(100-1)는 사용자가 자신과 연관시키기 위해 특정한 3D 모델을 선택할 수 있는 임의의 수의 3D 모델을 제시할 수 있다. 예를 들어, 3D 모델들은 사용자의 얼굴 및/또는 헤드 위에 다른 HMD들에 의해 제시될 마스크들일 수 있다. 다른 예로서, 3D 모델들은 다른 HMD에 의해 사용자에 대한 프록시로서 이용될 수 있는 3D 아바타들일 수 있다. 일부 실시예들에서, 사용자는 3D 모델을 맞춤화 및/또는 설계하기 위한 사용자 인터페이스를 제공받을 수 있다. 추가적으로 또는 대안적으로, 일부 실시예들에서, 페어링된 사용자 디바이스(예를 들어, 도 8 및 도 9와 관련하여 전술한 바와 같은 사용자 디바이스(802))는 사용자에 의한 리뷰를 위해 HMD(100-1)에 의해 제시될 수 있는 3D 모델의 선택, 맞춤화, 설계 등에 이용될 수 있다.
1004에서, HMD(100-1)(및/또는 페어링된 사용자 디바이스)는 선택된 3D 모델을 사용자와 연관시키기 위한 요청을 서버(204)에 제출할 수 있다. 일부 실시예들에서, 이러한 요청은 3D 모델, 3D 모델의 식별 정보, 3D 모델의 주소 등을 포함할 수 있다. 1006에서, 서버(204)는 HMD(100-1)의 사용자를 선택된 3D 모델과 연관시킬 수 있고, 이에 따라 3D 모델이 사용자와 관련하여 이용된다.
1008에서, HMD(100-2)는 HMD(100-1)와 연관된 3D 모델을 요청할 수 있다. 대안적으로, 서버(204)는 3D 모델을 HMD(100-2)로 푸시할 수 있다. 일부 실시예들에서, 3D 모델은 HMD(100-1)의 사용자에 의해 제공되는 시각 코드를 HMD(100-2)의 사용자에게 스캐닝함으로써 요청될 수 있다. 예를 들어, HMD(100-1)의 사용자는 (예를 들어, 페어링된 사용자 디바이스를 이용하여) HMD(100-2)에 의한 스캐닝을 위해 시각 코드를 제시할 수 있다. 다른 예로서, HMD(100-1)의 사용자는 (예를 들어, 텍스트 메시지와 같이, 각각의 HMD와 연관된 페어링된 사용자 디바이스들 간에 전송된 메시지를 통해) 시각 코드를 HMD(100-2)의 사용자와 공유할 수 있다. 1010에서, 서버(204)는 HMD(100-1)의 사용자에 대한 3D 모델 정보를 HMD(100-2)에 전송할 수 있다.
1012에서, HMD(100-2)는 HMD(100-1)의 사용자와 연관된 3D 모델을 렌더링할 수 있다. 일부 실시예들에서, HMD(100-2)는 사용자의 물리적 존재와 관련하여 3D 모델을 렌더링할 수 있다. 예를 들어, 3D 모델은 HMD(100-2)가 증강 현실 효과를 제공하기 위해 사용자(100-1)의 일부 위에 중첩할 수 있는 마스크, 헬멧, 옷 등일 수 있다. 추가적으로 또는 대안적으로, HMD(100-2)는 3D 모델을 HMD(100-1)의 사용자에 대한 아바타로서 렌더링할 수 있다.
HMD(100-1)의 사용자가 3D 모델을 선택하는 것으로서 도 10에 도시되어 있지만, HMD(100-2)의 사용자는 HMD(100-1)의 사용자와 관련하여 이용될 3D 모델을 선택할 수 있다.
도 11은 개시된 주제의 일부 실시예들에 따라 시퀀스에서의 다양한 모델들을 제시하기 위한 디스플레이 공간의 예(1100)를 도시한다. 도 11에 도시된 바와 같이, 디스플레이 공간(1100)은, 건물의 방과 같이, 구조물과 동일한 공간에 걸쳐 있거나 그렇지 않을 수 있는 물리적 영역(1102)을 포함할 수 있다. 일부 실시예들에서, 장벽(1104)은 물리적 영역(1102)을 둘 이상의 영역들로 분할할 수 있다. 장벽(1104)이 물리적 영역(1102)을 대략 절반으로 분할하는 직선형 장벽으로서 도시되지만, 이것은 단지 예일 뿐이고, 장벽(1104)은 물리적 영역(1102)을 임의의 적합한 수의 영역들로 세분할 수 있는 임의의 적합한 형상을 가질 수 있다. 예를 들어, 장벽(1104)은 스텝 패턴, "U"자 형상 등과 같이 더 복잡한 형상을 형성할 수 있다. 일부 실시예들에서, 장벽(1104)은 벽, 커튼 등과 같이 물리적 공간(1102)에서 구축된 영구 또는 임시 구조물에 의해 형성된 물리적 장벽일 수 있다. 대안적으로, 일부 실시예들에서, 장벽(1104)은 HMD(예를 들어, HME(100-1))에 의해 제시되지만 물리적 장벽에 대응하지 않는 완전히 가상 장벽일 수 있다.
일부 실시예들에서, 장벽(1104)은, 예를 들어, 장벽(1104)에 의해 생성된 가상 방들의 초점으로서 작용할 수 있는, 복수의 디스플레이 공간들(1106 및 1108)을 생성할 수 있다. 2개의 디스플레이 공간들이 도시되어 있지만, 이것은 단지 예이고, 임의의 적합한 수의 디스플레이 공간들이 장벽과 연관될 수 있고, 잠재적으로 복수의 디스플레이 공간들이 장벽의 동일한 측 상에 제시되고, 다른 그룹의 디스플레이 공간들이 장벽의 다른 측 상에 위치된다는 점에 유의한다.
일부 실시예들에서, 물리적 공간(1102)은 각각 가상 센서에 대응할 수 있는 다양한 섹션들(1110-1116)로 세분될 수 있다. 예를 들어, 물리적 공간(1102) 내의 하나 이상의 물리적 지점은 어떤 섹션에 HMD(100)가 위치하는지를 결정하기 위한 기준점들로서 지정될 수 있다. 이러한 예에서, HMD(100)는 하나 이상의 지점까지의 거리를 결정하여 HMD(100)의 현재 섹션을 결정할 수 있다. 이러한 예에서, 가상 센서들은 HMD(100)에 의해 구현될 수 있다. 다른 예로서, 블루투스 비컨들과 같은 하나 이상의 능동 디바이스로부터의 신호들이 HMD(100)의 현재 섹션을 결정하는데 이용될 수 있다. 일부 실시예들에서, HMD(100-1)는 섹션(1110) 내에 존재할 때, 디스플레이 공간(1106)에 대한 콘텐츠를 로딩할 수 있고, 디스플레이 공간(1106)이 사용자(312)의 시야 내에 있을 때 그 콘텐츠를 제시할 수 있다. 사용자(312)가 섹션(1110)으로부터 섹션(1112)으로 이동할 때, HMD(100-1)는 사용자가 장벽(1104) 주위로 이동하는 것의 준비로 디스플레이 공간(1108)에 대한 콘텐츠를 로딩할 수 있다. 일부 실시예들에서, 콘텐츠가 디스플레이 공간들에서 제시되는 순서는, 도 2 및 도 5와 관련하여 전술한 바와 같이, 사용자 컴퓨팅 디바이스(220)의 사용자에 의해 생성되는 프리젠테이션 정보와 같은 임의의 적합한 정보에 기반할 수 있다. 일부 실시예들에서, 디스플레이 공간(1108)이 사용자(312)의 시야 내에 있도록 HMD(100-1)를 착용하는 사용자(312)가 섹션(1114)으로 이동함에 따라, HMD(100-1)는 사용자가 섹션(1112)으로 이동했을 때 디스플레이 공간(1108)과 관련하여 로딩된 콘텐츠를 제시하기 시작할 수 있다.
일부 실시예들에서, 사용자(312)가 섹션(1114)으로부터 섹션(1116)으로 이동할 때, HMD(100-1)는 공간(1106)에 대한 콘텐츠의 다음 부분을 로딩하여 그 공간과 연관된 이전에 로딩된 콘텐츠를 대체할 수 있고, 사용자(312)가 장벽(1104) 주위로 이동할 때, HMD(100-1)는 디스플레이 공간(1106)에서 새로운 콘텐츠를 제시한다. 그러나, 사용자(312)가 다시 섹션(1114)으로 이동하면, HMD(100-1)는 사용자가 프리젠테이션을 통해 뒤로 이동할 수 있도록 디스플레이 공간(1106)에 대해 이전 콘텐츠를 로딩할 수 있다. 일부 실시예들에서, 프리젠테이션에서의 콘텐츠의 순서는 사용자가 장벽(1104) 주위를 시계 방향으로 이동하는 동안 앞으로 이동할 수 있고, 사용자가 장벽 주위를 반시계 방향으로 이동하기 시작하는 경우 뒤로 이동할 수 있다. 그러나, 이것은 단지 예일 뿐이다.
일부 실시예들에서, 프리젠테이션은 HMD가 먼저 섹션(1110)(또는 임의의 다른 지정된 섹션)에 진입할 때 시작하도록 지정될 수 있으며, 사용자가 물리적 공간(1102)에 진입하는 곳에 관계없이 동일한 콘텐츠가 동일한 디스플레이 공간들에서 제시된다. 대안적으로, 일부 실시예들에서, 프리젠테이션은 사용자가 먼저 물리적 공간(1102)에 진입할 때 그 사용자에 가장 가까운 디스플레이 공간에 있을 수 있다.
일부 실시예들에서, 장벽(1104) 주위로 함께 이동하는 사용자들과 연관된 HMD들은 사용자들이 동일한 횟수만큼 장벽(1104) 주위로 이동하였다면 디스플레이 공간들(1106 및 1108)에서 동일한 콘텐츠를 제시할 수 있다. 이것은 상이한 사용자들 간에 공유된 경험을 용이하게 할 수 있다. 일부 이러한 실시예들에서, 동일한 횟수만큼 장벽(1104) 주위로 이동되지 않은 2개의 상이한 HMD들은 디스플레이 공간들(1106 및 1108)에서 상이한 콘텐츠를 제시할 수 있다. 추가적으로 또는 대안적으로, 일부 실시예들에서, 2개 이상의 상이한 HMD들은 이들이 디스플레이 공간들(1106 및/또는 1108)에서 동일한 콘텐츠를 제시하도록 함께 링크될 수 있다. 예를 들어, 특정한 HMD가 마스터 HMD로서 지정될 수 있고, 마스터 HMD와 페어링된 HMD들은 이들이 마스터 HMD와 함께 장벽(1104) 주위로 이동하지 않더라도 디스플레이 공간들(1106 및/또는 1108)에서 동일한 콘텐츠를 제시할 수 있다. 다른 예로서, 링크된 HMD들은 (예를 들어, HMD들 대부분이 위치하는 곳에 기반하는 것, 최대 횟수만큼 장벽(1104) 주위로 이동한 HMD에 기반하는 것, 최소 횟수만큼 장벽(1104) 주위로 이동한 HMD에 기반하는 것 등에 의해) 어느 콘텐츠를 표시할지를 집합적으로 결정할 수 있다. 일부 실시예들에서, 2개 이상의 상이한 HMD들은 임의의 적합한 기술 또는 기술들의 조합을 이용하여 함께 링크될 수 있다. 예를 들어, 링크될 HMD들은 하나 이상의 다른 HMD와 링크되는 HMD를 지정하는 구성 파일의 존재에 기반할 수 있다. 다른 예로서, 물리적 공간(1102)에 처음에 진입할 때, 물리적 공간(1102)과 연관된 애플리케이션을 시작할 때, 기타 등등 시에, 사용자는 셋업 루틴의 일부로서 그룹을 선택하도록 프롬프팅될 수 있다. 이러한 예에서, 공유된 경험을 갖고자 하는 사용자들은 이들이 동일한 그룹의 일부라는 것을 표시할 수 있다. 또 다른 예로서, 함께 링크될 각각의 HMD는 HMD들이 링크되게 할 수 있는 특정한 시각 코드(예를 들어, QR 코드)의 이미지를 캡처할 수 있다. 또 다른 예로서, HMD와 페어링된 디바이스(예를 들어, 스마트폰, 태블릿 컴퓨터 등)는 참여할 그룹을 선택하는데 이용될 수 있고/있거나 링크할 하나 이상의 다른 HMD를 선택할 수 있다.
일부 실시예들에서, HMD(100-1)는 착용자가 특정한 콘텐츠로 내비게이팅하기 위해 장벽 주위로 이동함에 따라 다른 방식으로 제시될 콘텐츠를 스킵할 수 있다. 예를 들어, 사용자는 HMD(100-1) 상에서 (예를 들어, 하드웨어 버튼을 푸시함으로써) HMD(100-1)에 의해 메뉴가 제시되게 할 수 있고, 그 메뉴로부터 사용자는 특정한 콘텐츠를 제시하는 것, 콘텐츠를 통해 진행하는 것 등을 하기 위한 명령을 선택할 수 있다. 다른 예로서, 사용자는 제시될 콘텐츠를 선택하는 것, 콘텐츠를 통해 진행하는 것 등을 하기 위해 페어링된 디바이스(예를 들어, 페어링된 스마트폰) 상의 애플리케이션에 액세스할 수 있다. 또 다른 예로서, HMD(100-1)는 어느 콘텐츠가 디스플레이 공간(1106 및/또는 1108)에서 제시될지를 표시하는 명령어 및/또는 콘텐츠를 서버(예를 들어, 서버(204))로부터 수신할 수 있으며, 이는 특정한 콘텐츠가 HMD(100-1)에 의해 제시되게 할 수 있다.
일부 실시예들에서, 사용자들이 장벽 주위로 이동함에 따라 콘텐츠가 디스플레이 공간들에서 제시되는 순서는 임의의 적합한 기술 또는 기술들의 조합을 이용하여 생성될 수 있다. 예를 들어, 도 2의 스테이션들과 관련하여 전술한 바와 같이, 관리 사용자는 애플리케이션을 이용하여 디스플레이 공간들에 제시될 콘텐츠의 순서화된 리스트를 포함하는 프리젠테이션을 어셈블링할 수 있다. 다른 예로서, 콘텐츠의 순서가 랜덤하게 제시될 수 있다. 또 다른 예로서, 콘텐츠가 제시되는 순서는 콘텐츠의 코퍼스에 저장되는 순서로부터 결정될 수 있다. 일부 실시예들에서, 디스플레이 공간들(1106 및/또는 1108)에 제시될 콘텐츠는 HMD 상에 프리로드될 수 있고/있거나 착용자가 물리적 공간(1102)을 통해 이동하고 있는 동안 수신될 수 있다. 예를 들어, 제시될 콘텐츠 모두는 HMD가 콘텐츠의 프리젠테이션을 시작하는 것에 앞서, HMD에 다운로드, 업로드, 사이드로드 등이 될 수 있다. 다른 예로서, 콘텐츠의 일부가 HMD 상에 프리로드될 수 있고, 프리로드된 콘텐츠가 제시될 때, HMD는 (예를 들어, 서버(204)로부터 콘텐츠를 다운로드하는 것, 서버(204)로부터 콘텐츠를 스트리밍하는 것 등에 의해) 추가 콘텐츠를 획득할 수 있다. 또 다른 예로서, HMD는 필요에 따라 콘텐츠를 실시간으로 스트리밍할 수 있다.
도 12는 개시된 주제의 일부 실시예들에 따라 제한된 물리적 공간에서 콘텐츠의 시퀀스를 제시하기 위한 프로세스의 예(1200)를 도시한다. 도 12에 도시된 바와 같이, 1202에서, 프로세스(1200)는 장벽(예를 들어, 장벽(1104)) 주위의 다양한 섹션들 중에서 HMD(예를 들어, HMD(100-1))가 위치하는 초기 섹션을 결정할 수 있다. 일부 실시예들에서, 프로세스(1200)는, 하나 이상의 비컨(예를 들어, 블루투스 비컨)으로부터의 신호들, HMD의 이미지 센서에 의해 캡처된 이미지들, HMD의 GPS 위치 등에 기반하는 것과 같이, 임의의 적합한 기술 또는 기술들의 조합을 이용하여 HMD의 초기 섹션을 결정할 수 있다. 일부 실시예들에서, 1202에서의 결정은 HMD에 의해 및/또는 서버(예를 들어, 서버(204))와 같은 다른 컴퓨팅 디바이스에 의해 이루어질 수 있다.
1204에서, 프로세스(200)는 적어도 초기 섹션 및 다른 섹션에 대응하는 제1 프리젠테이션 공간에 대한 콘텐츠에 액세스할 수 있다. 예를 들어, 도 11과 관련하여 전술한 바와 같이, 2개의 섹션들이 하나의 디스플레이 공간과 연관될 수 있다. 일부 실시예들에서, 제1 디스플레이 공간에서 제시될 콘텐츠는 예를 들어 콘텐츠의 시퀀스에서의 콘텐츠의 제1 부분일 수 있다. 더 특정한 예에서, 제1 디스플레이 공간에서 제시될 콘텐츠는 전시(exhibit)들의 시퀀스에서의 제1 전시일 수 있다.
1206에서, 프로세스(1200)는 제1 디스플레이 공간에 대한 콘텐츠를 제시할 수 있다. 예를 들어, 도 11과 관련하여 전술한 바와 같이, 제1 디스플레이 공간이 사용자의 시야 내에 있을 때, 프로세스(1200)는 제1 디스플레이 공간에 대한 콘텐츠가 제시되게 할 수 있다.
1208에서, 프로세스(1200)는 HMD가 제1 디스플레이 공간에 대응하는 마지막 섹션으로 이동했는지 여부를 결정할 수 있다. 일부 실시예들에서, 각각의 디스플레이 공간은 디스플레이 공간이 보이는 하나 이상의 섹션과 연관될 수 있다. 프로세스(1200)는, 도 11 및 1202와 관련하여 전술한 기술들과 같은 임의의 적합한 기술 또는 기술들의 조합을 이용하여 HMD가 제1 디스플레이 공간에 대응하는 마지막 섹션으로 이동할 때를 결정할 수 있다. 일부 실시예들에서, 섹션들은 제1 방향으로 섹션들을 통해 이동하는 것이, HMD가 제1 디스플레이 공간에 대응하는 마지막 섹션으로부터 볼 수 없었던 다음의 디스플레이 공간에 대응하는 섹션으로 이동할 때 프리젠테이션으로부터의 콘텐츠의 다음 부분이 제시되게 하는 특정한 순서로 정의될 수 있다. 예를 들어, 마지막 섹션은 제1 섹션으로부터 시계 방향인 제1 디스플레이 공간이 보이는 마지막 섹션으로서 결정될 수 있다. 이러한 예에서, 사용자가 장벽 주위를 시계 방향으로 이동함에 따라, 프리젠테이션은 3D 장면들의 시퀀스와 같은 시퀀스를 통해 앞으로 진행할 수 있다.
1210에서, 프로세스(1200)가 HMD가 제1 디스플레이 공간에 대응하는 마지막 영역으로 이동하였다고 결정하면(1210에서 "예"), 프로세스(1200)는 1212로 이동할 수 있다. 1212에서, 프로세스(1200)는 다음 프리젠테이션 공간에 대한 콘텐츠에 액세스할 수 있다. 일부 실시예들에서, 프로세스(1200)는 (예를 들어, 서버(204)와 같은 서버로부터 콘텐츠를 다운로드함으로써) 내부 메모리 및/또는 원격 저장소로부터의 콘텐츠에 액세스할 수 있다. 일부 실시예들에서, 프로세스(1200)는 다음 디스플레이 공간이 HMD의 착용자의 시야에 들어올 때 제시될 준비가 되도록 콘텐츠를 프리로드할 수 있다.
1214에서, 프로세스(1200)는 HMD가 다음 디스플레이 공간에 대응하는 섹션으로 이동하였는지 여부(예를 들어, 사용자가 장벽(1104) 주위로 움직였는지 여부)를 결정할 수 있다. 프로세스(1200)가 HMD가 다음 디스플레이 공간으로 이동한 것으로 결정하는 경우(1214에서 "예"), 프로세스(1200)는 다음 디스플레이 공간이 HMD의 착용자의 시야 내에 있을 때, 1216에서, 다음 디스플레이 공간에 대응하는 콘텐츠가 제시되게 할 수 있다.
1210에서, 프로세스(1200)가 HMD가 제1 디스플레이 공간에 대응하는 마지막 영역으로 이동하지 않았다고 결정하거나(1210에서 "아니오"), 또는 프로세스(1200)가 HMD가 다음 디스플레이 공간으로 이동하지 않았다고 결정하는 경우(1214에서 "아니오"), 프로세스(1200)는 1218로 이동할 수 있고, HMD가 제1 디스플레이 공간과 연관된 제1 섹션으로 다시 이동하였는지 여부를 결정할 수 있다. 추가적으로, 1216에서 다음 디스플레이 공간에 대한 콘텐츠를 제시하는 동안, 사용자는 제1 디스플레이 공간과 연관된 섹션들로 다시 이동할 수 있고, 프로세스(1200)는 1218로 이동할 수 있다.
프로세스(1200)가 HMD가 제1 공간에 대응하는 제1 섹션으로 다시 이동하지 않은 것으로 결정하는 경우(1218에서 "아니오"), 프로세스(1200)는 1208로 복귀할 수 있고, 여기서 HMD가 현재 디스플레이 공간(즉, HMD가 제1 디스플레이 공간에 대응하는 섹션들에 있었을 때의 다음 디스플레이 공간)과 연관된 마지막 섹션으로 이동했는지 여부를 결정할 수 있다. 그렇지 않고, 프로세스(1200)가 HMD가 제1 공간에 대응하는 제1 섹션으로 다시 이동한 것으로 결정하는 경우(1218에서 "예"), 프로세스(1200)는, 1220에서, 현재 제시되는 콘텐츠에 선행하는 콘텐츠의 부분에 액세스할 수 있고, 이에 따라 HMD가 (다음 디스플레이 공간과 동일한 물리적 공간일 수 있는) 이전 디스플레이 공간으로 뒤로 이동하는 경우 HMD는 콘텐츠를 제시할 수 있다. 일부 실시예들에서, 프로세스(1200)는 사용자가 (예를 들어, 어느 한 방향에서의 장벽(1104)의 다른 측 상의) 다음 또는 이전 디스플레이 공간으로 이동할 때, HMD가 항상 그 디스플레이 공간에 대응하는 콘텐츠를 제시하도록 준비된다는 것을 보장할 수 있다.
일부 실시예들에서, 프로세스(1200)는 HMD에 의해 또는 서버에 의해 실행될 수 있다. 추가적으로 또는 대안적으로, 프로세스(1200)의 특정한 부분들은 HMD에 의해 실행될 수 있는 반면, 다른 부분들은 서버, 센서 등과 같은 하나 이상의 다른 디바이스에 의해 실행된다.
도 13a 내지 도 13d는 개시된 주제의 일부 실시예들에 따라 이용하기 위해 콘텐츠를 제시하는데 이용되는 HMD들의 기록된 세션의 리플레이로부터의 장면들의 예들을 도시한다. 일부 실시예들에서, HMD들(100) 및/또는 서버(204)는 한 명 이상의 사용자의 동작들을 묘사하는 미디어(예를 들어, 오디오, 비디오, 및/또는 컴퓨터 생성 그래픽)를 기록할 수 있고, 이러한 미디어는 (예를 들어, 사용자들 중 한 명, 강사 등에 의한) 리뷰를 위해 액세스될 수 있다. 도 13a는 개시된 주제의 일부 실시예들에 따라 아바타(1302)에 의해 표현되는 제1 사용자(HLA) 및 아바타(1304)에 의해 표현되는 제2 사용자(HLB)가 가상 사고 피해자(1306)(AI)와 상호작용하는 제1 리뷰 모드의 예를 도시한다. 도 13a에 도시된 모드에서, 대화의 기록을 나타내는 텍스트(1308)가 장면이 진행됨에 따라 제시될 수 있다. 추가적으로, 윈도우들(1310 및 1312)은 제1 사용자(1302) 및 제2 사용자(1304)에 의해 각각 착용된 HMD들로부터의 1인칭 뷰들을 보여줄 수 있다. 일부 실시예들에서, 상이한 사용자들은 상이한 컬러의 아바타들(및/또는 개인화된 아바타들)에 의해 표현될 수 있고, 윈도우들(1310 및 1312)은 어느 사용자가 그 장면의 어느 부분을 보고 있는지를 명확히 하기 위해 컬러 코딩(및/또는 아니면 라벨링)될 수 있다. 일부 실시예들에서, 리뷰되고 있는 콘텐츠는 가상 현실 세션을 나타낼 수 있고, 리뷰되고 있는 세션 동안 사용자들에 의해 착용된 HMD들을 통해 사용자들에게 제시된 장면의 그래픽들 및/또는 이미지들을 포함할 수 있다. 추가적으로 또는 대안적으로, 리뷰되고 있는 콘텐츠는 증강 현실(또는 다른 혼합 현실) 세션을 나타낼 수 있고, (예를 들어, 윈도우들(1310 및 1312)에 도시된 바와 같이) HMD들에 의해 캡처된 이미지 데이터를 넘어서 사용자들이 위치한 넓은 환경의 이미지 데이터를 포함하지 않을 수 있다.
일부 실시예들에서, 세션 동안 기록된 콘텐츠를 리뷰하기 위해 임의의 적합한 컴퓨팅 디바이스가 이용될 수 있다. 예를 들어, 개인용 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터 등은 리뷰 콘텐츠를 2차원 이미지들로서 제시하는데 이용될 수 있다. 다른 예로서, 콘텐츠는 (예를 들어, 증강 현실 또는 가상 현실 경험으로서) HMD에 의해 제시될 수 있고, HMD의 착용자는 장면을 통해 물리적으로 이동함으로써 (예를 들어, 상이한 시점들로부터 콘텐츠를 보기 위해) 기록된 콘텐츠 주위를 내비게이팅할 수 있고, HMD에 의해 제시되는 콘텐츠는 사용자의 현재 위치 및 시야에 기반할 수 있다. 다른 예로서, HMD의 착용자는 세션의 어느 부분이 제시되고 있는지를 제어하거나(즉, 시간에 걸쳐 내비게이팅하거나), 또는 예를 들어 완전 몰입형 리뷰 모드(즉, HMD의 착용자의 시야에 대응하는 이미지들이 1인칭 모드에서 제시됨)에서 조감도를 제시하고, HMD에 의해 기록된 비디오 콘텐츠를 제시하기 위해(및/또는 예를 들어 가상 현실 리뷰 세션 동안 HMD에 의해 기록되지 않은 HMD의 시점과 연관된 콘텐츠를 리플레이하기 위해) 상이한 리뷰 모드에 진입하기 위한 하나 이상의 명령을 내릴 수 있다.
일부 실시예들에서, 콘텐츠의 리뷰 동안, 리뷰자는 특정한 아바타(예를 들어, 아바타(1302 또는 1304)) 및/또는 특정한 윈도우(예를 들어, 윈도우(1310 또는 1312))를 선택하여, 특정한 사용자와 연관된 1인칭 뷰들에 대응하는 콘텐츠가 (예를 들어, 도 13a에 도시된 3인칭 뷰보다는) 메인 뷰로서 제시되는 1인칭 리뷰 모드에 진입할 수 있다. 이러한 1인칭 뷰에서, 다른 사용자들에 대응하는 윈도우들은 제시될 수 있거나 제시되지 않을 수 있다.
도 13b는 개시된 주제의 일부 실시예들에 따라 상이한 시점에서의 도 13a에 도시된 장면의 다른 뷰의 예를 도시한다. 일부 실시예들에서, 기록을 리뷰하는 사용자는 예를 들어, 빨리 감기 또는 되감기, 스크러버(1316)를 따라 사용자 인터페이스 요소(1314)를 드래그하는 것, (예를 들어, 기록으로부터) 키워드를 검색하는 것 등에 의해 기록의 임의의 부분으로 내비게이팅할 수 있다. 도 13c는 개시된 주제의 일부 실시예들에 따라 또 다른 시간에서의 도 13a 및 도 13b에 도시된 장면의 조감도의 예를 도시한다. 일부 실시예들에서, 사용자는 임의의 적합한 기술 또는 기술들의 조합을 이용하여 콘텐츠 내의 특정한 지점(시간상)으로 내비게이팅할 수 있고, 이용가능한 기술(들)은 콘텐츠를 제시하는데 이용되는 하드웨어에 의존할 수 있다. 예를 들어, 콘텐츠가 (예를 들어, 개인용 컴퓨터 또는 태블릿 컴퓨터에 의해) 2D 디스플레이에 의해 제시되고 있는 경우, 사용자는 (예를 들어, 마우스, 터치패드, 터치스크린, 게임 제어기 등을 이용하여) 사용자 인터페이스 요소들을 선택함으로써 일시정지, 재생, 빨리 감기, 되감기, 스킵 등을 하기 위해 콘텐츠와 관련하여 제시되는 사용자 인터페이스 요소들(도시되지 않음)을 이용할 수 있다. 다른 예로서, 콘텐츠가 2D 디스플레이에 의해 또는 HMD에 의해 제시되고 있는 경우, 사용자는 콘텐츠를 내비게이팅하기 위해 (예를 들어, 페어링된 디바이스의 터치패드, 페어링된 디바이스의 터치스크린, HMD 상의 터치 감지 입력부 상의) 터치 명령들(예를 들어, 재생/일시정지를 위한 태핑, 빨리 감기를 위한 한 방향 스와이핑, 되감기를 위한 다른 방향 스와이핑 등)을 이용할 수 있다. 또 다른 예로서, 콘텐츠가 2D 디스플레이에 의해 또는 HMD에 의해 제시되고 있는 경우, 사용자는 음성 명령들을 이용하여 콘텐츠를 내비게이팅할 수 있다.
도 13d는 개시된 주제의 일부 실시예들에 따른 증강 현실 세션의 리플레이의 예를 도시한다. 도 13d에 도시된 바와 같이, 더 넓은 주위의 물리적 환경의 비디오는 리플레이에 이용가능하지 않을 수 있지만, 사용자들의 아바타들, 홀로그램(1318), 및 HMD들에 의해 기록된 비디오를 보여주는 윈도우들은 비디오 콘텐츠의 기록 동안의 대화를 표현하는 오디오 및/또는 텍스트를 갖거나 갖지 않고 제시될 수 있다.
일부 실시예들에서, 리뷰 동안 콘텐츠를 제시하는데 이용될 수 있는 정보는 임의의 적합한 시간에 임의의 적합한 기술 또는 기술들의 조합을 이용하여 컴퓨팅 디바이스에 의해 수신될 수 있다. 일부 실시예들에서, 세션 동안에 제시된 콘텐츠(예를 들어, 3D 모델들, 하나 이상의 가상 환경 또는 가상 환경들의 부분들 등)는 임의의 적합한 소스로부터 임의의 적합한 시간에 수신될 수 있다. 예를 들어, 콘텐츠는 프리젠테이션 동안 및/또는 프리젠테이션 후에 이용되었던 시간 전에 컴퓨팅 디바이스에 다운로드, 업로드, 사이드로드 등이 될 수 있다. 다른 예로서, 콘텐츠의 적어도 일부는 (예를 들어, 컴퓨팅 디바이스가 리뷰되고 있는 세션 동안 제시된 프리젠테이션을 준비하는데 이용되었던 경우, 컴퓨팅 디바이스가 프리젠테이션 동안 제시된 콘텐츠를 제시하도록 구성된 HMD인 경우 등에는) 이미 컴퓨팅 디바이스에 의해 저장되었을 수 있다. 일부 실시예들에서, 세션의 동적 부분들(예를 들어, HMD들, 오디오, 보충 콘텐츠 등의 위치)에 관한 정보는 임의의 적합한 시간에 수신될 수 있다. 예를 들어, 컴퓨팅 디바이스는 (예를 들어, 서버(204)와 같은 서버로부터) 특정한 세션을 제시하기 위한 요청에 응답하여 제시된 콘텐츠, 환경 및/또는 다른 HMD들과 관련하여 HMD들의 위치에 관한 기록된 정보를 수신할 수 있다. 다른 예로서, 컴퓨팅 디바이스는 리뷰될 세션 동안 제시된 콘텐츠, 환경, 및/또는 다른 HMD들과 관련하여 HMD들의 위치에 관한 정보를 수신할 수 있다(예를 들어, 컴퓨팅 디바이스는 세션 동안 정보를 기록할 수 있다). 또 다른 예로서, 컴퓨팅 디바이스는 세션의 리뷰 동안 제시된 콘텐츠, 환경, 및/또는 다른 HMD들과 관련하여 HMD들의 위치에 관한 정보를 수신할 수 있다(예를 들어, 콘텐츠는 세션을 리뷰할 필요가 있는 것으로 스트리밍되거나 아니면 전달될 수 있다). 일부 실시예들에서, 동적 콘텐츠의 부분들은 상이한 포맷들을 이용하여 전달될 수 있다. 예를 들어, HMD들의 위치에 관한 정보, 제시되는 콘텐츠, 보충 콘텐츠 등이 XML 파일로서 전달될 수 있고, 오디오 콘텐츠 및/또는 비디오 콘텐츠가 미디어 파일로서 수신될 수 있다.
도 14는 개시된 주제의 일부 실시예들에 따라 하나 이상의 HMD에 의해 기록된 미디어를 리뷰하기 위한 프로세스의 예(1400)를 도시한다. 도 14에 도시된 바와 같이, 1402에서, 프로세스(1400)는 리뷰될 콘텐츠의 선택을 수신할 수 있다. 일부 실시예들에서, 리뷰될 콘텐츠는 HMD들이 증강 현실 프리젠테이션을 보는데 이용되었던 특정한 세션에 대응할 수 있다. 예를 들어, 리뷰될 콘텐츠는 강의를 따라가기 위해 HMD들을 모두 이용하는 학생들의 그룹에 주어진 강의에 대응할 수 있다. 일부 실시예들에서, 콘텐츠는 날짜, 제목, 사용자 등과 같은 임의의 적합한 방식으로 조직될 수 있다.
1404에서, 프로세스(1400)는 선택된 콘텐츠를 다운로드, 스트리밍, 로딩, 및/또는 아니면 액세스할 수 있다. 일부 실시예들에서, 기록된 콘텐츠는 임의의 적합한 컴퓨팅 디바이스에 의해 임의의 적합한 위치에 저장될 수 있다. 예를 들어, 기록된 콘텐츠는 사용자 컴퓨팅 디바이스(예를 들어, 사용자 컴퓨팅 디바이스(220)), 로컬 네트워크 상의 서버, 원격 서버, 네트워크 부착 저장소 등에 의해 저장될 수 있다. 일부 실시예들에서, 선택된 콘텐츠는 1404에서 프리젠테이션을 위해 저장소로부터 검색될 수 있다.
1406에서, 프로세스(1400)는 선택된 또는 디폴트 모드(예를 들어, 어떠한 선택도 이루어지지 않은 경우)에서 선택된 세션으로부터의 기록된 콘텐츠를 제시할 수 있다. 예를 들어, 프로세스(1400)는 조감 시각, 지상 시각, 세션을 기록한 HMD들 중 하나의 시각 등으로부터의 기록된 콘텐츠를 제시할 수 있다. 일부 실시예들에서, 프로세스(1400)는 기록의 텍스트를 제시할 수 있다.
1408에서, 프로세스(1400)는 보기 모드 및/또는 하나 이상의 설정이 업데이트되었는지 여부를 결정할 수 있다. 예를 들어, 사용자는 새로운 보기 모드를 선택하는 것, 텍스트를 턴온 또는 턴오프하는 것, 오디오를 턴온 또는 턴오프하는 것, 특정한 HMD로부터의 뷰를 턴온 또는 턴오프하는 것 등을 할 수 있다. 프로세스(1400)가 보기 모드 및/또는 하나 이상의 설정이 업데이트되었다고 결정하면(1408에서 "예"), 프로세스(1400)는 1410으로 이동할 수 있고 새로운 보기 모드 및/또는 설정에 기반하여 업데이트된 콘텐츠를 제시할 수 있다. 그렇지 않고, 프로세스(1400)가 보기 모드 및/또는 하나 이상의 설정이 업데이트되지 않았다고 결정하면(1408에서 "아니오"), 프로세스(1400)는 1412로 이동할 수 있다.
1412에서, 프로세스(1400)는 기록된 콘텐츠 내에서 내비게이팅하기 위한 입력이 수신되었는지 여부를 결정할 수 있다. 예를 들어, 사용자는 특정한 시간 또는 키워드를 검색하는 것, 빨리 감기 사용자 인터페이스 요소를 선택하는 것, 스크러버 바를 따라 진행 표시자를 이동시키는 것 등을 할 수 있다. 프로세스(1400)가 기록된 콘텐츠 내에서 내비게이팅하기 위한 입력이 수신되었다고 결정하면(1412에서 "예"), 프로세스(1400)는 1414로 이동할 수 있고, 수신된 내비게이션 입력(들)에 기반하여 콘텐츠의 프리젠테이션을 변경할 수 있다. 그렇지 않고, 프로세스(1400)가 기록된 콘텐츠 내에서 내비게이팅하기 위한 입력이 수신되지 않았다고 결정하면(1412에서 "아니오"), 프로세스(1400)는 1406으로 복귀하여 현재 설정들을 갖는 현재 보기 모드에서 콘텐츠를 계속해서 제시할 수 있다.
일부 실시예들에서, 본 명세서에서 설명된 기능들 및/또는 프로세스들을 수행하기 위한 명령어들을 저장하는데 임의의 적합한 컴퓨터 판독가능한 매체가 이용될 수 있다. 예를 들어, 일부 실시예들에서, 컴퓨터 판독가능한 매체는 일시적 또는 비일시적일 수 있다. 예를 들어, 비일시적 컴퓨터 판독가능한 매체는 자기 매체(예를 들어, 하드 디스크들, 플로피 디스크들 등), 광학 매체(예를 들어, CD(compact disc)들, DVD(digital video disc)들, 블루레이 디스크들 등), 반도체 매체(예를 들어, RAM, 플래시 메모리, EPROM(electrically programmable read only memory), EEPROM(electrically erasable programmable read only memory) 등), 전송 동안에 사라지지 않거나 영속성의 임의의 모습이 없어지지 않는 임의의 적합한 매체, 및/또는 임의의 적합한 유형적 매체와 같은 매체를 포함할 수 있다. 다른 예로서, 일시적 컴퓨터 판독가능한 매체는, 네트워크들, 와이어들, 도전체들, 광학 섬유들, 회로들, 전송 동안에 일시적이고 영속성의 임의의 모습이 없는 임의의 다른 적합한 매체, 및/또는 임의의 적합한 무형적 매체 상의 신호들을 포함할 수 있다.
개시된 주제가 특정한 실시예들 및 예들과 관련하여 전술되었지만, 본 발명은 반드시 그렇게 제한되지는 않으며, 이러한 실시예들, 예들 및 이용들로부터의 많은 다른 실시예들, 예들, 이용들, 수정들 및 이탈들은 본 명세서에 첨부된 청구항들에 의해 포함되는 것으로 의도된다는 것이 관련 기술분야의 통상의 기술자에 의해 이해될 것이다. 본 명세서에서 인용된 각각의 특허 및 공보의 전체 개시내용은, 각각의 이러한 특허 또는 공보가 본 명세서에 참조로 개별적으로 포함되는 것처럼, 참조로 본 명세서에 포함된다.
본 발명의 다양한 특징들 및 이점들이 다음의 청구항들에 개시되어 있다.

Claims (25)

  1. 상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 시스템으로서,
    복수의 헤드 장착 디스플레이들을 포함하며,
    상기 복수의 헤드 장착 디스플레이들 중의 제1 헤드 장착 디스플레이는,
    투명 디스플레이, 및
    적어도 하나의 프로세서
    를 포함하고, 상기 적어도 하나의 프로세서는,
    상기 헤드 장착 디스플레이의 물리적 환경에서의 복수의 물리적 위치들 중의 제1 물리적 위치가 상기 헤드 장착 디스플레이에 가장 가깝게 위치된다는 것을 결정하고,
    제1 3차원 모델을 포함하는 제1 콘텐츠를 수신하고,
    제2 3차원 모델을 포함하는 제2 콘텐츠를 수신하고,
    상기 투명 디스플레이를 이용하여, 제1 시간에 상기 제1 3차원 모델의 제1 뷰를 제시하며,
    상기 투명 디스플레이를 이용하여, 서버로부터 수신된 하나 이상의 명령어에 기반하여 상기 제1 시간에 후속하는 제2 시간에 상기 제2 3차원 모델의 제1 뷰를 제시하도록 프로그래밍되는 시스템.
  2. 제1항에 있어서,
    상기 적어도 하나의 프로세서는 상기 제1 시간에 후속하고 상기 제2 시간에 선행하는 제3 시간에 상기 서버로부터 명령어들을 수신하도록 추가로 프로그래밍되고, 상기 하나 이상의 명령어는 상기 제1 헤드 장착 디스플레이로 하여금 상기 하나 이상의 명령어를 수신하는 것에 응답하여 상기 제1 콘텐츠를 제시하는 것을 중단하고 상기 제2 콘텐츠를 제시하기 시작하게 하는 적어도 하나의 명령어를 포함하는 시스템.
  3. 제2항에 있어서,
    상기 서버를 더 포함하고, 상기 서버는,
    상기 제2 콘텐츠가 제시될 것이라는 표시를 수신하고,
    상기 제2 콘텐츠가 제시될 것이라는 상기 표시를 수신하는 것에 응답하여, 상기 하나 이상의 명령어를 적어도 상기 제1 헤드 장착 디스플레이에 전송하는 시스템.
  4. 제3항에 있어서,
    상기 복수의 헤드 장착 디스플레이들 중의 제2 헤드 장착 디스플레이를 더 포함하고, 상기 제2 헤드 장착 디스플레이는 적어도 하나의 제2 프로세서를 포함하고, 상기 적어도 하나의 제2 프로세서는 상기 제2 헤드 장착 디스플레이로 하여금 상기 서버로서 작용하게 하도록 프로그래밍되는 시스템.
  5. 제1항에 있어서,
    상기 제1 콘텐츠 및 상기 제2 콘텐츠는 상기 제1 콘텐츠를 제시하기 전에 콘텐츠의 코퍼스의 일부로서 수신되는 시스템.
  6. 제1항에 있어서,
    상기 제1 콘텐츠는 상기 제1 시간 전에 수신되고, 상기 제2 콘텐츠는 상기 제1 시간 뒤에 수신되는 시스템.
  7. 제6항에 있어서,
    상기 적어도 하나의 프로세서는 상기 제2 콘텐츠가 제시될 것이라는 표시를 수신하는 것에 응답하여 상기 제2 콘텐츠를 요청하도록 추가로 프로그래밍되는 시스템.
  8. 제6항에 있어서,
    상기 적어도 프로세서는 상기 제2 콘텐츠에 대한 요청을 전송하지 않고 제시될 푸시된 콘텐츠로서 상기 제2 콘텐츠를 상기 서버로부터 수신하도록 추가로 프로그래밍되는 시스템.
  9. 제1항에 있어서,
    헤드 추적 시스템을 더 포함하고,
    상기 적어도 하나의 하드웨어 프로세서는,
    상기 제1 콘텐츠가 상기 제1 헤드 장착 디스플레이의 물리적 환경에서의 복수의 물리적 위치들 중의 제1 물리적 위치에서 제시될 것이라는 표시를 수신하고,
    상기 제2 콘텐츠가 상기 제1 헤드 장착 디스플레이의 물리적 환경에서의 상기 복수의 물리적 위치들 중의 제2 물리적 위치에서 제시될 것이라는 표시를 수신하고,
    상기 투명 디스플레이를 이용하여, 상기 헤드 추적 시스템에 의해 출력된 정보로부터 결정된 상기 제1 물리적 위치와 관련된 제1 헤드 위치에 적어도 부분적으로 기반하여 상기 제1 물리적 위치에서 상기 제1 3차원 모델의 상기 제1 뷰를 제시하고,
    상기 헤드 추적 시스템에 의해 출력된 정보에 기반하여, 상기 제1 헤드 위치와 상이하고 상기 제1 물리적 위치와 관련된 제2 헤드 위치를 결정하고,
    상기 제2 헤드 위치를 결정하는 것에 응답하여, 상기 제2 헤드 위치에 기반하여 상기 제1 3차원 모델의 제2 뷰를 제시하고,
    상기 헤드 장착 디스플레이의 상기 물리적 환경에서의 상기 복수의 물리적 위치들 중의 상기 제2 물리적 위치가 상기 복수의 물리적 위치들 중 상기 헤드 장착 디스플레이에 가장 가깝게 위치된다는 것을 결정하며,
    상기 제2 물리적 위치가 상기 복수의 물리적 위치들 중 상기 헤드 장착 디스플레이에 가장 가깝게 위치된다는 것을 결정하는 것에 응답하여, 상기 제2 물리적 위치에서 고정된 제2 3차원을 제시하도록 추가로 프로그래밍되는 시스템.
  10. 제9항에 있어서,
    상기 적어도 하나의 하드웨어 프로세서는 상기 제2 물리적 위치가 상기 복수의 물리적 위치들 중 상기 헤드 장착 디스플레이에 가장 가깝게 위치된다는 것을 결정하는 것에 응답하여 상기 제1 물리적 위치에서 상기 제1 3차원 모델의 프리젠테이션을 금지하도록 추가로 프로그래밍되는 시스템.
  11. 제9항에 있어서,
    상기 헤드 추적 시스템은 관성 측정 유닛을 포함하는 시스템.
  12. 제9항에 있어서,
    상기 적어도 하나의 프로세서는 상기 헤드 장착 디스플레이가 상기 제2 물리적 위치에 더 근접하게 이동했다는 것을 결정하는 것에 응답하여 상기 서버로부터 상기 제2 콘텐츠를 요청하도록 추가로 프로그래밍되는 시스템.
  13. 제9항에 있어서,
    상기 적어도 프로세서는 상기 제2 콘텐츠에 대한 요청을 전송하지 않고 제시될 푸시된 콘텐츠로서 상기 제2 콘텐츠를 상기 서버로부터 수신하도록 추가로 프로그래밍되는 시스템.
  14. 제1항에 있어서,
    컴퓨팅 디바이스를 더 포함하며,
    상기 컴퓨팅 디바이스는,
    적어도 하나의 입력 디바이스, 및
    적어도 하나의 제3 프로세서
    를 포함하고, 상기 적어도 하나의 제3 프로세서는,
    상기 제1 콘텐츠가 상기 제1 물리적 위치와 연관될 것이고, 상기 제2 콘텐츠가 상기 제2 물리적 위치와 연관될 것임을 표시하는 입력을 상기 입력 디바이스로부터 수신하고,
    상기 제1 콘텐츠가 상기 제1 물리적 위치와 연관될 것이고, 상기 제2 콘텐츠가 상기 제2 물리적 위치와 연관될 것임을 표시하는 정보를 서버에 전송하도록 프로그래밍되고,
    상기 정보는 확장가능 마크업 언어(Extensible Markup Language)(XML) 문서로서 포매팅되는 시스템.
  15. 제1항에 있어서,
    상기 제1 헤드 장착 디스플레이와 통신하도록 구성된 사용자 입력 디바이스, 및
    상기 복수의 헤드 장착 디스플레이들 중의 제2 헤드 장착 디스플레이
    를 더 포함하고, 상기 사용자 입력 디바이스는,
    제2 관성 측정 유닛, 및
    적어도 하나의 제4 프로세서
    를 포함하고, 상기 적어도 하나의 제4 프로세서는,
    상기 제1 헤드 장착 디스플레이에게 상기 사용자 입력 디바이스의 물리적 움직임들을 표시하는 정보를 전송하도록 프로그래밍되고,
    상기 제1 헤드 장착 디스플레이의 상기 적어도 하나의 프로세서는,
    상기 사용자 입력 디바이스의 물리적 움직임들을 표시하는 정보에 기반하는 위치에서 상기 제1 3차원 모델과 관련한 제1 사용자 인터페이스 요소를 제시하고,
    상기 제1 3차원 모델과 관련한 상기 사용자 인터페이스 요소의 위치를 표시하는 정보를 서버에 전송하도록 추가로 프로그래밍되고,
    상기 복수의 헤드 장착 디스플레이들 중의 제2 헤드 장착 디스플레이는 적어도 하나의 제5 프로세서를 포함하고, 상기 적어도 하나의 제5 프로세서는,
    상기 사용자 인터페이스 요소가 상기 제1 3차원 모델과 관련하여 제시될 위치를 표시하는 하나 이상의 명령어를 상기 서버로부터 수신하고,
    상기 제1 3차원 모델에 관련한 상기 사용자 인터페이스 요소의 위치에 관련된 상기 서버로부터 수신된 상기 정보에 기반하여 상기 제1 3차원 모델에 대한 위치에서 상기 사용자 인터페이스 요소를 제시하도록 프로그래밍되는 시스템.
  16. 제15항에 있어서,
    상기 사용자 인터페이스 요소는 상기 위치에서 도트로서 제시되는 시스템.
  17. 제1항에 있어서,
    적어도 하나의 이미지 캡처 디바이스를 더 포함하고, 상기 적어도 하나의 프로세서는,
    모바일 컴퓨팅 디바이스에 의해 표시된 코드의 이미지를 캡처하고,
    상기 제1 헤드 장착 디스플레이가 상기 모바일 컴퓨팅 디바이스와 페어링되게 하기 위해 상기 이미지에서 인코딩된 정보를 서버에 전송하도록 추가로 프로그래밍되는 시스템.
  18. 제17항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 모바일 컴퓨팅 디바이스를 이용하여 상기 서버에 의해 적어도 부분적으로 제공되는 서비스에 로그인하도록 사용자에게 프롬프팅하고,
    상기 코드의 이미지를 캡처하여 상기 서비스에 대해 상기 제1 헤드 장착 디스플레이에 로그인하게 상기 사용자에게 프롬프팅하도록 추가로 프로그래밍되는 시스템.
  19. 제1항에 있어서,
    상기 제1 물리적 위치는 적어도, 상기 물리적 환경에서의 장벽의 제1 측 상의 상기 물리적 환경의 제1 섹션, 및 상기 장벽의 상기 제1 측 상의 상기 물리적 환경의 제2 섹션과 연관되고, 상기 제2 물리적 위치는 적어도, 상기 장벽의 제2 측 상의 상기 물리적 환경의 제3 섹션, 및 상기 장벽의 상기 제2 측 상의 상기 물리적 환경의 제4 섹션과 연관되고, 상기 제2 섹션은 상기 물리적 환경에서 상기 제1 섹션과 상기 제3 섹션 사이에 배치되고,
    상기 적어도 하나의 하드웨어 프로세서는,
    상기 제1 헤드 장착 디스플레이가 상기 제1 섹션 내에 배치된다는 것을 결정하고,
    상기 제1 헤드 장착 디스플레이가 상기 제1 섹션 내에 배치된다는 것을 결정하는 것에 응답하여, 상기 제1 물리적 위치에 상기 제1 콘텐츠를 제시하고,
    상기 제1 헤드 장착 디스플레이가 상기 제3 섹션으로 이동했다는 것을 결정하고,
    상기 제1 헤드 장착 디스플레이가 상기 제3 섹션으로 이동했다는 것을 결정하는 것에 응답하여, 상기 제2 물리적 위치에 상기 제2 콘텐츠를 제시하도록 구성되는 시스템.
  20. 제19항에 있어서,
    상기 적어도 하나의 하드웨어 프로세서는,
    제3 3차원 모델을 포함하는 제3 콘텐츠를 수신하고,
    상기 제1 헤드 장착 디스플레이가 상기 제4 섹션으로 이동했다는 것을 결정하고,
    상기 제1 헤드 장착 디스플레이가 상기 제4 섹션으로 이동했다는 것을 결정하는 것에 응답하여, 상기 제3 콘텐츠를 상기 제1 헤드 장착 디스플레이의 작동 메모리로 로딩하고,
    상기 제1 헤드 장착 디스플레이가 상기 제4 섹션으로부터 상기 제1 섹션으로 이동했다는 것을 결정하고,
    상기 제1 헤드 장착 디스플레이가 상기 제4 섹션으로부터 상기 제1 섹션으로 이동했다는 것을 결정하는 것에 응답하여, 상기 제1 헤드 장착 디스플레이의 상기 작동 메모리에 로딩된 상기 제3 콘텐츠를 제시하도록 구성되는 시스템.
  21. 제1항에 있어서,
    서버를 더 포함하고, 상기 서버는,
    제1 기간 동안의 상기 제1 헤드 장착 디스플레이에 의한 상기 제1 콘텐츠의 프리젠테이션 동안 상기 제1 헤드 장착 디스플레이의 위치에 관한 정보를 수신하고,
    상기 제1 기간 동안 캡처된 상기 제1 헤드 장착 디스플레이의 착용자의 시야에 대응하는 비디오를 수신하고,
    상기 제1 헤드 장착 디스플레이의 위치에 관한 정보를 기록하고,
    상기 제1 기간 동안 상기 제1 헤드 장착 디스플레이의 시야에 대응하는 상기 비디오를 기록하고,
    상기 제1 기간 동안의 제2 헤드 장착 디스플레이에 의한 상기 제1 콘텐츠의 프리젠테이션 동안 상기 제2 헤드 장착 디스플레이의 위치에 관한 정보를 수신하고,
    상기 제1 기간 동안 캡처된 상기 제2 헤드 장착 디스플레이의 착용자의 시야에 대응하는 비디오를 수신하고,
    상기 제2 헤드 장착 디스플레이의 위치에 관한 정보를 기록하고,
    상기 제1 기간 동안 상기 제2 헤드 장착 디스플레이의 시야에 대응하는 상기 비디오를 기록하고,
    제1 컴퓨팅 디바이스로부터, 상기 제1 기간 동안 기록된 콘텐츠를 제시하라는 요청을 수신하고,
    상기 제1 컴퓨팅 디바이스로 하여금 동시에,
    상기 제1 콘텐츠를 제시하고,
    상기 제1 헤드 장착 디스플레이의 위치에 관한 기록된 정보에 기반하여 상기 제1 콘텐츠에 대한 제1 위치에 제1 아바타를 제시하고,
    상기 제2 헤드 장착 디스플레이의 위치에 관한 기록된 정보에 기반하여 상기 제1 콘텐츠에 대한 제2 위치에 제2 아바타를 제시하게 하도록 프로그래밍되며,
    제1 윈도우는 상기 제1 헤드 장착 디스플레이가 상기 제1 위치에 있었을 때 상기 제1 헤드 장착 디스플레이에 의해 캡처된 상기 비디오의 일부를 보여주고,
    제2 윈도우는 상기 제2 헤드 장착 디스플레이가 상기 제2 위치에 있었을 때 상기 제2 헤드 장착 디스플레이에 의해 캡처된 상기 비디오의 일부를 보여주는 시스템.
  22. 제21항에 있어서,
    상기 서버는,
    상기 제1 아바타와 관련하여, 상기 제1 헤드 장착 디스플레이의 착용자의 시선을 표시하는 제1 사용자 인터페이스 요소를 제시하고,
    상기 제2 아바타와 관련하여, 상기 제2 헤드 장착 디스플레이의 착용자의 시선을 표시하는 제2 사용자 인터페이스 요소를 제시하도록 추가로 프로그래밍되는 시스템.
  23. 제1항에 있어서,
    상기 복수의 헤드 장착 디스플레이들 중의 제2 헤드 장착 디스플레이는,
    가상 현실 디스플레이, 및
    적어도 하나의 프로세서
    를 포함하고, 상기 적어도 하나의 프로세서는,
    상기 제1 콘텐츠를 수신하고,
    상기 제2 콘텐츠를 수신하고,
    상기 가상 현실 디스플레이를 이용하여, 상기 제1 시간에 상기 제1 3차원 모델의 상기 제1 뷰를 제시하고,
    상기 가상 현실 디스플레이를 이용하여, 상기 제1 시간에 후속하는 상기 제2 시간에 상기 제2 3차원 모델의 상기 제1 뷰를 제시하도록 프로그래밍되는 시스템.
  24. 상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 시스템으로서,
    복수의 헤드 장착 디스플레이들을 포함하며,
    상기 복수의 헤드 장착 디스플레이들 각각은,
    제1 콘텐츠 및 제2 콘텐츠를 포함하는 콘텐츠를 서버로부터 수신하고,
    물리적 환경에서의 제1 물리적 위치에 대한 헤드 장착 디스플레이의 근접성에 적어도 부분적으로 기반하여 상기 제1 콘텐츠를 제시하고 - 상기 복수의 헤드 장착 디스플레이들 중의 제1 헤드 장착 디스플레이, 및 제1 시간에 상기 제1 물리적 위치에 가깝게 위치하는 상기 복수의 헤드 장착 디스플레이들 중의 제2 헤드 장착 디스플레이는 상기 제1 물리적 위치에 대한 근접성에 기반하여 상기 제1 물리적 위치에 대해 동일한 배향으로 상기 제1 물리적 위치에 상기 제1 콘텐츠를 동시에 제시함 -,
    상기 물리적 환경에서의 제2 물리적 위치에 대한 상기 제1 헤드 장착 디스플레이의 근접성에 적어도 부분적으로 기반하여 상기 제2 콘텐츠를 제시하도록 구성되고,
    상기 복수의 헤드 장착 디스플레이들 중의 제3 헤드 장착 디스플레이, 및 상기 제1 시간에 상기 제2 물리적 위치에 가깝게 위치하는 상기 복수의 헤드 장착 디스플레이들 중의 제4 헤드 장착 디스플레이는 상기 제2 물리적 위치에 대한 근접성에 기반하여 상기 제2 물리적 위치에 대해 동일한 배향으로 상기 제2 물리적 위치에 상기 제2 콘텐츠를 동시에 제시하는 시스템.
  25. 상호작용적 콘텐츠를 표시하기 위한 시스템으로서,
    가상 현실 디스플레이를 포함하는 헤드 장착 디스플레이를 포함하고,
    상기 헤드 장착 디스플레이는,
    제1 콘텐츠, 제2 콘텐츠 및 제3 콘텐츠를 포함하는 콘텐츠를 수신하고,
    제1 프리젠테이션 정보 및 제2 프리젠테이션 정보를 수신하고,
    상기 제1 프리젠테이션 정보에 기반하여, 환경에서의 제1 위치에 대한 상기 헤드 장착 디스플레이의 위치의 근접성에 적어도 부분적으로 기반하여 제1 위치에 상기 제1 콘텐츠를 제시하고,
    상기 제1 프리젠테이션 정보에 기반하여, 환경에서의 제2 위치에 대한 상기 헤드 장착 디스플레이의 근접성에 적어도 부분적으로 기반하여 제2 위치에 상기 제2 콘텐츠를 제시하고,
    상기 제2 프리젠테이션 정보에 기반하여, 환경에서의 제1 위치에 대한 상기 헤드 장착 디스플레이의 위치의 근접성에 적어도 부분적으로 기반하여 제1 위치에 상기 제3 콘텐츠를 제시하도록 구성되는 시스템.
KR1020197019171A 2016-12-05 2017-12-05 상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 시스템들, 방법들 및 매체들 KR20190088545A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020247006719A KR20240033136A (ko) 2016-12-05 2017-12-05 상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 시스템들, 방법들 및 매체들

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201662430179P 2016-12-05 2016-12-05
US62/430,179 2016-12-05
US201762479214P 2017-03-30 2017-03-30
US62/479,214 2017-03-30
US201762492832P 2017-05-01 2017-05-01
US62/492,832 2017-05-01
US201762560869P 2017-09-20 2017-09-20
US62/560,869 2017-09-20
PCT/US2017/064781 WO2018106735A1 (en) 2016-12-05 2017-12-05 Systems, methods, and media for displaying interactive augmented reality presentations

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020247006719A Division KR20240033136A (ko) 2016-12-05 2017-12-05 상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 시스템들, 방법들 및 매체들

Publications (1)

Publication Number Publication Date
KR20190088545A true KR20190088545A (ko) 2019-07-26

Family

ID=62491351

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020197019171A KR20190088545A (ko) 2016-12-05 2017-12-05 상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 시스템들, 방법들 및 매체들
KR1020247006719A KR20240033136A (ko) 2016-12-05 2017-12-05 상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 시스템들, 방법들 및 매체들

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020247006719A KR20240033136A (ko) 2016-12-05 2017-12-05 상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 시스템들, 방법들 및 매체들

Country Status (10)

Country Link
US (3) US10937391B2 (ko)
EP (1) EP3548958A4 (ko)
JP (3) JP2020501265A (ko)
KR (2) KR20190088545A (ko)
CN (2) CN110300909B (ko)
AU (2) AU2017373858B2 (ko)
CA (1) CA3046077A1 (ko)
IL (1) IL267052A (ko)
MX (2) MX2019006567A (ko)
WO (1) WO2018106735A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220300941A1 (en) * 2021-03-22 2022-09-22 International Business Machines Corporation Multi-user interactive ad shopping using wearable device gestures

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8314790B1 (en) * 2011-03-29 2012-11-20 Google Inc. Layer opacity adjustment for a three-dimensional object
US9589000B2 (en) * 2012-08-30 2017-03-07 Atheer, Inc. Method and apparatus for content association and history tracking in virtual and augmented reality
US10867445B1 (en) * 2016-11-16 2020-12-15 Amazon Technologies, Inc. Content segmentation and navigation
AU2017373858B2 (en) 2016-12-05 2022-09-29 Case Western Reserve University Systems, methods, and media for displaying interactive augmented reality presentations
WO2019032967A1 (en) * 2017-08-10 2019-02-14 Google Llc HAND INTERACTION SENSITIVE TO THE CONTEXT
GB2569785B (en) * 2017-12-20 2022-07-13 Sony Interactive Entertainment Inc Data processing
US10990755B2 (en) * 2017-12-21 2021-04-27 International Business Machines Corporation Altering text of an image in augmented or virtual reality
US10523606B2 (en) * 2018-01-02 2019-12-31 Snap Inc. Generating interactive messages with asynchronous media content
US10567321B2 (en) * 2018-01-02 2020-02-18 Snap Inc. Generating interactive messages with asynchronous media content
JP2019145008A (ja) * 2018-02-23 2019-08-29 セイコーエプソン株式会社 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
US11741845B2 (en) * 2018-04-06 2023-08-29 David Merwin Immersive language learning system and method
GB2572786B (en) * 2018-04-10 2022-03-09 Advanced Risc Mach Ltd Image processing for augmented reality
US10916065B2 (en) * 2018-05-04 2021-02-09 Facebook Technologies, Llc Prevention of user interface occlusion in a virtual reality environment
US10768426B2 (en) * 2018-05-21 2020-09-08 Microsoft Technology Licensing, Llc Head mounted display system receiving three-dimensional push notification
US11063889B2 (en) 2018-06-08 2021-07-13 Snap Inc. Generating interactive messages with entity assets
EP3827359B1 (en) 2018-07-24 2024-04-03 Magic Leap, Inc. Application sharing using scenegraphs
US10581940B1 (en) * 2018-08-20 2020-03-03 Dell Products, L.P. Head-mounted devices (HMDs) discovery in co-located virtual, augmented, and mixed reality (xR) applications
JP6754815B2 (ja) * 2018-11-07 2020-09-16 スカパーJsat株式会社 拡張現実システム、拡張現実端末および方法
FR3091399A1 (fr) * 2018-12-28 2020-07-03 Orange Procédé de commande d’un système de réalité virtualisée, et système pour la mise en œuvre du procédé
US11137875B2 (en) * 2019-02-22 2021-10-05 Microsoft Technology Licensing, Llc Mixed reality intelligent tether for dynamic attention direction
US10890992B2 (en) * 2019-03-14 2021-01-12 Ebay Inc. Synchronizing augmented or virtual reality (AR/VR) applications with companion device interfaces
US11150788B2 (en) 2019-03-14 2021-10-19 Ebay Inc. Augmented or virtual reality (AR/VR) companion device techniques
US11012390B1 (en) 2019-03-28 2021-05-18 Snap Inc. Media content response in a messaging system
US11206505B2 (en) * 2019-05-06 2021-12-21 Universal City Studios Llc Systems and methods for dynamically loading area-based augmented reality content
US10665036B1 (en) * 2019-08-03 2020-05-26 VIRNECT inc. Augmented reality system and method with dynamic representation technique of augmented images
US11704874B2 (en) * 2019-08-07 2023-07-18 Magic Leap, Inc. Spatial instructions and guides in mixed reality
WO2021049791A1 (ko) * 2019-09-09 2021-03-18 장원석 증강현실과 가상현실을 이용한 문서의 처리 시스템 및 그 방법
CN110908504B (zh) * 2019-10-10 2021-03-23 浙江大学 一种增强现实博物馆协作交互方法与系统
US11743064B2 (en) * 2019-11-04 2023-08-29 Meta Platforms Technologies, Llc Private collaboration spaces for computing systems
US11468605B2 (en) * 2019-12-12 2022-10-11 Sony Interactive Entertainment Inc. VR real player capture for in-game interaction view
US11386652B2 (en) * 2019-12-26 2022-07-12 Paypal, Inc. Tagging objects in augmented reality to track object data
EP4103999A4 (en) * 2020-02-14 2023-08-02 Magic Leap, Inc. SESSION MANAGER
US11265274B1 (en) 2020-02-28 2022-03-01 Snap Inc. Access and routing of interactive messages
US11262588B2 (en) * 2020-03-10 2022-03-01 Magic Leap, Inc. Spectator view of virtual and physical objects
CN111610861A (zh) * 2020-05-25 2020-09-01 歌尔科技有限公司 跨平台交互方法、ar装置及服务器和vr装置及服务器
CN111744189B (zh) * 2020-07-27 2022-02-01 腾讯科技(深圳)有限公司 画面更新方法、装置、计算机设备和存储介质
US20220392172A1 (en) * 2020-08-25 2022-12-08 Scott Focke Augmented Reality App and App Development Toolkit
US11373375B2 (en) * 2020-08-27 2022-06-28 Micron Technology, Inc. Augmented reality product display
CN113313812A (zh) * 2020-09-16 2021-08-27 阿里巴巴集团控股有限公司 家具展示、交互方法、装置、电子设备和存储介质
JP2022110509A (ja) * 2021-01-18 2022-07-29 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
US11620796B2 (en) * 2021-03-01 2023-04-04 International Business Machines Corporation Expert knowledge transfer using egocentric video
CN113141346B (zh) * 2021-03-16 2023-04-28 青岛小鸟看看科技有限公司 基于串流的vr一拖多系统及方法
CN113761776B (zh) * 2021-08-24 2023-03-14 中国人民解放军总医院第一医学中心 基于增强现实的心脏出血与止血模型的仿真系统和方法
WO2023087005A1 (en) * 2021-11-12 2023-05-19 Case Western Reserve University Systems, methods, and media for controlling shared extended reality presentations
WO2024062590A1 (ja) * 2022-09-22 2024-03-28 マクセル株式会社 仮想現実システム及びそれに用いるヘッドマウントディスプレイ

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8879994B2 (en) * 2009-10-02 2014-11-04 Blackberry Limited Methods and devices for facilitating Bluetooth pairing using a camera as a barcode scanner
KR101329882B1 (ko) * 2010-08-12 2013-11-15 주식회사 팬택 Ar 정보창 표시를 위한 사용자 장치 및 그 방법
US8941559B2 (en) 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
US20120249544A1 (en) * 2011-03-29 2012-10-04 Giuliano Maciocci Cloud storage of geotagged maps
JP5675470B2 (ja) * 2011-04-01 2015-02-25 オリンパス株式会社 画像生成システム、プログラム及び情報記憶媒体
KR101072395B1 (ko) * 2011-07-21 2011-10-11 한국해양연구원 천정 이동형 투명 디스플레이를 이용한 선박용 증강현실 시스템 및 그 구현 방법
US8847988B2 (en) 2011-09-30 2014-09-30 Microsoft Corporation Exercising applications for personal audio/visual system
US20130137076A1 (en) * 2011-11-30 2013-05-30 Kathryn Stone Perez Head-mounted display based education and instruction
US9977492B2 (en) 2012-12-06 2018-05-22 Microsoft Technology Licensing, Llc Mixed reality presentation
CA2905427C (en) 2013-03-11 2022-07-12 Magic Leap, Inc. System and method for augmented and virtual reality
US9390561B2 (en) * 2013-04-12 2016-07-12 Microsoft Technology Licensing, Llc Personal holographic billboard
US9452354B2 (en) * 2013-06-07 2016-09-27 Sony Interactive Entertainment Inc. Sharing three-dimensional gameplay
US20140368537A1 (en) * 2013-06-18 2014-12-18 Tom G. Salter Shared and private holographic objects
US9256987B2 (en) 2013-06-24 2016-02-09 Microsoft Technology Licensing, Llc Tracking head movement when wearing mobile device
JP2015011360A (ja) * 2013-06-26 2015-01-19 株式会社デジタル・スタンダード 情報処理装置およびプログラム
US10533850B2 (en) 2013-07-12 2020-01-14 Magic Leap, Inc. Method and system for inserting recognized object data into a virtual world
KR101627169B1 (ko) * 2013-09-27 2016-06-07 한국과학기술연구원 증강현실 컨텐츠 저작 및 제공 시스템
US20150097719A1 (en) * 2013-10-03 2015-04-09 Sulon Technologies Inc. System and method for active reference positioning in an augmented reality environment
WO2015097792A1 (ja) * 2013-12-25 2015-07-02 富士通株式会社 ペアリング処理装置、ペアリング処理方法及びペアリング処理プログラム
KR20150084200A (ko) 2014-01-13 2015-07-22 엘지전자 주식회사 헤드 마운트 디스플레이 및 제어 방법
US9524588B2 (en) * 2014-01-24 2016-12-20 Avaya Inc. Enhanced communication between remote participants using augmented and virtual reality
US9495801B2 (en) 2014-05-01 2016-11-15 Microsoft Technology Licensing, Llc Pose tracking an augmented reality device
US9798143B2 (en) 2014-08-11 2017-10-24 Seiko Epson Corporation Head mounted display, information system, control method for head mounted display, and computer program
US9818225B2 (en) * 2014-09-30 2017-11-14 Sony Interactive Entertainment Inc. Synchronizing multiple head-mounted displays to a unified space and correlating movement of objects in the unified space
CA2974080A1 (en) * 2015-01-21 2016-07-28 Smiths Medical Asd, Inc. Medical device control
US10684485B2 (en) * 2015-03-06 2020-06-16 Sony Interactive Entertainment Inc. Tracking system for head mounted display
WO2016187477A1 (en) * 2015-05-20 2016-11-24 Daqri, Llc Virtual personification for augmented reality system
US10339382B2 (en) * 2015-05-31 2019-07-02 Fieldbit Ltd. Feedback based remote maintenance operations
US10242643B2 (en) * 2016-07-18 2019-03-26 Microsoft Technology Licensing, Llc Constrained head-mounted display communication
AU2017373858B2 (en) 2016-12-05 2022-09-29 Case Western Reserve University Systems, methods, and media for displaying interactive augmented reality presentations

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220300941A1 (en) * 2021-03-22 2022-09-22 International Business Machines Corporation Multi-user interactive ad shopping using wearable device gestures
US11769134B2 (en) * 2021-03-22 2023-09-26 International Business Machines Corporation Multi-user interactive ad shopping using wearable device gestures

Also Published As

Publication number Publication date
US10937391B2 (en) 2021-03-02
CN110300909A (zh) 2019-10-01
MX2022010708A (es) 2022-09-27
JP2024037868A (ja) 2024-03-19
CN114236837A (zh) 2022-03-25
US20240005892A1 (en) 2024-01-04
EP3548958A4 (en) 2020-07-29
US20190304406A1 (en) 2019-10-03
US11580935B2 (en) 2023-02-14
EP3548958A1 (en) 2019-10-09
AU2017373858B2 (en) 2022-09-29
AU2022291565A1 (en) 2023-02-02
AU2017373858A1 (en) 2019-06-27
WO2018106735A1 (en) 2018-06-14
JP2022046670A (ja) 2022-03-23
JP2020501265A (ja) 2020-01-16
MX2019006567A (es) 2020-09-07
CA3046077A1 (en) 2018-06-14
US20220013084A1 (en) 2022-01-13
IL267052A (en) 2019-07-31
KR20240033136A (ko) 2024-03-12
US11915670B2 (en) 2024-02-27
CN110300909B (zh) 2021-12-24
JP7409692B2 (ja) 2024-01-09

Similar Documents

Publication Publication Date Title
US11915670B2 (en) Systems, methods, and media for displaying interactive augmented reality presentations
US20180324229A1 (en) Systems and methods for providing expert assistance from a remote expert to a user operating an augmented reality device
US11087551B2 (en) Systems and methods for attaching synchronized information between physical and virtual environments
US20210312887A1 (en) Systems, methods, and media for displaying interactive augmented reality presentations
US10430558B2 (en) Methods and systems for controlling access to virtual reality media content
US10356216B2 (en) Methods and systems for representing real-world input as a user-specific element in an immersive virtual reality experience
US20180356893A1 (en) Systems and methods for virtual training with haptic feedback
US20190019011A1 (en) Systems and methods for identifying real objects in an area of interest for use in identifying virtual content a user is authorized to view using an augmented reality device
TW202004421A (zh) 用於在hmd環境中利用傳至gpu之預測及後期更新的眼睛追蹤進行快速注視點渲染
JPWO2019130864A1 (ja) 情報処理装置、情報処理方法およびプログラム
US20160320833A1 (en) Location-based system for sharing augmented reality content
CN109407821A (zh) 与虚拟现实视频的协作交互
CN109314800B (zh) 用于将用户注意力引导到基于位置的游戏进行伴随应用的方法和系统
US20180336069A1 (en) Systems and methods for a hardware agnostic virtual experience
US11656682B2 (en) Methods and systems for providing an immersive virtual reality experience
CN113994385A (zh) 虚拟、增强和扩展现实系统
JP2022507502A (ja) 拡張現実(ar)のインプリント方法とシステム
KR20130039641A (ko) N-스크린 환경에서 체감형 서비스 제공 방법, 장치 및 이를 위한 기록매체
US20240104870A1 (en) AR Interactions and Experiences
JP7011746B1 (ja) コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム
US20230237731A1 (en) Scalable parallax system for rendering distant avatars, environments, and dynamic objects
CN117897677A (en) Artificial reality device acquisition control and sharing
JP2024033277A (ja) 通信システム、情報処理システム、映像再生方法、プログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X601 Decision of rejection after re-examination
J201 Request for trial against refusal decision