KR20210062690A - 엔터테인먼트 환경의 디스플레이 시스템 - Google Patents

엔터테인먼트 환경의 디스플레이 시스템 Download PDF

Info

Publication number
KR20210062690A
KR20210062690A KR1020217012509A KR20217012509A KR20210062690A KR 20210062690 A KR20210062690 A KR 20210062690A KR 1020217012509 A KR1020217012509 A KR 1020217012509A KR 20217012509 A KR20217012509 A KR 20217012509A KR 20210062690 A KR20210062690 A KR 20210062690A
Authority
KR
South Korea
Prior art keywords
display
viewing
user
visualization device
image
Prior art date
Application number
KR1020217012509A
Other languages
English (en)
Inventor
패트릭 제이 고어겐
다니엘 엠 홀스틴
Original Assignee
유니버셜 시티 스튜디오스 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 유니버셜 시티 스튜디오스 엘엘씨 filed Critical 유니버셜 시티 스튜디오스 엘엘씨
Publication of KR20210062690A publication Critical patent/KR20210062690A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G31/00Amusement arrangements
    • A63G31/16Amusement arrangements creating illusions of travel
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B1/00Optical elements characterised by the material of which they are made; Optical coatings for optical elements
    • G02B1/10Optical coatings produced by application to, or surface treatment of, optical elements
    • G02B1/11Anti-reflection coatings
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/24Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type involving temporal multiplexing, e.g. using sequentially activated left and right shutters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/25Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type using polarisation techniques
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/137Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells characterised by the electro-optical or magneto-optical effect, e.g. field-induced phase transition, orientation effect, guest-host interaction or dynamic scattering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G31/00Amusement arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Nonlinear Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

사용자에게 증강 현실(AR) 및 3차원(3-D) 경험을 제공하기 위한 AR 및 3-D 뷰잉 시스템(10)은 사용자가 현실 세계 환경을 볼 수 있는 뷰잉 어셈블리(18)를 가진 착용형 시각화 디바이스(16)를 포함한다. 뷰잉 어셈블리(18)는 하나 이상의 AR 특징부를 표시하도록 구성된 제1 디스플레이(30)와, 사용자가 하나 이상의 코딩된 2차원(2-D) 이미지를 하나 이상의 해독된 3-D 특징부로서 인식할 수 있게 하는 3-D 뷰잉 구성요소(140)를 포함한다. AR 및 3-D 뷰잉 시스템(10)은 하나 이상의 코딩된 2-D 이미지를 표시하도록 구성된 제2 디스플레이(32)를 가진 고정 3-D 디스플레이 시스템(42)을 또한 포함한다. 고정 3-D 디스플레이 시스템(42)은 현실 세계 환경 내에 배치된다.

Description

엔터테인먼트 환경의 디스플레이 시스템
본 명세서에 개시된 출원 대상은 엔터테인먼트 환경에 관한 것으로, 보다 구체적으로는, 놀이 공원 어트랙션에서 증강 현실(AR) 및 3차원(3-D) 경험을 제공하는 것에 관한 것이다.
놀이 공원 및/또는 테마 공원은 놀이 공원의 손님(예를 들어, 가족 및/또는 모든 연령의 사람들)에게 즐거움을 제공하는 데 유용한 다양한 엔터테인먼트 어트랙션, 레스토랑 및 놀이기구를 포함할 수 있다. 놀이 공원의 영역은 소정의 관람객을 특별히 대상으로 하는 다양한 테마를 가질 수 있다. 예를 들어, 소정 영역은 전통적으로 어린이의 관심을 끄는 테마를 포함할 수 있는 반면, 다른 영역은 전통적으로 성인 관람객의 관심을 끄는 테마를 포함할 수 있다. 일반적으로, 이러한 놀이 공원과 관련된 테마가 있는 장소는 어트랙션 또는 테마 어트랙션으로 지칭될 수 있다.
테마 어트랙션은 고정 장비, 건물 레이아웃, 소품, 장식 등을 사용하여 설정될 수 있으며, 대부분은 일반적으로 소정 테마와 관련될 수 있다. 동일한 장소에 상이한 테마가 설정되는 상황에서, 이전 테마와 관련된 특징부가 최신 테마와 관련된 특징부로 대체될 수 있다. 장소 테마의 복잡성에 따라, 장식, 가구, 장비, 소품 등이 제거되거나 교체될 수 있으므로, 이는 매우 어렵고 시간이 많이 소요되는 것으로 보일 수 있다. 실제로, 소정 유형의 어트랙션의 경우, 비교적 복잡한 테마가 더욱 일반화되어 손님에게 더욱 몰입감 있는 경험을 제공힌다.
이제 어트랙션 테마를 변경하는 것이 가능할 수 있는 어트랙션을 포함하거나 종래의 기법에 비해 유연하고 효율적인 방식으로 그러한 어트랙션에 소정 테마 특징부를 포함하는 것이 바람직하다고 인식된다. 그것은 또한 이제 그러한 어트랙션에 대한 손님의 몰입형 경험을 향상시키고 손님에게 보다 개인화되거나 맞춤화된 경험을 제공하는 것이 바람직할 수 있다고 인식된다.
이 섹션은 아래에서 설명 및/또는 청구되는 본 기법의 다양한 양상과 관련될 수 있는 기술의 다양한 양상을 독자에게 소개하기 위한 것이다. 이 논의는 본 발명의 다양한 양상의 더 나은 이해를 용이하게 하기 위해 독자에게 배경 정보를 제공하는데 도움이 되는 것으로 여겨진다. 따라서, 이 서술을 종래 기술의 인정으로서가 아니라 이러한 관점에서 읽어야 함을 이해해야 한다.
본 명세서에 개시된 소정 실시예의 요약이 아래에 설명된다. 이들 양상은 독자에게 이들 소정 실시예의 간략한 요약을 제공하기 위해 제시될 뿐이며, 이들 양상은 본 발명의 범위를 제한하려는 것이 아님을 이해해야 한다. 실제로, 본 발명은 아래에 설명되지 않을 수 있는 다양한 양상을 포함할 수 있다.
일 실시예에서, 사용자에게 증강 현실(AR) 및 3차원(3-D) 경험을 제공하기 위한 AR 및 3-D 뷰잉 시스템은 사용자가 현실 세계 환경을 볼 수 있는 뷰잉 어셈블리를 가진 착용형 시각화 디바이스를 포함한다. 뷰잉 어셈블리는 하나 이상의 AR 특징부를 표시하도록 구성된 제1 디스플레이와, 사용자가 하나 이상의 코딩된 2차원(2-D) 이미지를 하나 이상의 해독된 3-D 특징부로서 인식할 수 있게 하는 3-D 뷰잉 구성요소를 포함한다. AR 및 3-D 뷰잉 시스템은 하나 이상의 코딩된 2-D 이미지를 표시하도록 구성된 제2 디스플레이를 가진 고정 3-D 디스플레이 시스템을 또한 포함한다. 고정 3-D 디스플레이 시스템은 현실 세계 환경 내에 배치된다.
일 실시예에서, 사용자에게 증강 현실(AR) 및 3차원(3-D) 경험을 제공하기 위한 착용형 시각화 디바이스는 사용자가 현실 세계 환경을 볼 수있는 뷰잉 어셈블리를 포함한다. 뷰잉 어셈블리는 하나 이상의 AR 특징부를 표시하도록 구성된 제1 디스플레이를 포함한다. 뷰잉 어셈블리는 제1 디스플레이의 제1 눈 부분에 대한 제1 3-D 필터링 층 및 제1 디스플레이의 제2 눈 부분에 대한 제2 3-D 필터링 층을 포함하는 3-D 처리 어셈블리를 또한 포함한다. 제1 3-D 필터링 층 및 제2 3-D 필터링 층은 협력하여 사용자가 제2 디스플레이 상에 표시된 하나 이상의 코딩된 2차원(2-D) 이미지를 하나 이상의 해독된 3-D 특징부로서 인식할 수 있도록 하고, 제2 디스플레이는 착용형 시각화 디바이스와 분리된다.
일 실시예에서, 사용자에게 증강 현실(AR) 및 3차원(3-D) 경험을 제공하기 위한 AR 및 3-D 뷰잉 시스템은 사용자가 현실 세계 환경을 볼 수 있는 뷰잉 어셈블리를 가진 착용형 시각화 디바이스를 포함한다. 뷰잉 어셈블리는 제1 초점면 내에 하나 이상의 AR 특징부를 표시하도록 구성된 제1 디스플레이를 포함한다. 뷰잉 어셈블리는 사용자가 하나 이상의 코딩된 2차원(2-D) 이미지를 제2 초점면 내에서 하나 이상의 해독된 3-D 특징부로서 인식할 수 있게 하는 3-D 뷰잉 구성요소를 또한 포함한다. 제1 초점면과 제2 초점면은 서로 독립적이다. AR 및 3-D 뷰잉 시스템은 하나 이상의 코딩된 2-D 이미지를 표시하도록 구성된 제2 디스플레이를 가진 3-D 디스플레이 시스템을 또한 포함한다. 3-D 디스플레이 시스템은 현실 세계 환경 내에 배치된다.
전술한 특징의 다양한 개선은 본 발명의 다양한 양상과 관련하여 착수될 수 있다. 추가 특징이 또한 이러한 다양한 양상에 통합될 수도 있다. 이러한 개선 및 추가 특징은 개별적으로 또는 임의의 조합으로 존재할 수 있다.
본 발명의 이들 및 다른 특징, 양상 및 이점은 동일한 문자가 도면 전체에 걸쳐 동일한 부분을 나타내는 첨부 도면을 참조하여 다음의 상세한 설명을 읽을 때 더 잘 이해될 것이다.
도 1은 본 실시예에 따른 증강 현실(AR) 및 3차원(3-D) 뷰잉 시스템에서 사용될 수 있는 착용형 시각화 디바이스의 실시예의 예시이다.
도 2는 본 실시예에 따른 도 1의 AR 및 3-D 뷰잉 시스템 내의 착용형 시각화 디바이스의 일 실시예의 부분 분해 조립 개략도이다.
도 3은 본 실시예에 따른 도 1의 AR 및 3-D 뷰잉 시스템 내의 착용형 시각화 디바이스의 다른 실시예의 부분 분해 조립 개략도이다.
도 4는 본 실시예에 따라 승용 놀이기구 차량으로부터 사용될 수 있는 도 1의 AR 및 3-D 뷰잉 시스템의 3-D 디스플레이 시스템 및 착용형 시각화 디바이스의 예시이다.
도 5는 본 실시예에 따라 도 1의 AR 및 3-D 뷰잉 시스템을 작동시키는 프로세스의 일 실시예를 도시하는 흐름도이다.
도 6은 본 실시예에 따라 액티브 3-D 뷰잉 구성요소를 갖는 도 1의 AR 및 3-D 시청 시스템의 프로세스의 일 실시예를 도시하는 흐름도이다.
본 발명의 하나 이상의 특정 실시예가 아래에 설명될 것이다. 이들 실시예의 간결한 설명을 제공하기 위한 노력으로, 실제 구현의 모든 특징이 명세서에서 설명되지 않을 수 있다. 임의의 엔지니어링 또는 설계 프로젝트에서와 같이, 임의의 그러한 실제 구현을 개발할 때 시스템 관련 및 비즈니스 관련 제약 조건 준수와 같은 개발자의 특정 목표를 달성하기 위해 수많은 구현 특정 결정이 이루어져야 하며, 이는 구현마다 다를 수 있다. 더욱이, 그러한 개발 노력은 복잡하고 시간 소모적일 수 있지만, 그럼에도 본 발명의 이점을 갖는 당업자를 위한 설계, 제작 및 제조의 통상적인 일이라는 것임을 이해해야 한다.
본 실시예는 놀이 공원 또는 테마 공원과 관련된 어트랙션의 일부로서 증강 현실(AR) 및 3차원(3-D) 경험을 제공하는 시스템에 관한 것이다. 테마 파크 환경 내의 소정의 놀이기구 차량에 헤드 웨어러블 기술을 통합하면, 사용자가 종래의 3-D 안경을 동시에 착용하여 테마파크 환경 내에서 표시되거나 투사되는 3-D 콘텐츠를 인식하는 것이 어렵거나 비현실적이게 된다. 그러나, 프로젝터 또는 전자 디스플레이 디바이스를 포함하는 3-D 디스플레이 시스템에 의해 제공된 3-D 콘텐츠는 테마 파크 환경 내에서 사용자의 경험에 기여하는 데 여전히 유용할 수 있다. 이와 같이, 본 명세서에 개시된 AR 및 3-D 뷰잉 시스템의 실시예는 반사형 AR 기술과 3-D 뷰잉 기술을 단일 헤드셋 내에 통합하여 사용자가 헤드셋에 의해 제시된 근거리 AR 콘텐츠와 3-D 디스플레이 시스템에 의해 제시된 원거리 3-D 콘텐츠를 모두 인식할 수 있게 한다. 본 명세서에서 사용되는 바와 같이, AR은 주변 환경에 대한 사용자의 관점을 증가시키거나 수정하는 가상 특징부를 표시하는 임의의 적절한 기법을 포함한다. 예를 들어, AR 특징부는 약간 오프셋된 이미지를 사용자 앞의 착용형 디스플레이에(또는 사용자의 눈에) 투사함으로써 제공되어, 사용자가 2개의 오프셋 이미지를 AR 특징부에 광학적으로 결합할 수 있다. 또한, 3-D에 대한 언급은 사용자가 사용자의 각 눈에 제시되는 2차원(2-D), 약간 오프셋된 이미지 또는 2-D 코딩된 이미지로부터 깊이를 인지할 수 있도록 입체 3-D 효과를 제공하는 임의의 적합한 입체 기법을 포함한다. 3-D 특징부는 사용자의 각 눈이 동일한 물체의 2개의 서로 다른 이미지를 수신할 수 있게 하는 광 필터링 코팅 또는 요소를 통해 전자 디스플레이 디바이스 또는 프로젝터 스크린으로부터 시각화되며, 이는 식별가능하거나 해독된 3-D 외관으로 광학적으로 결합된다.
예를 들어, 본 실시예는 사용자가 고정 시각화 디바이스(예컨대, 전자 디스플레이 스크린, 프로젝터 스크린)를 볼 수 있는 착용형 시각화 디바이스(예컨대, 전자 고글, 디스플레이, 안경)와 같은 뷰잉 디바이스를 포함할 수 있으며, 이들은사용자에게 AR 및 3-D 경험을 제공하기 위해 함께 작동한다. 착용형 시각화 디바이스는 사용자가 착용형 시각화 디바이스의 착용형 디스플레이에 제시되는 AR 특징부와 고정 시각화 디바이스의 별개의 디스플레이에 제시되는 3-D 특징부를 모두 인식할 수 있게 하는 광학 특성을 가진 구성요소를 포함하며, 이는 3-D 디스플레이 시스템의 일부이다. 3-D 디스플레이 시스템은 사용자가 착용형 시각화 디바이스의 3-D 뷰잉 구성요소를 통해 코딩된 콘텐츠를 3차원으로 시각적으로 디코딩하거나 처리할 수 있게 하도록 코딩된 콘텐츠를 별개의 디스플레이에 제시하는 프로젝터를 포함할 수 있다. 본 명세서에서 논의된 바와 같이, 착용형 시각화 디바이스는 사용자가 수동 3-D 렌즈, 코팅 또는 필터(예를 들어, 애너글리프(anaglyph), 편광 등) 또는 능동 3-D 렌즈, 코팅 또는 필터(예컨대, 능동 셔터링 시스템)를 포함하는, 3-D 특징부를 인식할 수 있게 하는 임의의 적합한 3-D 기술을 사용할 수 있다. 3-D 디스플레이 시스템 및 착용형 시각화 디바이스는 독립적으로 작동하도록 구성될 수 있거나, 제어기(예컨대, 마스터 제어기, 컴퓨터 그래픽 생성 시스템, 하나 이상의 프로세서)를 통해 동작가능하게 연결될 수 있으며, 이는 3-D 디스플레이 시스템 및 착용형 시각화 디바이스에 의해 표시되는 시각화를 동기화 및/또는 조정할 수 있다.
착용형 시각화 디바이스 너머에 배치된 환경에서 AR 특징부와 결합하여 3-D 특징부가 인식되게 함으로써, 착용형 시각화 디바이스는 사용자가 복수의 독립적 인 초점면에서 콘텐츠를 인식할 수 있게 한다. 몇몇 경우에, 현재 개시된 착용형 시각화 디바이스의 다차원 콘텐츠는 종래의 착용형 시각화 디바이스에 의해 제공되는 단일 초점면보다 더 몰입감 있는 경험 또는 테마를 제공한다. 이처럼, 복수의 초점면을 제공하는 것은 일반적으로 AR 및 3-D 뷰잉 시스템의 사용자에게 보다 현실적이고 개인화된 엔터테인먼트 경험을 제공한다. 더욱이, 테마 공원 내에서 착용형 시각화 디바이스를 사용하는 것과 관련하여 본 명세서에서 논의되었지만, 개시된 기법은 임의의 적합한 애플리케이션을 위한 임의의 적합한 AR 디바이스에 적용될 수 있다. 예를 들어, 착용형 시각화 디바이스를 포함하는 AR 및 3-D 뷰잉 시스템은 집에 있는(예컨대: 비디오 게임 플레이), 직장에 있는(예컨대, 모델 구성, 몰입형 프레젠테이션 보기) 등의 사용자에게 3-D 및 AR 경험을 제공하는 데 사용될 수 있다.
이제 도면을 살펴보면, 도 1은 사용자(14)가 현실 세계 환경에 오버레이된 AR 및 3-D 이미지 또는 특징부를 경험(예를 들어, 보고, 상호작용)할 수 있게 하는 AR 및 3-D 뷰잉 시스템(10)의 실시예를 도시한다. 소정 실시예에 따르면, 사용자 (14)는 소정 실시예에서 전자 안경(예를 들어, AR/가상 현실 안경, 고글)을 포함할 수 있는 뷰잉 어셈블리(18)를 가진 착용형 시각화 디바이스(16)를 구매하거나 제공받을 수 있다. 착용형 시각화 디바이스(16)는 뷰잉 어셈블리 (18)의 적어도 일부를 수용하고 사용자(14)의 눈 앞의 위치에 뷰잉 어셈블리(18)를 유지하기 위해, 본 실시예에서 헤드밴드로서 예시된 착용형 부품(20)을 포함할 수 있다.
착용형 시각화 디바이스(16)는 AR 및 3-D 뷰잉 시스템(10)의 다른 특징부와 결합하여 사용되어 사용자에게 초현실적 환경에 대한 인식을 생성할 수 있다. 착용형 시각화 디바이스(16)를 통해, 사용자(14)는 현실 세계 이미지(26)를 볼 수 있는데, 이는 각각 착용형 시각화 디바이스(16)를 착용하지 않은 경우에도 일반적으로 사용자(14)가 실시간으로 볼 물리적 또는 현실 세계 환경의 특징을 나타낸다. "실시간"이라는 용어는 이미지가 사용자(14)에 의한 실제 관찰 시간 내의 또는 그에 실질적으로 가까운(예컨대, ± 0.01 초, ± 0.1 초, ± 1 초) 타임프레임에서 획득 및/또는 사용자(14)에게 제공된다는 것을 나타낸다. 본 명세서에서 논의된 바와 같이, 착용형 시각화 디바이스(16)의 뷰잉 어셈블리(18)는 (예를 들어, 반투과 또는 반투명 디스플레이를 사용하여) 사용자(14)의 뷰를 부분적으로 제어하여, 초현실적 환경(24)은 하나 이상의 AR 이미지(28)(예를 들어, 하나 이상의 AR 특징부, 가상 증강을 포함함)와 전자적으로 병합된 물리적 환경의 현실 세계 이미지(26)를 포함한다. 즉, 초현실적 환경(24)은 본 실시예에서 착용형 시각화 디바이스(16)의 뷰잉 어셈블리(18) 상에 AR 이미지(28)가 오버레이된 실제 물리적 환경을 포함한다. 다른 실시예에서, AR 이미지(28)는 사용자(14)의 눈에 직접 투사될 수 있다.
추가로 예시된 바와 같이, 착용형 시각화 디바이스(16)의 뷰잉 어셈블리(18)는 각각 사용자(14)의 한쪽 눈에 각각 대응하는 제1 디스플레이 부분(30) 및 제2 디스플레이 부분(32)을 포함한다. 다른 실시예에서, 사용자의 양 눈에 대응하는 통합 디스플레이는 착용형 시각화 디바이스(16) 내에서 이용될 수 있다. 각각의 디스플레이 부분(30, 32)은 비제한적인 예로서, AR 이미지(28)가 오버레이될 수 있는 완전히 또는 부분적으로 투명한 렌즈를 포함할 수 있다. 일 실시예에서, 디스플레이 부분(30, 32)은 디스플레이 표면이고 착용형 시각화 디바이스(16)는 그 위에 AR 이미지(28)를 오버레이하기 위해 각각의 주변부에 인접하게 위치된 특징부(예를 들어, 회로, 발광기)를 포함한다. 추가적으로 또는 대안적으로, 디스플레이 부분(3 32)은 실제 세계 이미지(26) 및 AR 이미지(28)를 사용자(14)에게 표시하는 데 유용한 임의의 적합한 반투과, 투명 또는 반투명 물질을 포함할 수 있다. 일 실시예에서, 각각의 디스플레이 부분(30, 32)은 각각 예를 들어, 사용자(14)가 각각의 디스플레이 부분(30, 32)에 나타나는 AR 이미지(28)를 실제 및 물리적 환경(예를 들어, 놀이 공원과 관련된 어트랙션 또는 승용 놀이기구 차량의 내부)에 대한 오버레이로서 볼 수 있게 하는 데 유용한 투명(예를 들어, 투시) LED 디스플레이 또는 투명 (예를 들어, 투시) OLED 디스플레이를 포함할 수 있다.
또한, 착용형 시각화 디바이스(16)의 뷰잉 어셈블리(18)를 통해, 사용자(14)는 사용자(14)가 경험하는 초현실적 환경(24)을 구성하는 3-D 이미지(40)(예를 들어, 하나 이상의 3-D 특징부를 포함함)를 볼 수 있다. 3-D 이미지(40)는 착용형 시각화 디바이스(16)와 물리적으로 분리되거나 독립된 물리적 환경 내에 위치한 3-D 디스플레이 시스템(42)의 3-D 디스플레이 상에 제시된다. 이와 같이, 사용자(14)는 착용형 시각화 디바이스(16)에 의해 정의된 제1 초점면 내의 AR 이미지(28) 및 별개의 3-D 디스플레이에 의해 정의된 제2 초점면 내의 3-D 이미지(40)를 동시에 시각화할 수 있다. 사용자(14)가 AR 이미지(28) 및 3-D 이미지(40)를 동시에 시각적으로 처리할 수 있도록 하기 위해, 뷰잉 어셈블리(18)는 뷰잉 어셈블리(18) 내에서 동작 가능하게 연결된 3-D 뷰잉 구성요소를 포함한다. 도 2 및 도 3을 참조하여 보다 상세히 논의되는 바와 같이, 3-D 뷰잉 구성요소는 사용자(14)의 눈마다 적응된 3-D 뷰잉 컴포넌트 부분을 포함하여 사용자(14)가 3-D 디스플레이 시스템(42)에 의해 제시된 3-D 이미지(40)를 인지할 수 있게 한다. 즉, 제1 3-D 뷰잉 구성요소 부분은 하나의 디스플레이 부분(30, 32)과 연관될 수 있고, 제 2 3-D 뷰잉 구성요소 부분은 다른 디스플레이 부분(30, 32)과 연관될 수 있다. 아래에서 더 상세히 설명되는 바와 같이, 3-D 이미지(40)는 임의의 적합한 수동 또는 능동 3-D 형태로 착용형 시각화 디바이스(16)를 통해 사용자(14)에게 제공되어, 뷰잉 어셈블리(18)의 3-D 뷰잉 구성요소는 하나 또는 복수의 애너글리프 필터, 편광 필터, 액정 층 등을 포함한다.
카메라(44 및 46)는 실시간 비디오 데이터 (예를 들어, 라이브 비디오) 또는 사용자(14)의 시점에 각각 대응하는 물리적 환경의 주변 광 신호를 캡처하기 위해 착용형 시각화 디바이스(16)의 본 실시예에 포함된다. 다른 실시예에서, 단일 카메라가 착용형 시각화 디바이스(16)에 의해 사용될 수 있다. 착용형 시각화 디바이스(16)는 몇몇 실시예에서 사용자의 눈 움직임을 추적하기 위한 추가 카메라를 또한 포함할 수 있으며, 이는 가상 특징부가 사용자(14)의 눈에 직접 투영되는 실시예들에 특히 유용할 수 있다.
몇몇 실시예에서, 착용형 시각화 디바이스(16)의 통신 특징부(50)(예를 들어, 무선 송수신기를 포함)는 각각의 카메라(44, 46)를 통해 캡처된 실시간 데이터(예를 들어, 비디오 데이터, 눈 추적 데이터)를 착용형 시각화 디바이스(16)의 다른 구성요소 또는 처리를 위해 이에 연결된 시스템으로 전송할 수 있다. 착용형 시각화 디바이스(16)의 다른 특징부는 착용형 시각화 디바이스(16)의 센서를 통해 획득된 데이터에 기반하여 획득 및/또는 도출된 방향 데이터, 위치 데이터, 시점 데이터(예를 들어, 초점 거리, 방향, 자세), 모션 추적 데이터 등을 전송할 수 있다. 이러한 센서는 방향 및 위치 센서(예컨대, 가속도계, 자력계, 자이로스코프, GPS(Global Positioning System) 수신기), 모션 추적 센서(예컨대, 전자기 및 고체 상태 모션 추적 센서), 관성 측정 유닛(IMU) 등을 포함할 수 있다. 소정 실시예에서, 착용형 시각화 디바이스(16)의 특징부(예를 들어, 기하학적 양상 또는 마킹)는 모니터링 시스템(58)(예를 들어, 하나 이상의 카메라)에 의해 모니터링되어 착용형 시각화 디바이스(16)의 위치, 장소, 방향 등을 그리고 차례로 사용자(14)의 위치, 장소, 방향 등을 결정할 수 있다. 모니터링 시스템(58)은 컴퓨터 그래픽 생성 시스템(60)에 통신가능하게 연결되고 사용자(14) (또는 복수의 사용자)의 위치, 장소, 방향 등을 식별하는 데 사용될 수 있다.
도시된 바와 같이, 착용형 시각화 디바이스(16)의 통신 특징부(50)를 통해, 착용형 시각화 디바이스(16)는 무선 네트워크(64)를 따라 3-D 디스플레이 시스템(42), 모니터링 시스템(58), 컴퓨터 그래픽 생성 시스템(60) 및 마스터 제어기(62)에 통신가능하게 연결된다. 무선 네트워크(64)는 무선 근거리 통신망(WLAN), 무선 원거리 통신망(WWAN), 근거리 통신(NFC), 메시형 네트워크 등을 포함할 수 있다. 실제로, 메시형 네트워크를 갖는 무선 네트워크(64)의 실시예에서, 본 명세서에서 논의된 다양한 디스플레이 가능 콘텐츠는 AR 및 3-D 뷰잉 시스템(10) 및/또는 사용자(14)의 현재 상태 또는 조건에 대해 반사적으로 또는 자동으로 로컬화될 수 있다. 본 실시예에서, 무선 네트워크(64)는 AR 및 3-D 뷰잉 시스템(10)의 각 구성요소를 통신가능하게 연결하지만, 다른 실시예에서, AR 및 3-D 뷰잉 시스템(10)의 하나 또는 복수의 구성요소는 유선 연결에 의해 통신가능하게 연결될 수 있다. 따라서, 모니터링 시스템(58), 3-D 디스플레이 시스템(42), 컴퓨터 그래픽 생성 시스템(60) 및 마스터 제어기(62)는 각각 3-D 디스플레이 시스템(42), 모니터링 시스템(58), 컴퓨터 그래픽 생성 시스템(60) 및 마스터 제어기(62)가 무선 네트워크(64)를 통해 착용형 시각화 디바이스(16)와 데이터를 전송하고/하거나 신호를 제어할 수 있게 하는 제각기의 통신 특징부(65, 66, 68, 70)을 포함한다.
이제 착용형 시각화 디바이스(16)에 통신가능하게 연결된 구성요소의 더 자세한 내용을 살펴보면, AR 및 3-D 뷰잉 시스템(10)의 컴퓨터 그래픽 생성 시스템(60)은 착용형 시각화 디바이스(16)를 통해 사용자(14)에게 제시될 AR 이미지(28)를 생성하는 역할을 한다. 예를 들어, 본 실시예의 컴퓨터 그래픽 생성 시스템(60)은 사용자(14)와 연관된 다양한 요인에 기초하여 AR 이미지(28)를 생성하기 위해 놀이 공원 내에 위치하는 서버 또는 게임 제어기이다. 이처럼, 컴퓨터 그래픽 생성 시스템(60)은 일반적으로 무선 네트워크(64)를 통해 수신된 특정 입력에 기초하여 AR 이미지(28)를 렌더링하는 상당한 처리 능력을 갖는 시스템이다. 예를 들어, 몇몇 실시예에서, 컴퓨터 그래픽 생성 시스템(60)은 착용형 시각화 디바이스(16) 및/또는 모니터링 시스템(58)으로부터 수신된 실시간 비디오 데이터(예컨대, 라이브 비디오), 방향 및 위치 데이터, 시점 데이터 또는 이들의 임의의 조합을 처리한다.
구체적으로, 컴퓨터 그래픽 생성 시스템(60)은 이 데이터를 사용하여 AR 이미지(28)를 물리적 환경, 예를 들어, 착용형 시각화 디바이스(16)를 통해 사용자가 볼 수 있는 현실 세계 이미지(26)에 등록하기 위한 기준 프레임을 생성할 수 있다. 방향 데이터, 위치 데이터, 시점 데이터, 모션 추적 데이터 등에 기초하여 생성된 기준 프레임을 사용하면, 컴퓨터 그래픽 생성 시스템(60)은 착용형 시각화 디바이스(16)를 착용하지 않은 경우 사용자(14)가 인식하는 것과 시간적으로 및 공간적으로 부합하는 방식으로 AR 이미지(28)의 뷰를 렌더링할 수 있다. 컴퓨터 그래픽 생성 시스템(60)은 AR 이미지(28)의 렌더링을 지속적으로 (예를 들어, 실시간으로) 업데이트하여 각각의 사용자(14)의 각각의 방향, 위치 및/또는 모션의 변화를 반영할 수 있다.
소정 실시예에서, 컴퓨터 그래픽 생성 시스템(60)은 승용 놀이기구 차량 내에 위치된다. 컴퓨터 그래픽 생성 시스템(60)은 복수의 사용자(14)(예를 들어, 승용 놀이기구 차량의 승객)에 대응하는 데이터를 추적할 수 있으며, 각각의 사용자(14) (또는 적어도 몇몇 사용자(14))는 대응하는 착용형 시각화 디바이스(16)를 갖는다. 몇몇 실시예에서, 컴퓨터 그래픽 생성 시스템(60)은 승용 놀이기구 차량 내의 각각의 착용형 시각화 디바이스(16)를 통해 표시하기 위한 AR 이미지(28)를 생성한다. AR 이미지(28)의 생성 후 또는 생성 중에, 컴퓨터 그래픽 생성 시스템(60)은 뷰잉 어셈블리(18) 상에 표시하기 위해 AR 이미지(28)(예를 들어, AR 이미지(28)를 나타내는 데이터)를 착용형 시각화 디바이스(16)에 실시간으로 제공한다. 다른 실시예에서, 컴퓨터 그래픽 생성 시스템(60)은 마스터 제어기(62) 등과 연결된 착용형 시각화 디바이스(16)에 포함될 수 있다.
더욱이, AR 및 3-D 뷰잉 시스템(10)의 3-D 디스플레이 시스템(42)은 사용자(14)가 경험하는 초현실적 환경(24)을 구성하는 3-D 이미지(40)를 표시하는 역할을 한다. 몇몇 실시예에서, 3-D 이미지(40)는 3-D 디스플레이 시스템(42)의 메모리로부터 검색되지만, 다른 실시예에서, 컴퓨터 그래픽 생성 시스템(60)은 착용형 시각화 디바이스(16) 및 3-D 디스플레이 시스템(42) 모두에 의해 공유되어 컴퓨터 그래픽이 생성 시스템(60)이 3-D 이미지(40)를 생성하고 3-D 이미지(40)(예를 들어, 3-D 이미지(40)를 나타내는 데이터)를 3-D 디스플레이 시스템(42)에 전송한다. 추가적으로, 몇몇 실시예에서, 3-D 디스플레이 시스템(42)은 3-D 이미지(40)를 생성하기 위한 자신의 컴퓨터 그래픽 생성 시스템(60)을 포함한다. 아래에 보다 상세히 논의되는 바와 같이, 3-D 디스플레이 시스템(42)은 코딩된 2-D 이미지가 사용자(14)에게 제시되는 프로젝터 스크린 또는 전자 디스플레이 디바이스와 같은 별개의 고정 디스플레이를 포함한다. 본 명세서에서 언급된 바와 같이, 코딩된 2-D 이미지는 임의의 적합한 3-D 뷰잉 기술을 통해 깊이가 인식될 수 있는 물체의 임의의 적합한 평면 도시를 포함한다. 예를 들어, 코딩된 2-D 이미지는 입체 또는 해독 디바이스 또는 구성요소를 통해 볼 때, 하나 또는 복수의 물체에 깊이의 착각을 제공하는 하나 또는 복수의 물체의 평면 오프셋 관점을 포함할 수 있다. 해독 디바이스 또는 구성요소 없이 볼 때, 코딩된 2-D 이미지는 일반적으로 흐릿하거나 식별할 수 없다. 따라서, 착용형 시각화 디바이스(16)의 뷰잉 어셈블리(18)를 통해 코딩된 2-D 이미지를 봄으로써, 사용자(14)는 코딩된 2-D 이미지를 3차원으로 시각적으로 해독하여 3-D 이미지(40)를 드러낸다. 본 실시예는 간결함을 위해 사용자(14)에게 3-D 이미지(40)를 제시하거나 표시하는 것과 관련하여 설명될 수 있지만, 사용자(14)에게 제시된 이미지는 일반적으로 착용형 시각화 디바이스(16)를 통해 깊이가 인식되는 이러한 2-D 도시를 포함한다. 실제로, 본 명세서에서 더 자세히 논의되는 바와 같이, 3-D 이미지(40)는 현실 세계 이미지(26)에 대한 오버레이로서 AR 이미지(28)와 결합하여 인식되므로, 사용자(14)에게 향상된 뷰잉 경험을 제공한다.
AR 및 3-D 뷰잉 시스템(10)의 본 실시예의 마스터 제어기(62)(예를 들어, 쇼 제어기)는 본 명세서에 개시된 AR 및 3-D 뷰잉 시스템(10)의 구성요소의 동작을 조정한다. 예를 들어, 마스터 제어기(62)는 무선 네트워크(64)를 통해 컴퓨터 그래픽 생성 시스템(60), 3-D 디스플레이 시스템(42) 및 착용형 시각화 디바이스(16)에 제어 신호를 제공한다. 일반적으로, 본 실시예의 마스터 제어기(62)는 컴퓨터 그래픽 생성 시스템(60)에 AR 이미지(28)를 생성하여 착용형 시각화 디바이스(16)에 제공하도록 지시한다. 몇몇 실시예에서, 마스터 제어기(62)는 컴퓨터 그래픽 생성 시스템(60)에 3-D 이미지(40)를 생성하고 3-D 디스플레이 시스템(42)에 제공하도록 지시한다. 더욱이, 마스터 제어기(62)는 각각 제어되고 맥락화되고/되거나 개별화된 방식으로, 착용형 시각화 디바이스(16)에 AR 이미지(28)를 사용자(14)에게 제시하도록 지시하고, 3-D 디스플레이 시스템(42)에 사용자(14)에게 3-D 이미지(40)를 제시하도록 지시한다. AR 및 3-D 뷰잉 시스템(10)의 예시적인 실시예가 도 2 및 도 3을 참조하여 아래에서 논의된다.
도 2는 AR 및 3-D 뷰잉 시스템(10) 내의 착용형 시각화 디바이스(16)의 실시 예의 부분 분해 조립 개략도 도시한다. 도시된 바와 같이, 착용형 시각화 디바이스(16)는 사용자(14)가 착용형 시각화 디바이스(16)에 의해 제시되는 AR 이미지(28)와 3-D 디스플레이 시스템(42)에 의해 제시되는 3-D 이미지(40)를 동시에 볼 수 있게 하는 뷰잉 어셈블리(18)를 포함한다. 착용형 시각화 디바이스(16)를 착용할 때, 뷰잉 어셈블리(18)는 사용자(14)의 눈 앞에 유지되는데, 사용자(14)의 제1 눈 앞에는 제1 디스플레이 부분(30)이 있고 사용자(14)의 제2 눈 앞에는 제2 디스플레이 부분(32)이 있다. 디스플레이 부분(30, 32)은 도 2에 별도로 도시되지 않는다.
뷰잉 어셈블리(18)의 구성요소에 대한 더 나은 이해를 가능하게 하기 위해, AR 이미지(28)를 뷰잉 어셈블리(18)에 투영하도록 동작하는 착용형 시각화 디바이스(16)의 구성요소의 동작에 관한 세부사항이 여기에 먼저 제공된다. 즉, 착용형 시각화 디바이스(16)는 뷰잉 어셈블리(18)를 통해 AR 이미지(28)의 표시를 용이하게 하는 소정의 전자 구성요소를 포함한다. 예를 들어, 도시된 실시예에서, 착용형 시각화 디바이스(16)는 프로세서(102) 및 메모리(104)와 같은 처리 회로(100)를 포함한다. 프로세서(102)는 현재 개시된 기법을 수행, 예를 들어, AR 이미지(28)(예를 들어, 가상 특징부 또는 이미지)를 제시하거나 렌더링하기 위한 명령어를 실행하도록 메모리(104)에 동작가능하게 연결된다. 몇몇 실시예에서, 이러한 명령어는 메모리(104) 및/또는 다른 스토리지와 같은 유형의 비일시적 컴퓨터 판독가능 매체에 저장된 프로그램 또는 코드로 인코딩된다. 프로세서(102)는 범용 프로세서, SoC(system-on-chip) 디바이스, ASIC(application-specific integrated circuit) 또는 몇몇 다른 유사한 프로세서 구성일 수 있다.
추가적으로, 착용형 시각화 디바이스(16)의 통신 특징부(50)는 착용형 시각화 디바이스(16)가 무선 네트워크(64)를 통해 컴퓨터 그래픽 생성 시스템(60), 마스터 제어기(62) 및/또는 3-D 디스플레이 시스템(42)과 통신할 수 있게 하도록 프로세서(102)에 동작가능하게 연결된다. 예를 들어, 본 실시예의 컴퓨터 그래픽 생성 시스템(60)은 프로세서(110)(예를 들어, 범용 프로세서 또는 다른 프로세서) 및 메모리(112)를 포함하며, 둘다 통신 특징부(68)에 동작가능하게 연결된다. 컴퓨터 그래픽 생성 시스템(60)은 일반적으로 착용형 시각화 디바이스(16)보다 더 많은 처리 능력을 포함하기 때문에, 컴퓨터 그래픽 생성 시스템(60)은 착용형 시각화 디바이스(16)를 통해 표시할 AR 이미지(28)를 생성할 수 있을뿐만 아니라 무선 네트워크(64)를 통해 착용형 시각화 디바이스(16)로 AR 이미지(28)를 전송할 수도 있다. 복수의 착용형 시각화 디바이스(16)를 가진 실시예에서, 컴퓨터 그래픽 생성 시스템(60)은 각각의 착용형 시각화 디바이스(16)에 대한 AR 이미지(28)를 제공할 수 있다.
더욱이, 착용형 시각화 디바이스(16)의 프로세서(102)는 착용형 시각화 디바이스(16)의 뷰잉 어셈블리(18) 상에 AR 이미지(28)를 표시하는 광(122)을 생성 및 투사하는 마이크로프로젝터(120)(예를 들어, 광원, OLED 디스플레이 디바이스)에 동작가능하게 연결된다. 착용형 시각화 디바이스(16)는 몇몇 실시예에서 사용자의 눈마다 하나의 마이크로프로젝터를 포함할 수 있음을 이해해야 한다. 마이크로프로젝터로부터 광(122)을 수신하고 그로부터 AR 이미지(28)를 시각화하는 사용자(14)의 눈(120)으로 리디렉션하기 위해, 착용형 시각화 디바이스(16)의 뷰잉 어셈블리(18)는 착용형 디스플레이(124)(예를 들어, 제1 디스플레이, 근거리 디스플레이)를 포함한다. 평면 또는 직사각형 구성요소로 도시되어 있지만, 뷰잉 어셈블리(18)의 착용형 디스플레이(124) 및 다른 구성요소는 광(122)을 사용자(14)의 눈으로 향하게 하는 임의의 적합한 굴곡을 포함할 수 있음을 이해해야 한다. 디스플레이 부분(30, 32)과 관련하여 앞에서 소개된 바와 같이, 착용형 디스플레이(124)는 아래에서 논의되는 3-D 이미지(40)를 나타내는 광을 포함하여 물리적 환경으로부터 방출되는 주변 광이 사용자(14)의 눈에 도달될 수 있게 하기에 충분히 투명한 반투과(예를 들어, 부분 반투명, 부분 반사) 구성요소이다. 뷰잉 어셈블리(18)의 반사 특성을 더욱 향상시키기 위해, 반-반사 코팅(130) 또는 필름이 본 실시예의 뷰잉 어셈블리(18) 내에 배치된다. 보다 구체적으로, 반-반사 코팅(130)은 본 실시예에서 착용형 디스플레이(124)의 사용자 대면 표면(132)과 사용자(14) 사이에 위치된다. 반-반사 코팅(130)은 사용자(14)가 마이크로프로젝터(120)에 의해 착용형 디스플레이(124) 상에 투사된 AR 이미지(28)를 인식할 수 있게 하는 임의의 적합한 물질일 수 있다.
착용형 시각화 디바이스(16)의 3D 뷰잉 기능과 관련하여, 착용형 시각화 디바이스(16)는 사용자가 3-D 이미지(40)를 인식할 수 있게 하는 3-D 뷰잉 구성요소(140)를 포함한다. 예를 들어, 본 실시예에서, 뷰잉 어셈블리(18)의 3-D 뷰잉 구성요소(140)는 사용자(14)에게 제시된 3-D 이미지(40)를 광학적으로 디코딩하는 수동 3-D 렌즈(142)를 포함한다. 수동 3-D 렌즈(142)는 몇몇 실시예에서 착용형 디스플레이(124)에 도포된 코팅 또는 착용형 디스플레이(124)에 인접하게 유지된 가요 성 필름이다. 추가적으로, 착용형 디스플레이(124)의 환경 대면 표면(144)에 인접하게 배치된 것으로 도시되었지만, 3-D 뷰잉 구성요소(140)는 뷰잉 어셈블리(18) 내의 임의의 다른 적절한 구성으로 위치될 수 있다는 것을 이해해야 한다.
일반적으로, 3-D 뷰잉 구성요소(140)는 뷰잉 어셈블리(18)의 제1 디스플레이 부분(30)을 위한 제1 필터 및 뷰잉 어셈블리의 제2 디스플레이 부분(32)을 위한 것으로 상이한 광학 특성 또는 품질을 포함하는 제2 필터를 포함한다. 예를 들어, 몇몇 실시예에서, 3-D 뷰잉 구성요소(140)는 제1 디스플레이 부분(30)을 위한 제1 애너글리프 렌즈 또는 필터(예를 들어, 청색 필름) 및 제2 디스플레이 부분(32)을 위한 제2 애너글리프 렌즈 또는 필터(예를 들어, 적색 필름)를 포함하는 광-필터링 렌즈 어셈블리 또는 3-D 필터링 층이다. 다른 실시예에서, 3-D 뷰잉 구성요소(140)는 제1 디스플레이 부분(30)을 위한 제1 편광(예를 들어, 시계 방향, 수직)을 갖는 제1 편광 렌즈 및 제2 디스플레이 부분(32)을 위한 제2 반대 편광(예를 들어, 시계 반대 방향, 수평)을 갖는 제2 편광 렌즈를 포함하는 광-필터링 렌즈 어셈블리 또는 3-D 필터링 층이다. 따라서 3D 뷰잉 구성요소(140)는 파장 필터링 또는 편광 필터링을 이용하여 사용자(14)가 보기 위한 3-D 이미지(40)를 조절한다. 이처럼, 착용형 시각화 디바이스(16)를 착용할 때, 3-D 뷰잉 구성요소(140)는 사용자(14)의 한쪽 눈에 3-D 이미지(40)의 제1 관점 또는 부분을 제공하고, 사용자(14)의 다른 눈에 3-D 이미지(40)의 제2 오프셋된 관점 또는 부분을 제공한다. 상대적으로 오프셋 된 이미지는 오프셋 이미지들 사이의 오프셋의 크기에 기초하여 변하는 특정 초점 길이에서 3-D 이미지(40)를 시각화하는 사용자(14)에게 깊이의 인식을 제공한다.
뷰잉 어셈블리(18)는 3-D 뷰잉 구성요소(140)의 환경-대면 표면(152)에 인접하게 배치된 눈부심 방지 코팅(150) 또는 필터를 또한 포함할 수 있다. 눈부심 방지 코팅(150)은 뷰잉 어셈블리(18)를 통해 강한 광원으로부터의 광의 투과를 감소시키는 임의의 적합한 반불투명 또는 차광 물질이며 이와 달리 AR 이미지(28) 및 3-D 이미지(40)를 가릴 것이다. 다른 실시예에서, 눈부심 방지 코팅(150)이 생략되고 및/또는 모자 테두리가 사용자에 의해 착용되어 뷰잉 어셈블리(18) 상으로의 눈부심을 감소시킨다. 또한, 뷰잉 어셈블리(18)가 본 명세서에서 논의된 3-D 디스플레이 시스템(42)으로부터의 광에 대해 충분히 투명하여 사용자(14)가 3-D 이미지(40)를 적절히 시각화할 수 있게 하고, 마이크로프로젝터(120)로부터의 광(122)에 충분히 반사되어 사용자(14)가 AR 이미지(28)를 적절하게 시각화할 수 있게 한다면, 뷰잉 어셈블리(18)의 코팅은 서로에 대해 임의의 적절한 순서로 배치될 수 있음을 이해해야 한다.
사용자(14)가 3-D 디스플레이 시스템(42)을 마주할 때, 3-D 디스플레이 시스템(42)은 3-D 이미지(40)를 나타내는 광을 뷰잉 어셈블리(18)로 향하게 한다. 3-D 이미지(40)를 사용자(14)에게 제시하기 위해, 3-D 디스플레이 시스템(42)은 착용형 시각화 디바이스(16)와 별개인 고정 디스플레이(160)(예를 들어, 제2 디스플레이, 원격 디스플레이)를 포함한다. 본 실시예에서, 고정 디스플레이(160)는 프로젝터 스크린(161) 또는 벽 또는 프로젝션 표면이며, 그 위에 3-D 디스플레이 시스템(42)의 프로젝터(162)(예컨대, 3-D 프로젝터)가 3-D 이미지(40)를 오버레이한다. 프로젝터(162)는 프로세서(164), 메모리(166), 발광 디바이스(168) 및 프로세서(164)에 동작 가능하게 연결되고 무선 네트워크(64)에 통신 가능하게 연결되는 통신 특징부(66)를 포함한다. 발광 디바이스(168)는 프로세서(164)에 의해 제공된 명령어에 응답하여 3D 이미지(40)를 나타내는 광(170)을 고정 디스플레이(160)로 선택적으로 향하게 하는 렌즈, 광원 및/또는 레이저의 임의의 적합한 시스템이다. 실제로 본 명세서에서 논의된 바와 같이, 발광 디바이스(168)는 복수의 사용자(14)를 위해 개별화된 3-D 콘텐츠를 표시할 수 있는 다중화 렌즈 또는 임의의 다른 적합한 다중화 구성요소를 포함할 수 있다. 추가적으로, 프로세서(164)는 메모리(166)로부터 3-D 이미지(40)를 나타내는 데이터를 검색하고, 발광 디바이스(168)에 3-D 이미지(40)를 나타내는 광(170)을 생성하도록 지시한다. 다른 실시예에서, 발광 디바이스(168)는 컴퓨터 그래픽 생성 시스템(60)으로부터, 프로젝터(162)의 입력/출력 디바이스 내에 배치된 저장 구성요소 등으로부터 3-D 이미지(40)를 나타내는 데이터를 수신할 수 있다.
본 명세서에서는 3D 디스플레이 시스템(42)이 현실 세계 환경 내에 움직이지 않는 고정 디스플레이(160)에 관하여 논의되지만, 몇몇 실시예에서 고정 디스플레이(160) 및/또는 프로젝터(162)가 이동 가능할 수 있음을 이해해야 한다. 예를 들어, 고정 디스플레이(160) 및/또는 프로젝터(162)는 승용 놀이기구 차량에 부착되거나, 트랙을 따라 이동 가능하거나, 임의의 적절한 액추에이터에 의해 제자리에서 조정가능할 수 있다. 이러한 실시예에서, 액추에이터는 마스터 제어기(62)로부터 고정 디스플레이(160) 및/또는 프로젝터(162)의 이동을 조정하기 위한 제어 신호를 수신할 수 있다.
마스터 제어기(62)에 의해 조정된 바와 같이, AR 및 3-D 뷰잉 시스템(10)의 동작 동안, AR 이미지(28)는 착용형 디스플레이(124)와 연관된 제1 초점면(180) 내에 표시되고, 3-D 이미지(40)는 고정 디스플레이(160)와 연관된 제2 초점면(182) 내에 표시된다. 즉, 마스터 제어기(62)는 착용형 시각화 디바이스(16) 및 3-D 디스플레이 시스템(42)에 타이밍 신호 또는 제어 신호를 제공하기 위해 프로세서(184), 메모리(186) 및 통신 특징부(70)를 포함한다. 타이밍 신호에 기초하여, 착용형 시각화 디바이스(16) 및 3-D 디스플레이 시스템(42)은 각각 사용자(14)가 동시에 시각화하기 위한 AR 이미지(28) 및 3-D 이미지(40)를 생성한다. 고정 디스플레이(160)가 현실 세계 환경 내에 위치되고, 착용형 디스플레이(124)가 사용자(14)의 움직임에 의해 사용되고 이동되므로, 제1 초점면(180)과 제2 초점면(182)은 서로 독립적이다. 즉, 하나의 초점면(180, 182)의 포지셔닝은 다른 초점면(180, 182)의 포지셔닝에 영향을 주지 않아서 초점면(180, 182)은 예시된 실시예에서 서로 상이하다. 따라서 사용자(14)는 종래의 착용형 시각화 디바이스를 사용하여 제공되는 경험보다 더 사실적인 가상 콘텐츠의 뷰잉 경험을 즐기기 위해 복수의 초점면에서 콘텐츠를 시각화할 수 있다.
도 3은 AR 및 3-D 뷰잉 시스템(10) 내에서 사용되는 착용형 시각화 디바이스(16)의 다른 실시예의 부분 분해 조립 개략도를 도시한다. 뷰잉 어셈블리(18)를 통해, 착용형 시각화 디바이스(16)는 도 2의 착용형 시각화 디바이스(16)의 동작과 실질적으로 유사한 방식으로 사용자(14)가 착용형 디스플레이(124)에 제시된 AR 이미지(28) 및 3-D 디스플레이 시스템(42)에 의해 제시된 3-D 이미지(40)를 볼 수 있게 한다. 그러나, 도 2의 착용형 시각화 디바이스(16)의 수동 3-D 렌즈(142) 대신에, 본 실시예의 3-D 뷰잉 구성요소(140)는 능동 셔터링 시스템(200)(예를 들어, 능동 셔터링 렌즈를 가짐)이다. 일반적으로, 수동 3D 시스템에 비해, 능동 셔터링 시스템(200)은 사용자(14)에 대해 표시된 3-D 이미지(40)를 조정하고 맞춤화하기 위한 추가 맞춤화 계층 또는 제어 핸들을 제공한다. 즉, 본 실시예의 능동 셔터링 시스템(200)은 본 명세서에서 논의된 바와 같이 사용자(14)가 보는 3-D 이미지(40)에 대한 더 많은 제어 및 맞춤화를 제공하도록 착용형 시각화 디바이스(16)에 의해 제어가능하다.
보다 구체적으로, 본 실시예의 능동 셔터링 시스템(200)은 뷰잉 어셈블리(18) 내에 배치된 액정 층(202)(예를 들어, 다중화 코팅 또는 능력)을 포함한다. 도시된 바와 같이, 액정 층(202)은 착용형 디스플레이(124)와 반-반사 코팅(130) 사이에 위치한다. 다른 실시예에서, 액정 층(202)은 뷰잉 어셈블리(18)의 반-반사 코팅(130), 착용형 디스플레이(124) 및/또는 눈부심 방지 코팅(150)의 작동을 방해하지 않는 뷰잉 어셈블리(18) 내의 임의의 다른 적합한 위치에 배치될 수 있다. 예를 들어, 액정 층(202)은 몇몇 실시예에서 착용형 디스플레이(124)와 눈부심 방지 코팅(150) 사이에 위치한다.
액정 층(202)은 착용형 시각화 장치(16)의 프로세서(102)에 의해 출력되는 제어 신호(예를 들어, 전압원, 전원)에 응답하여 조정되는 광학 특성을 갖는 제어 가능한 요소이다. 또한, 본 실시예의 액정 층(202)은 착용형 시각화 디바이스(16)의 제1 디스플레이 부분(30)을 위한 제1 액정 층 부분과 착용형 시각화 디바이스(16)의 제2 디스플레이 부분(32)을 위한 제2 액정 층 부분 사이에 분할된다. 즉, 제어 신호의 인가에 기초하여, 액정 층(202)의 각각의 액정 층 부분은 불투명 상태와 반투명 상태 사이에서 조정된다. 이와 같이, 액정 층(202)의 액정 층 부분에 제공되는 제어 신호를 수신하는 것에 응답하여, 뷰잉 어셈블리(18)는 하나의 디스플레이 부분(30, 32)을 개방 셔터링(예를 들어, 투명하게 함)하고 다른 디스플레이 부분(30, 32)을 폐쇄 셔텨링(예를 들어, 불투명하게 만듦)할 수 있다. 이와 같이, 능동 셔터링 시스템(200)의 액정 층(202)은 광의 방향 또는 파장에 기초하는 대신에 광이 방출되는 시간에 기초하여 사용자(14)에게 보이는 광을 필터링하는 3-D 필터링 층이다.
다른 실시예에서, 액정 층(202)은 제어 신호가 프로세서(102)에 의해 제공되지 않을 때 불투명할 수 있고, 제어 신호의 인가 또는 수신에 응답하여 투명해진다. 몇몇 실시예에서, 액정 층 부분은 반대 상태 배향을 가지는바, 액정 층(202)에 제어 신호를 인가하면 제1 액정 층은 불투명하게 되지만 제2 액정 층은 투명하게 되고, 제어 신호를 인가하지 않으면 제2 액정 층은 불투명하게 되지만 제1 액정 층 부분은 반투명하게 된다. 이들 실시예에서, 두 액정 층 부분 모두를 수정하기 위해 단일 제어 신호에 의존하는 것은 능동 셔터링 시스템(200)이 동기화되지 않을 기회를 감소시킬 수 있다.
도시된 실시예에서, 착용형 시각화 디바이스(16)는 프로세서(102)와 액정 층(202) 사이에 동작 가능하게 연결되는 전원(206)을 더 포함한다. 이와 같이, 프로세서(102)는 액정 층(202)에 제어 신호를 선택적으로 제공하는 전원(206)의 작동을 제어하는 제어 신호를 제공한다. 몇몇 실시예에서, 전원(206)은 마이크로프로젝터(120)와 같은 착용형 시각화 디바이스(16)의 다른 구성요소에 에너지를 제공하는 동일한 전원(206)이다. 전원(206)에 의해 제공되는 제어 신호에 응답하여, 액정 층(202)의 액정 층 부분의 광학 특성이 선택적으로 조정된다. 다른 실시예에서, 프로세서(102)는 전원(206)에 의존하지 않고 직접 액정 층(202)에 제어 신호를 제공한다.
AR 및 3-D 디스플레이 시스템(42)의 동작 동안, 예를 들어, 임의의 적합한 다중화 구성요소 및/또는 프로세스를 통해, 능동 셔터링 시스템(200)은 액정 층(202)의 액정 층 부분을 셔터링하지만, 3-D 디스플레이 시스템(42)은 고정 디스플레이(160)에 제시된 3-D 이미지(40)를 교번한다. 즉, 3D 디스플레이 시스템(42)에 의해 제시되는 3-D 이미지(40)는 능동 셔터링 시스템(200)의 셔터링과 협력하여 상대적으로 오프셋된 이미지들 사이에서 빠르게 변한다. 이와 같이, 사용자(14)의 왼쪽 눈 및 오른쪽 눈은 각각 서로로부터 오프셋되는 3-D 디스플레이 시스템(42)으로부터 이미지의 각각의 관점을 수신한다. 따라서 사용자(14)는 3-D 이미지(40)의 상이한 관점으로부터 깊이를 인식할 수 있는바, 3-D 이미지를 3차원으로서 드러낸다. 몇몇 실시예에서, 3-D 디스플레이 시스템(42) 및 능동 셔터링 시스템(200)은 60 헤르츠, 100 헤르츠, 120 헤르츠, 또는 사용자(14)가 실시간, 사실적 또는 실제와 같은 방식으로 3-D 이미지(40)를 볼 수 있게 하는 임의의 충분히 높은 재생률(예를 들어, 초당 버퍼 업데이트)로 이미지를 셔터링하거나 변경한다. 위에서 논의된 바와 같이, 3-D 이미지(40)는 착용형 디스플레이(124) 상에 제시된 AR 이미지(28)와 결합하여 보인다.
능동 셔터링 시스템(200)을 통해 사용자(14)에게 3-D 이미지(40)를 표시하기 위해, AR 및 3-D 뷰잉 시스템(10)은 고정 디스플레이(160)로서 전자 디스플레이 디바이스(210)(예컨대, 텔레비전 스크린)를 갖는 3-D 디스플레이 시스템(42)의 실시예를 포함한다. 본 실시예의 전자 디스플레이 디바이스(210)는 도 2의 프로젝터(162)와 관련하여 앞에서 논의된 바와 같이, 메모리(166) 및 통신 특징부(66)에 동작 가능하게 연결된 프로세서(164)를 포함한다. 프로젝터(162)와 유사하게, 전자 디스플레이 디바이스(210)는 다중화 신호가 복수의 사용자(14)에게 개별적으로 제시되는 복수의 신호로 분할될 수 있게 하도록 임의의 적합한 멀티플렉서 디바이스 및/또는 디멀티플렉서 디바이스를 또한 포함할 수 있다. 통신 특징부(66)는 전자 디스플레이 디바이스(210)가 무선 네트워크(64)를 통해 컴퓨터 그래픽 생성 시스템(60), 마스터 제어기(62) 및 착용형 시각화 디바이스(16)와 통신할 수 있게 하는 임의의 적합한 송수신기 또는 안테나이다. 전자 디스플레이 디바이스(210)의 고정 디스플레이(160)는 전자 디스플레이 디바이스(210)의 메모리(166) 내에 저장된 데이터에 기초하여 3-D 이미지(40)를 표시한다. 그러나, 다른 실시예에서, 3-D 이미지(40)는 컴퓨터 그래픽 생성 시스템(60)에 의해 생성되고 무선 네트워크(64)를 통해 전자 디스플레이 디바이스(210)에 실시간 데이터 스트림으로서 전송된다. 따라서 전자 디스플레이 디바이스(210)의 고정 디스플레이(160)는 사용자(14)가 착용형 시각화 디바이스(16)를 통해 3-D 이미지(40)를 인식할 수 있게 하도록 교대로 사용자(14)에게 3-D 이미지(40)의 오프셋 이미지를 제시한다.
3-D 디스플레이 시스템(42)의 전자 디스플레이 디바이스(210)는 IR 신호, 동기화 신호 또는 타이밍 신호와 같은 셔터링 신호를 착용형 시각화 디바이스(16)의 수신기(222)(예를 들어, IR 수신기)로 전송하는 송신기(220)(예를 들어, 적외선 [IR] 송신기)를 또한 포함한다. 송신기(220)로부터의 셔터링 신호에 기초하여, 착용형 시각화 디바이스(16)는 착용형 시각화 디바이스(16)의 각각의 디스플레이 부분(30, 32)에 대한 액정 층(202)의 액정 층 부분의 셔터링을 3-D 이미지(40)의 오프셋 이미지의 스위칭과 조정하거나 정렬한다. 따라서 착용형 시각화 디바이스(16) 및 고정 디스플레이(160)는 피드포워드 및/또는 피드백을 사용하여 실질적으로 동일한 재생률(예를 들어, 5% 이내)로 서로 협력하여 동작하도록 제어할 수 있다.
본 명세서에서 인식되는 바와 같이, 더 높은 재생률로의 3-D 디스플레이 시스템(42)의 작동은 AR 이미지(28)와 함께 제시되는 3-D 이미지(40)의 보다 사실적인 뷰를 제공한다. 또한, 충분히 높은 재생률로 작동하는 경우, 3-D 뷰잉 구성요소(140)로서의 능동 셔터링 시스템(200)의 사용은 AR 및 3-D 뷰잉 시스템(10)이 착용형 시각화 디바이스(16)를 통해 고정 디스플레이(160)를 보는 각각의 사용자(14) 또는 각각의 사용자 그룹(14)에 대해 고정 디스플레이(160)에 제시된 콘텐츠가 개별화하게 하며, 이는 이하에서 더 상세히 논의된다. 일반적으로, 개별화된 콘텐츠는 다수의 그룹에 3-D 디스플레이 시스템의 재생률을 60 헤르츠로 나눈 것과 동일한 값 또는 다른 적절한 재생률 임계값으로 제공되어 각 그룹이 재생률 임계값 이상으로 콘텐츠를 수신할 수 있다.
복수의 사용자(14)에게 3-D 콘텐츠를 제공하기 위한 AR 및 3-D 뷰잉 시스템(10)의 예로서, 도 4는 놀이 공원(250) 내에서 도 3을 참조하여 설명된 착용형 시각화 디바이스(16) 중 하나를 각각 착용하고 있는 두 명의 사용자(14)를 도시한다. 앞에서 논의된 바와 같이, 각각의 착용형 시각화 디바이스(16)는 앞에서 논의된 착용형 디스플레이(124)(예를 들어, 제1 디스플레이, 제3 디스플레이) 중 하나 및 3-D 뷰잉 구성요소(140) 중 하나를 포함한다. 이와 같이, 착용형 시각화 디바이스(16) 중 하나는 제1 3-D 뷰잉 구성요소(140)를 포함하고 착용형 시각화 디바이스(16) 중 다른 하나는 제2 3-D 뷰잉 구성요소(140)를 포함한다. 사용자(14)는 롤러코스터 또는 다크 라이드(dark ride)와 같은 스릴 라이드(thrill ride)(256)의 놀이기구 경로(254)(예를 들어, 트랙)를 따라 이동할 수 있는 승용 놀이기구 차량(252)에 있다. 도시된 실시예에서, 놀이기구 경로(254)는 추가적인 놀이 어트랙션(262)(예를 들어, 대회전 관람차), 공원 시설 몰(264)(예를 들어, 게임 구역, 호텔, 레스토랑, 기념품 가게) 및 주변 물리적 환경(260) 다른 요소의 뷰 내의 주변 물리적 환경(260)을 통해 제공된다.
3-D 디스플레이 시스템(42)은 물리적 환경(260) 내에 배치되고 놀이기구 경로(254)에서 볼 수 있는 제1 전자 디스플레이 디바이스(270) 및 제2 전자 디스플레이 디바이스(272)를 포함한다. 복수의 전자 디스플레이 디바이스(270, 272)를 포함함으로써, AR 및 3D 뷰잉 시스템(10)은 사용자(14)가 스릴 라이드(256)의 일부 또는 전체 기간 동안 3-D 이미지(40)를 인식할 수 있게 한다. 3-D 디스플레이 시스템(42)의 전자 디스플레이 디바이스(270, 272)는 본 실시예에서 고정되거나 움직이지 않는바, 승용 놀이기구 차량(252)이 전자 디스플레이 디바이스(270, 272)의 고정 디스플레이(160)(예를 들어, 제2 디스플레이)를 지나 놀이기구 경로(254)를 따라 이동할 수 있다. 다른 실시예에서, 전자 디스플레이 디바이스(270, 272)는 이동할 수있는 반면, 승용 놀이기구 차량(252)은 정지되어 있다. 추가로, 몇몇 실시예에서, 프로젝터 스크린(161) 및 프로젝터(162)는 사용자(14)에게 3-D 이미지(40)를 제시하기 위해 전자 디스플레이 디바이스(270, 272)에 추가로 또는 대안으로서 사용될 수 있음을 이해해야 한다.
전자 디스플레이 디바이스(270, 272)는 일반적으로 도 3과 관련하여 앞에서 논의된 전자 디스플레이 디바이스(210)와 유사한 방식으로 동작하므로, 각각은 착용형 시각화 디바이스(16)의 능동 셔터링 시스템(200)의 동작을 조정하기 위한 송신기(220)를 포함한다. 3-D 디스플레이 시스템(42)의 송신기(220)는 각 사용자(14)의 착용형 시각화 디바이스(16)에 제어 신호를 전송하여 착용형 시각화 디바이스(16)가 사전결정되고 제어된 방식으로 뷰잉 어셈블리(18)를 셔터링할 수 있게 한다. 이와 같이, 사용자(14)는 각각의 전자 디스플레이 디바이스(270, 272)의 고정 디스플레이(160)와 연관된 초점면에서 각각의 전자 디스플레이 디바이스(270, 272)로부터 3-D 이미지(40)를 각각 인식할 수 있다. 본 명세서에서 사용된 초점면은 착용형 시각화 디바이스(16)의 광축에 수직이고 초점면 내에 초점이 맞춰진 물체와 교차하는 평면을 지칭한다. 즉, 3-D 이미지(40)의 특정 지점에서 나온 광선은 사용자(14)의 망막 상의 해당 지점으로 향하기 전에 수렴하거나 초점을 통과한다. 추가로, 몇몇 실시예에서, 초점은 일반적으로 착용형 시각화 디바이스(16)의 초점으로부터 초점 거리만큼 분리된 초점이다.
착용형 시각화 디바이스(16) 중 하나를 착용할 때, 각 사용자(14)는 착용형 시각화 디바이스(16)에 의해 제시된 AR 이미지(28)를 볼 수 있다. 또한, 착용형 시각화 디바이스(16) 중 하나를 착용할 때 및 전자 디스플레이 디바이스(270, 272) 중 하나를 향하거나 지향될 때, 각 사용자(14)는 각각의 전자 디스플레이 디바이스(270, 272)에 의해 제시된 3-D 이미지(40)를 볼 수 있다. 즉, 각각의 착용형 시각화 디바이스(16)의 능동 셔터링 시스템(200)은 각 사용자(14)의 착용형 시각화 디바이스(16)의 2개의 디스플레이 부분(30, 32) 사이에서 셔터링하여 각 사용자(14)가 3-D 이미지(40)를 인식할 수 있게 한다. 앞에서 논의된 바와 같이, 하나의 착용형 시각화 디바이스(16)의 능동 셔터링 시스템(200)은 하나의 액정 층(202)(예를 들어, 제1 능동 셔터링 렌즈)를 이용하고, 다른 착용형 시각화 디바이스(16)의 능동 셔터링 시스템(200)은 다른 액정 층(202)(예를 들어, 제2 능동 셔터링 렌즈)을 포함한다.
몇몇 실시예에서, 사용자(14)는 (예를 들어, 전자 디스플레이 디바이스(270, 272)의 멀티플렉서 디바이스 및/또는 디멀티플렉서 디바이스를 통해) 각각 개별화된 3-D 이미지(40)가 제공되는 상이한 그룹에 할당될 수 있다. 몇몇 실시예에서, 이들 사용자(14)의 그룹 각각에 대한 테마는 사용자(14)가 할당된 팀, 사용자(14)와 연관된 티켓, 사용자(14)의 키, 사용자(14)의 나이(예를 들어, 데이터베이스로부터 검색됨), 사용자(14)가 착용한 옷의 색상(예를 들어, 물리적 환경(260) 내에서 카메라에 의해 식별됨) 등과 같은 하나 이상의 요인에 기초하여 선택된다. 도 4 및 도 6에 관하여 더 상세히 논의되는 바와 같이, 착용형 시각화 디바이스(16)의 능동 셔터링 시스템(200)은 각각의 사용자 그룹(14)의 착용형 시각화 디바이스(16)를 순차적으로 작동시킬 수 있는 반면, 각각의 사용자 그룹(14)에 대한 3-D 이미지(40)는 전자 디스플레이 디바이스(270, 272)에서 교번되거나 다중화되어 각각의 사용자 그룹(14)에 상이한 3-D 이미지(40)를 제시한다. 각각의 사용자 그룹(14)의 착용형 시각화 디바이스(16)를 통해 표시되는 AR 이미지(28)는 각 사용자(14)에게 표시되는 3-D 이미지(40)에 대응하도록 동시에 조정된다. 이와 같이, 각 사용자(14)는 스릴 라이드(256)에서 상이하거나 개별화된 테마를 경험할 수 있다.
도 5는 놀이 공원 손님(예를 들어, 사용자(14))에게 AR 및 3-D 향상을 제공하는 프로세스(300)의 실시예의 흐름도를 도시한다. 프로세스(300)는 스릴 라이드(256)와 같은 놀이 공원 경험 동안 AR 및 3-D 경험을 생성할 때 유용할 수 있다. 프로세스(300)는 비일시적 컴퓨터 판독가능 매체(예를 들어, 메모리(104, 112, 166, 186)에 저장된 개시된 코드 또는 명령어를 나타낼 수 있고 예를 들어, 착용형 시각화 디바이스(16)의 프로세서(102), 컴퓨터 그래픽 생성 시스템(60)의 프로세서(110), 3-D 디스플레이 시스템(42)의 프로세서(164) 및/또는 마스터 제어기(62)의 프로세서(184)에 의해 실행될 수 있다. 프로세서(102, 110, 164 및/또는 184)는 무선 네트워크(64)와 같은 네트워크를 통해 통신 가능하게 연결되어 아래에 설명 된 명령어를 수신하고 전송할 수 있다.
프로세스(300)는 사용자(14)와 연관된 착용형 시각화 디바이스(16)를 통해 표시될 AR 이미지(28)를 생성하는 단계(블록 302)로 시작한다. 즉, 앞에서 논의된 바와 같이, 컴퓨터 그래픽 생성 시스템(60)은 AR 이미지(28)를 생성하지만, 다른 실시예에서, AR 이미지(28)는 착용형 시각화 디바이스(16)의 프로세서(102) 또는 마스터 제어기(62)의 프로세서(184)에 의해 생성된다. 몇몇 실시예에서, 컴퓨터 그래픽 생성 시스템(60)에 의해 생성된 AR 이미지(28)는 개별화된다. 몇몇 실시예에서, 예를 들어, 사용자와 연관된 그룹, 놀이기구 경로(254)를 따른 사용자(14)의 위치, 사용자(14)의 방향, 또는 사용자(14)와 관련된 임의의 다른 적합한 센서 데이터에 기초하여, 컴퓨터 그래픽 생성 시스템(60)은 특히 사용자(14)에게 표시할 AR 이미지(28)를 생성한다. AR 이미지(28)의 생성 동안 또는 생성 후에, 컴퓨터 그래픽 생성 시스템(60)은 무선 네트워크(64)를 통해 착용형 시각화 디바이스(16)로 AR 이미지(28)를 전송한다.
프로세스(300)는 착용형 시각화 디바이스(16)를 통해 사용자(14)에게 AR 이미지(28)를 표시하는 단계(블록 304)를 포함한다. 즉, 마이크로프로젝터(120)는 AR 이미지(28)를 나타내는 광(122)을 생성하고 착용형 시각화 디바이스(16)의 착용형 디스플레이(124)로 보낸다. 착용형 시각화 디바이스(16)의 착용형 디스플레이(124)는 반투과성이므로, 광(122)의 적어도 일부는 그로부터 AR 이미지(28)를 시각화하는 사용자(14)의 눈에 반사된다. 이와 같이, AR 이미지(28)는 착용형 시각화 디바이스(16)의 착용형 디스플레이(124)와 연관된 제1 초점면(180)에서 사용자(14)가 볼 수 있는 특징부의 제1 층을 제공한다.
프로세스(300)의 예시된 실시예는 3-D 디스플레이 시스템(42)의 고정 디스플레이(160)를 통해 사용자(14)에게 표시될 3-D 이미지(40)를 나타내는 데이터를 수신하는 단계(블록 306)를 또한 포함한다. 앞에서 논의된 바와 같이, 3-D 디스플레이 시스템(42)의 고정 디스플레이(160)가 전자 디스플레이 디바이스(210)에 의해 제공되는 몇몇 실시예에서, 전자 디스플레이 디바이스(210)의 프로세서(164)는 전자 디스플레이 디바이스(210)의 메모리(166)로부터 3-D 이미지(40)를 나타내는 데이터를 수신한다. 고정 디스플레이(160)가 프로젝터 스크린(161)이고 3-D 디스플레이 시스템(42)이 프로젝터(162)를 포함하는 몇몇 실시예에서, 프로젝터(162)는 프로젝터(162)의 메모리(166)로부터 3-D 이미지(40)를 나타내는 데이터를 수신한다. 다른 실시예에서, 컴퓨터 그래픽 생성 시스템(60)은 3-D 이미지(40)를 나타내는 데이터를 생성하고 3-D 디스플레이 시스템(42)의 프로젝터(162) 및/또는 전자 디스플레이 디바이스(210)에 직접 제공한다. 3-D 이미지(40)를 나타내는 데이터는 추가적으로 또는 대안적으로 프로젝터(162) 또는 전자 디스플레이 디바이스(210)의 입력/출력 포트로부터 수신될 수 있고, 데이터베이스로부터 검색될 수 있는 등이 있다.
프로세스(300)는 착용형 시각화 디바이스(16)를 통해 3-D 이미지(40)를 표시하는 단계(블록 308)를 더 포함한다. 3-D 디스플레이 시스템(42)은 전자 디스플레이 디바이스(210)와 연관된 고정 디스플레이(160) 또는 프로젝터 스크린(161) 상에 3-D 이미지(40)를 제시한다. 몇몇 실시예에서 블록(306 및 308)이 동시에 수행되어 3D 이미지(40)가 실시간으로 프로세서(164)에 의해 수신되고 3-D 디스플레이 시스템(42)의 고정 디스플레이(160) 상에 표시된다는 것을 이해해야 한다. AR 이미지(28) 및 3-D 이미지(40)는 스릴 라이드(256)의 사이클 동안 임의의 주어진 시점에 놀이기구 경로(254)를 따른 승용 놀이기구 차량(252)의 위치 또는 장소(예를 들어, 또는 놀이기구 경로가 존재하지 않는 경우 다른 장소), 스릴 라이드(256)의 사이클 동안, 사전결정된 시간 경과 후 또는 하나 이상의 동작이 사용자(14)에 의해 수행된 후 승용 놀이기구 차량(252)이 이동한 사전결정된 거리 등을 포함하는 하나 또는 복수의 요인에 기초하여 표시될 수 있다.
3-D 디스플레이 시스템(42)의 고정 디스플레이(160)에서 착용형 시각화 디바이스(16)의 3-D 뷰잉 구성요소(140)를 통해 봄으로써, 사용자(14)는 고정 디스플레이(160)와 연관된 제2 초점면(182)에서 3-D 이미지(40)를 볼 수 있다. 본 명세서에서 인식된 바와 같이, 3-D 이미지(40)는 AR 이미지(28)와 결합하여 사용자(14)에게 표시되어 사용자(14)가 경험한 스릴 라이드(256)의 테마를 구성한다. 따라서 3-D 이미지(40)는 표시된 AR 이미지(28)에 의해 제공되는 특징부의 제1 층 너머에 보이는 특징부의 제2 층을 제공한다. 몇몇 실시예에서, 마스터 제어기(62)는 (예를 들어, 피드포워드 제어를 통해) 착용형 시각화 디바이스(16) 및 3-D 디스플레이 시스템(42)의 동작을 조정하여 끊김없는 다차원 경험을 제공한다.
3-D 뷰잉 구성요소(140)로서 액정 층(202)이 있는 능동 셔터링 시스템(200)을 갖는 착용형 시각화 디바이스(16)의 실시예에서, 프로세스(300)의 본 실시예의 3-D 디스플레이 시스템(42)을 통해 3-D 이미지(40)를 표시하는 단계(블록 308)는 은 점선 박스(310) 내에 표시된 추가 단계를 포함한다. 즉, 몇몇 실시예에서, 프로세스(300)는 3-D 디스플레이 시스템(42)의 송신기(220)로부터 조정 신호를 수신하는 단계(블록 312)를 포함한다. 착용형 시각화 디바이스(16)의 수신기(222)는 임의의 적합한 속도 또는 주파수로 송신기(220)로부터 조정 신호를 수신한다. 몇몇 실시예에서, 수신기는(222)는 착용형 시각화 디바이스(16)가 송신기(220)를 향하고 있을 때와 그렇지 않을 때 모두 조정 신호를 수신한다. 3-D 디스플레이 시스템(42)을 통해 3-D 이미지(40)를 표시하는 단계(블록 308)는 몇몇 실시예에서, 조정 신호에 기초하여 착용형 시각화 디바이스(16)의 액정 층(202)의 셔터링을 조정하는 단계(314)를 또한 포함한다. 즉, 착용형 시각화 디바이스(16)는 뷰잉 어셈블리(18)의 각각의 디스플레이 부분(30, 32)에 대한 액정 층 부분을 교대로 개방 또는 폐쇄 셔터링하는 반면, 3-D 디스플레이 시스템(42)은 사용자(14)가 그로부터 3-D 이미지(40)를 인식할 수 있게 하기 위해 표시된 3-D 이미지(40)의 교번 관점을 제시한다.
도 4와 관련하여 앞에서 도입된 것과 같은, 복수의 고정 디스플레이(160)를 갖는 몇몇 실시예에서, 착용형 시각화 디바이스(16)는 사용자(14)가 마주하고 있는 고정 디스플레이(160)에서 볼 수 있는 3-D 이미지(40)와 조정하기 위해 특정 AR 이미지(28)를 생성할 수 있다. 이와 같이, 착용형 시각화 디바이스(16)의 수신기(222)는 착용형 시각화 디바이스(16)가 배향되는 3-D 디스플레이 시스템(42)의 고정 디스플레이(160)로부터 수신된 조정 신호를 이용할 수 있다. 몇몇 실시예에서, 마스터 제어기(62)는 생략될 수 있는 송신기(220)로서 기능한다. 그러한 실시예에서, 마스터 제어기(62)는 고정 디스플레이(160)에 타이밍 또는 제어 신호를 제공하며, 이는 (예를 들어, 추가적인 타이밍 구성요소 없이) 마스터-슬레이브 제어 알고리즘을 따른다. 따라서 3-D 디스플레이 시스템(42)의 하나 또는 복수의 고정 디스플레이(160)는 사용자(14)가 제2 초점면(182) 내에서 3-D 이미지(40)를 인식하면서 동시에 제1 초점면(180) 내에서 AR 이미지를 인식할 수 있도록 3-D 이미지(40)를 표시할 수 있다. 더욱이, 액정 층(202)을 갖는 몇몇 실시예에서, 액정 층(202)은 착용형 디스플레이(124) 상에 표시된 AR 이미지(28)에 대응하거나 미러링하도록 개별적으로 및 선택적으로 작동될 수 있는 다양한 픽셀 부분으로 분할될 수 있다. 이와 같이, 액정 층(202)은 주변 광을 차단하고 AR 이미지(28)를 보다 효율적으로 보기 위해 콘트라스트를 증가시키기 위해 불투명하게 되도록 제어될 수 있다.
도 6은 능동 셔터링 시스템(200)을 가진 착용형 시각화 디바이스(16)를 이용하는 복수의 사용자(14)에게 AR 및 3-D 경험을 제공하는 프로세스(340)의 실시예의 흐름도를 도시한다. 프로세스(340)는 각각의 사용자(14)에 대해 개별화된 AR 및 3-D 경험을 생성하는 데 유용할 수 있다. 프로세스(300)와 유사하게, 프로세스(340)는 비일시적 컴퓨터 판독가능 매체(예를 들어, 메모리(104, 112, 166, 186))에 저장된 개시된 코드 또는 명령어를 나타낼 수 있고 예를 들어, 착용형 시각화 디바이스(16)의 프로세서(102), 3-D 디스플레이 시스템(42)의 프로세서(164), 컴퓨터 그래픽 생성 시스템(60)의 프로세서(110) 및/또는 마스터 제어기(62)의 프로세서(184)에 의해 실행될 수 있다. 프로세서(102, 110, 164 및/또는 184)는 무선 네트워크(64) 또는 임의의 다른 적합한 통신 구성요소를 통해 함께 통신 가능하게 연결되어 아래에 설명된 명령어를 수신하고 전송할 수 있다.
본 명세서에 언급된 바와 같이, 프로세스(340)는 프로세스(300)와 유사하지만, 보다 구체적으로 능동 셔터링 시스템(200)이 있는 착용형 시각화 디바이스(16)를 가진 복수의 사용자(14)에게 개별화된 AR 및 3-D 경험을 제공하는 것에 관한 것이다. 예를 들어, 프로세스(340)는 제1 사용자(14) 및 제2 사용자(14)에 대해 각각의 AR 이미지(28)를 생성하는 단계(블록 342)를 포함한다. 프로세스(300)의 블록 302와 유사하게, AR 이미지(28)는 각각의 사용자(14)와 연관된 소정의 요인에 기초하여 각각의 사용자(14)에 대한 컴퓨터 그래픽 생성 시스템(60)에 의해 생성된다. 예를 들어, AR 이미지(28)는 사용자(14)가 향하는 방향, 승용 놀이기구 차량(252) 내의 사용자(14)의 위치, 각각의 사용자(14)가 할당된 그룹, 놀이기구 경로(254)를 따른 승용 놀이기구 차량(252)의 위치 등에 기초하여 생성될 수 있다. 프로세스(300)의 블록 304와 유사하게, 프로세스(340)는 각각의 사용자(14)와 연관된 각각의 착용형 시각화 디바이스(16)를 통해 AR 이미지(28)를 표시하는 단계(블록 344)를 또한 포함한다. 이러한 방식으로, 제1 사용자(14)는 제1 사용자(14)를 위해 맞춤화된 AR 이미지(28)의 제1 세트를 볼 수 있지만, 제2 사용자(14)는 제2 사용자(14)를 위해 맞춤화된 AR 이미지(28)의 제2 세트를 볼 수 있다.
3-D 이미지(40)를 표시하는 것과 관련하여, 프로세스(300)의 블록 306과 유사하게, 프로세스(340)는 각각의 사용자(14)에게 표시될 3-D 이미지(40)를 나타내는 데이터를 수신하는 단계(블록 346)를 포함한다. 예를 들어, 전자 디스플레이 디바이스(270, 272)는 전자 디스플레이 디바이스(270, 272)의 각각의 메모리(166)로부터 표시될 3-D 이미지(40)를 검색한다. 다른 실시예에서, 컴퓨터 그래픽 생성 시스템(60)은 각각의 사용자(14)와 연관된 착용형 시각화 디바이스(16)에 의해 수집된 센서 데이터에 기초하여 제자리에 각각의 사용자(14)에 대한 3-D 이미지(40)를 생성한 다음 전자 디스플레이 디바이스(270, 272)에 3-D 이미지(40)를 제공한다. 몇몇 실시예에서, 3-D 이미지(40)는 다중화 신호로서 3-D 디스플레이 시스템(42)에 제공되고, 이는 사용자(14)에게 개별화된 표시를 위해 3-D 디스플레이 시스템(42)에 의해 역다중화된다.
또한, 프로세스(340)는 3-D 디스플레이 시스템(42)으로부터 조정 신호를 수신하는 단계(블록 348)를 포함한다. 즉, 착용형 시각화 디바이스(16)의 수신기(222)는 전자 디스플레이 디바이스(270, 272)의 송신기(220)로부터 조정 신호를 수신한다. 프로세스(340)의 본 실시예는 착용형 시각화 디바이스(16)의 각각의 능동 셔터링 시스템(200)의 셔터링을 조정하는 단계(블록 350)를 또한 포함한다. 즉, 착용형 시각화 디바이스(16)의 능동 셔터링 시스템(200)은 각각의 사용자(14)에게 맞춤형 3-D 이미지(40)를 제공하기 위해 특정 순서로 순차적으로 작동(예를 들어, 개방, 투명화)된다. 예를 들어, 능동 셔터링 시스템(200)은, 제1 시구간 동안 제1 사용자(14) (또는 사용자 그룹)의 착용형 시각화 디바이스(16)의 능동 셔터링 렌즈의 제1 디스플레이 부분(30), 제2 시구간 동안 제2 사용자(14)의 착용형 시각화 디바이스(16)의 능동 셔터링 렌즈의 제1 디스플레이 부분(30), 제3 시구간 동안 제1 사용자(14)의 착용형 시각화 디바이스(16)의 능동 셔터링 렌즈의 제2 디스플레이 부분(32) 및 제4 시구간 동안 제2 사용자(14)의 착용형 시각화 디바이스(16)의 능동 셔터링 렌즈의 제2 디스플레이 부분(32) 중 하나를 순차적으로 작동시키도록 조정될 수 있다. 순서는 빠르게 반복 될 수 있는바, 각각의 눈 부분이 초당 50 ~ 100 회 작동된다. 본 명세서에 언급된 바와 같이, 제1, 제2, 제3 및 제4 시구간은 몇몇 실시예에서 서로로부터 오프셋된다. 동시에, 프로세스(340)는 사용자(14)가 볼 수 있도록 전자 디스플레이 디바이스(270, 272)에 각각의 3-D 이미지(40)를 표시하는 단계(블록 352)를 포함한다. 각각의 사용자(14)의 착용형 시각화 디스플레이(16)를 통해 표시되는 AR 이미지(28)는 각각의 사용자(14)에게 표시되는 3-D 이미지(40)에 대응하도록 동시에 조정된다.
즉, 능동 셔터링 시스템(200)을 갖는 착용형 시각화 디바이스(16)의 실시예의 경우, 둘 이상의 시간 오버랩된 3-D 프리젠테이션은 사용자(14)에게 거의 동시에 제시되어 단일 고정 디스플레이(160)로부터 조차 제1 사용자(14)에게 개별화된 3-D 이미지(40)(예컨대, 하나 이상의 해독된 3-D 특징부)를 제공하고 제2 사용자(14)에게 개별화된 3-D 이미지(40)(예컨대, 하나 이상의 제2의 해독된 3-D 특징부)를 제공할 수 있다. 2명의 사용자(14)와 관련하여 설명되었지만, 프로세스(340)에 관하여 논의된 것과 유사한 개념이 임의의 적합한 수의 사용자 또는 사용자 그룹에게 개별화된 3-D 및 AR 콘텐츠를 제공하는 데 이용될 수 있다는 것을 이해해야 한다. 따라서, 본 명세서에 개시된 AR 및 3-D 뷰잉 시스템은 스릴 라이드(256)의 테마를 적응적으로 조정하거나 임의의 다른 적합한 환경을 구성하여 복수의 초점면을 통해 사용자(14)에게 개별화 및 몰입형 콘텐츠를 제공할 수 있다.
본 개시내용의 소정 특징만이 본 명세서에 예시되고 설명되었지만, 당업자에게는 많은 수정 및 변경이 발생할 것이다. 따라서, 첨부된 청구범위는 이러한 모든 수정 및 변경을 본 개시내용의 진정한 사상 내에 속하는 것으로서 포함하도록 의도된 것이라는 것을 이해해야 한다.
본 명세서에 제시되고 청구된 기법은 본 기술 분야를 명백히 개선하고, 그리고 이처럼 추상적이거나 무형적이거나 또는 순수하게 이론적이지 않은 실제적인 특성의 물질적 객체 및 구체적인 예에 참조되고 적용된다. 또한, 본 명세서의 끝에 첨부된 임의의 청구범위가 "… [기능]을 [수행]하기 위한 수단" 또는 "… [기능]을 [수행]하기 위한 단계"로서 지정된 하나 이상의 요소를 포함한다면, 그러한 요소는 35 U.S.C. 112(f)에 따라 해석되어야 하는 것으로 의도된다. 그러나, 임의의 다른 방식으로 지정된 요소를 포함하는 임의의 청구범위의 경우, 이러한 요소는 35 U.S.C. 112(f)에 따라 해석되지 않는 것으로 의도된다.

Claims (20)

  1. 사용자에게 증강 현실(AR) 및 3차원(3-D) 경험을 제공하기 위한 AR 및 3-D 뷰잉 시스템으로서,
    상기 사용자가 현실 세계 환경을 볼 수 있는 뷰잉 어셈블리를 포함하는 착용형 시각화 디바이스 - 상기 뷰잉 어셈블리는,
    하나 이상의 AR 특징부를 표시하도록 구성된 제1 디스플레이와,
    상기 사용자가 하나 이상의 코딩된 2차원(2-D) 이미지를 하나 이상의 해독된 3-D 특징부로서 인식할 수 있게 하는 3-D 뷰잉 구성요소
    를 포함함 - 와,
    상기 하나 이상의 코딩된 2-D 이미지를 표시하도록 구성된 제2 디스플레이를 포함하는 고정 3-D 디스플레이 시스템 - 상기 고정 3-D 디스플레이 시스템은 상기 현실 세계 환경 내에 배치됨 - 을 포함하는
    AR 및 3-D 뷰잉 시스템.
  2. 제1항에 있어서,
    상기 3-D 뷰잉 구성요소는 상기 제1 디스플레이 상에 배치된 광-필터링 코팅을 포함하는
    AR 및 3-D 뷰잉 시스템.
  3. 제2항에 있어서,
    상기 광-필터링 코팅은 상기 제1 디스플레이의 제1 부분을 위한 제1 애너글리프(anaglyph) 렌즈 필터 및 상기 제1 디스플레이의 제2 부분을 위한 제2 애너글리프 렌즈 필터를 포함하는
    AR 및 3D 뷰잉 시스템.
  4. 제2항에 있어서,
    상기 광-필터링 코팅은 상기 제1 디스플레이의 제1 부분을 위한 제1 편광 렌즈 필터 및 상기 제1 디스플레이의 제2 부분을 위한 제2 편광 렌즈 필터를 포함하는
    AR 및 3-D 뷰잉 시스템.
  5. 제1항에 있어서,
    상기 3-D 뷰잉 구성요소는 능동 셔터링 시스템을 포함하는
    AR 및 3-D 뷰잉 시스템.
  6. 제5항에 있어서,
    상기 능동 셔터링 시스템은 상기 제1 디스플레이에 인접하게 배치된 액정 층을 포함하고, 상기 액정 층의 제1 부분은 제어 신호에 응답하여 불투명하게 되도록 구성되고, 상기 액정 층의 제2 부분은 상기 제어 신호에 응답하여 투명하게 되거나 계속 투명하도록 구성되는
    AR 및 3-D 뷰잉 시스템.
  7. 제1항에 있어서,
    상기 고정 3-D 디스플레이 시스템은 상기 하나 이상의 코딩된 2-D 이미지를 상기 제2 디스플레이로 전송하도록 구성된 프로젝터를 포함하고, 상기 제2 디스플레이는 프로젝터 스크린을 포함하는
    AR 및 3-D 뷰잉 시스템.
  8. 제1항에 있어서,
    상기 고정 3-D 디스플레이 시스템은 상기 하나 이상의 코딩된 2-D 이미지를 생성하고 표시하도록 구성된 전자 디스플레이 디바이스를 포함하는
    AR 및 3-D 뷰잉 시스템.
  9. 제1항에 있어서,
    제2 뷰잉 어셈블리를 포함하는 제2 착용형 시각화 디바이스를 포함하고,
    상기 제2 뷰잉 어셈블리는,
    하나 이상의 제2 AR 특징부를 표시하도록 구성된 제3 디스플레이와,
    상기 고정 3-D 디스플레이 시스템이 하나 이상의 제2 코딩된 2-D 이미지를 표시하는 것에 응답하여 제2 사용자가 상기 하나 이상의 제2 코딩된 2-D 이미지를 하나 이상의 제2 해독된 3-D 특징부로서 인식할 수 있게 하는 제2 3-D 뷰잉 구성요소를 포함하는
    AR 및 3-D 뷰잉 시스템.
  10. 제9항에 있어서,
    상기 하나 이상의 해독된 3-D 특징부는 상기 사용자에 대해 개별화되고, 상기 하나 이상의 제2 해독된 3-D 특징부는 상기 제2 사용자에 대해 개별화되는
    AR 및 3-D 뷰잉 시스템.
  11. 제9항에 있어서,
    상기 3-D 뷰잉 구성요소는 상기 제1 디스플레이에 인접하게 배치된 능동 셔터링 렌즈를 포함하고, 상기 제2 3-D 뷰잉 구성요소는 상기 제3 디스플레이에 인접하게 배치된 제2 능동 셔터링 렌즈를 포함하며, 상기 고정 3-D 디스플레이 시스템은 상기 능동 셔터링 렌즈 및 상기 제2 능동 셔터링 렌즈가 상기 제2 디스플레이의 재생률과 동기화할 수 있게 하는 신호를 전송하도록 구성된 송신기를 포함하는
    AR 및 3-D 뷰잉 시스템.
  12. 제11항에 있어서,
    상기 뷰잉 어셈블리는,
    제1 시구간 동안 상기 능동 셔터링 렌즈의 제1 디스플레이 부분을 작동시키고,
    제 2 시구간 동안 상기 능동 셔터링 렌즈의 제2 디스플레이 부분을 작동시키도록 구성되고,
    상기 제2 뷰잉 어셈블리는,
    제3 시구간 동안 상기 제2 능동 셔터링 렌즈의 제1 디스플레이 부분을 작동시키고,
    제4 시구간 동안 상기 제2 능동 셔터링 렌즈의 제2 디스플레이 부분을 작동시키도록 구성되고,
    상기 제1, 제2, 제3 및 제4 시구간은 서로 오프셋되고, 상기 하나 이상의 해독된 3D 특징부와 상기 하나 이상의 제2 해독된 3-D 특징부는 서로 다른
    AR 및 3-D 뷰잉 시스템.
  13. 사용자에게 증강 현실(AR) 및 3차원(3-D) 경험을 제공하기 위한 착용형 시각화 디바이스로서,
    상기 사용자가 현실 세계 환경을 볼 수있는 뷰잉 어셈블리를 포함하되,
    상기 뷰잉 어셈블리는,
    하나 이상의 AR 특징부를 표시하도록 구성된 제1 디스플레이와,
    상기 제1 디스플레이의 제1 눈 부분에 대한 제1 3-D 필터링 층 및 상기 제1 디스플레이의 제2 눈 부분에 대한 제2 3-D 필터링 층을 포함하는 3-D 처리 어셈블리를 포함하고,
    상기 제1 3-D 필터링 층 및 상기 제2 3-D 필터링 층은 협력하여 상기 사용자가 제2 디스플레이 상에 표시된 하나 이상의 코딩된 2차원(2-D) 이미지를 하나 이상의 해독된 3-D 특징부로서 인식할 수 있도록 하고, 상기 제2 디스플레이는 상기 착용형 시각화 디바이스와 분리되는
    착용형 시각화 디바이스.
  14. 제13항에 있어서,
    상기 하나 이상의 코딩된 2-D 이미지는 물체의 상대적으로 오프셋된 관점을 포함하고, 상기 3-D 처리 어셈블리는 상기 물체가 상기 물체의 상기 오프셋된 관점에서 깊이를 갖는 것으로 인식함으로써 상기 사용자가 상기 하나 이상의 코딩된 2-D 이미지를 광학적으로 디코딩할 수 있게 하는
    착용형 시각화 디바이스.
  15. 제13항에 있어서,
    상기 제1 3-D 필터링 층은 제1 광학 효과를 갖는 제1 코팅을 포함하고,
    상기 제2 3-D 필터링 층은 상기 제1 광학 효과와 상이한 제2 광학 효과를 갖는 제2 코팅을 포함하는
    착용형 시각화 디바이스.
  16. 제15항에 있어서,
    상기 제1 광학 효과는 파장 필터링 또는 편광 필터링을 포함하는
    착용형 시각화 디바이스.
  17. 제13항에 있어서,
    상기 제1 3-D 필터링 층은 제1 능동 셔터 렌즈를 포함하고, 상기 제2 3-D 필터링 층은 제2 능동 셔터 렌즈를 포함하는
    착용형 시각화 디바이스.
  18. 사용자에게 증강 현실(AR) 및 3차원(3-D) 경험을 제공하기 위한 AR 및 3-D 뷰잉 시스템으로서,
    상기 사용자가 현실 세계 환경을 볼 수 있는 뷰잉 어셈블리를 포함하는 착용형 시각화 디바이스 - 상기 뷰잉 어셈블리는,
    제1 초점면 내에 하나 이상의 AR 특징부를 표시하도록 구성된 제1 디스플레이와,
    상기 사용자가 하나 이상의 코딩된 2차원(2-D) 이미지를 제2 초점면 내에서 하나 이상의 해독된 3-D 특징부로서 인식할 수 있게 하는 3-D 뷰잉 구성요소를 포함하고, 상기 제1 초점면과 상기 제2 초점면은 서로 독립적임 - 와,
    상기 하나 이상의 코딩된 2-D 이미지를 표시하도록 구성된 제2 디스플레이를 포함하는 3-D 디스플레이 시스템 - 상기 3-D 디스플레이 시스템은 상기 현실 세계 환경 내에 배치됨 - 을 포함하는
    AR 및 3-D 뷰잉 시스템.
  19. 제18항에 있어서,
    상기 사용자의 방향, 상기 사용자의 위치, 상기 사용자의 모션 또는 이들의 조합에 기초하여 상기 하나 이상의 AR 특징부 및 상기 하나 이상의 코딩된 2-D 이미지를 생성하도록 구성된 프로세서를 포함하는
    AR 및 3-D 뷰잉 시스템.
  20. 제18항에 있어서,
    상기 하나 이상의 AR 특징부 및 상기 하나 이상의 코딩된 2-D 이미지의 프리젠테이션을 조정하기 위해 상기 착용형 시각화 디바이스 및 상기 3-D 디스플레이 시스템과 동작 가능하게 통신하도록 구성된 프로세서를 포함하는
    AR 및 3-D 뷰잉 시스템.
KR1020217012509A 2018-09-27 2019-09-18 엔터테인먼트 환경의 디스플레이 시스템 KR20210062690A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862737275P 2018-09-27 2018-09-27
US62/737,275 2018-09-27
US16/174,263 US10777012B2 (en) 2018-09-27 2018-10-29 Display systems in an entertainment environment
US16/174,263 2018-10-29
PCT/US2019/051777 WO2020068520A1 (en) 2018-09-27 2019-09-18 Display systems in an entertainment environment

Publications (1)

Publication Number Publication Date
KR20210062690A true KR20210062690A (ko) 2021-05-31

Family

ID=69946387

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217012509A KR20210062690A (ko) 2018-09-27 2019-09-18 엔터테인먼트 환경의 디스플레이 시스템

Country Status (8)

Country Link
US (1) US10777012B2 (ko)
EP (1) EP3856379B1 (ko)
JP (1) JP7331090B2 (ko)
KR (1) KR20210062690A (ko)
CN (1) CN112739438B (ko)
CA (1) CA3111588A1 (ko)
SG (1) SG11202102101YA (ko)
WO (1) WO2020068520A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11774770B2 (en) 2020-06-03 2023-10-03 Universal City Studios Llc Interface device with three-dimensional (3-D) viewing functionality
US11794121B1 (en) * 2020-12-09 2023-10-24 Falcon's Beyond Brands, Llc Theme or amusement park attraction using high frame rate active shutter technology
CN112904473A (zh) * 2021-01-28 2021-06-04 武汉华星光电技术有限公司 导光板、背光模组、头戴显示设备
USD1023209S1 (en) 2022-05-26 2024-04-16 Sally Industries, Inc. Indoor amusement ride

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2546929T3 (es) 1998-12-07 2015-09-30 Universal City Studios Llc Método de corrección de imágenes para compensar la distorsión de la imagen del punto de vista
US20100079585A1 (en) 2008-09-29 2010-04-01 Disney Enterprises, Inc. Interactive theater with audience participation
US8427590B2 (en) 2009-05-29 2013-04-23 Soraa, Inc. Laser based display method and system
FR2955409B1 (fr) 2010-01-18 2015-07-03 Fittingbox Procede d'integration d'un objet virtuel dans des photographies ou video en temps reel
US20110213664A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US20130278631A1 (en) 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
JP5499854B2 (ja) * 2010-04-08 2014-05-21 ソニー株式会社 頭部装着型ディスプレイにおける光学的位置調整方法
US8890941B2 (en) * 2010-04-29 2014-11-18 Virginia Venture Industries, Llc Methods and apparatuses for viewing three dimensional images
US9994228B2 (en) 2010-05-14 2018-06-12 Iarmourholdings, Inc. Systems and methods for controlling a vehicle or device in response to a measured human response to a provocative environment
US20120004919A1 (en) 2010-06-30 2012-01-05 Broadcom Corporation Three-dimensional glasses with bluetooth audio decode
US9946076B2 (en) 2010-10-04 2018-04-17 Gerard Dirk Smits System and method for 3-D projection and enhancements for interactivity
US20130063560A1 (en) * 2011-09-12 2013-03-14 Palo Alto Research Center Incorporated Combined stereo camera and stereo display interaction
US9268406B2 (en) * 2011-09-30 2016-02-23 Microsoft Technology Licensing, Llc Virtual spectator experience with a personal audio/visual apparatus
US20130083008A1 (en) 2011-09-30 2013-04-04 Kevin A. Geisner Enriched experience using personal a/v system
WO2013096052A2 (en) 2011-12-19 2013-06-27 Dolby Laboratories Licensing Corporation Highly-extensible and versatile personal display
CN103472909B (zh) 2012-04-10 2017-04-12 微软技术许可有限责任公司 用于头戴式、增强现实显示器的逼真遮挡
JP5891125B2 (ja) * 2012-06-29 2016-03-22 株式会社ソニー・コンピュータエンタテインメント 映像処理装置、映像処理方法、および映像処理システム
JP5483761B2 (ja) * 2012-06-29 2014-05-07 株式会社ソニー・コンピュータエンタテインメント 映像出力装置、立体映像観察デバイス、映像提示システム、および映像出力方法
KR101209854B1 (ko) 2012-09-11 2012-12-11 신동호 시뮬레이터용 3차원 운동장치
US10371943B2 (en) 2013-03-14 2019-08-06 Valve Corporation Method and system to control the focus depth of projected images
US10019057B2 (en) * 2013-06-07 2018-07-10 Sony Interactive Entertainment Inc. Switching mode of operation in a head mounted display
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9986228B2 (en) 2016-03-24 2018-05-29 3Di Llc Trackable glasses system that provides multiple views of a shared display
US20160011422A1 (en) 2014-03-10 2016-01-14 Ion Virtual Technology Corporation Method and system for reducing motion blur when experiencing virtual or augmented reality environments
US20150358539A1 (en) 2014-06-06 2015-12-10 Jacob Catt Mobile Virtual Reality Camera, Method, And System
WO2016025962A1 (en) 2014-08-15 2016-02-18 The University Of Akron Device and method for three-dimensional video communication
US9690375B2 (en) 2014-08-18 2017-06-27 Universal City Studios Llc Systems and methods for generating augmented and virtual reality images
CN105828021A (zh) 2015-01-05 2016-08-03 沈阳新松机器人自动化股份有限公司 基于增强现实技术的特种机器人图像采集控制方法及系统
US20160371884A1 (en) 2015-06-17 2016-12-22 Microsoft Technology Licensing, Llc Complementary augmented reality
US9918074B2 (en) 2015-06-18 2018-03-13 Disney Enterprises, Inc. Three dimensional (3D) stereo display systems for creating 3D effects for viewers wearing 3D glasses
CN205003369U (zh) 2015-09-10 2016-01-27 上海理鑫光学科技有限公司 三维增强现实系统
US11112266B2 (en) 2016-02-12 2021-09-07 Disney Enterprises, Inc. Method for motion-synchronized AR or VR entertainment experience
CN114903591A (zh) * 2016-03-21 2022-08-16 华盛顿大学 3d医学图像的虚拟现实或增强现实可视化
US20170323482A1 (en) * 2016-05-05 2017-11-09 Universal City Studios Llc Systems and methods for generating stereoscopic, augmented, and virtual reality images
CN106101689B (zh) 2016-06-13 2018-03-06 西安电子科技大学 利用手机单目摄像头对虚拟现实眼镜进行增强现实的方法
KR102568897B1 (ko) * 2016-08-16 2023-08-21 삼성전자주식회사 전자 장치 및 그 제어 방법
CN106371586B (zh) 2016-08-24 2018-10-26 同济大学 一种互动区域可调的增强现实实现方法
CN106331682B (zh) 2016-08-24 2018-05-11 同济大学 一种互动区域可调的增强现实云台系统
DE102016215860A1 (de) 2016-08-24 2018-03-01 Siemens Aktiengesellschaft Trackingloses projektionsbasiertes "Augmented Reality [AR]"-Verfahren und -System zur Montageunterstützung von Produktionsgütern, insbesondere zum Lokalisieren von Nutensteinen für die Bauteilmontage im Waggonbau
CN106371210B (zh) 2016-10-18 2018-05-25 上海蓝眸多媒体科技有限公司 一种基于透明成像玻璃的增强现实眼镜
CN106371211B (zh) 2016-10-18 2018-08-24 上海蓝眸多媒体科技有限公司 一种基于透明成像玻璃的增强现实眼镜
CN206584583U (zh) 2016-10-19 2017-10-24 华南理工大学 基于增强现实和生物反馈的驾驶培训系统
CN106693361A (zh) 2016-12-23 2017-05-24 武汉市马里欧网络有限公司 一种基于超声波手势识别的ar换装游戏投影方法及系统
CN106483814A (zh) 2016-12-26 2017-03-08 岭南师范学院 一种基于增强现实的3d全息投影系统及其使用方法
CN206348604U (zh) 2016-12-26 2017-07-21 岭南师范学院 一种基于增强现实的3d全息投影系统
WO2018126220A1 (en) * 2016-12-30 2018-07-05 Holonyne Corporation Virtual display engine
CN107016730A (zh) 2017-04-14 2017-08-04 陈柳华 一种虚拟现实与真实场景融合的装置
CN107027015A (zh) 2017-04-28 2017-08-08 广景视睿科技(深圳)有限公司 基于增强现实的3d动向投影系统以及用于该系统的投影方法
CN206788558U (zh) 2017-05-10 2017-12-22 大连新锐天地传媒有限公司 一种基于增强现实的全息投影装置
CN107399276A (zh) 2017-07-28 2017-11-28 合肥芯福传感器技术有限公司 用于车辆安全倒车的ar投影系统及投影方法
CN207059896U (zh) 2017-07-28 2018-03-02 合肥芯福传感器技术有限公司 用于车辆安全倒车的ar投影系统
CN107561710A (zh) 2017-09-29 2018-01-09 塔普翊海(上海)智能科技有限公司 一种基于三维激光全息投影技术的头戴显示系统
CN107561714A (zh) 2017-10-25 2018-01-09 上海驾馥电子科技有限公司 一种通过3d显示技术增强现实的抬头显示器

Also Published As

Publication number Publication date
CN112739438B (zh) 2023-05-23
EP3856379A1 (en) 2021-08-04
CA3111588A1 (en) 2020-04-02
CN112739438A (zh) 2021-04-30
EP3856379B1 (en) 2023-11-29
SG11202102101YA (en) 2021-04-29
WO2020068520A1 (en) 2020-04-02
US10777012B2 (en) 2020-09-15
JP7331090B2 (ja) 2023-08-22
JP2022502699A (ja) 2022-01-11
US20200105061A1 (en) 2020-04-02

Similar Documents

Publication Publication Date Title
JP7079207B2 (ja) 立体視的な拡張現実画像および仮想現実画像を生成するためのシステムおよび方法
CN110352085B (zh) 用于游乐园环境中的分层虚拟特征的系统和方法
US11586277B2 (en) Systems and methods for generating augmented and virtual reality images
CN111526929B (zh) 用于游乐园环境中的文本覆盖的系统和方法
CN112739438B (zh) 娱乐环境中的显示系统
KR20210107786A (ko) 놀이기구 탑승물을 위한 증강 현실 시스템
JP2023529375A (ja) 3次元(3-d)視覚機能付きインタフェースデバイス