KR20210107786A - 놀이기구 탑승물을 위한 증강 현실 시스템 - Google Patents
놀이기구 탑승물을 위한 증강 현실 시스템 Download PDFInfo
- Publication number
- KR20210107786A KR20210107786A KR1020217023301A KR20217023301A KR20210107786A KR 20210107786 A KR20210107786 A KR 20210107786A KR 1020217023301 A KR1020217023301 A KR 1020217023301A KR 20217023301 A KR20217023301 A KR 20217023301A KR 20210107786 A KR20210107786 A KR 20210107786A
- Authority
- KR
- South Korea
- Prior art keywords
- augmented reality
- user
- image
- location
- translucent mirror
- Prior art date
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 231
- 230000000694 effects Effects 0.000 claims description 28
- 238000000034 method Methods 0.000 claims description 26
- 239000003550 marker Substances 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 6
- 210000003128 head Anatomy 0.000 description 38
- 239000011521 glass Substances 0.000 description 9
- 235000002566 Capsicum Nutrition 0.000 description 7
- 239000006002 Pepper Substances 0.000 description 7
- 241000722363 Piper Species 0.000 description 7
- 235000016761 Piper aduncum Nutrition 0.000 description 7
- 235000017804 Piper guineense Nutrition 0.000 description 7
- 235000008184 Piper nigrum Nutrition 0.000 description 7
- 230000008569 process Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 230000004888 barrier function Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/50—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
- G02B30/56—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels by projecting aerial or floating images
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63J—DEVICES FOR THEATRES, CIRCUSES, OR THE LIKE; CONJURING APPLIANCES OR THE LIKE
- A63J5/00—Auxiliaries for producing special effects on stages, or in circuses or arenas
- A63J5/02—Arrangements for making stage effects; Auxiliary stage appliances
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/48—Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
- G03B17/54—Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/14—Details
- G03B21/28—Reflectors in projection beam
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
놀이기구 탑승물을 위한 증강 현실 시스템은 이용객의 위치를 결정하도록 구성된 이용객 추적 센서, 이미지를 투사하도록 구성된 프로젝터, 이미지를 증강 현실 이미지로서 반사하도록 구성된 반투명 거울, 및 프로세서와 메모리를 구비하는 제어기를 포함한다. 제어기는 이용객 추적 센서로부터 이용객의 위치를 나타내는 센서 신호를 수신하고, 이용객의 위치에 기초하여 이미지 데이터를 생성하고, 이미지 데이터를 나타내는 제어 신호를 프로젝터로 출력하도록 구성된다. 프로젝터는 이미지 데이터를 나타내는 제어 신호를 기초로 이미지를 투사하도록 구성된다.
Description
본 개시는 개략적으로 증강 현실 시스템에 관한 것으로서, 보다 구체적으로는 놀이기구 탑승물(amusement ride)을 위한 증강 현실 시스템에 관한 것이다.
어떤 경우에, 놀이기구 탑승물에는 이용객이 관람할 수 있는 증강 현실 기반(AR) 이미지를 표시하는 것이 포함될 수도 있다. 예컨대, 놀이기구 탑승물은 이용객에 인접하게 위치된 디스플레이를 포함할 수도 있다. 디스플레이는 이용객의 관람을 위해 AR 이미지를 출력할 수도 있다. 특정 탑승물의 경우, AR 이미지는 3차원(3D)일 수도 있다. 이용객은 3D AR 이미지를 제대로 보고 경험할 수 있게 하는 증강 현실 헤드셋 또는 헬멧을 착용할 수도 있다. 그러나, 놀이기구 탑승물을 위한 기존의 AR 또는 3D AR 헤드셋 및 헬멧은 고가일 수도 있다. 또한, AR 헤드셋은 각 이용객이 사용한 후 세정되어야 할 수도 있다. 이에 따라, 기존의 AR 헤드셋이 놀이기구 탑승물과 관련된 운영 비용 및 기타 비효율성을 증가시킬 수 있으며, 이용객은 놀이기구 탑승물을 위한 대기 시간 증가를 겪을 수도 있다.
이 섹션은 아래에서 설명 및/또는 청구되는 본 기술의 다양한 태양과 관련될 수 있는 기술의 다양한 태양을 독자에게 소개하고자 한다. 이 논의는 본 개시의 다양한 태양의 더 나은 이해를 용이하게 하기 위해 독자에게 배경 정보를 제공하는 데 도움이 되는 것으로 믿어진다. 따라서, 이들 진술은 선행 기술의 인정이 아니라 이러한 관점에서 읽어야 한다는 것을 이해해야 한다.
개시된 주제와 범위가 상응하는 특정 실시예가 아래에 요약되어 있다. 이들 실시예는 본 개시의 범위를 제한하려는 것이 아니라, 오히려 이러한 실시예는 특정한 개시된 실시예의 간략한 요약을 제공하기 위한 것일 뿐이다. 실제로, 본 개시는 아래에 설명된 실시예와 유사하거나 상이할 수 있는 다양한 형태를 포괄할 수도 있다.
일 실시예에서, 놀이기구 탑승물을 위한 증강 현실 시스템은 이용객의 위치를 결정하는 이용객 추적 센서, 이미지를 투사하는 프로젝터, 이미지를 증강 현실 이미지로서 반사하는 반투명 거울, 및 프로세서와 메모리를 구비하는 제어기를 포함한다. 제어기는 이용객 추적 센서로부터 이용객의 위치를 나타내는 센서 신호를 수신하고, 이용객의 위치에 기초하여 이미지 데이터를 생성하고, 이미지 데이터를 나타내는 제어 신호를 프로젝터로 출력한다. 프로젝터는 이미지 데이터를 나타내는 제어 신호를 기초로 이미지를 투사한다.
일 실시예에서, 놀이기구 탑승물을 위한 증강 현실 이미지를 생성하는 방법은 이용객의 위치의 표시를 수신하는 것, 및 이용객의 위치의 표시를 수신하는 것에 응답하여, 이용객의 위치를 기초로 이미지 데이터를 생성하는 것을 포함한다. 본 방법은 또한 이미지 데이터에 기초하여 이미지를 반투명 거울 상에 투사하는 것, 및 이용객의 관람을 위해 이미지를 증강 현실 이미지로서 이용객 쪽으로 반사하는 것을 포함한다. 증강 현실 이미지는 3D 아이웨어(eyewear)를 통해 볼 때 3차원(3D) 이미지로 보인다.
일 실시예에서, 놀이기구 탑승물을 위한 증강 현실 시스템은 이용객의 위치를 결정하는 이용객 추적 센서, 이미지를 투사하는 3차원(3D) 프로젝터, 이미지를 증강 현실 이미지로서 반사하는 반투명 거울, 3D 아이웨어, 및 프로세서와 메모리를 구비하는 제어기를 포함한다. 제어기는 이용객 추적 센서로부터 이용객의 위치를 나타내는 센서 신호를 수신하고, 이용객의 위치에 기초하여 이미지 데이터를 생성하고, 이미지 데이터를 나타내는 제어 신호가 3D 프로젝터로 하여금 이미지 데이터를 기초로 반투명 거울 상에 이미지를 투사하게 하도록 제어 신호를 3D 프로젝터로 출력한다.
본 개시의 이들 및 다른 특징, 태양 및 이점은 도면 전체에 걸쳐서 유사한 도면부호가 유사한 부분을 나타내는 첨부 도면을 참조하여 하기의 상세한 설명을 읽을 때 더 잘 이해될 것이다.
도 1은 본 개시의 태양에 따른 증강 현실 시스템을 갖는 놀이기구 탑승물 시스템의 실시예의 사시도이다.
도 2는 증강 현실 이미지를 생성하고 표시하는 도 1의 증강 현실 시스템의 실시예의 정면도이다.
도 3은 도 1의 증강 현실 시스템의 실시예의 블록도이다.
도 4는 본 개시의 태양에 따른 도 1의 증강 현실 시스템을 사용하여 증강 현실 이미지를 생성 및 표시하기 위한 프로세스의 실시예의 흐름도이다.
도 1은 본 개시의 태양에 따른 증강 현실 시스템을 갖는 놀이기구 탑승물 시스템의 실시예의 사시도이다.
도 2는 증강 현실 이미지를 생성하고 표시하는 도 1의 증강 현실 시스템의 실시예의 정면도이다.
도 3은 도 1의 증강 현실 시스템의 실시예의 블록도이다.
도 4는 본 개시의 태양에 따른 도 1의 증강 현실 시스템을 사용하여 증강 현실 이미지를 생성 및 표시하기 위한 프로세스의 실시예의 흐름도이다.
하나 이상의 특정 실시예가 아래에서 설명될 것이다. 이들 실시예의 간결한 설명을 제공하기 위한 노력으로, 실제 구현예의 모든 특징들이 명세서에 설명되지 않을 수도 있다. 엔지니어링 또는 설계 프로젝트에서와 같이 임의의 그러한 실제 구현예를 개발할 때, 시스템 관련 및 비즈니스 관련 제약 조건의 준수와 같은 개발자의 구체적인 목표를 달성하기 위해 수많은 구현예 관련 결정을 내려야 하며, 이러한 제약 조건은 구현예마다 다를 수도 있음을 이해해야 한다. 또한, 그러한 개발 노력은 복잡하고 시간 소모적일 수 있지만 그럼에도 불구하고 본 개시의 이점을 갖는 통상의 기술자에게는 설계, 제작 및 제조의 일상적인 작업일 수도 있음을 이해해야 한다.
본 개시의 다양한 실시예의 요소를 소개할 때, 관사 "a", "an" 및 "the"는 하나 이상의 요소가 있음을 의미할 의도이다. "포함하는(comprising)", "포함하는/구비하는(including)" 및 "갖는(having)"의 용어는 포괄적인 것으로 의도되며, 나열된 요소 이외의 추가 요소가 있을 수도 있음을 의미한다. 또한, 본 개시의 "일 실시예" 또는 "실시예"에 대한 언급은 또한 인용된 특징을 포함하는 추가 실시예의 존재를 배제하는 것으로 해석되도록 의도되지 않음을 이해해야 한다.
증강 현실 헤드셋을 사용하지 않고 증강 현실 효과를 재현하거나 시뮬레이션하기 위해, 증강 현실 시스템은 스크린(또는 프로젝션 스크린)으로부터 이미지를 투사할 수 있는 프로젝터를 포함할 수도 있다. 이미지는 증강 현실 이미지로서 반투명 거울에 의해 반사될 수도 있다. 이용객은 3D 아이웨어(예컨대, 3D 안경)을 사용하여 증강 현실 이미지를 3D 이미지 또는 3D 환경으로서 볼 수도 있다. 반투명 거울은 이용객의 얼굴과 프로젝터에 대해 소정 각도로 위치되어 페퍼스 고스트 효과(Pepper's ghost effect)를 만들 수 있다. 페퍼스 고스트 효과는 관람자가 거울 상의 3D 이미지와 거울의 반대편에 있는 물체를 동시에 볼 수 있도록 거울을 통해 이미지를 반사시키는 것을 포함한다. 페퍼스 고스트 효과로 인해 3D 이미지가 반투명 거울 뒤에 있는 임의의 물체 위에 겹쳐서 나타나게 될 수도 있다. 또한, 이용객의 머리가 추적될 수도 있으며, 반투명 거울 및 반투명 거울 뒤의 물체에 대한 이용객의 머리의 위치는 반투명 거울 상에 표시되는 3D 이미지를 업데이트하는 데 이용될 수도 있다. 예컨대, 이용객이 머리를 움직일 때, 3D 이미지는 3D 이미지의 부분들을 서로에 대해 그리고 반투명 거울 뒤의 물체에 대해 정확하게 이동시키는 시차(parallax) 효과를 포함할 수도 있다(예컨대, 이용객에 더 가까운 것처럼 보이는 3D 이미지의 부분들은 이용객으로부터 더 먼 것처럼 보이는 3D 이미지의 부분들보다 더 많이 움직일 수도 있다). 이러한 방식으로, 증강 현실 헤드셋 대신에 단지 경량의 3D 아이웨어를 착용할 때 이용객에 의해 관람 가능한 증강 현실 효과가 생성될 수도 있다.
전술한 바를 염두에 두고, 증강 현실 시스템에 관한 본 실시예는 임의의 놀이기구 탑승물 또는 어트랙션 시스템에서 활용될 수도 있다. 예컨대, 도 1은 증강 현실 시스템(12)을 갖는 놀이기구 탑승물 시스템(10)의 실시예의 사시도이다. 도시된 바와 같이, 놀이기구 탑승물 시스템(10)은 증강 현실 시스템(12), 관람 영역(14) 및 공연 영역(16)을 포함한다. 관람 영역(14)은 놀이기구 탑승물 시스템(10)의 이용객(들)이 놀이기구 탑승물 시스템(10) 내에 위치된 동안 서거나 및/또는 앉을 수 있는 영역을 제공한다. 도시된 바와 같이, 이용객(18)은 관람 영역(14)에 서 있다. 공연 영역(16)은 놀이기구 탑승물 시스템(10) 내의 실제의 또는 살아 있는 물체(들)(20)가 공연할 영역을 제공한다. 도시된 실시예에서, 물체(20)는 공연 영역(16) 내에 위치된 연예인을 포함한다. 공연 영역(16) 내의 물체(20)(예컨대, 연예인)는 이용객(18)의 시점에서 보일 수 있으며, 살아 있는 물체(예컨대, 연예인), 무생물, 기계(예컨대, 살아 있는 듯한 피규어(animated figures), 차량 및 기타 움직이는 시스템) 및/또는 공연에 사용될 수 있는 임의의 다른 적절한 물체를 포함할 수도 있다. 일부 실시예에서, 공연 영역(16)이 없을 수 있거나 공연 영역(16) 내에 위치된 물체(20)가 없을 수도 있음을 이해해야 한다. 또한, 본 개시는 놀이기구 탑승물 시스템(10)을 언급하지만, 개시된 실시예는 이용객이 이동할 수 있는 탑승물 또는 차량뿐만 아니라, 이용객이 상대적으로 고정된 위치에 서거나 앉을 수 있는 극장, 쇼 또는 엔터테인먼트 장소와 같은 임의의 적절한 환경에 적용될 수도 있음을 이해해야 한다.
증강 현실 시스템(12)은, 이용객(18)의 시점에서 놀이기구 탑승물(10)의 특정 부분(예컨대, 물체(20))과 상호 작용하는 것처럼 보이는 증강 현실 이미지를 포함하여, 놀이기구 탑승물(10) 내에 특정 증강 현실 효과를 생성하고 제공할 수도 있다. 도시된 바와 같이, 증강 현실 시스템(12)은 반투명 거울(22), 프로젝터(26), 이용객 추적 센서(32) 및 3차원(3D) 아이웨어 조립체(34)를 포함한다. 프로젝터(26)는 3D 아이웨어를 통해 볼 때 3D 이미지 또는 3D 환경으로 보이는 이미지(36)를 투사할 수도 있다. 예컨대, 프로젝터(26)는 특정한 배색(color scheme)(예컨대, 각각 적색 및 청색)을 갖는 한 쌍의 2D 이미지(예컨대, 이미지(36))를 투사하는 3D 프로젝터일 수도 있다. 2D 이미지는 3D 아이웨어(34)를 통해 볼 때 3D 환경인 것처럼 보일 수도 있다. 도시된 실시예에서, 단일 프로젝터가 사용되며, 이는 프로젝터(26)로부터의 이미지를 반사하도록 각을 이룬 반투명 거울(22) 아래에 위치된다. 그러나, 다른 실시예에서, 상이한 배향(orientation)의 다수의 프로젝터가 사용될 수도 있다.
도시된 실시예에서, 프로젝터(26)는 바닥(28)과 대체로 동일한 수직 높이에 있다. 그러나, 특정 실시예에서, 프로젝터(26)는 바닥(28) 아래, 천장, 장벽(30) 또는 임의의 다른 적절한 위치에 배치될 수도 있다. 또한, 프로젝터(26)는 관람 영역(14)의 바닥(28)에 대체로 평행하게 배치될 수 있으며, 및/또는 프로젝터(26)는 바닥(28)보다 상당히 낮게(예컨대, 바닥(28)보다 몇 미터 더 낮게) 배치될 수도 있다. 일부 실시예에서, 프로젝터(26)는 LED(발광 다이오드) 디스플레이, OLED(유기 LED) 디스플레이 또는 LCD(액정 디스플레이)와 같은 임의의 적절한 유형의 디스플레이 또는 스크린을 포함할 수도 있다. 도시된 바와 같이, 프로젝터(26)는 관람 영역(14)에 대해 장벽(30)의 반대측에 배치된다. 장벽(30)은 이용객(18)이 관람 영역(14) 내에 위치하는 동안 이용객(18)의 시야로부터 프로젝터(26)를 숨길 수도 있다.
프로젝터(26)는 증강 현실 이미지(38)가 반투명 거울(22) 상에 나타나게 할 수도 있다. 예컨대, 반투명 거울(22)은 이미지(36)를 이용객(18)의 관람을 위한 증강 현실 이미지(38)로서 반사할 수도 있다. 따라서, 증강 현실 이미지(38)는 3D 아이웨어(34)를 착용한 이용객(18)의 시점에서 3D 환경인 것처럼 보이는 반사된 한 쌍의 2D 이미지(예컨대, 이미지(36))를 포함할 수도 있다. 또한, 반투명 거울(22)은 이용객(18)이 증강 현실 이미지(38)와 공연 영역(16) 내의 물체(20)를 동시에 볼 수 있도록 반투명할 수도 있다. 반투명 거울(22)은 (불투명한) 증강 현실 이미지(38)의 표시를 가능하게 하지만 그렇지 않으면 투명하게 유지되는 유리 또는 다른 적절한 재료로 구성될 수도 있다. 도시된 바와 같이, 증강 현실 이미지(38)는 풍경(39)(예컨대, 나무 및 덤불)과 새(40)를 포함한다. 이용객(18)의 시점에서, 물체(20)는 증강 현실 이미지(38)의 일부인 것처럼 보일 수 있고(또는 그 역도 가능), 증강 현실 이미지(38)와 상호 작용하는 것처럼(예컨대, 풍경(39) 및/또는 새(40)와 상호 작용하는 것처럼) 보일 수도 있다. 예컨대, 물체(20)는 3D 아이웨어(34)를 착용한 이용객(18)의 시점에서 증강 현실 이미지(38)의 3D 환경의 일부인 것처럼 보일 수도 있다. 특정 실시예에서, 증강 현실 이미지(38)는 풍경(39) 및 새(40)에 추가로 또는 그 대신에 다른 유형의 이미지/물체(예컨대, 캐릭터, 날씨, 구조물, 차량, 표지판)를 포함할 수도 있다.
따라서, 이미지(36)는 증강 현실 이미지(38)로서 반투명 거울(22)에 의해 반사되거나 및/또는 반투명 거울(22) 상에 투사된다. 이용객(18)은 놀이기구 탑승물(10) 내에 위치되고 반투명 거울(22)을 바라보는 동안 3D 아이웨어(34)를 착용할 수도 있다. 특정 실시예에서, 3D 아이웨어(34)는 이용객(18)이 용이하게 착용하고 벗을 수 있는 무선 헤드셋일 수도 있다(예컨대, 3D 아이웨어(34)는 이용객(18)이 3D 환경을 볼 수 있게 하는 한 쌍의 3D 안경일 수도 있다). 이용객(18)은 관람 영역(14)에 들어가기 전 또는 들어간 후에 3D 안경을 쉽게 착용할 수 있고, 3D 아이웨어(34)로 물체(20) 및 증강 현실 이미지(38)의 3D 환경을 볼 수 있으며, 관람 영역(14)을 나갈 때 3D 안경을 쉽게 벗을 수도 있다. 이용객(18)은 관람 영역(14)에 들어갈 때 3D 아이웨어(34)를 제공받을 수 있고, 관람 영역(14)을 나갈 때 3D 아이웨어(34)를 반납할 수도 있다.
프로젝터(26) 및 반투명 거울(22)은 증강 현실 이미지(38)가 "실제"인 것처럼 보이고 반투명 거울(22)이 이용객의 시점에서 눈에 보이지 않는 것처럼 보이도록 증강 현실 이미지(38)를 제공할 수도 있다. 어떤 경우에, 이것은 프로젝터(26) 및 반투명 거울(22)이 페퍼스 고스트 효과를 생성함으로써 달성된다. 즉, 프로젝터(26)에 의해 투사된 이미지(36)는 반투명 거울(22)에 의해 반사되며, 이는 이용객의 시점에서 증강 현실 이미지(38)로 보인다. 반투명 거울(22) 뒤의 물체(20)는 이용객의 시점에서 증강 현실 이미지(38)의 일부인 것처럼 보일 수도 있다(예컨대, 증강 현실 이미지(38)의 3D 환경의 일부인 것처럼 보일 수도 있음).
이 효과(예컨대, 페퍼스 고스트 효과)를 달성하기 위해, 반투명 거울(22)은 반투명 거울(22)이 이용객(18)의 관람을 위해 이미지(36)를 반사시킬 수 있게 하는 프로젝터(26)에 대해 소정 각도(41)로 배치될 수도 있다. 이에 따라, 각도(41)는 놀이기구 탑승물 시스템(10)의 특정 치수(예컨대, 이용객(18)과 반투명 거울(22) 사이의 거리, 반투명 거울(22) 및 프로젝터(26)의 치수, 관람 영역(14) 및 공연 영역(16)의 크기, 및 기타 요인)에 따라 바뀔 수도 있다. 예컨대, 특정 실시예에서 각도(41)는 45도일 수 있고, 일부 실시예에서 각도(41)는 30도 내지 60도의 범위일 수도 있다. 일부 실시예에서, 반투명 거울(22)은 본질적으로 바닥으로부터 수직으로 연장될 수 있으며, 오버헤드 프로젝터가 이미지(36)를 제공할 수도 있다.
도 1은 반투명 거울(22)에 의해 반사되는 증강 현실 이미지(38)를 도시하지만, 일부 실시예에서, 반투명 거울(22)은 프로젝터(26)가 반투명 거울(22) 상에 증강 현실 이미지(38)를 직접 투사하도록 프로젝터(26)를 포함할 수도 있다. 즉, 반투명 거울(22)은 이용객(18)이 그것을 통해 볼 수 있고 물체(20) 및 증강 현실 이미지(38)를 동시에 볼 수 있게 하는 "투시(see-through)" 전자 디스플레이를 포함할 수도 있다. 투시 디스플레이는 유리와 같은 임의의 적절한 재료로 만들어질 수 있으며, LED, OLED 또는 LCD와 같은 임의의 적절한 디스플레이 기술을 사용할 수도 있다. 또한, 프로젝터(26)를 포함하는 반투명 거울(22)은 3D 아이웨어(34)를 통해 볼 때 증강 현실 이미지(38)를 3D 환경으로서 제공할 수도 있다.
특정 실시예에서, 프로젝터(26)는 반투명 거울(22)에 의해 반사되는 물리적 물체로 대체될 수도 있다. 예컨대, 물리적 물체는 프로젝터(26)의 유사한 일반적인 위치에 위치될 수 있으며, 반투명 거울(22) 상에 증강 현실 이미지(38)로서 나타날 수도 있다. 이러한 물리적 물체는 살아 있는 듯한 얼굴 및/또는 신체를 포함할 수도 있다. 반투명 거울(22)은 살아 있는 듯한 얼굴 및/또는 신체와 이들의 움직임을 반사할 수도 있다. 또한, 공연 영역(16)은 미완성의 물리적 캐릭터(blank physical character)를 포함할 수도 있다. 살아 있는 듯한 얼굴 및/또는 신체는 미완성의 물리적 캐릭터 위에 겹쳐질 수도 있다. 이에 따라, 증강 현실 이미지(38) 및 공연 영역(16)을 동시에 보는 이용객(18)의 시점에서, 물리적인, 살아 있는 듯한 얼굴 및/또는 신체는 공연 영역(16) 내에서 움직이는 것처럼 보일 수 있는 공연 영역(16) 내의 실제 물체인 것처럼 보일 수도 있다.
일부 실시예에서, 공연 영역(16)은 이용객(18) 및/또는 이용객(18)에 인접한 물체(예컨대, 관람 영역(14) 내의 물체)를 반사하는 거울을 포함할 수도 있다. 이용객(18)은 반사된 이미지(예컨대, 이용객(18) 및 이용객(18)에 인접한 물체의 반사된 이미지)와 증강 현실 이미지(38)가 동일한 이미지 또는 애니메이션의 일부인 것처럼 보이도록 거울 상의 반사된 이미지와 반투명 거울(22) 상의 증강 현실 이미지(38)를 동시에 볼 수도 있다.
이용객(18)과 증강 현실 시스템(12)(예컨대, 이용객(18)에게 보여지는 물체(20) 및 증강 현실 이미지(38)) 사이의 더 큰 상호 작용을 가능하게 하기 위해, 이용객 추적 센서(32)는 증강 현실 이미지(38)가 실제처럼 보이고 반투명 거울(22)이 이용객의 시점에서 눈에 보이지 않는 것처럼 보이도록(예컨대, 페퍼스 고스트 효과) 이용객의 머리의 위치를 기초로 증강 현실 이미지(38)의 수정 또는 유지를 용이하게 할 수도 있다. 구체적으로, 예컨대, 증강 현실 이미지(38)는 이용객(18)의 위치에 기초하여 적절한 시점을 제공하도록 수정될 수도 있다. 특정 실시예에서, 이용객 추적 센서(32)는 이용객(18)의 일반적인 위치의 위치, 이용객(18)의 눈의 위치(예컨대, 눈을 추적하는 데 사용되는 적외선에 의함), 이용객(18)의 얼굴 특징들의 위치(들), 및/또는 이용객(18)의 신체 움직임과 같은 이용객(18)의 다른 부분의 위치를 결정할 수도 있다. 도시된 바와 같이, 이용객 추적 센서(32)는 탐지 가능 영역(42)(예컨대, 점선(44)으로 정의됨) 내에서 이용객의 머리 위치를 결정할 수도 있다. 탐지 가능 영역(42)은 관람 영역(14)의 전부 또는 일부를 포함할 수도 있다. 특정 실시예에서, 이용객 추적 센서(32)는 이용객(18)의 위치를 결정하기 위해 이용객(18)을 운반하는 차량의 위치를 결정할 수도 있다. 도시된 바와 같이, 이용객 추적 센서(32)는 개략적으로 반투명 거울(22) 위의 빔(46)에 장착된다. 빔(42)은 놀이기구 탑승물 시스템(10)의 구조물의 일부일 수도 있다. 특정 실시예에서, 이용객 추적 센서(32)는 놀이기구 탑승물 시스템(10)의 다른 부분(예컨대, 반투명 거울(22))에 장착될 수도 있다.
이용객 추적 센서(32)는 이용객의 머리 또는 이용객(18)의 다른 부분의 위치를 결정하는 임의의 적절한 센서를 포함할 수도 있다. 예컨대, 이용객 추적 센서(32)는 이용객의 머리, 골격 특징, 신체 움직임, 눈, 얼굴 특징 및/또는 이용객(18)의 다른 부분을 탐지하는 카메라를 포함할 수도 있다. 일부 실시예에서, 3D 아이웨어(34)는 이용객 추적 센서(32)에 의해 탐지될 수 있는 마커(marker)를 포함할 수도 있다. 예컨대, 마커는 퀵 리스폰스("QR") 코드, 바코드 또는 다른 탐지 가능한 마커(예컨대, 적외선을 반사하는 역반사 마크)를 포함할 수도 있다. 빔(46) 상에 배치되거나 이용객(18)과 이격된 놀이기구 탑승물 시스템(10)의 다른 곳에 배치된 이용객 추적 센서(32)는 마커(예컨대, QR 코드)를 탐지하여 이용객의 머리 위치를 결정할 수도 있다. 또한, 이용객의 머리에 대한 추적이 본 개시 전반에 걸쳐서 설명되었지만, 이러한 추적은 이용객의 머리 및/또는 눈에 관한 정보를 표시 및/또는 제공할 수 있는 다양한 다른 수단의 예이다.
이용객 추적 센서(32)는 이용객의 머리 위치를 나타내는 신호를 증강 현실 시스템(12)의 제어기에 출력할 수도 있다. 예컨대, 이용객(18)이 관람 영역(14) 내에 배치되는 동안, 이용객 추적 센서(32)는 이용객의 머리 위치를 결정하고 이용객의 머리 위치를 나타내는 신호를 제어기에 출력할 수도 있다. 그 후에, 증강 현실 시스템(12)의 제어기는 증강 현실 이미지(38)를 유지하기 위해 이용객의 머리 위치에 기초하여 (예컨대, 프로젝터(26)에 의해 투사된 이미지(36)를 조정함으로써) 반투명 거울(22) 상에 표시된 증강 현실 이미지(38)를 조정할 수도 있다. 이용객(18)이 관람 영역(14)을 돌아다니거나 및/또는 반투명 거울(22)에 대해 이동함에 따라, 제어기는 이용객의 머리의 변경된 위치에 기초하여 증강 현실 이미지(38)를 업데이트한다. 이용객(18)이 3D 아이웨어(34)를 통해 볼 때, 증강 현실 이미지(38)의 3D 환경은 이용객(18)이 이동함에 따라 물체(20)에 대해 움직이는 것처럼 보일 수도 있다. 예컨대, 3D 환경의 특정 부분(예컨대, 식물, 캐릭터, 날씨)은 이용객(18)이 이동함에 따라 서로에 대해 그리고 물체(20)에 대해 움직이는 것처럼 보일 수도 있다. 이용객(18)의 시점에서 이용객(18)에 더 가까운 것처럼 보이는 증강 현실 이미지(38)의 부분들은 이용객(18)으로부터 더 먼 것처럼 보이는 증강 현실 이미지(38)의 부분들보다 더 많이 움직이는 것처럼 보일 수도 있다(예컨대, 더 큰 시차를 가질 수 있음). 이에 따라, 이용객(18)의 시점에서 증강 현실 이미지(38) 및/또는 물체(20)의 시차 효과가 생성될 수도 있다. 시차 효과에 의해 증강 현실 시스템(12)은 증강 현실 이미지(38)의 부분(예컨대, 풍경(39) 및 새(40))의 3D 움직임을 서로에 대해 시뮬레이션하고 물체(20)의 3D 움직임을 증강 현실 이미지(38)의 부분들에 대해 시뮬레이션할 수 있다.
일부 실시예에서, 증강 현실 시스템(12)은 증강 현실 효과(예컨대, 물체(20), 증강 현실 이미지(38) 및/또는 이용객(18)) 및/또는 놀이기구 탑승물 시스템(10)의 다른 부분(들)을 촬영하는 추가 카메라를 포함할 수도 있다. 또한, 증강 현실 시스템(12)은 증강 현실 시스템(12)이 카메라의 시점에서 증강 현실 효과를 정확하게 표현할 수 있도록 카메라의 위치를 추적하는 센서를 포함할 수도 있다. 예컨대, 본 명세서에 기재된 제어기는 카메라의 위치에 기초하여 증강 현실 이미지(38)를 제공 및/또는 업데이트할 수도 있다.
특정 실시예에서, 증강 현실 시스템(12)은 공연 영역(16) 내의 물체(20)의 위치를 추적하기 위한 물체 추적 센서를 포함할 수도 있다. 예컨대, 물체 추적 센서는 도시된 실시예에서 (예컨대, 물체(20)로 표시된 바와 같은) 연예인의 위치를 결정할 수도 있다. 물체 추적 센서는 물체(20)의 위치를 나타내는 신호를 증강 현실 시스템(12)의 제어기로 출력할 수도 있다. 제어기는 센서 신호(예컨대, 물체(20)의 위치에 기초함)에 기초하여 반투명 거울(22) 상에 표시된 증강 현실 이미지(38)를 조정할 수도 있다. 예컨대, 물체(20)가 공연 영역(16) 내의 제 1 위치에서 제 2 위치로 이동하면, 제어기는 물체 추적 센서로부터 제 1 및 제 2 위치를 나타내는 신호를 수신할 수도 있다. 물체(20)의 위치(예컨대, 제 1 위치 및 제 2 위치)에 기초하여, 제어기는 반투명 거울(22) 상의 증강 현실 이미지(38)를 조정할 수도 있다. 제어기는 물체(20)가 증강 현실 이미지(38) 내에서 상이한 심도로 나타나게 하기 위해 증강 현실 이미지(38)의 특정 부분을 가릴 수도 있다. 이에 따라, 물체 추적 센서는 물체(20)가 이용객(18)의 시점에서 증강 현실 이미지(38)와 상호 작용하는 것을 가능하게 할 수도 있다. 물체 추적 센서는 대체로 공연 영역(16) 위에(예컨대, 이용객 추적 센서(32)에 인접한 빔(46) 상에) 또는 놀이기구 탑승물 시스템(10) 내의 다른 위치에 배치될 수도 있다.
특정 실시예에서, 놀이기구 탑승물 시스템(10)은 공연 영역(16) 내에 다수의 물체(20)(예컨대, 다수의 연예인, 다수의 소품, 다수의 동물 또는 이들의 조합)를 포함할 수도 있다. 이러한 실시예에서, 물체 추적 센서는 공연 영역(16) 내의 각 물체(20)의 위치를 결정하고 추적할 수도 있다. 예컨대, 공연 영역(16) 내의 각 물체(20)는 물체 추적 센서에 의해 탐지 가능한 마커(예컨대, QR 코드)를 포함할 수도 있다. 물체 추적 센서는 마커들의 각자의 위치를 기초로 각 물체(20)의 각자의 위치를 결정할 수도 있다. 특정 실시예에서, 증강 현실 시스템(12)은 각 물체(20)에 대해 개별 물체 추적 센서(예컨대, 다수의 물체 추적 센서)를 포함할 수도 있다. 각각의 물체 추적 센서는 각각의 물체(20)의 위치를 나타내는 신호를 제어기로 출력할 수도 있다. 증강 현실 시스템(12)은 이용객(18)이 증강 현실 이미지(38) 및 다수의 물체(20)를 볼 수 있도록 이용객(18)의 관람을 위한 증강 현실 이미지(38)를 제공할 수도 있다. 다수의 물체(20)는 이용객(18)의 시점에서 증강 현실 이미지(38)와 상호 작용하는 것처럼 보일 수도 있다. 예컨대, 3D 아이웨어(34)를 통해 증강 현실 이미지(38)를 보는 이용객(18)은 증강 현실 이미지(38)의 3D 환경(예컨대, 풍경(39) 및 새(40))과 상호 작용하는 물체(20)를 볼 수도 있다.
특정 실시예에서, 놀이기구 탑승물 시스템(10)은 관람 영역(14) 내에 다수의 이용객(18)이 위치될 수도 있다. 다수의 이용객(18)은 단일 반투명 거울(22)을 보거나, 별도의 개별 반투명 거울(22)을 볼 수도 있다. 다수의 이용객(18)이 있는 실시예의 경우, 증강 현실 시스템(12)은 다수의 이용객 추적 센서(32)(예컨대, 각각의 이용객(18)에 대한 개별 이용객 추적 센서(32))를 포함할 수도 있다. 또한, 놀이기구 탑승물 시스템(10)은 다수의 증강 현실 시스템(12)(예컨대, 각각의 이용객(18)에 대한 개별 증강 현실 시스템(12))을 포함할 수도 있다. 각각의 증강 현실 시스템(12)은 각각의 이용객(18)의 관람을 위해 별도의 증강 현실 이미지(38)를 제공할 수도 있다. 또한, 각각의 이용객(18)은 독립적인 3D 아이웨어(34)를 통해 증강 현실 이미지(38)를 볼 수도 있다.
단일 반투명 거울(22) 및 다수의 이용객(18)이 있는 특정 실시예에서, 증강 현실 시스템(12)은 제어기를 통해 이용객(18)의 평균 위치(예컨대, 2명의 이용객(18)의 평균 위치)를 결정할 수도 있다. 예컨대, 제어기는 단일 이용객 추적 센서(32) 또는 다수의 이용객 추적 센서(32)로부터 신호를 수신할 수 있으며, 각각의 신호는 각각의 이용객(18)의 각자의 위치를 나타낸다. 제어기는 이용객(18)의 위치들의 평균 위치를 결정할 수도 있다. 평균 위치에 기초하여, 제어기는 이미지(36)를 프로젝터(26)에 제공할 수도 있다. 프로젝터(26)는 반투명 거울(22)에 의해 증강 현실 이미지(38)로서 반사될 이미지(36)를 투사할 수도 있다. 다수의 이용객(18)은 물체(20) 및 증강 현실 이미지(38)를 볼 수 있고, 물체(20)는 다수의 이용객(18)의 각자의 시점에서 증강 현실 이미지(38)와 상호 작용하는 것처럼 보일 수도 있다.
단일 반투명 거울(22) 및 다수의 이용객(18)이 있는 일부 실시예에서, 증강 현실 시스템(12)은 각각의 이용객(18)에 대해 별도의 개별 증강 현실 이미지(38)를 생성할 수도 있다. 각각의 이용객(18)은 그들의 시점에 대해 생성된 각자의 증강 현실 이미지(38)만을 볼 수도 있다. 예컨대, 각각의 증강 현실 이미지(38)는 특정 이용객(18)을 위해 특별히 제공되는 개별적인 시간순 이미지들을 포함할 수도 있다. 또한, 반투명 거울(22)은 각각의 증강 현실 이미지(38)를 순차적으로 표시할 수도 있다. 예컨대, 4명의 이용객(18)이 반투명 거울(22)을 보는 실시예에서, 증강 현실 시스템(12)은 4세트의 증강 현실 이미지(38)를 제공할 수도 있다. 반투명 거울(22)은 이용객(18)의 관람을 위해 각각의 증강 현실 이미지(38)의 프레임(예컨대, 4개의 프레임 세트)을 표시할 수도 있다. 3D 아이웨어(34)는 이용객(18)이 그들 각자의 증강 현실 이미지(38)만을 보게 할 수도 있다. 예컨대, 3D 아이웨어(34)는 각각의 이용객(18)이 그들 각자의 증강 현실 이미지(38)의 각 프레임을 볼 수 있게 하고, 다른 증강 현실 이미지(38)를 포함하는 프레임에 대해 각각의 이용객(18)의 시야를 차단할 수도 있다(예컨대, 3D 안경(34)은 이용객(18)이 그들 각자의 증강 현실 이미지(38)의 프레임만을 볼 수 있게 하고 다른 프레임을 차단하는 셔터 기구를 포함할 수도 있음). 4명의 이용객(18)의 각각의 이용객(18)은 반투명 거울(22)에 의해 제공되는 매 4 프레임마다 볼 것이다. 또한, 반투명 거울(22)은 각각의 이용객(18)이 보는 프레임 및 증강 현실 이미지(38)가 연속적인 애니메이션인 것처럼 보이도록 높은 속도(예컨대, 초당 240 프레임)로 증강 현실 이미지(38)의 프레임을 제공할 수도 있다. 즉, 이용객(18)은 높은 프레임 속도로 인해 매 4 프레임 중 3 프레임 동안 자신의 시야가 차단되는 것을 알아채지 못할 수도 있다. 이에 따라, 각각의 이용객(18)은 놀이기구 탑승물 시스템(10) 내에서 독특하고 개별적인 증강 현실 이미지(38)를 경험할 수도 있다.
도 2는 도 1의 반투명 거울(22) 상의 증강 현실 이미지(38) 및 증강 현실 시스템(12)의 실시예의 정면 사시도이다. 도 2의 시야는 관람 영역(14) 내에 위치된 이용객(18)의 시점일 수도 있다. 물체(20)는 이용객(18)의 시점에서 증강 현실 이미지(38)의 일부인 것처럼 보일 수도 있다. 예컨대, 물체(20)는 증강 현실 이미지(38)의 풍경(39) 옆에 위치된 것처럼 보일 수 있으며, 새(40)는 물체(20) 위로 날아가는 것처럼 보일 수도 있다. 그러나, 도 1에 대하여 전술한 바와 같이, 물체(20)는 실제로는 공연 영역(16) 내에 그리고 반투명 거울(22) 및 증강 현실 이미지(38) 뒤에 위치될 수도 있다. 또한, 증강 현실 시스템(12)은 도시된 실시예에서 반투명 거울(22)을 포함하지만, 이용객(18)은 반투명 거울(22)을 알아채지 못할 수도 있다. 예컨대, 이용객(18)은 반투명 거울(22) 상의 증강 현실 이미지(38)만을 볼 수 있고, 반투명 거울(22)의 다른 부분(예컨대, 가장자리 및 장착용 특징부)을 보지 않을 수도 있다. 놀이기구 탑승물 시스템(10)은 이용객(18)의 시야로부터 반투명 거울(22)의 다른 부분을 숨기는 조명 효과 및/또는 구조물을 포함할 수도 있다.
이용객(18)이 3D 아이웨어(34)로 증강 현실 이미지(38) 및 물체(20)를 볼 때, 물체(20)는 증강 현실 이미지(38)의 3D 환경의 일부인 것처럼 보일 수도 있다. 또한, 증강 현실 시스템(12)의 제어기는 물체(20)가 3D 아이웨어(34)를 착용한 이용객(18)의 시점에서 증강 현실 이미지(38)의 3D 환경(예컨대, 풍경(39) 및 새(40)) 주위를 돌아다니는 것처럼 보이도록 증강 현실 이미지(38)를 조정할 수도 있다. 예컨대, 이용객 추적 센서(32)는 반투명 거울(22) 및/또는 물체(20)에 대한 이용객의 머리의 위치를 결정할 수 있고, 제어기는 이용객의 머리의 상대적 위치에 기초하여 증강 현실 이미지(38)를 업데이트할 수도 있다. 또한, 물체 추적 센서는 물체(20)의 위치를 결정할 수 있으며, 제어기는 물체(20)의 상대적 위치에 기초하여 증강 현실 이미지(38)를 업데이트할 수도 있다. 증강 현실 시스템(12)은 이용객(18)에 더 가까운 것처럼 보이는 3D 환경의 부분들이 이용객(18)으로부터 더 먼 것처럼 보이는 3D 환경의 부분들(더 작은 시차를 가질 수 있음)에 비해 더 많이 움직이는 것(예컨대, 더 큰 시차를 가짐)을 포함하는 시차 효과를 제공할 수도 있다. 증강 현실 이미지(38)의 각 부분의 움직임의 양(예컨대, 시차의 양)은 이용객의 머리, 물체(20), 반투명 거울(22) 및/또는 증강 현실 이미지(38)(예컨대, 증강 현실 이미지(38)의 3D 환경)의 부분들의 상대적 위치에 따라 달라질 수도 있다. 물체(20)는 이용객(18)이 관람 영역(14)을 돌아다닐 때 3D 아이웨어(34)를 착용한 이용객(18)의 시점에서 증강 현실 이미지(38)의 3D 환경과 상호 작용하는 것처럼 보일 수도 있다. 이에 따라, 증강 현실 시스템(12)은 증강 현실 이미지(38)를 제공하고 업데이트하여 이용객(18)에게 상호 작용적이고 재미있는 환경을 제공할 수도 있다.
도 3은 도 1의 증강 현실 시스템(12)의 실시예의 블록도이다. 도시된 바와 같이, 이용객 추적 센서(32) 및 프로젝터(26)는 각각 증강 현실 시스템(12)의 제어기(60)에 통신 가능하게 결합된다. 제어기(60)는 프로세서(62), 메모리(64) 및 사용자 인터페이스(66)를 포함한다. 제어기(60)는 이용객 추적 센서(32)로부터 수신된 신호를 기초로 도 1의 프로젝터(26)에 제공되는 이미지(36)를 제어할 수도 있다. 예컨대, 이용객 추적 센서(32)는 이용객의 머리 위치를 결정하고, 이용객의 머리 위치를 나타내는 센서 신호를 제어기(60)로 출력할 수도 있다. 이용객의 머리 위치에 기초하여, 제어기(60)는, 프로세서(62)를 통해, 증강 현실 이미지(38)로서 반사될 이미지(36)를 나타내는 이미지 데이터를 생성 및/또는 업데이트할 수도 있다. 이미지(36)에 대한 업데이트는 이용객(18)에 더 가까운 것처럼 보이는 증강 현실 이미지(38)의 부분들이 이용객(18)으로부터 더 먼 것처럼 보이는 증강 현실 이미지(38)의 부분들보다 더 많이 움직이는 것을 포함하는 위에서 설명된 시차 효과를 포함할 수도 있다. 제어기(60)는 이미지 데이터를 나타내는 제어 신호를 프로젝터(26)로 출력할 수도 있다. 제어기(60)로부터 수신된 이미지 데이터를 나타내는 제어 신호에 기초하여, 프로젝터(26)는 반투명 거울(22) 상에 증강 현실 이미지(38)를 제공하도록 이미지(36)를 투사 및/또는 업데이트할 수도 있다. 또한, 전술한 바와 같이, 이미지(36)는 증강 현실 이미지(38)로서 반투명 거울(22) 상에 투사되고 3D 아이웨어(34)를 통해 볼 때 3D 환경인 것처럼 보이는 한 쌍의 이미지를 포함할 수도 있다. 이용객(18)은 이용객(18)이 머리를 움직일 때 증강 현실 이미지(38)의 부분들이 서로에 대해 그리고 물체(20)에 대해 움직이도록 시차 효과를 경험할 수도 있다.
제어기(60)는 프로젝터(26)가 특정 인자에 기초하여 최초로 이미지(36)를 제공하기 시작하게 할 수도 있다. 예컨대, 제어기(60)는 이미지(36)를 제공하기 시작하라는 명령을 나타내는 사용자 인터페이스(66)에 대한 입력을 수신할 수도 있다. 이에 응답하여, 제어기(60)는 이용객 추적 센서(32)가 이용객의 머리의 위치를 추적/결정하기 시작하도록 제어 신호를 이용객 추적 센서(32)에 출력할 수도 있다. 이용객의 머리의 초기 위치를 나타내는 초기 센서 신호에 기초하여, 제어기(60)는 이미지 데이터를 나타내는 제어 신호를 프로젝터(26)로 출력할 수도 있다. 특정 실시예에서, 증강 현실 시스템(12)은 이용객 추적 센서(32)를 통해 이용객의 머리의 존재 및 위치를 자동으로 결정할 수 있으며, 제어기(60)는 자동적으로 프로젝터(26)가 사용자 인터페이스(66)에 대한 입력 없이 이용객(18)의 관람을 위해 증강 현실 이미지(38)로서 반사될 이미지(36)를 제공하게 할 수도 있다.
이용객 추적 센서(32)는 이용객의 머리 위치를 지속적으로 탐지하고, 이용객의 머리 위치를 나타내는 센서 신호를 제어기(60)로 출력할 수도 있다. 이에 응답하여, 제어기(60)는 이용객의 머리 위치에 기초하여 이미지 데이터를 업데이트하고, 업데이트된 이미지 데이터를 나타내는 제어 신호를 프로젝터(26)로 출력할 수도 있다. 프로젝터(26)는 이용객(18)의 관람의 위해 업데이트된 이미지 데이터에 기초하여 업데이트된 이미지(36)를 반투명 거울(22)에 제공할 수도 있다(예컨대, 프로젝터(26)는 증강 현실 이미지(38)로서 반투명 거울(22)에 의해 반사되는 이미지(36)를 투사함). 업데이트된 증강 현실 이미지(38)의 부분들은 제어기(60)에 의해 제공되었던 이전의 증강 현실 이미지(38)와 비교하여 움직이는 것처럼 보일 수도 있다. 이에 따라, 증강 현실 시스템(12)은, 제어기(60)를 통해, 증강 현실 이미지(38)의 부분들이 3D 아이웨어(34)를 착용한 이용객(18)의 시점에서 물체(20)에 대해 그리고 서로에 대해 움직이도록 시차 효과를 제공할 수도 있다. 증강 현실 시스템(12)은 사용자 인터페이스(66)에 대한 사용자 입력을 기초로, 경과된 시간을 기초로, 이용객 추적 센서(32)가 더 이상 이용객의 머리 위치를 탐지하지 않는 것을 기초로, 및/또는 다른 요인을 기초로 증강 현실 이미지(38)의 제공을 중단할 수도 있다.
특정 실시예에서, 제어기(60)는 증강 현실 시스템(12)의 다른 부분들에 통신 가능하게 결합될 수도 있다. 예컨대, 제어기(60)는 제어기(60)가 물체 추적 센서로부터 물체(20)의 위치를 나타내는 신호를 수신하고 물체(20)의 위치를 기초로 이미지 데이터를 생성/업데이트할 수 있도록 위에서 설명한 물체 추적 센서에 통신 가능하게 결합될 수도 있다. 또한, 제어기(60)는 반투명 거울(22)에 통신 가능하게 결합될 수도 있다. 예컨대, 반투명 거울(22)이 이용객(18)의 관람을 위한 이미지(36)를 표시하는(예컨대, 증강 현실 이미지(38)를 직접 제공함) 실시예(예컨대, 프로젝터(26)가 반투명 거울(22)에 포함됨)에서, 제어기(60)는 이미지 데이터를 나타내는 신호를 반투명 거울(22)로 출력할 수도 있다. 이에 응답하여, 반투명 거울(22)은 이용객(18)의 관람을 위해 증강 현실 이미지(38)를 표시할 수도 있다. 또한, 제어기(60)는 도 1의 3D 아이웨어(34)에 통신 가능하게 결합될 수도 있다.
특정 실시예에서, 놀이기구 탑승물 시스템(10) 및/또는 증강 현실 시스템(12)은 다양한 기능을 수행하기 위한 추가적인 제어기, 프로세서 및/또는 메모리를 포함할 수도 있다. 예컨대, 다수의 반투명 거울(22)이 있는 실시예에서, 각각의 반투명 거울(22)은 이용객 추적 센서(32)로부터 신호를 수신하고 각각의 반투명 거울(22) 상의 증강 현실 이미지(38)를 제어하고 및/또는 제어기(60)와 통신하는 제어기를 포함할 수도 있다. 일부 실시예에서, 놀이기구 탑승물 시스템(10)의 메모리(64) 및 다른 메모리는 프로세서(62)에 의해 실행 가능한 명령 및/또는 프로세서(62)에 의해 처리될 데이터를 저장하는 하나 이상의 유형의(tangible), 비일시적 컴퓨터 판독 가능 매체를 포함할 수도 있다. 예컨대, 메모리(64)는 랜덤 액세스 메모리(RAM), 읽기 전용 메모리(ROM), 재기록 가능한 비휘발성 메모리(예컨대, 플래시 메모리, 하드 드라이브, 광 디스크), 및/또는 다른 유형의 메모리를 포함할 수도 있다. 또한, 놀이기구 탑승물 시스템(10)의 프로세서(62) 및 다른 프로세서는 하나 이상의 범용 마이크로프로세서, 하나 이상의 주문형 집적회로(application-specific integrated circuit; ASIC), 및/또는 하나 이상의 필드 프로그래머블 게이트 어레이(field programmable gate array; FPGA)를 포함할 수도 있다.
사용자 인터페이스(66)는 제어기(60)와 사용자(예컨대, 운영자) 간의 통신을 용이하게 할 수도 있다. 사용자 인터페이스(66)는 놀이기구 탑승물 시스템(10)에 인접하게 배치되거나, 원격으로 제어되는 또는 자율적으로 작동되는 놀이기구 탑승물 시스템의 경우 원격 위치에 배치될 수도 있다. 예컨대, 사용자 인터페이스(66)는 제어기(60)와의 사용자 상호 작용을 허용하는 버튼, 키보드, 마우스, 트랙패드 및/또는 그와 유사한 것 중 하나 이상을 포함할 수도 있다. 또한, 사용자 인터페이스(66)는 예컨대 그래픽 사용자 인터페이스(GUI), 애플리케이션 인터페이스, 텍스트, 정지 이미지, 비디오 콘텐츠 또는 이들의 조합을 통해 정보의 시각적 표현을 제공하는 전자 디스플레이를 포함할 수도 있다. 사용자 인터페이스(66)는 사용자(예컨대, 놀이기구 탑승물 시스템(10) 및/또는 증강 현실 시스템(12)의 운영자)로부터 입력을 수신할 수도 있다. 예컨대, 사용자 인터페이스(66)에 대한 입력은 놀이기구 탑승물(10) 내에서 증강 현실 시스템(12)에 의해 제공될 원하는 증강 현실 효과를 포함할 수도 있다.
이용객 추적 센서(32) 및/또는 프로젝터(26)는 유선 연결(예컨대, 이더넷, 범용 직렬 버스(USB), CAN 버스 또는 ISO 버스)을 통해 제어기(60)에 연결되고 그와 통신 가능하게 결합될 수도 있다. 예컨대, 이용객 추적 센서(32)가 유선 연결을 통해 제어기(60)로 신호를 출력하고 프로젝터(26)가 유선 연결을 통해 제어기(60)로부터 신호를 수신할 수도 있다. 추가적으로 또는 대안적으로, 이용객 추적 센서(32) 및/또는 프로젝터(26)는 무선 연결을 통해 제어기(60)와 통신할 수도 있다. 예컨대, 프로젝터(26)는 제어기(60)의 제어기 트랜시버(controller transceiver)로부터 신호를 수신하는 트랜시버를 포함할 수도 있다. 프로젝터(32) 트랜시버 및 제어기 트랜시버 각각은 표준 프로토콜(예컨대, Wi-Fi 또는 블루투스) 또는 사설 프로토콜(proprietary protocol)과 같은 임의의 적절한 무선 통신 프로토콜을 활용할 수도 있다.
도 4는 도 1의 증강 현실 시스템(12)을 사용하여 증강 현실 이미지(38)를 생성하고 표시하기 위한 프로세스(80)의 실시예의 흐름도이다. 도시된 바와 같이, 증강 현실 시스템(12)은 먼저 이용객의 머리 위치의 표시를 수신한다(블록 82). 예컨대, 이용객 추적 센서(32)는 이용객의 머리 위치를 결정하고, 이용객의 머리 위치를 나타내는 센서 신호를 도 2의 제어기(60)로 출력할 수도 있다. 제어기(60)는 센서 신호를 수신할 수도 있다.
다음으로, 증강 현실 시스템(12)은 이용객의 머리 위치에 기초하여 증강 현실 이미지(38)를 생성할 수도 있다(블록 84). 예컨대, 제어기(60)는 이용객 추적 센서(32)로부터 수신된 이용객의 머리 위치를 나타내는 센서 신호에 기초하여 이미지 데이터를 나타내는 제어 신호를 출력할 수도 있다(예컨대, 증강 현실 시스템(12)은 제어기(60)를 통해 시차 효과를 제공할 수도 있음). 제어기(60)는, 이미지(36)가 증강 현실 이미지(38)로서 반사될 때, 물체(20)가 이용객(18)의 시점에서 증강 현실 이미지(38)와 상호 작용하는 것처럼 보이도록 이미지 데이터를 제공할 수도 있다. 물체(20)는 3D 아이웨어(34)를 착용한 이용객(18)의 시점에서 증강 현실 이미지(38)의 3D 환경의 일부인 것처럼 보일 수도 있다. 특정 실시예에서, 제어기(60)는 물체 추적 센서로부터 물체(20)의 위치를 나타내는 센서 신호를 수신할 수도 있다. 제어기(60)는 물체(20)의 위치와 이용객의 머리 위치 둘 모두에 기초하여 이미지 데이터를 제공할 수도 있다. 이용객(18) 및 물체(20)의 각자의 위치가 변경됨에 따라, 제어기(60)는 이용객(18)에 더 가까운 것처럼 보이는 반사된 증강 현실 이미지(38)의 부분들이 이용객(18)으로부터 더 먼 것처럼 보이는 3D 환경의 부분들보다 더 많이 움직일 수 있도록(예컨대, 더 큰 시차를 가질 수 있도록) 이미지 데이터를 조정할 수도 있다. 이에 따라, 제어기(60)는 이용객(18)의 시점에서 물체(20) 및/또는 증강 현실 이미지(38)의 부분들이 서로에 대해 움직이는 것을 포함하는 시차 효과를 제공할 수도 있다.
또한, 증강 현실 시스템(12)은 이용객(18)의 관람을 위해 반투명 거울(22) 상에 증강 현실 이미지(38)를 표시할 수도 있다(블록 86). 예컨대, 프로젝터(26)는 이용객(18)의 관람을 위해 증강 현실 이미지(38)로서 거울(22)에 의해 반사될 수 있는 이미지(36)를 투사할 수도 있다. 이용객(18)은 물체(20)와 증강 현실 이미지(38)가 동일한 이미지의 일부인 것처럼 보이도록(예컨대, 3D 아이웨어(34)를 통해 볼 때 동일한 3D 환경의 일부인 것처럼 보이도록) 물체(20)와 증강 현실 이미지(38)를 동시에 볼 수도 있다.
증강 현실 시스템(12)은 이용객(18)이 관람 영역(14) 내에 위치하는 동안 및/또는 이용객(18)이 반투명 거울(22)을 보고 있는 동안 프로세스(80)를 반복적으로 반복할 수도 있다. 예컨대, 이용객의 관람을 위한 최초 증강 현실 이미지(38)를 제공한 후에, 증강 현실 시스템(12)은 이용객(18)의 업데이트된 위치에 기초하여 증강 현실 이미지(38)를 업데이트하기 위해 블록 82, 84 및 86 각각을 반복할 수도 있다. 특정 실시예에서, 증강 현실 시스템(12)은 공연 영역(16) 내의 물체의 업데이트된 위치에 기초하여(예컨대, 물체 탐지 센서에 의해 탐지된 물체의 업데이트된 위치에 기초하여) 증강 현실 이미지(38)를 업데이트할 수도 있다. 프로세스(80)가 반복될 때마다, 물체(20)는 3D 아이웨어(34)를 착용한 이용객(18)의 시점에서 증강 현실 이미지(38)와 상호 작용하는 것처럼 보일 수도 있다.
따라서, 도 1의 놀이기구 탑승물 시스템(10) 및 증강 현실 시스템(12)은 이용객에게 재미있고 상호 작용적인 환경을 제공한다. 예컨대, 증강 현실 헤드셋을 사용하지 않고 증강 현실 효과를 재현하거나 시뮬레이션하기 위해, 증강 현실 시스템(12)은 3D 아이웨어(34)(예컨대, 3D 안경)로 볼 때 3D 이미지 또는 3D 환경인 것처럼 보일 수 있는 이미지(36)를 투사하는 프로젝터(26)를 포함할 수도 있다. 이미지(36)는 반투명 거울(22)에 의해 증강 현실 이미지(38)로서 반사될 수도 있다. 이용객(18)은 3D 아이웨어(34)를 사용하여 증강 현실 이미지(38)를 3D 환경으로 볼 수도 있다. 반투명 거울(22)은 페퍼스 고스트 효과를 생성하기 위해 프로젝터(26)에 대해 소정 각도(41)로 위치될 수 있는데, 페퍼스 고스트 효과는 3D 이미지가 반투명 거울(22) 뒤의 물체(20) 위에 중첩되어 나타나게 할 수도 있다.
또한, 이용객의 머리는 이용객 추적 센서(32)에 의해 추적될 수 있으며, 반투명 거울(22) 및 물체(20)에 대한 이용객의 머리의 위치는 반투명 거울(22) 상에 표시되는 증강 현실 이미지(38)(예컨대, 3D 이미지/환경)를 업데이트하는 데 사용될 수도 있다. 예컨대, 이용객(18)이 머리를 움직일 때, 3D 이미지는 3D 이미지의 부분들을 서로에 대해 그리고 물체(20)에 대해 정확하게 이동시키는 시차 효과를 포함할 수도 있다(예컨대, 이용객(18)에 더 가까운 것처럼 보이는 3D 이미지의 부분들이 이용객(18)으로부터 더 먼 것처럼 보이는 3D 이미지 부분들보다 더 많이 움직일 수 있음). 이러한 방식으로, 증강 현실 헤드셋 대신에 단지 경량의 3D 안경(예컨대, 3D 아이웨어(34))을 착용할 때 이용객(18)이 볼 수 있는 증강 현실 효과가 생성될 수도 있다. 이에 따라, 놀이기구 탑승물 시스템(10) 및 증강 현실 시스템(12)은 3D 아이웨어(34)를 착용한 이용객(18)의 즐거움을 위해 생성된 이미지(예컨대, 증강 현실 이미지(38)) 및 실제 물체(예컨대, 물체(20))를 사용하여 상호 작용적인 3D 환경을 제공한다.
본 개시의 특정한 특징만이 본 명세서에 예시되고 설명되었지만, 통상의 기술자는 많은 수정 및 변경을 생각할 수 있을 것이다. 따라서, 첨부된 청구범위는 본 개시의 진정한 사상 내에 있는 이러한 모든 수정 및 변경을 포함할 의도임을 이해해야 한다.
본 명세서에 제시되고 청구된 기술은 본 기술 분야를 명백하게 향상시키고 따라서, 추상적이거나 무형적이거나 순수하게 이론적이지 않은 실제적인 성질의 물질적 대상 및 구체적인 예들을 참조하고 그에 적용된다. 또한, 본 명세서의 끝에 첨부된 임의의 청구범위가 "...[기능]을 [실행]하는 수단" 또는 "...[기능]을 [실행]하는 단계"로 표기된 하나 이상의 요소를 포함하는 경우, 그러한 요소는 35 U.S.C. 112(f)에 따라 해석될 의도이다. 그러나, 임의의 다른 방식으로 표기된 구성요소를 포함하는 청구범위에 대해서는 이러한 구성요소가 35 U.S.C. 112(f)에 따라 해석되지 않아야 함을 의미한다.
Claims (20)
- 놀이기구 탑승물(amusement ride)을 위한 증강 현실 시스템에 있어서,
이용객의 위치를 결정하도록 구성된 이용객 추적 센서;
이미지를 투사하도록 구성된 프로젝터;
상기 이미지를 증강 현실 이미지로서 반사하도록 구성된 반투명 거울; 및
프로세서와 메모리를 구비하는 제어기를 포함하고,
상기 제어기는,
상기 이용객 추적 센서로부터 이용객의 위치를 나타내는 센서 신호를 수신하고;
상기 이용객의 위치에 기초하여 이미지 데이터를 생성하고;
상기 이미지 데이터를 나타내는 제어 신호를 상기 프로젝터에 출력하도록 구성되며,
상기 프로젝터는 상기 이미지 데이터를 나타내는 상기 제어 신호에 기초하여 상기 이미지를 투사하도록 구성되는
증강 현실 시스템. - 제 1 항에 있어서,
상기 반투명 거울의 제 1 측에 물체가 배치되고, 상기 이용객은 상기 제 1 측의 반대편에 있는 상기 반투명 거울의 제 2 측에 위치되며, 상기 이미지는 3D 아이웨어(eyewear)를 통해 볼 때 3차원(3D) 이미지로 보이도록 구성되는
증강 현실 시스템. - 제 2 항에 있어서,
상기 증강 현실 이미지는 상기 이용객의 시점에서 상기 물체와 상호 작용하도록 구성되는
증강 현실 시스템. - 제 2 항에 있어서,
상기 3D 아이웨어를 포함하고,
상기 3D 아이웨어는 상기 증강 현실 이미지가 상기 3D 아이웨어를 착용한 이용객의 시점에서 3D 이미지로 보이게 하도록 구성되는
증강 현실 시스템. - 제 1 항에 있어서,
상기 제어기는 상기 이용객의 위치에 기초하여 상기 이미지를 반복적으로 업데이트하도록 구성되는
증강 현실 시스템. - 제 1 항에 있어서,
상기 제어기는 사용자 입력, 시간 순서, 또는 이들의 조합에 기초하여 상기 이미지를 생성하도록 구성되는
증강 현실 시스템. - 제 1 항에 있어서,
상기 이용객 추적 센서는 역반사된 적외선을 탐지하도록 구성되는
증강 현실 시스템. - 제 1 항에 있어서,
상기 반투명 거울은 상기 프로젝터에 대해 30도와 60도 사이의 각도로 배치되는
증강 현실 시스템. - 제 1 항에 있어서,
상기 프로젝터는 상기 반투명 거울의 위 또는 아래에 배치되고, 상기 이용객의 시점에서 가려지는
증강 현실 시스템. - 놀이기구 탑승물을 위한 증강 현실 이미지를 생성하는 방법에 있어서,
이용객의 위치의 표시를 수신하는 것;
상기 이용객의 위치의 표시를 수신한 것에 응답하여, 상기 이용객의 위치를 기초로 이미지 데이터를 생성하는 것;
상기 이미지 데이터에 기초하여 반투명 거울 상에 이미지를 투사하는 것; 및
상기 이용객의 관람을 위해 상기 이미지를 증강 현실 이미지로서 이용객 쪽으로 반사하는 것― 상기 증강 현실 이미지는 3D 아이웨어를 통해 볼 때 3차원(3D) 이미지로 보이도록 구성됨 ―을 포함하는
증강 현실 이미지 생성 방법. - 제 10 항에 있어서,
상기 이용객의 제 2 위치에 기초하여 상기 이미지 데이터를 업데이트하는 것을 포함하는
증강 현실 이미지 생성 방법. - 제 10 항에 있어서,
상기 이미지는 상기 3D 아이웨어를 통해 볼 때 3D 이미지로 보이도록 구성된 2개 이상의 2차원(2D) 이미지를 포함하는
증강 현실 이미지 생성 방법. - 제 10 항에 있어서,
상기 반투명 거울의 제 1 측에 위치된 물체의 위치의 표시를 수신하는 것을 포함하고,
상기 이용객의 위치는 상기 반투명 거울의 제 2 측에 배치되며, 상기 제 1 측은 상기 제 2 측의 반대편에 있는
증강 현실 이미지 생성 방법. - 제 13 항에 있어서,
상기 물체의 위치에 기초하여 상기 이미지 데이터를 조정하는 것을 포함하는
증강 현실 이미지 생성 방법. - 놀이기구 탑승물을 위한 증강 현실 시스템에 있어서,
이용객의 위치를 결정하도록 구성된 이용객 추적 센서;
이미지를 투사하도록 구성된 3차원(3D) 프로젝터;
상기 이미지를 증강 현실 이미지로서 반사하도록 구성된 반투명 거울;
3D 아이웨어; 및
프로세서 및 메모리를 구비하는 제어기를 포함하고,
상기 제어기는,
상기 이용객 추적 센서로부터 상기 이용객의 위치를 나타내는 센서 신호를 수신하고;
상기 이용객의 위치에 기초하여 이미지 데이터를 생성하고;
상기 이미지 데이터를 나타내는 제어 신호가 상기 3D 프로젝터로 하여금 상기 이미지 데이터를 기초로 상기 반투명 거울 상에 상기 이미지를 투사하게 하도록 상기 제어 신호를 상기 3D 프로젝터로 출력하도록 구성되는
증강 현실 시스템. - 제 15 항에 있어서,
상기 제어기는 상기 증강 현실 이미지가 상기 3D 아이웨어를 통해 볼 때 3D 환경으로 보이도록 상기 이미지 데이터를 생성하도록 구성되는
증강 현실 시스템. - 제 15 항에 있어서,
상기 제어기는, 상기 증강 현실 이미지가 시차 효과(parallax effect)를 통해 상기 반투명 거울의 이용객 반대편 측에 배치된 하나 이상의 물체에 대해 움직이는 것처럼 보이게 하기 위해, 상기 이용객의 업데이트된 위치를 기초로 상기 이미지 데이터를 업데이트하도록 구성되는
증강 현실 시스템. - 제 15 항에 있어서,
상기 제어기는 상기 이용객의 위치에 기초하여 상기 이미지 데이터를 조정하도록 구성되는
증강 현실 시스템. - 제 15 항에 있어서,
상기 이용객 추적 센서는 상기 3D 아이웨어 내에 배치된 마커(marker)를 포함하고, 상기 마커는 상기 이용객의 위치를 나타내는 위치 데이터를 전송하도록 구성되는
증강 현실 시스템. - 제 15 항에 있어서,
상기 이용객 추적 센서는 상기 이용객의 위치를 결정하도록 구성된 카메라를 포함하는
증강 현실 시스템.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/234,739 | 2018-12-28 | ||
US16/234,739 US10818090B2 (en) | 2018-12-28 | 2018-12-28 | Augmented reality system for an amusement ride |
PCT/US2019/067659 WO2020139719A1 (en) | 2018-12-28 | 2019-12-19 | Augmented reality system for an amusement ride |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210107786A true KR20210107786A (ko) | 2021-09-01 |
Family
ID=69182724
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020217023301A KR20210107786A (ko) | 2018-12-28 | 2019-12-19 | 놀이기구 탑승물을 위한 증강 현실 시스템 |
Country Status (8)
Country | Link |
---|---|
US (1) | US10818090B2 (ko) |
EP (1) | EP3903144A1 (ko) |
JP (1) | JP7482881B2 (ko) |
KR (1) | KR20210107786A (ko) |
CN (1) | CN113227884A (ko) |
CA (1) | CA3123846A1 (ko) |
SG (1) | SG11202106102RA (ko) |
WO (1) | WO2020139719A1 (ko) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201801762D0 (en) * | 2018-02-02 | 2018-03-21 | Interesting Audio Visual Ltd | Apparatus and method |
EP3968259A1 (en) | 2020-09-15 | 2022-03-16 | Hyosung Tns Inc. | Digital desk and image control method using same |
US11590432B2 (en) * | 2020-09-30 | 2023-02-28 | Universal City Studios Llc | Interactive display with special effects assembly |
KR102233395B1 (ko) * | 2020-10-12 | 2021-03-30 | (주)투핸즈인터랙티브 | 라이다 센서를 이용한 증강현실 인터랙티브 스포츠 장치 |
US20220266158A1 (en) * | 2021-02-22 | 2022-08-25 | Universal City Studios Llc | Mirror wedge illusion system and method |
US11899348B2 (en) | 2022-03-02 | 2024-02-13 | Universal City Studios Llc | Show effect system for attraction system |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000035200A1 (en) * | 1998-12-07 | 2000-06-15 | Universal City Studios, Inc. | Image correction method to compensate for point of view image distortion |
WO2001095061A2 (en) | 1999-12-07 | 2001-12-13 | Frauenhofer Institut Fuer Graphische Datenverarbeitung | The extended virtual table: an optical extension for table-like projection systems |
US20040135744A1 (en) | 2001-08-10 | 2004-07-15 | Oliver Bimber | Virtual showcases |
AU2002361572A1 (en) * | 2001-10-19 | 2003-04-28 | University Of North Carolina At Chape Hill | Methods and systems for dynamic virtual convergence and head mountable display |
JP4576390B2 (ja) * | 2004-12-09 | 2010-11-04 | パイオニア株式会社 | 立体的二次元画像表示装置及び立体的二次元画像表示方法 |
BRPI0520196A2 (pt) | 2005-04-25 | 2009-04-22 | Yappa Corp | sistema de geraÇço e exibiÇço de imagem em 3d |
EP2304491A1 (en) * | 2008-07-10 | 2011-04-06 | Real View Imaging Ltd. | Broad viewing angle displays and user interfaces |
US20100253700A1 (en) | 2009-04-02 | 2010-10-07 | Philippe Bergeron | Real-Time 3-D Interactions Between Real And Virtual Environments |
US9159151B2 (en) * | 2009-07-13 | 2015-10-13 | Microsoft Technology Licensing, Llc | Bringing a visual representation to life via learned input from the user |
WO2011018655A2 (en) * | 2009-08-13 | 2011-02-17 | Bae Systems Plc | Head up display system |
US8292733B2 (en) * | 2009-08-31 | 2012-10-23 | Disney Enterprises, Inc. | Entertainment system providing dynamically augmented game surfaces for interactive fun and learning |
WO2011045437A1 (en) | 2009-10-16 | 2011-04-21 | Realfiction Aps | An interactive 3d display, a method for obtaining a perceived 3d object in the display and use of the interactive 3d display |
US9164581B2 (en) | 2010-10-22 | 2015-10-20 | Hewlett-Packard Development Company, L.P. | Augmented reality display system and method of display |
US9529424B2 (en) * | 2010-11-05 | 2016-12-27 | Microsoft Technology Licensing, Llc | Augmented reality with direct user interaction |
US8576276B2 (en) | 2010-11-18 | 2013-11-05 | Microsoft Corporation | Head-mounted display device which provides surround video |
EP2649492A4 (en) | 2010-12-06 | 2017-11-01 | EL Yacoubi, Dalia Salem Hassan | 3d conference system |
US8692738B2 (en) | 2011-06-10 | 2014-04-08 | Disney Enterprises, Inc. | Advanced Pepper's ghost projection system with a multiview and multiplanar display |
US8831780B2 (en) * | 2012-07-05 | 2014-09-09 | Stanislav Zelivinski | System and method for creating virtual presence |
WO2014056000A1 (en) | 2012-10-01 | 2014-04-10 | Coggins Guy | Augmented reality biofeedback display |
US8857994B2 (en) * | 2012-10-30 | 2014-10-14 | Disney Enterprises, Inc. | Transparent display with dynamic mask |
JP2015060296A (ja) * | 2013-09-17 | 2015-03-30 | 船井電機株式会社 | 空間座標特定装置 |
US9723300B2 (en) * | 2014-03-17 | 2017-08-01 | Spatial Intelligence Llc | Stereoscopic display |
US9998708B1 (en) * | 2014-07-23 | 2018-06-12 | Shared Space Studios LLC | Network architecture for immersive audio-visual communications by temporary communication structures |
US9819907B2 (en) * | 2014-09-25 | 2017-11-14 | Steve H. McNelley | Communication stage and related systems |
US10298877B2 (en) * | 2014-09-25 | 2019-05-21 | Steve H. McNelley | Communication stage and display systems |
US20160267577A1 (en) | 2015-03-11 | 2016-09-15 | Ventana 3D, Llc | Holographic interactive retail system |
JP6516151B2 (ja) * | 2015-04-24 | 2019-05-22 | 株式会社リコー | 情報提供装置、情報提供方法及び情報提供用制御プログラム |
US9916794B2 (en) | 2015-08-05 | 2018-03-13 | Disney Enterprises, Inc. | Switched emissive transparent display with controllable per-pixel opacity |
US9581962B1 (en) * | 2015-11-20 | 2017-02-28 | Arht Media Inc. | Methods and systems for generating and using simulated 3D images |
US10366642B2 (en) * | 2016-12-01 | 2019-07-30 | Disney Enterprises, Inc. | Interactive multiplane display system with transparent transmissive layers |
US9989777B1 (en) | 2017-06-05 | 2018-06-05 | Disney Enterprises, Inc. | Accurate and balanced lighting in a pepper's ghost projection system for live cinematic performances |
US20180374453A1 (en) * | 2017-06-22 | 2018-12-27 | Universal City Studios Llc | Holographic display mimicking system and method |
KR101860680B1 (ko) | 2017-09-01 | 2018-06-29 | 한국과학기술원 | 3d 증강 프리젠테이션 구현 방법 및 장치 |
RU2664781C1 (ru) | 2017-12-06 | 2018-08-22 | Акционерное общество "Творческо-производственное объединение "Центральная киностудия детских и юношеских фильмов им. М. Горького" (АО "ТПО "Киностудия им. М. Горького") | Устройство для формирования объёмного изображения в трёхмерном пространстве с реальными объектами |
WO2019140348A2 (en) * | 2018-01-14 | 2019-07-18 | Light Field Lab, Inc. | Light field vision-correction device |
US10310274B1 (en) * | 2018-05-29 | 2019-06-04 | Disney Enterprises, Inc. | Stacked wave guide system providing depth and animation |
US10663724B1 (en) * | 2018-08-30 | 2020-05-26 | Disney Enterprises, Inc. | Panoramic, multiplane, and transparent collimated display system |
-
2018
- 2018-12-28 US US16/234,739 patent/US10818090B2/en active Active
-
2019
- 2019-12-19 JP JP2021537849A patent/JP7482881B2/ja active Active
- 2019-12-19 CN CN201980086690.8A patent/CN113227884A/zh active Pending
- 2019-12-19 KR KR1020217023301A patent/KR20210107786A/ko active IP Right Grant
- 2019-12-19 SG SG11202106102RA patent/SG11202106102RA/en unknown
- 2019-12-19 EP EP19839596.4A patent/EP3903144A1/en active Pending
- 2019-12-19 CA CA3123846A patent/CA3123846A1/en active Pending
- 2019-12-19 WO PCT/US2019/067659 patent/WO2020139719A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
CN113227884A (zh) | 2021-08-06 |
WO2020139719A1 (en) | 2020-07-02 |
SG11202106102RA (en) | 2021-07-29 |
JP2022516853A (ja) | 2022-03-03 |
JP7482881B2 (ja) | 2024-05-14 |
US10818090B2 (en) | 2020-10-27 |
US20200211283A1 (en) | 2020-07-02 |
CA3123846A1 (en) | 2020-07-02 |
EP3903144A1 (en) | 2021-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7482881B2 (ja) | 娯楽用乗り物のための拡張現実システム | |
CN110352085B (zh) | 用于游乐园环境中的分层虚拟特征的系统和方法 | |
JP7079207B2 (ja) | 立体視的な拡張現実画像および仮想現実画像を生成するためのシステムおよび方法 | |
JP7423639B2 (ja) | 娯楽用乗り物用の拡張現実システム | |
KR20170042363A (ko) | 증강 및 가상 현실 이미지를 생성하는 시스템 및 방법 | |
CN112739438B (zh) | 娱乐环境中的显示系统 | |
KR20220024584A (ko) | 가상 피쳐를 위한 시스템 및 방법 | |
KR101829656B1 (ko) | 증강된 가상현실을 이용하는 융합공간 기반의 무동력 승마장치 및 방법 | |
RU2772301C1 (ru) | Система дополненной реальности для аттракциона для катания | |
KR102124564B1 (ko) | 증강현실에서 움직이는 광원의 위치를 반영하여 영상을 처리하는 방법 및 장치 | |
CN111782040A (zh) | 一种裸眼虚拟现实屏幕 | |
US20240331594A1 (en) | Systems and methods for an interactive augmented reality kiosk | |
WO2016181139A1 (en) | Display apparatus | |
WO2024205869A1 (en) | Systems and methods for an interactive augmented reality kiosk | |
KR102718166B1 (ko) | 증강 및 가상 현실 이미지를 생성하는 시스템 및 방법 | |
KR20230007524A (ko) | 광 디스플레이 시스템 | |
KR20240154083A (ko) | 증강 및 가상 현실 이미지를 생성하는 시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right |