KR20200105888A - 놀이공원 환경에서 텍스트 오버레이를 위한 시스템 및 방법 - Google Patents
놀이공원 환경에서 텍스트 오버레이를 위한 시스템 및 방법 Download PDFInfo
- Publication number
- KR20200105888A KR20200105888A KR1020207022399A KR20207022399A KR20200105888A KR 20200105888 A KR20200105888 A KR 20200105888A KR 1020207022399 A KR1020207022399 A KR 1020207022399A KR 20207022399 A KR20207022399 A KR 20207022399A KR 20200105888 A KR20200105888 A KR 20200105888A
- Authority
- KR
- South Korea
- Prior art keywords
- text
- environment
- image
- user
- visualization device
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000012800 visualization Methods 0.000 claims abstract description 116
- 230000003190 augmentative effect Effects 0.000 claims abstract description 21
- 230000009471 action Effects 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 3
- 239000011521 glass Substances 0.000 description 24
- 230000007613 environmental effect Effects 0.000 description 21
- 230000008569 process Effects 0.000 description 11
- 241001465754 Metazoa Species 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 239000000463 material Substances 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 244000025254 Cannabis sativa Species 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000005034 decoration Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 239000011358 absorbing material Substances 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000013013 elastic material Substances 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000001404 mediated effect Effects 0.000 description 1
- 235000012736 patent blue V Nutrition 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 210000004243 sweat Anatomy 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
- A63F13/537—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
- A63F13/5372—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63G—MERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
- A63G31/00—Amusement arrangements
- A63G31/16—Amusement arrangements creating illusions of travel
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G06K9/00671—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
- Road Signs Or Road Markings (AREA)
Abstract
놀이공원 환경에서 텍스트 오버레이를 위한 시스템 및 방법
본 시스템 및 방법은 사용자가 볼 수 있는 디스플레이를 포함하는 시각화 장치를 포함하는 시스템에 관한 것이다. 이 시스템은 또한 시각화 장치에 통신 가능하게 연결된 컴퓨터 그래픽 생성 시스템을 포함한다. 컴퓨터 그래픽 생성 시스템은 프로세서 및 프로세서에 통신 가능하게 연결된 메모리 장치를 포함하며, 메모리 장치는 프로세서로 하여금 실제 이미지, 증강 현실 이미지 또는 이들의 조합의 환경을 생성하게 하는 명령어를 저장한다. 이들 명령어는 또한, 프로세서로 하여금 환경과 연관된 데이터를 수신하고 분석하여 적절한 텍스트 위치를 결정하고, 적절한 텍스트 위치에 적어도 부분적으로 기초하여 텍스트에 대한 적절한 텍스트 특성을 결정하며, 적절한 텍스트 특성을 갖는 텍스트를 적절한 텍스트 위치의 환경에 오버레이하게 한다.
본 시스템 및 방법은 사용자가 볼 수 있는 디스플레이를 포함하는 시각화 장치를 포함하는 시스템에 관한 것이다. 이 시스템은 또한 시각화 장치에 통신 가능하게 연결된 컴퓨터 그래픽 생성 시스템을 포함한다. 컴퓨터 그래픽 생성 시스템은 프로세서 및 프로세서에 통신 가능하게 연결된 메모리 장치를 포함하며, 메모리 장치는 프로세서로 하여금 실제 이미지, 증강 현실 이미지 또는 이들의 조합의 환경을 생성하게 하는 명령어를 저장한다. 이들 명령어는 또한, 프로세서로 하여금 환경과 연관된 데이터를 수신하고 분석하여 적절한 텍스트 위치를 결정하고, 적절한 텍스트 위치에 적어도 부분적으로 기초하여 텍스트에 대한 적절한 텍스트 특성을 결정하며, 적절한 텍스트 특성을 갖는 텍스트를 적절한 텍스트 위치의 환경에 오버레이하게 한다.
Description
본 발명은 일반적으로 놀이공원 분야에 관한 것이다. 보다 구체적으로, 본 개시의 실시예들은 놀이공원 어트랙션에서 증강된 가상 현실 경험을 제공하는 시스템 및 방법에 관한 것이다.
놀이공원 및/또는 테마 파크는 놀이공원의 방문객(예컨대, 가족 및/또는 모든 연령의 사람들)에게 즐거움을 제공하는데 유용한 다양한 엔터테인먼트 어트랙션, 레스토랑 및 놀이기구(rides)를 포함할 수 있다. 놀이공원의 구역들은 특정 관객을 대상으로 하는 상이한 테마들을 가질 수 있다. 예를 들어, 어떤 구역은 통상적으로 어린이가 관심을 갖는 주제를 포함할 수 있는 반면, 다른 구역은 통상적으로 보다 성숙한 관객이 관심을 갖는 주제를 포함할 수 있다. 일반적으로, 이러한 놀이공원과 연관된 테마를 갖는 장소는 어트랙션 또는 테마 어트랙션으로 지칭될 수 있다.
테마 어트랙션은 고정된 장비, 건물 레이아웃, 소품, 장식 등을 사용하여 확립될 수 있는데, 이들 대부분은 일반적으로 특정 테마와 관련된다. 동일한 장소에 다른 테마를 설정해야 하는 경우, 이전 테마와 연관된 특징물들이 최신 테마와 연관된 특징물들로 대체될 것이다. 장식이나, 가구, 장비, 소품 등이 제거되거나 교체되므로, 장소 테마의 복잡성에 따라 이는 매우 어렵고 시간이 많이 걸릴 수 있다. 실제로, 어떤 유형의 어트랙션의 경우, 더욱 몰입감이 강한 경험을 제공하기 위해 상대적으로 복잡한 테마가 방문객에게 더 일반적으로 되었다.
지금은, 어트랙션 테마를 변경할 수 있는 어트랙션을 포함하거나 또는 종래 기술에 비해 유연하고 효율적인 방식으로 이러한 어트랙션에서 소정의 테마 특징물들을 포함하거나 또는 제거하는 것이 바람직한 것으로 인식되고 있다. 또한 이제는 어트랙션 내에서 방문객의 몰입 경험을 향상시키고 방문객에게 보다 개인화된 또는 맞춤화된 경험을 제공하는 것이 바람직할 수 있는 것으로 인식되고 있다.
최초의 청구 대상에 상응하는 특정 실시예들이 아래에 요약된다. 이들 실시예는 본 개시의 범위를 제한하려는 것이 아니라, 오히려 개시된 특정 실시예의 간단한 요약을 제공하기 위한 것일 뿐이다. 실제로, 본 개시는 아래에 설명하는 실시예들과 유사하거나 또는 상이할 수 있는 다양한 형태를 포함할 수 있다.
일 실시예에 따르면, 시스템은 사용자가 볼 수 있는 디스플레이를 포함하는 시각화 장치를 포함한다. 이 시스템은 또한 시각화 장치에 통신 가능하게 연결된 컴퓨터 그래픽 생성 시스템을 포함한다. 컴퓨터 그래픽 생성 시스템은 프로세서 및 프로세서에 통신 가능하게 연결된 메모리 장치를 포함하며, 메모리 장치는 프로세서로 하여금 실제 이미지, 증강 현실 이미지 또는 이들의 조합의 환경을 생성하게 하는 명령어를 저장한다. 이들 명령어는 또한, 프로세서로 하여금 환경과 연관된 데이터를 수신하고 분석하여 적절한 텍스트 위치를 결정하고, 적절한 텍스트 위치에 적어도 부분적으로 기초하여 텍스트에 대한 적절한 텍스트 특성을 결정하며, 적절한 텍스트 특성을 갖는 텍스트를 적절한 텍스트 위치의 환경에 오버레이하게 한다.
일 실시예에 따르면, 방법은 하나 이상의 프로세서를 통해 실제 이미지, 증강 현실 이미지, 가상 현실 이미지, 또는 이들의 임의의 조합을 포함하는 환경을 생성하는 단계를 포함한다. 이 방법은 또한, 하나 이상의 프로세서를 통해, 적절한 텍스트 위치를 결정하기 위해 환경과 관련된 데이터를 분석하는 단계를 포함한다. 또한, 이 방법은 하나 이상의 프로세서를 통해, 적절한 텍스트 위치에 적어도 부분적으로 기초하여 텍스트에 대한 적절한 텍스트 특성을 결정하고, 하나 이상의 프로세서를 통해, 적절한 텍스트 특성을 갖는 텍스트를 적절한 텍스트 위치의 환경에 오버레이하는 단계를 포함한다.
일 실시예에 따르면, 유형의 비일시적 컴퓨터 판독 가능 매체는, 사용자가 착용하고 있는 시각화 장치에 통신 가능하게 연결된 컴퓨터 그래픽 생성 시스템에서 하나 이상의 프로세서에 의해 실행 가능한 명령어를 저장한다. 이들 명령어는 하나 이상의 프로세서로 하여금, 시각화 장치의 디스플레이 상에 실제 이미지, 가상 현실 이미지, 증강 현실 이미지 또는 이들의 조합을 디스플레이함으로써, 시각화 장치를 통해 사용자에게 보이는 환경을 생성하게 한다. 이들 명령어는 또한 하나 이상의 프로세서로 하여금, 사용자의 시선 방향을 나타내는 신호를 수신하고 분석하게 하며, 환경과 관련된 데이터를 수신하고 분석하게 하며, 사용자의 시선 방향을 나타내는 신호 및 환경과 관련된 데이터에 적어도 부분적으로 기초하여 적절한 텍스트 위치를 결정하게 하고, 텍스트를 적절한 텍스트 위치의 환경에 오버레이하게 한다.
본 개시의 이들 및 다른 특징, 양태 및 이점은 첨부 도면(도면 전체에 걸쳐 유사한 문자는 유사한 부분을 나타냄)을 참조하여 다음의 상세한 설명을 읽으면 보다 잘 이해될 것이다.
도 1은 일 실시예에 따른, 증강 현실(AR) 또는 가상 현실(VR) 고글 및 컴퓨터 그래픽 생성 시스템으로서 사용하기 위한 시각화 장치를 도시한 것이다.
도 2는 일 실시예에 따른, 도 1의 시각화 장치의 분해 사시도이다.
도 3은 일 실시예에 따른, 도 1의 다른 시각화 장치의 분해 사시도이다.
도 4는 실시예에 따른, 도 1의 시각화 장치에 의해 제공되는 텍스트뿐만 아니라 다양한 AR/VR 이미지를 갖는 환경을 포함하는 스릴 라이드의 사시도이다.
도 5는 일 실시예에 따른, 사용자가 도 4의 스릴 라이드에 참여함에 따라, 도 1의 시각화 장치를 착용한 사용자에게 보여질 수 있는 환경의 뷰이다.
도 6은 일 실시예에 따른, 한 시점에서 도 1의 시각화 장치를 착용한 사용자에게 보여질 수 있는 도 5의 환경의 뷰이다.
도 7은 일 실시예에 따른, 다른 시점에서 도 1의 시각화 장치를 착용한 사용자에게 보여질 수 있는 도 5의 환경의 뷰이다.
도 8은 일 실시예에 따른, 도 1의 시각화 장치로 볼 수 있는 도 5의 환경에 텍스트를 오버레이함으로써 향상된 경험을 생성하기 위해 사용될 수 있는 프로세스의 흐름도이다.
도 1은 일 실시예에 따른, 증강 현실(AR) 또는 가상 현실(VR) 고글 및 컴퓨터 그래픽 생성 시스템으로서 사용하기 위한 시각화 장치를 도시한 것이다.
도 2는 일 실시예에 따른, 도 1의 시각화 장치의 분해 사시도이다.
도 3은 일 실시예에 따른, 도 1의 다른 시각화 장치의 분해 사시도이다.
도 4는 실시예에 따른, 도 1의 시각화 장치에 의해 제공되는 텍스트뿐만 아니라 다양한 AR/VR 이미지를 갖는 환경을 포함하는 스릴 라이드의 사시도이다.
도 5는 일 실시예에 따른, 사용자가 도 4의 스릴 라이드에 참여함에 따라, 도 1의 시각화 장치를 착용한 사용자에게 보여질 수 있는 환경의 뷰이다.
도 6은 일 실시예에 따른, 한 시점에서 도 1의 시각화 장치를 착용한 사용자에게 보여질 수 있는 도 5의 환경의 뷰이다.
도 7은 일 실시예에 따른, 다른 시점에서 도 1의 시각화 장치를 착용한 사용자에게 보여질 수 있는 도 5의 환경의 뷰이다.
도 8은 일 실시예에 따른, 도 1의 시각화 장치로 볼 수 있는 도 5의 환경에 텍스트를 오버레이함으로써 향상된 경험을 생성하기 위해 사용될 수 있는 프로세스의 흐름도이다.
이하, 본 개시의 하나 이상의 특정 실시예를 설명할 것이다. 이들 실시예를 간결하게 설명하기 위해, 실제 구현의 모든 특징을 명세서에 설명하지는 않을 수 있다. 엔지니어링 또는 디자인 프로젝트에서와 같이, 임의의 그러한 실제 구현을 발전시켜나갈 때, 시스템 관련 및 비즈니스 관련 제약 조건(이는 구현마다 다를 수 있다) 준수와 같이 개발자의 특정 목표를 달성하기 위해 수많은 구현에 맞는 결정을 내려야 한다. 더욱이, 그러한 개발 노력은 복잡하고 시간이 많이 걸릴 수도 있지만, 그럼에도 불구하고 본 개시의 이점을 갖는 통상의 기술자를 위한 설계, 제작 및 제조에 대한 일상적인 일일 것이라는 점을 이해해야 한다.
본 실시예는 증강 현실(AR) 경험, 가상 현실(VR) 경험, 혼합 현실(예컨대, AR/VR의 조합) 경험, 또는 이들의 조합을 놀이공원 또는 테마 파크와 연관된 어트랙션의 일부로서 제공하는 시스템 및 방법에 관한 것이다. 일 실시예에서, 시스템 및 방법은 AR 경험, VR 경험 또는 혼합 현실 경험을 향상시키기 위해 텍스트(예컨대, 자막)를 제공하는 것과 관련된다. 논의를 쉽게 하기 위해 놀이공원의 어트랙션을 참조하여 특정 실시예를 설명하지만, 어트랙션은 반드시 놀이공원의 구역으로 제한되는 것은 아니라는 것을 이해해야 한다. 실제로, 본 개시의 양태는 또한, 놀이공원과 연관된 호텔, 언어 교육 시설, 음악 콘서트 장소, 또는 예컨대 놀이공원 및/또는 호텔에서 방문객을 수송하는 차량과 같이 놀이공원의 경계를 벗어난 장소에서의 구현과 관련된다.
전술한 점을 고려하여, 놀이공원 내의 특정 어트랙션은 한 명 이상의 방문객이 주변 환경을 볼 수 있게 하는 라이드 차량(ride vehicle)을 포함할 수 있다. 일 실시예에서, 라이드 차량은 라이드 경로(예컨대, 트랙 또는 레일)를 따라 주행할 수 있다. 한 명 이상의 방문객은 운전 중인 라이드 차량을 구동하는 롤러 소리, 경적 울림, 다른 방문객들의 비명 소리 등과 같은 다양한 소리에 노출될 수 있으며, 따라서 어느 하나의 특정 소리를 듣기가 어려울 수 있다. 또한, AR, VR 또는 혼합 현실 경험은, 한 명 이상의 방문객이 라이드 경로를 따라 주행하는 동안, 내러티브(narrative)(예컨대, 스피커 시스템을 통해 줄거리를 말하거나 이야기하는 것)를 제공하는 다양한 캐릭터(예컨대, 가상 애니메이션 캐릭터)를 포함할 수 있다. 그러나, 다양한 방해가 되는 소리(예컨대, 롤러, 방문객의 비명) 때문에 일부 방문객은 캐릭터가 말하는 내러티브를 듣는 것이 어려울 수 있다. 따라서, 내러티브 또는 임의의 다른 정보가 방문객에게 텍스트로서 전달되어, 예컨대 그러한 방해되는 소리 때문에 소리를 통해 전달될 수 없는 콘텐츠를 한 명 이상의 방문객에게 제공할 수 있다. 실제로, AR, VR 또는 혼합 현실 경험과 연관된 텍스트 또는 자막을 (예컨대, 안경 또는 전자 고글에) 디스플레이하면, 한 명 이상의 사용자(예컨대, 방문객)가 내러티브를 해석하거나 다양한 메시지를 (예컨대, 텍스트로) 수신할 수 있어, 소리를 듣기 어려움에도 불구하고 한 명 이상의 사용자에게 정보를 전달할 수 있다. 이러한 경험은 놀이공원의 방문객(예컨대, 사용자)에게 맞춤화, 개인화 및/또는 대화식의 어트랙션이 가득한 경험을 제공할 수 있다.
일 실시예에서, 특정 하드웨어 구성, 소프트웨어 구성(예컨대, 알고리즘 구조) 및 특정 어트랙션 특징의 조합이 AR, VR 및 혼합 현실 경험과 함께 텍스트(예컨대, 자막)를 구현하기 위해 이용될 수 있다. 예를 들어, 일 실시예에서, 시스템은 웨어러블 장비(예컨대, 전자 고글 또는 안경과 같은 시각화 장치)와 같은 시각화 장치를 포함할 수 있는데, 이를 통해 놀이공원 방문객 및 직원은 증강 현실, 가상 현실 또는 혼합 현실 장면을 볼 수 있다. 또한, 웨어러블 장비는 텍스트, AR, VR 또는 혼합 현실 경험의 다른 특징을 디스플레이하는 표면을 포함할 수 있다. 예를 들어, 놀이공원과 연관된 환경에서 특징들을 가상으로 제거하거나 추가하여 동일 라이드에서의 상이한 경험을 위한 조정 가능한 가상 환경을 제공한다거나, 경험의 중요한 특징들의 뷰를 가리지 않으면서 AR, VR 또는 혼합 현실 경험과 연관된 텍스트를 수신할 수 있게 한다거나 함으로써, 방문객(예컨대, 사용자) 경험을 향상시키기 위한 소정의 구현이 이용될 수 있다. 일 실시예에서, 웨어러블 장비는 사용자에게 AR, VR 또는 혼합 현실 장면 상에 텍스트를 제공할 수 있다. 예를 들어, 사용자가 보는 장면은 동물과 같은 다양한 가상 객체 또는 실제 객체를 포함할 수 있다. 일 실시예에서, 웨어러블 장비는 사용자에게 가상 객체 또는 실제 객체(예컨대, 동물)와 연관된 텍스트를 제공할 수 있다. 예를 들어, 웨어러블 장비는 사용자에게 동물 종, 동물의 연령 또는 동물과 연관된 사실에 관한 텍스트를 제공할 수 있다. 일 실시예에서, 웨어러블 장비에 통신 가능하게 연결된 컴퓨터 그래픽 생성 시스템(예컨대, 제어 시스템)은, 제어 시스템에 의해 결정된 중요한 어떠한 특징들의 뷰를 텍스트가 방해하지 않으면서 읽혀질 수 있도록, 텍스트를 표시하기에 적합한 위치를 결정할 수 있다.
또한, 적절한 위치에 텍스트를 제공하거나, 효과를 유발하거나 쇼를 조정하거나 하기 위해, 컴퓨팅 파워 및/또는 다른 리소스를 보다 효율적으로 사용할 수 있도록 웨어러블 장비로부터 특정 데이터가 수집될 수 있다. 일 실시예에서, 사용자 시각화 데이터가 수집될 수 있다. 예를 들어, 컴퓨터 그래픽 생성 시스템은, 가상 또는 실제 객체와 연관된 임의의 텍스트의 디스플레이를 시작하기 전에 라이드 내의 사용자가 가상 또는 실제 객체를(예컨대, 특정 방향으로) 주시했는지 여부를 판단할 수 있다. 웨어러블 장비는 라이드 운영자의 헤드업 디스플레이(HUD)로서 기능하도록 사용될 수도 있다. 이에 더하여 또는 이에 갈음하여, 어떤 놀이공원 어트랙션은, 사용자가 놀이공원의 다른 구역 또는 그 너머를 보기 위해 사용할 수 있는, AR, VR 또는 혼합 현실 장면을 향상시키기 위해 텍스트를 제공할 수 있는 고정된 시청 장치(예컨대, 쌍안경)를 포함할 수 있다.
방향 장치, 스피커, 작동 가능한 효과 장치 등과 같은 추가적인 놀이공원 장치가 사용자 경험을 향상시키기 위해 시청 장치와 협력하도록 제어될 수 있다. 이런 식으로, 사용자가 탐색하는 환경은 사용자의 증강 또는 가상 경험에 반응하는 것처럼 보일 수 있다. 또한, 일 실시예에서, 시각적 AR, VR, 또는 혼합 현실 경험을 보완하기 위해 청각, 후각 및/또는 촉각 입력을 사용자에게 제공하기 위한 특징들이 웨어러블 아이템(예컨대, 전자 고글 또는 안경)에 통합될 수 있다.
설명을 돕기 위해, 도 1은 사용자(12)(예컨대, 방문객, 놀이공원 직원)가 제어된 AR, VR 또는 혼합 현실 장면을 경험(예컨대, 보고, 상호작용)할 수 있도록 구성된 AR/VR 시스템(10)의 일 실시예를 도시한 것이다. 일 실시예에 따르면, 사용자(12)는, 일 실시예에서 전자 안경(16)(예컨대, AR/VR 안경, 고글)을 포함할 수 있는 시각화 장치(14)를 구매하거나 제공받을 수 있다. 아래에 더 상세히 설명되는 바와 같이, 시각화 장치(14)는 전자 안경(16)의 적어도 일부를 수용하도록 구성된 헤드밴드로서 도시된 웨어러블 부분(18)을 포함할 수 있다.
시각화 장치(14)는, AR 경험, VR 경험, 혼합 현실(예컨대, AR/VR의 조합) 경험, 컴퓨터 매개 현실 경험, 이들의 조합 을 포함할 수 있는 초현실적 환경(20), 또는 사용자(12)를 위한 다른 유사한 초현실적인 환경을 생성하기 위해, 단독으로 또는 다른 특징들과 조합하여 사용될 수 있다. 구체적으로, 시각화 장치(14)는, 게임 도중에, 놀이공원의 특정 구역 진입시, 놀이공원과 연관된 호텔로의 라이드 동안, 호텔에서 등과 같이, 라이드 또는 다른 미리 결정된 활동 기간 동안 사용자(12)에 의해 착용될 수 있다.
시각화 장치(14)는, 특정 가상 특징이 투명한 표면(예컨대, 안경) 상에 오버레이되는 장치를 포함할 수도 있고, 또는 가상 특징이 실질적으로 실시간 비디오 상에 오버레이되는 장치 또는 이들의 조합을 포함할 수 있다(예컨대, 시각화 장치(14)는 투명 및 불투명 사용자 시각화 사이에서 전환할 수 있다). 일 실시예에서, 시각화 장치(14)는, 가상 특징이 실제 객체 위에 겹쳐지도록, 광을 사용자(12)의 한쪽 또는 양쪽 눈에 투사하도록 구성된 광 투사 특징부와 같은 특징부를 포함할 수 있다. 이러한 시각화 장치(14)는 망막 디스플레이를 포함하는 것으로 간주될 수 있다.
따라서, 일 실시예에서, 사용자(12)는 실질적으로 투명한 전자 안경 세트(16)를 통해 실제 환경을 볼 수 있으며, 동시에 특정 가상 특징이 전자 안경(16)의 표면(또는 사용자(12)의 눈) 상에 오버레이되어, 사용자(12)는 가상 특징이 실제 환경에 통합된다고 인식한다. 이에 더하여 또는 이에 갈음하여, 일 실시예에서, 사용자(12)는 오버레이된 가상 특징을 갖는 실제 환경의 실시간 비디오를 볼 수 있다.
일 실시예에서, 시각화 장치(14)를 착용할 경우, 사용자(12)는 환경(20)에 의해 완전히 둘러싸여 있다고 느낄 수 있고, 환경(20)이 특정 가상 특징을 포함하는 실제 물리적 환경인 것으로 인식할 수 있다. 구체적으로, 시각화 장치(14)는, 환경(20)이 하나 이상의 AR/VR 이미지(24)(예컨대, 가상 증강 또는 가상 특징)와 전자적으로 병합된 실제 이미지(22)를 포함하는 실시간 비디오(예컨대, 실시간 또는 거의 실시간으로 캡처된 비디오)일 수 있도록, 사용자(12)의 뷰를 (예컨대, 불투명한 뷰잉 표면을 사용하여) 완전히 제어할 수 있다. 실제 이미지(22)는 일반적으로 시각화 장치(14)를 착용하지 않은 경우에도 사용자(12)가 볼 수 있는 것을 말한다(예컨대, 실제 이미지(22)는 실제 환경에서의 특징들의 이미지이다). 용어 "실시간(real-time)"은 이미지가 실제 관찰 시간에 실질적으로 가까운 시간 프레임에서 획득 및/또는 제공되는 것을 나타낸다. 실제로, 시각화 장치(14)는 사용자(12)의 뷰(예컨대, 투명 뷰잉 표면을 사용)를 부분적으로만 제어하여, 환경(20)이 AR/VR 이미지(24)가 투명 표면 또는 사용자의 눈에 오버레이된 실제 환경이 되게 할 수 있다. 본 개시의 일 실시예에 따르면, AR/VR 이미지(24)는, 객체가 더 이상 존재하지 않거나 삭제된 것처럼 보이도록(예컨대, 실제 객체가 가상 객체 또는 가상 환경 표현으로 완전히 또는 부분적으로 가려지도록), 실제 객체를 오버레이하는 기능을 할 수 있다. 또한, 본 명세서에 개시된 어떤 예는 논의를 용이하게 하기 위해 실제 이미지(22)와 관련되지만, 본 명세서에 개시된 임의의 기술은 AR/VR 이미지(24)를 시각화 장치(14)의 투명 렌즈를 통해 보이는 실제 환경에 오버레이하도록 적응될 수 있음을 이해해야 한다. 따라서, 본 명세서의 특정 예에서 참조된 실제 이미지(22)는 실제 환경에서의 실제 특징에 의해 대체 가능한 것으로 간주되어야 한다. AR/VR 이미지(24)가 실제 이미지(22) 또는 투명 렌즈를 통해 본 실제 환경의 실제 특징들 상에 오버레이될 경우, AR/VR 이미지(24)는 AR 이미지로 간주될 수 있고, AR을 생성하는 것으로 간주될 수 있다. (예컨대, 실제 이미지(22)를 디스플레이하지 않거나 또는 실제 환경의 실제 특징의 시각화를 가능하게 하지 않고) AR/VR 이미지(24)가 전체 환경(20)을 형성할 경우, AR/VR 이미지(24)는 VR 이미지로 간주될 수 있고, VR 경험을 생성하는 것으로 간주될 수 있다. 전술한 바와 같이, 시각화 장치(14)는 상이한 유형의 시각화 사이에서 전환될 수 있다.
또한, 일 실시예에서, 시각화 장치(14)는 환경(20)을 생성하는 동안 텍스트(25)를 사용자(12)에게 제공할 수 있다. 구체적으로, 시각화 장치(14)는 텍스트(25)를 실제 이미지(22) 및/또는 AR 또는 VR 이미지(24)와 병합하여 환경(20)을 생성하거나 또는 완성할 수 있다. 일 실시예에서, 텍스트(25)는 실제 이미지(22), AR 또는 VR 이미지(24) 또는 환경(20)의 실제 특징과 연관된 정보를 사용자(12)에게 제공할 수 있는데, 이에 대해서는 상세히 후술한다. 일 실시예에서, 텍스트(25)는 실제 이미지(22), AR 또는 VR 이미지(24), 또는 환경(20) 내의 실제 특징이 통신하고자 하는 콘텐츠를 나타내는 텍스트 말풍선으로서 제공될 수 있다. 일 실시예에서, 텍스트(25)를 제공하는 텍스트 말풍선은 시각화 장치(14) 또는 라이드 시스템에 의해 제공되는 사운드로 조정될 수 있다.
시각화 장치(14)의 컷어웨이(cutaway) 부분에 도시된 바와 같이, 환경(20)의 양태의 생성을 지원하기 위해, 시각화 장치(14)는 프로세서(26) 및 메모리(28)와 같은 처리 회로를 포함할 수 있다. 프로세서(26)는 메모리(28)에 동작 가능하게 결합되어, 예를 들어 실제 이미지(22) 및/또는 하나 이상의 AR/VR 이미지(24)를 디스플레이하는 동안 텍스트(25)를 생성하는 것과 같이, 현재 개시된 기술을 수행하기 위한 명령어를 실행할 수 있다. 이들 명령어는 메모리(28) 및/또는 다른 저장 장치와 같이, 유형의 비 일시적 컴퓨터 판독 가능 매체에 저장된 프로그램 또는 코드로 인코딩될 수 있다. 프로세서(26)는 범용 프로세서, SoC(system-on-chip) 장치, ASIC(application-specific integrated circuit), 또는 다른 유사한 프로세서 구성일 수 있다. 메모리(28) 및 프로세서(26)는 함께 AR/VR 컴퓨터 시각화 시스템(40)(예컨대, 컴퓨터 그래픽 생성 시스템)의 전부 또는 일부를 형성할 수 있다.
일 실시예에서, 도시된 바와 같이, 시각화 장치(14)는 또한 사용자(12)의 양쪽 눈에 제각기 대응하는 한 쌍의 디스플레이(30 및 32)(예컨대, 안경 렌즈가 있어야 할 시각화 장치(14)의 프레임 프런트에 제공될 수 있음)를 포함할 수 있다. 또는, 통합 디스플레이가 사용될 수도 있다. 제각기의 디스플레이(30 및 32)는 각각 비제한적인 예로서 AR/VR 이미지(24) 및 텍스트(25)가 오버레이될 수 있는 투명 렌즈를 포함할 수 있다(예컨대, 이러한 이미지 및 텍스트를 실제 환경의 사용자의 뷰에 오버레이하기 위해). 또한, 디스플레이(30 및 32)는 디스플레이 표면일 수도 있고, 환경(20)을 생성하기 위해 AR/VR 이미지(24) 및 텍스트(25)의 오버레이를 용이하게 하도록 구성된 제각기의 주변부에 인접하게 위치하는 특징부(예컨대, 회로, 발광기)를 포함할 수도 있다.
이에 더하여 또는 이에 갈음하여, 디스플레이(30 및 32)는 불투명한 액정 디스플레이(LCD), 불투명한 유기 발광 다이오드(OLED) 디스플레이, 또는 실제 이미지(22), AR/VR 이미지(24), 및 텍스트(25)를 사용자(12)에게 디스플레이하는데 유용한 다른 유사한 디스플레이를 포함할 수 있다. 일 실시예에서, 제각기의 디스플레이(30 및 32)는 각각, 예를 들어, 사용자(12)가 AR/VR 이미지(24) 및 제각기의 디스플레이(30 및 32) 상에 나타나는 텍스트(25)를 실제 및 물리적인 현실 환경(예컨대, 놀이공원과 연관된 어트랙션)에 대한 오버레이로서 볼 수 있게 하는데 유용한 시스루 LCD 또는 시스루 OLED 디스플레이를 포함할 수 있다.
시각화 장치(14)의 카메라(34 및 36)는 제각기 사용자(12)의 시점에 대응할 수 있고, 실시간 비디오 데이터(예컨대, 라이브 비디오) 또는 실시간 주변 광 신호를 캡처하는데 사용될 수 있다. 일 실시예에서는, 단일 카메라가 사용될 수도 있다. 시각화 장치(14)는 또한 사용자의 눈 움직임을 추적하기 위한 추가 카메라를 포함할 수 있는데, 이는, 상세히 후술하는 바와 같이, 컴퓨팅 장치(예컨대, 컴퓨터 그래픽 생성 시스템(40))와 함께 사용될 때, 텍스트(25)를 디스플레이하기에 적합한 위치, 텍스트(25)의 적절한 크기, 텍스트(25)의 색상, 텍스트(25)의 글꼴 등과 같은 텍스트 특성을 결정하는 것을 용이하게 할 수 있다. 구체적으로, 하나 이상의 센서(37)는 시선 방향, 동공의 위치, 초점 거리 및/또는 임의의 다른 적합한 안구 파라미터를 결정하기 위해 데이터를 캡처할 수 있는 안구 추적 센서(예컨대, 카메라)일 수 있다. 일 실시예에서, 시각화 장치(14)는 사용자(12)에게 사운드를 전달하는 하나 이상의 스피커(35)를 포함한다. 스피커(35)는 사용자(12)의 귀 근처에 위치할 수 있다. 시각화 장치(14)의 통신 특징부(38)(무선 송수신기(39)를 포함함)는 처리를 위해 프로세서(26) 및/또는 컴퓨터 그래픽 생성 시스템(40)에 실시간 또는 거의 실시간으로 데이터(예컨대, 비디오 데이터, 안구 추적 데이터, 환경 데이터)를 전송할 수 있다. 통신 특징부(38)에 의해 전송된 데이터는, 예를 들어 제각기의 카메라(34 및 36) 및/또는 센서(37)(예컨대, 안구 추적 카메라)를 통해 캡처된 데이터를 포함할 수 있다.
도시된 바와 같이, 시각화 장치(14)는 무선 네트워크(42)(예컨대, 무선 근거리 네트워크(WLAN), 무선 광역 네트워크 [WWAN], 근거리 통신 [NFC])를 통해 (예컨대, 놀이공원 내의) 컴퓨터 그래픽 생성 시스템(40)에 통신 가능하게 연결될 수 있다. 이에 더하여 또는 이에 갈음하여, 각각의 카메라(34 및 36)를 통해 캡처된 실시간 비디오 데이터는 프로세서(26)를 통해 시각화 장치(14)에서 처리될 수 있음을 이해해야 한다. 또한, 입력 프로세서(26)에 연결되어 있는 통신 특징부(38)(예컨대, 무선 송수신기(39), 입력/출력 커넥터)는 프로세서(26) 및 메모리(28)에 포함된 펌웨어 및/또는 소프트웨어가 특정 용도를 위해 업데이트 및/또는 구성될 수 있도록 할 수 있다.
시각화 장치(14)의 통신 특징부(38)는, 시각화 장치(14)의 센서(37)를 통해 획득 및/또는 도출된 데이터에 기초하여, 방향 데이터, 위치 데이터, 시점 데이터(예컨대, 초점 길이, 방향, 포즈), 모션 추적 데이터 등을 전송할 수 있다. 이러한 센서(37)는 방향 및 위치 센서(예컨대, 가속도계, 자력계, 자이로스코프, GPS(Global Positioning System) 수신기), 모션 추적 센서(예컨대, 전자기 및 고체 상태 모션 추적 센서), 관성 측정 장치(IMU), 시선 추적 센서 등을 포함할 수 있다.
일 실시예에서, 시각화 장치(14)의 특징들(예컨대, 기하학적 양태 또는 마킹)은 모니터링 시스템(41)(예컨대, 하나 이상의 카메라)에 의해 모니터링되어 시각화 장치(14) 및 그에 따른 사용자(12)의 자세, 위치, 방향 등을 결정할 수 있다. 모니터링 시스템(41)은 컴퓨터 그래픽 생성 시스템(40)에 통신 가능하게 연결되어 사용자(12)(또는 다수의 사용자)의 자세, 위치, 방향 등을 식별하는데 사용될 수 있다.
컴퓨터 그래픽 생성 시스템(40)은 프로세서(44)(예컨대, 범용 프로세서 또는 기타 프로세서) 및 메모리(46)와 같은 처리 회로를 포함하고, 시각화 장치(14) 또는 모니터링 시스템(41)으로부터 수신된 실시간(또는 거의 실시간) 비디오 데이터(예컨대, 라이브 비디오), 방향 및 위치 데이터, 시점 데이터, 환경 데이터 또는 이들의 임의의 조합을 처리할 수 있다. 구체적으로, 컴퓨터 그래픽 생성 시스템(40)은 이 데이터를 사용하여, AR/VR 이미지(24) 및 텍스트(25)를 실제 이미지(22)에 등록하거나 AR/VR 이미지(24) 및 텍스트(25)를 실제 및 물리적 환경에 부과하기 위한 참조 프레임을 생성할 수 있다. 일 실시예에서, 컴퓨터 그래픽 생성 시스템(40)은, 환경(20)에 텍스트(25)를 부과하기 전에, 텍스트 특성(예컨대, 시각화 장치(14)를 통해 보이는 환경(20)에 대한 텍스트(25)의 적절한 위치, 텍스트(25)의 크기, 텍스트(25)의 색상, 텍스트(25)의 글꼴, 텍스트(25)의 밝기 또는 강도, 및/또는 텍스트(25)를 표시하는 기간)을 결정하기 위해 이 데이터를 추가로 사용할 수 있다. 구체적으로, 방향 데이터, 위치 데이터, 시점 데이터, 모션 추적 데이터 등에 기초하여 생성된 참조 프레임을 이용하면, 그래픽 생성 시스템(40)은 AR/VR 이미지(24)의 뷰를 렌더링하고 텍스트(25)를 포함할 수 있다. 방향 데이터, 위치 데이터, 시점 데이터, 모션 추적 데이터 등에 기초하여 생성된 참조 프레임을 이용하면, 컴퓨터 그래픽 생성 시스템(40)은 텍스트(25)의 디스플레이를 위한 적절한 위치를 결정할 수 있다. 일 실시예에서, 그래픽 생성 시스템(40)은 실제 환경과 시간적으로 그리고 공간적으로 비례하는 방식으로 AR/VR 이미지(24), 텍스트(25) 및 실제 이미지(22)의 뷰를 렌더링할 수 있다. 컴퓨터 그래픽 생성 시스템(40)은 사용자(12)의 제각기의 방향, 위치 및/또는 모션의 변화를 반영하기 위해 텍스트(25)의 렌더링을 주기적으로(예컨대, 또는 거의 실시간으로) 업데이트할 수 있다. 예를 들어, 컴퓨터 그래픽 생성 시스템(40)은 시선 방향(예컨대, 사용자(12)가 바라보는 방향)을 식별할 수 있고, 시선 방향에 실질적으로 직교하는 평면을 결정하기 위해 계산(예컨대, 최소 제곱 근사치(least-square approximation) 및 특이값 분해(singular value decomposition))을 수행할 수 있다. 컴퓨터 그래픽 생성 시스템(40)은 평면에 텍스트(25)를 디스플레이할 수 있다. 일 실시예에서, 컴퓨터 그래픽 생성 시스템(40)은 복수의 사용자(예컨대, 라이드의 승객, 공유 게임의 플레이어)에 대응하는 이러한 데이터를 추적할 수 있으며, 여기서 각 사용자 (또는 적어도 일부 사용자)는 대응하는 시각화 장치(14)를 구비한다.
전술한 바와 같이, 일 실시예에서, 시각화 장치(14)는 여러 구성 요소를 포함하고, 일반적으로 사용자(12)의 머리에 착용되도록 구성된 전자 안경(16)을 포함할 수 있다. 전자 안경(16)의 다양한 상이한 구성 및 구현이 이용될 수 있으며, 여기서 상이한 구성은 상이한 구현을 수용하기 위한 상이한 내부 구성 요소(예컨대, 통신 특징부, 변환기, 디스플레이)뿐만 아니라 상이한 사용자를 위한 상이한 크기를 더 잘 수용하기 위해 상이한 크기 및 형상을 가질 수 있다.
전자 안경(16)에 대한 추가적인 유연성 및 지지를 제공하기 위해, 시각화 장치(14)의 웨어러블 부분(18)은 다양한 형태를 취할 수 있으며, 그 실시예가 도 2 및 3에 도시되어 있다. 도 2에서, 시각화 장치(14)는 웨어러블 부분(18)으로 헤드밴드를 포함한다. 웨어러블 부분(18)의 이러한 실시예는 사용자(12)에게 편안함(예컨대, 탄성 재료, 땀 흡수 재료, 패딩)을 제공하면서 사용자(12)의 움직임을 수용하도록 구성된 다양한 재료를 포함할 수 있다. 전자 안경(16)의 전자 부품에 대한 염려없이 웨어러블 부분(18)을 가끔 세척할 수 있도록, 별개의 웨어러블 부분(18)과 전자 안경(16)을 갖는 것이 바람직할 수 있다고 현재 인식되고 있다. 웨어러블 부분(18)은 하나 이상의 전자 부품을 포함할 수 있다. 따라서, 웨어러블 부분(18)의 전자 부품은 손상을 피하기 위해 환경으로부터 실질적으로 밀봉될 수 있다.
일 실시예에서, 도 2의 웨어러블 부분(18)은 전자 안경(14)을 수용하고 사용 중에 사용자(12)의 눈에 대해 전자 안경(14)의 위치를 유지하도록 구성된 리셉터클 부위(60)를 포함한다. 이와 관련하여, 리셉터클 부위(60)는 전자 안경(16)의 디스플레이(30, 32)의 둘레에 고정될 수 있는 중앙 부분(62)과, 전자 안경(16)의 다리(66)를 둘러싸도록 구성된 측면 부분(64)을 포함할 수 있다.
리셉터클 부위(60)의 중앙 부분(62)은 사용자(12)에게 편안함을 줄 수 있도록 패딩(padding)을 포함할 수 있는 반면, 헤드밴드는 (전자 안경(16)의 위치를 유지하기 위해) 사용자(12)의 머리에 대해 적절한 압축력을 제공한다. 중앙 부분(62)은, 일 실시예에서, 안정성과 편안함의 적절한 조합을 제공하는 피부에 대한 마찰 계수를 갖는 하나 이상의 재료를 포함할 수 있다. 예를 들어, 안경의 코 부위에 일반적으로 사용되는 겔(gel) 재료가 적절할 수 있다.
도 3에 도시된 실시예에 도시된 바와 같이, 웨어러블 부분(18)은 헤드밴드 외에 또는 헤드밴드 대신에 다른 특징을 포함할 수 있다. 도시된 바와 같이, 웨어러블 부분(18)은 사용자(12)의 머리에 착용하는 캡(70) 및 도 2에 도시된 헤드밴드와 유사한 특징을 포함한다. 일 실시예에서, 도시된 바와 같이, 캡(70)은 고정 부위(72)를 포함할 수 있는데, 여기서 캡(70)은 헤드밴드 부분(74)과 겹친다. 고정 부위(72)는 캡(70)과 헤드밴드 부분(74) 사이를 고정시킬 수 있도록 구성된 후크 앤 루프 파스너(hook-and-loop fasteners), 후크 앤 아이 파스너(hook-and-eye fasteners), 버튼, 마그네틱 스트립 등과 같은 잠금 메커니즘을 포함할 수 있다. 이러한 방식으로, 캡(70)은 헤드밴드 부분(74)으로부터 분리 가능하므로, 이들을 별도로 사용하거나 별도로 세척할 수 있다. 또는, 일 실시예에서, 헤드밴드 부분(74)은 헤드밴드 부분(74)이 캡(70)으로부터 쉽게 제거되지 않도록 캡(70)과 일체화될 수 있다(예컨대, 캡(70)에 재봉될 수 있다).
일 실시예에서, 캡(70)은 사용자의 눈뿐만 아니라 전자 안경(16) 및 관련 디스플레이(30, 32)를 태양이나, 머리 위 조명 등과 같은 강한 조명원으로부터 보호하는 역할을 하는 바이저(visor)(76)를 포함한다. 바이저(76)는, 예를 들어, 디스플레이(30, 32)가 광학적 반사에 기초하여 동작하고/하거나 투명하거나 반투명한 경우에 특히 유용할 수 있다. 실제로, 바이저(76)는 실제 배경에 대해 AR/VR 이미지(24)의 인지된 시각적 콘트라스트를 향상시켜, (예컨대, 조명원으로부터 불필요한 빛을 차단함으로써) 디스플레이(30, 32) 상에 표시된 텍스트(25)의 가독성을 향상시키는 데 도움을 줄 수 있다.
도 3의 실시예에 제한되지는 않지만, 도 3의 도시된 시각화 장치(14)는 또한 전자 안경(16)의 디스플레이(30, 32) 위에 배치되도록 구성된 디스플레이 커버(78)를 포함한다. 디스플레이 커버(78)는 디스플레이(30, 32)에 대한 가리개 역할을 하여 디스플레이(30, 32)를 물리적으로 보호하고, 텍스트(25) 및 AR/VR 이미지(24)의 향상된 콘트라스트 및 시각화, 광학 필터링 등을 위해 어느 정도의 불투명도를 제공한다. 디스플레이 커버(78)는 디스플레이 커버(78)를 전자 안경(16)에 제거 가능하게 부착하도록 구성된 클립(80)과 같은 임의의 적절한 고정 메커니즘을 포함할 수 있다. 임시 접착제 및/또는 후크 앤 루프 파스너와 같은 다른 고정 특징부가 사용될 수도 있다.
전술한 점을 고려하여, 도 4에 개략적으로 도시된 바와 같이 AR/VR 시스템(10)이 놀이공원(90)에서 사용되는 설정의 실시예를 설명하는 것이 유용할 수 있다. 도 4는 일 실시예에 따른, 도 1의 시각화 장치(14)에 의해 제공된 다양한 AR/VR 이미지(24)를 포함하는 환경(20)을 포함하는 스릴 라이드(92)의 사시도이다. 도시된 바와 같이, 놀이공원(90)은 스릴 라이드(92), 놀이공원 시설(94)의 몰(예컨대, 게임 구역, 호텔, 레스토랑, 기념품 가게 등) 및 추가 오락 어트랙션(96)(예컨대, 페리스 관람차(Ferris wheel), 다크 라이드(dark ride), 애니메이션 캐릭터 또는 기타 어트랙션)와 같은 실제 특징들을 포함할 수 있다. 일 실시예에서, 스릴 라이드(92)는 롤러코스터 또는 다른 유사한 스릴 라이드를 포함할 수 있고, 따라서 닫힌 루프 트랙 또는 닫힌 루프 트랙 시스템(98)(예컨대, 수 마일의 트랙(98))을 더 포함할 수 있다. 트랙(98)은, 예를 들어 라이드 승객(102, 104, 106, 108(한 명 이상이 도 1의 사용자(12)일 수 있음))이 스릴 라이드(92)를 타고 감에 따라 승객을 태운 차량(100)이 이동할 수 있게 하는 인프라로서 제공될 수 있다. 따라서 트랙(98)은 라이드 차량(100)의 움직임을 정의할 수 있다. 그러나, 또 다른 실시예에서는, 트랙(98)이 제어된 경로로 대체될 수 있으며, 이 경우 라이드 차량(100)의 이동은 전자 시스템, 자기 시스템, 또는 트랙(98) 이외의 다른 유사한 시스템 인프라를 통해 제어될 수 있다. 달리 말하면, 라이드 차량(100)의 라이드 경로가 물리적으로 정확한 경로로 제한되지 않아, 승객(102, 104, 106, 108)이 자신들의 모션 경로나, 뷰 투시 등을 어느 정도 제어하도록 허용될 수 있다. 승객 라이드 차량(100)이 4인승 차량으로 예시되어 있지만, 다른 실시예에서는, 승객 라이드 차량(100)이 한 명 또는 여러 명의 승객을 수용할 수 있도록 임의의 수의 승객 공간(예컨대, 1, 2, 4, 8, 10, 20명 이상의 공간)을 포함할 수도 있음을 이해해야 한다.
라이드 차량(100)이 트랙(98)을 따라 이동함에 따라, 라이드 승객(102, 104, 106, 108)은 스릴 라이드(92) 주위 또는 인근 구역 내의 경관(예컨대, 시설(94), 추가 오락 어트랙션(96) 등)을 돌아보는 투어를 제공받을 수 있다. 예를 들어, 이것은 스릴 라이드(92)를 둘러싸는 환경(예컨대, 스릴 라이드(92)를 완전히 또는 부분적으로 수용하는 건물)을 포함할 수 있다. 라이드 승객(102, 104, 106, 108)이 스릴 라이드(92)가 매우 즐거운 경험인 것을 알게 될 수도 있지만, 이들의 라이드 경험을 향상시키는 것이 유용할 수 있다. 구체적으로, 시설(94)(예컨대, 레크리에이션 구역, 호텔, 레스토랑, 기념품 상점 등), 추가 오락 어트랙션(96)(예컨대, 페리스 관람차 또는 기타 어트랙션), 또는 놀이공원(90) 내의 다른 고객이나 보행자를 물리적으로 보게 하는 대신에, 라이드 승객(102, 104, 106, 108)에게 증강 현실(AR) 경험 또는 가상 현실(VR) 경험을 제공하는 것이 유용할 수 있다.
이에 더하여 또는 이에 갈음하여, 시각화 장치(14)를 통해 하나 이상의 이미지(예컨대, 실제 이미지(22) 및/또는 AR/VR 이미지(24)) 또는 실제 특징과 관련될 수 있는 텍스트(25)를 라이드 승객(102, 104, 106, 108)에게 제공하는 것이 유용할 수 있다. 이는 라이드 차량(100)이 트랙(98)을 따라 이동하거나 미리 정의된 구역 내에서 이동함에 따라 수행될 수 있다. 일 실시예에서, 이는 놀이공원 고객이 시설(94) 또는 오락 어트랙션(96)과 같은 장소들을 즐기면서 수행될 수 있다. 예를 들어, 사용자(12)가 레스토랑, 어트랙션들 사이의 통로 등에서 추가적인 엔터테인먼트 특징을 경험할 수 있도록, AR/VR(24) 및/또는 적절한 텍스트(25)가 전자 안경(16)에 의해 실제 환경에 오버레이될 수 있다.
또한, 일 실시예에서, 스릴 라이드(92)는 AR/VR 이미지(24)와의 사용자 상호작용, 예컨대 라이드 차량(100)이 가상 객체(109, 110)를 지나가거나 통과할 때 제1 가상 객체(109)(예컨대, 별) 및 제2 가상 객체(110)(예컨대, 애니메이션 동물)와의 시뮬레이션된 상호작용을 포함할 수 있다. 라이드 차량(100)은 사용자에 의해 제어될 수 있으며, 게임의 한 양태는, 라이드 차량(100)을 가상 객체(109, 110)를 향하도록 하여 다양한 가상 객체(109, 110)와 상호작용하거나 또는 핸들을 돌려 특정 가상 객체(109, 110)와의 충돌을 피하는 것일 수 있다. 시뮬레이션된 상호작용은 가상 객체(109, 110)가 컴퓨터 그래픽 생성 시스템(40)에 의해 저장된 소정의 미리 결정된 또는 모델링된 응답에 따라 영향을 받게 할 수 있다. 예로서, 미리 결정된 또는 모델링된 응답은 물리 엔진 또는 컴퓨터 그래픽 생성 시스템(40)에 의해 구현된 유사한 모듈에 의해 구현될 수 있다.
또한, 일 실시예에서, 가상 객체(109, 110)는 컴퓨터 그래픽 생성 시스템(40)에 의해 생성되어 시각화 장치(14)의 디스플레이(30, 32) 상에 디스플레이될 수 있다. 구체적으로, 가상 객체(109, 110)는 승객(102, 104,106, 108)이 실제로 지각한 것에 중첩될 수도 있다. 실제로, 제1 가상 물체(109)는 정지된 별을 표현한 것일 수 있고, 제2 가상 물체는 움직이는(예컨대, 동적인) 새를 표현한 것일 수 있다. 즉, 일 실시예에서, 제1 가상 객체(109)(예컨대, 별)는 환경의 다른 객체에 대해 정지 상태로 유지되고, 제2 가상 객체(110)(예컨대, 새)는 환경 내 다른 객체에 대해 이동할 수 있다. 예를 들어, 실제 이미지(22)와 다른 AR/VR 이미지(24)(도 1)의 조합을 포함하는 환경(20)의 경우, 제1 가상 객체(109)는 실제 이미지(22)에 대해 정지 상태(예컨대, 트랙(98)의 실제 이미지(22)에 대해 정지)로 유지되는 반면, 제2 가상 객체(110)는 실제 이미지(22)에 대해 이동한다.
또한, 컴퓨터 그래픽 생성 시스템(40)은 시각화 장치(14)를 착용한 승객들(102, 104, 106, 108) 각각에 대해 시선 방향(112)(예컨대, 승객이 바라보는 방향과 정렬된 그리고 동일 선상에 있는 축)을 결정할 수 있다. 일 실시예에서, 센서(37)(도 1)는 동공의 위치, 초점 거리 및/또는 시각화 장치(14)의 방향을 나타내는 데이터를 (예컨대, 실시간으로 또는 거의 실시간으로) 캡처하여 시선 방향(112)을 결정할 수 있다. 시선 방향(112)은 다양한 안구 추적 장치 및 알고리즘 중 임의의 것으로 결정될 수 있음을 이해해야 한다. 시선 방향(112)을 결정한 후, 컴퓨터 그래픽 생성 시스템(40)은 텍스트(25)를 포함하는 평면(114)을 결정할 수 있다. 구체적으로, 일 실시예에서, 평면(114)은 결정된 시선 방향(112)과 실질적으로 직교하도록 배향된다. 따라서, 텍스트(25)는 평면(114)에 위치할 수 있으며, 이 텍스트(25)는 시선 방향(112)을 따라 승객을 향하도록 배향되어, 읽을 수 있는 텍스트(25)가 생성된다.
일 실시예에서, 시선 방향(112)은, 텍스트(25)를 커스터마이즈하는데 사용될 수 있는 텍스트 특성을 결정하는데 사용될 수 있다. 예를 들어, 컴퓨터 그래픽 생성 시스템(40)은 승객(104)의 시선 방향(112)이 제2 가상 객체(110)를 향하고 있다고 판단할 수 있다. 승객(104)의 시선 방향(112)이 제2 가상 객체(110)를 향하고 있다는 판정에 응답하여, 컴퓨터 그래픽 생성 시스템(40)은 제2 가상 객체(110)와 연관된 텍스트(25)를 표시할 수 있다. 텍스트(25)는 (예컨대, 제2 가상 객체(110)가 말한 내러티브와 일치하는 단어를 포함하는) 말풍선을 포함할 수 있고, 제2 가상 객체(110)에 대한 정보를 제공하는 다이어그램(예컨대, 새의 종류, 그 새의 최대 속도, 그 새가 서식하는 서식지) 등을 포함할 수 있다.
도 5는 도시된 바와 같이 시각화 장치(14)를 착용한 사용자(예컨대, 도 4의 승객(102, 106))에게 보여질 수 있는 환경(20)의 뷰로서, 시각화 장치에 의해 텍스트(25)가 환경(20) 상에 오버레이된다. 환경(20)은 스릴 라이드(92), 시설(94), 승객(104, 108) 및 추가 오락 어트랙션(96)의 이미지와 같은 실제 이미지(22)(도 1, 4 참고)에 오버레이되는 제1 가상 객체(109)(예컨대, 별) 및 제2 가상 객체(110)(예컨대, 애니메이션 동물)와 같은 AR/VR 이미지(24)를 포함할 수 있다. 전술한 바와 같이, 본 명세서에 개시된 기술은 AR/VR 이미지(24) 및 텍스트(25)를 실제 이미지(22)(예컨대, 실제 환경의 이미지)가 아니라, 시각화 장치(14)의 투명 유리를 통해 보이는 실제 환경에 오버레이하는데 적용될 수 있음을 이해해야 한다. 따라서, 일 실시예에서, 혼합 현실 환경이 시각화 장치(14)를 통해 승객들에게 제공될 수 있다. 또한, 컴퓨터 그래픽 생성 시스템(40)(도 1)은 텍스트(25)를 실제 환경에 디스플레이(예컨대, 오버레이)하는 것을 용이하게 할 수 있다. 따라서, 텍스트(25)를 오버레이하는 기술이 VR 환경, AR 환경, 실제 환경, 혼합 환경 등에 적용될 수 있다는 것을 이해해야 한다.
일 실시예에서, 컴퓨터 그래픽 생성 시스템(40)은 실시간으로 또는 거의 실시간으로 환경 데이터를 수신할 수 있다. 환경 데이터는 실제 이미지(22)와 연관된 데이터 및/또는 AR/VR 이미지(24)와 연관된 데이터를 포함할 수 있다. 구체적으로, 환경 데이터는 실제 이미지(22)의 위치(예컨대, 스릴 라이드(92), 시설(94), 승객(104, 108) 및 추가 오락 어트랙션(96)) 및 AR/VR 이미지(24)(예컨대, 제1 및 제2 가상 객체(109, 110))의 위치를 포함한다. 구체적으로, 일 실시예에서, 환경 데이터가 실제 이미지(22)의 위치 및 AR/VR 이미지(24)의 위치를 환경(20)에 포함하여, 실제 이미지(22)의 위치와 AR/VR 이미지(24)의 위치가 시각화 장치(14)에 매핑되도록 할 수 있다.
또한, 일 실시예에서, 환경 데이터는 각각의 이미지에 대한 식별자를 포함할 수 있어, 식별자가 각각의 이미지를 실제 이미지(22), AR/VR 이미지(24), 또는 중요하지 않은 이미지(118)를 라벨링하도록 할 수 있다. 구체적으로, 일 실시예에서, 식별자는 일부 실제 이미지(22)를 중요한 것으로 라벨링하고 일부 실제 이미지(22)는 중요하지 않은 이미지(118)로 라벨링할 수 있다. 컴퓨터 그래픽 생성 시스템(40)이 실제 이미지가 테마를 추가하지 않거나 텍스트(25)에 의해 덮일 수 있는 이미지나 특징인 것으로 판단할 경우, 컴퓨터 그래픽 생성 시스템(40)은 (예컨대, 하나 이상의 알고리즘을 사용하여) 계산을 수행하여 이 실제 이미지(22)를 중요하지 않은 것(예컨대, 중요하지 않은 이미지(118))으로 라벨링할 수 있다.
도시된 실시예에서, 컴퓨터 그래픽 생성 시스템(40)은 시각화 장치(14)를 통해 보이는 각각의 이미지 또는 각각의 콘텐츠에 대한 식별자를 결정하기 위해 시각화 장치(14) 상에 디스플레이된 구역을 스캔할 수 있다. 예를 들어, 도시된 실시예에서 컴퓨터 그래픽 생성 시스템(40)은 스릴 라이드(92), 시설(94) 및 추가 놀이공원 어트랙션(96)을 제1 식별자와 연관시켜, 제1 식별자가 이들 이미지를 실제 이미지(22)로 라벨링하도록 할 수 있다. 컴퓨터 그래픽 생성 시스템(40)은 제1 가상 객체(109) 및 제2 가상 객체(110)를 제2 식별자와 연관시켜, 제2 식별자가 이들 이미지를 AR/VR 이미지(24)로 라벨링하도록 할 수 있다. 컴퓨터 그래픽 생성 시스템(40)은 산(119), 잔디(121) 및 승객(104, 108)을 제3 식별자와 연관시켜, 제3 식별자가 이들 이미지를 계산에 기초하여(예컨대, 하나 이상의 알고리즘 사용하여) 중요하지 않은 이미지(118)로 라벨링하도록 할 수 있다. 일 실시예에서, 중요하지 않은 이미지(118)는, 예를 들어, 배경(예컨대, 태양, 구름, 다른 승객 및 조경) 역할을 함으로써 환경(20)에 테마를 추가하지 않거나 또는 컴퓨터 그래픽 생성 시스템(40)에 의해 결정된 임의의 다른 중요하지 않은 기능(또는 다른 이미지나 특징들에 비해 상대적으로 덜 중요한 기능)을 하는 이미지를 포함한다.
일 실시예에서, 컴퓨터 그래픽 생성 시스템(40)은 시각화 장치(14)를 통해 보이는 환경(20)의 모든 구역을 제1, 제2 또는 제3 식별자와 연관시킬 수 있다. 그러나, 일 실시예에서, 컴퓨터 그래픽 생성 시스템(40)은 본 명세서에 기술된 기술을 수행하기 위해 어떠한 식별자도 사용하지 않거나, 식별자들 중 일부(예컨대, 제1, 제2 또는 제3 식별자만)를 이용하거나, 또는 임의의 추가 식별자를 이용할 수 있음을 이해해야 한다.
환경 데이터는 각각의 실제 이미지(22) 및 AR/VR 이미지(24)의 크기를 더 포함할 수 있다. 예를 들어, 컴퓨터 그래픽 생성 시스템(40)은 시각화 장치(14) 상의 전체 디스플레이 영역에 대한 각 이미지의 크기를 판단할 수 있다. 즉, 컴퓨터 그래픽 생성 시스템(40)은 장치(14)를 통해 보이는 전체 환경(20)의 어느 부분(예컨대, 부위)을 각각의 이미지가 차지하는지를 판단할 수 있다.
일 실시예에서, 컴퓨터 그래픽 생성 시스템(40)은 적절한 텍스트 영역(120)의 결정을 용이하게 하기 위해 각 이미지의 위치, 식별자 및/또는 크기를 분석할 수 있다. 구체적으로, 텍스트 영역(120)은, 텍스트(25)가 시각화 장치(14)를 착용한 사용자에게 보여질 수 있고/있거나 특정 이미지 또는 특징의 뷰를 방해하지 않도록 텍스트(25)를 디스플레이하기에 적합한 시각화 장치(14)의 디스플레이 영역 상의 부분을 지칭한다.
일 실시예에서, 컴퓨터 그래픽 생성 시스템(40)은 환경 데이터를 사용하여 텍스트 영역(120)을 결정할 수 있다. 일 실시예에서 컴퓨터 그래픽 생성 시스템(40)은 최소한 환경 데이터를 기반으로 텍스트 영역(120)의 위치 및 크기를 결정할 수 있음을 이해해야 한다. 구체적으로, 컴퓨터 그래픽 생성 시스템(40)은 각 이미지의 위치, 각 이미지의 크기, 각 이미지의 식별자 및 임의의 다른 적절한 환경 데이터를 사용하여 텍스트 영역(120)을 결정할 수 있다. 예를 들어, 컴퓨터 그래픽 생성 시스템(40)은, 제3 식별자(예컨대, 중요하지 않은 이미지(118))와 연관된 이미지(들)의 가장 큰 부분을 포함하는 영역을 텍스트 영역(120)으로서 결정할 수 있는데, 이는 이러한 영역에 텍스트(25)를 디스플레이하는 것이, 예컨대 중요한 이미지를 방해하지 않고 사용자가 텍스트(25)를 볼 수 있도록 할 수 있기 때문이다.
또한, 일 실시예에서, 컴퓨터 그래픽 생성 시스템(40)은 우선순위 방식에 기초하여 텍스트 영역(120)을 결정할 수 있다. 우선순위 방식은 시각화 장치(14) 상에 수신, 식별 또는 디스플레이된 각각의 이미지를 중요도에 따라 순위를 매길 수 있다. 예를 들어, 텍스트(25)와 연관된 이미지(예컨대, 텍스트(25)로 설명된 이미지)는 가장 높은 우선순위로 순위가 매겨질 수 있고, 제3 식별자(예컨대, 중요하지 않은 이미지(118))와 연관된 임의의 큰 이미지는 가장 낮은 우선순위로 순위가 매겨질 수 있다. 컴퓨터 그래픽 생성 시스템(40)은 텍스트 영역(120)이, 시각화 장치(14)로 볼 수 있는 환경(20) 영역에서 텍스트(25)를 수용하기에 충분히 큰 영역을 포함하고/하거나 컴퓨터 그래픽 생성 시스템(40)의 우선순위 방식에 기초하여 가장 낮은 우선순위가 매겨진 영역에 위치하도록 결정할 수 있다.
또한, 일 실시예에서, 컴퓨터 그래픽 생성 시스템(40)은 텍스트(25)의 표시를 수신하여 시각화 장치(14) 상에 디스플레이할 수 있다. 텍스트(25)의 표시는 텍스트(25)를 디스플레이하는 시간, 텍스트(25)의 내용, 텍스트(25)와 연관된 이미지를 포함할 수 있다. 텍스트(25)를 디스플레이하는 시간은 텍스트(25)를 디스플레이하는 시작 시간, 텍스트(25)의 지속 기간 및 텍스트(25)를 디스플레이하는 종료 시간을 포함할 수 있다. 텍스트(25)의 내용은 이미지(예컨대, 실제 이미지(22) 또는 AR/VR 이미지(24))와 연관된 사운드(예컨대, 가청 음성)와 함께 자막 또는 읽을 수 있는 음성, 이미지와 연관된 설명, 이미지와 연관된 통계, 또는 텍스트(25)의 임의의 다른 적절한 콘텐츠를 포함할 수 있다. 텍스트(25)와 연관된 이미지는 텍스트(25)로 기술된 이미지, 텍스트(25)를 통해 전달되는 내러티브를 생성하는 이미지, 또는 시선 방향(112)과 연관된 이미지를 포함할 수 있다.
또한, 일 실시예에서, 텍스트(25)의 표시는 사용자(12)(예컨대, 라이드 승객)에 의해 취해진 동작에 응답하는 시각화 장치(14) 상의 텍스트 확인일 수 있다. 예를 들어, 사용자(12)가 자신의 안전벨트를 고정한 후에, 컴퓨터 그래픽 생성 시스템(40)은 이 동작의 표시(예컨대, 안전벨트의 고정)를 수신할 수 있고, 이에 의해 컴퓨터 그래픽 생성 시스템(40)은 시각화 장치(14)로 하여금 "잠금(SECURED)"과 같은 확인 텍스트(25)를 표시한다. 확인 텍스트를 나타내는 데이터는 또한 품질 관리 목적으로 기지국 제어기 및/또는 원격 운영자에게 전송될 수 있다. 예를 들어, 라이드 운전자는 사용자의 벨트가 제자리에 고정되어 있음을 확인하는 텍스트(25)를 수신하여 자신이 착용하고 있는 제각기의 시각화 장치(14)에 텍스트(25)를 디스플레이함으로써 사용자의 안전 벨트의 상태를 모니터링할 수 있다.
일 실시예에서, 텍스트(25)의 제시는 시각화 장치(14)를 착용한 사용자(12)의 시선 방향(112)에 기초할 수 있다. 예를 들어, 컴퓨터 그래픽 생성 시스템(40)은 (예컨대, 안구 추적에 기초하여) 시선 방향(112)이 제2 가상 객체(110)를 향한다고 판단할 수 있으며, 따라서 컴퓨터 그래픽 생성 시스템(40)은 텍스트(25)가 시선 방향(112)에 가장 가까운 이미지(예컨대, 제2 가상 객체(110))와 연관되어야 한다고 결정할 수 있다. 일 실시예에서, 텍스트(25)는 시선 방향(112)이 특정 이미지(예컨대, 제2 가상 객체(110))를 향하고 있다는 판정(예컨대, 컴퓨터 그래픽 생성 시스템(40)에 의한 판정)에 응답하여 디스플레이된다. 그러나, 텍스트(25)의 제시는 시선 방향(112)에 기초하지 않고, 추가적으로 또는 대안적으로 예컨대, 소정의 AR/VR 이미지(24)의 제시(예컨대, 대응하는 텍스트(25)가 AR/VR 이미지(24)와 함께 제시됨), 사용자(12)에 의해 취해진 동작 등에 응답하여, 라이드의 동작 동안 타임스탬프에 기초할 수도 있다(예컨대, 라이드의 소정 부분 중에 제시될 수 있다)는 것을 이해해야 한다.
실제로, 컴퓨터 그래픽 생성 시스템(40)은 각 이미지의 위치, 각 이미지의 크기, 각 이미지의 식별자, 및/또는 임의의 다른 적절한 환경 데이터와 같은 환경 데이터를 사용하여 텍스트 영역(120)의 위치 및 크기를 결정할 수 있다. 이에 더하여 또는 이에 갈음하여, 컴퓨터 그래픽 생성 시스템(40)은 텍스트(25)를 디스플레이하기 위한 시간, 텍스트(25)의 내용 및/또는 텍스트(25)와 연관된 이미지와 같은 텍스트(25)의 특성을 이용하여, 텍스트 영역(120)의 위치 및 크기를 결정할 수 있다.
예를 들어, 도시된 실시예에서, 컴퓨터 그래픽 생성 시스템(40)은 각 이미지(예컨대, 스릴 라이드(92), 놀이공원 시설(94), 추가적인 오락 어트랙션(96), 제1 가상 객체(109), 제2 가상 객체(110), 산(119), 잔디(121), 승객(104, 108) 및/또는 시각화 장치(14)를 통해 보이는 임의의 다른 이미지)의 크기, 위치 및/또는 식별자를 식별할 수 있다. 도시된 실시예에서, 컴퓨터 그래픽 생성 시스템(40)은 전술한 기법들 중 임의의 것을 사용하여, 텍스트 영역(120)의 위치가 제2 가상 객체(110) 위에 있다는 것과 텍스트 영역(120)의 치수(예컨대, 크기)를 판단할 수 있다. 예를 들어, 텍스트 영역(120)의 치수는 길이가 L1이고 폭이 L2일 수 있다. 컴퓨터 그래픽 생성 시스템(40)은 이것이 중요하지 않은 이미지(118)의 가장 큰 영역(예컨대, 제3 식별자와 연관된 이미지)이라고 판단하기 때문에, 이것을 텍스트 영역(120)의 위치 및 크기로 결정할 수 있다. 도시된 실시예는 실질적으로 직사각형의 텍스트 영역(120)을 포함하지만, 텍스트 영역은 임의의 적절한 형상(예컨대, 원형, 삼각형, 오각형)일 수 있음에 유의해야 한다.
일 실시예에서, 컴퓨터 그래픽 생성 시스템(40)은, 이것이 텍스트(25)와 연관된 이미지(예컨대, 제2 가상 객체(110))에 가장 가까운 영역이기 때문에, 이것이 텍스트 영역(120)의 위치 및 크기라고 판단할 수 있다. 예시된 실시예에서, 제2 가상 객체(110)가 시선 방향(112)과 교차하거나 그에 근접하기 때문에 텍스트(25)가 제공될 수 있다.
일 실시예에서, 컴퓨터 그래픽 생성 시스템(40)은, 텍스트(25)가 텍스트(25)와 연관된 이미지를 차단(예컨대, 제2 가상 객체(110))를 가리지 않도록(예컨대, 방해하지 않도록), 시각화 장치(14)를 통해 보이는 환경(20) 상의 임의의 위치에 텍스트(25)를 위치시킬 수 있다. 예를 들어, 제2 가상 객체(110)와 연관된 텍스트(25)는 제2 가상 객체(110)가 말하고 있는 것의 텍스트 말풍선(예컨대, "Once upon a time...")을 포함할 수도 있고, 제2 가상 객체(110)의 시야를 방해하지 않으면서 제2 가상 객체(110) 가까이에 위치할 수도 있다.
전술한 바와 같이, 텍스트(25)와 같은 부가 정보를 실제 이미지(22) 및 AR/VR 이미지(24)를 포함하는 환경에 오버레이하는 것에는 많은 과제가 있을 수 있다. 예를 들어, 텍스트(25)의 내용, 텍스트(25)를 디스플레이하기 위한 환경(20) 상의 위치, 텍스트(25)의 색상, 및 텍스트(25)의 밝기 또는 강도를 결정하여, 텍스트(25)가 디스플레이되는 배경에 텍스트가 섞여버리지 않게 하는 것 등이 유리할 수 있다. 따라서, 일 실시예에서는, 컴퓨터 그래픽 생성 시스템(40)이, 디스플레이할 적절한 텍스트(25), 환경(20) 상의 텍스트(25)의 위치, 텍스트(25)의 색상 등과 같은 텍스트 특성을 결정할 수 있다.
구체적으로, 컴퓨터 그래픽 생성 시스템(40)은, 시각화 장치(14)를 착용한 사용자(12)가 보다 쉽게 텍스트(25)를 읽을 수 있도록, 텍스트(25)의 적절한 색상을 결정할 수 있다. 일 실시예에서, 텍스트(25)는 텍스트(25)가 디스플레이되는 텍스트 박스(124)(예컨대, 텍스트 말풍선)를 포함할 수 있다. 텍스트 박스(124)가 하나의 색상이고, 텍스트(25)는 다른 색상일 수도 있다. 예를 들면, 텍스트 박스(124)는 검은색이고, 텍스트(25)는 흰색일 수 있다. 텍스트 박스(124)가 생략되고 텍스트(25)가 환경(20) 위에 제시될 수도 있으며, 텍스트(25)는 텍스트(25)가 디스플레이되는 환경(20)의 영역과 실질적으로 다른 색상(예컨대, 배경색)일 수 있음을 이해해야 한다. 예를 들어, 텍스트(25)가 하늘색 하늘 위에 디스플레이되는 경우, 텍스트(25)는 어두운 색(예컨대, 검은 색)일 수 있다. 그러나, 텍스트(25)가 어두운 벽 위에 디스플레이되면, 텍스트(25)는 밝은 색(예컨대, 흰색)일 수 있다.
이에 더하여 또는 이에 갈음하여, 컴퓨터 그래픽 생성 시스템(40)은 이미지(예컨대, 실제 이미지(22))와 텍스트(25) 사이의 적절한 대비를 제공하기 위해 텍스트(25)의 적절한 밝기 또는 강도를 결정할 수 있다. 예를 들어, 실제 이미지들(22)이 태양빛에 많이 노출될 경우, 텍스트(25)의 가독성을 향상시키기 위해 텍스트(25)의 밝기 또는 강도가 증가될 수 있다.
도 6을 참조하면, 시간 t0에서 시각화 장치(14)를 착용한 사용자에 의해 시각화될 수 있는 환경(20)의 뷰(130)가 도시되어 있다. 도시된 바와 같이, 텍스트(25)가 환경(20)에 오버레이된다. 시간 t0에서, 컴퓨터 그래픽 생성 시스템(40)은 텍스트(25)가 환경 데이터에 기초하여 제1 텍스트 영역(132) 상에 디스플레이되어야 한다고 결정할 수 있다. 전술한 바와 같이, 컴퓨터 그래픽 생성 시스템(40)은 제1 텍스트 영역(132)의 위치 및 크기에 기초하여, 텍스트 특성(예컨대, 텍스트(25)의 내용, 텍스트(25)의 색상, 텍스트(25)의 크기, 텍스트(25)의 글꼴, 텍스트 지속 시간)을 결정할 수 있다. 텍스트 특성, 제1 텍스트 영역(132)의 위치 및 크기, 및 이미지(예컨대, 실제 이미지(22), AR/VR 이미지(24))(총괄하여 "디스플레이 파라미터"라 함)를 결정한 후, 텍스트(25)가 제1 텍스트 영역(132)을 포함하는 환경(20)의 일부분 상에 오버레이될 수 있다. 또한, 텍스트(25)는, 텍스트(25)가 텍스트 박스(124) 또는 환경(20)의 색상과 다른 색상이고, 사용자(12)에 의해 보다 쉽게 읽혀지도록, 텍스트 박스(124)에 또는 환경(20)에 바로 디스플레이될 수 있다.
일 실시예에서, 컴퓨터 그래픽 생성 시스템(40)은 시간 t0에서 시각화 장치(14)로 하여금 환경(20)(또는 텍스트 박스(124))에 텍스트(25)를 디스플레이하게 할 수 있다. 실제로, 컴퓨터 그래픽 생성 시스템(40)은 텍스트 영역(132), 텍스트 특성 등(예컨대, 디스플레이 파라미터)을 실시간 또는 거의 실시간으로 결정할 수 있다. 일 실시예에서, 텍스트(25)는 시선 방향(112)에 기초할 수 있다. 예를 들어, 텍스트(25)는, 컴퓨터 그래픽 생성 시스템(40)이 시선 방향(112)이 제2 가상 객체(110)를 보거나 또는 그 부근을 향하고 있음을 인지할 경우, 제2 가상 객체(110)와 관련된 정보를 포함할 수 있다. 구체적으로, 컴퓨터 그래픽 생성 시스템(40)은 시간 t0에서 시선 방향(112)을 결정한 다음, 그 후 바로 적절한 위치(예컨대, 텍스트 영역(132))에 적절한 텍스트 특성을 포함하는 텍스트(25)를 디스플레이할 수 있다. 일 실시예에서, 컴퓨터 그래픽 생성 시스템(40)은 종료 시간 t1까지 텍스트(25)를 디스플레이할 수 있다. 기간(예컨대, 시간(t0)과 시간(t1) 사이의 시간)은 미리 결정될 수도 있다. 그러나, 텍스트(25)를 디스플레이하기 위한 기간은 동공 활동(예컨대, 컴퓨터 그래픽 생성 시스템(40)이 사용자(12)가 텍스트(25) 읽기를 멈추는 때를 알 수도 있도록), 사용자(12)에 의한 활동, 텍스트에 의해 커버되는 임의의 이미지 또는 특징부의 중요도 등에 기초할 수 있음을 이해해야 한다
일 실시예에서, 텍스트(25)가 환경(20) 상에 오버레이된 후에, 텍스트(25)는 디스플레이 지속 기간 동안(예컨대, 시간(t0)에서 시작하여 종료 시간(t1) 종료시) 시각화 장치(14) 상의 그 위치에 유지될 수 있다. 예를 들어, 도시된 실시예에서, 텍스트(25)는 시각화 장치(14)의 좌측 부분에 위치한 제1 텍스트 영역(132)의 텍스트 박스(124)에 디스플레이된다. 이 예에서, 시각화 장치(14)를 착용한 사용자(12)가 다른 곳을 볼 경우, 텍스트(25)는 시각화 장치(14)의 좌측 부분에 남아 있을 수 있다. 그러나, 일 실시예에서, 시각화 장치(14) 상의 텍스트(25)의 위치는 시각화 장치(14)를 착용한 사용자(12)의 시야 변화에 기초하여 동적으로 조정될 수도 있음을 이해해야 한다.
전술한 바와 같이, 텍스트(25)는 임의의 적절한 기술에 기초하여 시각화 장치(14)를 통해 볼 수 있는 환경(20) 상에 디스플레이될 수 있다. 예를 들어, 텍스트는 가상 객체(예컨대, 제2 가상 객체(110))가 말하기 시작할 때, 텍스트(25)가 말하고 있는 가상 객체의 내러티브와 일치하도록, 타임스탬프에 기초하여 환경(20) 상에 디스플레이될 수도 있다. 실제로, 일 실시예에서, 텍스트(25)의 오버레이는 실제 이미지(22) 및/또는 AR/VR 이미지(24)와 연관된 오디오로 조정될 수 있다. 도시된 실시예에서, 텍스트(25)는 (예컨대, 시선 방향(112)이 제2 가상 객체를 향하기 때문에) 제2 가상 객체(110)와 관련된다. 또한, 일 실시예에서, 시선 방향이 다른 이미지를 향할 때, 텍스트(25)는 다른 이미지와 관련될 수 있다.
컴퓨터 그래픽 생성 시스템(40)이 텍스트(25)의 디스플레이를 완료한 후(예컨대, 컴퓨터 그래픽 생성 시스템(40)이 텍스트(25)의 디스플레이 기간이 종료 시간(t1)에 도달한 것으로 판단한 후), 컴퓨터 그래픽 생성 시스템(40)은 텍스트(25)가 환경(20)으로부터 제거되게 할 수 있다.
도 7을 참조하면, 다른 시점(tn)에서 시각화 장치(14)를 착용한 사용자에 의해 시각화될 수 있는 환경의 뷰(140)가 도시되어 있다. 도시된 바와 같이, 텍스트(25)는 환경(20) 상에 오버레이된다. 일 실시예에서, (예컨대, 종료 시간(t1)에 도달했거나 사용자(12)가 보는 방향을 바꾸거나 한 이유로) 도 6의 제1 투시도(130)에 디스플레이된 텍스트(25)가 디스플레이 중지된 후, 컴퓨터 그래픽 생성 시스템(40)은 다른 시작 시간(t0)까지 기다릴 수 있으며, 이 경우 컴퓨터 그래픽 생성 시스템(40)은 텍스트 영역 및 텍스트 특성과 같은 디스플레이 파라미터를 결정하기 위해 전술한 기술을 수행할 수 있다.
구체적으로, 시간(tn)에서, 컴퓨터 그래픽 생성 시스템(40)은 환경 데이터에 기초하여 텍스트(25)가 제2 텍스트 영역(142)에 디스플레이되어야 한다고 결정할 수 있다. 또한, 컴퓨터 그래픽 생성 시스템(40)은 또한 시간(tn)에서 제2 텍스트 영역(142)의 위치 및 크기를 결정할 수 있다. 전술한 바와 같이, 컴퓨터 그래픽 생성 시스템(40)은 시간(tn)에서 텍스트 특성(예컨대, 텍스트(25)의 내용, 텍스트(25)의 색상, 텍스트(25)의 크기, 텍스트(25)의 글꼴)을 결정할 수 있다. 일 실시예에서, 제2 텍스트 영역(142)에 디스플레이되는 텍스트(25)의 텍스트 특성은 도 6의 제1 텍스트 영역(132)에 디스플레이되는 텍스트(25)의 텍스트 특성과 상이할 수 있다. 도시된 실시예에서, 컴퓨터 그래픽 생성 시스템(40)에 의해 시선 방향(112)이, 예를 들어, 추가 오락 어트랙션(96)을 향하는 것으로 식별되기 때문에, 텍스트(25)는 추가 오락 어트랙션(96)에 대한 것일 수 있다.
텍스트 특성 및 제2 텍스트 영역(142)의 위치 및 크기를 결정한 후, 텍스트(25)는 제2 텍스트 영역(142)을 포함하는 환경(20)의 부분에 오버레이될 수 있다. 또한, 텍스트(25)는, 텍스트(25)가 텍스트 박스(124) 또는 환경(20)의 색상과 다른 색상이고, 사용자(12)에 의해 보다 쉽게 읽혀지도록, 텍스트 박스(124)에 또는 환경(20)에 바로 디스플레이될 수 있다. 환경(20)에 텍스트(25)를 디스플레이하는 것은, 새로운 텍스트(25)가 디스플레이될 때(예컨대, 타임스탬프, 시선 방향(112), 스릴 라이드(92)의 특징 등과의 조정으로) 텍스트 정보 및 텍스트 영역의 위치 및 크기가 결정되도록, 라이드의 지속기간 동안 연속적으로 업데이트될 수 있다.
도 8은 일 실시예에 따른, 시각화 장치(14)(도 1-7 참고)를 통해 볼 수 있는 환경(20)(도 4-7 참고)에 텍스트(25)(도 1, 4-7 참고)를 오버레이함으로써 개선된 경험을 생성하는 데 사용될 수 있는 프로세스(200)의 흐름도이다. 특히, 일 실시예에서, 컴퓨터 그래픽 생성 장치(40)(도 1-4 참고)는 실시간으로 또는 거의 실시간으로 캡처된 환경 데이터를 수신하고 분석한다(프로세스 블록(210)). 전술한 바와 같이, 환경 데이터는 실제 이미지(22)(도 1, 4 참고)와 연관된 데이터, AR/VR 이미지(24)(도 1-4 참고)와 연관된 데이터, 시각화 장치(14)를 통해 보이는 환경(20)의 각 이미지에 대한 식별자, 시각화 장치(14)를 통해 보이는 환경(20)의 각 이미지의 크기 및 위치 등을 포함할 수 있다. 컴퓨터 그래픽 생성 시스템(40)은 실제 이미지(22) 및 AR/VR 이미지(24)를 포함할 수 있는 환경(20)(프로세스 블록(220))을 생성할 수 있다. 일 실시예에서, 컴퓨터 그래픽 생성 시스템(40)은 텍스트(25)의 내용(예컨대, 텍스트(25)에 포함된 단어 및 문자)과 같은 텍스트 정보에 액세스할 수 있다.(프로세스 블록(230)). 그 다음에, 컴퓨터 그래픽 생성 시스템(40)은 텍스트(25)에 대한 디스플레이 파라미터를 결정하여(프로세스 블록(240)), 컴퓨터 그래픽 생성 시스템(40)은 텍스트 특성(예컨대, 내용, 색상, 크기, 글꼴)을 환경(20)의 적절한 텍스트 영역(120)에 포함하도록 수정된 텍스트(25)를 제시할 수 있다(프로세스 블록(250)). 실제로, 시각화 장치(14)는 시각화 장치(14)를 착용한 사용자(12)에게 환경(20) 위에 겹쳐진 텍스트(25)를 제공할 수 있다.
일 실시예에서, 컴퓨터 그래픽 생성 시스템(40)은 시각화 장치(14)에 통신 가능하게 연결된다. 컴퓨터 그래픽 생성 시스템(40)은 카메라(34, 36)(도 1 참고) 및/또는 센서(37)(도 1 참고)와 같은 시각화 장치(14)로부터 환경 데이터를 수신할 수 있다. 전술한 바와 같이, 컴퓨터 그래픽 생성 시스템(40)(프로세스 블록(210))에 의해 수신된 환경 데이터는 실제 이미지(22)와 연관된 데이터를 포함할 수 있고, 이는 전체 디스플레이 표면(예컨대, 도 1의 디스플레이(30, 32))의 크기에 대한 시각화 장치(14)에 디스플레이된 실제 이미지(22)의 크기 및 위치를 포함할 수 있다. 또한, 환경 데이터는 AR/VR 이미지(24)와 연관된 데이터를 포함할 수 있으며, 이는 전체 디스플레이 표면의 크기에 대한 시각화 장치(14) 상에 디스플레이된 각각의 식별된 실제 이미지(22)의 크기 및 위치를 포함할 수 있다. 또한, 환경 데이터는 각각의 이미지(예컨대, 실제 이미지(22) 및 AR/VR 이미지(24))에 대한 식별자를 포함할 수 있다. 일 실시예에서, 컴퓨터 그래픽 생성 시스템(40)은 각각의 이미지에 식별자를 할당할 수 있다. 예를 들어, 컴퓨터 그래픽 생성 시스템(40)에 의해 이미지에 제1 식별자가 할당되어, 그 이미지를 실제 이미지(22)로 라벨링할 수 있다. 또한, 다른 이미지에 제2 식별자가 할당되어, 그 이미지를 AR/VR 이미지(24)로 라벨링할 수 있다. 이에 더하여 또는 이에 갈음하여, 제3 식별자가 다른 이미지에 할당되어, 그 이미지를 중요하지 않은 이미지(118)로서 라벨링할 수 있다.
컴퓨터 그래픽 생성 시스템(40)은 환경 데이터를 분석하여 환경(20)을 생성할 수 있다(프로세스 블록(220)). 일 실시예에서, 환경(20)은 실제 이미지(22) 및 AR/VR 이미지(24)를 포함하여 이들이 환경(20)을 생성하도록 조합되게 할 수 있다. 전술한 바와 같이, 환경(20)은 사용자의 시선 방향(112)(도 4-6 참고)에 기초하여 업데이트될 수 있다.
환경(20)을 생성한 후, 컴퓨터 그래픽 생성 시스템(40)은 텍스트(25)에 액세스한다(프로세스 블록(230)). 일 실시예에서, 텍스트(25)는 컴퓨터 그래픽 생성 시스템(40)의 메모리(46)(도 1 참고)에 저장된 미리 설정된 콘텐츠(예컨대, 문자 및 글자)일 수 있다. 실제로, 컴퓨터 그래픽 생성 시스템(40)은 환경 데이터에 기초하여 텍스트 콘텐츠(예컨대, 텍스트가 포함하는 단어 및 문자)에 액세스할 수 있다. 예를 들어, 환경 데이터는 말하고 있는 가상 객체의 AR/VR 이미지(24)를 포함할 수 있어, 액세스되는 텍스트(25)는 말하고 있는 가상 객체의 내러티브와 일치하도록 조정된 텍스트(25)를 포함한다.
텍스트(25)에 액세스한 후에, 컴퓨터 그래픽 생성 시스템(40)은 위에서 상세히 논의된 바와 같이, 디스플레이 파라미터를 결정할 수 있다(프로세스 블록(240)). 디스플레이 파라미터는 텍스트(25)의 텍스트 특성, 텍스트 영역(120)의 위치 및 크기(도 5), 및 시각화 장치(14)를 통해 보이는 이미지를 포함할 수 있다. 보다 자세히 말하면, 텍스트 특성은 컴퓨터 그래픽 생성 시스템(40)에 의해 액세스되는 텍스트 컨텐츠, 텍스트(25)의 색상, 텍스트(25)의 크기, 텍스트(25)의 글꼴, 텍스트(25)의 밝기 또는 강도, 및 텍스트 지속 시간을 포함한다. 또한, 이들 디스플레이 파라미터는, 텍스트(25)가 환경(20) 상에 오버레이될 때 텍스트(25)가 보다 읽기 쉽고, 텍스트(25)가 시각화 장치(14)를 통해 보이는 중요한 콘텐츠(예컨대, 이미지)를 방해하지 않도록, 텍스트(25)의 적절한 표현을 결정하는데 사용될 수 있다.
적절한 디스플레이 파라미터(예컨대, 텍스트 특성, 텍스트 영역의 크기 및 위치, 및 텍스트 컨텐츠)를 결정한 후, 텍스트(25)가 환경(20) 상에 오버레이된다. 즉, 일 실시예에서, 텍스트(25)는 가장 중요하지 않은 이미지(118)(도 5 참고)를 갖는 환경(20)의 영역에 위치할 수 있다. 실제로, 시각화 장치(14)는 놀이공원 경험을 더욱 향상시키기 위해 시각화 장치(14)를 착용한 사용자(12)에게 환경(20) 상에 오버레이된 텍스트(25)를 제공할 수 있다.
본 명세서에 제시되고 청구된 기술은, 본 기술분야를 명백하게 향상시키고, 따라서 추상적이거나 무형적이거나 순수하게 이론적이지 않은 실제 특성의 물질적 대상 및 구체적인 예에 참조되고 적용된다. 또한, 본 명세서의 말미에 첨부된 임의의 청구항이 "[기능] 등을 [수행]하기 위한 수단" 또는 "[기능] 등을 [수행]하기 위한 단계"로서 지정된 하나 이상의 요소를 포함하는 경우, 그러한 요소는 35 U.S.C. 112(f)에 따라 해석되어야 한다. 그러나, 임의의 다른 방식으로 지정된 요소를 포함하는 임의의 청구항에 대해서는, 그러한 요소가 35 U.S.C. 112(f)에 따라 해석되어서는 안 된다.
본 명세서에는 실시예들의 특정한 특징들만을 예시 및 설명하고 있지만, 당업자에게는 다양한 수정 및 변경이 가능할 것이다. 따라서, 첨부된 청구범위는 본 발명의 진정한 사상 내에 있는 그러한 모든 수정 및 변경을 커버하고자 함을 이해해야 한다. 또한, 개시된 실시예의 소정의 요소들은 서로 결합되거나 교환될 수 있음을 이해해야 한다.
Claims (20)
- 시스템으로서,
사용자가 볼 수 있는 디스플레이를 포함하는 시각화 장치(visualization device)와,
상기 시각화 장치에 통신 가능하게 연결된 컴퓨터 그래픽 생성 시스템 - 상기 컴퓨터 그래픽 생성 시스템은 프로세서 및 상기 프로세서에 통신 가능하게 연결되어 있으며 명령어를 저장하도록 구성된 메모리 장치를 포함함 - 을 포함하되,
상기 명령어는 상기 프로세서로 하여금,
실제(real-world) 이미지, 증강 현실 이미지 또는 이들의 조합을 포함하는 환경(environment)을 생성하고,
상기 환경과 연관된 데이터를 수신하고 분석하여 적절한 텍스트 위치를 결정하며,
상기 적절한 텍스트 위치에 적어도 부분적으로 기초하여 텍스트에 대한 적절한 텍스트 특성을 결정하고,
상기 적절한 텍스트 특성을 갖는 텍스트를 상기 적절한 텍스트 위치의 상기 환경에 오버레이하게 하도록 구성되는,
시스템.
- 제1항에 있어서,
상기 적절한 텍스트 특성은 상기 텍스트의 크기, 상기 텍스트의 색상, 상기 텍스트의 글꼴, 상기 텍스트를 디스플레이하는 기간 또는 이들의 조합을 포함하는,
시스템.
- 제2항에 있어서,
상기 명령어는 상기 프로세서로 하여금, 상기 적절한 텍스트 위치에서 제각기의 배경색에 기초하여 상기 텍스트의 색상을 결정하게 하도록 구성되는,
시스템.
- 제1항에 있어서,
상기 환경과 연관된 데이터는 상기 환경 내의 각각의 상기 실제 이미지 또는 상기 증강 현실 이미지의 위치, 크기 또는 중요도를 포함하는,
시스템.
- 제4항에 있어서,
상기 명령어는 상기 프로세서로 하여금, 상기 환경 내의 각각의 상기 실제 이미지 또는 상기 증강 현실 이미지의 중요도에 기초하여, 각각의 상기 실제 이미지 또는 상기 증강 현실 이미지의 순위를 매기도록 구성되는,
시스템.
- 제5항에 있어서,
상기 명령어는 상기 프로세서로 하여금 상기 적절한 텍스트 위치를 결정하게 하도록 구성되되, 상기 적절한 텍스트 위치는, 상대적으로 낮은 계산된 중요도를 갖는 상기 실제 이미지 또는 상기 증강 현실 이미지 중 하나 이상을 커버하고, 상기 사용자로 하여금 상대적으로 높은 계산된 중요도를 갖는 상기 실제 이미지 또는 상기 증강 현실 이미지 중 하나 이상을 시각화할 수 있게 하는 위치인,
시스템.
- 제1항에 있어서,
상기 명령어는 상기 프로세서로 하여금 타임스탬프와 협력하여 상기 텍스트를 업데이트하게 하도록 구성되되, 상기 타임스탬프는 상기 프로세서가 상기 텍스트를 오버레이하는 시작 시간 및 종료 시간을 제공하는,
시스템.
- 제1항에 있어서,
상기 명령어는 상기 프로세서로 하여금 상기 사용자의 시선 방향을 결정하게 하고 상기 시선 방향에 적어도 부분적으로 기초하여 상기 적절한 텍스트 위치를 결정하게 하도록 구성되는,
시스템.
- 제1항에 있어서,
상기 명령어는 상기 프로세서로 하여금 상기 사용자의 시선 방향을 결정하게 하고 상기 시선 방향에 부분적으로 기초하여 상기 적절한 텍스트 특성을 결정하게 하도록 구성되는,
시스템.
- 제1항에 있어서,
상기 명령어는 상기 프로세서로 하여금 상기 텍스트의 내용이 스피커를 통해 제공된 내러티브(narrative)와 일치하는지 판단하게 하도록 구성되는,
시스템.
- 제1항에 있어서,
상기 사용자가 착용하도록 구성된 시각화 장치를 포함하는,
시스템.
- 시각화 장치의 디스플레이 상에 텍스트를 오버레이하는 방법으로서,
하나 이상의 프로세서를 통해, 실제 이미지, 증강 현실 이미지, 가상 현실 이미지, 또는 이들의 임의의 조합을 포함하는 환경을 상기 디스플레이 상에 생성하는 단계와,
상기 하나 이상의 프로세서를 통해, 상기 환경과 관련된 데이터를 분석하여 적절한 텍스트 위치를 결정하는 단계와,
상기 하나 이상의 프로세서를 통해, 상기 적절한 텍스트 위치에 적어도 부분적으로 기초하여 텍스트에 대한 적절한 텍스트 특성을 결정하는 단계와,
상기 하나 이상의 프로세서를 통해, 상기 적절한 텍스트 특성을 갖는 상기 텍스트를 상기 적절한 텍스트 위치의 상기 디스플레이 상의 환경에 오버레이하는 단계를 포함하는,
방법.
- 제12항에 있어서,
상기 적절한 텍스트 특성은 상기 텍스트의 크기, 상기 텍스트의 색상, 상기 텍스트의 글꼴, 상기 텍스트를 디스플레이하는 기간 또는 이들의 조합을 포함하는,
방법.
- 제12항에 있어서,
상기 환경과 관련된 데이터는 상기 환경 내 각각의 상기 실제 이미지, 상기 가상 현실 이미지 또는 상기 증강 현실 이미지의 위치, 크기 또는 중요도를 포함하는,
방법.
- 제12항에 있어서,
상기 하나 이상의 프로세서를 통해, 타임스탬프, 상기 사용자에 의한 동작, 상기 사용자의 시선 방향의 변화, 상기 환경 내의 상기 실제 이미지, 상기 증강 현실 이미지, 상기 가상 현실 이미지, 또는 이들의 조합의 변화에 기초하여 상기 텍스트를 업데이트하는 단계를 포함하는,
방법.
- 제12항에 있어서,
상기 하나 이상의 프로세서를 통해, 상기 사용자의 시선 방향을 결정하는 단계와,
상기 하나 이상의 프로세서를 통해, 상기 시선 방향에 적어도 부분적으로 기초하여 상기 적절한 텍스트 위치를 결정하는 단계를 포함하는,
방법.
- 제16항에 있어서,
상기 하나 이상의 프로세서를 통해, 상기 시선 방향에 적어도 부분적으로 기초하여 상기 적절한 텍스트 특성을 결정하는 단계를 포함하는,
방법.
- 사용자가 착용하도록 구성된 시각화 장치에 통신 가능하게 연결된 컴퓨터 그래픽 생성 시스템에서 하나 이상의 프로세서에 의해 실행 가능한 명령어를 저장하는 유형의 비일시적 컴퓨터 판독 가능한 매체로서,
상기 명령어는 상기 하나 이상의 프로세서로 하여금,
상기 시각화 장치의 디스플레이 상에 실제 이미지, 가상 현실 이미지, 증강 현실 이미지, 또는 이들의 조합을 디스플레이함으로써 상기 시각화 장치를 통해 상기 사용자에게 보이는 환경을 생성하고,
상기 사용자의 시선 방향을 나타내는 신호를 수신하고 분석하며,
상기 환경과 관련된 데이터를 수신하고 분석하며,
상기 사용자의 시선 방향을 나타내는 신호 및 상기 환경과 관련된 데이터에 적어도 부분적으로 기초하여 적절한 텍스트 위치를 결정하고,
텍스트를 상기 적절한 텍스트 위치의 상기 환경 상에 오버레이하게 하도록 구성되는,
컴퓨터 판독가능한 매체.
- 제18항에 있어서,
상기 명령어는 상기 적어도 하나의 프로세서로 하여금 상기 적절한 텍스트 위치에 적어도 부분적으로 기초하여 상기 텍스트의 텍스트 특성을 결정하게 하도록 구성되는,
컴퓨터 판독 가능한 매체.
- 제18항에 있어서,
상기 명령어는 상기 하나 이상의 프로세서로 하여금 상기 시선 방향에 적어도 부분적으로 기초하여 상기 적절한 텍스트 특성을 결정하게 하도록 구성되는,
컴퓨터 판독 가능한 매체.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/862,498 US10699485B2 (en) | 2018-01-04 | 2018-01-04 | Systems and methods for textual overlay in an amusement park environment |
US15/862,498 | 2018-01-04 | ||
PCT/US2018/065516 WO2019135878A1 (en) | 2018-01-04 | 2018-12-13 | Systems and methods for textual overlay in an amusement park environment |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200105888A true KR20200105888A (ko) | 2020-09-09 |
Family
ID=64902535
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020207022399A KR20200105888A (ko) | 2018-01-04 | 2018-12-13 | 놀이공원 환경에서 텍스트 오버레이를 위한 시스템 및 방법 |
Country Status (10)
Country | Link |
---|---|
US (1) | US10699485B2 (ko) |
EP (1) | EP3735306B1 (ko) |
JP (1) | JP7322034B2 (ko) |
KR (1) | KR20200105888A (ko) |
CN (1) | CN111526929B (ko) |
CA (1) | CA3086761A1 (ko) |
ES (1) | ES2917977T3 (ko) |
RU (1) | RU2768131C2 (ko) |
SG (1) | SG11202005413YA (ko) |
WO (1) | WO2019135878A1 (ko) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6440910B2 (ja) * | 2016-07-29 | 2018-12-19 | 三菱電機株式会社 | 表示装置、表示制御装置および表示制御方法 |
JP2019211595A (ja) * | 2018-06-04 | 2019-12-12 | 富士ゼロックス株式会社 | 表示制御装置、プログラム及び表示システム |
US10902461B2 (en) * | 2018-08-03 | 2021-01-26 | International Business Machines Corporation | Environmental modification using tone model analysis |
US11354862B2 (en) * | 2019-06-06 | 2022-06-07 | Universal City Studios Llc | Contextually significant 3-dimensional model |
US11217024B2 (en) * | 2019-12-26 | 2022-01-04 | Facebook Technologies, Llc | Artificial reality system with varifocal display of artificial reality content |
US20210216099A1 (en) | 2020-01-09 | 2021-07-15 | Universal City Studios Llc | Interface device for wearable visualization device, systems and methods |
US20210271881A1 (en) * | 2020-02-27 | 2021-09-02 | Universal City Studios Llc | Augmented reality guest recognition systems and methods |
US11196944B2 (en) * | 2020-05-06 | 2021-12-07 | At&T Intellectual Property I, L.P. | System for infinite windows with optical disparity and depth resolution |
WO2021247940A1 (en) * | 2020-06-03 | 2021-12-09 | Mr Fun, Llc | Location based augmented reality gaming system |
US11839829B2 (en) * | 2020-06-11 | 2023-12-12 | Universal City Studios Llc | Wearable visualization device with a retractable cover |
US11341697B2 (en) * | 2020-06-30 | 2022-05-24 | Rovi Guides, Inc. | System and methods for resolving audio conflicts in extended reality environments |
US11538225B2 (en) * | 2020-09-30 | 2022-12-27 | Snap Inc. | Augmented reality content generator for suggesting activities at a destination geolocation |
JP7011746B1 (ja) | 2021-05-31 | 2022-01-27 | 株式会社バーチャルキャスト | コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム |
WO2023018827A1 (en) * | 2021-08-11 | 2023-02-16 | Meta Platforms Technologies, Llc | Dynamic widget placement within an artificial reality display |
CN116212361B (zh) * | 2021-12-06 | 2024-04-16 | 广州视享科技有限公司 | 虚拟对象显示方法、装置和头戴式显示装置 |
WO2023205092A1 (en) * | 2022-04-21 | 2023-10-26 | Universal City Studios Llc | Artificial intelligence (ai)-assisted and dynamic ride profile head tracking systems and methods |
US12079384B2 (en) | 2022-04-21 | 2024-09-03 | Universal City Studios Llc | Artificial intelligence (AI)-assisted and dynamic ride profile head tracking systems and methods |
USD1023209S1 (en) | 2022-05-26 | 2024-04-16 | Sally Industries, Inc. | Indoor amusement ride |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8494215B2 (en) * | 2009-03-05 | 2013-07-23 | Microsoft Corporation | Augmenting a field of view in connection with vision-tracking |
US20110270135A1 (en) | 2009-11-30 | 2011-11-03 | Christopher John Dooley | Augmented reality for testing and training of human performance |
US20110225069A1 (en) | 2010-03-12 | 2011-09-15 | Cramer Donald M | Purchase and Delivery of Goods and Services, and Payment Gateway in An Augmented Reality-Enabled Distribution Network |
US9285871B2 (en) | 2011-09-30 | 2016-03-15 | Microsoft Technology Licensing, Llc | Personal audio/visual system for providing an adaptable augmented reality environment |
US9966075B2 (en) * | 2012-09-18 | 2018-05-08 | Qualcomm Incorporated | Leveraging head mounted displays to enable person-to-person interactions |
JP6155622B2 (ja) * | 2012-12-18 | 2017-07-05 | セイコーエプソン株式会社 | 表示装置、頭部装着型表示装置、表示装置の制御方法、および、頭部装着型表示装置の制御方法 |
US20160125624A1 (en) * | 2013-05-29 | 2016-05-05 | Nokia Technologies Oy | An apparatus and associated methods |
US11250630B2 (en) * | 2014-11-18 | 2022-02-15 | Hallmark Cards, Incorporated | Immersive story creation |
US9665170B1 (en) * | 2015-06-10 | 2017-05-30 | Visionary Vr, Inc. | System and method for presenting virtual reality content to a user based on body posture |
US10832479B2 (en) * | 2015-06-15 | 2020-11-10 | Sony Corporation | Information processing apparatus, information processing method, and program |
GB2542424B (en) * | 2015-09-21 | 2021-10-13 | Tridonic Gmbh & Co Kg | Operating device for a light-emitting means and method of controlling an operating device |
GB2542434A (en) * | 2015-09-21 | 2017-03-22 | Figment Productions Ltd | A System for Providing a Virtual Reality Experience |
JP6496671B2 (ja) * | 2016-01-13 | 2019-04-03 | 株式会社ぐるなび | 情報処理装置、端末装置、情報処理方法及びプログラム |
KR20180014498A (ko) * | 2016-08-01 | 2018-02-09 | 삼성전자주식회사 | 텍스트의 시인성을 향상시키는 전자 장치와 이의 동작 방법 |
US10235788B2 (en) * | 2017-01-17 | 2019-03-19 | Opentv, Inc. | Overlay contrast control in augmented reality displays |
US10565795B2 (en) * | 2017-03-06 | 2020-02-18 | Snap Inc. | Virtual vision system |
CA3060209A1 (en) * | 2017-05-01 | 2018-11-08 | Magic Leap, Inc. | Matching content to a spatial 3d environment |
US10769438B2 (en) * | 2017-05-23 | 2020-09-08 | Samsung Electronics Company, Ltd. | Augmented reality |
US11249714B2 (en) * | 2017-09-13 | 2022-02-15 | Magical Technologies, Llc | Systems and methods of shareable virtual objects and virtual objects as message objects to facilitate communications sessions in an augmented reality environment |
US10553031B2 (en) * | 2017-12-06 | 2020-02-04 | Microsoft Technology Licensing, Llc | Digital project file presentation |
-
2018
- 2018-01-04 US US15/862,498 patent/US10699485B2/en active Active
- 2018-12-13 WO PCT/US2018/065516 patent/WO2019135878A1/en unknown
- 2018-12-13 CN CN201880085256.3A patent/CN111526929B/zh active Active
- 2018-12-13 ES ES18829702T patent/ES2917977T3/es active Active
- 2018-12-13 CA CA3086761A patent/CA3086761A1/en active Pending
- 2018-12-13 SG SG11202005413YA patent/SG11202005413YA/en unknown
- 2018-12-13 EP EP18829702.2A patent/EP3735306B1/en active Active
- 2018-12-13 RU RU2020125730A patent/RU2768131C2/ru active
- 2018-12-13 JP JP2020536971A patent/JP7322034B2/ja active Active
- 2018-12-13 KR KR1020207022399A patent/KR20200105888A/ko not_active Application Discontinuation
Also Published As
Publication number | Publication date |
---|---|
EP3735306B1 (en) | 2022-04-06 |
RU2020125730A3 (ko) | 2022-02-04 |
SG11202005413YA (en) | 2020-07-29 |
ES2917977T3 (es) | 2022-07-12 |
EP3735306A1 (en) | 2020-11-11 |
WO2019135878A1 (en) | 2019-07-11 |
RU2768131C2 (ru) | 2022-03-23 |
US20190206132A1 (en) | 2019-07-04 |
JP2021509612A (ja) | 2021-04-01 |
CN111526929B (zh) | 2022-02-18 |
RU2020125730A (ru) | 2022-02-04 |
CA3086761A1 (en) | 2019-07-11 |
CN111526929A (zh) | 2020-08-11 |
JP7322034B2 (ja) | 2023-08-07 |
US10699485B2 (en) | 2020-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3735306B1 (en) | Systems and methods for textual overlay in an amusement park environment | |
US11670054B2 (en) | Systems and methods for generating stereoscopic, augmented, and virtual reality images | |
CN110352085B (zh) | 用于游乐园环境中的分层虚拟特征的系统和方法 | |
US10606348B2 (en) | Systems and methods for generating augmented and virtual reality images | |
US11669152B2 (en) | Massive simultaneous remote digital presence world | |
KR102718166B1 (ko) | 증강 및 가상 현실 이미지를 생성하는 시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |