KR20220145893A - 증강 현실 게스트 인식 시스템 및 방법 - Google Patents

증강 현실 게스트 인식 시스템 및 방법 Download PDF

Info

Publication number
KR20220145893A
KR20220145893A KR1020227033398A KR20227033398A KR20220145893A KR 20220145893 A KR20220145893 A KR 20220145893A KR 1020227033398 A KR1020227033398 A KR 1020227033398A KR 20227033398 A KR20227033398 A KR 20227033398A KR 20220145893 A KR20220145893 A KR 20220145893A
Authority
KR
South Korea
Prior art keywords
guest
augmented reality
guests
reality display
display device
Prior art date
Application number
KR1020227033398A
Other languages
English (en)
Inventor
마크 제임스 트레이너
데이비드 존-루이스 올터
카일 패트릭 핸리
제프리 라마 폴크
브렛 제임스 콘로이
보니 진 스피비
Original Assignee
유니버셜 시티 스튜디오스 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 유니버셜 시티 스튜디오스 엘엘씨 filed Critical 유니버셜 시티 스튜디오스 엘엘씨
Publication of KR20220145893A publication Critical patent/KR20220145893A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0282Rating or review of business operators or products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • G06K9/6215
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Social Psychology (AREA)
  • Data Mining & Analysis (AREA)
  • Optics & Photonics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 명세서에 제시된 시스템 및 방법은 장소에서 하나 이상의 게스트를 인식하도록 구성된 게스트 인식 시스템과, 게스트 인식 시스템으로부터 인식된 하나 이상의 게스트에 관한 데이터를 수신하고, 인식된 하나 이상의 게스트에 관한 수신된 데이터에 적어도 부분적으로 기초하여 인식된 하나 이상의 게스트에 관한 게스트 경험 정보를 생성하며, 증강 현실 디스플레이 장치의 증강 현실 디스플레이 상에 디스플레이하기 위해 인식된 하나 이상의 게스트에 관한 게스트 경험 정보를 증강 현실 디스플레이 장치에 전송하도록 구성된 게스트 경험 분석 시스템을 포함하는 장소 시스템을 포함한다.

Description

증강 현실 게스트 인식 시스템 및 방법
관련 출원에 대한 상호 참조
본 출원은 2020년 2월 27일자로 출원된 "증강 현실 게스트 인식 시스템 및 방법"이라는 제목의 미국 가출원 번호 62/982,528에 대한 우선권 및 이익을 주장하며, 이는 모든 목적을 위해 그 전체가 본 명세서에 참조로 통합된다.
본 개시내용은 일반적으로 장소(예를 들어, 놀이공원 또는 테마파크)의 직원이 장소의 게스트의 경험을 향상시키는 것을 용이하게 하는 증강 현실 환경의 생성을 위한 시스템 및 방법에 관한 것이다. 보다 구체적으로, 본 개시내용의 실시예는 일반적으로 장소의 게스트의 자동화된 인식에 기초한 증강 현실 환경을 위한 시스템 및 방법에 관한 것이다.
이 섹션은 아래에 설명 및/또는 청구되는 본 기술의 다양한 측면과 관련될 수 있는 기술의 다양한 측면을 독자에게 소개하기 위한 것이다. 이 논의는 본 개시내용의 다양한 측면의 더 나은 이해를 용이하게 하기 위해 배경 정보를 독자에게 제공하는 데 도움이 되는 것으로 믿어진다. 따라서, 이러한 진술은 이러한 관점에서 읽어야 하며 선행 기술을 인정하는 것이 아님을 이해해야 한다.
놀이 공원 및/또는 테마 공원은 장소의 게스트(예를 들어, 가족 및/또는 모든 연령대의 사람들)에게 즐거움을 제공하는 데 유용한 다양한 유흥 어트랙션, 레스토랑, 기념품 가게, 및 놀이기구를 포함할 수 있다. 장소의 영역은 특정 청중을 대상으로 하는 다양한 테마를 가질 수 있다. 예를 들어, 특정 영역은 전통적으로 어린이가 관심을 갖는 테마를 포함할 수 있고, 다른 영역은 전통적으로 더 성숙한 청중이 관심을 갖는 테마를 포함할 수 있다. 일반적으로, 이러한 장소와 연관된 테마가 있는 위치는 어트랙션 또는 테마 어트랙션이라고 한다. 이러한 테마 어트랙션은 대부분은 일반적으로 특정 테마와 관련이 있는 고정 장비, 건물 레이아웃, 소품, 장식 등을 사용하여 수립될 수 있다. 일반적으로, 장소의 직원은 게스트의 경험을 향상시키는 데 도움이 될 수 있다. 이와 같이, 장소의 직원은 게스트의 미래 경험을 향상시키기 위해 게스트의 경험의 이전 및 현재 상태와 관련된 보다 최신 정보로 도움을 받을 수 있다.
이제 전통적인 기술에 비해 유연하고 효율적인 방식으로 테마 어트랙션의 환경을 변경할 수 있는 테마 어트랙션을 포함하는 것이 바람직하다고 인식된다. 또한, 이제 그러한 테마 어트랙션에 대한 게스트의 몰입 경험을 향상시키고 손님에게 보다 개인화되거나 맞춤화된 경험을 제공하는 것이 바람직하다고 인식된다.
최초 청구된 주제의 범위에 상응하는 특정 실시예가 아래에 요약되어 있다. 이들 실시예는 청구된 주제의 범위를 제한하도록 의도되지 않고, 오히려 이러한 실시예는 청구된 주제의 가능한 형태의 간략한 요약을 제공하도록 의도된다. 실제로, 청구된 주제는 아래에 설명된 실시예와 유사하거나 상이할 수 있는 다양한 형태를 포함할 수 있다.
특정 실시예에서, 시스템은 장소에서 하나 이상의 게스트를 인식하도록 구성된 게스트 인식 시스템을 포함한다. 시스템은 또한 게스트 인식 시스템으로부터 인식된 하나 이상의 게스트에 관한 데이터를 수신하고, 인식된 하나 이상의 게스트에 관한 수신된 데이터에 적어도 부분적으로 기초하여 인식된 하나 이상의 게스트에 관한 게스트 경험 정보를 생성하며, 증강 현실 디스플레이 장치의 증강 현실 디스플레이 상에 디스플레이하기 위해 인식된 하나 이상의 게스트에 관한 게스트 경험 정보를 증강 현실 디스플레이 장치에 전송하록 구성된 게스트 경험 분석 시스템을 포함한다.
또한, 특정 실시예에서, 방법은 게스트 인식 시스템을 통해 장소에 있는 하나 이상의 게스트를 인식하는 단계를 포함한다. 방법은 또한 게스트 경험 분석 시스템을 통해, 인식된 하나 이상의 게스트에 관한 게스트 경험 정보를 생성하는 단계를 더 포함한다. 방법은 게스트 경험 분석 시스템을 통해, 인식된 하나 이상의 게스트에 관한 게스트 경험 정보를 증강 현실 디스플레이 장치의 증강 현실 디스플레이 상에 디스플레이하기 위해 증강 현실 디스플레이 장치로 전송하는 단계를 더 포함한다.
또한, 특정 실시예에서, 증강 현실 디스플레이 장치는 장소의 하나 이상의 게스트의 이미지를 통과시키도록 구성된 증강 현실 디스플레이를 포함한다. 증강 현실 디스플레이 장치는 또한 적어도 하나의 프로세서에 의해 실행될 때 적어도 하나의 프로세서로 하여금 동작들을 수행하게 하는 명령어를 저장하는 하나 이상의 비일시적 컴퓨터 판독가능 매체를 포함한다. 동작들은 게스트 경험 분석 시스템으로부터 하나 이상의 게스트의 타겟 게스트에 관한 게스트 경험 정보를 수신하는 동작을 포함한다. 동작들은 또한 타겟 게스트의 통과 이미지 근처에서 증강 현실 디스플레이 상에 타겟 게스트와 관련된 게스트 경험 정보를 중첩하는 동작을 포함한다.
위에서 언급된 특징들의 다양한 개선이 본 개시의 다양한 양태들과 관련하여 이루어질 수 있다. 이러한 다양한 양태들에 추가 특징이 포함될 수도 있다. 이러한 개선 및 추가 특징은 개별적으로 또는 임의의 조합으로 존재할 수 있다.
본 개시의 이들 및 다른 특징, 양태, 및 이점은 유사한 문자가 도면 전체에 걸쳐 유사한 부분을 나타내는 첨부 도면을 참조하여 다음의 상세한 설명을 읽을 때 더 잘 이해될 것이다.
도 1은 본 개시의 실시예에 따른, 하나 이상의 어트랙션을 포함하는 장소의 특징을 예시한다.
도 2는 본 개시의 실시예에 따른, 도 1에 도시된 장소 특징에 대한 향상된 게스트 경험을 제공하기 위한 증강 현실 게스트 인식 시스템의 개략도이다.
도 3은 본 개시의 실시예에 따른 도 2의 증강 현실 게스트 인식 시스템의 예시적인 부분을 도시한다.
도 4는 본 개시의 실시예에 따라 장소의 게스트와 관련된 예시적인 게스트 경험 정보를 예시하는, 장소 직원의 관점에서 본 도 3의 게스트 인식 센서 및 증강 현실 디스플레이 엔드포인트를 도시한다.
도 5는 본 개시의 실시예에 따른 웨어러블 증강 현실 디스플레이 장치(예를 들어, 증강 현실 안경, 증강 현실 고글, 기타 증강 현실 헤드기어 등)를 예시한다.
도 6은 본 개시의 실시예에 따른 증강 현실 게스트 인식 시스템의 사용 방법의 흐름도이다.
아래에서는 본 개시의 하나 이상의 특정 실시예를 설명한다. 이러한 실시예들의 간략한 설명을 위해, 본 명세서에서는 실제 구현의 모든 특징들이 기술되지는 않을 수 있다. 엔지니어링 또는 설계 프로젝트 등과 같이 실제 구현 개발 시에는 시스템 및 사업 관련 제약사항 준수 등 개발자의 특정한 목표(각각의 구현마다 다를 수 있음)를 달성하기 위해 수많은 구현 관련 결정들이 이루어져야 한다. 또한, 이러한 개발 노력은 복잡하고 시간 소모적일 수 있지만, 본 개시의 이점을 갖는 당업자에게 있어서는 일상적인 설계, 조립 및 제조 행위일 수 있다는 사실이 중요하다. 또한, 평행, 수직 등과 같은 특정 용어가 본 명세서에서 사용되는 범위에서, 이러한 용어는 엄격한 수학적 정의로부터의 특정 편차를 허용하는데, 예를 들어, 제조 결함과 연관된 편차 및 관련 공차를 허용하는 것으로 이해되어야 한다.
본 개시의 다양한 실시예들의 구성요소를 소개할 때, "하나의", "그" 및 "상기"라는 단어의 사용은 하나 이상의 구성요소가 존재함을 의미한다. "포함하는" 및 "갖는"이라는 용어는 포괄적인 의미를 가지며, 나열된 구성요소 이외의 추가적인 구성요소가 있을 수 있음을 의미한다. 또한, 본 개시의 "일 실시예"에 대한 언급은, 열거된 특징들을 포함하는 추가 실시예들의 존재를 배제하는 것으로 해석되어서는 안된다.
본 개시의 실시예는 놀이공원 또는 테마파크와 같은 장소의 게스트를 위한 보다 역동적인 상호작용 경험을 가능하게 하되, 직원이 게스트의 미래 경험을 향상시킬 수 있도록 장소 내의 게스트의 이전 및 현재 경험에 관한 정보가 장소의 직원에게 자동으로(예를 들어, 인간의 개입 없이) 제공된다. 보다 구체적으로, 본 개시의 실시예는 게스트가 장소에 있는 시간 동안 자동으로 (예를 들어, 본 명세서에 더 자세히 설명되는 바와 같이, 컴퓨터 기반 증강 현실 게스트 인식 시스템에 의해) 인식될 수 있게 하고, 장소 내의 게스트의 경험과 관련된 정보가 장소 내에서직원이 게스트의 미래 경험을 향상시키는 것을 용이하게 하기 위해 장소의 직원에게 자동으로(예컨대, 사람의 개입 없이) 제공될 수 있다. 예를 들어, 특정 실시예에서, 장소의 게스트는 본 명세서에서 설명되는 바와 같이 안면 인식 기술, 의복 인식 기술, 움직임 인식 기술(예를 들어, 특정 게스트의 식별 가능한 보행을 감지하기 위함), 및/또는 기타 게스트 인식 기술을 사용하여 자동으로 인식될 수 있어, 장소 내에서 게스트의 이전 및 현재 경험을 추적할 수 있고, 이러한 경험과 관련된 정보는 본 명세서에서 더 자세히 설명되는 바와 같이, 이러한 자동화된 게스트 인식에 적어도 부분적으로 기초하여 장소의 직원에게 자동으로(예컨대, 사람의 개입 없이) 제공될 수 있다.
전술한 사항을 염두에 두고, 도 1에 도시된 바와 같이 놀이공원 또는 테마파크와 같은 장소(10)의 실시예를 설명하는 것이 유용할 수 있다. 예시된 바와 같이, 특정 실시예에서, 장소(10)는 스릴 놀이기구(12), 장소 시설(14)(예를 들어, 레스토랑, 기념품 가게 등), 추가 장소 어트랙션(16), 및 장소 직원(18)(예를 들어, 특정 실시예에서 테마 캐릭터로 행동함)를 포함할 수 있다. 본 명세서에서 더 상세히 설명되는 바와 같이, 장소(10)의 게스트(20)의 경험은, 장소(10) 내의 게스트(20)의 이전 및 현재 경험에 관한 정보에 적어도 부분적으로 기초하여 장소 직원(18)에 의해 향상될 수 있으며, 이러한 정보는 자동으로 (예를 들어, 인간의 개입 없이) 장소(10) 내의 게스트(20)의 자동화된 인식에 적어도 부분적으로 기초하여 결정되고, 증강 현실 시스템을 통해 장소 직원(18)에게 제시될 수 있다. 예를 들어, 특정 실시예에서, 게스트 인식 시스템(22)은 예를 들어 본 명세서에서 더 설명되는 바와 같이 안면 인식 기술, 움직임 인식 기술(예를 들어, 특정 게스트(20)의 식별 가능한 보행을 감지하기 위함), 및/또는 기타 게스트 인식 기술을 사용하여 게스트(20)를 자동으로(예를 들어, 인간의 개입없이) 인식할 수 있어, 장소(10) 내에서 게스트(20)의 이전 및 현재 경험을 추적할 수 있다. 또한, 특정 실시예에서, 게스트 인식 시스템(22)에 의해 수행된 게스트 인식에 관한 정보는 게스트 경험 분석 시스템(24)에 의해 분석되어 장소(10) 내에서 게스트(20)의 이전 및 현재 경험에 관한 정보를 결정할 수 있고, 이 정보는 본 명세서에서 더 자세히 설명되는 바와 같이, 증강 현실 시스템에 의해 장소 직원(18)에게 제공되어, 장소 직원(18)이 장소(10) 내에서 게스트(20)의 미래 경험을 향상시킬 수 있도록 해준다.
예를 들어, 특정 실시예에서, 증강 현실 시스템은 증강 현실 디스플레이 엔드포인트(26)를 통해서도 디스플레이되는 게스트(20)에 대한 증강 현실 정보를 디스플레이하도록 구성된 하나 이상의 증강 현실 디스플레이 엔드포인트(26)를 포함할 수 있다. 특정 실시예에서, 하나 이상의 증강 현실 디스플레이 엔드포인트(26)는 예를 들어 장소(10) 내의 특정 위치에 배치된 상대적으로 고정된 키오스크일 수 있다. 본 명세서에서 더 상세히 설명되는 바와 같이, 특정 실시예에서, 증강 현실 디스플레이 엔드포인트(26)는 게스트(20)의 이미지를 통과시키면서 또한 게스트 경험 분석 시스템(24)에 의해 결정되는 게스트(20)의 이전 및 현재 경험에 관한 정보로 디스플레이를 증강하는 투명 디스플레이를 포함할 수 있다. 또한, 특정 실시예에서, 게스트의 경험을 추가로 향상시키기 위해, 증강 현실 시스템은 하나 이상의 웨어러블 증강 현실 디스플레이 장치(28)(예를 들어, 증강 현실 안경, 증강 현실 고글, 기타 증강 현실 헤드기어 등)를 포함할 수 있되, 이 웨어러블 증강 현실 디스플레이 장치(28)는 웨어러블 증강 현실 디스플레이 장치(28)를 통해서도 디스플레이되는 게스트(20)에 대한 증강 현실 정보를 디스플레이하도록 구성된다. 본 명세서에 더 상세히 설명된 바와 같이, 특정 실시예에서, 웨어러블 증강 현실 디스플레이 장치(28)는 또한 게스트(20)의 이미지를 통과시키면서, 게스트 경험 분석 시스템(24)에 의해 결정되는 게스트(20)의 이전 및 현재 경험에 관한 정보로 디스플레이를 증강시키는 투명 디스플레이를 포함할 수 있다. 예를 들어, 본 명세서에서 더 자세히 설명된 바와 같이, 특정 게스트(20)의 이전 및 현재 경험에 관한 정보는 특정 게스트(20)의 통과 이미지 근처에서 투명 디스플레이에 중첩되어, 장소 직원(18)이 특정 게스트(20)와 관련된 정보를 쉽게 인식할 수 있으며, 그에 따라, 장소 직원(18)은 특정 게스트(20)의 미래 경험을 개선시키는 것을 용이하게 도와줄 수 있다. 또한, 특정 실시예에서, 증강 현실 디스플레이 엔드포인트(26) 및/또는 웨어러블 증강 현실 디스플레이 장치(28)는 증강 현실 디스플레이 엔드포인트(26) 및/또는 웨어러블 증강 현실 디스플레이 장치(28)를 통해 디스플레이된 게스트(20)에 관한 정보를 나타내는 오디오 신호 및/또는 햅틱 피드백을 제공하도록 구성될 수 있다.
또한, 특정 실시예에서, 게스트 경험 분석 시스템(24)에 의해 결정되는 게스트(20)의 이전 및 현재 경험에 관한 정보는 또한 하나 이상의 웨어러블 장치(30), 하나 이상의 모바일 장치(32), 및/또는 다른 하나 이상의 테마 장치(34)를 통해 사용자(예컨대, 장소 직원(18))에게도 제시될 수 있다. 특정 실시예에서, 웨어러블 장치(30)는 시계형 전자 장치, 팔찌, 부적, 반지, 머리띠, 모자, 헬멧, 티셔츠, 재킷, 코트, 반바지, 바지, 신발, 부츠 또는 기타 편리하게 착용할 수 있는 품목일 수 있다. 특정 실시예에서, 모바일 장치(32)는 모바일 폰(예를 들어, 스마트폰), 태블릿 컴퓨터, 또는 게스트(20)에 의해 장소(10) 주변에서 휴대될 수 있는 임의의 다른 적절한 장치일 수 있다. 특정 실시예에서, 테마 장치(34)는 장난감 총, 칼, 깃발, 지팡이 등과 같이 장소의 테마 관련 개체일 수 있다. 본 명세서에 더 상세히 설명된 바와 같이, 특정 실시예에서, 웨어러블 장치(30) 및/또는 테마 장치(34)는 그들 내에 배치된 (예를 들어, 의류 소재 내에 봉제된 등) 회로(예를 들어, 작은 칩)를 포함할 수 있거나, 게스트(20) 및/또는 게스트(20)의 경험을 인식하기 위해 게스트 인식 시스템(22)에 의해 수동적으로 추적될 수 있는 고유한 패턴(예컨대, 이미지 등)을 포함할 수 있다.
또한, 특정 실시예에서, 장소(10)의 실제 환경 내에 배치된 하나 이상의 물리적 객체(36)는 장치(26, 28, 30, 32, 34)를 통해 사용자(예컨대, 장소 직원(18))에게 제시된 증강 현실 정보에 기초하여 사용자(예컨대, 장소 직원(18))에 의해 전송되게 될 수 있는, 본 명세서에 설명된 장치(26, 28, 30, 32, 34) 중 하나 이상으로부터 수신된 제어 신호에 적어도 부분적으로 기초하여 하나 이상의 물리적 효과(38)(예컨대, 스파크 발생, 화재 발생, 바람 발생, 움직임 등)를 생성하도록 구성될 수 있다. 예를 들어, 장치(26, 28, 30, 32, 34)를 통해 장소 직원(18)에게 제시되는 특정 게스트(20)에 대한 증강 현실 정보에 기초하여, 장소 직원(18)은 특정 물리적 효과(38)가 특정 게스트(20)의 경험을 향상시킬 수 있다고 결정할 수 있고, 장소 직원(18)은 특정 물리적 효과(38)를 생성하기 위해 특정 물리적 객체(36)에 전송되는 제어 신호를 개시할 수 있다.
도 2는 본 개시의 실시예에 따른 장소(10)에 대한 향상된 게스트 경험을 제공하기 위한 증강 현실 게스트 인식 시스템(40)의 개략도이다. 도 2에 도시된 바와 같이, 특정 실시예에서, 증강 현실 게스트 인식 시스템(40)은 게스트 인식 시스템(22) 및 게스트 경험 분석 시스템(24)을 포함할 수 있으며, 이들은 게스트(20)가 예를 들어, 도 1에 도시된 바와 같이 장소(10)의 다양한 특징을 경험하고 있는 동안 이들 게스트(20)를 협업하여 인식하고, 사용자(예를 들어, 장소 직원(18))가 게스트(20)의 미래 경험을 더욱 향상시킬 수 있도록 게스트(20)의 이전 및 현재 경험에 관한 정보의 증강 현실 뷰를 사용자(예컨대, 장소 직원(18))에게 제공하도록 구성된다. 예를 들어, 특정 실시예에서, 하나 이상의 증강 현실 디스플레이 엔드포인트(26) 및/또는 하나 이상의 웨어러블 증강 현실 디스플레이 장치(28)는, 게스트 인식 시스템(22)에 의해 추적된 정보에 적어도 부분적으로 기초하여 게스트 경험 분석 시스템(24)에 의해 생성된 장소(10) 내에서의 게스트(20)의 이전 및 현재 경험에 관한 정보의 증강 현실 뷰를 디스플레이하도록 구성될 수 있다.
또한, 특정 실시예에서, 하나 이상의 웨어러블 장치(30), 하나 이상의 모바일 장치(32), 및/또는 하나 이상의 테마 장치(34)는 또한 게스트 인식 시스템(22)에 의해 추적된 정보에 적어도 부분적으로 기초하여 게스트 경험 분석 시스템(24)에 의해 생성된 장소(10) 내에서의 게스트(20)의 이전 및 현재 경험에 관한 정보의 증강 현실 뷰를 제시하도록 구성될 수 있다. 실제로, 특정 실시예에서, 장소(10)의 게스트(20)는 하나 이상의 웨어러블 장치(30), 하나 이상의 모바일 장치(32), 및/또는 하나 이상의 테마 장치(34)를 통해 장소(10) 내에서 게스트(20)의 이전 및 현재 경험과 관련된 정보의 증강 현실 뷰의 적어도 일부를 볼 수 있고, 하나 이상의 웨어러블 장치(30), 하나 이상의 모바일 장치(32), 및/또는 하나 이상의 테마 장치(34)를 통해, 본 명세서에서 더 설명되는 바와 같이, 증강 현실 디스플레이 엔드포인트(26) 및/또는 웨어러블 증강 현실 디스플레이 장치(28)를 통해 사용자(예를 들어, 장소 직원(18))로부터 수신될 수 있는 것과 유사한 입력을 제공할 수 있다. 또한, 특정 실시예에서, 하나 이상의 웨어러블 장치(30), 하나 이상의 모바일 장치(32), 및/또는 하나 이상의 테마 장치(34)로부터의 데이터는 본 명세서에서 더 상세히 설명되는 바와 같이 특정 게스트(20)의 특정 경험을 결정하기 위해 게스트 경험 분석 시스템(24)에 의해 사용될 수 있다. 또한, 특정 실시예에서, 증강 현실 게스트 인식 시스템(40)은 또한 본 명세서에서 (예를 들어, 도 1과 관련하여) 더 상세히 설명된 바와 같이 하나 이상의 물리적 효과(38)를 생성하도록 구성된 하나 이상의 물리적 객체(36)를 포함할 수 있다.
특정 실시예에서, 증강 현실 디스플레이 엔드포인트(26), 웨어러블 증강 현실 디스플레이 장치(28), 웨어러블 장치(30), 모바일 장치(32), 테마 장치(34), 및/또는 물리적 객체(36)는, 무선 네트워크(42)(예를 들어, 무선 근거리 통신망(WLAN), 무선 광역 통신망(WWAN), 근거리 통신(NFC) 네트워크, 또는 임의의 다른 적절한 무선 네트워크)를 통해 (예를 들어, 장소(10) 내의) 게스트 인식 시스템(22) 및/또는 게스트 경험 분석 시스템(24)에 통신 가능하게 연결될 수 있다. 또한, 특정 실시예에서, 증강 현실 디스플레이 엔드포인트(26) 및/또는 물리적 객체(36)는 직접적인 물리적 연결(44)을 통해 (예를 들어, 통신 케이블을 사용하여)게스트 인식 시스템(22) 및/또는 게스트 경험 분석 시스템(24)에 통신 가능하게 연결될 수 있다.
특정 실시예에서, 본 명세서에 더 자세히 설명된 바와 같이, 게스트 경험 분석 시스템(24)은 게스트 인식 시스템(22)에 의해 검출된 게스트 인식 데이터에 적어도 부분적으로 기초하여, 예를 들어 증강 현실 디스플레이 엔드포인트(26) 및/또는 웨어러블 증강 현실 디스플레이 장치(28) 각각의 디스플레이(48, 50)를 통해 증강 정보로서 표시될 게스트 경험 정보(46)(예를 들어, 메타데이터)를 생성할 수 있다. 예를 들어, 특정 실시예에서, 게스트 인식 시스템(22)은 장소(10) 내의 게스트(20)를 인식하기 위해 게스트 인식 시스템(22)에 의해 사용될 수 있는 데이터를 수집하도록 구성된 하나 이상의 게스트 인식 센서(52)를 포함할 수 있다. 예를 들어, 특정 실시예에서, 게스트 인식 센서(52)는 실질적으로 실시간으로 이미지(및/또는 비디오 스트림)를 수집하도록 구성된 카메라를 포함할 수 있고, 게스트 인식 시스템(22)은 안면 인식 알고리즘, 의복 인식 알고리즘, 움직임 인식 알고리즘(예를 들어, 특정 게스트(20)의 식별 가능한 걸음걸이를 검출하기 위함), 및 다른 유형의 인식 알고리즘을 사용하여 장소(10) 내에서 특정 게스트(20)(또는 본 명세서에 더 자세히 설명된 바와 같이 게스트(20)의 그룹)의 신원을 검출할 수 있다. 이 게스트 인식에 적어도 부분적으로 기초하여, 장소(10)의 게스트(20)(또는 본 명세서에서 더 자세히 설명되는 게스트(20)의 그룹)의 활동은 시간이 지남에 따라 게스트 인식 시스템(22)에 의해 추적될 수 있으며, 이 추적된 활동과 관련된 정보가 장소(10) 내에서의 게스트(20)의 이전 및 현재 경험에 관한 게스트 경험 정보(46)의 분석 및 생성을 위해 게스트 인식 시스템(22)의 하나 이상의 통신 인터페이스(54)를 통해 게스트 경험 분석 시스템(24)에 전송될 수 있다. 본 명세서에서 사용된 "실시간" 및 "실질적으로 실시간"이라는 용어는 이미지(또는 비디오 스트림의 프레임)가 실제 관찰 시간에 실질적으로 가까운 시간 프레임에 획득 및/또는 제공되는 것을 나타낸다(예컨대, 이미지는 1/10초마다, 1/15초마다, 1/20초마다, 1/30초마다, 1/60초마다, 또는 더 자주 획득 및/또는 제공될 수 있다).
일반적으로, 게스트 경험 정보(46)(예를 들어, 메타데이터)는 장소(10) 내에서 게스트(20)(또는 게스트(20)의 그룹)의 활동을 포함하여, 게스트(20)(또는 게스트(20)의 그룹)에 관한 임의의 정보를 포함할 수 있다. 예를 들어, 게스트 경험 정보(46)는 이름, 나이, 성별, 키, 체중, 고향, 사용 언어와 같은 게스트(20)에 대한 개인 정보, 게스트(20)가 인증된 (예컨대, 자격이 있는) 장소(10)의 테마 섹션, 장소(10)의 특정 테마 섹션 또는 특정 스릴 놀이기구(12), 장소 시설(14) 및/또는 기타 장소 어트랙션(16)과 관련된 우선 순위 분류, 게스트(20)가 장소(10)의 연간 패스 소지자인지 여부, 게스트(20)가 장소(10)를 방문한 횟수, 장소(10)의 특정 테마 그룹과의 연관성 등을 포함할 수 있다. 이해되는 바와 같이, 이러한 개인 정보의 적어도 일부는 게스트(20)(또는 게스트(20)의 그룹)를 인식하기 위해 게스트 인식 시스템(22)에 의해 사용될 수 있다.
또한, 본 명세서에서 더 자세히 설명된 바와 같이, 게스트 경험 정보(46)는 장소(10) 내에서의 게스트(20)(또는 게스트(20)의 그룹)의 활동, 예를 들어 게스트(20)(또는 게스트(20)의 그룹)가 특정 스릴 놀이기구(12), 장소 시설(14) 및/또는 장소(10)의 기타 장소 어트랙션(16)을 타거나 방문한 횟수(및 누적 시간)와, 게스트(20)(또는 게스트(20)의 그룹)가 현재 위치하고 있는 장소(10)의 특정 테마 섹션의 상황에서 게스트(20)(또는 게스트(20)의 그룹)가 현재 하고 있는 것 등을 포함할 수 있다. 하나의 비제한적인 예로서, 특정 게스트(20)(또는 게스트(20)의 그룹)가 현재 보물 찾기 게임(scavenger hunt)을 하고 있는 것으로 결정되면, 이러한 정보는 게스트(20)(또는 게스트(20)의 그룹)가 보물 찾기 게임에 관한 힌트로부터 이득을 얻을 수 있다는 것을 장소 직원(18)에게 나타낼 수 있다. 본 명세서에서 더 상세히 설명되는 바와 같이, 게스트 경험 정보(46)는 또한 게스트(20)와 연관된 특정 웨어러블 장치(30), 모바일 장치(32), 및/또는 테마 장치(34)와의 상호작용을 포함할 수 있다.
특정 실시예에서, 게스트 인식 시스템(22)은 프로세서(56)(예를 들어, 범용 프로세서 또는 다른 프로세서)와 같은 처리 회로 및 메모리(58)를 포함할 수 있고, 하나 이상의 게스트 인식 센서(52)에 의해 수집된 데이터를 처리하여, 예를 들어, 장소(10) 내에서 특정 게스트(20)(또는 본 명세서에서 더 자세히 설명되는 게스트(20)의 그룹)의 신원을 검출하고, 식별된 게스트(20)의 활동을 추적하고, 데이터를 게스트 경험 분석 시스템(24)에 의한 처리에 적합한 형태로 변환한다. 또한, 특정 실시예에서, 게스트는 인식 시스템(22)은, 게스트(20)가 게스트 인식 시스템(22)에 의해 게스트(20)의 그룹으로 식별될 수 있도록 특정 게스트(20)가 무시할 수 없는 특정 기간(예컨대, 하루 10분 초과, 하루 20분 초과, 하루 30분 초과, 또는 그 이상) 동안 다른 게스트(20)에 비교적 가까게 있는 때(예를 들어, 30피트 이내, 25피트 이내, 20피트 이내, 15피트 이내, 10피트 이내, 5피트 이내, 또는 그보다 더 가깝게 있는 때)를 식별하여, 게스트 경험 분석 시스템(24)이 게스트(20)의 그룹의 경험을, 개별 게스트(20) 자신의 경험과 대조적으로 또는 그에 더하여 분석할 수 있게 하도록 구성될 수 있다. 게스트 인식 시스템(22)이 개별 게스트(20)가 아니라 게스트(20)의 그룹을 식별하는 능력은, 개별 게스트(20)가 실제로 게스트 인식 시스템(22)이 믿는 게스트(20)라는 신뢰 수준을 향상시키고, 따라서 게스트 경험 분석 시스템(24)에 의해 궁극적으로 분석되는 게스트 경험 정보(46)의 품질이 향상된다. 이러한 기능을 수행하기 위한 명령어(예컨대, 안면 인식 알고리즘, 의복 인식 알고리즘, 움직임 인식 알고리즘 및 기타 유형의 알고리즘)은 메모리(58) 및/또는 기타 저장소와 같은 유형의 비일시적 컴퓨터 판독 가능 매체에 저장된 프로그램 또는 코드로 인코딩될 수 있다. 특정 실시예에서, 프로세서(56)는 범용 프로세서, SoC(system-on-chip) 장치, ASIC(application-specific integrated circuit), 또는 일부 다른 유사한 프로세서 구성일 수 있다. 특정 실시예에서, 프로세서(56)는 둘 이상의 프로세서를 포함할 수 있다.
특정 실시예에서, 본 명세서에서 더 자세히 설명된 바와 같이, 게스트 경험 분석 시스템(24)은 프로세서(60)(예를 들어, 범용 프로세서 또는 다른 프로세서) 메모리(62)와 같은 처리 회로를 포함할 수 있으며, 이 처리 회로는 게스트 경험 분석 시스템(24)의 하나 이상의 통신 인터페이스(64)를 통해 게스트 인식 시스템(22)으로부터 수신될 수 있는, 게스트 인식 시스템(22)에 의해 수행된 게스트 인식에 관련된 데이터를 처리하여, 개별 게스트(20)(또는 게스트(20)의 그룹)에 대한 게스트 경험 정보(46)를 생성하며, 이 게스트 경험 정보(46)는 예를 들어 증강 현실 디스플레이 엔드포인트(26) 및/또는 웨어러블 증강 현실 디스플레이 장치(28) 각각의 디스플레이(48, 50)를 통해 증강 정보로서 디스플레이될 수 있다. 또한, 특정 실시예에서, 게스트 경험 분석 시스템(24)에 의해 생성된 게스트 경험 정보(46)는 개별 게스트(또는 게스트(20)의 그룹)에 대한 다른 게스트 경험 정보(46)에 적어도 부분적으로 기초하여 개별 게스트(20)(또는 게스트(20)의 그룹)에 대한 추천을 포함할 수 있다. 예를 들어, 특정 게스트(20)가 장소(10) 내의 장소 어트랙션(16)의 특정 서브세트를 비교적 많은 횟수로 방문한 경우, 게스트 경험 분석 시스템(24)은 장소(10) 내의 유사한 장소 어트랙션(16)을 방문하라는 추천이 특정 게스트(20)에 제공되어야 한다고 결정할 수 있다. 특정 실시예에서, 게스트 경험 분석 시스템(24)은 생성된 게스트 경험 정보를 데이터베이스, 예를 들어, 게스트 경험 분석 시스템(24)의 메모리(62)에 저장할 수 있다.
또한, 본 명세서에 더 자세히 설명된 바와 같이, 특정 실시예에서, 게스트 경험 정보(46)는 게스트(20)와 연관된 하나 이상의 웨어러블 장치(30), 하나 이상의 모바일 장치(32), 및/또는 하나 이상의 테마 장치(34)로부터 수집된 게스트 활동 데이터에 적어도 부분적으로 기초하여 생성될 수 있다. 예를 들어, 장소(10) 내에서의 게스트(20)의 특정 활동(예를 들어, 게스트(20)에게 할당된 웨어러블 장치(30)에 의해 추적된 장소(10) 내의 특정 움직임, 특정 게스트(20)에 의해 모바일 장치(32)에 직접 입력된 정보, 게스트(20)에게 할당된 테마 장치(34)와의 특정 상호작용 등)은 게스트(20)와 연관된 하나 이상의 웨어러블 장치(30), 하나 이상의 모바일 장치(32), 및/또는 하나 이상의 테마 장치(34)에 의해 직접 추적될 수 있으며, 게스트 경험 분석 시스템(24)의 하나 이상의 통신 인터페이스(64)에 전송되어, 게스트 경험 분석 시스템(24)이 게스트(20)를 위한 게스트 경험 정보(46)를 생성하는 것을 도와준다. 이러한 기능을 수행하기 위한 명령어는 메모리(62) 및/또는 기타 저장소와 같은 유형의 비일시적 컴퓨터 판독 가능 매체에 저장된 프로그램 또는 코드로 인코딩될 수 있다. 특정 실시예에서, 프로세서(60)는 범용 프로세서, 시스템 온 칩(SoC) 장치, 애플리케이션 특정 집적 회로(ASIC) 또는 기타 유사한 프로세서 구성일 수 있다. 특정 실시예에서, 프로세서(60)는 둘 이상의 프로세서를 포함할 수 있다.
특정 실시예에서, 게스트 경험 분석 시스템(24)이 게스트 경험 정보(46)를 생성하면, 게스트 경험 분석 시스템(24)은 생성된 게스트 경험 정보(46)를 증강 현실 디스플레이 엔드포인트(26) 및/또는 웨어러블 증강 현실 디스플레이 장치(28)로 전송할 수 있어, 증강 현실 디스플레이 엔드포인트(26) 및/또는 웨어러블 증강 현실 디스플레이 장치(28)가 증강 현실 디스플레이 엔드포인트(26) 및/또는 웨어러블 증강 현실 디스플레이 장치(28) 각각의 하나 이상의 디스플레이(48,50) 상에 게스트 경험 정보(46)를 증강 정보로서 디스플레이할 수 있다. 또한, 특정 실시예에서, 게스트 경험 분석 시스템(24)이 게스트 경험 정보(46)를 생성하면, 게스트 경험 분석 시스템(24)은 생성된 게스트 경험 정보(46)를 하나 이상의 웨어러블 장치(30), 하나 이상의 모바일 장치(32), 및/또는 하나 이상의 테마 장치(34)에 전송하여, 하나 이상의 웨어러블 장치(30), 하나 이상의 모바일 장치(32) 및/또는 하나 이의 테마 장치(34)가 본 명세서에 설명된 증강 현실 디스플레이 엔드포인트(26) 및/또는 웨어러블 증강 현실 디스플레이 장치(28)의 기능과 유사하게, 하나 이상의 웨어러블 장치(30), 하나 이상의 모바일 장치(32), 및/또는 하나 이상의 테마 장치(34)의 디스플레이(108, 110) 상에 증강 정보로서 게스트 경험 정보(46)를 디스플레이할 수 있게 한다. 예를 들어, 특정 실시예에서, 장소(10)의 게스트(20)는 하나 이상의 웨어러블 장치(30), 하나 이상의 모바일 장치(32), 및/또는 하나 이상의 테마 장치(34)를 통해 장소(10) 내에서의 게스트(20)의 이전 및 현재 경험에 관한 게스트 경험 정보(46)의 증강 현실 뷰의 적어도 일부를 볼 수 있고, 본 명세서에서 더 설명되는 바와 같이, 하나 이상의 웨어러블 장치(30), 하나 이상의 모바일 장치(32), 및/또는 하나 이상의 테마 장치(34)를 통해, 증강 현실 디스플레이 엔드포인트(26) 및/또는 웨어러블 증강 현실 디스플레이 장치(28)를 통해 사용자(예컨대, 장소 직원(18))로부터 수신될 수 있는 것과 유사한 입력을 제공할 수 있다.
특정 실시예에서, 증강 현실 디스플레이 엔드포인트(26)는 프로세서(72) 및 메모리(74)와 같은 처리 회로를 포함할 수 있다. 프로세서(72)는 본 명세서에서 더 자세히 설명되는 바와 같이, 사용자(예컨대, 장소 직원(18))가 게스트(20)의 경험을 향상시킬 수 있도록 하기 위해, 증강 현실 디스플레이 엔드포인트(26)의 하나 이상의 디스플레이(48) 상에 증강 정보로서 게스트 경험 정보(46)를 디스플레이하는 개시된 기술을 적어도 부분적으로 수행하기 위한 명령어를 실행하도록 메모리(74)에 동작가능하게 결합될 수 있다. 이러한 명령어는 메모리(74) 및/또는 기타 저장소와 같은 유형의 비일시적 컴퓨터 판독 가능 매체에 저장된 프로그램 또는 코드로 인코딩될 수 있다. 특정 실시예에서, 프로세서(72)는 범용 프로세서, SoC(system-on-chip) 장치, ASIC(application-specific integrated circuit), 또는 일부 다른 유사한 프로세서 구성일 수 있다. 특정 실시예에서, 프로세서(72)는 둘 이상의 프로세서를 포함할 수 있다. 또한, 특정 실시예에서, 증강 현실 디스플레이 엔드포인트(26)는 또한 증강 현실 디스플레이 엔드포인트(26)의 하나 이상의 통신 인터페이스(76)를 통해 게스트 경험 분석 시스템(24)으로부터 게스트 경험 정보(46)를 수신할 수 있다.
특정 실시예에서, 증강 현실 디스플레이 엔드포인트(26)의 하나 이상의 디스플레이(48)는 각각 액정 디스플레이(LCD), 유기 발광 다이오드(OLED) 디스플레이, 또는 게스트 경험 정보(46)를 증강 정보로서 디스플레이하도록 구성된 기타 유사한 디스플레이를 포함할 수 있다. 특정 실시예에서, 증강 현실 디스플레이 엔드포인트(26)의 하나 이상의 디스플레이(48) 각각이 불투명 또는 씨스루 LCD 또는 불투명 또는 씨스루 OLED 디스플레이를 포함하여, 예를 들어, 장소 직원(18)이 장소(10)의 실제 및 물리적 현실 세계 환경으로 각각의 디스플레이(48)를 씨스루할 수 있는 (예컨대, 게스트 경험 정보와 관련된 게스트(20)의 이미지를 통과시키는) 능력을 유지하면서 디스플레이(48)에 나타나는 게스트 경험 정보(46)를 볼 수 있게 할 수 있다. 예를 들어, 본 명세서에 더 자세히 설명된 바와 같이, 타겟 게스트(20)(또는 게스트(20)의 타겟 그룹)에 대한 게스트 경험 정보(46)는 타겟 게스트(20)(또는 게스트(20)의 타겟 그룹)의 통과 이미지 근처에서(예를 들어, 그 통과 이미지에 인접하거나 상대적으로 가까운 범위 내에서) 증강 현실 디스플레이 엔드포인트(26)의 디스플레이(48) 상에 중첩될 수 있다.
또한, 특정 실시예에서, 증강 현실 디스플레이 엔드포인트(26)는 증강 현실 디스플레이 엔드포인트(26)의 하나 이상의 디스플레이(48)를 통해 디스플레이된 게스트(20)에 관한 게스트 경험 정보(46)를 나타내는 오디오 신호 및/또는 햅틱 피드백을 제공하도록 구성될 수 있다. 특히, 특정 실시예에서, 증강 현실 디스플레이 엔드포인트(26)는 증강 현실 디스플레이 엔드포인트(26)의 하나 이상의 디스플레이(48)를 통해 디스플레이된 게스트(20)에 관한 게스트 경험 정보(46)를 나타내는 오디오 신호 및/또는 햅틱 피드백을 생성하도록 구성된 하나 이상의 출력 장치(132)를 포함할 수 있다. 예를 들어, 특정 실시예에서, 증강 현실 디스플레이 엔드포인트(26)의 하나 이상의 출력 장치(132)는 오디오 신호를 출력하도록 구성된 오디오 스피커 및/또는 햅틱 피드백을 출력하도록 구성된 햅틱 장치를 포함할 수 있다.
본 명세서에 더 상세히 설명된 바와 같이, 특정 실시예에서, 증강 현실 디스플레이 엔드포인트(26)의 하나 이상의 디스플레이(48) 상에 디스플레이된 게스트 경험 정보(46)는 타겟 게스트(20)(또는 타겟 게스트(20)의 그룹)에 대한 다른 게스트 경험 정보(46)에 적어도 부분적으로 기초한 타겟 게스트(20)(또는 게스트(20)의 타겟 그룹)에 대한 추천을 포함할 수 있다. 실제로, 특정 실시예에서, 게스트(20)(또는 게스트(20)의 그룹)에 대한 특정 추천의 결정 시, 게스트 경험 분석 시스템(24)은 결정된 추천을 증강 현실 디스플레이 엔드포인트(26)에 전송할 수 있고, 증강 현실 디스플레이 엔드포인트(26)는 증강 현실 디스플레이 엔드포인트(26)의 디스플레이(48) 상에 결정된 추천을 디스플레이할 수 있고 장소 직원(18)의 주목을 끌기 위해, 디스플레이(48) 상에 경고(예를 들어, 결정된 추천에 인접한 깜박이는 빛 및/또는 결정된 추천의 깜박이는 텍스트)를 생성할 수도 있다. 더욱이, 특정 실시예에서, 게스트(20)(또는 게스트(20)의 그룹)에 대한 특정 추천이 결정되면, 게스트 경험 분석 시스템(24)은 결정된 추천을 증강 현실 디스플레이 엔드포인트(26)에 전송할 수 있고, 증강 현실 디스플레이 엔드포인트(26)는 제1 타겟 게스트(20)(또는 게스트(20)의 그룹)으로부터 결정된 추천과 관련된 제2 타겟 게스트(20)(또는 게스트(20)의 그룹)로 포커스(예를 들어, 하이라이트 또는 다른 표시)를 전환할 수 있다.
추가로, 특정 실시예에서, 증강 현실 디스플레이 엔드포인트(26)는 증강 현실 디스플레이 엔드포인트(26)의 하나 이상의 통신 인터페이스(76)를 통해 게스트 경험 분석 시스템(24)으로 다시 전송될 수 있는 입력을 증강 현실 디스플레이 엔드포인트(26)의 사용자(예를 들어, 장소 직원(18))로부터 수신하도록 구성된 하나 이상의 입력 장치(78)를 포함할 수 있다. 특정 실시예에서, 증강 현실 디스플레이 엔드포인트(26)의 하나 이상의 입력 장치(78)는 오디오 센서(예를 들어, 마이크로폰), 카메라(예컨대, 제스처 인식을 위한 이미지 캡처를 위한 것임), 터치 스크린(예컨대, 하나 이상의 디스플레이(48)에 통합됨), 조이스틱, 트랙볼, 버튼 및/또는 증강 현실 디스플레이 엔드포인트(26)의 사용자(예를 들어, 장소 직원(18))로부터 입력을 수신하기에 적합한 기타 입력 장치를 포함할 수 있다. 예를 들어, 특정 실시예에서, 증강 현실 디스플레이 엔드포인트(26)의 하나 이상의 입력 장치(78)는 게스트 경험 분석 시스템(24)에 전송될 수 있는 정보를 생성하기 위해 증강 현실 디스플레이 엔드포인트(26)의 처리 회로에 의해 처리될 수 있는 사용자(예를 들어, 장소 직원(18))에 의해 생성된 오디오(예를 들어, 음성 명령)를 캡처하도록 구성된 하나 이상의 오디오 센서를 포함할 수 있다. 또한, 특정 실시예에서, 증강 현실 디스플레이 엔드포인트(26)의 하나 이상의 입력 장치(78)는, 게스트 경험 분석 시스템(24)에 전송될 수 있는 정보로 변환될 수 있는 사용자(예를 들어, 장소 직원(18))의 제스처를 인식하기 위해 증강 현실 디스플레이 엔드포인트(26)의 처리 회로에 의해 처리될 수 있는 사용자(예를 들어, 장소 직원(78))의 이미지 및/또는 사용자(예를 들어, 장소 직원(18))의 신체 특징을 캡처하기 위한 하나 이상의 카메라를 포함할 수 있다. 또한, 특정 실시예에서, 증강 현실 디스플레이 엔드포인트(26)의 하나 이상의 입력 장치(78)는 하나 이상의 터치 스크린(예를 들어, 증강 현실 디스플레이 엔드포인트(26)의 하나 이상의 디스플레이(48) 내에 통합됨)를 포함할 수 있는데, 이 터치 스크린을 통해, 사용자(예를 들어, 장소 직원(18))는 게스트 경험 분석 시스템(24)으로 전송될 수 있는 정보를 예를 들어, 하나 이상의 디스플레이(48)를 통해 디스플레이된 상황에 맞는 메뉴를 통해 입력하도록 상호작용할 수 있다.
특정 실시예에서, 본 명세서에 더 자세히 설명된 바와 같이, 증강 현실 디스플레이 엔드포인트(26)의 하나 이상의 입력 장치(78)는 타겟 게스트(20)(또는 게스트(20)의 그룹)에 관한 수정된 및/또는 추가의 게스트 경험 정보(46)를 수신할 수 있고, 수정된 및/또는 추가의 게스트 경험 정보(46)는 게스트 경험 분석 시스템(24)에 의한 분석을 위해 게스트 경험 분석 시스템(24)으로 다시 전송될 수 있다. 또한, 본 명세서에서 더 자세히 설명되는 바와 같이, 특정 실시예에서, 증강 현실 디스플레이 엔드포인트(26)의 입력 장치(78)는 제1 타겟 게스트(20)(또는 게스트(20)의 그룹)에서 제2 타겟 게스트(20)(또는 게스트(20)의 그룹)로 포커스(예를 들어, 강조 표시 또는 다른 표시)를 전환하라는 명령을 수신할 수 있고, 각각의 증강 현실 디스플레이 엔드포인트(26)의 처리 회로는 포커스가 그 명령에 따라 각각의 증강 현실 디스플레이 엔드포인트(26)의 디스플레이(48) 상으로 전환되게 할 수 있다. 또한, 본 명세서에 더 자세히 설명된 바와 같이, 특정 실시예에서, 증강 현실 디스플레이 엔드포인트(26)의 하나 이상의 입력 장치(78)는 장소(10) 내에 배치된 하나 이상의 물리적 객체(36)를 통해 하나 이상의 물리적 효과(38)를 구현하라는 명령에 관한 정보를 수신할 수 있고, 이 명령은 게스트 경험 분석 시스템(24)으로 전송될 수 있으며, 이는 이어서 하나 이상의 물리적 효과(38)를 구현하기 위해 하나 이상의 물리적 객체(36)에 전송될 명령 신호를 생성할 수 있다. 또한, 본 명세서에 더 상세히 설명된 바와 같이, 특정 실시예에서, 증강 현실 디스플레이 엔드포인트(26)의 하나 이상의 입력 장치(78)는 하나 이상의 게스트(20)와 연관된 하나 이상의 웨어러블 장치(30), 모바일 장치(32), 및/또는 테마 장치(34)에 대해 발생할 하나 이상의 동작(예를 들어, 물리적 효과(38), 정보 경고 등)을 구현하기 위한 명령에 관련된 정보를 수신할 수 있고, 이 명령은 게스트 경험 분석 시스템(24)으로 전송될 수 있으며, 이는 이어서 하나 이상의 동작을 구현하기 위한, 하나 이상의 웨어러블 장치(30), 모바일 장치(32) 및/또는 테마 장치(34)로 전송될 명령 신호를 생성할 수 있다.
일반적으로, 본 명세서에 설명된 웨어러블 증강 현실 디스플레이 장치(28)의 기능은 본 명세서에서 설명된 증강 현실 디스플레이 엔드포인트(26)의 기능과 실질적으로 유사할 수 있다. 예를 들어, 특정 실시예에서, 웨어러블 증강 현실 디스플레이 장치(28)는 프로세서(80) 및 메모리(82)와 같은 처리 회로를 포함할 수 있다. 프로세서(80)는 사용자(예를 들어, 장소 직원(18))가 본 명세서에 더 상세히 설명된 바와 같이 게스트(20)의 경험을 향상시킬 수 있도록 하기 위해, 웨어러블 증강 현실 디스플레이 장치(28)의 하나 이상의 디스플레이(50) 상에 증강 정보로서 게스트 경험 정보(46)를 디스플레이하는 본 명세서에 개시된 기술을 적어도 부분적으로 수행하기 위한 명령어를 실행하기 위해 메모리(82)에 작동 가능하게 결합될 수 있다. 이러한 명령어는 메모리(82) 및/또는 기타 저장소와 같은 유형의 비일시적 컴퓨터 판독 가능 매체에 저장된 프로그램 또는 코드로 인코딩될 수 있다. 특정 실시예에서, 프로세서(80)는 범용 프로세서, SoC(system-on-chip) 장치, ASIC(application-specific integrated circuit), 또는 일부 다른 유사한 프로세서 구성일 수 있다. 특정 실시예에서, 프로세서(80)는 둘 이상의 프로세서를 포함할 수 있다. 또한, 특정 실시예에서, 웨어러블 증강 현실 디스플레이 장치(28)는 또한 웨어러블 증강 현실 디스플레이 장치(28)의 하나 이상의 통신 인터페이스(84)를 통해 게스트 경험 분석 시스템(24)으로부터 게스트 경험 정보(46)를 수신할 수 있다.
특정 실시예에서, 웨어러블 증강 현실 디스플레이 장치(28)의 하나 이상의 디스플레이(50)는 각각 액정 디스플레이(LCD), 유기 발광 다이오드(OLED) 디스플레이, 또는 증강 정보로서 게스트 경험 정보(46)를 디스플레이하도록 구성된 다른 유사한 디스플레이를 포함할 수 있다. 특정 실시예에서, 웨어러블 증강 현실 디스플레이 장치(28)의 하나 이상의 디스플레이(50)는 각각이 불투명 또는 씨스루 LCD 또는 불투명 또는 씨스루 OLED 디스플레이를 포함하여, 예를 들어, 장소 직원(18)이 장소(10)의 실제 및 물리적 현실 세계 환경으로 각각의 디스플레이(50)를 씨스루할 수 있는 (예컨대, 게스트 경험 정보와 관련된 게스트(20)의 이미지를 통과시킬 수 있는) 능력을 유지하면서 디스플레이(50)에 나타나는 게스트 경험 정보(46)를 볼 수 있게 할 수 있다. 예를 들어, 본 명세서에 더 자세히 설명된 바와 같이, 타겟 게스트(20)(또는 게스트(20)의 타겟 그룹)에 대한 게스트 경험 정보(46)는 타겟 게스트(20)(또는 게스트(20)의 타겟 그룹)의 통과 이미지에 가까운(예를 들어, 그에 인접하거나 상대적으로 가까운 범위 내에 있는) 웨어러블 증강 현실 디스플레이 장치(28) 상에 중첩될 수 있다.
또한, 특정 실시예에서, 웨어러블 증강 현실 디스플레이 장치(28)는 웨어러블 증강 현실 디스플레이 장치(28)의 하나 이상의 디스플레이(50)를 통해 디스플레이된 게스트(20)에 관한 게스트 경험 정보(46)를 나타내는 오디오 신호 및/또는 햅틱 피드백을 제공하도록 구성될 수 있다. 특히, 특정 실시예에서, 웨어러블 증강 현실 디스플레이 장치(28)는 웨어러블 증강 현실 디스플레이 장치(28)의 하나 이상의 디스플레이(50)를 통해 디스플레이된 게스트(20)에 관한 게스트 경험 정보(46)를 나타내는 오디오 신호 및/또는 햅틱 피드백을 제공하도록 구성된 하나 이상의 출력 장치(134)를 포함할 수 있다. 예를 들어, 특정 실시예에서, 웨어러블 증강 현실 디스플레이 장치(28)의 하나 이상의 출력 장치(134)는 오디오 신호를 출력하도록 구성된 오디오 스피커 및/또는 또는 햅틱 피드백을 출력하도록 구성된 햅틱 장치를 포함할 수 있다.
본 명세서에 더 상세히 설명된 바와 같이, 특정 실시예에서, 웨어러블 증강 현실 디스플레이 장치(28)의 하나 이상의 디스플레이(50) 상에 디스플레이된 게스트 경험 정보(46)는 타겟 게스트(20)(또는 타겟 게스트(20)의 그룹)에 대한 다른 게스트 경험 정보(46)에 적어도 부분적으로 기초한 타겟 게스트(20)(또는 게스트(20)의 타겟 그룹)에 대한 추천을 포함할 수 있다. 실제로, 특정 실시예에서, 게스트(20)(또는 게스트(20)의 그룹)에 대한 특정 추천을 결정하면, 게스트 경험 분석 시스템(24)은 그 결정된 추천을 웨어러블 증강 현실 디스플레이 장치(28)에 전송할 수 있고, 웨어러블 증강 현실 디스플레이 장치(28)는 웨어러블 증강 현실 디스플레이 장치(28)의 디스플레이(50) 상에 결정된 추천을 디스플레이할 수 있고, 장소 직원(18)의 주목을 끌기 위해, 디스플레이(50) 상에 경고(예를 들어, 결정된 추천에 인접한 깜박이는 빛 및/또는 결정된 추천의 깜박이는 텍스트)를 생성할 수도 있다. 더욱이, 특정 실시예에서, 게스트(20)(또는 게스트(20)의 그룹)에 대한 특정 추천이 결정되면, 게스트 경험 분석 시스템(24)은 결정된 추천을 증강 현실 디스플레이 장치(28)에 전송할 수 있고, 웨어러블 증강 현실 디스플레이 장치(28)는 제1 타겟 게스트(20)(또는 게스트(20)의 그룹)으로부터 결정된 추천과 관련된 제2 타겟 게스트(20)(또는 게스트(20)의 그룹)로 포커스(예를 들어, 하이라이트 또는 다른 표시)를 전환할 수 있다.
추가로, 특정 실시예에서, 웨어러블 증강 현실 디스플레이 장치(28)는 웨어러블 증강 현실 디스플레이 장치(28)의 하나 이상의 통신 인터페이스(84)를 통해 게스트 경험 분석 시스템(24)으로 다시 전송될 수 있는 입력을 웨어러블 증강 현실 디스플레이 장치(28)의 사용자(예를 들어, 장소 직원(18))로부터 수신하도록 구성된 하나 이상의 입력 장치(86)를 포함할 수 있다. 특정 실시예에서, 웨어러블 증강 현실 디스플레이 장치(28)의 하나 이상의 입력 장치(86)는 오디오 센서(예를 들어, 마이크로폰), 카메라(예컨대, 제스처 인식을 위한 이미지 캡처를 위한 것임), 트랙볼, 버튼 및/또는 웨어러블 증강 현실 디스플레이 장치(28)의 사용자(예를 들어, 장소 직원(18))로부터 입력을 수신하기에 적합한 기타 입력 장치를 포함할 수 있다. 예를 들어, 특정 실시예에서, 웨어러블 증강 현실 디스플레이 장치(28)의 하나 이상의 입력 장치(86)는 게스트 경험 분석 시스템(24)에 전송될 수 있는 정보를 생성하기 위해 웨어러블 증강 현실 디스플레이 장치(28)의 처리 회로에 의해 처리될 수 있는 사용자(예를 들어, 장소 직원(18))에 의해 생성된 오디오(예를 들어, 음성 명령)를 캡처하도록 구성된 하나 이상의 오디오 센서를 포함할 수 있다. 또한, 특정 실시예에서, 웨어러블 증강 현실 디스플레이 장치(28)의 하나 이상의 입력 장치(86)는, 게스트 경험 분석 시스템(24)에 전송될 수 있는 정보로 변환될 수 있는 사용자(예를 들어, 장소 직원(18))의 제스처를 인식하기 위해 웨어러블 증강 현실 디스플레이 장치(28)의 처리 회로에 의해 처리될 수 있는 사용자(예를 들어, 장소 직원(78))의 이미지 및/또는 사용자(예를 들어, 장소 직원(18))의 신체 특징을 캡처하기 위한 하나 이상의 카메라를 포함할 수 있다.
특정 실시예에서, 본 명세서에 더 자세히 설명된 바와 같이, 웨어러블 증강 현실 디스플레이 장치(28)의 하나 이상의 입력 장치(86)는 타겟 게스트(20)(또는 게스트(20)의 그룹)에 관한 수정된 및/또는 추가의 게스트 경험 정보(46)를 수신할 수 있고, 수정된 및/또는 추가의 게스트 경험 정보(46)는 게스트 경험 분석 시스템(24)에 의한 분석을 위해 게스트 경험 분석 시스템(24)으로 다시 전송될 수 있다. 또한, 본 명세서에서 더 자세히 설명되는 바와 같이, 특정 실시예에서, 웨어러블 증강 현실 디스플레이 장치(28)의 입력 장치(86)는 제1 타겟 게스트(20)(또는 게스트(20)의 그룹)에서 제2 타겟 게스트(20)(또는 게스트(20)의 그룹)로 포커스(예를 들어, 강조 표시 또는 다른 표시)를 전환하라는 명령을 수신할 수 있고, 각각의 웨어러블 증강 현실 디스플레이 장치(28)의 처리 회로는 포커스가 그 명령에 따라 각각의 웨어러블 증강 현실 디스플레이 장치(28)의 디스플레이(50) 상으로 전환되게 할 수 있다. 또한, 본 명세서에 더 자세히 설명된 바와 같이, 특정 실시예에서, 웨어러블 증강 현실 디스플레이 장치(28)의 하나 이상의 입력 장치(86)는 장소(10) 내에 배치된 하나 이상의 물리적 객체(36)를 통해 하나 이상의 물리적 효과(38)를 구현하라는 명령에 관한 정보를 수신할 수 있고, 이 명령은 게스트 경험 분석 시스템(24)으로 전송될 수 있으며, 이는 이어서 하나 이상의 물리적 효과(38)를 구현하기 위해 하나 이상의 물리적 객체(36)에 전송될 명령 신호를 생성할 수 있다. 또한, 본 명세서에 더 상세히 설명된 바와 같이, 특정 실시예에서, 웨어러블 증강 현실 디스플레이 장치(28)의 하나 이상의 입력 장치(86)는 하나 이상의 게스트(20)와 연관된 하나 이상의 웨어러블 장치(30), 모바일 장치(32), 및/또는 테마 장치(34)에 대해 발생할 하나 이상의 동작(예를 들어, 물리적 효과(38), 정보 경고 등)을 구현하기 위한 명령에 관련된 정보를 수신할 수 있고, 이 명령은 게스트 경험 분석 시스템(24)으로 전송될 수 있으며, 이는 이어서 하나 이상의 동작을 구현하기 위한, 하나 이상의 웨어러블 장치(30), 모바일 장치(32) 및/또는 테마 장치(34)로 전송될 명령 신호를 생성할 수 있다.
본 명세서에 더 상세히 설명된 바와 같이, 특정 실시예에서, 게스트 경험 분석 시스템(24)은 장소(10)의 실제 환경에 배치된 물리적 객체(36)를 통해 물리적 효과(38)를 구현하기 위해, 예를 들어, 게스트(20)의 경험을 더 강화하기 위해 증강 현실 디스플레이 엔드포인트(26) 및/또는 웨어러블 증강 현실 디스플레이 장치(28)로부터 명령을 수신할 수 있다. 특정 실시예에서, 물리적 객체(36)는 프로세서(88) 및 메모리(90)와 같은 처리 회로를 포함할 수 있다. 프로세서(88)는 물리적 객체(36)의 하나 이상의 통신 인터페이스(92)를 통해 게스트 경험 분석 시스템(24)으로부터 수신된 이러한 명령에 기초하여 물리적 효과(38)를 구현하기 위한 명령을 실행하기 위해 메모리(90)에 작동 가능하게 결합된다. 이러한 명령은 메모리(90) 및/또는 기타 저장소와 같은 유형의 비일시적 컴퓨터 판독가능 매체에 저장된 프로그램 또는 코드로 인코딩될 수 있다. 특정 실시예에서, 프로세서(88)는 범용 프로세서, 시스템 온 칩(SoC) 장치, 주문형 집적 회로(ASIC), 또는 일부 다른 유사한 프로세서 구성일 수 있다. 특정 실시예에서, 프로세서(88)는 둘 이상의 프로세서를 포함할 수 있다.
특정 실시예에서, 물리적 효과(38)는 예를 들어 물리적 객체(36)와 관련된 물리적 작동 메커니즘(94)을 통해 구현될 수 있다. 예를 들어, 특정 실시예에서 물리적 효과(38)는 전원에 의해 생성된 물리적 물체(36)로부터 방출되는 불꽃, 점화 시스템에 의해 생성된 물리적 물체(36)로부터 방출되는 화염, 풍력 시스템에 의해 생성된 물리적 물체(36)에서 방출되는 바람, 물리적 물체(36)의 일부의 움직임 등일 수 있다. 또한, 본 명세서에서 더 자세히 설명된 바와 같이, 특정 실시예에서, 증강 현실 디스플레이 엔드포인트(26) 및/또는 웨어러블 증강 현실 디스플레이 장치(28)에 의해 게스트 경험 분석 시스템(24)으로 전송된 명령- 이 명령은 이후 하나 이상의 동작을 구현하기 위해 하나 이상의 웨어러블 장치(30), 모바일 장치(32) 및/또는 테마 장치(34)로 전송되는 명령 신호를 생성함 -에 적어도 부분적으로 기초하여 하나 이상의 게스트(20)와 연관된 하나 이상의 웨어러블 장치(30), 모바일 장치(32) 및/또는 테마 장치(34)를 통해 유사한 동작(예컨대, 물리적 효과(38), 정보 경고 등)이 구현될 수 있는다.
특정 실시예에서, 증강 현실 디스플레이 엔드포인트(26) 및/또는 웨어러블 증강 현실 디스플레이 장치(28)의 특정 기능은 본 명세서에서 설명된 하나 이상의 웨어러블 장치(30), 모바일 장치(32), 및/또는 테마 장치(34)에 의해 복제될 수 있다. 실제로, 특정 실시예에서, 장소 직원(18) 및/또는 게스트(20) 모두는 본 명세서에서 설명된 하나 이상의 웨어러블 장치(30), 모바일 장치(32), 및/또는 테마 장치(34)를 통해 증강 현실 디스플레이 엔드포인트(26) 및/또는 웨어러블 증강 현실 디스플레이 장치(28)의 기능의 적어도 일부를 경험할 수 있다. 예를 들어, 특정 실시예에서, 하나 이상의 웨어러블 장치(30), 모바일 장치(32), 및/또는 테마 장치(34)는 프로세서(96, 98, 100) 및 메모리(102, 104, 106)와 같은 각각의 처리 회로를 포함할 수 있다. 각각의 프로세서(96, 98, 100)는 본 명세서에서 더 설명되는 바와 같이, 사용자(예컨대, 장소 직원(18))가 게스트(20)의 경험을 향상시키도록 하기 위해, 하나 이상의 웨어러블 장치(30), 모바일 장치(32) 및/또는 테마 장치(34)의 하나 이상의 각각의 디스플레이(108,110,112) 상에 증강 정보로서 게스트 경험 정보(46)를 디스플레이하는 현재 개시된 기술을 수행하기 위한 명령을 실행하도록, 각각의 메모리(102,104,106)에 동작가능하게 결합될 수 있다. 이들 명령어는 메모리(102, 104, 106) 및/또는 기타 저장소와 같은 유형의 비일시적 컴퓨터 판독 가능 매체에 저장된 프로그램 또는 코드로 인코딩될 수 있다. 특정 실시예에서, 프로세서(96, 98, 100)는 범용 프로세서, 시스템 온 칩(SoC) 장치, 주문형 집적 회로(ASIC), 또는 일부 다른 유사한 프로세서 구성일 수 있다. 특정 실시예에서, 프로세서(96, 98, 100)는 둘 이상의 프로세서를 포함할 수 있다. 또한, 특정 실시예에서, 하나 이상의 웨어러블 장치(30), 모바일 장치(32), 및/또는 테마 장치(34)는 또한 하나 이상의 웨어러블 장치(30), 모바일 장치(32), 및/또는 테마 장치(34)의 하나 이상의 개별 통신 인터페이스(114, 116, 118)를 통해 게스트 경험 분석 시스템(24)으로부터 게스트 경험 정보(46)를 수신할 수 있다.
또한, 특정 실시예에서, 하나 이상의 웨어러블 장치(30), 모바일 장치(32), 및/또는 테마 장치(34)는 게스트 인식 시스템(22)에 의해 수행되는 게스트 인식을 돕기 위해 사용될 수 있다. 예를 들어, 전술한 게스트 인식 시스템(22)에 의해 수행되는 게스트(20)(또는 게스트(20)의 그룹)의 인식에 더해(또는 이에 대한 대안으로서), 게스트 인식 센서(52)는 장치(10) 내에서의 게스트(20)의 이전 및 현재 경험을 결정하기 위해 게스트 인식 시스템(22)에 의해 사용될 수 있는, 특정 게스트(20)와 연관된 하나 이상의 웨어러블 장치(30), 모바일 장치(32), 및/또는 테마 장치(34)의 활동을 추적하도록 구성된 센서를 포함할 수 있다. 예를 들어, 특정 실시예에서, 하나 이상의 웨어러블 장치(30), 모바일 장치(32), 및/또는 테마 장치(34)는 특정 장치(30, 32, 34)가 관련된 게스트(20)의 활동을 추적하기 위해 게스트 인식 시스템(22)(예를 들어, 광 검출 및 측정(LiDAR) 시스템과 같은 카메라 시스템)에 의해 수동적으로 모니터링될 수 있는 특징(120, 122, 124)(예를 들어, 기하학적 측면 또는 마킹)의 각각의 세트를 포함할 수 있다. 또한, 특정 실시예에서, 하나 이상의 웨어러블 장치(30), 모바일 장치(32), 및/또는 테마 장치(34)는 입력 장치(126, 128, 130)의 각각의 세트를 포함할 수 있는데, 이 입력 장치를 통해, 특정 장치(30, 32, 34)와 연관된 게스트(20)는 게스트 인식 시스템(22) 및/또는 게스트 경험 분석 시스템(24)으로 전송될 수 있는 정보를 입력하기 위해 상호작용할 수 있다.
본 명세서에 더 상세히 설명된 바와 같이, 특정 실시예에서, 증강 현실 게스트 인식 시스템(40)의 게스트 인식 시스템(22)은 장소(10) 내의 게스트(20)(또는 게스트(20)의 그룹)를 인식하기 위해 게스트 인식 시스템(22)에 의해 사용될 수 있는 데이터를 수집하도록 구성된 하나 이상의 게스트 인식 센서(52)를 포함하고, 증강 현실 게스트 인식 시스템(40)의 게스트 경험 분석 시스템(24)은 게스트 인식 시스템(22)에 의해 수행된 게스트 인식과 관련된 것이며 게스트 인식 시스템(22)으로부터 수신된 정보를 분석하여, 장소(10) 내에서 게스트(20)(또는 게스트(20)의 그룹)의 이전 및 현재 경험과 관련된 게스트 경험 정보(46)를 결정하도록 구성되고, 이 게스트 경험 정보(46)는 사용자(예를 들어, 장소 직원(18))가 장소(10) 내에서 게스트(20)(또는 게스트(20)의 그룹)의 미래 경험을 강화할 수 있도록 하나 이상의 증강 현실 디스플레이 엔드포인트(26) 및/또는 하나 이상의 웨어러블 증강 현실 디스플레이 장치(28)에 제공될 수 있다. 도 3은 도 2의 증강 현실 게스트 인식 시스템(40)의 예시적인 부분을 도시한다. 구체적으로, 도 3은 게스트 인식 센서(52) 및 증강 현실 디스플레이 엔드포인트(26)에 비교적 근접한 제1 게스트(20A), 제2 게스트(20B) 및 장소 직원(18)을 도시한다. 예시된 실시예에서, 게스트 인식 센서(52) 및 증강 현실 디스플레이 엔드포인트(26)는 상대적으로 고정된 구조로 통합된다. 그러나, 다른 실시예에서, 게스트 인식 센서(52)는 증강 현실 디스플레이 엔드포인트(26)와 통합되지 않을 수 있다.
도 4는 제1 게스트(20A) 및 제2 게스트(20B)에 관한 예시적인 게스트 경험 정보(46)를 도시하는, 장소 직원(18)의 관점에서의 도 3의 게스트 인식 센서(52) 및 증강 현실 디스플레이 엔드포인트(26)를 도시한다. 도 4에 도시된 바와 같이, 제1 게스트(20A)는 예를 들어 증강 현실 디스플레이 엔드포인트(26)의 디스플레이(48)에 의해 초점이 맞춰진 제1 게스트(20A)의 통과 이미지 주위에 글로우(136)에 의해 강조 표시된 (또는 다른 실시예에서는 시각적으로 표시된) 현재의 타겟 게스트이며, 제2 게스트(20B)의 통과 이미지에는 이러한 시각적 표시가 없다. 본 명세서에 더 상세히 설명된 바와 같이, 특정 실시예에서, 제1 게스트(20A)에 대한 포커스는 장소 직원(18)으로부터 증강 현실 디스플레이 엔드포인트(26)에 의해 수신된 명령에 기초하여 제2 게스트(20B)로 전환될 수 있다.
본 명세서에 설명된 웨어러블 증강 현실 디스플레이 장치(28)의 기능은 본 명세서에 설명된 현실 디스플레이 엔드포인트(26)의 기능과 실질적으로 유사할 수 있되, 주요 차이점은 장소(10)의 게스트(20)와 관련된 게스트 경험 정보(46)의 뷰가 게스트(20)의 시야에서 숨겨질 수 있으므로 게스트 경험 정보(46)가 사용자(예를 들어, 장소 직원(18))로 전달되는 몰입도가 향상된다는 것이다. 예를 들어, 도 5는 본 명세서에 설명된 증강 현실 디스플레이 엔드포인트(26)의 기능과 실질적으로 유사한 기능을 포함할 수 있는 웨어러블 증강 현실 디스플레이 장치(28)(예를 들어, 증강 현실 안경, 증강 현실 고글, 기타 증강 현실 헤드기어 등)를 예시한다.
도 6은 본 명세서에 설명된 증강 현실 게스트 인식 시스템(40)의 사용 방법(138)의 흐름도이다. 예를 들어, 특정 실시예에서, 방법(138)은 게스트 인식 시스템(22)을 통해 장소에서 하나 이상의 게스트(20)를 인식하는 단계(블록 140)를 포함할 수 있다. 특정 실시예에서, 하나 이상의 게스트(20)를 인식하는 것은 게스트 인식 시스템(22)을 통해 안면 인식 알고리즘, 의복 인식 알고리즘, 또는 움직임 인식 알고리즘을 활용하여, 장소(10) 내에서 하나 이상의 게스트(20)의 신원을 검출하고, 하나 이상의 게스트(20)의 활동을 검출하는 것, 또는 이들의 일부 조합을 포함할 수 있다. 또한, 특정 실시예에서, 방법(138)은 게스트 경험 분석 시스템(24)을 통해, 인식된 하나 이상의 게스트(20)에 관한 게스트 경험 정보(46)(예를 들어, 추천을 포함함)를 생성하는 단계(블록 142)를 포함할 수 있다. 또한, 특정 실시예에서, 방법(138)은 하나 이상의 증강 현실 디스플레이 엔드포인트(26) 및/또는 하나 이상의 증강 현실 디스플레이 장치(28)의 증강 현실 디스플레이(예컨대, 디스플레이(48,50)) 상에 디스플레이하기 위해, 게스트 경험 분석 시스템(24)을 통해, 인식된 하나 이상의 게스트(20)에 관한 게스트 경험 정보(46)(예를 들어, 추천을 포함함)를 증강 현실 디스플레이 장치(예를 들어, 하나 이상의 증강 현실 디스플레이 엔드포인트(26) 및/또는 하나 이상의 증강 현실 디스플레이 장치(28))에 전송하는 단계(블록 144)를 포함할 수 있다.
특정 실시예에서, 방법(138)은 또한 게스트 인식 시스템(22)을 통해, 하나 이상의 게스트(20)의 개별 게스트(20)가 서로 인접한 상태로 유지되는 시간의 양에 적어도 부분적으로 기초하여 게스트(20)의 하나 이상의 그룹을 식별하는 단계를 포함할 수 있다. 이러한 실시예에서, 방법(138)은 또한 게스트 경험 분석 시스템(24)을 통해, 식별된 게스트(20)의 하나 이상의 그룹과 관련된 게스트 그룹 경험 정보(46)(예컨대, 추천 포함)를 생성하고, 하나 이상의 증강 현실 디스플레이 엔드포인트(26) 및/또는 하나 이상의 증강 현실 디스플레이 장치(28)의 증강 현실 디스플레이(예컨대, 디스플레이(48,50)) 상에 디스플레이하기 위해, 게스트 경험 분석 시스템(24)을 통해, 식별된 게스트(20)의 하나 이상의 그룹에 관한 게스트 경험 정보(46)(예를 들어, 추천을 포함함)를 증강 현실 디스플레이 장치(예를 들어, 하나 이상의 증강 현실 디스플레이 엔드포인트(26) 및/또는 하나 이상의 증강 현실 디스플레이 장치(28))에 전송하는 단계를 또한 포함할 수 있다. 또한, 특정 실시예에서, 방법(138)은 게스트 경험 분석 시스템을 통해, 하나 이상의 증강 현실 디스플레이 엔드포인트(26) 및/또는 하나 이상의 웨어러블 증강 현실 디스플레이 장치(28)로부터 인식된 하나 이상의 게스트(20)와 관련된 수정된 및/또는 추가의 게스트 경험 정보(46)(예를 들어, 추천을 포함함)를 수신하는 단계를 또한 포함할 수 있다. 또한, 특정 실시예에서, 방법(138)은 또한, 장소(10) 내에 배치된 하나 이상의 물리적 객체(36)를 통해 하나 이상의 물리적 효과(38)를 구현하기 위해, 게스트 경험 분석 시스템(24)을 통해, 증강 현실 디스플레이 엔드포인트(26) 또는 웨어러블 증강 장치로부터 명령을 수신하고, 하나 이상의 물리적 효과(38)를 구현하기 위해 게스트 경험 분석 시스템(24)을 통해 하나 이상의 물리적 객체(36)에 제어 신호를 전송하는 단계를 또한 포함할 수 있다.
본 명세서에서는 특정 특징들만이 예시되고 설명되었지만, 많은 수정 및 변경이 당업자에게 일어날 것이다. 따라서, 첨부된 청구범위는 본 개시의 진정한 사상에 속하는 모든 수정 및 변경을 포함하도록 의도된 것임을 이해해야 한다.
본 명세서에서 설명하고 청구하는 기술은 현재 기술 분야를 명백하게 개선하는 물질적 대상과 실제적 성격의 구체적 예들을 참조하고 이들에 적용되며, 따라서 단지 추상적이거나 무형적이거나 순수 이론적인 것이 아니다. 또한, 본 명세서의 마지막 부분에 첨부된 청구항이 "[기능]을 [수행]하기 위한 수단..." 또는 "[기능]을 [수행]하기 위한 단계..."로 지정되는 하나 이상의 구성요소를 포함하는 경우, 그러한 구성요소는 35 U.S.C. § 112(f)에 따라 해석되어야 한다. 그러나, 이와는 다른 방식으로 지정된 구성요소들을 포함하는 청구항의 경우, 해당 구성요소는 35 U.S.C. § 112(f)에 따라 해석되어서는 안된다.

Claims (22)

  1. 시스템으로서,
    장소(venue)에서 하나 이상의 게스트를 인식하도록 구성된 게스트 인식 시스템과,
    상기 게스트 인식 시스템으로부터 상기 인식된 하나 이상의 게스트에 관한 데이터를 수신하고, 상기 인식된 하나 이상의 게스트에 관한 상기 수신된 데이터에 적어도 부분적으로 기초하여 상기 인식된 하나 이상의 게스트에 관한 게스트 경험 정보를 생성하며, 증강 현실 디스플레이 장치의 증강 현실 디스플레이 상에 디스플레이하기 위해 상기 인식된 하나 이상의 게스트에 관한 상기 게스트 경험 정보를 상기 증강 현실 디스플레이 장치에 전송하도록 구성된 게스트 경험 분석 시스템을 포함하는
    시스템.
  2. 제1항에 있어서,
    상기 게스트 인식 시스템은 안면 인식 알고리즘, 의복 인식 알고리즘, 또는 움직임 인식 알고리즘을 활용하여 상기 하나 이상의 게스트의 신원을 검출하는 것, 상기 장소 내에서의 상기 하나 이상의 게스트의 활동을 검출하는 것, 또는 이들의 일부 조합을 수행하도록 구성된
    시스템.
  3. 제1항에 있어서,
    상기 게스트 인식 시스템은 상기 하나 이상의 게스트의 개별 게스트가 서로 인접한 상태로 유지되는 시간의 양에 적어도 부분적으로 기초하여 상기 하나 이상의 게스트의 하나 이상의 그룹을 식별하도록 구성된
    시스템.
  4. 제3항에 있어서,
    상기 게스트 경험 분석 시스템은 상기 게스트 인식 시스템으로부터 상기 식별된 하나 이상의 그룹에 관한 데이터를 수신하고, 상기 식별된 하나 이상의 그룹에 관한 데이터에 적어도 부분적으로 기초하여 상기 식별된 하나 이상의 그룹에 관한 게스트 그룹 경험 정보를 생성하며, 상기 증강 현실 디스플레이 장치의 상기 증강 현실 디스플레이 상에 디스플레이하기 위해 상기 게스트 그룹 경험 정보를 상기 증강 현실 디스플레이 장치에 전송하도록 구성된
    시스템.
  5. 제1항에 있어서,
    상기 게스트 경험 분석 시스템은 상기 인식된 하나 이상의 게스트에 관한 상기 게스트 경험 정보에 적어도 부분적으로 기초하여 상기 인식된 하나 이상의 게스트를 위한 하나 이상의 추천을 생성하고, 상기 증강 현실 디스플레이 장치의 상기 증강 현실 디스플레이 상에 디스플레이하기 위해 상기 인식된 하나 이상의 게스트를 위한 상기 하나 이상의 추천을 상기 증강 현실 디스플레이 장치에 전송하도록 구성된
    시스템.
  6. 제1항에 있어서,
    상기 게스트 경험 분석 시스템은 상기 증강 현실 디스플레이 장치로부터 상기 인식된 하나 이상의 게스트에 관한 수정된 또는 추가의 게스트 경험 정보를 수신하도록 구성된
    시스템.
  7. 제1항에 있어서,
    상기 게스트 경험 분석 시스템은 상기 장소 내에 배치된 하나 이상의 물리적 객체를 통해 하나 이상의 물리적 효과를 구현하기 위한 명령을 상기 증강 현실 디스플레이 장치로부터 수신하고, 상기 하나 이상의 물리적 효과를 구현하기 위한 제어 신호를 상기 하나 이상의 물리적 객체에 전송하도록 구성된
    시스템.
  8. 게스트 인식 시스템을 통해, 장소에서 하나 이상의 게스트를 인식하는 단계와,
    게스트 경험 분석 시스템을 통해, 상기 인식된 하나 이상의 게스트에 관한 게스트 경험 정보를 생성하는 단계와,
    상기 게스트 경험 분석 시스템을 통해, 증강 현실 디스플레이 장치의 증강 현실 디스플레이 상에 디스플레이하기 위해 상기 인식된 하나 이상의 게스트에 관한 상기 게스트 경험 정보를 상기 증강 현실 디스플레이 장치에 전송하는 단계를 포함하는
    방법.
  9. 제8항에 있어서,
    상기 게스트 인식 시스템을 통해, 안면 인식 알고리즘, 의복 인식 알고리즘, 또는 움직임 인식 알고리즘을 활용하여 상기 하나 이상의 게스트의 신원을 검출하는 것, 상기 장소 내에서의 상기 하나 이상의 게스트의 활동을 검출하는 것, 또는 이들의 일부 조합을 수행하는 단계를 포함하는
    방법.
  10. 제8항에 있어서,
    상기 게스트 인식 시스템을 통해, 상기 하나 이상의 게스트의 개별 게스트가 서로 인접한 상태로 유지되는 시간의 양에 적어도 부분적으로 기초하여 상기 하나 이상의 게스트의 하나 이상의 그룹을 식별하는 단계를 포함하는
    방법.
  11. 제10항에 있어서,
    상기 게스트 경험 분석 시스템을 통해, 상기 식별된 하나 이상의 그룹에 관한 게스트 그룹 경험 정보를 생성하는 단계와,
    상기 게스트 경험 분석 시스템을 통해, 상기 증강 현실 디스플레이 장치의 상기 증강 현실 디스플레이 상에 디스플레이하기 위해 상기 식별된 하나 이상의 그룹에 관한 상기 게스트 그룹 경험 정보를 상기 증강 현실 디스플레이 장치에 전송하는 단계를 포함하는
    방법.
  12. 제8항에 있어서,
    상기 게스트 경험 분석 시스템을 통해, 상기 인식된 하나 이상의 게스트에 관한 상기 게스트 경험 정보에 적어도 부분적으로 기초하여 상기 인식된 하나 이상의 게스트를 위한 하나 이상의 추천을 생성하는 단계와,
    상기 게스트 경험 분석 시스템을 통해, 상기 증강 현실 디스플레이 장치의 상기 증강 현실 디스플레이 상에 디스플레이하기 위해 상기 인식된 하나 이상의 게스트를 위한 상기 하나 이상의 추천을 상기 증강 현실 디스플레이 장치에 전송하는 단계를 포함하는
    방법.
  13. 제8항에 있어서,
    상기 게스트 경험 분석 시스템을 통해, 상기 증강 현실 디스플레이 장치로부터 상기 인식된 하나 이상의 게스트에 관한 수정된 또는 추가의 게스트 경험 정보를 수신하는 단계를 포함하는
    방법.
  14. 제8항에 있어서,
    상기 게스트 경험 분석 시스템을 통해, 상기 장소 내에 배치된 하나 이상의 물리적 객체를 통해 하나 이상의 물리적 효과를 구현하라는 명령을 상기 증강 현실 디스플레이 장치로부터 수신하는 단계와,
    상기 게스트 경험 분석 시스템을 통해, 상기 하나 이상의 물리적 효과를 구현하기 위해 상기 하나 이상의 물리적 객체에 제어 신호를 전송하는 단계를 포함하는
    방법.
  15. 증강 현실 디스플레이 장치로서,
    장소의 하나 이상의 게스트의 이미지를 통과시키도록 구성된 증강 현실 디스플레이와,
    명령어를 저장하는 하나 이상의 비일시적 컴퓨터 판독가능 매체를 포함하되,
    상기 명령어는 적어도 하나의 프로세서에 의해 실행되는 경우, 상기 적어도 하나의 프로세서로 하여금 동작들을 수행하게 하고,
    상기 동작들은,
    게스트 경험 분석 시스템으로부터 상기 하나 이상의 게스트 중 타겟 게스트에 관한 게스트 경험 정보를 수신하는 동작과,
    상기 타겟 게스트의 통과 이미지 근처에서 상기 증강 현실 디스플레이 상에 상기 타겟 게스트에 관한 상기 게스트 경험 정보를 중첩하는 동작을 포함하는,
    증강 현실 디스플레이 장치.
  16. 제15항에 있어서,
    상기 동작들은,
    상기 하나 이상의 게스트의 타겟 그룹에 관한 게스트 그룹 경험 정보를 상기 게스트 경험 분석 시스템으로부터 수신하는 동작과,
    상기 하나 이상의 게스트의 상기 타겟 그룹의 통과 이미지 근처에서 상기 증강 현실 디스플레이 상에 상기 하나 이상의 게스트의 상기 타겟 그룹에 관한 상기 게스트 그룹 경험 정보를 중첩하는 동작을 포함하는
    증강 현실 디스플레이 장치.
  17. 제15항에 있어서,
    상기 동작들은,
    상기 하나 이상의 게스트 중 상기 타겟 게스트를 위한 하나 이상의 추천을 상기 게스트 경험 분석 시스템으로부터 수신하는 동작과,
    상기 타겟 게스트의 통과 이미지 근처에서 상기 증강 현실 디스플레이 상에 상기 하나 이상의 게스트 중 상기 타겟 게스트를 위한 상기 하나 이상의 추천 중 적어도 하나의 추전을 중첩하는 동작을 포함하는
    증강 현실 디스플레이 장치.
  18. 제15항에 있어서,
    상기 타겟 게스트에 관한 수정된 또는 추가의 게스트 경험 정보를 수신하도록 구성된 입력 장치를 포함하고, 상기 동작들은 상기 수정된 또는 추가의 게스트 경험 정보를 상기 게스트 경험 분석 시스템으로 전송하는 동작을 포함하는
    증강 현실 디스플레이 장치.
  19. 제15항에 있어서,
    상기 장소 내에 배치된 하나 이상의 물리적 객체를 통해 하나 이상의 물리적 효과를 구현하라는 명령을 수신하도록 구성된 입력 장치를 포함하고, 상기 동작들은 상기 게스트 경험 분석 시스템에 상기 명령을 전송하는 동작을 포함하는,
    증강 현실 디스플레이 장치.
  20. 제15항에 있어서,
    상기 하나 이상의 게스트 중 상기 타겟 게스트로부터 상기 하나 이상의 게스트 중 다른 타겟 게스트로 포커스를 전환하라는 명령을 수신하도록 구성된 입력 장치를 포함하는
    증강 현실 디스플레이 장치.
  21. 제15항에 있어서,
    상기 증강 현실 디스플레이 장치는 상기 장소 내에 배치된 고정형 증강 현실 디스플레이 엔드포인트를 포함하는,
    증강 현실 디스플레이 장치.
  22. 제15항에 있어서,
    상기 증강 현실 디스플레이 장치는 증강 현실 안경, 증강 현실 고글, 또는 다른 증강 현실 헤드기어를 포함하는
    증강 현실 디스플레이 장치.
KR1020227033398A 2020-02-27 2021-02-25 증강 현실 게스트 인식 시스템 및 방법 KR20220145893A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202062982528P 2020-02-27 2020-02-27
US62/982,528 2020-02-27
US17/180,551 2021-02-19
US17/180,551 US20210271881A1 (en) 2020-02-27 2021-02-19 Augmented reality guest recognition systems and methods
PCT/US2021/019594 WO2021173789A1 (en) 2020-02-27 2021-02-25 Augmented reality guest recognition systems and methods

Publications (1)

Publication Number Publication Date
KR20220145893A true KR20220145893A (ko) 2022-10-31

Family

ID=77462852

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227033398A KR20220145893A (ko) 2020-02-27 2021-02-25 증강 현실 게스트 인식 시스템 및 방법

Country Status (7)

Country Link
US (1) US20210271881A1 (ko)
EP (1) EP4111402A1 (ko)
JP (1) JP2023515988A (ko)
KR (1) KR20220145893A (ko)
CN (1) CN115136174A (ko)
CA (1) CA3166372A1 (ko)
WO (1) WO2021173789A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105988776B (zh) * 2015-01-27 2019-11-26 阿里巴巴集团控股有限公司 信息卡处理方法及装置
WO2023220310A1 (en) * 2022-05-11 2023-11-16 Universal City Studios Llc Guest-specific artificial intelligence entity systems and methods
WO2023220305A1 (en) * 2022-05-11 2023-11-16 Universal City Studios Llc Ride vehicle artificial intelligence entity systems and methods

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8303406B2 (en) * 2008-11-24 2012-11-06 Disney Enterprises, Inc. System and method for providing an augmented reality experience
US20130147686A1 (en) * 2011-12-12 2013-06-13 John Clavin Connecting Head Mounted Displays To External Displays And Other Communication Networks
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US20190258313A1 (en) * 2016-11-07 2019-08-22 Changchun Ruixinboguan Technology Development Co., Ltd. Systems and methods for interaction with an application
US10943188B2 (en) * 2016-11-09 2021-03-09 Universal City Studios Llc Virtual queuing techniques
US20180255285A1 (en) * 2017-03-06 2018-09-06 Universal City Studios Llc Systems and methods for layered virtual features in an amusement park environment
US20180284453A1 (en) * 2017-04-03 2018-10-04 Walmart Apollo, Llc Customer interaction system
WO2018223131A1 (en) * 2017-06-02 2018-12-06 Hospitality Engagement Corporation Method and systems for event entry with facial recognition
US10699485B2 (en) * 2018-01-04 2020-06-30 Universal City Studios Llc Systems and methods for textual overlay in an amusement park environment

Also Published As

Publication number Publication date
CA3166372A1 (en) 2021-09-02
CN115136174A (zh) 2022-09-30
US20210271881A1 (en) 2021-09-02
WO2021173789A1 (en) 2021-09-02
JP2023515988A (ja) 2023-04-17
EP4111402A1 (en) 2023-01-04

Similar Documents

Publication Publication Date Title
KR20220145893A (ko) 증강 현실 게스트 인식 시스템 및 방법
CN109952610B (zh) 图像修改器的选择性识别和排序
US20210092081A1 (en) Directional augmented reality system
US10474336B2 (en) Providing a user experience with virtual reality content and user-selected, real world objects
US10488208B2 (en) Communication system, control method, and storage medium
US9678342B2 (en) Information processing device, display control method, and program
Mulfari et al. Using Google Cloud Vision in assistive technology scenarios
CN109844854A (zh) 单词流注释
CN109923462A (zh) 感测眼镜
KR102414602B1 (ko) 데이터 인식 모델 구축 장치 및 이의 데이터 인식 모델 구축 방법과, 데이터 인식 장치 및 이의 데이터 인식 방법
US20230162461A1 (en) Enhancing videos of people interacting with virtual objects in an extended reality environment
KR101894573B1 (ko) 3d 디지털 액터형 스마트폰 인터페이스 운용시스템
CN108885639A (zh) 内容集合导航和自动转发
KR101455200B1 (ko) 학습 모니터링 장치 및 학습 모니터링 방법
WO2018142756A1 (ja) 情報処理装置及び情報処理方法
US20120229509A1 (en) System and method for user interaction
KR20160037074A (ko) 전환 거울을 구비한 장치의 이미지 디스플레이 방법 및 그 장치
CN103019377A (zh) 基于头戴式可视显示设备的输入方法及装置
KR20140146750A (ko) 시선 기반 교육 콘텐츠 실행 방법 및 시스템
CN112182297A (zh) 训练信息融合模型、生成集锦视频的方法和装置
Patil et al. Guidance system for visually impaired people
KR20210070119A (ko) 스마트폰 전면 카메라와 인공지능 자세 분석을 이용한 명상 가이드 시스템
JP2018060375A (ja) 情報処理システム、情報処理装置およびプログラム
Platte et al. Immersive Language Exploration with Object Recognition and Augmented Reality
Symeonidis et al. xR4DRAMA: Enhancing situation awareness using immersive (XR) technologies