KR20210023704A - 공공에서 개인 디지털 현실 경험으로의 전환 - Google Patents

공공에서 개인 디지털 현실 경험으로의 전환 Download PDF

Info

Publication number
KR20210023704A
KR20210023704A KR1020200100533A KR20200100533A KR20210023704A KR 20210023704 A KR20210023704 A KR 20210023704A KR 1020200100533 A KR1020200100533 A KR 1020200100533A KR 20200100533 A KR20200100533 A KR 20200100533A KR 20210023704 A KR20210023704 A KR 20210023704A
Authority
KR
South Korea
Prior art keywords
digital
reality
public
personal
content
Prior art date
Application number
KR1020200100533A
Other languages
English (en)
Other versions
KR102550986B1 (ko
Inventor
체밧 옐리
Original Assignee
티엠알더블유 파운데이션 아이피 앤드 홀딩 에스에이알엘
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 티엠알더블유 파운데이션 아이피 앤드 홀딩 에스에이알엘 filed Critical 티엠알더블유 파운데이션 아이피 앤드 홀딩 에스에이알엘
Publication of KR20210023704A publication Critical patent/KR20210023704A/ko
Application granted granted Critical
Publication of KR102550986B1 publication Critical patent/KR102550986B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/10Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioethics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Tourism & Hospitality (AREA)
  • Remote Sensing (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Primary Health Care (AREA)
  • Medical Informatics (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Databases & Information Systems (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Multimedia (AREA)
  • Technology Law (AREA)
  • Information Transfer Between Computers (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

공공 디지털 현실 경험을 개인 디지털 현실 경험으로 원활하게 전환할 수 있는 시스템 및 방법이 개시된다. 클라우드 서버는 클라우드 서버에 저장된 디지털 현실 애플리케이션과의 상호 작용 및 대응 디지털 컨텐츠를 공개 디지털 영역의 모든 사용자가 볼 수 있는 공개 디지털 영역을 제한한다. 사용자가 공개 디지털 영역에 액세스한 때, 클라우드 서버는 사용자를 감지하고 디지털 현실 장치를 통해 디지털 현실로부터의 디지털 컨텐츠를 사용자에게 제공한다. 사전 결정된 레벨의 상호 작용에 도달하면, 사용자는 개인 디지털 현실 뷰에 액세스 할 수 있으며, 이에 의해 대중으로부터 개인 디지털 현실 경험으로의 매끄러운 전환이 일어나고, 이는 클라우드 서버로부터의 컴퓨팅 능력의 특정 부분을 특정 사용자에게 전념하도록 프롬프팅하여 디지털 컨텐츠와의 개인적인 상호 작용을 가능하게 한다. 또한, 사용자는 다른 사용자를 초대하여 다중 사용자 개인 스트리밍에 참여할 수도 있다.

Description

공공에서 개인 디지털 현실 경험으로의 전환{TRANSITIONING FROM PUBLIC TO PERSONAL DIGITAL REALITY EXPERIENCE}
기술 개발, 증강 현실(AR) 및 가상 현실(VR)은 사용자에게 디지털 콘텐츠를 제공하기 위해 그들이 보는 것에 대한 사용자 인식을 변화시켜 과거에는 불가능했던 경험을 가능하게 했다. 특히, 파티큘링(particuling), 청각 및 느낌, 그리고 현실 세계가 이러한 경험에 얼마나 많이 들어가는지 정도, 사용자에게 현실 세계 또는 상상 세계의 장소에서 물리적 존재의 감각을 제공하는 것 등이 있다.
이러한 몰입형 상호 작용 경험을 달성하는 일반적인 방법은 머리 장착식 디지털 현실 장치를 사용하는 것이다. 이러한 장치는 일반적으로 중앙 처리 장치(CPU), 집약적인 그래픽 작업을 처리하기 위한 그래픽 처리 장치(GPU), 기하학 변환을 수행하기 위한 벡터 장치 및 기타 접착 하드웨어, 펌웨어 및 소프트웨어를 포함할 수 있다. 그러나, AR 및 VR 경험을 포함하는 것과 같은 매우 동적인 상호작용 애플리케이션은 주로 클라이언트(장치) 측에서 다운로드 및 호스팅되므로 애플리케이션을 실행하는데 높은 하드웨어 요구 사항이 발생한다. 또한, GPU를 수용하고 그것의 원하는 성능을 달성하기 위해, 고성능 헤드 마운트 디지털 현실 장치는 현재 매우 강력하고 값 비싼 개인용 컴퓨터(PC)에 물리적으로 연결되어 있다. 이러한 요구 사항은 높은 가격대와 제한된 이동성으로 인해 더 큰 채택 장벽을 만들고, 이는 개인 환경에서 공공 환경으로 빠르게 마이그레이션할 수 있는 기능과 유연성을 제한하는 것과 같이, 전반적인 환경을 저해한다. 또한, 복잡한 상호작용 AR/VR 3D 그래픽을 스트리밍하는 것은 높은 데이터 속도를 요구한다.
디지털 현실에 대한 채택 장벽과 함께 하드웨어 및 네트워크 수요를 줄이는 것은 계산 집약적인 작업을 하나 이상의 강력한 원격 서버 또는 클라우드 서버로 오프로드하려는 욕구를 불러 일으킨다. 클라우드 컴퓨팅을 사용하는 오늘날 지배적인 일반적 애플리케이션(인스턴트 메시징, 웹 페이지 로딩 등의 비동기 또는 단방향 전송 애플리케이션)은 약 100ms 이상의 대기 시간을 견딜 수 있으며, 기존 네트워크 인프라, 콘텐츠 전송 네트워크(CDN) 및 중앙 집중식 클라우드 컴퓨팅에 의해 지원된다. 이 아키텍처는 최소 레벨의 동적 상호 작용으로 정적인 사전 정의된 콘텐츠의 전달을 위해 최적화된다. 그러나, 동적 AR/VR 애플리케이션은 실시간 상호 작용이 필요하므로 지연 시간(약 7ms)이 매우 낮아 네트워크에 대한 요구가 매우 높으며 사용자가 즐길 수 있는 다양한 디지털 현실 경험과 품질을 제한한다.
요구되는 것은 하드웨어 및 네트워크 수요를 줄이고 디지털 현실 경험의 기능을 확장할 수 있는 시스템과 방법이다.
이 색션은 아래의 '발명을 실시하기 위한 구체적인 내용'에서 더 자세히 설명되는 단순화된 형태의 개념의 선택을 소개하기 위해 제공된다. 이 설명은 청구된 주제의 주요 특징을 식별하기 위한 것이 아니며 청구된 주제의 범위를 결정하는 데 도움을 주기 위한 것도 아니다.
'발명의 배경이 되는 기술'에서 설명된 단점은 하드웨어 및 네트워크 수요를 줄이면서 공공에서 개인 디지털 현실 경험으로 원활하게 전환할 수 있는 시스템 및 방법을 통해 현재 공개에 의해 해결된다. 설명된 실시예들은 사용자가 그러한 전환을 구체적으로 선택하거나 요청할 필요없이 전환을 수행할지 여부를 결정하기 위해 디지털 콘텐츠와의 상호 작용 레벨에 반응함으로써 공공에서 비공개(private) 디지털 현실 경험으로의 원활한 전환을 제공한다. 이를 통해 사용자는 중단없이 디지털 콘텐츠의 공공 경험에서 개인 경험으로 전환하는 이점을 누릴 수 있다. 이 시스템과 방법은 계산 집약적인 작업을 클라우드 서버로 오프로드하여 하드웨어 및 네트워크 수요를 줄인다. 클라우드 서버는 데이터 계산 및 렌더링을 수행하여 공공 디지털 현실 구역에 있는 모든 사용자에게 동일한 디지털 콘텐츠를 표시할 수 있다. 그 다음, 디지털 현실 장치를 통해 사용자와 디지털 콘텐츠 간의 상호 작용 레벨을 높이면 사용자는 디지털 현실 장치를 통해 개인 디지털 현실 뷰에 액세스할 수 있다. 디지털 현실 장치는, 예를 들어, 모바일 장치, 개인용 컴퓨터, 게임 콘솔, 미디어 센터 및 헤드 마운트 디스플레이일 수 있다. 하나 이상의 디지털 현실 애플리케이션에 의해 제공되는 디지털 콘텐츠는 3D 이미지 데이터, 3D 기하학, 3D 엔티티, 3D 감각 데이터, 3D 동적 객체, 비디오 데이터, 오디오 데이터, 텍스트 데이터, 시간 데이터, 위치 데이터, 방향 데이터, 햅틱 데이터, 조명 데이터 등이 있다.
일 실시예에서, 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게 하는 시스템은 하나 이상의 서버 컴퓨터를 포함하는 클라우드 서버 시스템을 포함하고, 이 클라우드 서버 시스템은 하나 이상의 디지털 현실 애플리케이션을 저장하고, 클라우드 서버에 저장된 하나 이상의 디지털 현실 애플리케이션 및 대응하는 디지털 콘텐츠와의 상호 작용이 공공 디지털 구역 내의 디지털 현실 장치를 통해 공공 디지털 현실 뷰에서 볼 수 있는 공용 디지털 구역의 한계를 정하도록(delimitate) 프로그래밍된다. 클라우드 서버 시스템은 공공 디지털 현실 구역에 액세스하는 디지털 현실 장치 중 적어도 하나를 검출하고; 적어도 하나의 디지털 현실 장치에 의한 디지털 콘텐츠와의 상호 작용 레벨을 검출하고; 검출된 상호 작용 레벨이 디지털 콘텐츠와의 사전 결정된 상호 작용 레벨에 도달했는지 판정하도록 프로그램된다. 검출된 상호 작용 레벨은 디지털 콘텐츠를 보는 것, 디지털 콘텐츠를 살펴보는 것, 디지털 콘텐츠를 클릭하는 것, 디지털 콘텐츠에 관여하는 것, 디지털 콘텐츠에 몰입하는 것을 포함하는 복수의 상호 작용 레벨 중에서 선택될 수 있다. 클라우드 서버가 공공 디지털 현실 구역에 액세스하는 하나 이상의 디지털 현실 장치를 감지하고 디지털 현실 장치가 디지털 콘텐츠와 사전 결정된 레벨의 상호 작용(예컨대, 클릭 레벨 또는 관여 레벨)에 도달한 후, 클라우드 서버는 디지털 현실 장치로 하여금 공공 디지털 현실 뷰에서, 디지털 현실 콘텐츠와 상호 작용하는 특정 사용자만 볼 수 있는 디지털 콘텐츠를 포함하는 개인 디지털 현실 뷰로 전환할 수 있게 한다. 대안으로서, 개인 디지털 현실 뷰는 제 1 사용자 및 제 1 사용자에 의해 초대받은 사용자와 같은 한 명 이상의 다른 인증된 사용자가 볼 수 있다.
일부 실시예에서, 클라우드 서버 시스템은 하나 이상의 디지털 현실 애플리케이션으로부터 디지털 콘텐츠를 검색하는 단계를 수행하고, 디지털 콘텐츠에 대한 데이터 계산 및 렌더링을 수행하고; 현재 공공 디지털 현실 구역 내의 디지털 현실 장치로 디지털 콘텐츠를 전송하는 단계; 디지털 현실 장치로부터 입력 데이터를 수신하는 단계; 및 하나 이상의 디지털 현실 애플리케이션을 업데이트하는 단계를 수행하도록 더 프로그래밍된다.
일부 실시예에서, 클라우드 서버 시스템은 디지털 현실 장치가 개인 디지털 콘텐츠를 수신할 때, 디지털 현실 장치의 사용자 경험을 위해 클라우드 서버 시스템으로부터 전용 크기의 연산력을 할당하도록 추가로 프로그래밍된다. 개인 디지털 콘텐츠를 수신하는 사용자는 공공 디지털 현실 구역의 한 명 이상의 다른 사용자를 초대하여 개인 공유 디지털 현실 뷰에서의 상호 작용을 시작할 수도 있다. 초대받은 사용자가 추가 디지털 현실 장치를 통해 개인 공유 디지털 콘텐츠를 수신하면(예컨대 공유 콘텐츠 뷰에 대한 초대를 수락한 후) 추가 디지털 현실 장치를 통한 경험을 위해 대응하는 초대받은 사용자에게 클라우드 서버 시스템의 전용 크기의 연산력이 할당된다.
일 실시예에서, 한 명 이상의 사용자는 공공 디지털 콘텐츠를 클릭한 후 개인 디지털 콘텐츠를 볼 수 있다. 다른 실시예에서, 사용자는, 예컨대, 여러 가지 중에서도 제스처, 얼굴 표정, 음성, 신체, 손 또는 손가락 움직임(예를 들어, 수평 또는 수직 움직임, 회전 등), 줌 인 또는 아웃, 스타일러스 움직임, 공기 제스처, 뇌 활동, 머리 및 눈 움직임 등을 통해 디지털 콘텐츠에 관여함으로써, 공공 디지털 콘텐츠와의 다른 형태의 상호 작용을 통해 개인 디지털 콘텐츠를 볼 수 있다.
일 실시예에 따르면, 공공 증강 현실(AR) 또는 가상 현실(VR) 구역으로 공공 디지털 현실 구역에 진입하는 사용자는 AR 또는 VR 디지털 콘텐츠와 다양한 유형의 상호 작용을 즐길 수 있다. 이러한 상호 작용은 디지털 현실 애플리케이션이 공공 또는 개인 디지털 콘텐츠를 제공하는지 여부를 정의한다. 일부 실시예에서, 공공 AR 또는 VR 구역에 액세스할 때, 상호 작용 레벨은 디지털 현실 콘텐츠를 보는 것 및 디지털 현실 콘텐츠를 살펴보는 것을 포함한다. 더 높은 레벨의 상호 작용(예컨대, 클릭 또는 관여)에 대한 응답으로 사용자는 공공 뷰에서 개인 뷰로 원활하게 전환할 수 있다. 이러한 실시예에서, 클라우드 서버 시스템은 디지털 현실 장치로부터 입력 데이터를 수신하고 수신된 입력 데이터에 응답하여 적어도 하나의 디지털 현실 장치에 개인 뷰(예컨대, 개인 AR 뷰 또는 개인 VR 뷰)에 대한 액세스를 제공하도록 추가로 프로그래밍될 수 있다. 수신된 입력 데이터는, 예를 들어, 각각의 공공 증강 현실 구역 또는 공공 가상 현실 구역으로부터 공공 증강 현실 콘텐츠 또는 공공 가상 현실 콘텐츠를 클릭하는 것과 관련된 입력을 포함할 수 있다.
일부 실시예에서, 개인 AR 뷰 내의 상호 작용 레벨은 AR 콘텐츠에 관여하는 것, 개인 AR 뷰에서 개인용 VR 뷰로 전환함으로써 AR 콘텐츠에 완전히 몰입하는 것을 포함한다. 다른 실시예에서, 개인 VR 뷰 내의 상호 작용 레벨은 개인 VR 콘텐츠에 관여하는 것을 포함한다.
일부 실시예에서, 클라우드 서버는 데이터 계산과 같은 고부하 애플리케이션을 수행하고 하나 이상의 디지털 현실 애플리케이션과 같은 하나 이상의 소스로부터 디지털 콘텐츠를 렌더링하기에 충분한 컴퓨팅 리소스를 포함하는 하나 이상의 원격 서버 일 수 있다. 또한, 클라우드 서버는 결합된 단일 데이터 스트림을 적어도 하나의 디지털 현실 장치에 제공하도록 구성될 수 있다.
또 다른 실시예에서, 클라우드 서버는 낮은 레벨의 업데이트 명령, 예를 들어 그래픽 또는 오디오 라이브러리와 같은 출력 라이브러리의 인터페이스에 대한 호출 또는 애플리케이션의 이미 렌더링된 출력을 포함하여, 다양한 종류의 출력 데이터를 수신하고 처리하도록 구성된 렌더러를 포함한다. 클라우드 서버의 렌더러는 출력 데이터를 수신하고 처리하여 데이터 스트림을 생성하여 디지털 현실 장치로 전송한다. 무거운 렌더링이 클라우드 서버에서 수행되기 때문에 애플리케이션의 렌더링 출력 품질이 매우 높을 수 있으며, 예를 들어, 디지털 현실 애플리케이션에 의해 요구되는 매우 상세한 3 차원 그래픽 개체와 음향 효과 및 음악의 풍부한 표현을 포함할 수 있다. 따라서, 디지털 현실 장치는 가벼운 클라이언트로 구성되므로 무거운 렌더링 작업과 관련이 없으며 클라우드 서버에서 수신한 데이터 스트림에 대해 가벼운 컴퓨팅 작업을 적절하게 인코딩하고 처리할 수만 있으면 된다.
일 실시예에서, 클라우드 서버 시스템은 디지털 현실 장치가 증강 현실 공공 디지털 구역 간 전환, 증강 현실에서 가상 현실 공공 디지털 구역으로 전환, 가상 현실에서 증강 현실 공공 디지털 구역으로 전환 또는 가상 현실 공공 디지털 구역 간 전환을 포함하여, 하나의 공용 디지털 구역과 다른 것 사이를 전환할 수 있도록 추가로 프로그래밍될 수 있다.
일 실시예에 따르면, 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게하는 방법은 하나 이상의 서버 컴퓨터를 포함하는 클라우드 서버 시스템에 의해 수행된다. 이 방법은 클라우드 서버 시스템에 저장된 하나 이상의 디지털 현실 애플리케이션(예컨대, 홀로그램-AR 또는 VR-애플리케이션)과 연관된 공공 디지털 현실 구역에 액세스하는 하나 이상의 디지털 현실 장치를 감지하는 단계로서, 하나 이상의 디지털 현실 애플리케이션 및 대응하는 디지털 콘텐츠와의 상호 작용은 공공 디지털 구역 내의 디지털 현실 장치를 통해 공공 디지털 현실 뷰에서 볼 수 있는 것인 상기 단계; 디지털 현실 장치들 중 적어도 하나에 의해 디지털 콘텐츠와의 상호 작용 레벨을 검출하는 단계; 검출된 상호 작용 레벨이 디지털 콘텐츠와의 사전 결정된 상호 작용 레벨에 도달했는지 판정하는 단계; 및 적어도 하나의 디지털 현실 장치가 디지털 현실 애플리케이션과의 사전 결정된 상호 작용 레벨에 도달했다고 판정한 후, 적어도 하나의 디지털 현실 장치로 하여금 공공 디지털 현실 뷰에서부터, 디지털 현실 콘텐츠와 상호 작용하는 한 명 이상의 승인된 사용자(예컨대, 특정 사용자만, 제 1 사용자 및 한 명 이상의 초대받은 사용자 등)만 볼 수 있는 개인 디지털 콘텐츠를 포함하는 개인 디지털 현실 뷰로 전환할 수 있게 하는 단계를 포함한다.
일 실시예에 따르면, 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게 하는 방법은 하나 이상의 디지털 현실 애플리케이션으로부터 디지털 콘텐츠를 검색하고, 디지털 콘텐츠에 대한 데이터 계산 및 렌더링을 수행하는 단계; 클라우드 서버에 의해, 디지털 콘텐츠를 현재 공공 디지털 현실 구역에 있는 디지털 현실 장치로 전송하는 단계; 클라우드 서버에 의해, 디지털 현실 장치로부터 입력 데이터를 수신하는 단계; 및 디지털 현실 애플리케이션을 업데이트하는 단계를 포함한다.
일 실시예에 따르면, 방법은 개인 디지털 현실 뷰에 액세스하는 디지털 현실 장치에 특정 크기의 계산 공간을 제공하는 단계를 더 포함한다.
일 실시예에 따르면, 개인 디지털 현실 뷰의 사용자는 다른 사용자를 초대할 수 있는 옵션을 가질 수 있다. 다른 사용자가 수락하면, 클라우드 서버는 추가 사용자를 위해 특정 계산 공간을 할당하고 개인 디지털 현실 뷰를 공유 사용자와 공유한다. 그 후, 클라우드 서버는 개인 공유 뷰에서 디지털 콘텐츠를 제공하기 위해 필요한 데이터 계산 및 렌더링을 수행하고 마지막으로 각 사용자에게 디지털 콘텐츠를 제공한다.
상기 설명은 본 개시의 모든 측면의 완전한 목록을 포함하지 않는다. 본 개시 내용은 아래의 상세한 설명에 개시되고 특히 출원과 함께 출원된 청구 범위에서 지적되는 것들 뿐만 아니라 위에 요약된 다양한 측면의 모든 적합한 조합으로부터 실시될 수 있는 모든 시스템 및 방법을 포함하는 것으로 고려된다. 이러한 조합은 상기 설명에서 구체적으로 언급되지 않은 특별한 이점을 갖는다. 본 개시의 다른 특징 및 이점은 첨부된 도면 및 이하의 상세한 설명으로부터 명백해질 것이다.
본 개시의 특정 특징, 양태 및 이점은 아래 설명 및 첨부 도면을 참조하여 더 잘 이해될 것이다.
도 1a-1c는 일 실시예에 따른 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게 하는 시스템을 도시한다.
도 2a-2b는 일 실시예에 따른, 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게 하는 방법을 도시한다.
도 3은 일 실시예에 따른, 공공 AR 구역 내의 디지털 콘텐츠와의 사용자가 가질 수 있는 다양한 형태의 AR 상호 작용을 도시한다.
도 4는 일 실시예에 따른, 공공 VR 구역 내의 디지털 콘텐츠와의 사용자가 가질 수 있는 다양한 형태의 VR 상호 작용을 도시한다.
아래 설명에서, 다양한 실시예를 설명의 방식으로 보여주는 도면을 참조한다. 또한, 여러 가지 예를 참조하여 다양한 실시예가 설명될 것이다. 이러한 실시예들은 청구된 주제의 범위를 벗어나지 않고 설계 및 구조의 변경을 포함할 수 있음을 이해해야 한다.
도 1a-c는 일 실시예에 따라 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게 하는 시스템(100)을 도시한다. 시스템(100)에서, 사용자(102)는 하나 이상의 디지털 현실 애플리케이션(104)과 같은 하나 이상의 소스로부터 검색된 디지털 콘텐츠를 수신하고 경험할 수 있다. 디지털 콘텐츠는 클라우드 서버(106)에 의해 렌더링되고, 디지털 콘텐츠를 출력하는 디지털 현실 장치(108)를 통해 사용자(102)에 의해 시청된다. 디지털 현실 장치(108)는 여러 가지 중에서도, 예를 들어, 모바일 장치, 개인용 컴퓨터, 스마트 콘택트 렌즈, 게임 콘솔, 미디어 센터 및 헤드 마운트 디스플레이일 수 있다.
본 개시의 시스템(100)은 공공 또는 비공개 클라우드, 포그 서버 및 엔터프라이즈 시스템, 모바일 플랫폼 및 사용자 장치와 같은 에지 장치 및 시스템(이들 모두 네트워크를 통해 연결될 수 있음)을 사용하는 분산 컴퓨팅 기능을 디스플레이할 수 있는 클라우드 투 에지 인프라구조에서 구현될 수 있다. 클라우드 투 엣지 컴퓨팅 네트워크를 사용하여 컴퓨팅 파워, 컴퓨터 인프라구조(예컨대, 소위 IaaS(infrastructure as a service)를 통해), 애플리케이션 및 비즈니스 프로세스에 대한 액세는를 요청시 클라이언트 장치를 통해 사용자에게 서비스로서 제공될 수 있다. 이러한 방식으로, 물리적 서버 및 네트워크 장비를 포함한 리소스는 사용자와 리소스 및 네트워크까지의 거리 및 사용자의 컴퓨팅 요구와 같은 요인에 따라 동적으로 할당될 수 있는 공유 스토리지 및 컴퓨팅을 가능하게 한다.
일 실시예에 따르면, 하나 이상의 디지털 현실 애플리케이션(104)에 의해 제공되는 디지털 콘텐츠는 여러 가지 중에서도 3D 이미지 데이터, 3D 기하학적 구조, 3D 엔티티, 3D 감각 데이터, 3D 동적 객체, 비디오 데이터, 오디오 데이터 , 텍스트 데이터, 시간 데이터, 위치 데이터, 방향 데이터, 햅틱 데이터 및 조명 데이터 중 적어도 하나를 포함할 수 있다. 추가 실시예에서, 공공 디지털 구역에서 적어도 하나의 사용자(102)에게 제공될 디지털 콘텐츠의 하나 이상의 부분은 증강 현실(AR) 또는 가상 현실(VR) 디지털 콘텐츠을 포함할 수 있다. 사용자(102)가 AR 디지털 콘텐츠인 디지털 콘텐츠를 보는 경우, AR 디지털 콘텐츠는 사운드, 비디오, 그래픽 또는 GPS 데이터와 같은 컴퓨터 생성 감각 입력에 의해 증강된 물리적, 실제 환경 요소를 포함한다. 증강 기술은 일반적으로 현실 세계에 추가 정보 또는 가상 객체를 오버레이하는 것과 같은 환경 요소와 함께 의미론적 맥락에서 실시간으로 수행된다. AR 디지털 콘텐츠는 사용자(102)의 주변 현실 세계 또는 현실 세계 내의 가상 객체 오버레이에 대한 정보가 상호 작용 가능하고 디지털 방식으로 조작 가능하게 한다. 사용자(102)가 VR 디지털 콘텐츠인 디지털 콘텐츠를 보는 경우, VR 디지털 콘텐츠는 현실 세계를 시뮬레이션된 세계로 대체하는데 사용되는 가상 요소를 포함할 수 있다.
본 명세서에 설명된 임의의 실시예에서, 클라우드 서버(106)에 의해 수행되는 것으로 본 명세서에 설명된 기능은 단일 서버에 의해서만 수행될 필요가 없고 대신에 하나 이상의 서버를 포함하는 클라우드 서버 시스템에 의해 수행될 수 있다는 것을 이해해야한다. 일 실시예에 따르면, 클라우드 서버 시스템은 하나 이상의 디지털 현실 애플리케이션(104)으로부터 디지털 콘텐츠를 렌더링하는 것과 같은 고부하 애플리케이션을 수행하기에 충분한 컴퓨팅 리소스를 갖는 하나 이상의 원격 서버를 포함할 수 있다.
클라우드 서버(106)는 결합된 단일 데이터 스트림을 적어도 하나의 디지털 현실 장치(108)에 제공하도록 구성될 수 있다. 일 실시예에서, 클라우드 서버(106)는 밀리미터 파(mmW) 또는 mmW 및 예컨대, 5세대 무선 시스템 통신(5G)을 통한 서브 6GHz 통신 시스템의 조합을 포함하는 상이한 무선 시스템을 통해 디지털 현실 장치(108) 및 디지털 현실 애플리케이션(104)에 통신적으로 연결한다. 다른 실시예에서, 시스템은 바람직하게는 16GHz로 데이터를 제공하는 무선 근거리 네트워킹(Wi-Fi)을 통해 연결할 수 있다. 제공되는 통신 시스템은 필드 내의 엔드 포인트까지 낮은(예컨대, 약 1 내지 약 5 밀리초 엔드-투-엔드(E2E)) 대기 시간 및 높은(예컨대, 1-10 Gbps) 다운 링크 속도를 허용할 수 있고, 이는 일반적으로 매우 상호 작용적인 현실 세계 프로젝트를 실행하는데 필요한 파라미터를 준수한다. 이것은 결과 고품질, 저 지연 시간, 실시간 디지털 애플리케이션 콘텐츠 스트리밍을 야기한다. 다른 실시예에서, 시스템(100)은 4 세대 무선 시스템 통신(4G)을 통해 통신적으로 연결될 수 있거나, 4G 통신 시스템에 의해 지원될 수 있거나, 다른 유선 또는 무선 통신 시스템을 포함할 수도 있다.
일 실시예에 따르면, 클라우드 서버(106)는 저 레벨 업데이트 명령, 예를 들어, 그래픽 또는 오디오 라이브러리의 인터페이스에 대한 호출, 또는 디지털 현실 애플리케이션의 이미 렌더링된 출력을 포함하는 하나 이상의 디지털 현실 애플리케이션으로부터 수신된 다양한 종류의 출력 데이터를 수신 및 처리하도록 구성된 렌더러를 포함한다. 클라우드 서버의 렌더러는 출력 데이터를 수신 및 처리하고 디지털 현실 장치로 전송되는 데이터 스트림을 생성하도록 구성된다. 무거운 렌더링이 클라우드 서버에서 수행되기 때문에, 애플리케이션의 렌더링된 출력 품질이 매우 높을 수 있으며, 예를 들어, 디지털 현실 경험에 의해 요구되는 매우 상세한 3 차원 그래픽 개체와 음향 효과 및 음악의 풍부한 표현으로 구성될 수 있다. 따라서, 디지털 현실 장치는 가벼운 클라이언트로 구성되므로 무거운 렌더링 작업과 관련이 없으며 클라우드 서버로부터 수신된 데이터 스트림에 대해 가벼운 컴퓨팅 작업을 적절하게 인코딩하고 처리할 수 있으면 된다.
일 실시예에 따르면, 각각의 디지털 현실 장치(108)는 관성 추적 감지 메커니즘 및 트랜시버의 조합을 포함하는, 그 위에 장착된 감지 메커니즘을 포함한다. 관성 추적 감지 메커니즘은 관성 측정 장치(IMU)에 통합될 수 있는 가속도계 및 자이로 스코프와 같은 장치를 사용할 수 있다. 송수신기는 안테나와 무선 통신 신호를 송수신하도록 구현될 수 있다. 바람직하게, 트랜시버는 mmW 트랜시버이다.
mmW 안테나가 사용되는 실시예에서, mmW 트랜시버는 안테나로부터 mmW 신호를 수신하고 데이터를 다시 안테나로 전송하도록 구성된다. mmW 트랜시버에 의해 제공되는 관성 센서 및 위치 추적 및 mmW 기반 안테나에 의해 제공되는 정확한 추적, 저 지연 및 고품질 서비스(QOS) 기능은 1 센티미터 이하 또는 1 밀리미터 이하의 위치 및 방향 추적을 가능하게 할 수 있고, 이는 디지털 현실 장치(108)의 실시간 위치 및 방향을 추적할 때 정확도를 증가시킨다. 일부 실시예에서, 제 2 서버에 의한 추적은 도착 시간(TOA), 도착 각도(AOA), 또는 당업계에 알려진 다른 추적 기술(예를 들어, 시각적 이미징, 레이더 기술 등)과 같은 당업계에 알려진 여러 기술을 사용함으로써 구현될 수 있다. 대안의 실시예에서, 감지 메커니즘 및 트랜시버는 단일 추적 모듈 장치에서 함께 결합될 수 있다. 디지털 현실 장치(108)의 정확한 추적을 제공하는 것은 사용자의 시청 위치 및 방향에 맞는 뷰에서 디지털 콘텐츠를 보여주기 위해 관련될 수 있는 사용자의 신뢰할 수 있는 위치 및 방향을 표시하는데 유용할 수 있다.
다른 실시예에서, GPS, BDS, 글로나스(Glonass), QZSS, 갈릴레오(Galileo) 및 IRNSS와 같은 다중 위성 기반 내비게이션 시스템을 집합적으로 지칭하는 글로벌 내비게이션 위성 시스템(GNSS)은 장치의 위치 결정을 가능하게 하는데 사용될 수 있다. 충분한 수의 위성 신호 및 삼각법량 및 삼각 측량과 같은 기술을 사용하여 GNSS는 장치의 위치, 속도, 고도 및 시간을 계산할 수 있다. 바람직한 실시예에서, 외부 포지셔닝 시스템은 기존 셀룰러 통신 네트워크의 아키텍처를 통해 보조 GNSS(AGNSS)에 의해 증강되며, 기존 아키텍처는 5G를 포함한다. 다른 실시예에서, AGNSS 추적 시스템은 4G 셀룰러 통신 네트워크에 의해 추가로 지원된다. 실내 실시예에서, GNSS는 Wi-Fi와 같은 무선 무선 근거리 통신망을 통해 추가로 증강되며, 바람직하게는 16GHz에서 데이터를 제공하지만 이에 제한되지 않는다. 대안의 실시예에서, GNSS는 차동 GPS(DGPS), 위성 기반 증강 시스템(SBAS), 실시간 운동(RTK) 시스템과 같은 당업계에 알려진 다른 기술을 통해 증강된다. 일부 실시예에서, 장치의 추적은 장치에서 AGNSS 및 관성 센서의 조합에 의해 구현된다.
디지털 콘텐츠와의 사용자 상호 작용은 제스처 가능할 수 있으며, 이에 의해 사용자(102)는 상호 작용을 위해 하나 이상의 제스처를 사용한다. 예를 들어, 제스처는 NUI(Natural User Interface) 제스처 일 수 있다. NUI는 사용자(102)가 마우스, 키보드, 원격 제어 등과 같은 입력 장치에 의해 부과된 인위적인 제약없이 자연스럽게 장치와 상호 작용할 수 있게 하는 임의의 인터페이스 기술로 정의될 수 있다. NUI 방법의 예에는, 예컨대, 음성 인식, 터치 인식, 얼굴 인식, 스타일러스 인식, 공기 제스처(예컨대, 손 동작 및 움직임 및 기타 신체/부속 동작/포즈), 머리 및 눈 추적, 음성 및 스피치 발화와 같은 촉각 및 비촉각 인터페이스와 같은 제스처를 사용하는 방법 및 적어도 시각, 스피치, 음성, 포즈 및 터치 데이터와 관련된 기계 학습을 포함한다. NUI 기술은 터치 감지 디스플레이, 음성 및 스피치 인식, 의도 및 목표 이해, 깊이 카메라(예컨대, 입체 카메라 시스템, 적외선 카메라 시스템, 컬러 카메라 시스템 및 이들의 조합)를 사용한 동작 제스처 감지, 가속도계/자이로스코프를 사용한 동작 제스처 감지, 얼굴 인식, 3D 디스플레이, 머리, 눈 및 시선 추적, 내추럴 사용자 인터페이스를 포함하는 몰입형 증강 현실 및 가상 현실 시스템, 물론 전기장 감지 전극(예컨대, EEG(electro-encephalograph))을 사용하여 뇌 활동을 감지하는 기술 및 기타 신경 바이오 피드백 방법을 포함한다.
도 1a에 도시된 바와 같이, 사용자 A, B, C 및 D와 같은 복수의 사용자(102)는 공공 디지털 현실 구역(110)에 위치한다. 공공 디지털 현실 구역(110)에서, 사용자(102)는 디지털 현실 장치(108)를 통해 하나 이상의 디지털 현실 애플리케이션(104)으로부터 클라우드 서버(106)에 의해 검색된 공공 디지털 콘텐츠(112)를 수신하고, 보고 및 그것과 상호 작용할 수 있다. 공공 디지털 현실 구역(110)의 모든 사용자(102)는 하나 이상의 디지털 현실 애플리케이션(104)으로부터 공공 디지털 현실 콘텐츠(112)를 볼 수 있다.
도 1b에 도시된 바와 같이, 사용자 A, B 및 C가 여전히 공공 디지털 콘텐츠(112)를 수신하고, 보고 및 그것과 상호 작용하는 동안, 사용자 D는 이제 개인 디지털 콘텐츠(114)를 수신하고, 보고 및 그것과 상호 작용한다. 따라서, 사용자 A, B 및 C는 디지털 현실 애플리케이션(104)의 공공 디지털 현실 콘텐츠(112)와의 각 사용자의 상호 작용을 볼 수 있는 반면, 사용자 D와 디지털 현실 애플리케이션(104) 간의 상호 작용은 비공개이므로, 사용자 A, B 및 C가 볼 수는 없다.
일부 실시예에서, 사용자 D는 디지털 콘텐츠와의 상이한 상호 작용 레벨에 도달 한 후에 개인 디지털 콘텐츠(114)를 수신할 수 있다. 일 실시예에서, 사용자 D는 공공 디지털 콘텐츠(112)로부터의 디지털 콘텐츠를 클릭한 후에 개인 디지털 콘텐츠(114)를 수신할 수 있다. 다른 실시예에서, 사용자(102)는 제스처, 얼굴 표정, 음성, 신체, 손 또는 손가락 움직임, 스타일러스 움직임, 공기 제스처, 뇌 활동, 머리와 눈의 움직임 등을 통해 공공 디지털 콘텐츠(112)로부터의 디지털 콘텐츠와의 다른 형태의 상호 작용을 통해 개인 디지털 콘텐츠(114)를 수신할 수 있다. 이러한 실시예는 사용자가 그러한 전환을 구체적으로 선택하거나 요청할 필요없이 전환을 수행할지 여부를 판정하기 위해 디지털 콘텐츠와의 상호 작용 레벨에 반응함으로써 공공에서 비공개 디지털 현실 경험으로의 원활한 전환을 제공한다. 이를 통해 사용자는 디지털 콘텐츠의 중단없이 공공 경험에서 개인 경험으로 전환하는 이점을 누릴 수 있다.
사용자 D가 개인 디지털 콘텐츠(114) 수신을 시작하면, 클라우드 서버(106)로부터의 전용 크기의 연산력이 사용자 D에게 지정된다. 그 순간, 공공 디지털 현실 경험을 제공하는 디지털 현실 애플리케이션(104)으로 시작된 것은 비공개 디지털 현실 경험을 제공하는 디지털 현실 애플리케이션(104)이 된다.
도 1c에 도시된 바와 같이, 사용자 B 및 C가 여전히 공공 디지털 콘텐츠(112)를 수신하고, 보고, 그것과 상호 작용하는 동안, 사용자 A 및 D는 이제 공유된 개인 디지털 콘텐츠(116)를 수신하고, 보고, 그것과 상호 작용하고 있다. 사용자 A가 공유된 개인 디지털 콘텐츠(116)에 액세스하기 위해, 이미 개인 디지털 콘텐츠(114)를 수신하기 시작한 사용자 D는 이 뷰에 액세스하도록 사용자 A를 초대해야 한다. 사용자 A가 공유된 개인 디지털 콘텐츠(116)를 수신하기 시작하면, 클라우드 서버(106)로부터의 전용 크기의 연산력이 사용자 A에게 전용된다.
도 2a-2b는 일 실시예에 따른, 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게 하는 방법(200a-200b)을 도시한다.
도 2a의 방법(200a)은 단계(202)에서 시작되며, 여기서 클라우드 서버는 클라우드 서버에 저장된 하나 이상의 디지털 현실 애플리케이션과 관련된 공용 디지털 현실 구역에 액세스하는 하나 이상의 디지털 현실 장치를 감지하며, 여기서 하나 이상의 홀로그램 및 해당 디지털 콘텐츠와의 상호 작용은 공공 디지털 구역의 모든 사용자가 볼 수 있다. 그 다음, 단계(204)에서, 클라우드 서버는 디지털 현실 애플리케이션과 관련된 디지털 콘텐츠를 검색하고, 데이터를 계산하고, 디지털 콘텐츠를 렌더링한다. 프로세스 후에, 단계(206)에서, 클라우드 서버는 디지털 콘텐츠를 현재 공공 디지털 현실 구역에 있는 사용자의 복수의 디지털 현실 장치로 전송한다. 그 다음, 클라우드 서버는 단계(208)에서 볼 수 있듯이 디지털 현실 장치를 통해 사용자로부터 입력을 수신하고 디지털 현실 애플리케이션을 업데이트한다.
단계 (210)에서, 방법(200a)은 사용자에게 개인 디지털 현실 뷰에 액세스하는 옵션을 제공하며, 여기서 특정 양의 계산 공간이 개인 디지털 현실 뷰에 액세스하는 디지털 현실 장치에 제공된다. 개인 디지털 현실 뷰에 액세스하는 것은 클릭 또는 디지털 콘텐츠와의 다른 형태의 상호 작용과 같은 다양한 방법을 통해 수행될 수 있다. 사용자가 개인 디지털 현실 뷰에 액세스하기로 결정하지 않으면, 방법(200)은 사용자가 계속해서 공공 디지털 콘텐츠를 보는 단계(204)로 돌아갈 수 있다. 그러나, 사용자가 개인 디지털 현실 뷰에 액세스하기로 결정하면, 클라우드 서버는 단계(212)에서 볼 수 있듯이 사용자의 개인 디지털 현실 뷰를 위한 특정 계산 공간을 할당한다.
일부 실시예에서, 클라우드 서버(106)는 공공 디지털 현실 구역에 액세스하는 디지털 현실 장치를 검출하고; 디지털 현실 장치에 의한 디지털 콘텐츠와의 상호 작용 레벨을 검출하고; 그리고 검출된 상호 작용 레벨이 디지털 콘텐츠와의 상호 작용의 미리 결정된 임계 레벨에 도달했다고 결정함으로써 사용자가 개인 디지털 현실 뷰로 전환할지 여부를 결정하도록 프로그래밍된다. 가능한 상호 작용 레벨은 디지털 콘텐츠를 보는 것, 디지털 콘텐츠를 살펴 보는 것, 디지털 콘텐츠를 클릭하는 것, 디지털 콘텐츠에 관여하는 것 및 디지털 콘텐츠에 몰입하는 것을 포함한다. 개인 뷰로 전환하기 위한 상호 작용의 임계 레벨은 예를 들어 디지털 콘텐츠를 클릭하거나 관여하는 것일 수 있다.
예시적인 시나리오에서, 클라우드 서버가 공공 디지털 현실 구역에 액세스하는 하나 이상의 디지털 현실 장치를 감지하고 디지털 현실 장치가 디지털 콘텐츠와 사전 결정된 래밸의 상호 작용에 도달 한 후(예를 들어, 클릭 레벨 또는 관여 레벨), 클라우드 서버는 디지털 현실 장치가 공공 디지털 현실 뷰에서 디지털 콘텐츠를 포함하는 개인 디지털 현실 뷰로 전환할 수 있도록 한다.
일부 실시예에서, 클라우드 서버 시스템은 지리적 좌표를 하나 이상의 디지털 현실 애플리케이션과 연관된 위치 주변의 사전 결정된 값으로 구성함으로써 공공 디지털 현실 구역을 하나 이상의 디지털 현실 애플리케이션과 연관시켜, 디지털 현실 장치가 미리 결정된 지리적 좌표 내에 위치할 때만, 그 디지털 현실 장치를 통해 디지털 현실 애플리케이션에 액세스할 수 있다. 이러한 연관은 디지털 현실 애플리케이션을 주변에 공공 디지털 현실 구역의 한계를 정하는 것으로서 언급 수 있다. 이러한 한계 결정은 대응하는 애플리케이션(104)의 개발 단계 동안 구성될 수 있다. 또 다른 실시예에서, 공공 디지털 구역은 홀로그램 애플리케이션(예를 들어, AR 또는 VR 게임 또는 활동)에서 사용자로부터의 성취에 기초하여 변할 수 있고, 따라서 하나 이상의 특정 사용자(102)에 대해 변경될 수 있다. 예를 들어, 보물 찾기 애플리케이션을 포함하는 공공 디지털 구역은 상기 애플리케이션의 제 1 레벨에서 시작하는 모든 사용자(102)에 대해 활성화될 수 있지만, 한 명 이상의 사용자(102)가 공공 디지털 구역 내에서 보물을 찾으면, 그 공공 디지털 구역은 보물을 발견한 특정 하나 이상의 사용자(102)에 대해서만 다른 지리적 위치로 이동할 수 있다.
도 2b는 방법(200a)에서 이어지는 방법(200b)을 도시한다. 단계(214)에서, 클라우드 서버는 개인 디지털 현실 뷰를 위해 디지털 현실 애플리케이션으로부터 디지털 콘텐츠를 제공하기 위해 필요한 데이터 계산 및 렌더링을 수행하고, 그 후 디지털 콘텐츠를 각 사용자에게 제공한다. 또한 단계(214)에서, 클라우드 서버는 디지털 현실 장치를 통해 비공개 뷰에서 사용자로부터 입력을 계속 수신할 수 있으며, 이는 서버가 디지털 현실 장치에 의해 전송되고 출력되는 디지털 현실 애플리케이션을 계속 업데이트하도록 트리거한다.
그 후, 방법(200b)은 현재 개인 디지털 현실 뷰에 있는 사용자에게 단계(216)에서 볼 수 있는 바와 같이, 동일한 개인 디지털 현실 뷰에 액세스하도록 다른 사용자를 초대하는 옵션을 제공한다. 단계(218)에서 볼 수 있듯이, 사용자는 개인 디지털 현실 뷰에 대한 초대를 승인하거나 거부할 수 있다. 사용자가 초대를 승인하면, 클라우드 서버는 단계(220)에서 볼 수 있듯이 추가 사용자를 위해 특정 계산 공간을 할당하고 개인 디지털 현실 뷰를 공유 사용자와 공유한다. 사용자가 초대를 거부하면, 오리지널 비공개 뷰의 사용자는 개인 디지털 콘텐츠를 개별적으로 계속 수신할 수 있으며, 이에 따라 방법은 위에서 설명한 단계(214)로 돌아간다. 마지막으로, 단계(222)에서 클라우드 서버는 개인 공유 뷰 내에서 디지털 콘텐츠를 제공하기 위해 필요한 데이터 계산을 하고 디지털 콘텐츠를 각 사용자에게 제공한다. 추가로 단계(222)에서, 클라우드 서버는 디지털 현실 장치를 통해 비공개 공유 뷰에서의 사용자로부터 입력을 계속 수신할 수 있으며, 이는 서버가 디지털 현실 장치에 의해 전송 및 출력되는 디지털 현실 애플리케이션을 계속 업데이트하도록 트리거한다.
도 3은 일 실시예에 따라 사용자가 공공 AR 구역에서 디지털 콘텐츠와 가질 수 있는 다양한 형태의 AR 상호 작용(300)을 도시한다. 디지털 현실 애플리케이션으로부터의 AR 디지털 콘텐츠와의 AR 상호 작용(300)은 하나 이상의 디지털 현실 애플리케이션으로부터의 AR 디지털 콘텐츠를 보는 것(302), 살펴보는 것(304), 클릭하는 것(306), 관여하는 것(308) 및 완전히 몰입하는 것(310)을 포함한다.
일부 실시예에서, 사용자가 하나 이상의 디지털 현실 애플리케이션으로부터 공공 AR 디지털 콘텐츠를 보고(302), 살펴볼(304) 때, 사용자는 공공 AR 뷰(312)에 액세스할 수 있으며, 이에 따라 사용자는 공공 AR 디지털 콘텐츠를 수신하고 보고, 그것과 상호 작용할 수 있다. 사용자가 공공 AR 뷰(312) 내의 AR 디지털 콘텐츠를 클릭하면(306), 사용자는 개인 디지털 현실 뷰(314)에 액세스할 수 있으며, 이에 따라 사용자는 개인 AR 디지털 콘텐츠를 수신하고 보고 그것과 상호 작용할 수 있다. 개인 디지털 현실 뷰(314) 내의 모든 레벨의 AR 상호 작용(300)은 AR 디지털 콘텐츠로의 몰입으로 간주된다.
"~을 클릭"이라는 용어는 마우스로 디지털 콘텐츠를 클릭하는 행위를 포함하는 데 사용될 수 있지만, 특정 디지털 콘텐츠를 선택하는 데 사용되는 다른 입력 장치(예컨대, 트랙 패드 및 터치 스크린)에 적합한 다른 형태의 입력(예컨대, 탭핑)도 포함할 수 있다.
AR 상호 작용(300)의 맥락에서 본 명세서에 사용되는 용어 "보는 것"은 제한된 수의 초 동안(즉, 시간 성분을 포함) 또는 제한된 수의 관심 지점(즉, 공간 성분을 포함)을 향해 디지털 현실 애플리케이션으로부터 AR 디지털 콘텐츠 방향으로 자신의 눈을 향하게 하는 행위를 지칭한다. AR 상호 작용(300)과 관련하여 본 명세서에 사용되는 용어 "살펴보는 것"은 또한 시간 성분 및/또는 공간 성분을 포함할 수 있으며, "보는 것"의 시간보다 많은 수의 초 동안, 또는 "보는 것"에서 보다 더 많은 특정 수의 관심 지점에 눈을 고정시키는 행위를 지칭한다.
AR 상호 작용(300)과 관련하여 본 명세서에 사용되는 용어 "관여하는 것"은 제스처, 얼굴 표정, 음성, 신체, 손 또는 손가락 움직임(예를 들어, 임의의 각도에서의 수평 또는 수직 움직임, 축을 중심으로 한 회전 등), 줌 인 또는 아웃, 스타일러스 움직임, 공기 제스처, 뇌 활동, 머리와 눈의 움직임을 포함하는 더 깊은 레벨의 상호작용을 지칭하지만, 보는 것, 살펴보는 것, 및 클릭하는 것과 같은 더 단순한 형태의 상호작용은 배제한다.
AR 상호 작용(300)과 관련하여 본 명세서에서 사용되는 용어 "완전히 몰입하는 것" 또는 "완전 몰입"은 가장 깊은 레벨의 상호 작용을 지칭하며, 현재 개인 AR 뷰에서 개인 VR 뷰로 전환하는 것을 포함할 수 있다. 완전 몰입은 한 명 이상의 사용자가 비공개 VR 뷰에 있을 때 발생하는 모든 상호 작용을 포함한다. 개인 VR 뷰에서의 디지털 현실 애플리케이션은 사용자에게 비공개 세션을 제공하여 그들의 비공개 뷰에서 특정 사용자만 디지털 콘텐츠를 사용할 수 있도록 한다.
도 4는 일 실시예에 따라 사용자가 가질 수 있는 공공 VR 구역에서의 디지털 콘텐츠와의 다양한 형태의 VR 상호 작용(400)을 도시한다. 디지털 현실 애플리케이션으로부터의 VR 디지털 콘텐츠와의 VR 상호 작용(400)은 보는 것(402), 살펴보는 것(404), 클릭하는 것(406) 및 하나 이상의 디지털 현실 애플리케이션으로부터의 VR 디지털 콘텐츠에 완전히 몰입하는 것(408)을 포함한다.
사용자가 하나 이상의 디지털 현실 애플리케이션으로부터 VR 디지털 콘텐츠를 보고(402) 살펴보고(404) 볼 때, 사용자는 공공 VR 뷰(410)에 액세스할 수 있으며, 이에 따라 사용자는 공공 디지털 콘텐츠를 수신하고 보고 그것과 상호 작용할 수 있다. 사용자가 공공 VR 뷰(410)에서 VR 디지털 콘텐츠를 클릭(406)하면, 사용자는 개인 디지털 현실 뷰(412)에 액세스할 수 있으며, 이에 따라 사용자는 이제 개인 VR 디지털 콘텐츠를 수신하고 보고 그것과 상호 작용할 수 있다.
AR 상호 작용(400)의 맥락에서 본 명세서에 사용되는 용어 "보는 것"은 제한된 수의 초 동안(즉, 시간 성분을 포함) 또는 제한된 수의 관심 지점(즉, 공간 성분을 포함)을 향해 디지털 현실 애플리케이션으로부터 AR 디지털 콘텐츠 방향으로 자신의 눈을 향하게 하는 행위를 지칭한다. AR 상호 작용(400)과 관련하여 본 명세서에 사용되는 용어 "살펴보는 것"은 또한 시간 성분 및/또는 공간 성분을 포함할 수 있으며, "보는 것"의 시간보다 많은 수의 초 동안, 또는 "보는 것"에서 보다 더 많은 특정 수의 관심 지점에 눈을 고정시키는 행위를 지칭한다.
AR 상호 작용(400)과 관련하여 본 명세서에서 사용되는 용어 "완전히 몰입하는 것" 또는 "완전 몰입"은 가장 깊은 레벨의 상호 작용을 지칭하며, 현재 개인 AR 뷰에서 개인 VR 뷰로 전환하는 것 및 개인 VR 뷰 내의 VR 뷰에 관여하는 것을 포함할 수 있다. 완전한 몰입에서의 관여 상호 작용에는 제스처, 얼굴 표정, 스피치, 신체, 손 또는 손가락 움직임(예컨대, 수평 또는 수직 움직임, 회전 등), 줌 인 또는 아웃, 스타일러스 움직임, 공기 제스처, 뇌 활동 및 비공개 VR 뷰 내에서 머리와 눈의 움직임을 포함할 수 있다. 비공개 VR 뷰에서, 디지털 현실 애플리케이션은 사용자에게 비공개 세션을 제공하여 비공개 VR 뷰에서 특정 사용자만 디지털 콘텐츠를 사용할 수 있도록 한다.
일부 실시예에서, 상호 작용 및/또는 관련 전환 이벤트를 나타내는 데이터가 저장 및 분석될 수 있다. 시간 경과에 따른 한 명 이상의 사용자의 전환 및 상호 작용 데이터는 상호 작용 및 전환의 기록을 형성할 수 있다. 또 다른 실시예에서, 전환 및 상호 작용 데이터는 블록 체인 또는 분산 원장 기반 데이터베이스와 같은 스토리지 데이터베이스에 등록된다. 이러한 방식으로, 시스템은 상당한 상업적 가치를 가질 수 있는 거래 또는 상호 작용 증명을 저장할 수 있다. 예를 들어, 공공에서 비공개 뷰로의 관련 전환을 포함하여 상호 작용의 히스토리와 관련된 데이터는 비즈니스 관련 상업적 로직의 처리를 자동화하기 위해 분석될 수 있고, 이를 통해, 예를 들어 노출 누적 분석, 상호 작용 관련 지불금(예컨대, 응시 시간 및 관련 지불금 평가), 수익 분할 등을 통해 디지털 미디어 구매 모델, 시장 조사 및 비즈니스 분석을 지원한다.
특정 실시예가 첨부된 도면에서 설명되고 도시되었지만, 그러한 실시예는 단지 예시 일 뿐이고 광범위한 개시를 제한하지 않으며, 당업자에게 다양한 다른 변형이 발생할 수 있으므로, 본 발명은 도시되고 설명된 특정 구성 및 배열로 제한되지 않는다는 것을 이해해야 한다. 따라서, 설명은 제한적인 것이 아니라 예시적인 것으로 간주되어야 한다.

Claims (20)

  1. 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게 하는 시스템으로서,
    하나 이상의 서버 컴퓨터를 포함하는 클라우드 서버 시스템을 포함하고, 상기 클라우드 서버 시스템은 하나 이상의 디지털 현실 애플리케이션을 저장하고 있고 그리고:
    상기 클라우드 서버에 저장된 상기 하나 이상의 디지털 현실 애플리케이션 및 대응하는 디지털 콘텐츠와의 상호 작용을 공공 디지털 구역 내의 디지털 현실 장치를 통한 공공 디지털 현실 뷰에서 볼 수 있는 공공 디지털 구역의 한계를 정하고(delimitate);
    상기 공공 디지털 현실 구역에 접근하는 상기 디지털 현실 장치 중 적어도 하나를 감지하고;
    상기 적어도 하나의 디지털 현실 장치에 의한 상기 디지털 콘텐츠와의 상호 작용의 레벨을 검출하고;
    검출된 상호 작용 레벨이 상기 디지털 콘텐츠와의 사전 결정된 상호 작용 레벨에 도달했는지를 판정하고; 그리고
    상기 적어도 하나의 디지털 현실 장치가 상기 디지털 콘텐츠와의 사전 결정된 상호 작용 레벨에 도달한 후, 상기 적어도 하나의 디지털 현실 장치로 하여금 상기 공공 디지털 현실 뷰로부터 상기 디지털 콘텐츠와 상호 작용하는 한 명 이상의 승인된 사용자만 볼 수 있는 개인 디지털 콘텐츠를 포함하는 개인 디지털 현실 뷰로 전환할 수 있게 하도록
    프로그래밍되어 있는 것을 특징으로 하는 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게 하는 시스템.
  2. 제 1 항에 있어서, 상기 클라우드 서버 시스템은:
    상기 하나 이상의 디지털 현실 애플리케이션으로부터 상기 디지털 콘텐츠를 검색하고, 그리고 상기 디지털 콘텐츠에 대한 데이터 계산 및 렌더링을 수행하고;
    상기 디지털 콘텐츠를 상기 공공 디지털 현실 구역 내의 상기 디지털 현실 장치로 전송하고;
    상기 디지털 현실 장치로부터 입력 데이터를 수신하고; 그리고
    상기 하나 이상의 디지털 현실 애플리케이션을 업데이트 하도록
    더 프로그래밍된 것을 특징으로 하는 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게 하는 시스템.
  3. 제 1 항에 있어서, 상기 클라우드 서버 시스템은 상기 적어도 하나의 디지털 현실 장치가 개인 디지털 콘텐츠를 수신하기 시작한 때, 상기 적어도 하나의 디지털 현실 장치에 전용의 크기의 연산력을 할당하도록 더 프로그래밍된 것을 특징으로 하는 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게 하는 시스템.
  4. 제 1 항에 있어서, 상기 하나 이상의 디지털 현실 애플리케이션은 상기 개인 디지털 현실 뷰에 합류(join)하도록 다른 사용자를 초대할 수 있는 옵션을 제공하도록 구성되고, 상기 클라우드 서버 시스템은 상기 개인 디지털 현실 뷰에 합류하라는 초대의 수락 시, 하나 이상의 추가 디지털 현실 장치를 위한 특정 계산 공간을 할당하고 초대를 수락한 사용자와 상기 개인 디지털 현실 뷰를 공유하도록 더 프로그래밍된 것을 특징으로 하는 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게 하는 시스템.
  5. 제 1 항에 있어서, 상기 공공 디지털 구역은 공공 증강 현실 구역 또는 공공 가상 현실 구역인 것을 특징으로 하는 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게 하는 시스템.
  6. 제 1 항에 있어서, 증강 현실 또는 가상 현실 내의 공공 디지털 구역에 액세스 할 때, 검출된 상호 작용 레벨은 디지털 콘텐츠를 보는 것 및 디지털 콘텐츠를 살펴보는 것을 포함하는 복수의 상호 작용 레벨 중에서 선택된 것을 특징으로 하는 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게 하는 시스템.
  7. 제 1 항에 있어서, 상기 클라우드 서버 시스템은:
    상기 적어도 하나의 디지털 현실 장치로부터, 각각의 공공 증강 현실 구역 또는 공공 가상 현실 구역으로부터 공공 증강 현실 콘텐츠 또는 공공 가상 현실 콘텐츠를 클릭하는 것과 연관된 입력을 포함하는 입력 데이터를 수신하고; 그리고
    수신된 입력 데이터에 응답하여, 상기 적어도 하나의 디지털 현실 장치에 개인 증강 현실 뷰 또는 개인 가상 현실 뷰에 대한 액세스를 제공하도록
    더 프로그래밍된 것을 특징으로 하는 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게 하는 시스템.
  8. 제 7 항에 있어서, 상기 수신된 입력 데이터는 제스처, 얼굴 표정, 말, 터치, 스타일러스 움직임, 공기 제스처, 뇌 활동, 머리 및 눈 움직임 중 하나 이상을 더 포함하는 것을 특징으로 하는 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게 하는 시스템.
  9. 제 7 항에 있어서, 상기 개인 증강 현실 뷰에서의 상호 작용 레벨은 상기 증강 현실 콘텐츠에 관여하는 것, 및 상기 개인 증강 현실 뷰로부터 상기 개인 가상 현실 뷰로 전환함으로써 상기 증강 현실 콘텐츠에 완전히 몰입하는 것을 포함하고, 상기 개인 가상 현실 뷰에서의 상호 작용 레벨은 상기 개인 가상 현실 콘텐츠에 관여하는 것을 포함하는 것을 특징으로 하는 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게 하는 시스템.
  10. 제 1 항에있어서, 상기 클라우드 서버 시스템은 상기 디지털 현실 장치로 하여금, 증강 현실 공공 디지털 구역 간 전환, 증강 현실에서 가상 현실 공공 디지털 구역으로의 전환, 가상 현실에서 증강 현실 공공 디지털 구역으로의 전환, 또는 가상 현실 공공 디지털 구역 간 전환을 포함하는, 하나의 공공 디지털 구역과 다른 것 사이에서 전환할 수 있게 하도록 더 프로그래밍된 것을 특징으로 하는 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게 하는 시스템.
  11. 하나 이상의 서버 컴퓨터를 포함하는 클라우드 서버 시스템에 의해 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게 하는 방법으로서,
    상기 하나 이상의 디지털 현실 애플리케이션 및 대응하는 디지털 콘텐츠와의 상호 작용을 상기 공공 디지털 구역 내의 상기 디지털 현실 장치를 통해 공공 디지털 현실 뷰에서 볼 수 있는, 상기 클라우드 서버 시스템에 저장된 하나 이상의 디지털 현실 애플리케이션과 연관된 공공 디지털 현실 구역에 디지털 현실 장치가 접근하고 있음을 감지하는 단계,
    상기 디지털 현실 장치들 중 적어도 하나에 의한 상기 디지털 콘텐츠와의 상호 작용 레벨을 검출하는 단계;
    검출된 상호 작용 레벨이 상기 디지털 콘텐츠와의 사전 결정된 상호 작용 레벨에 도달했음을 판정하는 단계; 및
    상기 적어도 하나의 디지털 현실 장치가 상기 디지털 현실 애플리케이션과의 사전 결정된 상호 작용 레벨에 도달했다고 판정한 후, 상기 적어도 하나의 디지털 현실 장치로 하여금, 상기 공공 디지털 현실 뷰로부터, 상기 디지털 콘텐츠와 상호 작용하는 하나 이상의 인증된 사용자만 볼 수 있는 개인 디지털 콘텐츠를 포함하는 개인 디지털 현실 뷰로 전환할 수 있게 하는 단계를 포함하는 것을 특징으로 하는 하나 이상의 서버 컴퓨터를 포함하는 클라우드 서버 시스템에 의해 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게 하는 방법.
  12. 제 11 항에 있어서,
    상기 클라우드 서버 시스템에 의해, 상기 하나 이상의 디지털 현실 애플리케이션으로부터 디지털 콘텐츠를 검색하고, 상기 디지털 콘텐츠에 대한 데이터 계산 및 렌더링을 수행하는 단계;
    상기 클라우드 서버에 의해, 상기 디지털 콘텐츠를 상기 공공 디지털 현실 구역 내의 상기 디지털 현실 장치로 전송하는 단계;
    상기 클라우드 서버에 의해, 상기 디지털 현실 장치로부터 입력 데이터를 수신하는 단계; 및
    상기 하나 이상의 디지털 현실 애플리케이션을 업데이트하는 단계
    를 더 포함하는 것을 특징으로 하는 하나 이상의 서버 컴퓨터를 포함하는 클라우드 서버 시스템에 의해 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게 하는 방법.
  13. 제 11 항에 있어서, 상기 개인 디지털 현실 뷰에 접근하는 적어도 하나의 디지털 현실 장치에 특정 양의 계산 공간을 제공하는 단계를 더 포함하는 것을 특징으로 하는 하나 이상의 서버 컴퓨터를 포함하는 클라우드 서버 시스템에 의해 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게 하는 방법.
  14. 제 10 항에 있어서,
    상기 하나 이상의 디지털 현실 애플리케이션에 의해, 다른 사용자를 상기 개인 디지털 현실 뷰에 합류하도록 초대할 수 있는 옵션을 제공하는 단계; 및
    초대받은 사용자가 상기 개인 디지털 현실 뷰에 합류하라는 초대를 수락하면, 상기 클라우드 서버 시스템에 의해, 상기 하나 이상의 추가 디지털 현실 장치를 위한 특정 계산 공간을 할당하고 초대를 수락한 사용자와 상기 개인 디지털 현실 뷰를 공유하는 단계
    를 더 포함하는 것을 특징으로 하는 하나 이상의 서버 컴퓨터를 포함하는 클라우드 서버 시스템에 의해 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게 하는 방법.
  15. 제 10 항에 있어서, 상기 공공 디지털 구역은 공공 증강 현실 구역 또는 공공 가상 현실 구역인 것을 특징으로 하는 하나 이상의 서버 컴퓨터를 포함하는 클라우드 서버 시스템에 의해 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게 하는 방법.
  16. 제 10 항에 있어서, 증강 현실 또는 가상 현실에서 상기 공공 디지털 구역에 접근하는 단계를 더 포함하고, 검출된 상호 작용 레벨은 디지털 콘텐츠를 보는 것 및 디지털 콘텐츠를 살펴보는 것을 포함하는 복수의 상호 작용 레벨 중에서 선택된 것을 특징으로 하는 하나 이상의 서버 컴퓨터를 포함하는 클라우드 서버 시스템에 의해 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게 하는 방법.
  17. 제 15 항에 있어서,
    상기 적어도 하나의 디지털 현실 장치로부터 입력 데이터를 수신하는 단계로서, 상기 수신된 입력 데이터는 각각의 공공 증강 현실 구역 또는 공공 가상 현실 구역으로부터 공공 증강 현실 콘텐츠 또는 공공 가상 현실 콘텐츠를 클릭하는 것과 연관된 입력을 포함하는 것인 상기 단계;
    수신된 입력 데이터에 응답하여, 상기 적어도 하나의 디지털 현실 장치에 개인 증강 현실 뷰 또는 개인 가상 현실 뷰에 대한 액세스를 제공하는 단계
    를 더 포함하는 것을 특징으로 하는 하나 이상의 서버 컴퓨터를 포함하는 클라우드 서버 시스템에 의해 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게 하는 방법.
  18. 제 17 항에 있어서, 상기 수신된 입력 데이터는 제스처, 얼굴 표정, 음성, 신체, 손 또는 손가락 움직임, 스타일러스 움직임, 공기 제스처, 뇌 활동 또는 머리 및 눈 움직임 중 하나 이상을 더 포함하는 것을 특징으로 하는 하나 이상의 서버 컴퓨터를 포함하는 클라우드 서버 시스템에 의해 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게 하는 방법.
  19. 제 17 항에 있어서, 개인 증강 현실 뷰에서의 상호 작용 레벨은 증강 현실 콘텐츠에 관여하는 것, 및 상기 개인 증강 현실 뷰에서 상기 개인 가상 현실 뷰로 전환함으로써 상기 증강 현실 콘텐츠에 완전히 몰입하는 것을 포함하고, 상기 개인 가상 현실 뷰에서의 상호 작용 레벨은 상기 개인 가상 현실 콘텐츠에 관여하는 것을 포함하는 것을 특징으로 하는 하나 이상의 서버 컴퓨터를 포함하는 클라우드 서버 시스템에 의해 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게 하는 방법.
  20. 제 11 항에 있어서, 상기 디지털 현실 장치로 하여금, 증강 현실 공공 디지털 구역 간 전환, 증강 현실에서 가상 현실 공공 디지털 구역으로의 전환, 가상 현실에서 증강 현실 공공 디지털 구역으로의 전환, 또는 가상 현실 공공 디지털 구역 간 전환을 포함하여, 하나의 공공 구역과 다른 것 사이에서 전환할 수 있도록 하는 것을 특징으로 하는 하나 이상의 서버 컴퓨터를 포함하는 클라우드 서버 시스템에 의해 공공에서 개인으로의 디지털 현실 경험 전환을 가능하게 하는 방법.
KR1020200100533A 2019-08-20 2020-08-11 공공에서 개인 디지털 현실 경험으로의 전환 KR102550986B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/545,947 US11481980B2 (en) 2019-08-20 2019-08-20 Transitioning from public to personal digital reality experience
US16/545,947 2019-08-20

Publications (2)

Publication Number Publication Date
KR20210023704A true KR20210023704A (ko) 2021-03-04
KR102550986B1 KR102550986B1 (ko) 2023-07-05

Family

ID=72139455

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200100533A KR102550986B1 (ko) 2019-08-20 2020-08-11 공공에서 개인 디지털 현실 경험으로의 전환

Country Status (5)

Country Link
US (1) US11481980B2 (ko)
EP (1) EP3783460A1 (ko)
JP (1) JP7217990B2 (ko)
KR (1) KR102550986B1 (ko)
CN (1) CN112416567B (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10275919B1 (en) * 2018-02-06 2019-04-30 International Business Machines Corporation Preventing transition shocks during transitions between realities
WO2022239939A1 (ko) * 2021-05-13 2022-11-17 삼성전자 주식회사 콘텐트 공유 방법 및 이를 위한 전자 장치
US20230086621A1 (en) * 2021-09-23 2023-03-23 At&T Intellectual Property I, L.P. Experience and transitioning between virtual reality and augmented reality environments using a virtual assistant

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180074332A1 (en) * 2015-04-24 2018-03-15 Eon Reality, Inc. Systems and methods for transition between augmented reality and virtual reality
US20180157333A1 (en) * 2016-12-05 2018-06-07 Google Inc. Information privacy in virtual reality

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2309459A1 (en) 1999-06-10 2000-12-10 International Business Machines Corporation System for personalized field of view in a broadcast environment
US9275254B2 (en) * 2011-03-22 2016-03-01 Fmr Llc Augmented reality system for public and private seminars
US10127563B2 (en) * 2011-09-15 2018-11-13 Stephan HEATH System and method for providing sports and sporting events related social/geo/promo link promotional data sets for end user display of interactive ad links, promotions and sale of products, goods, gambling and/or services integrated with 3D spatial geomapping, company and local information for selected worldwide locations and social networking
US10217117B2 (en) * 2011-09-15 2019-02-26 Stephan HEATH System and method for social networking interactions using online consumer browsing behavior, buying patterns, advertisements and affiliate advertising, for promotions, online coupons, mobile services, products, goods and services, entertainment and auctions, with geospatial mapping technology
US20140368537A1 (en) * 2013-06-18 2014-12-18 Tom G. Salter Shared and private holographic objects
US20150062158A1 (en) 2013-08-28 2015-03-05 Qualcomm Incorporated Integration of head mounted displays with public display devices
JP2015118578A (ja) 2013-12-18 2015-06-25 マイクロソフト コーポレーション 拡張現実情報詳細
US9792594B1 (en) * 2014-01-10 2017-10-17 Wells Fargo Bank, N.A. Augmented reality security applications
JP2016048301A (ja) 2014-08-27 2016-04-07 株式会社ニコン 電子機器
US10031648B2 (en) * 2014-12-31 2018-07-24 Trading Technologies International, Inc. Systems and methods to obfuscate market data on a trading device
US9898864B2 (en) * 2015-05-28 2018-02-20 Microsoft Technology Licensing, Llc Shared tactile interaction and user safety in shared space multi-person immersive virtual reality
US10511895B2 (en) * 2015-10-09 2019-12-17 Warner Bros. Entertainment Inc. Cinematic mastering for virtual reality and augmented reality
US10795449B2 (en) * 2015-12-11 2020-10-06 Google Llc Methods and apparatus using gestures to share private windows in shared virtual environments
US10657701B2 (en) 2016-06-30 2020-05-19 Sony Interactive Entertainment Inc. Dynamic entering and leaving of virtual-reality environments navigated by different HMD users
US10482662B2 (en) * 2016-06-30 2019-11-19 Intel Corporation Systems and methods for mixed reality transitions
US20180096506A1 (en) * 2016-10-04 2018-04-05 Facebook, Inc. Controls and Interfaces for User Interactions in Virtual Spaces
US10445523B2 (en) * 2016-10-14 2019-10-15 Google Llc Information privacy in virtual reality
US10642991B2 (en) 2016-10-14 2020-05-05 Google Inc. System level virtual reality privacy settings
DE202017105929U1 (de) * 2016-10-14 2018-01-09 Google LLC (n.d.Ges.d. Staates Delaware) Privatsphäre-Einstellungen für virtuelle Realität
US20180211183A1 (en) * 2017-01-25 2018-07-26 At&T Intellectual Property I, L.P. Facilitation of augmented reality spaces as a service
US20180255285A1 (en) * 2017-03-06 2018-09-06 Universal City Studios Llc Systems and methods for layered virtual features in an amusement park environment
US10249095B2 (en) 2017-04-07 2019-04-02 Microsoft Technology Licensing, Llc Context-based discovery of applications
US20180356885A1 (en) * 2017-06-10 2018-12-13 Tsunami VR, Inc. Systems and methods for directing attention of a user to virtual content that is displayable on a user device operated by the user
US10331874B1 (en) * 2018-06-06 2019-06-25 Capital One Services, Llc Providing an augmented reality overlay to secure input data
US20190379948A1 (en) * 2018-06-12 2019-12-12 Lewis McClam Vicinity generated advertisements with zone based tracking of 3d objects in a 3d enviroment

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180074332A1 (en) * 2015-04-24 2018-03-15 Eon Reality, Inc. Systems and methods for transition between augmented reality and virtual reality
US20180157333A1 (en) * 2016-12-05 2018-06-07 Google Inc. Information privacy in virtual reality

Also Published As

Publication number Publication date
US11481980B2 (en) 2022-10-25
CN112416567A (zh) 2021-02-26
CN112416567B (zh) 2024-03-05
EP3783460A1 (en) 2021-02-24
KR102550986B1 (ko) 2023-07-05
US20210056758A1 (en) 2021-02-25
JP7217990B2 (ja) 2023-02-06
JP2021036422A (ja) 2021-03-04

Similar Documents

Publication Publication Date Title
KR102550986B1 (ko) 공공에서 개인 디지털 현실 경험으로의 전환
KR102627626B1 (ko) 상호 작용-레벨 기반의 디지털 현실 내 원격 측정 및 추적을 위한 시스템 및 방법
CN109923509B (zh) 虚拟现实中的对象的协同操纵
US10354446B2 (en) Methods and apparatus to navigate within virtual-reality environments
US11516296B2 (en) Location-based application stream activation
US11341727B2 (en) Location-based platform for multiple 3D engines for delivering location-based 3D content to a user
Pereira et al. Arena: The augmented reality edge networking architecture
US10942617B2 (en) Runtime adaptation of augmented reality gaming content based on context of surrounding physical environment
US11651562B2 (en) Method and system for enabling enhanced user-to-user communication in digital realities
EP4262217A1 (en) System and method enabling private to public media experiences
US10410425B1 (en) Pressure-based object placement for augmented reality applications
US11546721B2 (en) Location-based application activation
US11968056B2 (en) Avatar spatial modes
US20230419618A1 (en) Virtual Personal Interface for Control and Travel Between Virtual Worlds
US20220092859A1 (en) Inertial data management for extended reality for moving platforms
US20210306805A1 (en) System and method for client-server connection and data delivery by geographical location
US20240005511A1 (en) Immediate Proximity Detection and Breakthrough with Visual Treatment
WO2023249918A1 (en) Virtual personal interface for control and travel between virtual worlds
WO2023136934A1 (en) Ephemeral artificial reality experiences

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right