KR20230094289A - Extended Reality Server - Google Patents

Extended Reality Server Download PDF

Info

Publication number
KR20230094289A
KR20230094289A KR1020210183318A KR20210183318A KR20230094289A KR 20230094289 A KR20230094289 A KR 20230094289A KR 1020210183318 A KR1020210183318 A KR 1020210183318A KR 20210183318 A KR20210183318 A KR 20210183318A KR 20230094289 A KR20230094289 A KR 20230094289A
Authority
KR
South Korea
Prior art keywords
user
extended reality
space
image
data
Prior art date
Application number
KR1020210183318A
Other languages
Korean (ko)
Other versions
KR102630832B1 (en
Inventor
이준
조은상
이성찬
이한나
Original Assignee
주식회사 야타브엔터
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 야타브엔터 filed Critical 주식회사 야타브엔터
Priority to KR1020210183318A priority Critical patent/KR102630832B1/en
Publication of KR20230094289A publication Critical patent/KR20230094289A/en
Application granted granted Critical
Publication of KR102630832B1 publication Critical patent/KR102630832B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Primary Health Care (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to an extended reality server. According to an embodiment of the present invention, the extended reality server comprises: a communication module capable of performing wired and wireless data communication through a network; a memory storing received data and a program for implementing an extended reality usage environment with simultaneous multipresence functionality; and a control unit executing the program stored in the memory. The control unit includes a simultaneous multipresence implementation unit applying data received from a user terminal or data stored in the memory to the program for implementing an extended reality usage environment with simultaneous multipresence functionality, to generate data to implement an extended reality usage environment. Therefore, the extended reality server can provide an environment that enables each user to simultaneously feel the presence of other users in a space.

Description

확장 현실 서버{Extended Reality Server}Extended Reality Server {Extended Reality Server}

본 발명은 확장 현실 서버에 관한 것으로, 보다 상세히 각각의 사용자에게 다른 사용자들의 공간에 대한 존재감을 동시에 느낄 수 있으면서, 다른 사용자들에 대한 빠른 탐색을 효과적으로 할 수 있는 동시적 멀티 프레젠스 기능을 갖는 확장 현실 사용환경을 제공하는 확장 현실 서버에 관한 것이다.The present invention relates to an extended reality server, and more particularly, to each user simultaneously feeling the presence of other users' spaces, while having a simultaneous multi-presence function capable of effectively quickly searching for other users. It relates to an extended reality server providing a real use environment.

일반적으로 확장 현실(XR) 즉, 실감경제(eXtended Reality)는 가상현실(VR), 증강현실(AR), 혼합현실(MR), 홀로그램(HR) 등 다양한 기술로 현실과 비슷한 가상공간에서 시공간 제약 없이 소통하고 생활할 수 있는 기반을 뜻하는 말로, 실감기술이라고도 한다.In general, extended reality (XR), that is, eXtended Reality, is a variety of technologies such as virtual reality (VR), augmented reality (AR), mixed reality (MR), and hologram (HR), which are limited in time and space in a virtual space similar to reality. It is a word that means the foundation for communicating and living without the need, and is also called realistic technology.

가상 현실은 겉보기에 실제적이거나 물리적인 방식으로 사용자가 상호작용할 수 있는 환경(예컨대, 3D 환경)의 컴퓨터 생성된 시뮬레이션이다. 단일 장치 또는 장치들의 그룹일 수 있는 가상 현실 시스템은 예컨대, 가상 현실 헤드셋 또는 일부 다른 디스플레이 장치 상에서 사용자에게 디스플레이하기 위해 이러한 시뮬레이션을 생성할 수 있다. 시뮬레이션은 실제 환경 또는 가상 환경을 모방하기 위해 이미지, 소리, 햅틱 피드백 및/또는 다른 감각을 포함할 수 있다. 가상 현실이 점점 더 눈에 띄게 됨에 따라, 유용한 애플리케이션의 범위가 빠르게 확대되고 있다. 가상 현실의 가장 보편적인 애플리케이션은 게임이나 다른 상호작용성 컨텐츠를 수반하지만, 다른 애플리케이션 가령 엔터테인먼트나 트레이닝 목적을 위한 시각적 미디어 아이템(예컨대, 사진, 비디오)의 열람이 인접하게 뒤따른다. 가상 현실을 사용하여 실생활의 대화 및 다른 사용자 상호작용을 시뮬레이션 하는 가능성이 또한, 연구되고 있다.Virtual reality is a computer-generated simulation of an environment (eg, a 3D environment) that a user can interact with in a seemingly real or physical way. A virtual reality system, which can be a single device or a group of devices, can create this simulation for display to a user on, for example, a virtual reality headset or some other display device. Simulations may include images, sounds, haptic feedback, and/or other senses to mimic real or virtual environments. As virtual reality becomes increasingly prominent, the range of useful applications is rapidly expanding. The most common application of virtual reality involves gaming or other interactive content, but other applications such as viewing visual media items (eg photos, videos) for entertainment or training purposes closely follow. The possibility of using virtual reality to simulate real-life conversations and other user interactions is also being explored.

본 발명은 각각의 사용자에게 다른 사용자들의 공간에 대한 존재감을 동시에 느낄 수 있도록 하는 환경을 제공하는 확장 현실 서버를 제공하기 위한 것이다.An object of the present invention is to provide an extended reality server that provides an environment in which each user can simultaneously feel the presence of other users in a space.

또한, 본 발명은 다른 사용자들에 대한 빠른 탐색을 효과적으로 할 수 있는 환경을 제공하는 확장 현실 서버를 제공하기 위한 것이다.In addition, the present invention is to provide an augmented reality server providing an environment capable of effectively performing a quick search for other users.

본 발명의 일 측면에 따르면, 네트워크를 통해 유무선 데이터 통신을 할 수 있도록 제공되는 통신 모듈; 수신된 데이터, 동시적 멀티 프레젠스 기능을 갖는 확장 현실 사용환경을 구현하기 위한 프로그램을 저장하는 메모리; 및 상기 메모리에 저장된 프로그램을 실행시키는 제어부를 포함하되, 상기 제어부는, 사용자 단말기로부터 수신된 데이터 또는 상기 메모리에 저장된 데이터를 동시적 멀티 프레젠스 기능을 갖는 확장 현실 사용환경을 구현하기 위한 프로그램에 적용시켜 동시적 멀티 프레젠스 기능을 갖는 확장 현실 사용환경을 구현하기 위한 데이터를 생성하는 동시적 멀티 프레젠스 구현부를 포함하는 확장 현실 서버가 제공될 수 있다.According to one aspect of the present invention, a communication module provided to perform wired/wireless data communication over a network; a memory for storing received data and a program for realizing an extended reality use environment having a simultaneous multi-presence function; and a control unit executing a program stored in the memory, wherein the control unit applies data received from a user terminal or data stored in the memory to a program for realizing an extended reality environment having a simultaneous multi-presence function. An extended reality server including a simultaneous multi-presence implementation unit generating data for realizing an extended reality use environment having a simultaneous multi-presence function by using a simultaneous multi-presence function may be provided.

또한, 상기 동시적 멀티 프레젠스 구현부는, 카메라를 통해 촬영된 영상을 수신하고, 수신된 영상을 처리하여 프레젠스 영상을 생성하는 텔레 프레젠스부를 포함할 수 있다.Also, the simultaneous multi-presence implementer may include a telepresence unit that receives an image captured by a camera and generates a presence image by processing the received image.

또한, 상기 동시적 멀티 프레젠스 구현부는, 상기 동시적 멀티 프레젠스 구현부는, 공동 프로젝트에 참여하는 사용자들 각각이 위치된 공간을 촬영하여 생성된 프레젠스 영상들이 한 명의 사용자(U)에게 그를 중심으로 그 주의에 배열되는 방식으로 표시되게 하는 멀티 프레젠스 모드를 구현하는 멀티 프레젠스 공간 관리부를 더 포함할 수 있다.In addition, the simultaneous multi-presence realization unit, the simultaneous multi-presence realization unit, presents images generated by photographing a space where each of the users participating in the joint project are located, to one user (U) as the center thereof. It may further include a multi-presence space management unit that implements a multi-presence mode in which the multi-presence space is displayed in a manner arranged around the center.

또한, 멀티 프레젠스 공간 관리부는 사용자 단말기(20)를 통해 사용자(U)에게 표시되는 영상의 공간상에 형성된 가상의 스크린인 프레젠스 디스플레이 스크린에 공동 프로젝트에 참여하는 사용자들 각각이 위치된 공간을 촬영하여 생성된 프레젠스 영상들이 표시되게 하여 상기 멀티 프레젠스 모드를 구현할 수 있다.In addition, the multi-presence space management unit controls the space where each of the users participating in the joint project is located on the presence display screen, which is a virtual screen formed on the space of the image displayed to the user U through the user terminal 20. The multi-presence mode may be implemented by displaying presence images generated by photographing.

또한, 멀티 프레젠스 공간 관리부는 사용자의 선택에 따라 상기 프레젠스 디스플레이 스크린에 위치된 프레젠스 영상들 중 특정 영상만이 표시되는 몰입 모드가 되게 할 수 있다.In addition, the multi-presence space management unit may enable an immersion mode in which only a specific image among presence images located on the presence display screen is displayed according to a user's selection.

본 발명의 일 실시 예에 의하면, 각각의 사용자에게 다른 사용자들의 공간에 대한 존재감을 동시에 느낄 수 있도록 하는 환경을 제공하는 확장 현실 서버가 제공될 수 있다.According to an embodiment of the present invention, an extended reality server providing an environment in which each user can simultaneously feel the presence of other users in a space may be provided.

또한, 본 발명의 일 실시 예에 의하면, 다른 사용자들에 대한 빠른 탐색을 효과적으로 할 수 있는 환경을 제공하는 확장 현실 서버가 제공될 수 있다.In addition, according to an embodiment of the present invention, an extended reality server providing an environment capable of effectively performing a quick search for other users may be provided.

도 1은 본 발명의 일 실시 예에 따른 확장 현실 시스템을 나타내는 도면이다.
도 2는 도 1의 확장 현실 서버를 나타내는 블록도이다.
도 3은 제어부의 구성을 나타내는 블록도이다.
도 4는 동시적 멀티 프레젠스 구현부의 구성을 나타내는 블록도이다.
도 5는 한 명의 사용자에게 공동 프로젝트에 참여하는 사용자가 위치된 공간에 대한 프레젠스 영상이 표시되는 방식을 설명하는 도면이다.
도 6은 한 명의 사용자가가 공동 프로젝트에 참여하는 사용자가 위치된 공간을 인지하게 되는 배열 관계를 설명하는 개념도이다.
도 7은 사용자가 특정 프레젠스 영상을 선택하여 몰입 모드가 된 상태를 설명하는 도면이다.
도 8은 2명의 사용자가 동일한 프레젠스 영상에 대해 몰입 모드가 된 상태를 설명하는 도면이다.
도 9는 몰입 모드에서 사용자에게 표시되는 영상의 일 예를 나타내는 도면이다.
도 10은 적응형 동시성 제어 구현부에 의한 공유 객체의 제어와 관련된 개념의 관계를 나타내는 도면이다.
도 11은 적응형 동시성 제어 구현부의 구성을 나타내는 도면이다.
1 is a diagram illustrating an augmented reality system according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating the augmented reality server of FIG. 1 .
3 is a block diagram showing the configuration of a control unit.
4 is a block diagram showing the configuration of a simultaneous multi-presence implementation unit.
5 is a diagram explaining a method of displaying a presence image for a space in which a user participating in a joint project is located to one user.
6 is a conceptual diagram illustrating an arrangement relationship in which one user recognizes a space in which a user participating in a joint project is located.
7 is a diagram explaining a state in which the user selects a specific presence image and enters an immersion mode.
8 is a diagram for explaining a state in which two users enter an immersion mode for the same presence image.
9 is a diagram illustrating an example of an image displayed to a user in an immersion mode.
10 is a diagram illustrating a relationship between concepts related to control of a shared object by an adaptive concurrency control implementation unit.
11 is a diagram illustrating the configuration of an adaptive concurrency control implementation unit.

이하, 첨부된 도면들을 참조하여 본 발명의 바람직한 실시 예를 상세히 설명할 것이다. 그러나 본 발명의 기술적 사상은 여기서 설명되는 실시 예에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시 예는 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the technical idea of the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided so that the disclosed content will be thorough and complete, and the spirit of the present invention will be sufficiently conveyed to those skilled in the art.

본 명세서에서, 어떤 구성요소가 다른 구성요소 상에 있다고 언급되는 경우에 그것은 다른 구성요소 상에 직접 형성될 수 있거나 또는 그들 사이에 제 3의 구성요소가 개재될 수도 있다는 것을 의미한다. 또한, 도면들에 있어서, 막 및 영역들의 두께는 기술적 내용의 효과적인 설명을 위해 과장된 것이다. In this specification, when an element is referred to as being on another element, it means that it may be directly formed on the other element or a third element may be interposed therebetween. Also, in the drawings, the thicknesses of films and regions are exaggerated for effective explanation of technical content.

또한, 본 명세서의 다양한 실시 예 들에서 제1, 제2, 제3 등의 용어가 다양한 구성요소들을 기술하기 위해서 사용되었지만, 이들 구성요소들이 이 같은 용어들에 의해서 한정되어서는 안 된다. 이들 용어들은 단지 어느 구성요소를 다른 구성요소와 구별시키기 위해서 사용되었을 뿐이다. 따라서, 어느 한 실시 예에 제 1 구성요소로 언급된 것이 다른 실시 예에서는 제 2 구성요소로 언급될 수도 있다. 여기에 설명되고 예시되는 각 실시 예는 그것의 상보적인 실시 예도 포함한다. 또한, 본 명세서에서 '및/또는'은 전후에 나열한 구성요소들 중 적어도 하나를 포함하는 의미로 사용되었다.In addition, although terms such as first, second, and third are used to describe various elements in various embodiments of the present specification, these elements should not be limited by these terms. These terms are only used to distinguish one component from another. Therefore, what is referred to as a first element in one embodiment may be referred to as a second element in another embodiment. Each embodiment described and illustrated herein also includes its complementary embodiments. In addition, in this specification, 'and/or' is used to mean including at least one of the elements listed before and after.

명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 또한, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 구성요소 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 구성요소 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하는 것으로 이해되어서는 안 된다. 또한, 본 명세서에서 "연결"은 복수의 구성 요소를 간접적으로 연결하는 것, 및 직접적으로 연결하는 것을 모두 포함하는 의미로 사용된다. In the specification, expressions in the singular number include plural expressions unless the context clearly dictates otherwise. In addition, the terms "comprise" or "having" are intended to designate that the features, numbers, steps, components, or combinations thereof described in the specification exist, but one or more other features, numbers, steps, or components. It should not be construed as excluding the possibility of the presence or addition of elements or combinations thereof. In addition, in this specification, "connection" is used to mean both indirectly and directly connecting a plurality of components.

또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 것이다.In addition, in the following description of the present invention, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted.

도 1은 본 발명의 일 실시 예에 따른 확장 현실 시스템을 나타내는 도면이다.1 is a diagram illustrating an augmented reality system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시 예에 따른 확장 현실 시스템은 확장 현실 서버(10) 및 사용자 단말기(20)를 포함한다.Referring to FIG. 1 , an extended reality system according to an embodiment of the present invention includes an extended reality server 10 and a user terminal 20 .

본 발명의 일 실시 예에 따른 확장 현실 시스템은 복수의 사용자가 접속하여 사용하는 경우에 있어서, 각각의 사용자에게 다른 사용자들의 공간에 대한 존재감을 동시에 느낄 수 있으면서, 다른 사용자들에 대한 빠른 탐색, 사용자 본인의 작업 공간들에 대한 정보 공유를 효과적으로 할 수 있는 동시적 멀티 프레젠스 기능을 갖는 확장 현실 사용환경을 제공한다. 또한, 본 발명의 일 실시 예에 따른 확장 현실 시스템은 복수의 사용자가 공유 객체를 조작할 때 사용자 각각의 조작 사이에 충돌이 발생하는 것을 줄이고 작업 시간을 단축시킬 수 있는 적응형 동시성 제어를 제공한다.In the case where a plurality of users access and use the augmented reality system according to an embodiment of the present invention, each user can feel the presence of other users' space at the same time, while quickly searching for other users, It provides an extended reality user environment with a simultaneous multi-presence function that can effectively share information about one's workspace. In addition, the augmented reality system according to an embodiment of the present invention provides adaptive concurrency control that can reduce the occurrence of collisions between user manipulations and shorten work time when a plurality of users manipulate shared objects. .

확장 현실 서버(10)는 네트워크를 통해 사용자 단말기(20)와 연결된다.The augmented reality server 10 is connected to the user terminal 20 through a network.

사용자 단말기(20)는 각각이 사용자에게 제공되어, 사용자가 확장 현실의 시각적으로 확인 가능하도록 제공된다. 일 예로, 사용자 단말기(20)는 머리 착용 디스플레이(Head mounted Display, 이하 HMD)를 포함할 수 있다. HMD는 디스플레이 영역이 투명한 상태로 제공되어 현실 공간 상에 가상 이미지 또는 스캔 된 이지미를 출력하거나, 디스플레이영역이 불투명한 상태로 가상 또는 스캔 된 배경에 가상의 이미지 또는 스캔 된 이미지가 출력되게 할 수 있다. 또한, HMD는 디스플레이 영역이 투명한 상태와 불투명한 상태 사이로 전환 가능하게 제공되어, 출력 방식이 변환될 수 있다. 일 예로, HMD는 (주)마이크로소프트사의 마이크로소프트 홀로렌즈, (주)구글사의 구글 글래스 등으로 제공될 수 있다. 또한, 사용자 단말기(20)는 카메라를 더 포함할 수 있다. 카메라는 사용자의 주위 공간을 촬영한다. 카메라는 HMD에 부착된 상태, HMD와 분리된 별개의 장치 등으로 제공될 수 있다. 또한, 사용자 단말기(20)는 웨어러블 센서를 더 포함할 수 있다. 웨어러블 센서는 사용자가 의류, 장갑, 밴드 등과 같이 입거나 피부에 부착하는 방식 등으로 착용되어 사용자의 신체 부위의 위치 또는 사용자의 신체에서 발생하는 전기적 신호 등을 감지하는 방식으로 사용자의 동작을 감지하도록 제공된다. 일 예로, 웨어러블 센서는 Thalmic Labs 사의 마이요(Myo) 등일 수 있다.Each of the user terminals 20 is provided to the user so that the user can visually check the augmented reality. For example, the user terminal 20 may include a head mounted display (HMD). The HMD may display a virtual image or a scanned image on a real space with a transparent display area, or display a virtual or scanned image on a virtual or scanned background with an opaque display area. . In addition, the display area of the HMD is provided to be switchable between a transparent state and an opaque state, so that the output method can be changed. For example, the HMD may be provided by Microsoft HoloLens of Microsoft Co., Ltd., Google Glass of Google Co., Ltd., and the like. In addition, the user terminal 20 may further include a camera. The camera photographs the space around the user. The camera may be provided as a state attached to the HMD or as a separate device separated from the HMD. In addition, the user terminal 20 may further include a wearable sensor. A wearable sensor is worn by a user such as clothing, gloves, bands, etc. or attached to the skin to detect the position of a user's body part or an electrical signal generated from the user's body to detect the user's motion. Provided. For example, the wearable sensor may be Myo from Thalmic Labs.

네트워크는 단말기들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크(network)의 일 예에는 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5G 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않으며, 향후 데이터 송수신과 관련된 기술 발전에 따라 등장하는 새로운 통신 규격, 장치 등을 모두 포함한다.A network refers to a connection structure capable of exchanging information between nodes such as terminals and servers, and examples of such networks include a 3rd Generation Partnership Project (3GPP) network and a Long Term Evolution (LTE) network. , 5G network, WIMAX (World Interoperability for Microwave Access) network, Internet, LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), Bluetooth (Bluetooth) network, satellite broadcasting network, analog broadcasting network, DMB (Digital Multimedia Broadcasting) network, etc. are included, but are not limited thereto, and include all new communication standards and devices emerging as technology develops related to data transmission and reception in the future. do.

도 2는 도 1의 확장 현실 서버를 나타내는 블록도이다.FIG. 2 is a block diagram illustrating the augmented reality server of FIG. 1 .

도 2를 참조하면, 확장 현실 서버(10)는 통신 모듈(11), 메모리(12) 및 제어부(13)를 포함한다.Referring to FIG. 2 , the augmented reality server 10 includes a communication module 11 , a memory 12 and a control unit 13 .

통신 모듈(11), 메모리(12) 및 제어부(13)는 물리적으로 각각이 분리되어 구현되거나 이 중 하나 이상이 통합되어 구현될 수 있다. 여기서, 제어부(13)는 통신 모듈(11) 및 메모리(12)를 제어할 수 있고, 소정의 프로그램에 따라 통신 모듈(11)을 통해 전달받거나 메모리(12)에 저장된 데이터를 읽어와 처리할 수 있는 프로세서로 이해될 수 있다.The communication module 11, the memory 12, and the control unit 13 may be physically implemented separately or implemented by integrating one or more of them. Here, the control unit 13 can control the communication module 11 and the memory 12, and can read and process data received through the communication module 11 or stored in the memory 12 according to a predetermined program. It can be understood as a processor with

통신 모듈(11)은 네트워크를 통해 유무선 데이터 통신을 할 수 있도록 제공되어, 사용자 단말기(20)와 데이터 송수신을 할 수 있다. 또한, 사용자 단말기(20)가 HMD, 카메라를 포함할 때, 통신 모듈(11)은 HMD, 카메라 각각과 동일 또는 상이한 방식으로 데이터를 송수신 할 수 있도록 제공될 수 있다.The communication module 11 is provided to perform wired/wireless data communication through a network, and can transmit/receive data with the user terminal 20 . In addition, when the user terminal 20 includes an HMD and a camera, the communication module 11 may be provided to transmit and receive data in the same or different manner as each of the HMD and the camera.

메모리(12)는 수신된 데이터, 동시적 멀티 프레젠스 기능을 갖는 확장 현실 사용환경을 구현하기 위한 프로그램, 적응형 동시성 제어를 구현하기 위한 프로그램, 수신된 데이터를 처리하여 생성된 처리 데이터 및 각종 데이터를 저장할 수 있다. 여기에서, 메모리(12)는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 비 휘발성 저장장치를 통칭하는 것이다.The memory 12 includes received data, a program for realizing an extended reality use environment having a simultaneous multi-presence function, a program for implementing adaptive concurrency control, processed data generated by processing the received data, and various data. can be saved. Here, the memory 12 collectively refers to a non-volatile storage device that continuously retains stored information even when power is not supplied.

제어부(13)는 메모리(12)에 저장된 프로그램을 실행시키고, 사용자 단말기(20)로부터 수신된 데이터 또는 메모리(12)에 저장된 데이터를 프로그램에 적용시키고, 사용자 단말기(20)를 통해 표시될 데이터가 사용자 단말기(20)로 송신되게 한다.The control unit 13 executes a program stored in the memory 12, applies data received from the user terminal 20 or data stored in the memory 12 to the program, and data to be displayed through the user terminal 20 to be transmitted to the user terminal 20.

도 3은 제어부의 구성을 나타내는 블록도이다.3 is a block diagram showing the configuration of a control unit.

도 3을 참조하면, 제어부(13)는 동시적 멀티 프레젠스 구현부(130) 및 적응형 동시성 제어 구현부(140)를 포함한다.Referring to FIG. 3 , the control unit 13 includes a simultaneous multi-presence implementation unit 130 and an adaptive concurrency control implementation unit 140 .

동시적 멀티 프레젠스 구현부(130)는 사용자 단말기(20)로부터 수신된 데이터 또는 메모리(12)에 저장된 데이터를 동시적 멀티 프레젠스 기능을 갖는 확장 현실 사용환경을 구현하기 위한 프로그램에 적용시켜 동시적 멀티 프레젠스 기능을 갖는 확장 현실 사용환경을 구현하기 위한 데이터를 생성하고, 확장 현실 사용환경을 구현하기 위해 사용자 단말기(20)를 통해 표시될 데이터가 사용자 단말기(20)로 송신되게 한다.The simultaneous multi-presence realization unit 130 applies data received from the user terminal 20 or data stored in the memory 12 to a program for realizing an extended reality environment having a simultaneous multi-presence function, It generates data for realizing an extended reality use environment having a multi-presence function, and transmits data to be displayed through the user terminal 20 to the user terminal 20 to implement the extended reality use environment.

적응형 동시성 제어 구현부(140)는 사용자 단말기(20)로부터 수신된 데이터 또는 메모리(12)에 저장된 데이터를 적응형 동시성 제어를 구현하기 위한 프로그램에 적용시켜 적응형 동시성 제어를 구현하기 위한 데이터를 생성하고, 적응형 동시성 제어를 구현하기 위해 사용자 단말기(20)를 통해 표시될 데이터가 사용자 단말기(20)로 송신되게 한다.The adaptive concurrency control implementation unit 140 applies the data received from the user terminal 20 or the data stored in the memory 12 to a program for implementing the adaptive concurrency control to generate data for implementing the adaptive concurrency control. and causes data to be displayed through the user terminal 20 to be transmitted to the user terminal 20 in order to implement the adaptive concurrency control.

도 4는 동시적 멀티 프레젠스 구현부의 구성을 나타내는 블록도이다.4 is a block diagram showing the configuration of a simultaneous multi-presence implementation unit.

도 4를 참조하면, 동시적 멀티 프레젠스 구현부(130)는 개인 영역 관리부(131), 텔레 프레젠스부(132), 멀티 프레젠스 공간 관리부(133) 및 상호 작용 관리부(134)를 포함한다.Referring to FIG. 4 , the simultaneous multi-presence implementation unit 130 includes a personal area management unit 131, a tele presence unit 132, a multi-presence space management unit 133, and an interaction management unit 134. .

개인 영역 관리부(131)는 각각의 사용자에 대해 개인 작업 공간이 생성되도록 한다. 이 때, 개인 작업 공간은 사용자가 확장 현실 서버(10)에 접속한 때, 또는 확장 현실 서버(10)에 계정을 생성한 때, 또는 확장 현실 서버(10)에 특정한 목적을 갖는 공동 프로젝트가 생성되고 사용자가 해당 공동 프로젝트에 참여하는 때 생성될 수 있다. 개인 작업 공간이 생성되면 사용자는 개인 작업 공간에서 작업을 수행하고, 작업 결과를 개인 작업 공간 내부에 작업 보관 데이터로 저장되게 할 수 있다. 또한, 작업자는 기존에 저장된 작업 보관 데이터를 불러온 후 계속되는 작업을 수행하고 그 결과를 저장하여 작업 보관 데이터를 업데이트 시킬 수 있다. 또한, 작업 보관 데이트는 복수가 생성되고 각각이 개별적으로 생성, 또는 업데이트 가능하게 제공될 수 있다. 또한, 사용자는 작업 보관 데이터에 대해 다른 사용자의 열람, 열람 및 수정 등과 같은 접근 권한을 설정 가능하게 제공될 수 있다. 또한, 작업 보관 데이트가 복수일 때, 각각의 작업 보관 데이트는 접근 권한이 개별적으로 설정, 변경될 수 있다.The personal area management unit 131 allows a personal workspace to be created for each user. At this time, the personal workspace is created when the user accesses the extended reality server 10, or when an account is created in the extended reality server 10, or when a joint project with a specific purpose is created in the extended reality server 10. and can be created when a user participates in a corresponding joint project. When the personal workspace is created, the user can perform work in the personal workspace, and the work result can be stored as work storage data in the personal workspace. In addition, the operator can update the job storage data by loading the previously stored job storage data, performing a continuing job, and storing the result. In addition, a plurality of work storage data may be created and each may be individually generated or provided to be updated. In addition, the user may be provided with the ability to set access rights such as reading, reading, and editing of other users to the job storage data. In addition, when there are a plurality of job storage dates, access rights for each job storage date may be individually set and changed.

개인 영역 관리부(131)는 개인 작업 공간이 가상 현실과 같이 3D 영상의 형태로 HMD 등과 같은 사용자 단말기(20)를 통해 사용자에게 표시되게 할 수 있다. 또한, 개인 영역 관리부(131)는 작업 보관 데이터가 가상 현실의 개인 작업 공간 내의 특정 위치에 위치되는 형태로 HMD 등과 같은 사용자 단말기(20)를 통해 사용자에게 표시되어, 사용자가 작업 보관 데이터를 선택하는 행동을 하면 작업 보관 데이터가 편집 가능한 상태가 되고, 작업 보관 데이터를 내려놓은 행동을 하면 작업 보관 데이터가 저장되게 할 수 있다. 이 때, 사용자의 행동은 카메라, 또는 웨어러블 센서를 통해 감지되어 확장 현실 서버(10)로 송신되고, 개인 영역 관리부(131)는 카메라를 통한 영상 또는 웨어러블 센서를 통해 사용자의 행동을 판단할 수 있다. 또한, 개인 작업 공간에서의 작업 보관 데이터는 사용자의 조작에 의해 다른 사용자에게 공유될 수 있다.The personal area management unit 131 may display the personal workspace to the user through the user terminal 20 such as an HMD in the form of a 3D image like virtual reality. In addition, the personal area management unit 131 displays the work storage data to the user through the user terminal 20 such as an HMD in a form in which the work storage data is located at a specific location in the personal work space of virtual reality, so that the user selects the work storage data. The action makes the job archive data editable, and the action of dropping the job archive data causes the job archive data to be saved. At this time, the user's behavior is detected through a camera or a wearable sensor and transmitted to the augmented reality server 10, and the personal area management unit 131 may determine the user's behavior through an image through the camera or a wearable sensor. . In addition, work storage data in a personal workspace may be shared with other users by a user's manipulation.

텔레 프레젠스부(132)는 카메라를 통해 촬영된 영상을 수신하고, 수신된 영상을 처리하여 생성된 프레젠스 영상을 공동 프로젝트를 수행하는 사용자들에게 송신하여, 공동 프로젝트를 수행하는 사용자 사이에 실시간으로 텔레 프레젠스가 이루어 질 수 있도록 한다. 이 때, 카메라는 사용자가 있는 공간을 다양한 각도에서 촬영한 영상을 제공하고, 텔레 프레젠스부(132)는 이를 처리하여, 사용자에게 HMD 등과 같은 사용자 단말기(20)를 통해 입체 영상 형태로 표시되는 프레젠스 영상을 생성하고, 이를 송신할 수 있다.The tele presence unit 132 receives an image captured by a camera, processes the received image, and transmits a generated presence image to users performing a joint project, so that users performing a joint project can communicate in real time. so that telepresence can be achieved. At this time, the camera provides images taken from various angles of the space where the user is located, and the telepresence unit 132 processes them to display them in the form of stereoscopic images to the user through the user terminal 20 such as an HMD. A presence video can be created and transmitted.

도 5는 한 명의 사용자에게 공동 프로젝트에 참여하는 사용자가 위치된 공간에 대한 프레젠스 영상이 표시되는 방식을 설명하는 도면이고, 도 6은 한 명의 사용자가가 공동 프로젝트에 참여하는 사용자가 위치된 공간을 인지하게 되는 배열 관계를 설명하는 개념도이다.5 is a diagram illustrating a method of displaying a presence image of a space where a user participating in a joint project is located to one user, and FIG. 6 is a space where a user participating in a common project is located. It is a conceptual diagram explaining the arrangement relationship that recognizes.

도 5 및 도 6을 참여하면, 멀티 프레젠스 공간 관리부(133)는 공동 프로젝트에 참여하는 사용자들 각각이 위치된 공간을 촬영하여 생성된 프레젠스 영상들이 한 명의 사용자(U)에게 그를 중심으로 그 주의에 배열되는 방식으로 표시되게 하는 멀티 프레젠스 모드가 한다. 구체적으로, 멀티 프레젠스 공간 관리부(133)는 각각의 사용자에게, 해당 사용자(U)를 중심으로 한 둘레 공간에 링 형태의 프레젠스 디스플레이 스크린(PS)이 생성되도록 한다. 이 때, 프레젠스 디스플레이 스크린(PS)은 HMD등과 같은 사용자 단말기(20)를 통해 사용자(U)에게 표시되는 영상의 공간상에 형성된 가상의 스크린이다. 일 예로, 프레젠스 디스플레이 스크린(PS)은 사용자(U)가 위치된 지점을 중심으로 기 설정 반경을 가지고 상하로 기 설정 높이를 갖는 링 형상으로 제공될 수 있다. 그리고 공동 멀티 프레젠스 공간 관리부(133)는 프로젝트에 참여한 사용자들이 위치된 공간을 촬영하여 텔레 프레젠스부(132)에 의해 만들어진 프레젠스 영상(PV1, PV2, PV3, PV4)이 프레젠스 디스플레이 스크린(PS) 상에 배열되게 한다. 이에 따라, 도 6에 도시된 바와 같이, 멀티 프레젠스 모드일 때, 사용자(U)는 프레젠스 디스플레이 스크린(PS)에 표시된 프레젠스 영상(PV1, PV2, PV3, PV4)을 통해 공동 프로젝트에 참여하는 사용자들에 둘러싸이는 형태가 되어, 다른 사용자들의 공간에 대한 존재감을 느낄 수 있게 된다. 이 때, 프레젠스 디스플레이 스크린(PS)에 표시되는 프레젠스 영상(PV1, PV2, PV3, PV4)은 자신을 제외한 다른 사용자의 프레젠스 영상들로 제공되거나, 자신을 포함한 공동 프로젝트에 참여하는 모든 사용자들에 대한 프레젠스 영상들로 제공될 수 있다. 또한, 멀티 프레젠스 공간 관리부(133)는 사용자의 조작에 따라, 프레젠스 디스플레이 스크린(PS)에 표시되는 프레젠스 영상(PV1, PV2, PV3, PV4)의 배열 위치, 크기 등이 변경되게 할 수 있다.5 and 6, the multi-presence space management unit 133 captures the space where each of the users participating in the joint project is located, and the presence images generated are sent to one user U as the center. A multi-presence mode that allows them to be displayed in an arranged manner at attention. Specifically, the multi-presence space management unit 133 allows each user to create a ring-shaped presence display screen PS in a circumferential space centered on the corresponding user U. At this time, the presence display screen PS is a virtual screen formed on the space of an image displayed to the user U through the user terminal 20 such as an HMD. For example, the presence display screen PS may be provided in a ring shape having a preset radius and a preset height vertically around a point where the user U is located. In addition, the joint multi-presence space management unit 133 photographs the space where the users participating in the project are located, and the presence images (PV1, PV2, PV3, PV4) created by the tele presence unit 132 are displayed on the presence display screen ( PS). Accordingly, as shown in FIG. 6, in the multi-presence mode, the user U participates in a joint project through the presence images PV1, PV2, PV3, and PV4 displayed on the presence display screen PS. It becomes a form surrounded by users who play, and it is possible to feel the presence of other users in the space. At this time, the presence images (PV1, PV2, PV3, PV4) displayed on the presence display screen (PS) are provided as presence images of other users except the user himself, or all users participating in the joint project including himself. may be provided as presence images for In addition, the multi-presence space manager 133 may change the arrangement position and size of the presence images PV1, PV2, PV3, and PV4 displayed on the presence display screen PS according to a user's manipulation. there is.

이에 따라, HMD를 착용한 사용자(U)는 자신을 둘러싸고 있는 다른 공동 작업 참여자들의 공간들을 보면서 해당 공간에 있는 정보들을 보고 회의를 수행할 수 있게 된다.Accordingly, the user U wearing the HMD can hold a meeting while viewing information in the space of other collaboration participants surrounding him.

도 7은 사용자가 특정 프레젠스 영상을 선택하여 몰입 모드가 된 상태를 설명하는 도면이고, 도 8은 2명의 사용자가 동일한 프레젠스 영상에 대해 몰입 모드가 된 상태를 설명하는 도면이다.FIG. 7 is a diagram illustrating a state in which a user selects a specific presence image to enter an immersion mode, and FIG. 8 is a diagram illustrating a state in which two users enter an immersion mode for the same presence image.

도 7 및 도 8을 참조하면, 멀티 프레젠스 공간 관리부(133)는 사용자(U)의 조작에 따라, 프레젠스 디스플레이 스크린(PS)에 위치된 프레젠스 영상들(PV1, PV2, PV3, PV4) 중 특정 영상(예를 들어, PV3)만이 표시되는 몰입 모드가 되게 할 수 있다. 몰입 모드가 되면, HMD를 통해 사용자(U)에게 표시되는 영상에는 사용자(U)가 선택한 프레젠스 영상(PV3)만이 표시되며, 나머지 프레젠스 영상들은 표시되지 않게 된다. 이에 따라, 멀티 프레젠스 모드에서 몰입 모드로 변경되면, 도 7에 도시된 바와 같이 프레젠스 디스플레이 스크린(PS)에 표시된 프레젠스 영상들(PV1, PV2, PV3, PV4)에 대응되는 공간에서 자신이 선택한 프레젠스 영상(PV3)에 대응되는 공간으로 입장하는 형태로 인지가 이루어 질 수 있다. 일 예로, 카메라는 사용자가 위치된 공간을 다양한 각도에서 촬영하여, 몰입 모드에서 사용자에게 표시되는 프레젠스 영상(PV3)은 3D 입체 형태일 수 있다. 이 때, 선택되는 프레젠스 영상(PV3)은 다른 사용자의 프레젠스 영상 또는 자신의 프레젠스 영상일 수 있다. 또한, 2명의 사용자(U1, U2)가 동일한 프레젠스 영상(PV3)에 대해 몰입 모드가 되면, 도 8에 도시된 바와 같이 2명은 사용자(U1, U2)는 동일한 공간에 함께 있는 형태로, 동일한 프레젠스 영상(PV3)을 선택한 다른 사용자를 인지할 수 있다. 이 때, 몰입도 향상을 위해, 특정 프레젠스 영상을 몰입 모드로 선택한 사용자가 2명일 때, 각각의 사용자에게 표시되는 프레젠스 영상에는 다른 사용자의 모습이 포함될 수 있다. 즉, 사용자의 모습은 컴퓨터 그래픽을 통해 아바타 형태로 구현되거나, 카메라를 통해 촬영된 영상에서 사용자의 모습을 추출한 후 이를 프레젠스 영상에 합성하는 방식으로 구현될 수 있다.Referring to FIGS. 7 and 8 , the multi-presence space management unit 133 controls the presence images PV1, PV2, PV3, and PV4 located on the presence display screen PS according to the user U's manipulation. An immersion mode in which only a specific image (eg, PV3) is displayed can be set. In the immersion mode, only the presence image PV3 selected by the user U is displayed in the image displayed to the user U through the HMD, and the remaining presence images are not displayed. Accordingly, when the multi-presence mode is changed to the immersion mode, as shown in FIG. Recognition can be made in the form of entering a space corresponding to the selected presence image PV3. For example, the camera captures the space in which the user is located from various angles, and the presence image PV3 displayed to the user in the immersion mode may have a 3D stereoscopic shape. At this time, the selected presence image PV3 may be another user's presence image or the user's own presence image. In addition, when two users U1 and U2 enter the immersion mode for the same presence image PV3, as shown in FIG. 8, the two users U1 and U2 are in the same space together, Other users who have selected the presence image PV3 can be recognized. In this case, in order to improve immersion, when two users select a specific presence image as an immersion mode, the presence image displayed to each user may include the image of another user. That is, the user's appearance may be implemented in the form of an avatar through computer graphics, or may be implemented by extracting the user's appearance from an image captured by a camera and synthesizing it into a presence image.

도 9는 몰입 모드에서 사용자에게 표시되는 영상의 일 예를 나타내는 도면이다.9 is a diagram illustrating an example of an image displayed to a user in an immersion mode.

도 9를 참조하면, 몰입 모드에서 사용자(U)에게 표시되는 영상에는 프레젠스 영상(PV) 및 개인 작업 공간의 영상(WS)이 포함될 수 있다. 이 때, 개인 작업 공간의 영상(WS) 및 프레젠스 영상(PV)은 동일한 사용자의 것일 수 있다(즉, 개인 작업 공간의 영상 및 프레젠스 영상은 동일한 A라는 사용자의 것). 이에 따라, 사용자(U)는 프레젠스 영상(PV)을 선택하여 몰입 모드로 들어가면, 몰입 모드에 의해 특정된 사용자를 방문하여, 해당 사용자의 작업 결과를 함께 살펴보는 형태로 지각이 이루어 질 수 있다. 또한, 사용자(U)는 자신의 프레젠스 영상을 선택한 후, 자신의 개인 작업 공간에서 작업 보간 데이터에 대한 작업을 수행할 수 있다. 일 예로, 몰입 모드 영상이 입체 형태로 제공될 때, 프레젠스 영상(PV)은 전방 영역에 위치되고, 개입 작업 공간의 영상(WS)은 후방 영역에 위치될 수 있다. 또한, 몰입 모드 영상에서 프레젠스 영상(PV) 및 개입 작업 공간의 영상(WS)의 위치, 상호 비율, 크기 등은 사용자에 의해 조절될 수 있다. 또한, 사용자가는 몰입 모드 영상에서 프레젠스 영상(PV) 및 개입 작업 공간의 영상(WS) 중 하나만이 표시되게 할 수 있다.Referring to FIG. 9 , images displayed to the user U in the immersion mode may include a presence image PV and a personal workspace image WS. At this time, the personal workspace image WS and the presence image PV may belong to the same user (ie, the personal workspace image and the presence image belong to the same user A). Accordingly, when the user U selects the presence video PV and enters the immersion mode, perception can be made in the form of visiting the user specified by the immersion mode and examining the user's work results together. . Also, after the user U selects his or her presence image, he or she may perform work on interpolation data in his or her personal work space. For example, when an immersion mode image is provided in a stereoscopic form, the presence image PV may be positioned in the front area, and the image WS of the intervention workspace may be positioned in the rear area. In addition, the position, ratio, and size of the presence image PV and the intervention workspace image WS in the immersion mode image may be adjusted by the user. In addition, the user can display only one of the presence image PV and the intervention work space image WS in the immersion mode image.

또한, 사용자(U)의 조작에 따라 몰입 모드에서 멀티 프레젠스 모드가 되면, 사용자(U)는 몰입 모드에 해당되는 공간에서 퇴장한 후, 프레젠스 영상들(PV1, PV2, PV3, PV4)에 둘러 싸인 공간으로 이동하는 형태로 인지가 이루어 질 수 있다.In addition, when the user U moves from the immersion mode to the multi-presence mode, the user U leaves the space corresponding to the immersion mode and then displays the presence images PV1, PV2, PV3, and PV4. Recognition can be made in the form of moving to an enclosed space.

상호 작용 관리부(134)는 사용자로부터 신호를 수신하여, 해당 신호를 개인 영역 관리부(131) 또는 멀티 프레젠스 공간 관리부(133)에 입력되도록 한다. 예를 들어, 상호 작용 관리부(134)는 카메라로부터 수신되는 영상을 분석하거나, 웨어러블 센서로부터 수신되는 신호를 통해 사용자의 동작을 감지하고, 해당 신호를 처리한 후 개인 영역 관리부(131) 또는 멀티 프레젠스 공간 관리부(133)에 입력되게 할 수 있다. 또한, 상호 작용 관리부(134)는 카메라 또는 웨어러블 센서로부터 특정 신호가 수신되면, 사용자에게 표시되는 가상의 공간에 키보드 등과 같은 입력 수단이 표시되게 한 후, 사용자가 입력 수단을 조작하는 방식으로 신호를 입력 받을 수 있다. 사용자는 상호 작용 관리부(134)로 입력하는 신호를 통해, 멀티 프레젠스 모드와 몰입 모드가 상호 변경되게 하고, 멀티 프레젠스 모드 또는 몰입 모드의 표시 상태를 조작하고, 몰입 모드 상태에서 자신 또는 다른 사용자의 개인 작업 공간의 작업 보관 데이터를 열람, 편집하고, 프레젠스 영상을 열람하고, 프레젠스 영상의 공간에서 이동하거나 특정 작업을 수행하게 된다.The interaction manager 134 receives a signal from the user and inputs the corresponding signal to the personal area manager 131 or the multi-presence space manager 133 . For example, the interaction management unit 134 analyzes an image received from a camera or detects a user's motion through a signal received from a wearable sensor, processes the corresponding signal, and then uses the personal area management unit 131 or multi-frame It can be input to the Jens space management unit 133. In addition, when a specific signal is received from a camera or a wearable sensor, the interaction management unit 134 displays an input means such as a keyboard in a virtual space displayed to the user, and then transmits the signal in such a way that the user manipulates the input means. can be input. Through a signal input to the interaction management unit 134, the user causes the multi-presence mode and the immersion mode to be mutually changed, manipulates the display state of the multi-presence mode or the immersion mode, and allows himself/herself or another user in the immersive mode state. Work storage data in the personal workspace of the person is read and edited, presence video is viewed, and movement in the space of the presence video or specific task is performed.

본 발명의 일 실시 예에 따른 동시적 멀티 프레젠스 구현부(130)에 의한 동시적 멀티 프레젠스 방법에 따르면, 사용자는 다른 사용자의 존재를 프레젠스 디스플레이 스크린(PS)을 통해 입체적으로 지각할 수 있게 된다. 또한, 사용자는 프레젠스 디스플레이 스크린(PS)을 통해 특정 프레젠스 영상을 선택하는 방식으로 다른 사용자가 위치된 공간으로 실제 입장하거나 퇴장하는 방식으로 사용할 수 있게 되어, 실제 현실 상의 공간과 유사한 방식으로 다른 사용자를 지각하고 다른 사용자가 협업을 수행할 수 있게 된다.According to the simultaneous multi-presence method by the simultaneous multi-presence implementation unit 130 according to an embodiment of the present invention, a user can perceive the existence of another user in three dimensions through the presence display screen PS. there will be In addition, by selecting a specific presence image through the presence display screen (PS), the user can use it by actually entering or exiting the space where another user is located, in a way similar to the actual space in reality. It perceives the user and allows other users to collaborate.

적응형 동시성 제어 구현부(140)는 하나의 공간에 2인 이상의 사용자가 위치한 상태로, 2인이 작업 대상이 되는 공유 객체에 대해 조작하는 경우, 사용자의 조작에 따른 공유 객체의 상태 변화를 제어한다. 이 때, 하나의 공간에 2인의 사용자가 위치하는 경우는 하나의 개인 작업 공간에 2인이 동시에 몰입 모드가 된 상태, 하나의 프레젠스 영상에 의한 공간에 2인이 동시에 몰입 모드가 된 상태일 수 있다. 또한, 하나의 공간에 2인의 사용자가 위치하는 경우는 하나의 현실 공간에 2인이 위치하는 경우(즉, 하나의 프레젠스 영상을 생성하는 현실 공간에서 실제 2인이 참여하는 경우)일 수 있다. 그리고 공유 객체는 컴퓨터 그래픽에 의해 구현되어, HMD를 통해 사용자에게 표시되는 영상에 표시되는 가상의 물체이다. 사용자들이 공유 객체에 대해 조작을 하는 과정에서 사용자들의 조작에 의한 결과가 서로 달라지는 충돌(conflict) 현상이 발생할 수 있다. 적응형 동시성 제어 구현부(140)는 소유권을 통해 사용자들 사이의 조작을 조절하여 이 같은 충돌 현상이 발생되는 것을 방지한다. 이 때, 소유권은 사용자의 조작이 유효한 것으로 인정되어, 공유 객체의 상태 변경에 반영될 수 있는 권한이다.The adaptive concurrency control implementation unit 140 controls the state change of the shared object according to the user's manipulation when two or more users are located in one space and the two users manipulate the shared object to be worked on. do. At this time, when two users are located in one space, two people are in immersion mode at the same time in one personal workspace, and two people are in immersion mode at the same time in a space by one presence image. can In addition, the case where two users are located in one space may be a case where two users are located in one real space (ie, a case where two users actually participate in a real space generating one presence image). . Also, the shared object is a virtual object implemented by computer graphics and displayed on an image displayed to a user through an HMD. In the process of users manipulating a shared object, a conflict phenomenon in which users' manipulation results are different may occur. The adaptive concurrency control implementation unit 140 regulates operations between users through ownership to prevent such conflicts from occurring. At this time, the ownership is the right that the user's operation is recognized as valid and can be reflected in the state change of the shared object.

일 예로, 공유 객체 조작을 위한 신호 입력은 상체동작 인식을 통한 손을 사용한 MHD 영상의 공유 객체 직접 조작 방법이 사용될 수 있다. 일 예로, 사용자는 MHD를 착용하고 웨어러블 센서를 양팔에 착용할 수 있다. 또한, MHD는 사용자로부터 음성입력을 받거나 사용자가 움직이는 경우 3차원 위치를 추적하고, 사용자 머리의 회전 값 정보를 추출 가능하게 제공될 수 있다. 이에 따라, 사용자는 MHD 영상에 의한 공간 상에서 이동하면서 공유 객체에 대한 다양한 조작을 수행할 수 있다.For example, a method of directly manipulating a shared object of an MHD image using a hand through upper body motion recognition may be used as a signal input for manipulating a shared object. For example, the user may wear the MHD and wear the wearable sensors on both arms. In addition, the MHD can track a 3D position when a voice input is received from the user or when the user moves, and information on a rotation value of the user's head can be extracted. Accordingly, the user can perform various manipulations on the shared object while moving in space using the MHD image.

도 10은 적응형 동시성 제어 구현부에 의한 공유 객체의 제어와 관련된 개념의 관계를 나타내는 도면이다.10 is a diagram illustrating a relationship between concepts related to control of a shared object by an adaptive concurrency control implementation unit.

도 10을 참조하면, 공유 객체의 제어와 관련하여, 목표, 세부 목표 및 테스크의 개념이 설정된다.Referring to FIG. 10 , concepts of goals, detailed goals, and tasks are set in relation to control of shared objects.

목표는 사용자의 조작에 의해 공유 객체에 대해 성취하고자 하는 최종적 결과값이다. 예를 들어, 목표는 에어컨 등과 같은 물체는 특정 위치에 설치하는 것 등일 수 있다.A goal is a final result value to be achieved for a shared object by a user's manipulation. For example, the goal may be to install an object such as an air conditioner in a specific location.

세부 목표는 목표를 달성하기 위해 공유 객체의 상태가 단계적으로 변경되는 과정에서, 동일 또는 유사성을 가지고 공유 객체의 상태를 변경하고자 하는 목표이다. 예를 들어, 목표가 에어컨의 설치인 경우, 세부 목표는 공유 객체인 에어컨의 설치 위치로의 이동(즉, 공유 객체의 목표 위치로 이동), 공유 객체에 부품 조립 또는 부속품 결합하고 공유 객체인 에어컨을 설치 위치에 고정(즉, 공유 객체의 조립), 최종 테스트(즉, 공유 객체 테스트) 등일 수 있다. 세부 목표는 목표의 내용에 따라 설정된다. 또한, 각각의 세부 목표는 순서를 갖도록 설정될 수 있다.A detailed goal is a goal to change the state of a shared object with the same or similarity in the process of changing the state of a shared object step by step to achieve the goal. For example, if the goal is to install an air conditioner, the detailed goal is to move to the installation location of the air conditioner, which is a shared object (that is, move to the target location of the shared object), assemble parts or combine parts with the shared object, and install the air conditioner, which is a shared object. It may be fixed to the installation location (i.e., assembly of shared object), final test (i.e., shared object test), and the like. Detailed goals are set according to the contents of the goals. In addition, each detailed goal may be set to have a sequence.

테스크는 각각의 세부 목표를 달성하기 위한 사용자의 행동(즉, 사용자의 조작)으로, 각각의 세부 목표에 따라 설정된다. 예를 들어, 공유 객체인 에어컨의 설치 위치로의 이동에 대응하여 사용자가 공유 객체를 집어 들고 이동하는 조작(즉, 이송 테스크), 공유 객체에 부품 조립 또는 부속품 결합하고 공유 객체인 에어컨을 설치 위치에 고정하는 것에 대응하여, 사용자가 부품 또는 부속품을 집어 들고 공유 객체에 연결하는 조작, 사용자가 에어컨의 위치를 조정하고 에어컨 고정을 위해 볼트, 브라켓 등의 연결하는 조작(즉, 조립 테스크), 최종 테스트에 대응하여 에어컨을 작동시키는 조작(즉, 작동 테스크) 각각이 테스크가 된다. 즉, 테스크는 각각의 세부 목표에 대응하여 1대 1로 매칭되게 할당되고, 각각의 테스크의 내용은 세부 목표의 내용에 대응되게 설정된다. A task is a user's action (ie, user's operation) to achieve each detailed goal, and is set according to each detailed goal. For example, an operation in which the user picks up and moves the shared object in response to the movement of the air conditioner, which is a shared object, to the installation location (i.e., transfer task), assembles parts or combines parts with the shared object, and places the air conditioner, which is a shared object, at the installation location. In response to fixing to, the user picks up a part or accessory and connects it to a shared object, the user adjusts the air conditioner's position and connects bolts, brackets, etc. to fix the air conditioner (i.e., assembly task), the final Each operation of operating the air conditioner in response to the test (ie, operation task) becomes a task. That is, tasks are assigned in a one-to-one matching manner corresponding to each detailed goal, and the content of each task is set to correspond to the content of the detailed goal.

도 11은 적응형 동시성 제어 구현부의 구성을 나타내는 도면이다.11 is a diagram illustrating the configuration of an adaptive concurrency control implementation unit.

도 11을 참조하면, 적응형 동시성 제어 구현부(140)는 테스크 분석부(141), 객체 관리부(142), 테스크 관리부(143), 목표 관리부(144) 및 소유권 관리부(145)를 포함한다.Referring to FIG. 11 , the adaptive concurrency control implementation unit 140 includes a task analysis unit 141, an object management unit 142, a task management unit 143, a target management unit 144, and an ownership management unit 145.

테스크 분석부(141)는 사용자 단말기(20)로부터 수신된 신호를 통해, 사용자가 하고자 하는 테스크 정보를 분석한다.The task analyzer 141 analyzes task information that the user intends to perform through a signal received from the user terminal 20 .

객체 관리부(142)는 각각의 공유 객체의 상태를 관리한다. 공유 객체의 상태에는 분석된 테스크 정보에 따라 공유 객체에 대해 소유권을 갖는 사용자를 설정하고, 사용자에게 할당된 소유권의 내용을 관리한다.The object management unit 142 manages the state of each shared object. In the state of the shared object, a user who has ownership for the shared object is set according to the analyzed task information, and the content of the ownership allocated to the user is managed.

테스크 관리부(143)는 사용자 단말기(20)로부터 수신된 신호를 통해, 사용자에게 할당된 소유권에 따라 가능한 조작을 공유 객체의 상태 변경에 반영하여, 공유 객체에 대한 테스크가 진행되게 한다.The task management unit 143 reflects possible manipulations according to the ownership assigned to the user to the state change of the shared object through a signal received from the user terminal 20, and proceeds with the task for the shared object.

목표 관리부(144)는 목표에 대해 할당된 세부 목표들에 있어서, 세부 목표의 진행 단계를 관리한다.The goal management unit 144 manages the progress of the detailed goals in the detailed goals assigned to the goals.

소유권 관리부(145)는 현재 진행되고 있는 세부 목표 및 이에 대응하는 테스크의 내용에 따라 각각의 사용자에게 할당된 소유권 정책에 따라 공동 작업의 병행성 제어를 실행하고 해당 결과를 사용자에게 알려준다.The ownership management unit 145 executes concurrency control of joint work according to the ownership policy allocated to each user according to the details of the detailed goal currently in progress and the task corresponding thereto, and informs the user of the result.

먼저, 세부 목표가 공유 객체의 목표 위치로 이동인 경우의 소유권 할당 및 공유 객체의 상태 변경을 설명한다. 이 경우, 사용자는 공유 객체를 잡고 움직이고, 회전하는 작업을 수행할 수 있다. 먼저 에어컨을 이동하는 과정으로 에어컨을 잡은 모든 사용자가 에어컨의 이동에 참여할 수 있으며, 이때는 소유권에 따른 이동의 제한을 하지 않는다. 단 사용자들의 이동입력에 따라 현실 세계와 유사한 에어컨의 이동을 위한 알고리즘이 필요하다. 2인 이상의 사용자가 공유 객체를 같이 잡은 상태에서 움직이거나 회전하는 경우에는 사용자들에 의한 조작에 따른 공유 객체의 위치나 회전 정보 사이에 충돌 현상이 발생되는 것을 방지기 위해 공유 객체의 이동 및 회전에 대한 동시성 제어는 아래와 같이 이루어 진다. 먼저, 2인 이상의 사용자가 공유 객체를 잡았을 때 먼저 잡은 사용자가 공유 객체에 대해 소유권이 우선권을 가진다. 이에 따라, 공유 객체를 잡은 순서에 따라 우선권을 갖는 사용자가 A, 우선권이 없는 사용자가 B 라고 한다면 다음의 수학식 (1)과 같이 A와 B의 중점인 C를 구한다.First, when the detailed goal is to move the shared object to the target location, ownership assignment and state change of the shared object will be described. In this case, the user can hold, move, and rotate the shared object. First, in the process of moving the air conditioner, all users who hold the air conditioner can participate in the movement of the air conditioner, and in this case, movement according to ownership is not restricted. However, an algorithm for the movement of the air conditioner similar to that in the real world is required according to the user's movement input. When two or more users move or rotate a shared object while holding it together, information about the movement and rotation of the shared object is checked to prevent a collision between the position and rotation information of the shared object according to the manipulation by the users. Concurrency control is done as follows. First, when two or more users grab a shared object, the user who catches it first has priority in ownership of the shared object. Accordingly, if a user with priority is A and a user without priority is B according to the order in which shared objects are obtained, C, the midpoint of A and B, is obtained as shown in Equation (1) below.

Figure pat00001
Figure pat00001

이후 사용자들이 이동할 때는 수학식(2)와 같이 사용자들의 움직임의 변위를 계산하여 중점 C의 위치를 변경한다. Then, when the users move, the displacement of the user's movement is calculated as shown in Equation (2), and the position of the midpoint C is changed.

Figure pat00002
Figure pat00002

또한, 공유 객체의 회전과 관련하여, 사용자 한 명의 손의 회전 값으로 공유 객체가 회전되는 것으로 할 경우 회전 값의 충돌이 발생한다. 따라서 두 명의 사용자들의 손의 위치에 따른 근사적인 방향 전환을 통한 회전되도록 한다. 이 때, 공유 객체에 대해 우선권을 갖는 사용자(즉, A)에게 방향의 주도권이 있다. 따라서 공유 객체의 중점 C의 회전을 위한 방향 벡터는 수학식 3과 같다. In addition, in relation to the rotation of the shared object, if the shared object is rotated with the rotation value of one user's hand, a rotation value conflict occurs. Therefore, it is rotated through an approximate change in direction according to the positions of the hands of two users. At this time, the user (that is, A) having priority for the shared object has the initiative in the direction. Therefore, the direction vector for rotation of the central point C of the shared object is as shown in Equation 3.

Figure pat00003
Figure pat00003

이후 사용자들이 공유 객체인 에어컨 이동을 완료한 후에는 에어컨을 조립하는 과정이 필요하다. 이때는 에어컨의 미세 이동을 담당하는 사용자와 에어컨에 부속 장치들을 조립하는 사용자가 있게 된다. 이때는 에어컨의 미세 이동을 담당하는 사용자가 독점적으로 소유권을 갖게 된다. 이에 따라 공유 객체인 에어컨의 부품 조립, 부속품 결합을 수행하는 사용자는 소유권을 갖는 사용자의 허락을 얻어 작업을 수행할 수 있게 된다.After the users complete moving the air conditioner, which is a shared object, a process of assembling the air conditioner is required. At this time, there is a user who is in charge of micro-movement of the air conditioner and a user who assembles accessories to the air conditioner. At this time, the user in charge of micro-movement of the air conditioner has exclusive ownership. Accordingly, a user who assembles parts and parts of an air conditioner, which is a shared object, can perform the work with the permission of the user having ownership.

조립 완료 후, 에어컨에 대해서 테스트를 하는 과정으로써 에어컨을 작동시켜 테스트를 하면서 위치의 세부 수정을 위한 이동 등의 조정이 수행될 수 있다. 이 경우에는 사용자 중 1인이 소유권을 가지고, 나머지 사용자들은 소유권을 가진 사용자의 허락으로 공유 객체에 대한 조작을 수행할 수 있다.After the assembly is completed, as a process of testing the air conditioner, adjustments such as movement for detailed position correction may be performed while the air conditioner is operated and tested. In this case, one of the users has ownership, and the other users can perform manipulations on the shared object with the permission of the user who has ownership.

소유권을 갖는 사용자의 허락은, 음성 인식 기능을 갖는 사용자 단말기(20)를 이용하여 소유권을 갖는 사용자의 음성 신호를 통해 이루어 지거나, 해당 메뉴를 레이캐스팅 방식으로 클릭하는 등의 방법으로 이루어 질 수 있다.Permission of the user having ownership may be made through a voice signal of the user having ownership using the user terminal 20 having a voice recognition function, or by clicking the corresponding menu in a raycasting manner. .

본 발명의 일 실시 예에 따른 적응형 동시성 제어 구현부(140)에 의한 적응형 동시성 제어 방법에 따르면, 세부 목표에 따라 소유권이 사용자에게 할당되는 방법, 세부 목표에 따라 수행되는 테스크의 내용, 사용자의 조작이 공유 객체에 반영되는 방법이 달라지도록 제어된다. 이에 따라, 사용자의 조작 사이에 충돌이 발생되는 것이 방지되면서, 세부 목표로 이루어지는 목표를 완료하기 위해 소요되는 시간이 단축되게 된다.According to the adaptive concurrency control method by the adaptive concurrency control implementation unit 140 according to an embodiment of the present invention, a method for assigning ownership to a user according to a detailed goal, contents of a task performed according to the detailed goal, and a user The way manipulations of are reflected in shared objects is controlled to vary. Accordingly, a conflict between user operations is prevented from occurring, and time required to complete a goal consisting of detailed goals is reduced.

이상, 본 발명을 바람직한 실시 예를 사용하여 상세히 설명하였으나, 본 발명의 범위는 특정 실시 예에 한정되는 것은 아니며, 첨부된 특허청구범위에 의하여 해석되어야 할 것이다. 또한, 이 기술분야에서 통상의 지식을 습득한 자라면, 본 발명의 범위에서 벗어나지 않으면서도 많은 수정과 변형이 가능함을 이해하여야 할 것이다.In the above, the present invention has been described in detail using preferred embodiments, but the scope of the present invention is not limited to specific embodiments, and should be interpreted according to the appended claims. In addition, those skilled in the art should understand that many modifications and variations are possible without departing from the scope of the present invention.

10: 확장 현실 서버 11: 통신 모듈
12: 메모리 13: 제어부
20: 사용자 단말기 130: 동시적 멀티 프레젠스 구현부
140: 적응형 동시성 제어 구현부
10: extended reality server 11: communication module
12: memory 13: control unit
20: user terminal 130: simultaneous multi-presence implementation unit
140: adaptive concurrency control implementation unit

Claims (5)

네트워크를 통해 유무선 데이터 통신을 할 수 있도록 제공되는 통신 모듈;
수신된 데이터, 동시적 멀티 프레젠스 기능을 갖는 확장 현실 사용환경을 구현하기 위한 프로그램을 저장하는 메모리; 및
상기 메모리에 저장된 프로그램을 실행시키는 제어부를 포함하되,
상기 제어부는,
사용자 단말기로부터 수신된 데이터 또는 상기 메모리에 저장된 데이터를 동시적 멀티 프레젠스 기능을 갖는 확장 현실 사용환경을 구현하기 위한 프로그램에 적용시켜 동시적 멀티 프레젠스 기능을 갖는 확장 현실 사용환경을 구현하기 위한 데이터를 생성하는 동시적 멀티 프레젠스 구현부를 포함하는 확장 현실 서버.
A communication module provided to perform wired/wireless data communication through a network;
a memory for storing received data and a program for realizing an extended reality use environment having a simultaneous multi-presence function; and
Including a control unit for executing a program stored in the memory,
The control unit,
Data for realizing an extended reality environment with a simultaneous multi-presence function by applying data received from a user terminal or data stored in the memory to a program for implementing an extended reality environment with a simultaneous multi-presence function An extended reality server including a concurrent multi-presence implementation unit that generates a
제1항에 있어서,
상기 동시적 멀티 프레젠스 구현부는,
카메라를 통해 촬영된 영상을 수신하고, 수신된 영상을 처리하여 프레젠스 영상을 생성하는 텔레 프레젠스부를 포함하는 확장 현실 서버.
According to claim 1,
The simultaneous multi-presence implementation unit,
An extended reality server including a telepresence unit that receives an image captured by a camera and generates a presence image by processing the received image.
제2항에 있어서,
상기 동시적 멀티 프레젠스 구현부는,
상기 동시적 멀티 프레젠스 구현부는,
공동 프로젝트에 참여하는 사용자들 각각이 위치된 공간을 촬영하여 생성된 프레젠스 영상들이 한 명의 사용자(U)에게 그를 중심으로 그 주의에 배열되는 방식으로 표시되게 하는 멀티 프레젠스 모드를 구현하는 멀티 프레젠스 공간 관리부를 더 포함하는 확장 현실 서버.
According to claim 2,
The simultaneous multi-presence implementation unit,
The simultaneous multi-presence implementation unit,
A multi-presence mode that implements a multi-presence mode in which the presence images created by photographing the space where each of the users participating in the joint project are located are displayed to one user (U) in a manner arranged around him. An extended reality server further comprising a Jens space management unit.
제3항에 있어서,
멀티 프레젠스 공간 관리부는 사용자 단말기(20)를 통해 사용자(U)에게 표시되는 영상의 공간상에 형성된 가상의 스크린인 프레젠스 디스플레이 스크린에 공동 프로젝트에 참여하는 사용자들 각각이 위치된 공간을 촬영하여 생성된 프레젠스 영상들이 표시되게 하여 상기 멀티 프레젠스 모드를 구현하는 확장 현실 서버.
According to claim 3,
The multi-presence space management unit photographs the space where each user participating in the joint project is located on the presence display screen, which is a virtual screen formed on the space of the image displayed to the user U through the user terminal 20. An extended reality server implementing the multi-presence mode by displaying the generated presence images.
제3항에 있어서,
멀티 프레젠스 공간 관리부는 사용자의 선택에 따라 상기 프레젠스 디스플레이 스크린에 위치된 프레젠스 영상들 중 특정 영상만이 표시되는 몰입 모드가 되게 하는 확장 현실 서버.
According to claim 3,
The multi-presence space management unit enables an immersion mode in which only specific images among presence images located on the presence display screen are displayed according to a user's selection.
KR1020210183318A 2021-12-21 2021-12-21 Multi-presence capable Extended Reality Server KR102630832B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210183318A KR102630832B1 (en) 2021-12-21 2021-12-21 Multi-presence capable Extended Reality Server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210183318A KR102630832B1 (en) 2021-12-21 2021-12-21 Multi-presence capable Extended Reality Server

Publications (2)

Publication Number Publication Date
KR20230094289A true KR20230094289A (en) 2023-06-28
KR102630832B1 KR102630832B1 (en) 2024-01-29

Family

ID=86994423

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210183318A KR102630832B1 (en) 2021-12-21 2021-12-21 Multi-presence capable Extended Reality Server

Country Status (1)

Country Link
KR (1) KR102630832B1 (en)

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
"Spatial - Collaborate from Anywhere in AR", "https://www.youtube.com/watch?v=PG3tQYlZ6JQ&t=5s&ab_channel=Spatial"(2018.10.24)* *
"원격 협업의 새로운 패러다임, Horizon Workrooms를 소개합니다.", "https://about.fb.com/ko/news/2021/08/"(2021.08.21.)* *
"집에서 일하다가 3차원 가상 회의실로 홀로그래픽 오피스가 업무의 틀 바꾼다", "https://dbr.donga.com/article/view/1201/article_no/9993/ac/magazine"(2021.04.30.)* *
Lee, Jun, et al. "Supporting fine-grained concurrent tasks and personal workspaces for a hybrid concurrency control mechanism in a networked virtual environment." Presence 21.4(2012.12.31.)* *
Saraiji, et al. "Layered telepresence: simultaneous multi presence experience using eye gaze based perceptual awareness blending." ACM SIGGRAPH 2016 Posters(2016.07.28.)* *

Also Published As

Publication number Publication date
KR102630832B1 (en) 2024-01-29

Similar Documents

Publication Publication Date Title
KR101918262B1 (en) Method and system for providing mixed reality service
EP3804301B1 (en) Re-creation of virtual environment through a video call
US20180324229A1 (en) Systems and methods for providing expert assistance from a remote expert to a user operating an augmented reality device
US9654734B1 (en) Virtual conference room
JP2009252240A (en) System, method and program for incorporating reflection
CN112184356A (en) Guided retail experience
CN112752025B (en) Lens switching method and device for virtual scene
EP4254943A1 (en) Head-tracking based media selection for video communications in virtual environments
Ryskeldiev et al. Streamspace: Pervasive mixed reality telepresence for remote collaboration on mobile devices
US20230405475A1 (en) Shooting method, apparatus, device and medium based on virtual reality space
Stanney et al. Virtual environments in the 21st century
Verma et al. Systematic review of virtual reality & its challenges
Oliva et al. The Making of a Newspaper Interview in Virtual Reality: Realistic Avatars, Philosophy, and Sushi
KR20160136160A (en) Virtual Reality Performance System and Performance Method
KR102528581B1 (en) Extended Reality Server With Adaptive Concurrency Control
KR102630832B1 (en) Multi-presence capable Extended Reality Server
US11733772B2 (en) Viewing a virtual world through a virtual window
GB2525304A (en) Interactive information display
Guan et al. Design frameworks for hyper-connected social xri immersive metaverse environments
Xu et al. Design and Implementation of an Immersive Network Collaborative Environment Using OpenPose with 360VR Camera and WebXR
da Silva et al. Immersive mobile telepresence systems: A systematic literature review
JP7571950B2 (en) Virtual space image providing program and information terminal device
TWI799195B (en) Method and system for implementing third-person perspective with a virtual object
US20240242423A1 (en) Virtual pose rendering using neural radiance model
US20240193894A1 (en) Data processing method and apparatus, electronic device and storage medium

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant