KR20220125540A - A method for providing a virtual space client-based mutual interaction service according to location interlocking between objects in a virtual space and a real space - Google Patents

A method for providing a virtual space client-based mutual interaction service according to location interlocking between objects in a virtual space and a real space Download PDF

Info

Publication number
KR20220125540A
KR20220125540A KR1020210029495A KR20210029495A KR20220125540A KR 20220125540 A KR20220125540 A KR 20220125540A KR 1020210029495 A KR1020210029495 A KR 1020210029495A KR 20210029495 A KR20210029495 A KR 20210029495A KR 20220125540 A KR20220125540 A KR 20220125540A
Authority
KR
South Korea
Prior art keywords
character
reality user
augmented reality
coordinates
virtual
Prior art date
Application number
KR1020210029495A
Other languages
Korean (ko)
Inventor
유철호
Original Assignee
주식회사 맘모식스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 맘모식스 filed Critical 주식회사 맘모식스
Priority to KR1020210029495A priority Critical patent/KR20220125540A/en
Publication of KR20220125540A publication Critical patent/KR20220125540A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Tourism & Hospitality (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Human Computer Interaction (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Information Transfer Between Computers (AREA)
  • Computer And Data Communications (AREA)

Abstract

Presented is a method for providing a mutual interaction service between a virtual reality user and an augmented reality user, which can provide various mutual interaction services between the virtual reality user and the augmented reality user based on a virtual space built using digital twin technology. The present invention relates to the method for providing a VR client standard service. The method comprises the steps of: generating a channel by loading the virtual space (VR scene) by mapping coordinates of a real world corresponding to the virtual space built for a service target area, and outputting my character of a VR user character (VR character) to the VR scene; outputting other characters (AR characters) corresponding to one or more augmented reality users corresponding to each VR scene in response to the location of one or more augmented reality user terminals connected to the channel; and among the location information of the AR character, recording LBS coordinates and GPS coordinate changes, calculating a coordinate change direction and an average movement speed, and when the coordinates cannot be recognized, generating a virtual movement path to correct a location change error of the AR character by reproducing a movement animation. Action values are transmitted and received through a network between objects, of which locations are output, to generate mutual interactions. Therefore, the present invention can improve user satisfaction.

Description

가상공간과 현실공간의 객체간 위치 연동에 따른 가상공간 클라이언트 기반의 상호 인터렉션 서비스 제공 방법{A method for providing a virtual space client-based mutual interaction service according to location interlocking between objects in a virtual space and a real space}A method for providing a virtual space client-based mutual interaction service according to location interlocking between objects in a virtual space and a real space }

본 발명은 디지털 트윈 기술을 기반으로 가상현실 사용자와 증강현실 사용와의 객체간 위치를 연동시켜 상호 인터렉션 서비스를 제공해 줄 수 있는 가상공간과 현실공간의 객체간 위치 연동에 따른 가상공간 클라이언트 기반의 상호 인터렉션 서비스 제공 방법에 관한 것이다.The present invention provides a mutual interaction service based on digital twin technology based on a virtual space client-based interaction between objects in a virtual space and real space, which can provide a mutual interaction service by linking the positions between virtual reality users and augmented reality users. It relates to a method of providing a service.

인간의 경험을 공유하고 확장하는 도구로써 최근 가상현실(Virtual Reality: VR)과 증강현실(Augmented Reality: AR)이 주목을 받고 있다. Recently, virtual reality (VR) and augmented reality (AR) are attracting attention as tools for sharing and expanding human experience.

가상현실(VR)은 배경과 객체로 구성된 가상의 이미지로 가상공간을 만들어내지만, 증강현실(AR)은 현실의 이미지에 3차원 가상 이미지를 겹쳐 하나의 영상으로 보여주는 기술이다. Virtual reality (VR) creates a virtual space with a virtual image composed of a background and an object, whereas augmented reality (AR) is a technology that shows a three-dimensional virtual image over a real image as a single image.

가상현실 애플리케이션은 가상현실용 안경, 모션 인식장치 등 별도의 장비를 통해 전달된 사용자의 행위에 따라 가상의 공간에서 상호작용하며 사용자에게 체험환경을 제공한다. 증강현실 애플리케이션은 현실 세계의 객체와 가상의 객체가 상호작용하여 현실감이 높다.The virtual reality application provides an experience environment to the user by interacting in a virtual space according to the user's actions delivered through separate equipment such as virtual reality glasses and motion recognition devices. Augmented reality applications have a high sense of reality because objects in the real world and virtual objects interact.

최근에는 3차원 렌더링(Rendering) 등 컴퓨터 그래픽스(Computer Graphics) 기술, 고속/병렬 처리 기술 등 소프트웨어 및 하드웨어 기술의 발전으로 인해, 가상현실 및 증강현실 기술이 이용된 다양한 애플리케이션들이 개발되고 있다. 게임, 산업 등 다양한 업계에서도 가상현실과 증강현실 기술들을 이용한 애플리케이션 개발에 관심을 갖고 있다.Recently, due to the development of software and hardware technologies such as computer graphics technology such as 3D rendering and high-speed/parallel processing technology, various applications using virtual reality and augmented reality technology are being developed. Various industries such as games and industries are also interested in developing applications using virtual and augmented reality technologies.

한국공개특허 10-2005-0061856호(2005.06.23) 가상현실을 이용한 관광 안내 서비스 시스템 및 그 서비스 방법.Korean Patent Laid-Open Patent Publication No. 10-2005-0061856 (June 23, 2005) A tour guide service system using virtual reality and a service method therefor.

본 발명은 상기한 종래의 사정을 감안하여 제안된 것으로, 디지털 트윈 기술로 구축된 가상 공간을 기반으로 가상현실 사용자와 증강현실 사용자간에 다양한 상호 인터렉션 서비스를 제공해 주도록 하는 가상공간과 현실공간의 객체간 위치 연동에 따른 가상공간 클라이언트 기반의 상호 인터렉션 서비스 제공 방법을 제공함에 목적이 있다.The present invention has been proposed in view of the above-described conventional circumstances, and between objects in virtual space and real space to provide various interactive interaction services between virtual reality users and augmented reality users based on a virtual space built with digital twin technology. An object of the present invention is to provide a method for providing a virtual space client-based mutual interaction service according to location linkage.

상기와 같은 목적을 달성하기 위하여 본 발명의 바람직한 실시양태에 따른 방법은, VR 클라이언트 기준 서비스 제공 방법으로서, 서비스 대상지역에 대해 구축된 가상공간과 대응된 현실세계의 좌표를 맵핑하여 가상공간(VR씬)을 로드시켜 채널을 생성하고, 상기 VR씬에 VR 사용자의 내 캐릭터(VR캐릭터)를 출력하는 단계; 상기 채널에 접속된 하나 이상의 증강현실 사용자 단말의 위치에 대응하여 각각 VR씬에 해당 하나 이상의 증강현실 사용자에 대응되는 타 캐릭터(AR 캐릭터)를 출력하는 단계; 상기 AR 캐릭터의 위치정보 중 LBS좌표와 GPS 좌표 변동을 기록하고, 좌표 변경 방향 및 평균 이동 속도를 연산하며, 좌표 인식 불가시 가상 이동 경로를 생성하여 이동 애니메이션 재생으로 AR캐릭터의 위치변동 오차를 보정하는 단계; 를 포함하여 상기 위치가 출력된 객체간 네트워크를 통해 행동값을 주고받아 서로의 인터렉션을 발생시키는 서비스 제공 방법이다.In order to achieve the above object, a method according to a preferred embodiment of the present invention is a method of providing a VR client standard service, by mapping the coordinates of the virtual space constructed for the service target area and the real world corresponding to the virtual space (VR). scene) to create a channel, and outputting a VR user's my character (VR character) to the VR scene; outputting other characters (AR characters) corresponding to the one or more augmented reality users to a VR scene in response to the positions of one or more augmented reality user terminals connected to the channel; Records LBS coordinates and GPS coordinate changes among the location information of the AR character, calculates the coordinate change direction and average movement speed, and creates a virtual movement path when coordinates cannot be recognized to do; It is a service providing method for generating interaction with each other by exchanging action values through a network between objects, including the location output.

상기 방법을 구현하는 장치는, 하나 이상의 디지털 트윈 영상을 저장하는 디지털 트윈 영상 저장부; 가상현실 공간에 대응하는 증강현실 사용자와의 상호 인터렉션을 처리하는 가상현실 사용자 단말과, 증강현실 공간에 대응하는 가상현실 사용자와의 상호 인터렉션을 처리하는 증강현실 사용자 단말 간 위치 및 좌표계 동기화를 처리하는 동기화부; 및 상기 동기화부를 통해 동기화된 위치 및 좌표계에 대응되는 디지털 트윈 영상을 상기 디지털 트윈 영상 저장부에서 추출하여 상기 가상현실 사용자 단말로 전송하고, 상기 증강현실 사용자 단말에는 현실 영상을 배경으로 하고, 상기 가상현실 사용자 단말에는 상기 디지털 트윈 영상을 배경으로 하여, 상기 위치 및 좌표계 동기화에 기초한 상기 증강현실 사용자 및 상기 가상현실 사용자 간 상호 인터렉션 서비스를 제공하는 인터렉션 서비스 제공부;를 포함하는, 인터렉션 서비스 제공 장치로 구성될 수 있다.An apparatus for implementing the method includes: a digital twin image storage unit for storing one or more digital twin images; A virtual reality user terminal that processes mutual interaction with an augmented reality user corresponding to a virtual reality space, and an augmented reality user terminal that processes mutual interaction with a virtual reality user corresponding to an augmented reality space. synchronizer; and extracting a digital twin image corresponding to the position and coordinate system synchronized through the synchronization unit from the digital twin image storage unit and transmitting it to the virtual reality user terminal, with a real image as a background in the augmented reality user terminal, and the virtual In the real user terminal, with the digital twin image as a background, an interaction service providing unit that provides a mutual interaction service between the augmented reality user and the virtual reality user based on the location and coordinate system synchronization; can be configured.

상기 위치 및 좌표계 동기화부는, 각각 동기화된 위치 정보 및 좌표계 정보를 상기 가상현실 사용자 단말 및 증강현실 사용자 단말에게로 전송할 수 있다.The location and coordinate system synchronizer may transmit the synchronized location information and coordinate system information to the virtual reality user terminal and the augmented reality user terminal, respectively.

상호 인터렉션을 하고자 하는 가상현실 사용자 단말 및 증강현실 사용자 단말 간의 네트워크 채널을 연결시키는 네트워크 채널 연결부;를 추가로 포함할 수 있다.It may further include; a network channel connection unit for connecting a network channel between the virtual reality user terminal and the augmented reality user terminal to interact with each other.

상기 디지털 트윈 영상은, 실제 장비 또는 공간을 가상 세계에 똑같이 구현하는 디지털 트윈 기술로 제작된 영상일 수 있다.The digital twin image may be an image produced by digital twin technology that implements real equipment or space in the virtual world.

상기 인터렉션 서비스 제공부는, 증강현실 사용자와의 상호 인터렉션이 가능한 서비스 앱을 상기 가상현실 사용자 단말에게로 다운로드할 수 있다.The interaction service providing unit may download a service app capable of mutual interaction with the augmented reality user to the virtual reality user terminal.

상기 인터렉션 서비스 제공부는, 가상현실 사용자와의 상호 인터렉션이 가능한 서비스 앱을 상기 증강현실 사용자 단말에게로 다운로드할 수 있다.The interaction service providing unit may download a service app capable of mutual interaction with the virtual reality user to the augmented reality user terminal.

한편, 본 발명의 바람직한 실시양태에 따른 가상현실 사용자와 증강현실 사용자와의 상호 인터렉션 서비스 제공 시스템은, 가상현실 공간에서 수행되는 증강현실 사용자와의 상호 인터렉션을 처리하는 가상현실 사용자 단말; 증강현실 공간에서 수행되는 가상현실 사용자와의 상호 인터렉션을 처리하는 증강현실 사용자 단말; 및 상기 가상현실 사용자 단말을 통해 가상현실 공간에서 수행되는 증강현실 사용자와의 상호 인터렉션 서비스를 제공하고, 상기 증강현실 사용자 단말을 통해 증강현실 공간에서 수행되는 가상현실 사용자와의 상호 인터렉션 서비스를 제공하는 서버;를 포함한다.On the other hand, a system for providing a mutual interaction service between a virtual reality user and an augmented reality user according to a preferred embodiment of the present invention includes: a virtual reality user terminal for processing mutual interaction with an augmented reality user performed in a virtual reality space; Augmented reality user terminal for processing the interaction with the virtual reality user performed in the augmented reality space; and providing a mutual interaction service with an augmented reality user performed in a virtual reality space through the virtual reality user terminal, and providing a mutual interaction service with a virtual reality user performed in an augmented reality space through the augmented reality user terminal server; includes.

상기 서버는, 상기 가상현실 사용자 단말 및 증강현실 사용자 단말의 위치와 좌표계를 각각 서로 동기화시켜 상기 가상현실 사용자 단말 및 증강현실 사용자 단말에게로 전송하고, 서로 동기화된 위치 정보가 속해 있는 해당 지역의 디지털 트윈 영상을 기저장된 디지털 트윈 영상에서 추출하여 상기 가상현실 사용자 단말 및 증강현실 사용자 단말에게로 전송할 수 있다.The server synchronizes the positions and coordinate systems of the virtual reality user terminal and the augmented reality user terminal, respectively, and transmits them to the virtual reality user terminal and the augmented reality user terminal, and the location information synchronized with each other belongs to the digital region A twin image may be extracted from a pre-stored digital twin image and transmitted to the virtual reality user terminal and the augmented reality user terminal.

상기 가상현실 사용자 단말은, 상기 가상현실 사용자의 현재 위치를 추적하는 위치 추적부; 및 상기 가상현실 사용자와 증강현실 사용자간의 동기화된 위치 및 좌표계 정보를 수신함에 따라, 서로의 위치가 동기화된 증강현실 사용자의 캐릭터를 서로 동기화된 좌표계에 근거하여 표시부상에 화면표시하는 인터렉션 서비스 제공부;를 포함할 수 있다. 이때, 상기 위치 추적부는, 통신 기지국을 통한 위도 및 경도 위치 측정 기법으로 해당 가상현실 사용자의 현재 위치를 실시간으로 추적하는 LBS 모듈부; 위성을 통한 위도 및 경도 위치 측정 기법으로 해당 가상현실 사용자의 현재 위치를 실시간으로 추적하는 GPS 모듈부; 및 상기 LBS 모듈부로부터의 LBS 좌표값과 상기 GPS 모듈부로부터의 GPS 좌표값의 오차를 지속적으로 연산하여 보정하는 오차 보정부;를 포함할 수 있다. 상기 위치 추적부는, 해당 가상현실 사용자의 위치를 추적함에 있어서 최초 LBS로 추적하고, LBS로 추적이 불가능할 경우에는 GPS로 추적할 수 있다.The virtual reality user terminal may include: a location tracking unit for tracking the current location of the virtual reality user; and an interaction service providing unit that, upon receiving the synchronized location and coordinate system information between the virtual reality user and the augmented reality user, displays the characters of the augmented reality users whose positions are synchronized with each other on the display unit based on the coordinate system synchronized with each other ; may be included. In this case, the location tracking unit may include: an LBS module unit for tracking the current location of the virtual reality user in real time using a latitude and longitude location measurement technique through a communication base station; GPS module unit for tracking the current location of the virtual reality user in real time using a latitude and longitude location measurement technique through satellite; and an error correction unit for continuously calculating and correcting an error between the LBS coordinate value from the LBS module unit and the GPS coordinate value from the GPS module unit. The location tracking unit may initially track the location of the virtual reality user with the LBS, and when tracking with the LBS is impossible, track the location with the GPS.

상기 증강현실 사용자 단말은, 상기 증강현실 사용자의 현재 위치를 추적하는 위치 추적부; 및 상기 가상현실 사용자와 증강현실 사용자간의 동기화된 위치 및 좌표계 정보를 수신함에 따라, 서로의 위치가 동기화된 가상현실 사용자의 캐릭터를 서로 동기화된 좌표계에 근거하여 표시부상에 화면표시하는 인터렉션 서비스 제공부;를 포함할 수 있다. 이때, 상기 위치 추적부는 통신 기지국을 통한 위도 및 경도 위치 측정 기법으로 해당 증강현실 사용자의 현재 위치를 실시간으로 추적하는 LBS 모듈부; 위성을 통한 위도 및 경도 위치 측정 기법으로 해당 증강현실 사용자의 현재 위치를 실시간으로 추적하는 GPS 모듈부; 및 상기 LBS 모듈부로부터의 LBS 좌표값과 상기 GPS 모듈부로부터의 GPS 좌표값의 오차를 지속적으로 연산하여 보정하는 오차 보정부;를 포함할 수 있다. 상기 위치 추적부는 해당 증강현실 사용자의 위치를 추적함에 있어서 최초 LBS로 추적하고, LBS로 추적이 불가능할 경우에는 GPS로 추적할 수 있다.The augmented reality user terminal, a location tracking unit for tracking the current location of the augmented reality user; and an interaction service providing unit that, upon receiving the synchronized location and coordinate system information between the virtual reality user and the augmented reality user, displays the characters of the virtual reality users whose positions are synchronized with each other on the display unit based on the coordinate system synchronized with each other ; may be included. At this time, the location tracking unit LBS module unit for tracking the current location of the augmented reality user in real time by a latitude and longitude location measurement technique through a communication base station; GPS module unit for tracking the current location of the augmented reality user in real time using a latitude and longitude location measurement technique through satellite; and an error correction unit for continuously calculating and correcting an error between the LBS coordinate value from the LBS module unit and the GPS coordinate value from the GPS module unit. The location tracking unit may track the location of the augmented reality user with the first LBS, and if tracking with the LBS is not possible, track the location with GPS.

이러한 구성의 본 발명에 따르면, 디지털 트윈 기술로 구축된 가상 공간을 기반으로 가상현실 사용자와 증강현실 사용자간에 다양한 상호 인터렉션 서비스가 가능하므로, 사용자의 만족도를 향상시킬 수 있다.According to the present invention having such a configuration, various interactive interaction services are possible between a virtual reality user and an augmented reality user based on a virtual space built with digital twin technology, and thus user satisfaction can be improved.

도 1은 본 발명의 실시예에 따른 가상현실 사용자와 증강현실 사용자와의 상호 인터렉션 서비스 제공 시스템의 구성도이다.
도 2는 도 1에 도시된 가상현실 사용자 단말의 내부 구성도이다.
도 3은 도 1에 도시된 증강현실 사용자 단말의 내부 구성도이다.
도 4는 도 1에 도시된 서버의 내부 구성도이다.
도 5 및 도 6은 도 1에 도시된 증강현실 사용자 단말에 표시되는 화면예들이다.
도 7은 본 발명에 의한 상호 인터렉션 서비스 시스템의 인터렉션 서비스 제공 방법 설명도이다,
도 8은 본 발명에 의한 상호 인터렉션 서비스 시스템의 VR 클라이언트의 서비스 제공 방법 설명도이다.
도 9는 본 발명에 의한 상호 인터렉션 서비스 시스템의 AR 클라이언트의 서비스 제공 방법 설명도이다.
1 is a block diagram of a system for providing a mutual interaction service between a virtual reality user and an augmented reality user according to an embodiment of the present invention.
FIG. 2 is an internal configuration diagram of the virtual reality user terminal shown in FIG. 1 .
3 is an internal configuration diagram of the augmented reality user terminal shown in FIG. 1 .
FIG. 4 is an internal configuration diagram of the server shown in FIG. 1 .
5 and 6 are examples of screens displayed on the augmented reality user terminal shown in FIG. 1 .
7 is an explanatory diagram of an interaction service providing method of a mutual interaction service system according to the present invention;
8 is an explanatory diagram of a service providing method of a VR client of the mutual interaction service system according to the present invention.
9 is an explanatory diagram of a service providing method of an AR client of the mutual interaction service system according to the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. In describing the present invention, in order to facilitate the overall understanding, the same reference numerals are used for the same components in the drawings, and duplicate descriptions of the same components are omitted.

도 1은 본 발명의 실시예에 따른 가상현실 사용자와 증강현실 사용자와의 상호 인터렉션 서비스 제공 시스템의 구성도이다.1 is a block diagram of a system for providing a mutual interaction service between a virtual reality user and an augmented reality user according to an embodiment of the present invention.

본 발명의 실시예에 따른 가상현실 사용자와 증강현실 사용자와의 상호 인터렉션 서비스 제공 시스템은, 가상현실 사용자 단말(10), 증강현실 사용자 단말(20), 네트워크(30), 및 서버(40)를 포함할 수 있다.A system for providing a mutual interaction service between a virtual reality user and an augmented reality user according to an embodiment of the present invention includes a virtual reality user terminal 10 , an augmented reality user terminal 20 , a network 30 , and a server 40 . may include

가상현실 사용자 단말(10)은 가상현실(Virtual Reality; VR) 공간을 통해 수행되는 가상현실 서비스를 제공할 수 있다.The virtual reality user terminal 10 may provide a virtual reality service performed through a virtual reality (VR) space.

특히, 가상현실 사용자 단말(10)은 가상현실(Virtual Reality; VR) 공간에서 수행되는 증강현실 사용자(즉, 증강현실 사용자 단말(20))와의 상호 인터렉션을 처리할 수 있다.In particular, the virtual reality user terminal 10 may process interaction with an augmented reality user (ie, the augmented reality user terminal 20 ) performed in a virtual reality (VR) space.

가상현실 사용자 단말(10)은 증강현실 사용자와의 상호 인터렉션이 가능한 서비스 앱을 서버(40)로부터 다운로드받아서 사용할 수 있다.The virtual reality user terminal 10 may download and use a service app capable of mutual interaction with the augmented reality user from the server 40 .

가상현실 사용자 단말(10)은 상호 인터렉션을 수행하는 증강현실 사용자의 캐릭터(예컨대, 3차원 객체)를 증강현실 사용자의 현재 위치를 기반으로 화면에 표시할 수 있다.The virtual reality user terminal 10 may display a character (eg, a three-dimensional object) of the augmented reality user performing mutual interaction on the screen based on the current location of the augmented reality user.

또한, 상기 가상현실 사용자 단말(20)은 동일 네트워크 채널에 접속한 복수의 타 가상현실 사용자의 캐릭터, 복수의 타 증강현실 사용자 단말에 대응된 캐릭터를 상호 인터렉션을 수행하여 화면에 표시할 수 있다.In addition, the virtual reality user terminal 20 may display the characters of a plurality of other virtual reality users connected to the same network channel and characters corresponding to the plurality of other augmented reality user terminals by performing a mutual interaction on the screen.

또한, 복수의 캐릭터를 표시하는 경우에, 전체 참여자 캐릭터들을 대응 표시한 별도의 맵창으로 표시할 수 있다. In addition, in the case of displaying a plurality of characters, it is possible to display all the participant characters in a separate map window correspondingly displayed.

증강현실 사용자 단말(20)은 증강현실(Augmented Reality; AR) 공간을 통해 수행되는 증강현실 서비스를 제공할 수 있다.The augmented reality user terminal 20 may provide an augmented reality service performed through an augmented reality (AR) space.

특히. 증강현실 사용자 단말(20)은 증강현실(Augmented Reality; AR) 공간에서 수행되는 가상현실 사용자(즉, 가상현실 사용자 단말(10))와의 상호 인터렉션을 처리할 수 있다.Especially. The augmented reality user terminal 20 may process a mutual interaction with a virtual reality user (ie, the virtual reality user terminal 10) performed in an augmented reality (AR) space.

증강현실 사용자 단말(20)은 가상현실 사용자와의 상호 인터렉션이 가능한 서비스 앱을 서버(40)로부터 다운로드받아서 사용할 수 있다.The augmented reality user terminal 20 may download and use a service app capable of mutual interaction with the virtual reality user from the server 40 .

증강현실 사용자 단말(20)은 상호 인터렉션을 수행하는 가상현실 사용자의 캐릭터(예컨대, 3차원 객체)를 가상현실 사용자의 3D씬 내에서의 캐릭터 현재 위치를 기반으로 화면에 표시할 수 있다.The augmented reality user terminal 20 may display a character (eg, a three-dimensional object) of a virtual reality user performing mutual interaction on the screen based on the current position of the character in the 3D scene of the virtual reality user.

증강현실 사용자 단말(20)은 동일 네트워크 채널에 접속한 복수의 가상현실 사용자의 캐릭터, 복수의 타 증강현실 사용자 단말에 대응된 캐릭터를 상호 인터렉션을 수행하여 화면에 표시할 수 있다.The augmented reality user terminal 20 may display the characters of a plurality of virtual reality users connected to the same network channel and characters corresponding to a plurality of other augmented reality user terminals by performing a mutual interaction on the screen.

또한, 복수의 캐릭터를 표시하는 경우에, 전체 참여자 캐릭터들을 대응 표시한 별도의 맵창으로 표시할 수 있다.In addition, in the case of displaying a plurality of characters, it is possible to display all the participant characters in a separate map window correspondingly displayed.

상술한 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)은 휴대용 단말기 또는 휴대용 컴퓨터로 구현될 수 있다. 여기서, 휴대용 단말기는 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 휴대용 컴퓨터는 노트북, 랩톱(laptop) 등을 포함할 수 있다. The above-described virtual reality user terminal 10 and augmented reality user terminal 20 may be implemented as a portable terminal or a portable computer. Here, the portable terminal is a wireless communication device that guarantees portability and mobility, and includes a Personal Communication System (PCS), a Global System for Mobile communications (GSM), a Personal Digital Cellular (PDC), a Personal Handyphone System (PHS), and a Personal Digital (PDA). Assistant), International Mobile Telecommunication (IMT)-2000, Code Division Multiple Access (CDMA)-2000, W-Code Division Multiple Access (W-CDMA), Wireless Broadband Internet (Wibro) terminals, etc. ) based wireless communication device. Portable computers may include notebooks, laptops, and the like.

또한, 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)은 스마트폰, 스마트 노트, 태블릿 PC, 웨어러블(wearable) 컴퓨터 등의 각종 스마트 기기일 수도 있다.In addition, the virtual reality user terminal 10 and the augmented reality user terminal 20 may be various smart devices such as a smart phone, a smart note, a tablet PC, and a wearable computer.

한편, 상술한 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)은 네트워크(30)를 통해 서버(40)에 접속할 수 있다.Meanwhile, the aforementioned virtual reality user terminal 10 and augmented reality user terminal 20 may access the server 40 through the network 30 .

여기서, 네트워크(30)는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network;WAN) 또는 부가가치 통신망(Value Added Network; VAN) 등과 같은 유선 네트워크로 구현될 수 있다. 한편으로, 네트워크(30)는 이동 통신망(mobile radio communication network), 위성 통신망, 블루투스(Bluetooth), Wibro(Wireless Broadband Internet), HSDPA(High Speed Downlink Packet Access), LTE(Long Term Evolution) 등과 같은 모든 종류의 무선 네트워크로 구현될 수 있다. 필요에 따라서, 네트워크(30)는 유선 및 무선이 혼용된 네트워크일 수 있다.Here, the network 30 may be implemented as a wired network such as a local area network (LAN), a wide area network (WAN), or a value added network (VAN). On the other hand, the network 30 is a mobile communication network (mobile radio communication network), satellite communication network, Bluetooth (Bluetooth), Wibro (Wireless Broadband Internet), HSDPA (High Speed Downlink Packet Access), LTE (Long Term Evolution), such as all It can be implemented as a kind of wireless network. If necessary, the network 30 may be a network in which wired and wireless are mixed.

서버(40)는 가상현실 사용자 단말(10)을 통해 가상현실 공간에서 수행되는 증강현실 사용자와의 상호 인터렉션 서비스를 제공할 수 있다.The server 40 may provide a mutual interaction service with an augmented reality user performed in a virtual reality space through the virtual reality user terminal 10 .

또한, 서버(40)는 증강현실 사용자 단말(20)을 통해 증강현실 공간에서 수행되는 가상현실 사용자와의 상호 인터렉션 서비스를 제공할 수 있다.In addition, the server 40 may provide a mutual interaction service with the virtual reality user performed in the augmented reality space through the augmented reality user terminal 20 .

특히, 서버(40)는 가상현실 사용자와 증강현실 사용자간의 상호 인터렉션을 위해 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)의 현재 위치 및 좌표계를 서로 동기화시켜 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)에게로 전송할 수 있다. In particular, the server 40 synchronizes the current positions and coordinate systems of the virtual reality user terminal 10 and the augmented reality user terminal 20 with each other for mutual interaction between the virtual reality user and the augmented reality user terminal 10. And it can be transmitted to the augmented reality user terminal (20).

그에 따라, 가상현실 사용자와 증강현실 사용자가 상호 인터렉션을 하는 동안에는, 가상현실 사용자 단말(10)에는 디지털 트윈 영상과 상대방(즉, 증강현실 사용자)의 캐릭터(3차원 모델)가 표시되고, 증강현실 사용자 단말(20)에는 카메라 영상(배경 영상)과 상대방(즉, 가상현실 사용자)의 캐릭터(3차원 모델)가 표시된다.Accordingly, while the virtual reality user and the augmented reality user interact with each other, the virtual reality user terminal 10 displays a digital twin image and a character (three-dimensional model) of the other party (ie, augmented reality user), augmented reality The user terminal 20 displays a camera image (background image) and a character (three-dimensional model) of the other party (ie, virtual reality user).

또한, 가상현실 사용자와 증강현실 사용자가 상호 인터렉션을 하는 동안에 어느 사용자가 이동하게 되면 각각의 단말에 화면표시되는 영상 및 상대방 캐릭터 역시 해당 사용자의 이동 위치에 따라 이동될 수 있다.In addition, when a user moves while the virtual reality user and the augmented reality user interact with each other, the image displayed on the screen of each terminal and the character of the other party may also be moved according to the moving position of the corresponding user.

도 1에는 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)을 하나씩 도시하였으나, 실질적으로 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)은 각각 다수개가 있는 것으로 보아야 한다.Although the virtual reality user terminal 10 and the augmented reality user terminal 20 are shown one by one in FIG. 1 , it should be considered that there are actually a plurality of the virtual reality user terminal 10 and the augmented reality user terminal 20 , respectively.

도 2는 도 1에 도시된 가상현실 사용자 단말의 내부 구성도이다.FIG. 2 is an internal configuration diagram of the virtual reality user terminal shown in FIG. 1 .

가상현실 사용자 단말(10)은 위치 추적부(11), 인터렉션 서비스 제공부(12), 및 표시부(13)를 포함할 수 있다.The virtual reality user terminal 10 may include a location tracking unit 11 , an interaction service providing unit 12 , and a display unit 13 .

위치 추적부(11)는 가상현실 사용자에 대응된 가상현실 캐릭터와, 증강 현실 사용자 단말에 대응된 증강현실 캐릭터의 현재 위치를 추적한다.The location tracking unit 11 tracks the current location of the virtual reality character corresponding to the virtual reality user and the augmented reality character corresponding to the augmented reality user terminal.

위치 추적부(11)는 내 위치 추적부(11a), 타 캐릭터 위치수신부(11b) 및 오차 보정부(11c)를 포함할 수 있다.The position tracking unit 11 may include an internal position tracking unit 11a, another character position receiving unit 11b, and an error correcting unit 11c.

내 위치 추적부(11a)는 가상현실 사용자에 대응시켜 3D 씬에 로드시킨 내 캐릭터의 위치를 추적한다. 이는 3D씬의 좌표를 해당되는 현실 세계의 좌표와 맵핑시켜주고, 3D씬에서의 내 캐릭터의 위치를 추적한다.My location tracking unit 11a tracks the location of my character loaded into the 3D scene in correspondence with the virtual reality user. This maps the coordinates of the 3D scene to the corresponding coordinates in the real world, and tracks the position of my character in the 3D scene.

타 캐릭터 위치수신부(11b)는, 해당 네트워크 채널에 접속한 타 사용자에 대응된 타 캐릭터의 위치정보를 수신받는다. 즉, AR 사용자 단말의 LBS좌표값과 GPS좌표값 정보를 수신받는다.The other character location receiving unit 11b receives the location information of the other character corresponding to the other user connected to the corresponding network channel. That is, the LBS coordinate value and GPS coordinate value information of the AR user terminal are received.

오차 보정부(11c)는 타 캐릭터 위치수신부(11b)를 통해 수신된 타 캐릭터의 위치 정보중 LBS 좌표값과 GPS 좌표값의 오차를 지속적으로 연산하여 보정할 수 있다.The error correcting unit 11c may continuously calculate and correct the error between the LBS coordinate value and the GPS coordinate value among the position information of the other character received through the other character position receiving unit 11b.

또한, LBS 좌표값과 GPS 좌표값의 오차를 지속적으로 연산하여 프로그램 구동 이후 둘의 평균 오차율을 예측, LBS 특성상 기지국 사이에 연결이 끊어졌다가 다시 접속되는 동안에 이 예측값을 대입하여 자연스럽게 위치 출력이 이어지도록 유지한다.In addition, the error between the LBS coordinate value and the GPS coordinate value is continuously calculated to predict the average error rate of the two after the program is started. keep it down

인터렉션 서비스 제공부(12)는 네트워크(30)를 통해 서버(40)에 접속하여 로그인할 수 있다.The interaction service providing unit 12 may log in by accessing the server 40 through the network 30 .

인터렉션 서비스 제공부(12)는 위치 추적부(11)를 통해 현재의 접속 좌표 및 최종 기록 좌표를 확인할 수 있다. 이때, 인터렉션 서비스 제공부(12)는 GPS 및 LBS로 동시 체크가능하고, 최초 실행의 경우 디폴트를 로드한다.The interaction service providing unit 12 may check the current connection coordinates and the final recorded coordinates through the location tracking unit 11 . At this time, the interaction service providing unit 12 can be checked simultaneously with GPS and LBS, and in the case of the first execution, the default is loaded.

인터렉션 서비스 제공부(12)는 최종 기록 좌표(예컨대, 선행에 마지막으로 서버(40)와의 접속을 종료한 좌표)를 포함하는 3차원 월드 씬(scene)을 생성할 수 있다. 여기서, 씬은 가상공간의 단위를 의미한다. 가상공간은 디지털 트윈(digital twin)으로 제작된 3차원 월드를 의미한다. 좌표는 씬내의 위치정보(X,Y,Z)를 의미한다. 디지털 트윈은 실제 장비 또는 공간을 가상 세계(3차원 세계)에 쌍둥이처럼 똑같이 구현하는 기술을 의미하는 것으로서, 현실 공간의 물리적 객체(실제 사물 등)들에 대한 디지털 복제를 의미한다.The interaction service providing unit 12 may generate a three-dimensional world scene including the final recorded coordinates (eg, the coordinates at which the connection with the server 40 was last terminated in advance). Here, the scene means a unit of virtual space. Virtual space refers to a three-dimensional world created by digital twins. Coordinates mean location information (X, Y, Z) in the scene. Digital twin refers to technology that implements real equipment or space in the virtual world (three-dimensional world) like twins, and refers to digital reproduction of physical objects (real objects, etc.) in real space.

인터렉션 서비스 제공부(12)는 최종 기록 좌표가 디지털 트윈 미구현 지역에 속하는 경우에는 "서비스지역 아님" 이라는 표시를 할 수 있고, 임의의 가상 씬으로 이동할 수 있다.When the final recorded coordinates belong to a digital twin unimplemented area, the interaction service providing unit 12 may display "not a service area" and move to an arbitrary virtual scene.

인터렉션 서비스 제공부(12)는 네트워크 채널로 입장할 수도 있고 네트워크 채널을 생성할 수도 있다. 예를 들어, 인터렉션 서비스 제공부(12)는 동일 월드 기준 빠른 입장이 가능하고, 해당 네트워크 채널로 입장한 참가자가 n명 이상일 경우에는 해당 월드로 새로운 네트워크 채널을 생성할 수 있다.The interaction service providing unit 12 may enter a network channel or may create a network channel. For example, the interaction service providing unit 12 can quickly enter the same world, and when there are n or more participants who have entered the corresponding network channel, it can create a new network channel to the corresponding world.

인터렉션 서비스 제공부(12)는 해당 가상현실 사용자의 캐릭터 정보를 로드할 수 있다. 이때, 인터렉션 서비스 제공부(12)는 3차원 모델, 복장, 소지금, 인벤토리 테이블 등을 로드할 수 있다.The interaction service providing unit 12 may load character information of the corresponding virtual reality user. In this case, the interaction service providing unit 12 may load a 3D model, clothes, possessions, an inventory table, and the like.

인터렉션 서비스 제공부(12)는 최종 기록 좌표값과 일치하는 3차원 월드 씬 위에 VR HMD 위치를 대응시키고 해당 가상현실 사용자의 캐릭터(3차원 모델)를 생성할 수 있다. The interaction service providing unit 12 may create a character (3D model) of the virtual reality user by matching the location of the VR HMD on the 3D world scene that matches the final recorded coordinate value.

인터렉션 서비스 제공부(12)는 1인칭 시점으로 해당 가상현실 사용자의 캐릭터 뿐만 아니라 주위를 3차원으로 표시부(13)에 표현할 수 있다. 또한, 인터렉션 서비스 제공부(12)는 1인칭 시점에 부가하여 핸드 모션 트래킹이 가능할 수 있고, PC 또는 모바일의 경우 지정된 디폴트 애니메이션을 재생할 수 있다.The interaction service providing unit 12 may express the virtual reality user's character as well as the surroundings in three-dimensional form on the display unit 13 from a first-person view. In addition, the interaction service providing unit 12 may be able to track hand motion in addition to the first-person view, and may play a designated default animation in the case of a PC or mobile.

인터렉션 서비스 제공부(12)는 이동 입력값에 따라 좌표의 변동을 기록할 수 있다. 내 캐릭터의 위치정보에 대해서 일정횟수로 좌표 변동을 기록하여 움직임 및 나중에 다시 접속할때의 좌표정보로 사용할 수 있다. 예를 들어, 타 캐릭터의 좌표 정보에 대해서는, 인터렉션 서비스 제공부(12)는 변동되는 LBS 좌표값 및 GPS 좌표값을 n초 간격으로 기록할 수도 있고, 기지국 타입에 따라 유동적으로 기록할 수도 있다. 한편, 인터렉션 서비스 제공부(12)는 기록되는 LBS 좌표값 및 GPS 좌표값을 각각 누적 10회만 저장할 수 있고, 11회 초과 기록은 자동 삭제할 수 있다. 여기서, LBS 좌표값은 통신 기지국을 통한 위도 및 경도 위치 측정 기법에 의한 좌표값을 의미하고, GPS 좌표값은 위성을 통한 위도 및 경도 위치 측정 기법에 의한 좌표값을 의미한다.The interaction service providing unit 12 may record a change in coordinates according to a movement input value. It can be used as coordinate information when moving and reconnecting later by recording coordinate changes for a certain number of times for my character's position information. For example, for the coordinate information of other characters, the interaction service providing unit 12 may record the LBS coordinate values and the GPS coordinate values that change at n second intervals, or may be recorded flexibly according to the base station type. On the other hand, the interaction service providing unit 12 may store the recorded LBS coordinate values and the GPS coordinate values, respectively, only 10 cumulative times, and may automatically delete records exceeding 11 times. Here, the LBS coordinate value means a coordinate value by a latitude and longitude position measurement technique through a communication base station, and the GPS coordinate value means a coordinate value by a latitude and longitude position measurement technique through a satellite.

인터렉션 서비스 제공부(12)는 플레이어(예컨대, 네트워크 채널이 연결된 가상현실 사용자 및 증강현실 사용자)의 좌표가 서비스 범위를 벗어날 수 없도록 이동 제한을 할 수 있다. 예를 들어, 인터렉션 서비스 제공부(12)는 가상현실 사용자 및 증강현실 사용자간의 캐릭터 충돌을 체크할 수 있고, 플레이어의 워프(warp)는 예외 처리한다.The interaction service providing unit 12 may restrict movement so that the coordinates of the player (eg, virtual reality user and augmented reality user connected to a network channel) cannot deviate from the service range. For example, the interaction service providing unit 12 may check a character collision between the virtual reality user and the augmented reality user, and the player's warp is treated as an exception.

한편, 인터렉션 서비스 제공부(12)는 네트워크 채널을 스캔하여 참여 플레이어의 좌표값을 로드(예컨대, n초 간격으로 로드)할 수 있다. Meanwhile, the interaction service providing unit 12 may scan the network channel and load the coordinate values of the participating players (eg, load at n second intervals).

인터렉션 서비스 제공부(12)는 네트워크 채널에 입장(참여)한 증강현실 사용자의 캐릭터 정보(예컨대, 외형 중심(3D 모델, 복장))를 로드할 수 있다. The interaction service provider 12 may load character information (eg, appearance center (3D model, clothes)) of an augmented reality user who has entered (participated) a network channel.

인터렉션 서비스 제공부(12)는 최종 기록 좌표값과 일치하는 3차원 월드 씬 위에 해당 증강현실 사용자의 캐릭터(3D 모델)를 생성할 수 있다.The interaction service providing unit 12 may generate a character (3D model) of the augmented reality user on the 3D world scene that matches the final recorded coordinate value.

인터렉션 서비스 제공부(12)는 네트워크 채널 스캔 결과에 따른 증강현실 사용자의 좌표 변동을 체크할 수 있고, 그에 따라 해당 증강현실 사용자의 캐릭터의 출력 위치를 변경할 수 있다.The interaction service providing unit 12 may check the coordinate change of the augmented reality user according to the network channel scan result, and may change the output position of the character of the corresponding augmented reality user accordingly.

인터렉션 서비스 제공부(12)는 증강현실 사용자에 대한 새로운 좌표 기록 시 이전 출력값과 차이점을 비교할 수 있다.The interaction service provider 12 may compare the difference with the previous output value when recording new coordinates for the augmented reality user.

인터렉션 서비스 제공부(12)는 증강현실 사용자의 좌표 변동 이벤트가 발생한 경우에는 해당 증강현실 사용자의 캐릭터(3D 모델)에 "이동 애니메이션"을 재생하고, 그에 따른 경로를 연결 처리할 수 있다.The interaction service providing unit 12 may reproduce a "moving animation" on the character (3D model) of the augmented reality user when a coordinate change event of the augmented reality user occurs, and connect the corresponding path.

인터렉션 서비스 제공부(12)는 증강현실 사용자의 새로운 좌표와 이전의 좌표간에 차이가 없는 경우 해당 증강현실 사용자의 캐릭터(3D 모델)에 "디폴트 애니메이션"을 재생할 수 있다. 해당 플레이어가 가상현실(VR)일 경우 HMD 및 핸드 트래킹 모션을 출력할 수 있다.If there is no difference between the new coordinates of the augmented reality user and the previous coordinates, the interaction service providing unit 12 may play a "default animation" on the character (3D model) of the augmented reality user. If the player is virtual reality (VR), HMD and hand tracking motion can be output.

인터렉션 서비스 제공부(12)는 위치가 출력된 가상현실 사용자와 증강현실 사용자간 네트워크(30)를 통한 행동값을 주고 받아 서로의 인터렉션(예컨대, 음성대화, 모션, 채팅, 이동 등)을 발생시킨다. The interaction service provider 12 exchanges action values through the network 30 between the virtual reality user whose location is output and the augmented reality user and generates mutual interactions (eg, voice conversation, motion, chatting, movement, etc.) .

인터렉션 서비스 제공부(12)는 LBS 좌표 인식 불가시 기록된 GPS 데이터를 로드한다. 한편, 인터렉션 서비스 제공부(12)는 GPS 데이터 로드도 불가능한 경우, 최종 기록값에 3D 모델을 출력하고 디폴트 애니메이션을 재생하거나 HMD 및 핸드 트래킹 모션을 출력할 수 있다.The interaction service providing unit 12 loads the recorded GPS data when the LBS coordinates cannot be recognized. On the other hand, when it is impossible to load GPS data, the interaction service providing unit 12 may output a 3D model to the final recorded value and reproduce a default animation or output an HMD and hand tracking motion.

인터렉션 서비스 제공부(12)는 기록된 GPS 10회의 좌표 변경 방향 및 평균 이동 속도를 연산할 수 있다.The interaction service providing unit 12 may calculate the coordinate change direction and the average moving speed of the recorded GPS 10 times.

인터렉션 서비스 제공부(12)는 LBS 좌표 인식 불가 상태의 3D 모델에 적용하여 좌표의 가상 이동 경로 생성 및 "이동 애니메이션"을 재생할 수 있다.The interaction service provider 12 may generate a virtual movement path of coordinates and reproduce a "moving animation" by applying it to a 3D model in a state where LBS coordinates cannot be recognized.

인터렉션 서비스 제공부(12)는 신규 LBS 좌표값 수신시 가상 경로 처리를 중지하고, 정상 출력 프로세스로 보정 프로세스에 덮어쓰기를 수행한다(즉, 기존 연산값 삭제).The interaction service providing unit 12 stops the virtual path processing upon receiving the new LBS coordinate value, and overwrites the correction process with the normal output process (ie, deletes the existing calculated value).

인터렉션 서비스 제공부(12)는 최초 네트워크 채널 생성시 예컨대 "채널 생성"과 같은 시스템 메시지를 표시부(13)의 화면 중앙에 전체적으로 출력할 수 있다.The interaction service providing unit 12 may output, for example, a system message such as “Channel Creation”, in the center of the screen of the display unit 13 when the first network channel is created.

인터렉션 서비스 제공부(12)는 해당 채널 플레이어의 참가시 예컨대 "#name 참가"와 같은 시스템 메시지를 표시부(13)의 화면 중앙에 전체적으로 출력할 수 있다.The interaction service providing unit 12 may output, for example, a system message such as “#name participation” in the center of the screen of the display unit 13 when the corresponding channel player participates.

인터렉션 서비스 제공부(12)는 해당 채널 플레이어의 이탈시 예컨대 "#name 이탈"과 같은 시스템 메시지를 표시부(13)의 화면 중앙에 전체적으로 출력할 수 있다.The interaction service providing unit 12 may output, for example, a system message such as “#name leaving” in the center of the screen of the display unit 13 when the corresponding channel player leaves.

특히, 인터렉션 서비스 제공부(12)는 서버(40)로부터 가상현실 사용자와 증강현실 사용자간의 동기화된 위치 및 좌표계 정보를 수신함에 따라, 서로의 위치가 동기화된 가상현실 사용자의 캐릭터와 증강현실 사용자의 캐릭터를 서로 동일한 좌표계에 근거하여 표시부(13)상에 화면표시할 수 있다.In particular, as the interaction service provider 12 receives the synchronized location and coordinate system information between the virtual reality user and the augmented reality user from the server 40, the location of the synchronized virtual reality user's character and the augmented reality user Characters can be displayed on the display unit 13 on the basis of the same coordinate system.

표시부(13)는 내 캐릭터 화면 시야각 기준(디폴트 : ±60도) 안쪽에 플레이어가 존재하는 경우 도 3에 예시한 바와 같이 해당 캐릭터(3D 모델)의 머리 위에 "#name"와 같은 표시를 디스플레이할 수 있다. The display unit 13 displays a mark such as “#name” on the head of the character (3D model) as illustrated in FIG. 3 when the player exists inside the standard of the viewing angle of the screen of my character (default: ±60 degrees). can

표시부(13)는 내 캐릭터 화면 시야각 기준(디폴트 : ±60도)을 벗어난 플레이어가 존재하는 경우 도 4에 예시한 바와 같이 61도 ~ 180도는 시야각 우측 끝라인에 순서대로 정렬해서 오른쪽 화살표 및 "#name"와 같은 표시를 디스플레이할 수 있다. 이때, 표시부(13)는 해당 플레이어의 "#name"이 아닌 각 화살표 앞에 상태아이콘을 표시할 수 있다.In the case of a player out of the standard of the viewing angle of my character screen (default: ±60 degrees), the display unit 13 shows 61 degrees to 180 degrees as illustrated in FIG. 4 by arranging the right arrow and "# name" can be displayed. In this case, the display unit 13 may display a status icon in front of each arrow rather than the “#name” of the player.

표시부(13)는 내 캐릭터 화면 시야각 기준(디폴트 : ±60도)을 벗어난 플레이어가 존재하는 경우 도 4에 예시한 바와 같이 181도 ~ 300도는 시야각 좌측 끝라인에 순서대로 정렬해서 왼쪽 화살표 및 "#name"와 같은 표시를 디스플레이할 수 있다. 이때, 표시부(13)는 해당 플레이어의 "#name"이 아닌 각 화살표 앞에 상태아이콘을 표시할 수 있다.In the case of a player out of the standard of the viewing angle of my character screen (default: ±60 degrees), the display unit 13 is 181 degrees to 300 degrees as illustrated in FIG. name" can be displayed. In this case, the display unit 13 may display a status icon in front of each arrow rather than the “#name” of the player.

표시부(13)는 플레이어가 음성 출력 상태일 때 플레이어 #name 앞에 "확성기 아이콘"을 표시할 수 있다.The display unit 13 may display a "loudpeaker icon" in front of the player #name when the player is in an audio output state.

표시부(13)는 플레이어가 텍스트 채팅 박스 출력 상태일 때 플레이어 #name 앞에 "말풍선 아이콘"을 표시할 수 있다.The display unit 13 may display a "speech bubble icon" in front of the player #name when the player is in a text chat box output state.

도 3은 도 1에 도시된 증강현실 사용자 단말의 내부 구성도이고, 도 5 및 도 6은 도 1에 도시된 증강현실 사용자 단말에 표시되는 화면예들이다.3 is an internal configuration diagram of the augmented reality user terminal shown in FIG. 1 , and FIGS. 5 and 6 are examples of screens displayed on the augmented reality user terminal shown in FIG. 1 .

증강현실 사용자 단말(20)은 위치 추적부(21), 인터렉션 서비스 제공부(22), 및 표시부(23)를 포함할 수 있다.The augmented reality user terminal 20 may include a location tracking unit 21 , an interaction service providing unit 22 , and a display unit 23 .

위치 추적부(21)는 증강현실 사용자의 현재 위치를 추적한다.The location tracking unit 21 tracks the current location of the augmented reality user.

위치 추적부(21)는 LBS 모듈부(21a), GPS 모듈부(21b), 및 오차 보정부(21c)를 포함할 수 있다.The location tracking unit 21 may include an LBS module unit 21a, a GPS module unit 21b, and an error correction unit 21c.

LBS 모듈부(21a)는 통신 기지국을 통한 위도 및 경도 위치 측정 기법으로 해당 증강현실 사용자의 현재 위치를 실시간으로 추적할 수 있다.The LBS module unit 21a may track the current location of the corresponding augmented reality user in real time by a latitude and longitude location measurement technique through a communication base station.

LBS 모듈부(21a)는 해당 증강현실 사용자에 대한 LBS 좌표값(예컨대, XYZ)을 출력한다. The LBS module unit 21a outputs an LBS coordinate value (eg, XYZ) for the corresponding augmented reality user.

GPS 모듈부(21b)는 위성을 통한 위도 및 경도 위치 측정 기법으로 해당 증강현실 사용자의 현재 위치를 실시간으로 추적할 수 있다.The GPS module unit 21b may track the current position of the corresponding augmented reality user in real time by using a latitude and longitude position measurement technique through a satellite.

GPS 모듈부(21b)는 해당 증강현실 사용자에 대한 GPS 좌표값(예컨대, XYZ)을 출력한다.The GPS module unit 21b outputs a GPS coordinate value (eg, XYZ) for the corresponding augmented reality user.

오차 보정부(21c)는 LBS 모듈부(21a)로부터의 LBS 좌표값과 GPS 모듈부(21b)로부터의 GPS 좌표값의 오차를 지속적으로 연산하여 보정할 수 있다.The error correction unit 21c may continuously calculate and correct the error between the LBS coordinate value from the LBS module unit 21a and the GPS coordinate value from the GPS module unit 21b.

다시 말해서, 위치 추적부(21)는 해당 증강현실 사용자의 위치를 추적함에 있어서 최초 LBS 모듈부(21a)로 추적하고, LBS 모듈부(21a)로 추적이 불가능할 경우에는 GPS 모듈부(21b)로 추적한다. 즉, 위치 추적부(21)는 LBS를 기준으로 해당 증강현실 사용자의 위치를 추적하되, GPS의 값은 뒤에서 계속 측정하고 기록한다.In other words, the location tracking unit 21 tracks the first LBS module unit 21a in tracking the location of the augmented reality user, and when tracking with the LBS module unit 21a is not possible, the GPS module unit 21b track That is, the location tracking unit 21 tracks the location of the augmented reality user based on the LBS, but the GPS value is continuously measured and recorded from behind.

또한, 위치 추적부(21)는 LBS 좌표값과 GPS 좌표값의 오차를 지속적으로 연산하여 프로그램 구동 이후 둘의 평균 오차율을 예측, LBS 특성상 기지국 사이에 연결이 끊어졌다가 다시 접속되는 동안에 이 예측값을 대입하여 자연스럽게 위치 출력이 이어지도록 유지한다.In addition, the location tracking unit 21 continuously calculates the error between the LBS coordinate value and the GPS coordinate value to predict the average error rate of the two after the program is driven. By substituting it, the position output is maintained naturally.

인터렉션 서비스 제공부(22)는 네트워크(30)를 통해 서버(40)에 접속하여 로그인할 수 있다.The interaction service providing unit 22 may log in by accessing the server 40 through the network 30 .

인터렉션 서비스 제공부(22)는 위치 추적부(21)를 통해 현재의 접속 좌표 및 최종 기록 좌표를 확인할 수 있다. 이때, 인터렉션 서비스 제공부(22)는 GPS 및 LBS로 동시 체크가능하고, 최초 실행의 경우 디폴트를 로드한다.The interaction service providing unit 22 may check the current connection coordinates and the final recorded coordinates through the location tracking unit 21 . At this time, the interaction service providing unit 22 can simultaneously check with GPS and LBS, and loads a default in case of first execution.

인터렉션 서비스 제공부(22)는 최종 기록 좌표(예컨대, 선행에 마지막으로 서버(40)와의 접속을 종료한 좌표)를 포함하는 3차원 월드 지역을 구분할 수 있고, 전방 카메라 기능을 온(ON)할 수 있다. The interaction service providing unit 22 can classify the three-dimensional world region including the final recorded coordinates (eg, the coordinates where the connection with the server 40 was last terminated in advance), and turn on the front camera function. can

인터렉션 서비스 제공부(22)는 최종 기록 좌표가 디지털 트윈 미구현 지역에 속하는 경우에는 "서비스지역 아님" 이라는 표시 및 미확인 지역으로 별도 분류할 수 있다.When the final recorded coordinates belong to a digital twin unimplemented area, the interaction service providing unit 22 may display "not a service area" and separately classify it as an unconfirmed area.

인터렉션 서비스 제공부(22)는 네트워크 채널로 입장할 수도 있고 네트워크 채널을 생성할 수도 있다. 예를 들어, 인터렉션 서비스 제공부(12)는 동일 월드 기준 빠른 입장이 가능하고, 해당 네트워크 채널로 입장한 참가자가 n명 이상일 경우에는 해당 월드로 새로운 네트워크 채널을 생성할 수 있다.The interaction service providing unit 22 may enter a network channel or may create a network channel. For example, the interaction service providing unit 12 can quickly enter the same world, and when there are n or more participants who have entered the corresponding network channel, it can create a new network channel to the corresponding world.

인터렉션 서비스 제공부(22)는 해당 가상현실 사용자의 캐릭터 정보를 로드할 수 있다. 이때, 인터렉션 서비스 제공부(22)는 3차원 모델, 복장, 소지금, 인벤토리 테이블 등을 로드할 수 있다.The interaction service providing unit 22 may load character information of the corresponding virtual reality user. In this case, the interaction service providing unit 22 may load a 3D model, clothes, possessions, an inventory table, and the like.

인터렉션 서비스 제공부(22)는 이동 입력값에 따라 LBS 및 GPS 좌표의 변동을 기록할 수 있다. 예를 들어, 인터렉션 서비스 제공부(22)는 변동되는 LBS 좌표값 및 GPS 좌표값을 n초 간격으로 기록할 수도 있고, 기지국 타입에 따라 유동적으로 기록할 수도 있다. 한편, 인터렉션 서비스 제공부(22)는 기록되는 LBS 좌표값 및 GPS 좌표값을 각각 누적 10회만 저장할 수 있고, 11회 초과 기록은 자동 삭제할 수 있다. 여기서, LBS 좌표값은 통신 기지국을 통한 위도 및 경도 위치 측정 기법에 의한 좌표값을 의미하고, GPS 좌표값은 위성을 통한 위도 및 경도 위치 측정 기법에 의한 좌표값을 의미한다.The interaction service providing unit 22 may record changes in LBS and GPS coordinates according to movement input values. For example, the interaction service providing unit 22 may record the changed LBS coordinate values and GPS coordinate values at n second intervals, or may be recorded flexibly according to the base station type. On the other hand, the interaction service providing unit 22 may store the recorded LBS coordinate values and the GPS coordinate values each cumulatively only 10 times, and the record exceeding 11 times may be automatically deleted. Here, the LBS coordinate value means a coordinate value by a latitude and longitude position measurement technique through a communication base station, and the GPS coordinate value means a coordinate value by a latitude and longitude position measurement technique through a satellite.

인터렉션 서비스 제공부(22)는 플레이어의 좌표가 디지털트윈 구현 지역 범위를 벗어날 경우 "서비스 지역 아님"이라는 메시지를 표시부(23)의 화면 중앙에 출력할 수 있다.The interaction service providing unit 22 may output a message “not in the service area” to the center of the screen of the display unit 23 when the coordinates of the player are out of the range of the digital twin realization area.

인터렉션 서비스 제공부(22)는 서비스 지역이 아닌 구역에 n초 이상 체류 시 미확인 지역으로 자동 이동 및 네트워크 채널을 변경할 수 있다.The interaction service providing unit 22 may automatically move to an unidentified area and change the network channel when staying in an area other than the service area for more than n seconds.

한편, 인터렉션 서비스 제공부(22)는 네트워크 채널을 스캔하여 참여 플레이어의 좌표값을 로드(예컨대, n초 간격으로 로드)할 수 있다. Meanwhile, the interaction service providing unit 22 may scan the network channel and load the coordinate values of the participating players (eg, load at n second intervals).

인터렉션 서비스 제공부(22)는 네트워크 채널에 입장(참여)한 가상현실 사용자의 캐릭터 정보(예컨대, 외형 중심(3D 모델, 복장))를 로드할 수 있다. The interaction service provider 22 may load character information (eg, appearance center (3D model, clothes)) of a virtual reality user who has entered (participated) a network channel.

인터렉션 서비스 제공부(22)는 최종 기록 좌표값과 일치하는 실제 지점과 대응하는 화면상의 좌표에 가상현실 사용자의 캐릭터(3D 모델)를 생성할 수 있다. 이때, 인터렉션 서비스 제공부(22)는 자이로 센서(도시 생략)를 통해 가상현실 사용자의 캐릭터(3D 모델)가 세로로 서 있을 수 있도록 수평 조절한다.The interaction service providing unit 22 may generate a character (3D model) of the virtual reality user at the coordinates on the screen corresponding to the actual point that matches the final recorded coordinate value. At this time, the interaction service providing unit 22 adjusts the level so that the character (3D model) of the virtual reality user can stand vertically through the gyro sensor (not shown).

인터렉션 서비스 제공부(22)는 네트워크 채널 스캔 결과에 따른 가상현실 사용자의 좌표 변동을 체크할 수 있고, 그에 따라 해당 가상현실 사용자의 캐릭터의 출력 위치를 변경할 수 있다.The interaction service providing unit 22 may check the coordinate change of the virtual reality user according to the network channel scan result, and may change the output position of the virtual reality user's character accordingly.

인터렉션 서비스 제공부(22)는 가상현실 사용자에 대한 새로운 좌표 기록 시 이전 출력값과 차이점을 비교할 수 있다.The interaction service providing unit 22 may compare a difference with a previous output value when recording new coordinates for the virtual reality user.

인터렉션 서비스 제공부(22)는 가상현실 사용자의 좌표 변동 이벤트가 발생한 경우에는 해당 가상현실 사용자의 캐릭터(3D 모델)에 "이동 애니메이션"을 재생하고, 그에 따른 경로를 연결 처리할 수 있다.When the virtual reality user's coordinate change event occurs, the interaction service providing unit 22 may play a "moving animation" on the virtual reality user's character (3D model) and connect the corresponding path.

인터렉션 서비스 제공부(22)는 가상현실 사용자의 새로운 좌표와 이전의 좌표간에 차이가 없는 경우 해당 가상현실 사용자의 캐릭터(3D 모델)에 "디폴트 애니메이션"을 재생할 수 있다. 해당 플레이어가 가상현실(VR)일 경우 HMD 및 핸드 트래킹 모션을 출력할 수 있다.When there is no difference between the new coordinates of the virtual reality user and the previous coordinates, the interaction service providing unit 22 may play a "default animation" on the virtual reality user's character (3D model). If the player is virtual reality (VR), HMD and hand tracking motion can be output.

인터렉션 서비스 제공부(22)는 위치가 출력된 가상현실 사용자와 증강현실 사용자간 네트워크(30)를 통한 행동값을 주고 받아 서로의 인터렉션(예컨대, 음성대화, 모션, 채팅, 이동 등)을 발생시킨다. The interaction service provider 22 exchanges action values through the network 30 between the virtual reality user whose location is output and the augmented reality user to generate mutual interactions (eg, voice conversation, motion, chatting, movement, etc.) .

인터렉션 서비스 제공부(22)는 LBS 좌표 인식 불가시 기록된 GPS 데이터를 로드한다. 한편, 인터렉션 서비스 제공부(22)는 GPS 데이터 로드도 불가능한 경우, 최종 기록값에 3D 모델을 출력하고 디폴트 애니메이션을 재생하거나 HMD 및 핸드 트래킹 모션을 출력할 수 있다.The interaction service providing unit 22 loads the recorded GPS data when the LBS coordinates cannot be recognized. On the other hand, when the loading of GPS data is also impossible, the interaction service providing unit 22 may output a 3D model to the final recorded value and reproduce a default animation or output an HMD and hand tracking motion.

인터렉션 서비스 제공부(22)는 기록된 GPS 10회의 좌표 변경 방향 및 평균 이동 속도를 연산할 수 있다.The interaction service providing unit 22 may calculate the coordinate change direction and average moving speed of the recorded GPS 10 times.

인터렉션 서비스 제공부(22)는 LBS 좌표 인식 불가 상태의 3D 모델에 적용하여 좌표의 가상 이동 경로 생성 및 "이동 애니메이션"을 재생할 수 있다.The interaction service providing unit 22 may generate a virtual movement path of coordinates and reproduce a "moving animation" by applying it to the 3D model in a state where the LBS coordinates cannot be recognized.

인터렉션 서비스 제공부(22)는 신규 LBS 좌표값 수신시 가상 경로 처리를 중지하고, 정상 출력 프로세스로 보정 프로세스에 덮어쓰기를 수행한다(즉, 기존 연산값 삭제).The interaction service providing unit 22 stops the virtual path processing upon receiving the new LBS coordinate value, and overwrites the correction process with the normal output process (ie, deletes the existing calculated value).

인터렉션 서비스 제공부(22)는 최초 네트워크 채널 생성시 예컨대 "채널 생성"과 같은 시스템 메시지를 표시부(23)의 화면 중앙에 전체적으로 출력할 수 있다.The interaction service providing unit 22 may output, for example, a system message such as “Channel Creation”, as a whole, in the center of the screen of the display unit 23 when the first network channel is created.

인터렉션 서비스 제공부(22)는 해당 채널 플레이어의 참가시 예컨대 "#name 참가"와 같은 시스템 메시지를 표시부(23)의 화면 중앙에 전체적으로 출력할 수 있다.The interaction service providing unit 22 may output, for example, a system message such as “#name participation” in the center of the screen of the display unit 23 when the corresponding channel player participates.

인터렉션 서비스 제공부(22)는 해당 채널 플레이어의 이탈시 예컨대 "#name 이탈"과 같은 시스템 메시지를 표시부(23)의 화면 중앙에 전체적으로 출력할 수 있다.The interaction service providing unit 22 When the corresponding channel player leaves, for example, a system message such as “#name leaving” may be entirely output on the center of the screen of the display unit 23 .

특히, 인터렉션 서비스 제공부(22)는 서버(40)로부터 가상현실 사용자와 증강현실 사용자간의 동기화된 위치 및 좌표계 정보를 수신함에 따라, 서로의 위치가 동기화된 가상현실 사용자의 캐릭터와 증강현실 사용자의 캐릭터를 서로 동일한 좌표계에 근거하여 표시부(23)상에 화면표시할 수 있다.In particular, as the interaction service provider 22 receives the synchronized location and coordinate system information between the virtual reality user and the augmented reality user from the server 40, the location of the synchronized virtual reality user's character and the augmented reality user Characters can be displayed on the display unit 23 based on the same coordinate system.

표시부(23)는 해당 증강현실 사용자 단말(20)의 어플리케이션 화면안에 플레이어가 존재하는 경우 도 6에 예시한 바와 같이 해당 캐릭터(3D 모델)의 머리 위에 "#name"와 같은 표시를 디스플레이할 수 있다. When the player exists in the application screen of the augmented reality user terminal 20, the display unit 23 may display a mark such as "#name" on the head of the corresponding character (3D model) as illustrated in FIG. 6 . .

표시부(23)는 해당 증강현실 사용자 단말(20)의 어플리케이션 화면을 벗어난 플레이어가 존재하는 경우 도 7에 예시한 바와 같이 카메라 중앙값 기준 0도 ~ 180도는 시야각 우측 끝라인에 순서대로 정렬해서 오른쪽 화살표 및 "#name"와 같은 표시를 디스플레이할 수 있다. 이때, 표시부(23)는 해당 플레이어의 "#name"이 아닌 각 화살표 앞에 상태아이콘을 표시할 수 있다.The display unit 23, when there is a player out of the application screen of the augmented reality user terminal 20, 0 degrees to 180 degrees based on the camera median value, as illustrated in FIG. An indication such as "#name" can be displayed. In this case, the display unit 23 may display a status icon in front of each arrow rather than the "#name" of the player.

표시부(23)는 해당 증강현실 사용자 단말(20)의 어플리케이션 화면을 벗어난 플레이어가 존재하는 경우 도 7에 예시한 바와 같이 카메라 중앙값 기준 181도 ~ 360도는 시야각 좌측 끝라인에 순서대로 정렬해서 왼쪽 화살표 및 "#name"와 같은 표시를 디스플레이할 수 있다. 이때, 표시부(23)는 해당 플레이어의 "#name"이 아닌 각 화살표 앞에 상태아이콘을 표시할 수 있다.As illustrated in FIG. 7 , when a player outside the application screen of the augmented reality user terminal 20 exists, the display unit 23 aligns the 181 degrees to 360 degrees based on the camera median in the left end line of the viewing angle in order to the left arrow and An indication such as "#name" can be displayed. In this case, the display unit 23 may display a status icon in front of each arrow rather than the "#name" of the player.

표시부(23)는 플레이어가 음성 출력 상태일 때 플레이어 #name 앞에 "확성기 아이콘"을 표시할 수 있다.The display unit 23 may display a "loudpeaker icon" in front of the player #name when the player is in the voice output state.

표시부(23)는 플레이어가 텍스트 채팅 박스 출력 상태일 때 플레이어 #name 앞에 "말풍선 아이콘"을 표시할 수 있다.The display unit 23 may display a "speech bubble icon" in front of the player #name when the player is in a text chat box output state.

도 4는 도 1에 도시된 서버의 내부 구성도이다.FIG. 4 is an internal configuration diagram of the server shown in FIG. 1 .

서버(40)는 디지털 트윈 영상 저장부(41), 수신부(42), 네트워크 채널 연결부(43), 위치 및 좌표계 동기화부(44), 인터렉션 서비스 제공부(45), 및 제어부(46)를 포함할 수 있다. 이와 같은 서버(40)는 본 발명의 청구범위에 기재된 가상현실 사용자와 증강현실 사용자와의 상호 인터렉션 서비스 제공 장치가 될 수 있다.The server 40 includes a digital twin image storage unit 41 , a receiving unit 42 , a network channel connection unit 43 , a location and coordinate system synchronization unit 44 , an interaction service providing unit 45 , and a control unit 46 . can do. Such a server 40 may be an apparatus for providing a mutual interaction service between a virtual reality user and an augmented reality user described in the claims of the present invention.

디지털 트윈 영상 저장부(41)는 지역별(구역별) 디지털 트윈 영상을 저장한다. 여기서, 디지털 트윈 영상은 실제 장비 또는 공간을 가상 세계(3차원 세계)에 쌍둥이처럼 똑같이 구현하는 디지털 트윈 기술로 제작된 영상으로서, 현실 공간의 물리적 객체(실제 사물 등)들에 대한 디지털 복제를 하여 만들어진 영상을 의미한다. 본 발명의 실시예에서는 이와 같은 디지털 트윈 영상으로 가상 공간(예컨대, 3차원 월드)이 구축된다.The digital twin image storage unit 41 stores digital twin images by region (by region). Here, the digital twin image is an image produced by digital twin technology that implements real equipment or space in the same way as twins in the virtual world (three-dimensional world). means the video was created. In an embodiment of the present invention, a virtual space (eg, a three-dimensional world) is constructed with such a digital twin image.

상술한 지역별 디지털 트윈 영상은 축척 및 비율을 유지하는 것이 바람직하다.It is desirable to maintain the scale and ratio of the digital twin image for each region described above.

예를 들어, 씬 내 임의의 좌표 A와 B를 특정하였다면 좌표 A와 B에 현실 세계에 대응하는 위도와 경도를 대입하여 전체 씬의 대입비율을 맞출 수 있다. 여기서, 씬은 가상공간의 단위를 의미한다. 가상공간은 디지털 트윈(digital twin)으로 제작된 3차원 월드를 의미한다. For example, if arbitrary coordinates A and B in the scene are specified, latitude and longitude corresponding to the real world can be substituted for coordinates A and B to match the substitution ratio of the entire scene. Here, the scene means a unit of virtual space. Virtual space refers to a three-dimensional world created by digital twins.

수신부(42)는 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)로부터의 로그인 정보를 수신할 수 있다. The receiver 42 may receive login information from the virtual reality user terminal 10 and the augmented reality user terminal 20 .

또한, 수신부(42)는 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)로부터의 실시간적인 위치 정보를 수신할 수 있다.In addition, the receiver 42 may receive real-time location information from the virtual reality user terminal 10 and the augmented reality user terminal 20 .

또한, 수신부(42)는 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)로부터의 네트워크 채널 생성 요청, 생성된 네트워크 채널로의 참여 요청, 참여한 네트워크 채널에서의 연결 해제(탈퇴) 요청 등을 수신할 수 있다.In addition, the receiving unit 42 is a network channel creation request from the virtual reality user terminal 10 and the augmented reality user terminal 20, a request to participate in the created network channel, a connection disconnection (withdrawal) request from the participating network channel, etc. can receive

네트워크 채널 연결부(43)는 수신부(42)에 수신된 네트워크 채널 생성 요청에 따라 해당하는 가상현실 사용자 단말(10) 또는 증강현실 사용자 단말(20)의 네트워크 채널을 생성하고, 다른 플레이어(즉, 다른 사용자 단말)과의 네트워크 채널 연결을 수행할 수 있다.The network channel connection unit 43 creates a network channel of the corresponding virtual reality user terminal 10 or augmented reality user terminal 20 according to the network channel creation request received by the receiving unit 42, and another player (ie, other A network channel connection with the user terminal) may be performed.

물론, 네트워크 채널 연결부(43)는 가상현실 사용자 단말(10) 또는 증강현실 사용자 단말(20)의 연결 해제(탈퇴) 요청이 있게 되면 해당 사용자 단말의 네트워크 채널을 연결 해제시킬 수 있다.Of course, the network channel connection unit 43 may disconnect the network channel of the corresponding user terminal when there is a connection disconnection (withdrawal) request from the virtual reality user terminal 10 or the augmented reality user terminal 20 .

위치 및 좌표계 동기화부(44)는 가상현실 사용자 단말(10)과 증강현실 사용자 단말(20)간의 보다 효과적인 상호 인터렉션을 위해 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)의 현재 위치를 서로 동기화하고 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)의 좌표계를 서로 동기화시킨다.The location and coordinate system synchronization unit 44 is the current location of the virtual reality user terminal 10 and the augmented reality user terminal 20 for more effective mutual interaction between the virtual reality user terminal 10 and the augmented reality user terminal 20 Synchronize with each other and synchronize the coordinate systems of the virtual reality user terminal 10 and the augmented reality user terminal 20 with each other.

위치 및 좌표계 동기화부(44)는 동기화된 위치 및 좌표계 정보를 상호 인터렉션을 하는 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)에게로 전송할 수 있다. The location and coordinate system synchronization unit 44 may transmit the synchronized location and coordinate system information to the virtual reality user terminal 10 and the augmented reality user terminal 20 for mutual interaction.

다시 말해서, 가상현실 사용자 단말(10)에 증강현실 사용자의 캐릭터의 위치를 정확하게 표시하고 증강현실 사용자 단말(20)에 가상현실 사용자의 캐릭터의 위치를 정확하게 표시하기 위해서는, 가상현실 사용자와 증강현실 사용자의 캐릭터의 위치 정보는 서로 동기화되어야 하고, 가상현실 사용자 단말(10)의 3D씬의 좌표계와 증강현실 사용자 단말(20)의 좌표계는 서로 동일하여야 한다. 따라서 이를 위해, 위치 및 좌표계 동기화부(44)가 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)의 현재 위치 및 서로의 좌표계를 서로 동기화시킨다. In other words, in order to accurately display the position of the character of the augmented reality user on the virtual reality user terminal 10 and accurately display the position of the character of the virtual reality user on the augmented reality user terminal 20, the virtual reality user and the augmented reality user The position information of the characters of should be synchronized with each other, and the coordinate system of the 3D scene of the virtual reality user terminal 10 and the coordinate system of the augmented reality user terminal 20 should be identical to each other. Therefore, for this purpose, the position and coordinate system synchronization unit 44 synchronizes the current positions of the virtual reality user terminal 10 and the augmented reality user terminal 20 and the coordinate systems of each other with each other.

이와 같이 하면 가상현실 사용자의 캐릭터와 증강현실 사용자의 캐릭터의 위치는 서로 동기화되고, 서로의 위치가 동기화된 가상현실 사용자의 캐릭터와 증강현실 사용자의 캐릭터는 서로 동일한 좌표계로 동기화되어 상대방의 단말에 화면표시될 수 있다. In this way, the positions of the virtual reality user's character and the augmented reality user's character are synchronized with each other, and the virtual reality user's character and the augmented reality user's character, whose positions are synchronized with each other, are synchronized with each other in the same coordinate system to display the screen on the other's terminal. can be displayed.

만약, 서로간의 좌표계가 상이하다면 서로의 단말에는 상대방의 캐릭터가 제대로 동기화되지 않을 것이고, 이로 인해 상대방의 위치식별이 어렵게 될 것이다.If the coordinate systems of each other are different, the characters of the other party will not be properly synchronized with each other's terminals, which will make it difficult to identify the position of the other party.

예를 들어, A 사무실에서 디지털 트윈을 통해 가상 공간으로 만들어진 "하늘역" 2번 출구에 온라인으로 접속해 있는 가상현실 사용자와 현실 공간인 실제의 "하늘역" 근처에서 스마트폰 증강현실 앱으로 접속해 있는 증강현실 사용자가 서로의 캐릭터를 통해서 네트워크 커뮤니케이션을 하는 것으로 가정하고 부연설명한다.For example, a virtual reality user who is online at Exit 2 of "Sky Station" created as a virtual space through a digital twin in Office A and an augmented reality app on a smartphone near the real "Sky Station" that is a real space It is assumed that augmented reality users are communicating through networks through each other's characters and explained further.

가상현실 사용자의 캐릭터와 증강현실 사용자의 캐릭터의 위치는 서로 동기화되고 서로 동기화된 가상현실 사용자의 캐릭터와 증강현실 사용자의 캐릭터는 서로 동일한 좌표계로 동기화된 상태에서, 가상현실 사용자는 가상현실로 접속한 가상 공간안에서 증강현실 사용자의 캐릭터를 보며 음성과 동작 등으로 인사를 하고, 자신의 캐릭터를 이동시켜 증강현실 사용자에게 자신을 따라오라며 A 사무실로 오는 길안내를 한다.The positions of the virtual reality user's character and the augmented reality user's character are synchronized with each other, and the synchronized virtual reality user's character and the augmented reality user's character are synchronized with each other in the same coordinate system, and the virtual reality user connects to virtual reality. In the virtual space, he sees the augmented reality user's character and greets him with voice and motion, and moves his character to guide the augmented reality user to the office A to follow him.

그에 따라, 증강현실 사용자는 스마트폰 AR 앱을 켜고 있는 현실 세계에서 가상현실 사용자의 음성을 들으며 채팅으로 대답을 하고, 화면에 비춰지는 가상현실 사용자의 캐릭터를 따라 걸어가며 A 사무실을 찾아가는 길을 안내받게 된다.Accordingly, the augmented reality user listens to the virtual reality user's voice in the real world with the smartphone AR app turned on, answers the chat, and walks along the virtual reality user's character projected on the screen to guide the way to the office A will receive

이와 같이 하면 증강현실 사용자는 A 사무실을 제대로 찾아갈 수 있게 된다.In this way, the augmented reality user will be able to visit Office A properly.

인터렉션 서비스 제공부(45)는 가상현실 사용자 단말(10)을 통해 가상현실 공간에서 수행되는 증강현실 사용자와의 상호 인터렉션 서비스를 제공할 수 있다. 이를 위해, 인터렉션 서비스 제공부(45)는 증강현실 사용자와의 상호 인터렉션이 가능한 서비스 앱을 가상현실 사용자 단말(10)에게로 다운로드할 수 있다.The interaction service providing unit 45 may provide a mutual interaction service with the augmented reality user performed in the virtual reality space through the virtual reality user terminal 10 . To this end, the interaction service provider 45 may download a service app capable of mutual interaction with the augmented reality user to the virtual reality user terminal 10 .

또한, 인터렉션 서비스 제공부(45)는 증강현실 사용자 단말(20)을 통해 증강현실 공간에서 수행되는 가상현실 사용자와의 상호 인터렉션 서비스를 제공할 수 있다. 이를 위해, 인터렉션 서비스 제공부(45)는 가상현실 사용자와의 상호 인터렉션이 가능한 서비스 앱을 증강현실 사용자 단말(20)에게로 다운로드할 수 있다.In addition, the interaction service providing unit 45 may provide a mutual interaction service with the virtual reality user performed in the augmented reality space through the augmented reality user terminal (20). To this end, the interaction service provider 45 may download a service app capable of mutual interaction with the virtual reality user to the augmented reality user terminal 20 .

인터렉션 서비스 제공부(45)는 위치 및 좌표계 동기화부(44)에서 서로 동기화된 위치 정보(예컨대, XYX 좌표값)가 속해 있는 해당 지역의 디지털 트윈 영상을 디지털 트윈 영상 저장부(41)에서 추출하여 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)에게로 전송할 수 있다.The interaction service providing unit 45 extracts the digital twin image of the region to which the location information (eg, XYX coordinate values) synchronized with each other in the location and coordinate system synchronization unit 44 belongs from the digital twin image storage unit 41, It may be transmitted to the virtual reality user terminal 10 and the augmented reality user terminal 20 .

제어부(46)는 서버(40)의 전체적인 동작을 제어한다.The control unit 46 controls the overall operation of the server 40 .

이번에는, 상술한 바와 같이 구성된 가상현실 사용자와 증강현실 사용자와의 상호 인터렉션 서비스 제공 시스템의 작용에 대해 설명한다.This time, the operation of the interactive interaction service providing system between the virtual reality user and the augmented reality user configured as described above will be described.

도 7은 본 발명에 의한 가상현실 서비스와 증강현실 서비스의 상호 인터렉션 동기화 방법 설명도이다.7 is an explanatory diagram of a mutual interaction synchronization method between a virtual reality service and an augmented reality service according to the present invention.

서비스 대상지역에 대해 3D 모델링한 3D씬 또는 2D씬으로 가상공간 디지털 트윈 영상을 구축하는 단계(S11)와,A step (S11) of constructing a virtual space digital twin image with a 3D or 2D scene modeled in 3D for the service target area (S11);

가상공간 VR씬의 좌표를 현실세계의 위도 경도 좌표에 대입하여 좌표계를 맵핑시키고, 씬의 대입 비율을 맞추는 단계(S12)와,A step of mapping the coordinate system by substituting the coordinates of the virtual space VR scene to the latitude and longitude coordinates of the real world, and matching the substitution ratio of the scene (S12);

VR 캐릭터와 AR 클라이언트 캐릭터를 VR 씬에 로드시키고, VR 캐릭터는 AR 화면에 로드시키는 단계(S13)와,Loading the VR character and the AR client character into the VR scene, and loading the VR character on the AR screen (S13);

VR 캐릭터와 AR 클라이언트 캐릭터 위치를 추적하여 VR씬의 VR 캐릭터와 AR클라이언트 캐릭터 및 AR 화면의 VR캐릭터의 위치를 동기화시키는 단계(S14)와,A step of synchronizing the positions of the VR character in the VR scene, the AR client character, and the VR character in the AR screen by tracking the position of the VR character and the AR client character (S14);

위치가 출력된 VR캐릭터와 AR 클라이언트 캐릭터간의 네트워크를 통한 행동값을 주고받아 인터렉션 서비스를 제공하는 단계(S15)를 포함한다.and providing an interaction service by exchanging action values through a network between the VR character whose location is outputted and the AR client character (S15).

상기 위치를 동기화시키는 단계(S14)는, VR 캐릭터는 VR씬 내에서의 좌표정보를 추출하여 AR 화면에 VR캐릭터 출력 위치정보로 제공한다. AR 클라이언트 캐릭터는 AR 클라이언트의 사용자 단말의 위치정보로서, LBS로 로드시킨다. 즉, AR 클라이언트 사용자 단말의 LBS위치 정보를 추출하여 VR씬에 AR 클라이언트 캐릭터 위치를 로드시킨다. LBS 로드가 불가능할 경우 GPS로 로드한다. 또한, LBS를 기준으로 객체의 위치를 추적하여 출력하고, GPS값은 계속 측정하고 기록한다. LBS 출력값과 GPS 측정값의 오차를 지속적으로 연산하여 프로그램 구동 이후 둘의 평균 오차율을 예측, LBS 특성상 기지국 사이에 연결이 끊어졌다가 다시 접속되는 동안에 이 예측값을 대입하여 자연스럽게 위치 출력이 이어지도록 유지한다.In the step of synchronizing the position (S14), the VR character extracts coordinate information in the VR scene and provides it as output position information of the VR character on the AR screen. The AR client character is the location information of the user terminal of the AR client, and is loaded into the LBS. That is, the LBS location information of the AR client user terminal is extracted and the AR client character location is loaded in the VR scene. If LBS load is not possible, load it with GPS. In addition, the position of the object is tracked and output based on the LBS, and the GPS value is continuously measured and recorded. By continuously calculating the error between the LBS output value and the GPS measurement value, the average error rate of the two is predicted after the program is started. .

도 8은 본 발명에 의한 VR 클라이언트의 동작 설명도이다.8 is an explanatory diagram of the operation of the VR client according to the present invention.

VR 클라이언트의 동작을 살펴보면, 내캐릭터 출력(S21), 타 캐릭터 출력(S22), 오차보정 출력(S23)을 수행하고, 채널참가자 인지 UX(S24) 및 플레이어 캐릭터 표시 UX(S25)를 포함하여 제어된다.Looking at the operation of the VR client, it performs my character output (S21), other character output (S22), error correction output (S23), and controls including channel participant recognition UX (S24) and player character display UX (S25) do.

내 캐릭터 출력 단계(S21)는, 로그인 좌표를 확인하여 3D씬을 생성하고, 네트워크 채널 입장/생성을 제어한 후, VR 캐릭터를 3D 씬에 로드하고, VR사용자의 이동 입력값에 대응하여 화면제어 및 좌표를 기록한다. 이때 내캐릭터는 1인칭 시야 또는 3인칭 시야로 출력할 수 있다. In the step of outputting my character (S21), the 3D scene is created by checking the login coordinates, the network channel entry/generation is controlled, the VR character is loaded into the 3D scene, and the screen is controlled in response to the VR user's movement input value. and record the coordinates. In this case, my character can be output in a first-person view or a third-person view.

타 캐릭터 출력(S22)은, VR씬에 AR 클라이언트 사용자 단말에 대응된 캐릭터를 타 캐릭터로 출력하는 것을 말한다. 물론 또 다른 VR 사용자의 캐릭터도 타 캐릭터로서 표시할 수 있다. 네트워크 채털스캔 및 참여 플레이어 좌표값을 로드하고, 3D씬에 타 캐릭터 모델을 생성하여, 좌표변동에 따흔 출력 위치를 변경하며, 좌표 변동 이벤트시 애니메이션 재생 및 경로 연결을 수행한다.The other character output S22 refers to outputting a character corresponding to the AR client user terminal as another character in the VR scene. Of course, another VR user's character can be displayed as another character. It loads the network chattel scan and the coordinates of participating players, creates other character models in the 3D scene, changes the output position according to the coordinate change, and plays animations and connects the path when the coordinate change event occurs.

오차 보정 출력(S23)은, 타 캐릭터의 위치정보중 LBS좌표와 GPS 좌표 변동을 기록하고, 좌표 변경 방향 및 평균 이동 속도를 연산하며, 좌표 인식 불가시 가상 이동 경로를 생성하여 이동 애니메이션을 재생하며, 좌표 수신시 가상 경로 처리를 중지하고 보정 프로세스에 의해 덮어쓰기를 처리하여 정상 상태로 복귀한다.The error correction output (S23) records LBS coordinates and GPS coordinate changes among the location information of other characters, calculates the coordinate change direction and average movement speed, and plays a movement animation by creating a virtual movement path when coordinate recognition is not possible. , stop the virtual path processing upon receiving the coordinates and return to the normal state by processing the overwrite by the correction process.

채널 참가자 인지 UX(S24)는, 채널 화면 중앙을 기준으로 플레이어 참가 및 이탈이 플레이어 네임과 참가/이탈을 화면에 표시한다.Channel participant recognition UX (S24), based on the center of the channel screen, the player participation and departure, the player name and the participation / departure is displayed on the screen.

플레이어 캐릭터 표시 UX(S25)는, 내 캐릭터 화면 시야각을 기준으로 #name을 표시한다. 시야각을 벗어난 경우에는 벗어난 방향의 좌우측으로 화살표 및 #name을 표시하여 화면을 벗어난 타 캐릭터 및 벗어난 방향을 인지하게 한다.The player character display UX (S25) displays #name based on the viewing angle of my character screen. If the viewing angle is out of the way, arrows and #names are displayed to the left and right of the outward direction to recognize other characters off the screen and out of the way.

한편, 하나의 채널의 VR씬에 VR캐릭터와 적어도 하나 이상의 AR클라이언트 캐릭터를 표시할 때, 미니맵을 더 포함시키고, VR씬에 대응된 미니맵에 모든 캐릭터들의 위치를 추적표시할 수 있다.Meanwhile, when displaying a VR character and at least one AR client character in a VR scene of one channel, a minimap may be further included, and the positions of all characters may be tracked and displayed on the minimap corresponding to the VR scene.

도 9는 본 발명에 의한 AR 클라이언트의 동작 설명도이다.9 is an operation explanatory diagram of an AR client according to the present invention.

AR 사용자 단말의 동작 흐름도로서, 내화면 출력(S31), 타 캐릭터 출력(S32), 오차보정 출력(S33)을 수행하며, 채널 참자자 인지 UX(S34) 및 플레이어 캐릭터 표시 UX(S35)를 포함한다.As an operation flowchart of the AR user terminal, internal screen output (S31), other character output (S32), error correction output (S33) are performed, and channel participant recognition UX (S34) and player character display UX (S35) are included do.

내화면 출력(S31)은, 로그인 좌표를 확인하고, 3D씬 지역 구분 및 전방 카메라를 온시키며, 네트워크 채널에 입장하여 VR캐릭터를 로드시켜 화면에 출력하고, 이동에 따른 LBS 및 GPS 좌표 변동을 기록하고 서비스 지역 범위에 따른 제어를 수행한다. 즉, 전방 카메라에 의해 촬영되는 영상 화면인 내화면에 VR 캐릭터를 표시하고, AR 사용자 단말의 위치 좌표를 측정하여 기록하며, 3D씬의 서비스 지역 좌표와 비교하여 서비스 범위에 따른 VR캐릭터 출력을 제어한다.My screen output (S31) checks the log-in coordinates, divides the 3D scene area and turns on the front camera, enters the network channel, loads the VR character and outputs it on the screen, and records LBS and GPS coordinate changes according to movement and control according to the range of the service area. That is, the VR character is displayed on the inner screen, which is a video screen shot by the front camera, and the location coordinates of the AR user terminal are measured and recorded, and the VR character output is controlled according to the service area by comparing it with the service area coordinates of the 3D scene. do.

타 캐릭터 출력(S32)은, 네트워크 채널 참여 플레이어 좌표값을 로드하고, 타 캐릭터를 로드하며, 타캐릭터의 수평조절을 하고, 좌표 변동을 체크하여 출력 위치를 변경하며, 좌표 이동시 애니메이션 경로 연결을 수행한다.Other character output (S32) loads the network channel participating player coordinate values, loads other characters, horizontally adjusts other characters, changes the output position by checking coordinate changes, and performs animation path connection when coordinates are moved do.

오차 보정 출력(S33)은, 좌표변동을 기록하고, 좌표 변경방향 및 평균 이동속도를 연산하며 좌표 인식 불가시 가상 이동경를 생성하여 이동 애니메이션을 재생하고, 좌표정보 수신시 보정 프로세스에 덮어쓰기 처리를 한다.The error correction output (S33) records the coordinate change, calculates the coordinate change direction and the average movement speed, generates a virtual movement mirror when the coordinate is not recognized, plays the movement animation, and overwrites the correction process when receiving the coordinate information .

또한 채널 참가자 인지 UX(S34)는, 채널 화면 중앙을 기준으로 플레이어 참가 및 이탈이 플레이어 네임과 참가/이탈을 화면에 표시한다.In addition, the channel participant recognition UX ( S34 ) displays the player name and participation/departure of the player joining/leaving based on the center of the channel screen on the screen.

플레이어 캐릭터 표시 UX(S35)는, 내 캐릭터 화면 시야각을 기준으로 #name을 표시한다. 시야각을 벗어난 경우에는 벗어난 방향의 좌우측으로 화살표 및 #name을 표시하여 화면을 벗어난 타 캐릭터 및 벗어난 방향을 인지하게 한다.The player character display UX (S35) displays #name based on the viewing angle of the my character screen. If the viewing angle is out of the way, arrows and #names are displayed to the left and right of the outward direction to recognize other characters off the screen and out of the way.

또한, AR 클라이언트의 화면에 VR캐릭터와 적어도 하나 이상의 AR클라이언트 캐릭터를 표시할 때, 미니맵을 더 포함시키고, 미니맵에 모든 캐릭터들의 위치를 추적표시할 수 있다.In addition, when displaying a VR character and at least one AR client character on the screen of the AR client, a mini map may be further included, and the positions of all characters may be tracked and displayed on the mini map.

먼저, 서버(40)는 실제 장비 또는 공간을 가상 세계(3차원 세계)에 쌍둥이처럼 똑같이 구현하는 디지털 트윈 기술로 제작된 지역별(구역별) 디지털 트윈 영상을 디지털 트윈 영상 저장부(41)에 미리 저장해 둔다.First, the server 40 preloads the digital twin image for each region (by region) produced by digital twin technology that implements real equipment or space in the virtual world (three-dimensional world) in the same way as twins in the digital twin image storage unit 41 in advance. Save it.

가상현실 사용자는 증강현실 사용자와의 상호 인터렉션을 위해 증강현실 사용자와의 상호 인터렉션 서비스 앱을 활성화하고, 증강현실 사용자는 가상현실 사용자와의 상호 인터렉션을 위해 가상현실 사용자와의 상호 인터렉션 서비스 앱을 활성화한다.The virtual reality user activates the interactive interaction service app with the augmented reality user for mutual interaction with the augmented reality user, and the augmented reality user activates the interactive interaction service app with the virtual reality user for the interactive interaction with the virtual reality user do.

그리고 나서, 각자 네트워크(30)를 통해 서버(40)에 접속하여 로그인 등을 수행한 후에 네트워크 채널 연결(형성)을 요청한다.Then, each accesses the server 40 through the network 30 and performs a login or the like, and then requests a network channel connection (formation).

그에 따라, 서버(40)는 가상현실 사용자 단말(10)과 증강현실 사용자 단말(20)간의 네트워크 채널을 연결(형성)한다.Accordingly, the server 40 connects (forms) a network channel between the virtual reality user terminal 10 and the augmented reality user terminal 20 .

이때, 가상현실 사용자 단말(10)은 오차 보정된 가상현실 사용자의 현재의 위치정보를 서버(40)에게로 전송하고, 증강현실 사용자 단말(20)은 오차 보정된 증강현실 사용자의 현재의 위치정보를 서버(40)에게로 전송한다.At this time, the virtual reality user terminal 10 transmits the error-corrected current location information of the virtual reality user to the server 40, and the augmented reality user terminal 20 is the error-corrected augmented reality user's current location information is transmitted to the server 40 .

그에 따라, 서버(40)는 가상현실 사용자의 현재의 위치 및 증강현실 사용자의 현재의 위치를 포함하는 지역에 대한 디지털 트윈 영상을 디지털 트윈 영상 저장부(41)에서 추출하여 가상현실 사용자 단말(10)과 증강현실 사용자 단말(20)에게로 전송한다. 이와 함께, 서버(40)는 가상현실 사용자 단말(10)과 증강현실 사용자 단말(20)의 현재 위치를 서로 동기화하고, 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20)의 좌표계를 서로 동기화시킨다. 그리고, 서버(40)는 이와 같이 동기화된 위치 및 좌표계 정보를 상호 인터렉션을 하고자 하는 사용자(즉, 네트워크 채널을 형성한 가상현실 사용자 단말(10) 및 증강현실 사용자 단말(20))에게로 전송한다.Accordingly, the server 40 extracts the digital twin image for the region including the current location of the virtual reality user and the current location of the augmented reality user from the digital twin image storage unit 41 to extract the virtual reality user terminal 10 ) and transmitted to the augmented reality user terminal 20 . At the same time, the server 40 synchronizes the current positions of the virtual reality user terminal 10 and the augmented reality user terminal 20 with each other, and the coordinate system of the virtual reality user terminal 10 and the augmented reality user terminal 20 with each other. synchronize Then, the server 40 transmits the synchronized location and coordinate system information to the user who wants to mutually interact (that is, the virtual reality user terminal 10 and the augmented reality user terminal 20 that have formed a network channel). .

이와 같이 하면 가상현실 사용자의 캐릭터와 증강현실 사용자의 캐릭터의 위치는 서로 동기화되고, 서로의 위치가 동기화된 가상현실 사용자의 캐릭터와 증강현실 사용자의 캐릭터는 서로 동일한 좌표계로 동기화되어 상대방의 단말에 화면표시된다. 즉, 가상현실 사용자와 증강현실 사용자가 상호 인터렉션을 하는 동안에는, 가상현실 사용자 단말(10)에는 가상현실 사용자의 현재 위치 및 그 주변의 디지털 트윈 영상과 상대방(즉, 증강현실 사용자)의 캐릭터(3차원 모델)가 표시되고, 증강현실 사용자 단말(20)에는 증강현실 사용자의 현재 위치 및 그 주변의 카메라 영상(배경 영상)과 상대방(즉, 가상현실 사용자)의 캐릭터(3차원 모델)가 표시된다.In this way, the positions of the virtual reality user's character and the augmented reality user's character are synchronized with each other, and the virtual reality user's character and the augmented reality user's character, whose positions are synchronized with each other, are synchronized with each other in the same coordinate system to display the screen on the other's terminal. is displayed That is, while the virtual reality user and the augmented reality user interact with each other, the virtual reality user terminal 10 contains the current location of the virtual reality user and a digital twin image around it and the character 3 of the other party (that is, the augmented reality user). dimensional model) is displayed, and the augmented reality user terminal 20 displays the current location of the augmented reality user and a camera image (background image) around it and a character (three-dimensional model) of the other party (ie, virtual reality user). .

이와 같이 서로의 위치가 동기화된 가상현실 사용자의 캐릭터와 증강현실 사용자의 캐릭터가 서로 동일한 좌표계로 동기화되어 상대방의 단말에 화면표시되면, 가상현실 사용자와 증강현실 사용자간에 보다 효과적인 상호 인터렉션을 수행할 수 있다.In this way, when the virtual reality user's character and the augmented reality user's character, whose positions are synchronized with each other, are synchronized with each other in the same coordinate system and displayed on the other's terminal, more effective mutual interaction between the virtual reality user and the augmented reality user can be performed. have.

다시 말해서, 상기에서 예로 든 A 사무실에서 디지털 트윈을 통해 가상 공간으로 만들어진 "하늘역" 2번 출구에 온라인으로 접속해 있는 가상현실 사용자와 현실 공간인 실제의 "하늘역" 근처에서 스마트폰 증강현실 앱으로 접속해 있는 증강현실 사용자가 서로의 캐릭터를 통해서 네트워크 커뮤니케이션을 하는 것에서와 같이, 매우 편리한 상호 인터렉션을 수행할 수 있다.In other words, a virtual reality user who is online at Exit 2 of "Sky Station" made into a virtual space through a digital twin in Office A in the example above, and a smartphone augmented reality near the real "Sky Station" which is a real space Augmented reality users connected to the app can perform very convenient mutual interactions, such as network communication through each other's characters.

한편, 상술한 바와 같은 본 발명의 실시예는 비대면 관광지 가이드 투어에도 적용가능하다. 예를 들어, 가이드는 집에서 접속하고 관광객은 현실에서 접속하여 상호 인터렉션을 수행할 수 있다.On the other hand, the embodiment of the present invention as described above is also applicable to non-face-to-face tour guide tours. For example, a guide can connect at home and a tourist can connect in real life to perform a mutual interaction.

또한, 상술한 바와 같은 본 발명의 실시예는 독거 치매 노인 위치 추적 및 미아 방지에도 적용가능하다. 예를 들어, 엄마 캐릭터를 보고 집 찾아 오기 등과 같이 사용자는 상호 인터렉션을 수행할 수 있다.In addition, the embodiment of the present invention as described above is applicable to tracking the location of the elderly living alone with dementia and preventing lost children. For example, the user may perform a mutual interaction, such as coming home after seeing the mother character.

또한, 상술한 바와 같은 본 발명의 실시예는 원격 지역행사 및 축제 참여에도 적용가능하고, 라이브커머스 등을 통한 현지 직거래 플랫폼에도 응용가능하다.In addition, the embodiment of the present invention as described above is applicable to remote local events and festival participation, and is also applicable to a local direct transaction platform through live commerce and the like.

또한, 상술한 바와 같은 본 발명의 실시예는 온라인 가상 현실 스마트시티 구축에도 적용가능하다.In addition, the embodiment of the present invention as described above is also applicable to online virtual reality smart city construction.

이상에서와 같이 도면과 명세서에서 최적의 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로, 본 기술 분야의 통상의 지식을 가진자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.As described above, the best embodiment has been disclosed in the drawings and the specification. Although specific terms are used herein, they are used only for the purpose of describing the present invention, and are not used to limit the meaning or the scope of the present invention described in the claims. Therefore, it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible therefrom. Accordingly, the true technical protection scope of the present invention should be defined by the technical spirit of the appended claims.

10 : 가상현실 사용자 단말
11, 21 : 위치 추적부
12, 22 : 인터렉션 서비스 제공부
13, 23 : 표시부
20 : 증강현실 사용자 단말
30 : 네트워크
40 : 서버
10: virtual reality user terminal
11, 21: location tracking unit
12, 22: Interaction service provider
13, 23: display
20: augmented reality user terminal
30: network
40 : server

Claims (9)

가상현실(VR) 서비스를 제공하는 가상현실 사용자 단말과, 증강현실(AR) 서비스를 제공하는 증강현실 사용자 단말 사이의 객체간 상호 인터렉션 서비스를 제공하는 VR 클라이언트 기준 서비스 제공 방법으로서,
서비스 대상지역에 대해 구축된 가상공간과 대응된 현실세계의 좌표를 맵핑하여 가상공간(VR씬)을 로드시켜 채널을 생성하고, 상기 VR씬에 VR 사용자의 내 캐릭터(VR캐릭터)를 출력하는 단계;
상기 채널에 접속된 하나 이상의 증강현실 사용자 단말의 위치에 대응하여 각각 VR씬에 해당 하나 이상의 증강현실 사용자에 대응되는 타 캐릭터(AR 캐릭터)를 출력하는 단계;
상기 AR 캐릭터의 위치정보 중 LBS좌표와 GPS 좌표 변동을 기록하고, 좌표 변경 방향 및 평균 이동 속도를 연산하며, 좌표 인식 불가시 가상 이동 경로를 생성하여 이동 애니메이션 재생으로 AR캐릭터의 위치변동 오차를 보정하는 단계; 를 포함하여
상기 위치가 출력된 객체간 네트워크를 통해 행동값을 주고받아 서로의 인터렉션을 발생시키는
서비스 제공 방법.
A method of providing a VR client reference service providing a mutual interaction service between objects between a virtual reality user terminal providing a virtual reality (VR) service and an augmented reality user terminal providing an augmented reality (AR) service,
Creating a channel by loading a virtual space (VR scene) by mapping the coordinates of the virtual space constructed for the service target area and the corresponding real world, and outputting the VR user's my character (VR character) to the VR scene ;
outputting other characters (AR characters) corresponding to the one or more augmented reality users to a VR scene in response to the positions of one or more augmented reality user terminals connected to the channel;
Records LBS coordinates and GPS coordinate changes among the location information of the AR character, calculates the coordinate change direction and average movement speed, and creates a virtual movement path when coordinates cannot be recognized to do; including
Through the network between the objects whose positions are outputted, action values are exchanged to generate interaction with each other.
HOW TO PROVIDE SERVICES.
제 1 항에 있어서,
상기 내 캐릭터 출력 단계는,
로그인 접속 좌표 및 최종 기록좌표를 확인하여 3D씬을 생성하는단계;
네트워크 채널 입장 또는 생성을 하는 단계;
내 캐릭터(VR 캐릭터) 정보를 로드시켜, 상기 좌표값과 일치하는 3D 씬 위에 VR HMD 위치를 대응시키고 내캐릭터 3D 모델을 생성하는 단계;
이동 입력값에 따라 좌표 변동을 기록하면서 내캐릭터를 제어하는 단계; 를 포함하는
서비스 제공 방법.
The method of claim 1,
The step of outputting my character is,
generating a 3D scene by checking the login connection coordinates and the final recorded coordinates;
entering or creating a network channel;
Loading my character (VR character) information, matching a VR HMD position on a 3D scene that matches the coordinate values, and generating a 3D model of my character;
controlling my character while recording the coordinate change according to the movement input value; containing
HOW TO PROVIDE SERVICES.
제 2 항에 있어서,
상기 3D모델을 생성하는 단계는,
1인칭 시점 및 핸드 모션 트래킹으로 제어되거나, PC나 모바일의 경우 지정된 디폴트 애니메이션 재생으로 제어되는
서비스 제공 방법.
3. The method of claim 2,
Creating the 3D model includes:
Controlled by first-person view and hand motion tracking, or by playing a specified default animation for PC or mobile
HOW TO PROVIDE SERVICES.
제 2 항에 있어서,
플레이어의 좌표가 서비스 범위를 벗어날 수 없도록 이동제한 하되, 충돌체크와 워프는 예외 처리하는
서비스 제공 방법.
3. The method of claim 2,
Movement is restricted so that the player's coordinates cannot go out of the service range, but collision check and warp are exceptions.
HOW TO PROVIDE SERVICES.
제 1 항에 있어서,
상기 타 캐릭터 출력은,
네트워크 채널을 미리 설정된 시간 간격마다 스캔하여 참여 플레이어 좌표값을 로드 시키는 단계;
타 캐릭터의 외형 중심 3D모델 및 복장에 대한 정보를 로드하는 단계;
상기 참여 플레이어 좌표값과 일치하는 3D씬 위에 해당 타 캐릭터 3D모델을 생성하는 단계;
상기 스캔 결과에 의거하여 좌표 변동 체크 및 출력 위치를 변경하는 단계;
새 좌표 기록시 이전 출력값과 차이점을 비교하고, 좌표 변동 이벤트 발생시 3D모델에 이동애니메이션 재생 및 경로 연결 처리를 하는 단계;
좌표 변동이 없는 경우 3D모델에 디폴트 애니메이션 재생하는 단계; 를 포함하는
서비스 제공 방법.
The method of claim 1,
The other character output is
loading the participating player coordinates by scanning the network channel at preset time intervals;
Loading information about the appearance-oriented 3D model and clothes of other characters;
generating a 3D model of the other character on a 3D scene that matches the participating player's coordinates;
changing the coordinate change check and output position based on the scan result;
Comparing the difference with the previous output value when new coordinates are recorded, and when a coordinate change event occurs, moving animation playback and path connection processing are performed on the 3D model;
Playing a default animation on the 3D model when there is no coordinate change; containing
HOW TO PROVIDE SERVICES.
제 5 항에 있어서,
상기 타 캐릭터 해당 플레이어가 VR인 경우 HMD 및 트래킹 모션을 출력하는
서비스 제공 방법.
6. The method of claim 5,
When the other character's corresponding player is VR, the HMD and tracking motion are output.
HOW TO PROVIDE SERVICES.
제 1 항에 있어서,
상기 오차보정 출력 단계는,
LBS 좌표 인식 불가시 기록된 GPS 데이터를 로드하되, GPS데이터 로드도 불가능 한 경우 최종 기록값에 3D 모델을 출력하고 디폴트 애니메이션 재생하거나 HMD 및 핸드 트래킹 모션 출력하는 단계;
기록된 GPS 좌표의 소정횟수에 대한 좌표 변경 방향 및 평균 이동 속도를 연산하는 단계;
LBS 좌표 인식 불가 상태의 3D 모델에 상기 좌표 변경 방향 및 평균 이동 속도를 연산결과를 적용하여 좌표의 가상 이동 경로 생성 및 '이동 애니메이션' 재생하는 단계;
신규 LBS 좌표값 수신 시 가상 경로 처리 중지, 정상 출력 프로세스로 보정 프로세스에 덮어쓰기 처리하는 단계; 를 포함하는
서비스 제공 방법.
The method of claim 1,
The error correction output step is
Loading the recorded GPS data when LBS coordinate recognition is not possible, but outputting a 3D model to the final recorded value when loading GPS data is not possible, and playing a default animation or outputting HMD and hand tracking motion;
calculating a coordinate change direction and an average moving speed for a predetermined number of recorded GPS coordinates;
generating a virtual movement path of the coordinates and playing a 'moving animation' by applying the calculation result of the coordinate change direction and the average movement speed to the 3D model in a state where the LBS coordinates cannot be recognized;
stopping the virtual path processing upon receiving a new LBS coordinate value, overwriting the correction process with a normal output process; containing
HOW TO PROVIDE SERVICES.
제 1 항에 있어서,
채널 참가자 인지 UX는, 채널 화면 중앙을 기준으로 플레이어 참가 및 이탈이 플레이어 네임과 참가/이탈을 화면에 표시하고,
플레이어 캐릭터 표시 UX는, 내 캐릭터 화면 시야각을 기준으로 #name을 표시하며, 시야각을 벗어난 경우에는 벗어난 방향의 좌우측으로 화살표 및 #name을 표시하여 화면을 벗어난 타 캐릭터 및 벗어난 방향을 인지하게 하는
서비스 제공방법.
The method of claim 1,
Channel participant recognition UX, based on the center of the channel screen, when players join and leave, the player name and join/leave are displayed on the screen,
The player character display UX displays the #name based on the viewing angle of my character's screen, and if it is out of the viewing angle, arrows and #names are displayed to the left and right of the outward direction to recognize other characters off the screen and the outward direction.
How to provide services.
제 1 항에 있어서,
하나의 채널의 VR씬에 VR캐릭터와 적어도 하나 이상의 AR클라이언트 캐릭터를 표시할 때, 미니맵을 더 포함시키고, VR씬에 대응된 미니맵에 모든 캐릭터들의 위치를 추적표시하는
서비스 제공 방법.
The method of claim 1,
When displaying a VR character and at least one AR client character in a VR scene of one channel, a mini map is further included, and the positions of all characters are tracked and displayed on the mini map corresponding to the VR scene.
HOW TO PROVIDE SERVICES.
KR1020210029495A 2021-03-05 2021-03-05 A method for providing a virtual space client-based mutual interaction service according to location interlocking between objects in a virtual space and a real space KR20220125540A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210029495A KR20220125540A (en) 2021-03-05 2021-03-05 A method for providing a virtual space client-based mutual interaction service according to location interlocking between objects in a virtual space and a real space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210029495A KR20220125540A (en) 2021-03-05 2021-03-05 A method for providing a virtual space client-based mutual interaction service according to location interlocking between objects in a virtual space and a real space

Publications (1)

Publication Number Publication Date
KR20220125540A true KR20220125540A (en) 2022-09-14

Family

ID=83278942

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210029495A KR20220125540A (en) 2021-03-05 2021-03-05 A method for providing a virtual space client-based mutual interaction service according to location interlocking between objects in a virtual space and a real space

Country Status (1)

Country Link
KR (1) KR20220125540A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116682304A (en) * 2023-08-03 2023-09-01 江西格如灵科技股份有限公司 Teaching method, system, storage medium and device in virtual reality environment
CN117475041A (en) * 2023-12-28 2024-01-30 湖南视觉伟业智能科技有限公司 Digital twin shore bridge simulation method based on RCMS
WO2024122946A1 (en) * 2022-12-08 2024-06-13 삼성전자 주식회사 Electronic device for displaying virtual object, and operating method thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050061856A (en) 2003-12-18 2005-06-23 한국전자통신연구원 Automatic guide service system using virtual reality and service method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050061856A (en) 2003-12-18 2005-06-23 한국전자통신연구원 Automatic guide service system using virtual reality and service method thereof

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024122946A1 (en) * 2022-12-08 2024-06-13 삼성전자 주식회사 Electronic device for displaying virtual object, and operating method thereof
CN116682304A (en) * 2023-08-03 2023-09-01 江西格如灵科技股份有限公司 Teaching method, system, storage medium and device in virtual reality environment
CN116682304B (en) * 2023-08-03 2023-11-07 江西格如灵科技股份有限公司 Teaching method, system, storage medium and device in virtual reality environment
CN117475041A (en) * 2023-12-28 2024-01-30 湖南视觉伟业智能科技有限公司 Digital twin shore bridge simulation method based on RCMS
CN117475041B (en) * 2023-12-28 2024-03-29 湖南视觉伟业智能科技有限公司 Digital twin shore bridge simulation method based on RCMS

Similar Documents

Publication Publication Date Title
KR20220125540A (en) A method for providing a virtual space client-based mutual interaction service according to location interlocking between objects in a virtual space and a real space
US20200404219A1 (en) Immersive interactive remote participation in live entertainment
US20180324229A1 (en) Systems and methods for providing expert assistance from a remote expert to a user operating an augmented reality device
WO2020090786A1 (en) Avatar display system in virtual space, avatar display method in virtual space, and computer program
US20200118343A1 (en) Methods, systems and devices supporting real-time interactions in augmented reality environments
US8018455B2 (en) Multi-user animation coupled to bulletin board
Broll et al. Meeting technology challenges of pervasive augmented reality games
US8675017B2 (en) Real world gaming framework
CN100442313C (en) Three-dimensional virtual space simulator, three-dimensional virtual space simulation program, and computer readable recording medium where the program is recorded
CN108144294B (en) Interactive operation implementation method and device and client equipment
CN105450736B (en) Method and device for connecting with virtual reality
US20120050325A1 (en) System and method for providing virtual reality linking service
CN112312111A (en) Virtual image display method and device, electronic equipment and storage medium
US20090262194A1 (en) Interactive Media and Game System for Simulating Participation in a Live or Recorded Event
CN105843396A (en) Maintaining multiple views on a shared stable virtual space
CN111744202A (en) Method and device for loading virtual game, storage medium and electronic device
CN107185245B (en) SLAM technology-based virtual and real synchronous display method and system
KR20220125539A (en) Method for providing mutual interaction service according to location linkage between objects in virtual space and real space
KR20220125536A (en) System and operating method for providing mutual interaction service between virtual reality users and augmented reality users
CN111744180A (en) Method and device for loading virtual game, storage medium and electronic device
US20230162433A1 (en) Information processing system, information processing method, and information processing program
KR20220125538A (en) A system for linking locations between objects in virtual space and real space using a network
Iacoviello et al. HoloCities: a shared reality application for collaborative tourism
US20230206571A1 (en) System and method for syncing local and remote augmented reality experiences across devices
KR20220125541A (en) Method for providing mutual interaction service based on augmented reality client according to location linkage between objects in virtual space and real space