KR102549072B1 - Method and apparatus for user interaction based on digital twin - Google Patents
Method and apparatus for user interaction based on digital twin Download PDFInfo
- Publication number
- KR102549072B1 KR102549072B1 KR1020220027353A KR20220027353A KR102549072B1 KR 102549072 B1 KR102549072 B1 KR 102549072B1 KR 1020220027353 A KR1020220027353 A KR 1020220027353A KR 20220027353 A KR20220027353 A KR 20220027353A KR 102549072 B1 KR102549072 B1 KR 102549072B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- virtual reality
- interaction
- user terminal
- information
- Prior art date
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 127
- 238000000034 method Methods 0.000 title claims abstract description 65
- 230000004044 response Effects 0.000 claims abstract description 10
- 230000003190 augmentative effect Effects 0.000 claims description 139
- 238000004590 computer program Methods 0.000 claims description 27
- 238000004891 communication Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 18
- 238000005516 engineering process Methods 0.000 description 8
- 238000006467 substitution reaction Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 238000009825 accumulation Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 206010012289 Dementia Diseases 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000003362 replicative effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/029—Location-based management or tracking services
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Computer Networks & Wireless Communication (AREA)
- Remote Sensing (AREA)
- Tourism & Hospitality (AREA)
- Radar, Positioning & Navigation (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- Geometry (AREA)
- Primary Health Care (AREA)
- Computer Hardware Design (AREA)
- Economics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
디지털 트윈 기반의 사용자 인터랙션 방법 및 장치가 제공된다. 본 발명의 실시예에 따른 디지털 트윈 기반의 사용자 인터랙션 방법은 컴퓨팅 장치에 의해 수행되고, 현실 공간에 대응되는 디지털 트윈 정보를 저장하는 단계, 상기 디지털 트윈 정보에 기초하여 제1 사용자 단말에 가상 현실 환경을 제공하는 단계, 상기 가상 현실 환경에 대한 제1 사용자의 인터랙션을 수신하는 단계, 및 상기 수신된 상기 제1 사용자의 인터랙션을 제2 사용자 단말에 제공하는 단계를 포함하고, 상기 제1 사용자의 인터랙션은 상기 제1 사용자의 위치 이동을 포함하고, 상기 제2 사용자 단말은 상기 제1 사용자의 인터랙션에 응답하여 상기 제2 사용자 단말의 디스플레이 상에서 상기 제1 사용자에 대응되는 제1 객체를 상기 위치 이동에 대응되는 위치로 이동 표시한다.A digital twin-based user interaction method and device are provided. A digital twin-based user interaction method according to an embodiment of the present invention is performed by a computing device and includes storing digital twin information corresponding to a real space, and providing a virtual reality environment to a first user terminal based on the digital twin information. providing a first user's interaction with the virtual reality environment, and providing the received first user's interaction to a second user terminal, wherein the first user's interaction includes a location movement of the first user, and the second user terminal displays a first object corresponding to the first user on a display of the second user terminal in response to an interaction of the first user. Displays movement to the corresponding position.
Description
본 발명은 디지털 트윈 기반의 사용자 인터랙션 방법 및 장치에 관한 것이다. 보다 자세하게는, 디지털 트윈을 기반으로 구성된 가상 공간을 이용하여 사용자 간 인터랙션을 수행하는 방법 및 장치에 관한 것이다.The present invention relates to a digital twin-based user interaction method and apparatus. More specifically, it relates to a method and apparatus for performing interaction between users using a virtual space constructed based on a digital twin.
인간의 경험을 공유하고 확장하는 도구로써 최근 가상 현실(Virtual Reality, VR)과 증강현실(Augmented Reality, AR)이 주목을 받고 있다. Virtual Reality (VR) and Augmented Reality (AR) are attracting attention as tools to share and expand human experiences.
가상 현실은 배경과 객체로 구성된 가상의 이미지로 가상공간을 만들어내지만, 증강 현실은 현실의 이미지에 3차원 가상 이미지를 겹쳐 하나의 영상으로 보여주는 기술이다. Virtual reality creates a virtual space with virtual images composed of backgrounds and objects, but augmented reality is a technology that overlays a 3D virtual image on a real image to show it as a single image.
가상 현실 애플리케이션은 가상현실용 안경, 모션 인식장치 등 별도의 장비를 통해 전달된 사용자의 행위에 따라 가상의 공간에서 상호작용하며 사용자에게 체험환경을 제공한다. 증강 현실 애플리케이션은 현실 세계의 객체와 가상의 객체가 상호작용하여 현실감이 높다.The virtual reality application interacts in a virtual space according to the user's actions delivered through separate equipment such as virtual reality glasses and motion recognition devices, and provides an experience environment to the user. Augmented reality applications are highly realistic because objects in the real world and virtual objects interact with each other.
최근에는 3차원 렌더링(Rendering) 등 컴퓨터 그래픽스(Computer Graphics) 기술과 고속/병렬 처리 기술 등 소프트웨어 및 하드웨어 기술의 발전으로 인해, 가상 현실 및 증강 현실 기술이 이용된 다양한 애플리케이션들이 개발되고 있다. 게임, 산업 등 다양한 업계에서도 가상 현실과 증강 현실 기술들을 이용한 애플리케이션 개발에 관심을 갖고 있다.Recently, various applications using virtual reality and augmented reality technologies have been developed due to the development of computer graphics technologies such as 3D rendering and software and hardware technologies such as high-speed/parallel processing technologies. Various industries such as games and industries are also interested in developing applications using virtual reality and augmented reality technologies.
본 발명의 몇몇 실시예를 통해 해결하고자 하는 기술적 과제는, 디지털 트윈 기술로 구축된 가상 현실 공간을 기반으로 사용자간 인터랙션을 서로 주고 받을 수 있도록 하는 디지털 트윈 기반의 사용자 인터랙션 방법 및 장치를 제공하는 것이다.A technical problem to be solved through some embodiments of the present invention is to provide a digital twin-based user interaction method and device that allows users to exchange interactions with each other based on a virtual reality space built with digital twin technology. .
본 발명의 몇몇 실시예를 통해 해결하고자 하는 다른 기술적 과제는, 가상 현실 단말 사용자와 증강 현실 단말 사용자 간에도 자연스러운 인터랙션을 주고 받을 수 있는 디지털 트윈 기반의 사용자 인터랙션 방법 및 장치를 제공하는 것이다.Another technical problem to be solved through some embodiments of the present invention is to provide a digital twin-based user interaction method and apparatus capable of exchanging natural interactions between virtual reality terminal users and augmented reality terminal users.
본 발명의 몇몇 실시예를 통해 해결하고자 하는 또 다른 기술적 과제는, 상대방 사용자의 위치 및 이동을 추적하여 가상 현실 단말 또는 증강 현실 단말 상에 정확히 표현할 수 있는 디지털 트윈 기반의 사용자 인터랙션 방법 및 장치를 제공하는 것이다.Another technical problem to be solved through some embodiments of the present invention is to provide a digital twin-based user interaction method and device that can track the location and movement of the other user and accurately express them on a virtual reality terminal or augmented reality terminal. is to do
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명의 기술분야에서의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below.
상기 기술적 과제를 해결하기 위한, 본 발명의 실시예들에 따른 컴퓨터 장치에 의해 수행되는 디지털 트윈 기반의 사용자 인터랙션 방법은 현실 공간에 대응되는 디지털 트윈 정보를 저장하는 단계, 상기 디지털 트윈 정보에 기초하여 제1 사용자 단말에 가상 현실 환경을 제공하는 단계, 상기 가상 현실 환경에 대한 제1 사용자의 인터랙션을 수신하는 단계, 및 상기 수신된 상기 제1 사용자의 인터랙션을 제2 사용자 단말에 제공하는 단계를 포함하고, 상기 제1 사용자의 인터랙션은 상기 제1 사용자의 위치 이동을 포함하고, 상기 제2 사용자 단말은 상기 제1 사용자의 인터랙션에 응답하여 상기 제2 사용자 단말의 디스플레이 상에서 상기 제1 사용자에 대응되는 제1 객체를 상기 위치 이동에 대응되는 위치로 이동 표시할 수 있다.In order to solve the above technical problem, a digital twin-based user interaction method performed by a computer device according to embodiments of the present invention includes storing digital twin information corresponding to a real space, based on the digital twin information Providing a virtual reality environment to a first user terminal, receiving a first user's interaction with respect to the virtual reality environment, and providing the received first user's interaction to a second user terminal. and the interaction of the first user includes movement of the location of the first user, and the second user terminal corresponds to the first user on the display of the second user terminal in response to the interaction of the first user. The first object may be moved and displayed to a location corresponding to the location movement.
일 실시예로서, 상기 제1 사용자 단말은 상기 가상 현실 환경을 기초로 상기 현실 공간에 대응되는 가상 현실 배경을 표시하고, 상기 가상 현실 배경 상에 제2 사용자를 나타내는 제2 객체를 표시하되, 상기 제2 객체가 표시되는 상기 가상 현실 배경 상의 위치는 상기 현실 공간 상의 상기 제2 사용자의 위치와 대응될 수 있다.As an embodiment, the first user terminal displays a virtual reality background corresponding to the real space based on the virtual reality environment, and displays a second object representing a second user on the virtual reality background, A location on the virtual reality background where the second object is displayed may correspond to a location of the second user in the real space.
일 실시예로서, 상기 제2 사용자 단말은 상기 제2 사용자 단말의 카메라를 통해 촬영되는 영상을 이용하여 증강 현실 배경을 표시하고, 상기 증강 현실 배경 상에 상기 제1 객체를 표시하되, 상기 제1 객체가 표시되는 상기 증강 현실 배경 상의 위치는 상기 가상 현실 환경에서의 상기 제1 사용자의 위치와 대응될 수 있다.As an embodiment, the second user terminal displays an augmented reality background using an image captured through a camera of the second user terminal, and displays the first object on the augmented reality background, A location on the augmented reality background where an object is displayed may correspond to a location of the first user in the virtual reality environment.
일 실시예로서, 상기 제1 사용자의 인터랙션은 상기 제1 사용자의 채팅, 대화, 몸짓, 또는 상태표시를 포함할 수 있다.As an example, the interaction of the first user may include chatting, conversation, gesture, or status display of the first user.
일 실시예로서, 상기 제1 사용자의 인터랙션을 수신하는 단계는 상기 제1 사용자의 위치를 나타내는 LBS (Location Based Service) 정보, 또는 GPS (Global Positioning System) 정보를 수신하는 단계, 및 상기 LBS 정보와 상기 GPS 정보 간 오차를 산출하는 단계를 포함할 수 있다.As an embodiment, the receiving of the interaction of the first user may include receiving Location Based Service (LBS) information or Global Positioning System (GPS) information indicating the location of the first user, and the LBS information and Calculating an error between the GPS information may be included.
일 실시예로서, 상기 제2 사용자 단말에 제공하는 단계는 상기 LBS 정보가 수신 가능한 경우, 상기 LBS 정보를 기반으로 상기 제2 사용자 단말에 상기 제1 사용자의 위치 정보를 제공할 수 있다.As an embodiment, the providing to the second user terminal may provide the location information of the first user to the second user terminal based on the LBS information if the LBS information is receivable.
일 실시예로서, 상기 제2 사용자 단말에 제공하는 단계는 상기 LBS 정보가 수신 가능하지 않으면, 상기 GPS 정보를 기반으로 상기 제2 사용자 단말에 상기 제1 사용자의 위치 정보를 제공할 수 있다.As an embodiment, in the providing of the LBS information to the second user terminal, if the LBS information is not receivable, the location information of the first user may be provided to the second user terminal based on the GPS information.
일 실시예로서, 상기 제1 사용자의 위치 정보는 미리 산출된 LBS 정보와 GPS 정보 간 오차를 기반으로 상기 GPS 정보를 보정한 값일 수 있다.As an embodiment, the location information of the first user may be a value obtained by correcting the GPS information based on an error between pre-calculated LBS information and GPS information.
일 실시예로서, 상기 제2 사용자 단말로부터 제2 사용자의 인터랙션을 수신하여 상기 제1 사용자 단말에 제공하는 단계를 더 포함할 수 있다.As an embodiment, the method may further include receiving an interaction of a second user from the second user terminal and providing the received interaction to the first user terminal.
일 실시예로서, 상기 제1 사용자 단말 또는 상기 제2 사용자 단말은 제1 지점에서 제2 지점까지 상기 제2 사용자 단말의 이동 경로를 안내하는 지도를 표시할 수 있다.As an embodiment, the first user terminal or the second user terminal may display a map guiding a movement path of the second user terminal from a first point to a second point.
상기 기술적 과제를 해결하기 위한, 본 발명의 실시예들에 따른 컴퓨팅 장치에 의해 수행되는 디지털 트윈 기반의 사용자 인터랙션 방법은, 서버로부터 디지털 트윈 정보에 기초한 가상 현실 환경을 수신하는 단계, 상기 가상 현실 환경에 기초하여 현실 공간에 대응되는 가상 현실 배경을 표시하는 단계, 상기 가상 현실 배경 상에 사용자를 나타내는 객체를 표시하는 단계, 및 상기 서버로부터 상기 사용자의 인터랙션을 수신하여 상기 가상 현실 배경 상에 표시하는 단계를 포함하고, 상기 가상 현실 배경은 상기 사용자가 위치한 상기 현실 공간을 모사한 것이고, 상기 객체의 상기 가상 현실 배경 상의 위치는 상기 현실 공간 상의 상기 사용자의 위치와 대응될 수 있다.In order to solve the above technical problem, a digital twin-based user interaction method performed by a computing device according to embodiments of the present invention includes receiving a virtual reality environment based on digital twin information from a server, the virtual reality environment Displaying a virtual reality background corresponding to the real space based on the above, displaying an object representing the user on the virtual reality background, and receiving the user's interaction from the server and displaying it on the virtual reality background. The virtual reality background may simulate the real space where the user is located, and the position of the object on the virtual reality background may correspond to the position of the user on the real space.
일 실시예로서, 상기 사용자를 나타내는 객체를 표시하는 단계는 상기 객체의 상기 가상 현실 배경 상의 위치가 미리 결정된 시야각 범위 이내 이면, 상기 객체를 캐릭터 모델로써 표시할 수 있다.As an embodiment, in the displaying of the object representing the user, if the position of the object on the virtual reality background is within a predetermined viewing angle range, the object may be displayed as a character model.
일 실시예로서, 상기 사용자를 나타내는 객체를 표시하는 단계는 상기 객체의 상기 가상 현실 배경 상의 위치가 미리 결정된 시야각 범위 밖이면, 상기 객체를 명칭 또는 심볼로써 상기 시야각 범위의 가장자리에 표시할 수 있다.As an embodiment, in the displaying of the object representing the user, if the position of the object on the virtual reality background is outside the predetermined viewing angle range, the object may be displayed as a name or symbol at the edge of the viewing angle range.
상기 기술적 과제를 해결하기 위한, 본 발명의 실시예들에 따른 컴퓨팅 장치에 의해 수행되는 디지털 트윈 기반의 사용자 인터랙션 방법은, 카메라를 통해 현실 공간을 촬영한 영상을 이용하여 증강 현실 배경을 화면에 표시하는 단계, 상기 증강 현실 배경 상에 사용자를 나타내는 객체를 표시하는 단계, 및 상기 서버로부터 상기 사용자의 인터랙션을 수신하여 상기 증강 현실 배경 상에 표시하는 단계를 포함하고, 상기 객체가 표시되는 상기 증강 현실 배경 상의 위치는 상기 현실 공간에 대응되는 가상 현실 공간 상의 상기 사용자의 위치와 대응될 수 있다.In order to solve the above technical problem, a digital twin-based user interaction method performed by a computing device according to embodiments of the present invention displays an augmented reality background on a screen using an image taken in a real space through a camera. and displaying an object representing the user on the augmented reality background, and receiving an interaction of the user from the server and displaying the user interaction on the augmented reality background, wherein the augmented reality object is displayed. A location on the background may correspond to a location of the user on a virtual reality space corresponding to the real space.
일 실시예로서, 상기 사용자를 나타내는 객체를 표시하는 단계는 상기 객체의 상기 증강 현실 배경 상의 위치가 상기 화면 이내 이면, 상기 객체를 캐릭터 모델로써 표시할 수 있다.As an embodiment, in the displaying of the object representing the user, if the location of the object on the augmented reality background is within the screen, the object may be displayed as a character model.
일 실시예로서, 상기 사용자를 나타내는 객체를 표시하는 단계는 자이로 센서를 이용하여 상기 캐릭터 모델의 표시 각도를 조정할 수 있다.As an embodiment, in the displaying of the object representing the user, a display angle of the character model may be adjusted using a gyro sensor.
일 실시예로서, 상기 사용자를 나타내는 객체를 표시하는 단계는 상기 객체의 상기 증강 현실 배경 상의 위치가 상기 화면 밖이면, 상기 객체를 명칭 또는 심볼로써 상기 화면의 가장자리에 표시할 수 있다.As an embodiment, in the displaying of the object representing the user, if the location of the object on the augmented reality background is outside the screen, the object may be displayed as a name or symbol at an edge of the screen.
상기 기술적 과제를 해결하기 위한, 본 발명의 실시예들에 따른 디지털 트윈 기반의 사용자 인터랙션 장치는 프로세서, 상기 프로세서에 의해 실행되는 컴퓨터 프로그램을 로드(load)하는 메모리, 및 상기 컴퓨터 프로그램을 저장하는 스토리지를 포함하되, 상기 컴퓨터 프로그램은 현실 공간에 대응되는 디지털 트윈 정보를 저장하는 동작, 상기 디지털 트윈 정보에 기초하여 제1 사용자 단말에 가상 현실 환경을 제공하는 동작, 상기 가상 현실 환경에 대한 제1 사용자의 인터랙션을 수신하는 동작, 및 상기 수신된 상기 제1 사용자의 인터랙션을 제2 사용자 단말에 제공하는 동작을 수행하기 위한 인스트럭션들을 포함하고, 상기 제1 사용자의 인터랙션은 상기 제1 사용자의 위치 이동을 포함하고, 상기 제2 사용자 단말은 상기 제1 사용자의 인터랙션에 응답하여, 상기 제2 사용자 단말의 디스플레이 상에서 상기 제1 사용자에 대응되는 제1 객체를 상기 위치 이동에 대응되는 위치로 이동 표시할 수 있다.In order to solve the above technical problem, a digital twin-based user interaction device according to embodiments of the present invention includes a processor, a memory for loading a computer program executed by the processor, and a storage for storing the computer program. The computer program includes an operation of storing digital twin information corresponding to a real space, an operation of providing a virtual reality environment to a first user terminal based on the digital twin information, and a first user for the virtual reality environment. and instructions for performing an operation of receiving an interaction of the first user and providing an operation of providing the received interaction of the first user to a second user terminal, wherein the interaction of the first user causes a location movement of the first user. The second user terminal may move and display a first object corresponding to the first user to a position corresponding to the position movement on a display of the second user terminal in response to an interaction of the first user. there is.
상기 기술적 과제를 해결하기 위한, 본 발명의 실시예들에 따른 디지털 트윈 기반의 사용자 인터랙션 장치는 프로세서, 상기 프로세서에 의해 실행되는 컴퓨터 프로그램을 로드(load)하는 메모리, 및 상기 컴퓨터 프로그램을 저장하는 스토리지를 포함하되, 상기 컴퓨터 프로그램은 서버로부터 디지털 트윈 정보에 기초한 가상 현실 환경을 수신하는 동작, 상기 가상 현실 환경에 기초하여 현실 공간에 대응되는 가상 현실 배경을 표시하는 동작, 상기 가상 현실 배경 상에 사용자를 나타내는 객체를 표시하는 동작, 및 상기 서버로부터 상기 사용자의 인터랙션을 수신하여 상기 가상 현실 배경 상에 표시하는 동작을 수행하기 위한 인스트럭션들을 포함하고, 상기 가상 현실 배경은 상기 사용자가 위치한 상기 현실 공간을 모사한 것이고, 상기 객체의 상기 가상 현실 배경 상의 위치는 상기 현실 공간 상의 상기 사용자의 위치와 대응될 수 있다.In order to solve the above technical problem, a digital twin-based user interaction device according to embodiments of the present invention includes a processor, a memory for loading a computer program executed by the processor, and a storage for storing the computer program. The computer program includes an operation of receiving a virtual reality environment based on digital twin information from a server, an operation of displaying a virtual reality background corresponding to a real space based on the virtual reality environment, and a user on the virtual reality background. and instructions for performing an operation of displaying an object representing a , and an operation of receiving an interaction of the user from the server and displaying the received interaction on the virtual reality background, wherein the virtual reality background represents the real space where the user is located. The location of the object on the virtual reality background may correspond to the location of the user on the real space.
상기 기술적 과제를 해결하기 위한, 본 발명의 실시예들에 따른 디지털 트윈 기반의 사용자 인터랙션 장치는 프로세서, 상기 프로세서에 의해 실행되는 컴퓨터 프로그램을 로드(load)하는 메모리, 및 상기 컴퓨터 프로그램을 저장하는 스토리지를 포함하되, 상기 컴퓨터 프로그램은 카메라를 통해 현실 공간을 촬영한 영상을 이용하여 증강 현실 배경을 화면에 표시하는 동작, 상기 증강 현실 배경 상에 사용자를 나타내는 객체를 표시하는 동작, 및 상기 서버로부터 상기 사용자의 인터랙션을 수신하여 상기 증강 현실 배경 상에 표시하는 동작을 수행하기 위한 인스트럭션들을 포함하고, 상기 객체가 표시되는 상기 증강 현실 배경 상의 위치는 상기 현실 공간에 대응되는 가상 현실 공간 상의 상기 사용자의 위치와 대응될 수 있다.In order to solve the above technical problem, a digital twin-based user interaction device according to embodiments of the present invention includes a processor, a memory for loading a computer program executed by the processor, and a storage for storing the computer program. Including, but the computer program displays an augmented reality background on a screen using an image taken of a real space through a camera, displays an object representing a user on the augmented reality background, and the server A location on the augmented reality background where the object is displayed is a location of the user on a virtual reality space corresponding to the real space. can correspond with
상기한 본 발명의 실시예들에 따르면, 디지털 트윈 기술로 구축된 가상 현실 공간을 기반으로 사용자간 인터랙션을 서로 주고 받을 수 있다.According to the embodiments of the present invention described above, interactions between users can be exchanged based on a virtual reality space built with digital twin technology.
또한, 가상 현실 단말 사용자와 증강 현실 단말 사용자 간에 자연스러운 인터랙션을 주고 받을 수 있으며, 상대방 사용자의 위치 및 이동을 추적하여 가상 현실 단말 또는 증강 현실 단말 상에 정확히 표현할 수 있다.In addition, natural interactions can be exchanged between the virtual reality terminal user and the augmented reality terminal user, and the position and movement of the other user can be tracked and accurately expressed on the virtual reality terminal or augmented reality terminal.
도 1은 본 발명의 일 실시예에 따른, 디지털 트윈 기반의 사용자 인터랙션 방법이 수행되는 전체 시스템을 나타내는 도면이다.
도 2는 디지털 트윈의 개념을 설명하기 위한 도면이다.
도 3은 도 1의 제1 사용자 단말의 예시적인 형태를 나타내는 도면이다.
도 4는 도 1의 제2 사용자 단말의 예시적인 형태를 나타내는 도면이다.
도 5는 본 발명의 일 실시예에 따른, 디지털 트윈 기반의 사용자 인터랙션 방법을 나타내는 순서도이다.
도 6은 본 발명의 일 실시예에 따른, 가상 현실 환경의 대입비율을 조정하는 방법을 설명하는 도면이다.
도 7은 도 5의 S130 단계를 더욱 구체화한 순서도이다.
도 8은 도 7의 S132 단계를 부연설명하기 위한 도면이다.
도 9는 본 발명의 다른 실시예에 따른, 디지털 트윈 기반의 사용자 인터랙션 방법을 나타내는 순서도이다.
도 10은 도 9의 실시예에서 제1 사용자 단말 상에 객체가 표시되는 방법을 설명하기 위한 도면이다.
도 11은 본 발명의 또 다른 실시예에 따른, 디지털 트윈 기반의 사용자 인터랙션 방법을 나타내는 순서도이다.
도 12 및 도 13은 도 11의 실시예에서 제2 사용자 단말 상에 객체가 표시되는 방법을 설명하기 위한 도면이다.
도 14는 제2 사용자 단말 상에 지도가 함께 표시되는 실시예를 나타내는 도면이다.
도 15는 본 발명의 다양한 실시예들이 구현되는 컴퓨팅 장치의 예시적인 하드웨어 구성을 나타내는 블록도이다.1 is a diagram illustrating an entire system in which a digital twin-based user interaction method is performed according to an embodiment of the present invention.
2 is a diagram for explaining the concept of a digital twin.
FIG. 3 is a diagram illustrating an exemplary form of a first user terminal of FIG. 1 .
FIG. 4 is a diagram illustrating an exemplary form of a second user terminal of FIG. 1 .
5 is a flowchart illustrating a digital twin-based user interaction method according to an embodiment of the present invention.
6 is a diagram illustrating a method of adjusting a substitution ratio in a virtual reality environment according to an embodiment of the present invention.
FIG. 7 is a flowchart illustrating step S130 of FIG. 5 in more detail.
FIG. 8 is a diagram for amplifying step S132 of FIG. 7 .
9 is a flowchart illustrating a digital twin-based user interaction method according to another embodiment of the present invention.
FIG. 10 is a diagram for explaining a method of displaying an object on a first user terminal in the embodiment of FIG. 9 .
11 is a flowchart illustrating a digital twin-based user interaction method according to another embodiment of the present invention.
12 and 13 are diagrams for explaining a method of displaying an object on a second user terminal in the embodiment of FIG. 11 .
14 is a diagram illustrating an embodiment in which a map is also displayed on a second user terminal.
15 is a block diagram illustrating an exemplary hardware configuration of a computing device in which various embodiments of the invention may be implemented.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명의 기술적 사상은 이하의 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 이하의 실시예들은 본 발명의 기술적 사상을 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 기술적 사상은 청구항의 범주에 의해 정의될 뿐이다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the technical idea of the present invention is not limited to the following embodiments and can be implemented in various different forms, only the following embodiments complete the technical idea of the present invention, and in the technical field to which the present invention belongs It is provided to fully inform those skilled in the art of the scope of the present invention, and the technical spirit of the present invention is only defined by the scope of the claims.
각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In adding reference numerals to components of each drawing, it should be noted that the same components have the same numerals as much as possible even if they are displayed on different drawings. In addition, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description will be omitted.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used in a meaning commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless explicitly specifically defined. Terminology used herein is for describing the embodiments and is not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In addition, in describing the components of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are only used to distinguish the component from other components, and the nature, order, or order of the corresponding component is not limited by the term. When an element is described as being “connected,” “coupled to,” or “connected” to another element, that element is directly connected or connectable to the other element, but there is another element between the elements. It will be understood that elements may be “connected”, “coupled” or “connected”.
이하, 본 발명의 몇몇 실시예들에 대하여 첨부된 도면에 따라 상세하게 설명한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른, 디지털 트윈 기반의 사용자 인터랙션 방법이 수행되는 전체 시스템을 나타내는 도면이다. 도 1을 참조하면, 서버(100), 제1 사용자 단말(200), 및 제2 사용자 단말(300)은 네트워크(10)를 통해 상호 연결될 수 있다. 본 실시예에서, 제1 사용자 단말(200)은 가상 현실 단말이고, 제2 사용자 단말(300)은 증강 현실 단말인 것으로 가정된다.1 is a diagram illustrating an entire system in which a digital twin-based user interaction method is performed according to an embodiment of the present invention. Referring to FIG. 1 , a
제1 사용자 단말(200), 또는 제2 사용자 단말(300)은 휴대용 단말기 또는 휴대용 컴퓨터로 구현될 수 있다. 여기서, 휴대용 단말기는 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 휴대용 컴퓨터는 노트북, 랩톱(laptop) 등을 포함할 수 있다. The
또한, 제1 사용자 단말(200), 또는 제2 사용자 단말(300)은 스마트폰, 스마트 노트, 태블릿 PC, 웨어러블(wearable) 컴퓨터 등의 각종 스마트 기기일 수도 있다.In addition, the
네트워크(10)는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network, WAN) 또는 부가가치 통신망(Value Added Network; VAN) 등과 같은 유선 네트워크로 구현될 수 있다. 또는, 네트워크(10)는 이동 통신망(mobile radio communication network), 위성 통신망, 블루투스(Bluetooth), Wibro(Wireless Broadband Internet), HSDPA(High Speed Downlink Packet Access), LTE(Long Term Evolution) 등과 같은 모든 종류의 무선 네트워크로 구현될 수 있다. 필요에 따라서, 네트워크(10)는 유선 및 무선이 혼용된 네트워크로 구성될 수 있다.The
서버(100)는 현실 공간에 대응되는 디지털 트윈 정보를 저장하고, 상기 디지털 트윈 정보를 기초하여 제1 사용자 단말(200)에 가상 현실 환경을 제공한다.The
디지털 트윈은 현실 공간을 모사(模寫)한 가상 현실 환경을 지칭하는 것으로, 현실 공간의 배경 및 구성물들을 가상 현실 상에 구현해 놓은 것을 의미한다. 예를 들어, 도 2에 도시된 것과 같이, 현실 공간(20)의 건물, 나무, 구조물 등을 실물과 유사하게 모사하여 가상 현실 공간(30) 상에 구현한 것이 디지털 트윈이다. 디지털 트윈 정보는 디지털 트윈을 구현하기 위해 이용되는 정보를 일반적으로 지칭하는 것으로 정의된다.The digital twin refers to a virtual reality environment that simulates a real space, and means that the background and components of the real space are implemented in virtual reality. For example, as shown in FIG. 2 , a digital twin is implemented on a
가상 현실 환경은 가상 현실 구현에 이용되는 디지털 요소를 통칭하는 의미로, 가상 현실 배경, 가상 객체, 및 그 밖의 사용자 경험(user experience, UX)을 포함한다.The virtual reality environment collectively refers to digital elements used to implement virtual reality, and includes virtual reality backgrounds, virtual objects, and other user experiences (UX).
서버(100)는 제1 사용자 단말(200)과 제2 사용자 단말(300) 사이에서 사용자 인터랙션을 전달한다. The
가령, 서버(100)는 제1 사용자 단말(200)로부터 제1 사용자의 위치 정보를 수신하고, 그에 대응되는 현실 공간 상 위치를 산출하여 제2 사용자 단말(300)에 제공한다. 제2 사용자 단말(300)은 서버가 제공하는 위치를 참조하여 증강 현실 배경 상에 제1 사용자를 나타내는 제1 객체를 표시하게 된다. For example, the
그리고, 서버(100)는 제1 사용자 단말(200)로부터 제1 사용자의 인터랙션을 수신하고, 이를 제2 사용자 단말(300)에 제공한다. 제2 사용자 단말(300)은 제공된 제1 사용자의 인터랙션을 자신의 화면을 통해 제2 사용자에게 표시한다. 이때, 제1 사용자의 인터랙션은 제1 사용자의 위치 이동, 대화, 채팅, 또는 몸짓 등을 포함할 수 있다.And, the
또는, 서버(100)는 제2 사용자 단말(300)로부터 제2 사용자의 위치 정보를 수신하고, 그에 대응되는 가상 현실 공간 상 위치를 산출하여 제1 사용자 단말(200)에 제공한다. 제1 사용자 단말(200)은 서버가 제공하는 위치를 참조하여 가상 현실 배경 상에 제2 사용자를 나타내는 제2 객체를 표시하게 된다. Alternatively, the
그리고, 서버(100)는 제2 사용자 단말(300)로부터 제2 사용자의 인터랙션을 수신하고, 이를 제1 사용자 단말(200)에 제공한다. 제1 사용자 단말(200)은 제공된 제2 사용자의 인터랙션을 자신이 제공하는 가상 현실 환경을 통해 제1 사용자에게 표시한다. 이때, 제2 사용자의 인터랙션은 제2 사용자의 위치 이동, 대화, 채팅, 또는 몸짓 등을 포함할 수 있다.And, the
도 3은 도 1의 제1 사용자 단말의 예시적인 형태를 나타내는 도면이다. FIG. 3 is a diagram illustrating an exemplary form of a first user terminal of FIG. 1 .
도 3의 실시예에서, 제1 사용자 단말(200)은 HMD(Head Mounted Display)인 것으로 예시된다. 사용자가 제1 사용자 단말(200)을 머리에 착용하면, 제1 사용자 단말(200)은 서버가 제공하는 정보를 기초로 사용자에게 가상 현실 환경(40)을 표시한다. In the embodiment of FIG. 3 , the
한편, 본 실시예에서는 제1 사용자 단말(200)이 HMD인 것을 예시하였지만, 본 발명의 범위는 이에 한정되지 않는다. 예를 들어, 제1 사용자 단말(200)은 HMD 외에도 가상 현실 안경, 홀로그램 디스플레이, 또는 인간의 뇌파에 직접 작용하는 가상 현실 체험 장치 등이 될 수도 있다.Meanwhile, in this embodiment, the
도 4는 도 1의 제2 사용자 단말의 예시적인 형태를 나타내는 도면이다.FIG. 4 is a diagram illustrating an exemplary form of a second user terminal of FIG. 1 .
도 4의 실시예에서, 제2 사용자 단말(300)은 스마트폰(Smart Phone)인 것으로 예시된다. 제2 사용자 단말(300)은 내장된 카메라(미도시)를 통해 현실 공간(51)을 촬영하고, 촬영된 영상을 자신의 화면에 배경으로 표시한다. 그리고, 화면의 현실 공간 영상 위에 가상 객체를 덧씌워 표시함으로써 사용자에게 증강 현실 환경을 제공한다.In the embodiment of FIG. 4 , the
한편, 본 실시예에서는 제2 사용자 단말(300)이 스마트폰인 것을 예시하였지만, 본 발명의 범위는 이에 한정되지 않는다. 예를 들어, 제2 사용자 단말(300)은 스마트폰 외에도 HMD, 증강 현실 안경, 또는 그 밖의 표시 수단을 구비한 휴대용 단말 등이 될 수도 있다.Meanwhile, in this embodiment, the
도 5는 본 발명의 일 실시예에 따른, 디지털 트윈 기반의 사용자 인터랙션 방법을 나타내는 순서도이다. 도 5의 사용자 인터랙션 방법은 도 1 의 서버(100)에 의해 수행된다. 따라서, 이하의 단계들에서 수행 주체가 명시되지 않은 경우, 그 수행 주체는 상기 서버(100)인 것으로 전제된다.5 is a flowchart illustrating a digital twin-based user interaction method according to an embodiment of the present invention. The user interaction method of FIG. 5 is performed by the
S110 단계에서, 현실 공간에 대응되는 디지털 트윈 정보가 저장된다.In step S110, digital twin information corresponding to the real space is stored.
S120 단계에서, 디지털 트윈 정보에 기초하여 제1 사용자 단말에 가상 현실 환경이 제공된다. In step S120, a virtual reality environment is provided to the first user terminal based on the digital twin information.
제1 사용자 단말은 제공된 가상 현실 환경에 기초하여, 제1 사용자에게 가상 현실 배경을 표시하고 그 위에 다수의 가상 객체를 표시할 수 있다. Based on the provided virtual reality environment, the first user terminal may display a virtual reality background to the first user and display a plurality of virtual objects thereon.
일 실시예로서, 상기 가상 객체는 현실 공간에 존재하는 현실 객체를 나타내는 객체일 수 있다. 예를 들어, 특정 현실 공간에 제2 사용자가 위치하고 있는 경우, 제1 사용자 단말은 해당 현실 공간을 모사한 이미지를 가상 현실 배경으로서 표시하고, 표시된 가상 현실 배경 위에 제2 사용자를 나타내는 가상 객체를 표시할 수 있다. As an example, the virtual object may be an object representing a real object existing in a real space. For example, when a second user is located in a specific real space, the first user terminal displays an image simulating the corresponding real space as a virtual reality background and displays a virtual object representing the second user on the displayed virtual reality background. can do.
이 경우, 가상 현실 배경 상의 가상 객체의 위치는 현실 객체의 현실 공간 상 위치에 기초하여 결정될 수 있다. 본 실시예에서, 가상 현실 배경은 현실 공간을 모사한 것이므로, 가상 현실 배경 내의 각 위치는 현실 공간 상의 특정 위치와 각각 대응될 수 있다. 이 경우, 현실 객체가 현실 공간 상의 제1 위치에 있으면, 현실 객체를 나타내는 가상 객체는 상기 제1 위치에 대응하는 가상 현실 배경 상 위치인 제2 위치에 표시되게 된다. In this case, the position of the virtual object on the virtual reality background may be determined based on the position of the real object in the real space. In this embodiment, since the virtual reality background simulates the real space, each location within the virtual reality background may correspond to a specific location on the real space. In this case, if the real object is located at the first position on the real space, the virtual object representing the real object is displayed at the second position corresponding to the first position on the virtual reality background.
일 실시예로서, 상기 현실 객체는 증강 현실 단말, 예를 들어 도 1의 제2 사용자 단말(300)을 이용하는 제2 사용자일 수 있고, 상기 가상 객체는 제2 사용자를 나타내는 3D 캐릭터 또는 대표 이미지일 수 있다. As an embodiment, the real object may be a second user using an augmented reality terminal, for example, the
S130 단계에서, 제1 사용자 단말로부터 가상 현실 환경에 대한 제1 사용자의 인터랙션이 수신된다. In step S130, a first user's interaction with the virtual reality environment is received from the first user terminal.
제1 사용자의 인터랙션은, 제1 사용자 단말이 제공하는 가상 현실 환경에 반응하여 발생된 제1 사용자의 행동, 몸짓, 표현, 또는 그 밖의 작용을 의미하는 것으로, 제1 사용자의 인터랙션은 제1 사용자 단말을 통해 서버로 수신된다.Interactions of the first user refer to actions, gestures, expressions, or other actions of the first user generated in response to a virtual reality environment provided by the first user terminal. It is received by the server through the terminal.
일 실시예로서, 제1 사용자의 인터랙션은 제1 사용자의 위치 이동을 포함할 수 있다. 예를 들어, 제1 사용자가 자신이 위치한 현실 공간 상에서 또는 가상 현실 환경 상에서 위치를 이동하면, 제1 사용자의 위치 이동을 나타내는 정보, 예를 들어 제1 사용자의 변화된 위치 좌표가 제1 사용자의 인터랙션으로서 서버로 수신된다. As an example, the interaction of the first user may include moving the location of the first user. For example, when the first user moves a location in a real space or a virtual reality environment in which the first user is located, information representing the location movement of the first user, for example, the changed location coordinates of the first user, is used as the first user's interaction. is received by the server as
S140 단계에서, 수신된 제1 사용자의 인터랙션이 제2 사용자 단말에 제공된다. 제2 사용자 단말은 제공된 제1 사용자의 인터랙션에 응답하여, 이를 제2 사용자에게 표시한다.In step S140, the received interaction of the first user is provided to the second user terminal. The second user terminal responds to the provided interaction of the first user and displays it to the second user.
이에 대해, 제2 사용자 단말이 증강 현실 단말인 경우를 예로 들어 부연 설명한다.In this regard, a case in which the second user terminal is an augmented reality terminal will be further described as an example.
먼저, 제2 사용자 단말은 카메라를 통해 현실 공간을 촬영하고, 그 촬영된 영상을 이용하여 화면상에 증강 현실 배경을 표시한다. 그리고, 제2 사용자 단말은 화면에 표시된 증강 현실 배경 상에 제1 사용자에 대응하는 증강 현실 객체를 표시한다. 이때, 상기 증강 현실 객체가 표시되는 증강 현실 배경 상의 위치는 가상 현실 환경에서의 제1 사용자의 위치에 대응될 수 있다. First, the second user terminal photographs a real space through a camera, and displays an augmented reality background on a screen using the photographed image. And, the second user terminal displays an augmented reality object corresponding to the first user on the augmented reality background displayed on the screen. In this case, a location on an augmented reality background where the augmented reality object is displayed may correspond to a location of the first user in a virtual reality environment.
예를 들어, 가상 현실 환경에서 제1 사용자가 A 편의점 앞에 서있으면, 제2 사용자 단말의 증강 현실 배경 상에서도 상기 증강 현실 객체는 A 편의점 앞에 표시된다. For example, if a first user is standing in front of a convenience store A in a virtual reality environment, the augmented reality object is displayed in front of the convenience store A on the augmented reality background of the second user terminal.
다음으로, 제2 사용자 단말이 제1 사용자 인터랙션을 수신하면, 이에 응답하여 현재의 증강 현실 화면을 통해 제1 사용자 인터랙션이 표시된다. 가령, 제1 사용자의 인터랙션이 제1 사용자의 위치 이동인 경우, 제2 사용자 단말은 제1 사용자의 인터랙션에 응답하여 제2 사용자 단말의 화면 상에 표시된 제1 사용자의 증강 현실 객체를 상기 위치 이동에 대응되는 위치로 이동 표시한다. Next, when the second user terminal receives the first user interaction, the first user interaction is displayed through the current augmented reality screen in response thereto. For example, when the interaction of the first user is the movement of the location of the first user, the second user terminal moves the augmented reality object of the first user displayed on the screen of the second user terminal in response to the interaction of the first user. Move to the position corresponding to .
예를 들어, 가상 현실 환경에서 A 편의점 앞에 있던 제1 사용자가 그 옆의 골목으로 이동하면, 제2 사용자 단말은 그에 응답하여 상기 증강 현실 객체의 증강 현실 배경 상 위치를 A 편의점 앞에서 그 옆의 골목으로 이동시켜 표시한다. For example, if a first user in front of convenience store A moves to an alley next to the convenience store A in a virtual reality environment, the second user terminal responsively sets the location of the augmented reality object on the augmented reality background to the alley next to the convenience store A. display by moving to
한편, 여기서는 제1 사용자의 인터랙션이 제1 사용자의 위치 이동인 것을 예로 들어 설명하였으나, 본 발명의 범위는 이에 한정되지 않는다. 예를 들어, 제1 사용자의 인터랙션은 위치 이동 외에도 제1 사용자의 채팅, 대화, 몸짓, 또는 상태표시 등을 포함할 수 있다.Meanwhile, although the first user's interaction is location movement of the first user as an example, the scope of the present invention is not limited thereto. For example, the interaction of the first user may include chatting, conversation, gestures, or status display of the first user in addition to location movement.
S150 단계에서, 제2 사용자 단말로부터 제2 사용자의 인터랙션을 수신하고, 수신된 제2 사용자의 인터랙션을 제1 사용자 단말에 제공한다.In step S150, a second user's interaction is received from the second user terminal, and the received second user's interaction is provided to the first user terminal.
제2 사용자가 제1 사용자 인터랙션을 확인하면, 그에 응답하여 제1 사용자를 향해 제2 사용자의 인터랙션을 발생시킬 수도 있다. S150 단계는 이와 관계된 단계로서, 서버는 제2 사용자 단말로부터 제2 사용자 인터랙션을 수신하고, 이를 제1 사용자 단말에 제공한다. When the second user confirms the first user interaction, the second user may generate an interaction toward the first user in response thereto. Step S150 is a step related to this, and the server receives the second user interaction from the second user terminal and provides it to the first user terminal.
제1 사용자 인터랙션의 경우와 유사하게, 제2 사용자 인터랙션은 제2 사용자 단말이 제공하는 증강 현실 환경에 반응하여 발생된 제2 사용자의 행동, 몸짓, 표현, 또는 그 밖의 작용을 의미하는 것으로, 제2 사용자 인터랙션이 제1 사용자 단말에 수신되면 제1 사용자 단말은 이를 자신이 표시하는 가상 현실 환경 상에 표시하게 된다.Similar to the first user interaction, the second user interaction refers to a second user's action, gesture, expression, or other action generated in response to an augmented reality environment provided by the second user terminal. When the second user interaction is received by the first user terminal, the first user terminal displays it on the virtual reality environment displayed by itself.
도 6은 본 발명의 일 실시예에 따른, 가상 현실 환경의 대입비율을 조정하는 방법을 설명하는 도면이다. 도 6은 서버 또는 제1 사용자 단말이 가상 현실 환경을 구축, 구현할 때, 가상 객체 대입비율을 결정하는 방법을 예시적으로 나타낸다. 여기서, 대입비율은 현실 공간의 현실 객체를 가상 현실 환경의 가상 객체로 표현할 때, 현실 객체의 현실 공간 상 위치, 크기에 대한 가상 객체의 가상 현실 환경 상 위치, 크기의 비율로 정의될 수 있다.6 is a diagram illustrating a method of adjusting a substitution ratio in a virtual reality environment according to an embodiment of the present invention. 6 illustratively illustrates a method of determining a virtual object substitution ratio when a server or a first user terminal builds and implements a virtual reality environment. Here, the substitution ratio may be defined as a ratio of the position and size of the virtual object in the virtual reality environment to the position and size of the real object in the real space when the real object in the real space is expressed as a virtual object in the virtual reality environment.
먼저, 특정 가상 현실 배경(60)이 설정되면, 가상 현실 배경(60) 내에서 복수 개의 임의의 지점이 특정된다. 여기서는, A 및 B의 2개 지점이 특정되고, 각 지점의 가상 현실 배경(60) 상 좌표는 A(100, 100), B(200, 200)인 것으로 가정한다.First, when a specific
그리고, 특정된 지점에 대응되는 현실 공간의 좌표가 확인된다. 예를 들어, 현실 공간의 좌표는 위도와 경도로서, 지점 A의 현실 공간 좌표는 위도 50도, 경도 50도이고, 지점 B의 현실 공간 좌표는 위도 60도, 경도 60도라고 가정한다. Then, the coordinates of the real space corresponding to the specified point are confirmed. For example, it is assumed that the real space coordinates are latitude and longitude, that the real space coordinates of point A are latitude 50 degrees and longitude 50 degrees, and the real space coordinates of point B are
이후, 가상 현실 배경(60) 상에 다른 가상 객체를 대입할 때, 지점 A 및 지점 B의 가상 현실 배경(60) 상 좌표와 그에 대응되는 현실 공간 상 좌표에 기초하여, 가상 객체의 대입비율이 결정된다. Thereafter, when substituting another virtual object on the
예를 들어, 현실 객체인 나무가 위도 55도, 경도 55도에 위치한 경우, 현실 공간 상에서 나무는 지점 A의 현실 공간 좌표와 지점 B의 현실 공간 좌표의 중간에 위치한다. 이 경우, 나무를 나타내는 가상 객체(61)의 대입비율을 지점 A 및 지점 B의 대입비율과 동일하게 결정한다고 하면, 가상 현실 배경(60) 상에서 가상 객체(61)는 지점 A와 지점 B의 중간 위치인 곳(150, 160)에 위치하게 된다.For example, if a tree, which is a real object, is located at latitude 55 degrees and longitude 55 degrees, the tree is located midway between the real space coordinates of point A and the real space coordinates of point B in real space. In this case, if the substitution ratio of the
한편, 가상 객체(61)의 크기 또한 지점 A 및 지점 B의 대입비율에 기초하여 결정될 수 있다. 지점 A와 지점 B 사이의 가상 현실 배경(60) 상 거리와 현실 공간 상 거리의 비를 산출하면, 가상 현실 배경(60)과 현실 공간의 축적이 산출 가능하므로, 산출된 축적 비율만큼 나무의 크기를 축소한 값을 가상 객체(61)의 크기로 할 수 있다. Meanwhile, the size of the
도 7은 도 5의 S130 단계를 더욱 구체화한 순서도이다. 본 실시예에서는, 서버가 제1 사용자 단말의 위치를 수신하는 구체적인 방법이 설명된다. 본 실시예에서는, 제1 사용자 단말의 위치를 수신하는 방법을 위주로 설명하고 있지만, 제2 사용자 단말의 경우에도 동일한 방식이 위치 수신 방법이 적용될 수 있다.FIG. 7 is a flowchart illustrating step S130 of FIG. 5 in more detail. In this embodiment, a specific method for the server to receive the location of the first user terminal is described. In this embodiment, the method for receiving the location of the first user terminal is mainly described, but the same method may be applied to the location receiving method for the second user terminal.
S131 단계에서, 제1 사용자의 위치를 나타내는 LBS (Location Based Service) 정보, 및/또는 GPS (Global Positioning System) 정보가 수신된다.In step S131, Location Based Service (LBS) information and/or Global Positioning System (GPS) information indicating the location of the first user is received.
LBS 정보는 제1 사용자 단말의 위치를 통신사 기지국을 통해 측정한 정보로서, LBS의 구체적인 구성 및 동작은 당해 기술분야에 널리 알려져 있는바 그에 대한 구체적인 설명은 생략된다.LBS information is information obtained by measuring the location of the first user terminal through a communication company base station, and detailed configuration and operation of the LBS are well known in the art, and detailed description thereof will be omitted.
GPS 정보는 제1 사용자 단말의 위치를 인공위성 시스템을 통해 측정한 정보로서, GPS의 구체적인 구성 및 동작은 당해 기술분야에 널리 알려져 있는바 그에 대한 구체적인 설명은 생략된다.The GPS information is information obtained by measuring the position of the first user terminal through a satellite system, and detailed configuration and operation of the GPS are well known in the art, and detailed description thereof will be omitted.
일반적으로, GPS 정보에 비해 LBS 정보의 정확도가 더 높다. 반면, 수신 안정성 측면에서는 GPS 정보가 LBS 정보보다 더 안정적이다. LBS 정보의 경우, 지형지물의 영향을 더 많이 받고 통신 상황에 따라 제1 사용자 단말과 기지국 간 연결이 중단되는 경우가 발생할 수 있기 때문이다.Generally, the accuracy of LBS information is higher than that of GPS information. On the other hand, in terms of reception stability, GPS information is more stable than LBS information. This is because, in the case of LBS information, it is more influenced by geographic features and the connection between the first user terminal and the base station may be interrupted depending on the communication situation.
LBS 정보 또는 GPS 정보는 어느 하나가 택일적으로 수신될 수 있지만, 본 실시예에서는 LBS 정보 및 GPS 정보를 모두 수신하는 경우를 가정한다. Either LBS information or GPS information may be received alternatively, but in this embodiment, it is assumed that both LBS information and GPS information are received.
S132 단계에서, LBS 정보와 GPS 정보 간 오차가 산출된다. 이에 대해, 도 8을 참조하여 부연 설명한다. In step S132, an error between LBS information and GPS information is calculated. This will be further described with reference to FIG. 8 .
도 8은 LBS 정보와 GPS 정보 간 오차를 산출하는 구체적인 방법을 예시한 도면이다. 도 8의 왼쪽 표(70)와 같이 제1 사용자 단말의 위치를 나타내는 LBS 정보와 GPS 정보가 계속적으로 수신된다고 가정한다. 이 경우, 서버는 각 시점마다 LBS 정보와 GPS 정보 간 오차를 산출한다. 그리고, 그 동안 산출된 오차의 평균 값, 즉 평균 오차를 산출한다. 8 is a diagram illustrating a specific method of calculating an error between LBS information and GPS information. As shown in the table 70 on the left of FIG. 8, it is assumed that LBS information and GPS information indicating the location of the first user terminal are continuously received. In this case, the server calculates an error between LBS information and GPS information at each point in time. Then, an average value of the errors calculated so far, that is, an average error is calculated.
평균 오차는 GPS 정보를 기초로 제1 사용자 단말의 위치를 결정할 때, GPS 정보를 보정하는 용도로 사용될 수 있다. 이에 대해, 구체적으로 설명한다. The average error may be used for correcting GPS information when determining the location of the first user terminal based on the GPS information. About this, it demonstrates concretely.
서버는 LBS 정보 및/또는 GPS 정보에 기초하여 제1 사용자 단말의 위치 정보를 제2 사용자 단말에 제공한다. 가령, 앞서 S140 단계와 같이, 제1 사용자의 인터랙션을 제2 사용자 단말에 제공할 때, 제1 사용자 단말의 위치 정보가 함께 제공될 수 있다. The server provides location information of the first user terminal to the second user terminal based on the LBS information and/or GPS information. For example, as in step S140 above, when the interaction of the first user is provided to the second user terminal, location information of the first user terminal may also be provided.
이때, 서버는 LBS 정보가 수신 가능한 경우, 우선적으로 LBS 정보를 기반으로 제2 사용자 단말에 상기 제1 사용자의 위치 정보를 제공한다. LBS 정보가 GPS 정보보다 정확도가 더 높기 때문이다. At this time, when the LBS information can be received, the server provides the location information of the first user to the second user terminal based on the LBS information first. This is because LBS information is more accurate than GPS information.
반면, LBS 정보가 수신 가능하지 않으면, 서버는 GPS 정보를 기반으로 제2 사용자 단말에 제1 사용자의 위치 정보를 제공한다. 다만, GPS 정보의 정확도를 보완하기 위해, 서버는 미리 산출된 LBS 정보와 GPS 정보 간 오차를 기반으로 GPS 정보를 보정하여 제1 사용자의 위치 정보로서 제공한다. 가령, GPS 정보가 (20, 20)인 경우 미리 산출된 평균 오차 (0, 1)을 감산한 값인 (20, 19)가 제1 사용자의 위치 정보로서 제공된다.On the other hand, if the LBS information is not receivable, the server provides the location information of the first user to the second user terminal based on the GPS information. However, in order to supplement the accuracy of the GPS information, the server corrects the GPS information based on an error between the pre-calculated LBS information and the GPS information and provides it as the location information of the first user. For example, when the GPS information is (20, 20), (20, 19) obtained by subtracting the average error (0, 1) calculated in advance is provided as the location information of the first user.
일 실시예로서, LBS 정보가 수신 불가능하여 GPS 정보를 기초로 제1 사용자의 위치를 제공한 이후에도, LBS 정보의 수신이 재개되면 다시 LBS 정보를 기초로 제1 사용자의 위치를 제공할 수 있다.As an embodiment, even after LBS information is unreceivable and the location of the first user is provided based on GPS information, when reception of the LBS information is resumed, the location of the first user may be provided again based on the LBS information.
일 실시예로서, LBS 정보 및 GPS 정보가 모두 수신 불가능한 경우, 서버는 최종적으로 수신되었던 LBS 정보 또는 GPS 정보에 기초하여 제1 사용자의 위치 정보를 제공하거나, 제1 사용자의 위치 정보가 확인되지 않는다는 메시지를 제2 사용자 단말에 제공한다. 이 경우, 제2 사용자 단말은 최종 확인된 제1 사용자의 위치에 가상 객체를 출력하고, 미리 설정된 디폴트 애니메이션 또는 핸드 트래킹 모션을 함께 출력할 수 있다.As an embodiment, when both LBS information and GPS information cannot be received, the server provides location information of the first user based on the LBS information or GPS information that was finally received, or determines that the location information of the first user is not confirmed. The message is provided to the second user terminal. In this case, the second user terminal may output the virtual object at the finally confirmed location of the first user and also output a preset default animation or hand tracking motion.
도 9는 본 발명의 다른 실시예에 따른, 디지털 트윈 기반의 사용자 인터랙션 방법을 나타내는 순서도이다. 도 9의 사용자 인터랙션 방법은 도 1 의 제1 사용자 단말(200)에 의해 수행된다. 따라서, 이하의 단계들에서 수행 주체가 명시되지 않은 경우, 그 수행 주체는 상기 제1 사용자 단말(200)인 것으로 전제된다.9 is a flowchart illustrating a digital twin-based user interaction method according to another embodiment of the present invention. The user interaction method of FIG. 9 is performed by the
S210 단계에서, 서버로부터 디지털 트윈 정보에 기초한 가상 현실 환경이 수신된다. In step S210, a virtual reality environment based on the digital twin information is received from the server.
S220 단계에서, 수신된 가상 현실 환경에 기초하여 현실 공간에 대응되는 가상 현실 배경이 표시된다. In step S220, a virtual reality background corresponding to the real space is displayed based on the received virtual reality environment.
S230 단계에서, 가상 현실 배경 상에 사용자를 나타내는 가상 객체가 표시된다. 이때, 상기 사용자는 서버를 매개로 제1 사용자 단말과 연결된 제2 사용자 단말의 제2 사용자일 수 있다.In step S230, a virtual object representing the user is displayed on the virtual reality background. In this case, the user may be a second user of a second user terminal connected to the first user terminal through a server.
S240 단계에서, 서버로부터 상기 사용자의 인터랙션이 수신되어 가상 현실 배경 상에 표시된다. In step S240, the user's interaction is received from the server and displayed on the virtual reality background.
이 때, 가상 현실 배경은 제2 사용자가 위치한 현실 공간을 모사한 것이고, 가상 객체의 가상 현실 배경 상의 위치는 현실 공간 상의 제2 사용자의 위치와 대응되는 것일 수 있다. 한편, 가상 현실 환경, 가상 현실 배경, 및 현실 공간의 의미 및 그 상관관계에 대해서는 앞에서 이미 상세히 기술된 바, 설명의 중복을 피하기 위해 여기서는 추가적인 설명을 생략한다.In this case, the virtual reality background may simulate the real space where the second user is located, and the position of the virtual object on the virtual reality background may correspond to the position of the second user in the real space. Meanwhile, since the meanings and correlations of the virtual reality environment, the virtual reality background, and the real space have already been described in detail above, additional descriptions are omitted here to avoid duplication of description.
도 10은 도 9의 S230 단계 및 S240 단계의 구체적인 내용을 부연 설명하기 위한 도면이다. 도 10을 참조하면, 가상 현실 배경(80) 상에 제2 사용자를 나타내는 가상 객체(81)가 표시된 예가 도시된다. FIG. 10 is a diagram for amplifying details of steps S230 and S240 of FIG. 9 . Referring to FIG. 10 , an example in which a
본 실시예에서, 가상 객체의 가상 현실 배경 상의 위치가 제1 사용자 단말에 설정된 시야각 범위 이내이면, 해당 가상 객체는 캐릭터 모델로써 가상 현실 배경 위에 표시된다. 반면에, 가상 객체의 가상 현실 배경 상의 위치가 제1 사용자 단말에 설정된 시야각 범위 밖이면, 해당 가상 객체는 명칭 또는 심볼로써 시야각 범위의 가장자리에 표시된다.In this embodiment, if the position of the virtual object on the virtual reality background is within the viewing angle range set in the first user terminal, the corresponding virtual object is displayed on the virtual reality background as a character model. On the other hand, if the position of the virtual object on the virtual reality background is outside the viewing angle range set in the first user terminal, the corresponding virtual object is displayed as a name or symbol at the edge of the viewing angle range.
예를 들어, 도 10을 참조하면, 제2 사용자를 나타내는 가상 객체(81)는 가상 현실 배경(80)상 위치가 제1 사용자 단말의 시야각 범위 이내이고, 이 경우 가상 현실 배경(80) 위에 캐릭터 모델로써 표시된다. 이때, 캐릭터 모델은 2D 또는 3D 캐릭터 모델일 수 있다. For example, referring to FIG. 10 , a
일 실시예로서, 가상 현실 배경(80) 위에 캐릭터 모델로써 표시되는 가상 객체(81)는 근처에 가상 객체(81)의 이름이 표시될 수 있다(여기서는'맘모').As an embodiment, the name of the
한편, 다른 사용자를 나타내는 가상 객체(82, 83, 84)는 가상 현실 배경(80) 상 위치가 제1 사용자 단말의 시야각 범위 밖이고, 해당 가상 객체(82, 83, 84)들은 명칭 또는 심볼로써 시야각 범위의 가장자리에 표시된다.On the other hand, the
가령, 제1 사용자 단말의 시야각을 기준으로, 좌측으로 벗어난 가상 객체(82)는 시야각의 좌측 끝 라인에 표시되고, 제1 사용자 단말의 시야각을 기준으로, 우측으로 벗어난 가상 객체(83, 84)는 시야각의 우측 끝 라인에 표시된다. 이때, 끝 라인에 표시될 가상 객체의 수가 복수인 경우, 각 가상 객체는 해당 끝 라인에 정렬되어 표시될 수 있다. 도 8을 참조하면, 시야각을 우측으로 벗어난 2개의 가상 객체(83, 84)가 우측 끝 라인에 정렬되어 표시된 것을 확인할 수 있다. 시야각을 벗어난 가상 객체(82, 83, 84)의 경우에도 시야각 내 가상 객체(81)와 유사하게 해당 가상 객체의 이름이 표시될 수 있다(여기서는'파이리', 에이스','한국인').For example, based on the viewing angle of the first user terminal, the
한편, 제1 사용자 단말은 수신된 사용자 인터랙션을 가상 객체와 연관지어 표시할 수 있다. 예를 들어,'파이리'가상 객체(82)와 대응하는 사용자 단말로부터 텍스트 출력 인터랙션이 수신된 경우, 제1 사용자 단말은 가상 현실 배경(80)에'파이리'가상 객체(82)를 표시하며, 가상 객체(82) 내에 텍스트 출력을 의미하는'말풍선 아이콘'을 함께 표시할 수 있다. 또는,'파이리'가상 객체(82)와 대응하는 사용자 단말로부터 음성 출력 인터랙션이 수신된 경우, 제1 사용자 단말은 '말풍선 아이콘'대신 음성 출력을 의미하는'확성기 아이콘'을 함께 표시할 수 있다. 가상 객체(82) 내에 표시할 수 있다.Meanwhile, the first user terminal may display the received user interaction in association with the virtual object. For example, when a text output interaction is received from the user terminal corresponding to the 'Fairy'
일 실시예로서, 제1 사용자 단말의 사용자인 제1 사용자를 나타내는 가상 객체도 가상 현실 배경 상에 함께 표시될 수 있다. As an embodiment, a virtual object representing a first user who is a user of a first user terminal may also be displayed on a virtual reality background.
이하에서는, 제1 사용자 단말이 가상 현실 배경 및 가상 객체를 표시하는 일련의 프로세스를 간략하게 부연 설명한다.Hereinafter, a series of processes in which the first user terminal displays the virtual reality background and virtual objects will be briefly described.
먼저, 제1 사용자를 가상 현실 배경 상에 표시하는 프로세스를 설명한다.First, the process of displaying the first user on the virtual reality background will be described.
1. 제1 사용자가 서버에 접속하면, 로그인 절차를 통해 제1 사용자의 계정이 인증된다.1. When the first user accesses the server, the account of the first user is authenticated through a login procedure.
2. 제1 사용자의 위치 좌표 또는, 이전에 기록된 최종 좌표가 확인된다. 이때, 제1 사용자의 위치 좌표는 GPS 정보 및 LBS 정보로 동시에 확인될 수 있다. 제1 사용자에 대해 이전에 기록된 최종 좌표가 없는 경우 디폴트 위치를 제1 사용자의 위치로 정할 수 있다.2. The location coordinates of the first user or previously recorded last coordinates are checked. At this time, the location coordinates of the first user may be simultaneously identified as GPS information and LBS information. When there is no previously recorded last coordinate for the first user, the default location may be determined as the location of the first user.
3. 제1 사용자의 위치 좌표 또는 최종 좌표를 포함하는 가상 현실 배경이 생성된다. 만약, 제1 사용자의 위치 좌표 또는 최종 좌표에 해당하는 지역에 대해 디지털 트윈이 구현되지 않은 경우,‘서비스지역 아님’을 표시하고 및 임의의 가상 현실 배경으로 이동할 수 있다.3. A virtual reality background including the first user's location coordinates or final coordinates is created. If the digital twin is not implemented for the area corresponding to the location coordinates of the first user or the final coordinates, 'not a service area' may be displayed and an arbitrary virtual reality background may be moved.
4. 제1 사용자는 사용자간 소통이 가능한 소정의 네트워크 채널로 입장한다. 기존 채널의 정원이 초과된 경우 신규 채널이 생성되고, 제1 사용자는 해당 신규 채널로 입장할 수 있다. 4. The first user enters a predetermined network channel through which communication between users is possible. When the capacity of the existing channel is exceeded, a new channel is created, and the first user can enter the new channel.
5. 제1 사용자에 대응되는 가상 객체 정보가 로드된다. 가상 객체 정보는 3D 캐릭터 모델의 디자인, 복장, 소지금, 또는 인벤토리 테이블 등의 정보를 포함할 수 있다.5. Virtual object information corresponding to the first user is loaded. The virtual object information may include information such as design of a 3D character model, clothing, possession money, or an inventory table.
6. 제1 사용자의 위치 좌표 또는 최종 좌표를 포함하는 가상 현실 배경이 표시되고, 제1 사용자의 위치 좌표 또는 최종 좌표에 대응하는 위치에 제1 사용자를 나타내는 가상 객체가 표시된다.6. A virtual reality background including the first user's location coordinates or final coordinates is displayed, and a virtual object representing the first user is displayed at a location corresponding to the first user's location coordinates or final coordinates.
7. 제1 사용자 단말의 위치 이동에 따른 LBS 정보 및 GPS 정보의 변동이 기록된다. 이때, LBS 정보 또는 GPS 정보 소정의 시간 간격으로 기록될 수 있고, 미리 결정된 횟수까지만 정보를 저장하도록 설정될 수 있다. 예를 들어, LBS 정보 또는 GPS 정보를 누적 10회까지 저장하도록 설정된 경우, 11회 차 LBS 정보 또는 GPS 정보가 수신되면 11회차의 LBS 정보 또는 GPS 정보를 저장하는 대신 1회차의 LBS 정보 또는 GPS 정보가 삭제될 수 있다.7. Changes in LBS information and GPS information according to location movement of the first user terminal are recorded. At this time, LBS information or GPS information may be recorded at predetermined time intervals, and may be set to store information only up to a predetermined number of times. For example, if it is set to store LBS information or GPS information up to 10 times in accumulation, when the 11th LBS information or GPS information is received, instead of storing the 11th LBS or GPS information, the 1st LBS or GPS information may be deleted.
8. 한편, 가상 개체가 서버의 서비스 범위를 벗어날 수 없도록, 서비스 범위의 가장자리에 도달하면 더 이상 진행할 수 없도록 이동을 제한하거나, 서비스 범위 내 특정 지점으로 가상 객체를 워프시킬 수 있다.8. Meanwhile, movement of the virtual object may be restricted so that the virtual object cannot leave the service range of the server so that it cannot proceed further when it reaches the edge of the service range, or the virtual object may be warped to a specific point within the service range.
다음으로, 제2 사용자를 가상 현실 배경 상에 표시하는 프로세스를 설명한다. 제2 사용자는 제1 사용자 단말과 연결된 증강 현실 단말의 사용자일 수 있다.Next, the process of displaying the second user on the virtual reality background will be described. The second user may be a user of an augmented reality terminal connected to the first user terminal.
1. 제1 사용자가 참여한 네트워크 채널을 스캔하여 해당 채널에 참여한 제2 사용자의 위치 좌표를 로드한다. 이때, 제2 사용자의 위치 좌표는 소정의 시간 간격으로 로드될 수 있다.1. A network channel in which the first user participates is scanned, and location coordinates of a second user who participates in the corresponding channel are loaded. In this case, the location coordinates of the second user may be loaded at predetermined time intervals.
2. 제2 사용자의 가상 객체 정보가 로드된다. 가상 객체 정보는 3D 캐릭터 모델의 디자인, 또는 복장 등의 정보를 포함할 수 있다.2. Virtual object information of the second user is loaded. The virtual object information may include information such as design of a 3D character model or clothing.
2. 제2 사용자의 위치 좌표, 또는 최종 좌표에 대응되는 가상 현실 배경 상 위치에 제2 사용자를 나타내는 가상 객체가 표시된다. 2. A virtual object representing the second user is displayed at a location on the virtual reality background corresponding to the second user's location coordinates or final coordinates.
4. 제2 사용자의 위치 좌표의 변동은 주기적으로 체크되고, 위치 좌표가 변동되면 그에 대응하는 위치로 제2 사용자의 가상 객체를 이동 표시한다.4. Changes in the location coordinates of the second user are periodically checked, and when the location coordinates change, the virtual object of the second user is moved to a corresponding location and displayed.
5. 제2 사용자의 가상 객체를 이동 표시할 때, 그 이동 경로의 표시와 함께 이동 애니메이션이 재생될 수 있다.5. When displaying the movement of the virtual object of the second user, a movement animation may be played along with the display of the movement path.
6. 제2 사용자의 위치 좌표에 변화가 없는 경우, 가상 객체의 캐릭터 모델에‘디폴트 애니메이션’이 재생될 수 있다.6. When there is no change in the location coordinates of the second user, 'default animation' may be reproduced on the character model of the virtual object.
한편, 일 실시예로서, 제1 사용자가 참가한 채널에 새로운 제3 사용자가 참가 시, 이를 알리는 시스템 메시지가 표시될 수 있다. 또는, 제1 사용자가 참가한 채널에서 기존 제3 사용자가 이탈 시, 이를 알리는 시스템 메시지가 표시될 수 있다. 또는, 제1 사용자 단말이 표시하는 가상 현실 배경과 관련하여 새로운 채널이 생성 시, 이를 알리는 시스템 메시지가 표시될 수 있다.Meanwhile, as an embodiment, when a new third user participates in a channel in which the first user has joined, a system message notifying this may be displayed. Alternatively, when the existing third user leaves the channel in which the first user has participated, a system message notifying this may be displayed. Alternatively, when a new channel is created in relation to the virtual reality background displayed by the first user terminal, a system message notifying this may be displayed.
도 11은 본 발명의 또 다른 실시예에 따른, 디지털 트윈 기반의 사용자 인터랙션 방법을 나타내는 순서도이다. 도 11의 사용자 인터랙션 방법은 도 1 의 제2 사용자 단말(300)에 의해 수행된다. 따라서, 이하의 단계들에서 수행 주체가 명시되지 않은 경우, 그 수행 주체는 상기 제2 사용자 단말(300)인 것으로 전제된다.11 is a flowchart illustrating a digital twin-based user interaction method according to another embodiment of the present invention. The user interaction method of FIG. 11 is performed by the
S310 단계에서, 카메라를 통해 현실 공간을 촬영한 영상을 이용하여 증강 현실 배경이 화면에 표시된다.In step S310, an augmented reality background is displayed on the screen using an image of a real space captured through a camera.
S320 단계에서, 화면에 표시된 증강 현실 배경 상에 사용자를 나타내는 증강 현실 객체가 표시된다. 상기 사용자는 서버를 매개로 제2 사용자 단말과 연결된 제1 사용자 단말의 제1 사용자일 수 있다.In step S320, an augmented reality object representing a user is displayed on the augmented reality background displayed on the screen. The user may be a first user of a first user terminal connected to a second user terminal via a server.
S330 단계에서, 서버로부터 상기 사용자의 인터랙션이 수신되어 증강 현실 배경 상에 표시된다.In step S330, the user's interaction is received from the server and displayed on the augmented reality background.
이 때, 증강 현실 배경은 제2 사용자 단말이 카메라를 통해 촬영한 영상을 기초로 생성한 것이고, 증강 현실 객체의 증강 현실 배경 상의 위치는 현실 공간 또는 가상 현실 환경 상의 제1 사용자의 위치와 대응되는 것일 수 있다. 한편, 가상 현실 환경, 가상 현실 배경, 및 현실 공간의 의미 및 그 상관관계에 대해서는 앞에서 이미 상세히 기술된 바, 설명의 중복을 피하기 위해 여기서는 추가적인 설명을 생략한다.At this time, the augmented reality background is generated based on the image captured by the second user terminal through the camera, and the position of the augmented reality object on the augmented reality background corresponds to the position of the first user in the real space or virtual reality environment. it could be Meanwhile, since the meanings and correlations of the virtual reality environment, the virtual reality background, and the real space have already been described in detail above, additional descriptions are omitted here to avoid duplication of description.
도 12 및 도 13은 도 11의 실시예에서 제2 사용자 단말 상에 객체가 표시되는 방법을 설명하기 위한 도면이다. 12 and 13 are diagrams for explaining a method of displaying an object on a second user terminal in the embodiment of FIG. 11 .
본 실시예에서, 증강 현실 객체의 증강 현실 배경 상의 위치가 제2 사용자 단말의 화면 이내이면, 해당 증강 현실 객체는 캐릭터 모델로써 증강 현실 배경 위에 표시된다. 반면에, 증강 현실 객체의 증강 현실 배경 상의 위치가 제2 사용자 단말의 화면 밖이면, 해당 증강 현실 객체는 명칭 또는 심볼로써 화면의 가장자리에 표시된다.In this embodiment, if the position of the augmented reality object on the augmented reality background is within the screen of the second user terminal, the augmented reality object is displayed on the augmented reality background as a character model. On the other hand, if the location of the augmented reality object on the augmented reality background is outside the screen of the second user terminal, the corresponding augmented reality object is displayed as a name or symbol at the edge of the screen.
예를 들어, 도 12를 참조하면, 제1 사용자를 나타내는 증강 현실 객체(91)는 증강 현실 배경(90)상 위치가 제2 사용자 단말의 화면 이내이고, 이 경우 증강 현실 객체(91)는 증강 현실 배경(90) 위에 캐릭터 모델로써 표시된다. 이때, 캐릭터 모델은 2D 또는 3D 캐릭터 모델일 수 있다. For example, referring to FIG. 12 , the
일 실시예로서, 증강 현실 배경(90) 위에 캐릭터 모델로써 표시되는 증강 현실 객체(81)는 근처에 증강 현실 객체(91)의 이름이 표시될 수 있다(여기서는'식스').As an example, a name of the
한편, 다른 사용자를 나타내는 증강 현실 객체(92, 93, 94)는 증강 현실 배경(90) 상 위치가 제2 사용자 단말의 화면 밖이고, 해당 가상 객체(92, 93, 94)들은 명칭 또는 심볼로써 화면의 가장자리에 표시된다.On the other hand, the augmented reality objects 92, 93, and 94 representing other users are located outside the screen of the second user terminal on the
가령, 제2 사용자 단말의 화면을 기준으로, 좌측으로 벗어난 증강 현실 객체(92)는 화면의 좌측 가장자리에 표시되고, 제2 사용자 단말의 화면을 기준으로, 우측으로 벗어난 증강 현실 객체(93, 94)는 화면의 좌측 가장자리에 표시된다. 이때, 화면의 가장 자리에 표시될 증강 현실 객체의 수가 복수인 경우, 각 증강 현실 객체는 화면의 해당 가장자리에 정렬되어 표시될 수 있다. 도 12를 참조하면, 화면을 우측으로 벗어난 2개의 증강 현실 객체(93, 984)가 화면의 우측 가장자리에 정렬되어 표시된 것을 확인할 수 있다. 화면을 벗어난 증강 현실 객체(92, 93, 94)의 경우에도 화면 내 증강 현실 객체(91)와 유사하게 해당 증강 현실 객체의 이름이 표시될 수 있다(여기서는'파이리', 에이스','한국인').For example, based on the screen of the second user terminal, the
한편, 제2 사용자 단말은 수신된 사용자 인터랙션을 증강 현실 객체와 연관지어 표시할 수 있다. 예를 들어,'파이리'증강 현실 객체(92)와 대응하는 사용자 단말로부터 텍스트 출력 인터랙션이 수신된 경우, 제2 사용자 단말은 증강 현실 배경(90)에'파이리'증강 현실 객체(92)를 표시하며, 증강 현실 객체(92) 내에 텍스트 출력을 의미하는'말풍선 아이콘'을 함께 표시할 수 있다. 또는,'파이리'증강 현실 객체(92)와 대응하는 사용자 단말로부터 음성 출력 인터랙션이 수신된 경우, 제2 사용자 단말은 '말풍선 아이콘'대신 음성 출력을 의미하는'확성기 아이콘'을 표시할 수 있다. Meanwhile, the second user terminal may display the received user interaction in association with the augmented reality object. For example, when a text output interaction is received from the user terminal corresponding to the 'Fairy' augmented
일 실시예로서, 제2 사용자 단말은 증강 현실 객체의 캐릭터 모델에 대해, 자이로 센서를 이용하여 그 표시 각도를 조정할 수 있다. 이에 대해, 도 13을 참조하여 부연 설명한다.As an embodiment, the second user terminal may adjust a display angle of a character model of an augmented reality object by using a gyro sensor. This will be further described with reference to FIG. 13 .
도 13을 참조하면, 제2 사용자 단말이 기울어진 경우, 자이로 센서를 이용하여 증강 현실 객체(91)의 표시 각도를 조정하는 예가 도시된다.Referring to FIG. 13 , an example of adjusting a display angle of an
제2 사용자 단말은 증강 현실 단말로서, 카메라로 촬영된 영상을 기초로 증강 현실 배경을 도시한다. 따라서, 제2 사용자 단말이 기울어진 경우, 제2 사용자 단말 화면의 축(D1)과 증강 현실 배경의 수직 축(vertical axis, D2)가 서로 어긋나는 경우가 발생한다. 이 경우, 일반적인 동영상 재생의 경우와 같이, 제2 사용자 단말을 기준으로 증강 현실 객체를 표시하면, 증강 현실 객체가 증강 현실 배경에 기울어져 표시되는 불편함이 발생할 수 있다. The second user terminal is an augmented reality terminal, and shows an augmented reality background based on an image captured by a camera. Accordingly, when the second user terminal is tilted, the axis D1 of the screen of the second user terminal and the vertical axis D2 of the augmented reality background may be misaligned with each other. In this case, as in the case of general video playback, when the augmented reality object is displayed based on the second user terminal, inconvenience that the augmented reality object is tilted and displayed on the augmented reality background may occur.
따라서, 제2 사용자 단말은 자이로 센서를 이용하여 중력 방향을 감지한 후 그 반대 방향(D2)으로 증강 현실 객체(91)를 표시한다. 그렇게 하면, 증강 현실 객체가 증강 현실 배경에 기울어져 표시되는 문제점이 해소될 수 있다.Accordingly, the second user terminal detects the direction of gravity using the gyro sensor and then displays the
이하에서는, 제2 사용자 단말이 증강 현실 배경 및 증강 현실 객체를 표시하는 일련의 프로세스를 간략하게 부연 설명한다.Hereinafter, a series of processes in which the second user terminal displays the augmented reality background and the augmented reality object will be briefly described.
먼저, 제2 사용자 단말이 증강 현실 배경을 표시하는 프로세스를 설명한다.First, a process of displaying an augmented reality background by the second user terminal will be described.
1. 제2 사용자가 서버에 접속하면, 로그인 절차를 통해 제2 사용자의 계정이 인증된다.1. When the second user accesses the server, the account of the second user is authenticated through a login procedure.
2. 제2 사용자의 위치 좌표 또는, 이전에 기록된 최종 좌표가 확인된다. 이때, 제2 사용자의 위치 좌표는 GPS 정보 및 LBS 정보로 동시에 확인될 수 있다. 제2 사용자에 대해 이전에 기록된 최종 좌표가 없는 경우 디폴트 위치를 제2 사용자의 위치로 정할 수 있다.2. The location coordinates of the second user or previously recorded last coordinates are checked. At this time, the location coordinates of the second user may be simultaneously identified as GPS information and LBS information. When there is no previously recorded last coordinate for the second user, the default location may be determined as the location of the second user.
3. 제2 사용자의 위치 좌표 또는 최종 좌표를 포함하는 가상 현실 배경이 식별되고, 제2 사용자 단말의 카메라 기능이 실행된다. 만약, 제2 사용자의 위치 좌표 또는 최종 좌표에 해당하는 지역에 대해 디지털 트윈이 구현되지 않은 경우,‘서비스지역 아님’을 표시하고 및 해당 지역을 미확인 지역으로 별도 분류할 수 있다.3. The virtual reality background including the second user's location coordinates or final coordinates is identified, and the camera function of the second user terminal is executed. If the digital twin is not implemented for the area corresponding to the second user's location coordinates or the final coordinates, 'not a service area' may be displayed and the area may be separately classified as an unidentified area.
4. 제2 사용자는 사용자간 소통이 가능한 소정의 네트워크 채널로 입장한다. 기존 채널의 정원이 초과된 경우 신규 채널이 생성되고, 제2 사용자는 해당 신규 채널로 입장할 수 있다. 4. The second user enters a predetermined network channel through which communication between users is possible. When the capacity of the existing channel is exceeded, a new channel is created, and the second user can enter the new channel.
5. 제2 사용자에 대응되는 사용자 정보가 로드된다. 사용자 정보는 3D 캐릭터 모델의 디자인, 복장, 소지금, 또는 인벤토리 테이블 등의 정보를 포함할 수 있다.5. User information corresponding to the second user is loaded. The user information may include information such as a design of a 3D character model, clothes, possession money, or an inventory table.
6. 제2 사용자 단말의 위치 이동에 따른 LBS 정보 및 GPS 정보의 변동이 기록된다. 이때, LBS 정보 또는 GPS 정보 소정의 시간 간격으로 기록될 수 있고, 미리 결정된 횟수까지만 정보를 저장하도록 설정될 수 있다. 예를 들어, LBS 정보 또는 GPS 정보를 누적 10회까지 저장하도록 설정된 경우, 11회 차 LBS 정보 또는 GPS 정보가 수신되면 11회차의 LBS 정보 또는 GPS 정보를 저장하는 대신 1회차의 LBS 정보 또는 GPS 정보가 삭제될 수 있다.6. Changes in LBS information and GPS information according to the location movement of the second user terminal are recorded. At this time, LBS information or GPS information may be recorded at predetermined time intervals, and may be set to store information only up to a predetermined number of times. For example, if it is set to store LBS information or GPS information up to 10 times in accumulation, when the 11th LBS information or GPS information is received, instead of storing the 11th LBS or GPS information, the 1st LBS or GPS information may be deleted.
7. 한편, 제2 사용자 단말이 서버의 서비스 범위를 벗어나는 경우, 서비스 지역이 아님을 나타내는 메시지가 제2 사용자 단말의 화면에 출력될 수 있다. 7. Meanwhile, when the second user terminal is out of the service range of the server, a message indicating that the service area is not available may be displayed on the screen of the second user terminal.
다음으로, 제1 사용자를 증강 현실 배경 상에 표시하는 프로세스를 설명한다. 제1 사용자는 제2 사용자 단말과 연결된 가상 현실 단말의 사용자일 수 있다.Next, the process of displaying the first user on the augmented reality background is explained. The first user may be a user of a virtual reality terminal connected to the second user terminal.
1. 제2 사용자가 참여한 네트워크 채널을 스캔하여 해당 채널에 참여한 제1 사용자의 위치 좌표를 로드한다. 이때, 제1 사용자의 위치 좌표는 소정의 시간 간격으로 로드될 수 있다.1. A network channel in which the second user participates is scanned and the location coordinates of the first user who participates in the corresponding channel are loaded. In this case, the location coordinates of the first user may be loaded at predetermined time intervals.
2. 제1 사용자의 증강 현실 객체 정보가 로드된다. 증강 현실 객체 정보는 3D 캐릭터 모델의 디자인, 또는 복장 등의 정보를 포함할 수 있다.2. Augmented reality object information of the first user is loaded. Augmented reality object information may include information such as design of a 3D character model or clothing.
2. 제1 사용자의 위치 좌표, 또는 최종 좌표에 대응되는 증강 현실 배경 상 위치에 제1 사용자를 나타내는 증강 현실 객체가 표시된다. 이때, 제1 사용자의 증강 현실 객체는 자이로 센서의 측정값에 기초하여 그 표시 각도가 조정될 수 있다.2. An augmented reality object representing the first user is displayed at a location on the augmented reality background corresponding to the first user's location coordinates or final coordinates. In this case, the display angle of the augmented reality object of the first user may be adjusted based on the measurement value of the gyro sensor.
4. 제1 사용자의 위치 좌표의 변동은 주기적으로 체크되고, 위치 좌표가 변동되면 그에 대응하는 위치로 제1 사용자의 증강 현실 객체를 이동 표시한다.4. Changes in the location coordinates of the first user are periodically checked, and when the location coordinates change, the augmented reality object of the first user is moved to a location corresponding to the change and displayed.
5. 제1 사용자의 증강 현실 객체를 이동 표시할 때, 그 이동 경로의 표시와 함께 이동 애니메이션이 재생될 수 있다.5. When displaying the movement of the first user's augmented reality object, a movement animation may be played along with the display of the movement path.
6. 제1 사용자의 위치 좌표에 변화가 없는 경우, 증강 현실 객체의 캐릭터 모델에‘디폴트 애니메이션’이 재생될 수 있다.6. When there is no change in the location coordinates of the first user, 'default animation' may be reproduced in the character model of the augmented reality object.
한편, 일 실시예로서, 제2 사용자가 참가한 채널에 새로운 제3 사용자가 참가 시, 이를 알리는 시스템 메시지가 표시될 수 있다. 또는, 제2 사용자가 참가한 채널에서 기존 제3 사용자가 이탈 시, 이를 알리는 시스템 메시지가 표시될 수 있다. 또는, 제2 사용자 단말이 표시하는 증강 현실 배경과 관련하여 새로운 채널이 생성 시, 이를 알리는 시스템 메시지가 표시될 수 있다.Meanwhile, as an embodiment, when a new third user joins a channel in which the second user has joined, a system message notifying this may be displayed. Alternatively, when the existing third user leaves the channel in which the second user has participated, a system message notifying this may be displayed. Alternatively, when a new channel is created in relation to the augmented reality background displayed by the second user terminal, a system message notifying this may be displayed.
이상에서 설명한 본 발명의 사상에 따르면, 본 발명은 실제 생활에서 다양한 방식의 응용이 가능하다. 그에 대해, 하나의 구체적인 예를 들어 부연 설명한다.According to the idea of the present invention described above, the present invention can be applied in various ways in real life. For that, a detailed explanation will be given with one specific example.
사용자 P는 가상 현실 단말 사용자로서 천국 빌딩의 10층에 위치해 있다. 사용자 Q는 증강 현실 단말 사용자로서 천국 빌딩 인근의 하늘역 2번 출구에 위치해 있다.User P is a virtual reality terminal user and is located on the 10th floor of the Heavenly Building. User Q is an augmented reality terminal user and is located at Exit 2 of Haneul Station near the Heavenly Building.
사용자 P가 가상 현실 단말을 통해 서버에 접속하면, 가상 현실 단말은 디지털 트윈을 기반으로 하늘역 2번을 모사한 가상 현실 환경을 표시한다. 그리고, 가상 현실 단말은 사용자 Q의 증강 현실 단말과 연결되어 사용자 Q의 위치를 수신하고, 가상 현실 환경 상 대응되는 위치에 사용자 Q를 표시한다. When the user P accesses the server through the virtual reality terminal, the virtual reality terminal displays a virtual reality environment that simulates Sky Station No. 2 based on the digital twin. Also, the virtual reality terminal is connected to the augmented reality terminal of the user Q, receives the location of the user Q, and displays the user Q at a corresponding location on the virtual reality environment.
사용자 Q 또한 증강 현실 단말을 통해 서버에 접속하고, 증강 현실 단말은 사용자 P의 가상 현실 단말과 연결되어 사용자 P의 위치를 수신하고, 증강 현실 배경 상 대응되는 위치에 사용자 P를 표시한다. 이처럼, 사용자 P와 사용자 Q가 가상 현실 단말 및 증강 현실 단말을 통해 서로를 인지한 상황에서, 사용자간 상호 인터랙션이 수행될 수 있다. The user Q also accesses the server through the augmented reality terminal, and the augmented reality terminal is connected to the virtual reality terminal of the user P to receive the location of the user P and display the user P at the corresponding position on the augmented reality background. In this way, mutual interaction between users may be performed in a situation in which user P and user Q recognize each other through the virtual reality terminal and the augmented reality terminal.
예를 들어, 사용자 P가 사용자 Q를 자신이 현재 위치한 천국 빌딩 10층으로 안내하고자 하는 경우, 사용자 P는 자신을 따라오라는 의사를 표시하고, 스스로 하늘역 2번 출구에서 천국 빌딩 10층까지 오는 경로를 순차 이동하여 사용자 Q의 이동 경로를 가이드 할 수 있다. 사용자 Q는 자신의 증강 현실 단말 화면을 통해, 사용자 P의 위치 이동에 따라 이동 표시되는 증강 현실 객체를 보며 사용자 P가 안내하는 이동 경로를 따라갈 수 있다.For example, if user P wants to guide user Q to the 10th floor of the Heavenly Building, where he is currently located, user P expresses his intention to follow him, and takes his own route from Exit 2 of Sky Station to the 10th floor of the Heavenly Building. It is possible to guide the movement path of user Q by sequentially moving. The user Q may follow the moving path guided by the user P while viewing the augmented reality object that is moved and displayed according to the movement of the user P through the augmented reality terminal screen of the user.
그 외에도 유사한 방식을 이용한, 다양한 응용 예가 가능할 수 있다. 가령, 가이드는 집에서 접속하고 관광객은 현실에서 접속하여 상호 인터랙션을 하는 비대면 관광 가이드 서비스, 길을 잃은 아이를 집이나 경찰서로 안내하는 미아 안내 서비스, 또는 길에 치매 노인이 있을 때 처음 보는 사람도 치매 노인을 손쉽게 자택으로 인도할 수 있게 하는 치매 노인 인도 서비스 등에 본 발명이 응용될 수 있다. In addition, various application examples using a similar method may be possible. For example, a non-face-to-face tour guide service in which a guide accesses at home and a tourist connects in real life to interact with each other, a lost child guidance service that guides a lost child to the house or the police station, or a stranger who sees an elderly person with dementia on the road The present invention can also be applied to a guidance service for the elderly with dementia, which allows the elderly with dementia to be easily guided to their homes.
일 실시예로서, 증강 현실 단말에는 가상 현실 단말의 사용자가 안내하는 이동 경로를 나타내는 지도(MAP)가 더 표시될 수 있다. 이에 대해, 도 14를 참조하여 부연 설명한다.As an embodiment, a map indicating a movement path guided by a user of the virtual reality terminal may be further displayed on the augmented reality terminal. This will be further described with reference to FIG. 14 .
도 14를 참조하면, 도 14 (a)에는 증강 현실 단말인 제2 사용자 단말(400)의 표시화면이 도시된다. 앞서 설명한 바와 같이, 제2 사용자 단말(400)은 자신의 카메라로 촬영한 영상을 기초로 증강 현실 배경(401)을 표시하고, 그 위에 제1 사용자를 나타내는 증강 현실 객체(402)를 표시할 수 있다. 이때, 제1 사용자는 가상 현실 단말인 제1 사용자 단말의 사용자일 수 있다.Referring to FIG. 14 , FIG. 14 (a) shows a display screen of a
제2 사용자는 제2 사용자 단말(400)의 화면을 보며, 증강 현실 객체(402)의 길 안내에 따라 목적지까지 가는 경로를 따라 갈 수 있다. The second user may view the screen of the
한편, 이때, 제2 사용자 단말(400)은 제1 사용자가 안내하고자 하는 이동 경로를 나타내는 지도를 표시할 수 있다. 상기 지도는 제1 지점(예를 들어, 현재 위치)에서 제2 지점(예를 들어, 목적지)까지 제2 사용자 단말의 이동 경로를 표시 및 안내한다.Meanwhile, at this time, the
그에 대한 예시적인 형태가 도 14 (b) 및 (c)에 도시된다. 도 14 (b)는 증강 현실 배경의 일부 영역에 지도(410)가 함께 표시한 예를 도시하고, 도 14 (c)는 증강 현실 배경을 제거하고 지도(420)를 더 크게 표시한 예를 도시한다.Exemplary forms thereof are shown in FIGS. 14 (b) and (c). FIG. 14 (b) shows an example in which the
지도(410, 420)에는 길 안내를 위한 다양한 정보가 표시될 수 있다. 예를 들어, 도 14 (c)에 도시된 것과 같이 지도(420)에는 제2 사용자 단말(400)의 현재 위치를 나타내는 심볼(421), 현재 위치에서 목적지까지 가는 경로를 나타내는 선(422), 또는 이동 경로 주변에 위치한 다른 객체(423, 424, 425)를 나타내는 심볼 등이 표시될 수 있다. 이때, 상기 다른 객체(423, 424, 425)는 제2 사용자와 같은 채널에 참가한 다른 사용자를 나타내는 객체, 이동 경로 상에 설치된 주요한 이정표를 나타내는 객체, 또는 이동 경로 주변에 있는 랜드마크를 나타내는 객체일 수 있다.Various information for road guidance may be displayed on the
이처럼, 제2 사용자 단말(400)에 이동 경로를 나타내는 지도(410, 420)가 표시되면, 제2 사용자는 지도(410, 420)를 참고하여 더욱 손쉽게 제1 사용자의 길 안내를 따라갈 수 있다. In this way, when the
특히, 제2 사용자가 위치한 현실 공간에 대해 디지털 트윈이 미구현되거나 불완전하게 구현된 경우, 제1 사용자가 보는 가상 현실 환경과 제2 사용자가 보는 증강 현실 배경 사이에는 차이가 있을 수 있다. 그러한 경우, 제2 사용자가 증강 현실 객체(402)를 통해 표현되는 사용자 인터랙션만 보고 길 안내를 따라가기에는 어려움이 있을 수 있다. 이때, 이동 경로를 나타내는 지도(410, 420)가 표시되면 제2 사용자는 이를 참고하여 더욱 쉽게 제1 사용자의 길 안내를 따라갈 수 있을 것이다.In particular, when the digital twin is not implemented or incompletely implemented for the real space where the second user is located, there may be a difference between the virtual reality environment seen by the first user and the augmented reality background seen by the second user. In such a case, it may be difficult for the second user to follow the road guidance by viewing only the user interaction expressed through the
한편, 본 실시예에서는 증강 현실 단말인 제2 사용자 단말(400)에 지도를 표시하는 경우를 설명하였지만, 반대로 가상 현실 단말인 제1 사용자 단말에 지도를 표시하는 것 또한 가능하다. 해당 현실 공간에 대해 디지털 트윈이 구현되지 않은 등의 이유로 제2 사용자의 증강 현실 화면과 제1 사용자가 볼 수 있는 가상 현실 환경이 서로 일치하지 않으면, 제1 사용자 입장에서도 제2 사용자에게 길을 안내하는 것이 곤란하게 여겨질 수 있기 때문이다. 이러한 경우, 제1 사용자 단말은 가상 현실 환경 상에 길 안내를 위한 지도를 표시할 수 있고, 제1 사용자는 표시된 지도를 보면서 제2 사용자에게 길 안내를 위한 사용자 인터랙션을 보낼 수 있다. Meanwhile, in this embodiment, the case of displaying the map on the
이하에서는, 도 15를 참조하여 본 발명의 다양한 실시예에서 설명된 방법들이 구현되는 예시적인 컴퓨팅 장치(500)에 대하여 설명하도록 한다. 예를 들어, 도 15의 컴퓨팅 장치(500)는 도 1의 서버(100), 제1 사용자 단말(200), 또는 제2 사용자 단말(300)일 수 있다.Hereinafter, referring to FIG. 15 , an
도 15는 컴퓨팅 장치(500)를 나타내는 예시적인 하드웨어 구성도이다. 15 is an exemplary hardware configuration diagram illustrating a
도 15에 도시된 바와 같이, 컴퓨팅 장치(500)는 하나 이상의 프로세서(510), 버스(550), 통신 인터페이스(570), 프로세서(510)에 의하여 수행되는 컴퓨터 프로그램(591)을 로드(load)하는 메모리(530)와, 컴퓨터 프로그램(591)를 저장하는 스토리지(590)를 포함할 수 있다. 다만, 도 15에는 본 발명의 실시예와 관련 있는 구성요소들만이 도시되어 있다. 따라서, 본 발명이 속한 기술분야의 통상의 기술자라면 도 15에 도시된 구성요소들 외에 다른 범용적인 구성 요소들이 더 포함될 수 있음을 알 수 있다.As shown in FIG. 15, the
프로세서(510)는 컴퓨팅 장치(500)의 각 구성의 전반적인 동작을 제어한다. 프로세서(510)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 또는 본 발명의 기술 분야에 잘 알려진 임의의 형태의 프로세서 중 적어도 하나를 포함하여 구성될 수 있다. 또한, 프로세서(510)는 본 발명의 다양한 실시예들에 따른 방법/동작을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. 컴퓨팅 장치(500)는 하나 이상의 프로세서를 구비할 수 있다.The
메모리(530)는 각종 데이터, 명령 및/또는 정보를 저장한다. 메모리(530)는 본 발명의 다양한 실시예들에 따른 방법/동작들을 실행하기 위하여 스토리지(590)로부터 하나 이상의 프로그램(591)을 로드(load) 할 수 있다. 메모리(530)의 예시는 RAM이 될 수 있으나, 이에 한정되는 것은 아니다.
버스(550)는 컴퓨팅 장치(500)의 구성 요소 간 통신 기능을 제공한다. 버스(550)는 주소 버스(Address Bus), 데이터 버스(Data Bus) 및 제어 버스(Control Bus) 등 다양한 형태의 버스로 구현될 수 있다.The
통신 인터페이스(570)는 컴퓨팅 장치(500)의 유무선 인터넷 통신을 지원한다. 통신 인터페이스(570)는 인터넷 통신 외의 다양한 통신 방식을 지원할 수도 있다. 이를 위해, 통신 인터페이스(570)는 본 발명의 기술 분야에 잘 알려진 통신 모듈을 포함하여 구성될 수 있다.The
스토리지(590)는 하나 이상의 컴퓨터 프로그램(591)을 비임시적으로 저장할 수 있다. 스토리지(590)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.
컴퓨터 프로그램(591)은 본 발명의 다양한 실시예들에 따른 방법/동작들이 구현된 하나 이상의 인스트럭션(Instruction)들을 포함할 수 있다.
예를 들어, 컴퓨터 프로그램(591)은 현실 공간에 대응되는 디지털 트윈 정보를 저장하는 동작, 상기 디지털 트윈 정보에 기초하여 제1 사용자 단말에 가상 현실 환경을 제공하는 동작, 상기 가상 현실 환경에 대한 제1 사용자의 인터랙션을 수신하는 동작, 및 상기 수신된 상기 제1 사용자의 인터랙션을 제2 사용자 단말에 제공하는 동작을 수행하기 위한 인스트럭션들을 포함할 수 있다..For example, the
또는, 컴퓨터 프로그램(591)은 서버로부터 디지털 트윈 정보에 기초한 가상 현실 환경을 수신하는 동작, 상기 가상 현실 환경에 기초하여 현실 공간에 대응되는 가상 현실 배경을 표시하는 동작, 상기 가상 현실 배경 상에 사용자를 나타내는 객체를 표시하는 동작, 및 상기 서버로부터 상기 사용자의 인터랙션을 수신하여 상기 가상 현실 배경 상에 표시하는 동작을 수행하기 위한 인스트럭션들을 포함할 수 있다.Alternatively, the
또는, 컴퓨터 프로그램(591)은 프로세서 카메라를 통해 현실 공간을 촬영한 영상을 이용하여 증강 현실 배경을 화면에 표시하는 동작, 상기 증강 현실 배경 상에 사용자를 나타내는 객체를 표시하는 동작, 및 상기 서버로부터 상기 사용자의 인터랙션을 수신하여 상기 증강 현실 배경 상에 표시하는 동작을 수행하기 위한 인스트럭션들을 포함할 수 있다.Alternatively, the
컴퓨터 프로그램(591)이 메모리(530)에 로드 되면, 프로세서(510)는 상기 하나 이상의 인스트럭션들을 실행시킴으로써 본 발명의 다양한 실시예들에 따른 방법/동작들을 수행할 수 있다.When
지금까지 설명된 본 발명의 기술적 사상은 컴퓨터가 읽을 수 있는 매체 상에 컴퓨터가 읽을 수 있는 코드로 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체는, 예를 들어 이동형 기록 매체(CD, DVD, 블루레이 디스크, USB 저장 장치, 이동식 하드 디스크)이거나, 고정식 기록 매체(ROM, RAM, 컴퓨터 구비 형 하드 디스크)일 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체에 기록된 상기 컴퓨터 프로그램은 인터넷 등의 네트워크를 통하여 다른 컴퓨팅 장치에 전송되어 상기 다른 컴퓨팅 장치에 설치될 수 있고, 이로써 상기 다른 컴퓨팅 장치에서 사용될 수 있다.The technical idea of the present invention described so far can be implemented as computer readable code on a computer readable medium. The computer-readable recording medium may be, for example, a removable recording medium (CD, DVD, Blu-ray disc, USB storage device, removable hard disk) or a fixed recording medium (ROM, RAM, computer-equipped hard disk). can The computer program recorded on the computer-readable recording medium may be transmitted to another computing device through a network such as the Internet, installed in the other computing device, and thus used in the other computing device.
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 본 발명이 다른 구체적인 형태로도 실시될 수 있다는 것을 이해할 수 있다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명에 의해 정의되는 기술적 사상의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although the embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art can implement the present invention in other specific forms without changing the technical spirit or essential features. can understand that there is Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. The protection scope of the present invention should be construed according to the claims below, and all technical ideas within the equivalent range should be construed as being included in the scope of the technical ideas defined by the present invention.
Claims (20)
현실 공간에 대응되는 디지털 트윈 정보를 저장하는 단계;
상기 디지털 트윈 정보에 기초하여 제1 사용자 단말에 가상 현실 환경을 제공하는 단계;
상기 가상 현실 환경에 대한 제1 사용자의 인터랙션을 수신하는 단계; 및
상기 수신된 상기 제1 사용자의 인터랙션을 제2 사용자 단말에 제공하는 단계를 포함하고,
상기 제1 사용자의 인터랙션은,
상기 제1 사용자의 위치 이동을 포함하고,
상기 제2 사용자 단말은,
상기 제1 사용자의 인터랙션에 응답하여, 상기 제2 사용자 단말의 디스플레이 상에서 상기 제1 사용자에 대응되는 제1 객체를 상기 위치 이동에 대응되는 위치로 이동 표시하고,
상기 제1 사용자의 인터랙션을 수신하는 단계는,
상기 제1 사용자의 위치를 나타내는 LBS (Location Based Service) 정보, 또는 GPS (Global Positioning System) 정보를 수신하는 단계; 및
상기 LBS 정보와 상기 GPS 정보 간 오차를 산출하는 단계를 포함하는,
디지털 트윈 기반의 사용자 인터랙션 방법.In the digital twin-based user interaction method performed by a computing device,
Storing digital twin information corresponding to real space;
Providing a virtual reality environment to a first user terminal based on the digital twin information;
receiving a first user's interaction with the virtual reality environment; and
Providing the received interaction of the first user to a second user terminal;
The interaction of the first user,
Including movement of the location of the first user,
The second user terminal,
In response to the interaction of the first user, displaying a first object corresponding to the first user on a display of the second user terminal to a position corresponding to the position movement;
Receiving the interaction of the first user,
Receiving Location Based Service (LBS) information or Global Positioning System (GPS) information indicating the location of the first user; and
Comprising the step of calculating the error between the LBS information and the GPS information,
User interaction method based on digital twin.
상기 제1 사용자 단말은,
상기 가상 현실 환경을 기초로 상기 현실 공간에 대응되는 가상 현실 배경을 표시하고, 상기 가상 현실 배경 상에 제2 사용자를 나타내는 제2 객체를 표시하되,
상기 제2 객체가 표시되는 상기 가상 현실 배경 상의 위치는 상기 현실 공간 상의 상기 제2 사용자의 위치와 대응되는,
디지털 트윈 기반의 사용자 인터랙션 방법.According to claim 1,
The first user terminal,
Displaying a virtual reality background corresponding to the real space based on the virtual reality environment and displaying a second object representing a second user on the virtual reality background;
A position on the virtual reality background where the second object is displayed corresponds to a position of the second user in the real space.
User interaction method based on digital twin.
상기 제2 사용자 단말은,
상기 제2 사용자 단말의 카메라를 통해 촬영되는 영상을 이용하여 증강 현실 배경을 표시하고, 상기 증강 현실 배경 상에 상기 제1 객체를 표시하되,
상기 제1 객체가 표시되는 상기 증강 현실 배경 상의 위치는 상기 가상 현실 환경에서의 상기 제1 사용자의 위치와 대응되는,
디지털 트윈 기반의 사용자 인터랙션 방법.According to claim 1,
The second user terminal,
An augmented reality background is displayed using an image captured through a camera of the second user terminal, and the first object is displayed on the augmented reality background,
A location on the augmented reality background where the first object is displayed corresponds to a location of the first user in the virtual reality environment.
User interaction method based on digital twin.
상기 제1 사용자의 인터랙션은,
상기 제1 사용자의 채팅, 대화, 몸짓, 또는 상태표시를 포함하는,
디지털 트윈 기반의 사용자 인터랙션 방법.According to claim 1,
The interaction of the first user,
Including the first user's chat, conversation, gesture, or status display,
User interaction method based on digital twin.
상기 제2 사용자 단말에 제공하는 단계는,
상기 LBS 정보가 수신 가능한 경우, 상기 LBS 정보를 기반으로 상기 제2 사용자 단말에 상기 제1 사용자의 위치 정보를 제공하는,
디지털 트윈 기반의 사용자 인터랙션 방법.According to claim 1,
The step of providing to the second user terminal,
When the LBS information is receivable, providing location information of the first user to the second user terminal based on the LBS information,
User interaction method based on digital twin.
상기 제2 사용자 단말에 제공하는 단계는,
상기 LBS 정보가 수신 가능하지 않으면, 상기 GPS 정보를 기반으로 상기 제2 사용자 단말에 상기 제1 사용자의 위치 정보를 제공하는,
디지털 트윈 기반의 사용자 인터랙션 방법.According to claim 1,
The step of providing to the second user terminal,
If the LBS information is not receivable, providing location information of the first user to the second user terminal based on the GPS information,
User interaction method based on digital twin.
상기 제1 사용자의 위치 정보는,
미리 산출된 LBS 정보와 GPS 정보 간 오차를 기반으로 상기 GPS 정보를 보정한 값인,
디지털 트윈 기반의 사용자 인터랙션 방법.According to claim 7,
The location information of the first user,
Based on the error between the pre-calculated LBS information and the GPS information, the GPS information is corrected,
User interaction method based on digital twin.
상기 제2 사용자 단말로부터 제2 사용자의 인터랙션을 수신하여 상기 제1 사용자 단말에 제공하는 단계를 더 포함하는,
디지털 트윈 기반의 사용자 인터랙션 방법.According to claim 1,
Further comprising receiving a second user's interaction from the second user terminal and providing it to the first user terminal,
User interaction method based on digital twin.
상기 제1 사용자 단말 또는 상기 제2 사용자 단말은,
제1 지점에서 제2 지점까지 상기 제2 사용자 단말의 이동 경로를 안내하는 지도를 표시하는,
디지털 트윈 기반의 사용자 인터랙션 방법.According to claim 1,
The first user terminal or the second user terminal,
Displaying a map guiding the movement path of the second user terminal from a first point to a second point,
User interaction method based on digital twin.
서버로부터 디지털 트윈 정보에 기초한 가상 현실 환경을 수신하는 단계;
상기 가상 현실 환경에 기초하여 현실 공간에 대응되는 가상 현실 배경을 표시하는 단계;
상기 가상 현실 배경 상에 사용자를 나타내는 객체를 표시하는 단계; 및
상기 서버로부터 상기 사용자의 인터랙션을 수신하여 상기 가상 현실 배경 상에 표시하는 단계를 포함하고,
상기 가상 현실 배경은,
상기 사용자가 위치한 상기 현실 공간을 모사한 것이고,
상기 객체의 상기 가상 현실 배경 상의 위치는 상기 현실 공간 상의 상기 사용자의 위치와 대응되고,
상기 사용자를 나타내는 객체를 표시하는 단계는,
상기 객체의 상기 가상 현실 배경 상의 위치가 미리 결정된 시야각 범위 이내 이면 상기 객체를 캐릭터 모델로써 표시하고, 상기 객체의 상기 가상 현실 배경 상의 위치가 미리 결정된 시야각 범위 밖이면 상기 객체를 명칭 또는 심볼로써 상기 시야각 범위의 가장자리에 표시하는,
디지털 트윈 기반의 사용자 인터랙션 방법.In the digital twin-based user interaction method performed by a computing device,
Receiving a virtual reality environment based on digital twin information from a server;
displaying a virtual reality background corresponding to a real space based on the virtual reality environment;
displaying an object representing a user on the virtual reality background; and
Receiving the user's interaction from the server and displaying it on the virtual reality background;
The virtual reality background,
It simulates the real space where the user is located,
The position of the object on the virtual reality background corresponds to the position of the user in the real space;
The step of displaying an object representing the user,
If the position of the object on the virtual reality background is within a predetermined viewing angle range, the object is displayed as a character model, and if the position of the object on the virtual reality background is outside the predetermined viewing angle range, the object is designated as a name or symbol at the viewing angle Marked on the edge of the range,
User interaction method based on digital twin.
카메라를 통해 현실 공간을 촬영한 영상을 이용하여 증강 현실 배경을 화면에 표시하는 단계;
상기 증강 현실 배경 상에 사용자를 나타내는 객체를 표시하는 단계; 및
서버로부터 상기 사용자의 인터랙션을 수신하여 상기 증강 현실 배경 상에 표시하는 단계를 포함하고,
상기 객체가 표시되는 상기 증강 현실 배경 상의 위치는 상기 현실 공간에 대응되는 가상 현실 공간 상의 상기 사용자의 위치와 대응되고,
상기 사용자를 나타내는 객체를 표시하는 단계는,
상기 객체의 상기 증강 현실 배경 상의 위치가 상기 화면 이내 이면 상기 객체를 캐릭터 모델로써 표시하고, 상기 객체의 상기 증강 현실 배경 상의 위치가 상기 화면 밖이면 상기 객체를 명칭 또는 심볼로써 상기 화면의 가장자리에 표시하는,
디지털 트윈 기반의 사용자 인터랙션 방법.In the digital twin-based user interaction method performed by a computing device,
displaying an augmented reality background on a screen using an image of a real space captured through a camera;
displaying an object representing a user on the augmented reality background; and
Receiving the user's interaction from a server and displaying it on the augmented reality background;
A position on the augmented reality background where the object is displayed corresponds to a position of the user on a virtual reality space corresponding to the real space;
The step of displaying an object representing the user,
If the location of the object on the augmented reality background is within the screen, the object is displayed as a character model, and if the location of the object on the augmented reality background is outside the screen, the object is displayed as a name or symbol at the edge of the screen doing,
User interaction method based on digital twin.
상기 사용자를 나타내는 객체를 표시하는 단계는,
자이로 센서를 이용하여 상기 캐릭터 모델의 표시 각도를 조정하는,
디지털 트윈 기반의 사용자 인터랙션 방법.According to claim 14,
The step of displaying an object representing the user,
Adjusting the display angle of the character model using a gyro sensor,
User interaction method based on digital twin.
상기 프로세서에 의해 실행되는 컴퓨터 프로그램을 로드(load)하는 메모리; 및
상기 컴퓨터 프로그램을 저장하는 스토리지를 포함하되,
상기 컴퓨터 프로그램은,
현실 공간에 대응되는 디지털 트윈 정보를 저장하는 동작,
상기 디지털 트윈 정보에 기초하여 제1 사용자 단말에 가상 현실 환경을 제공하는 동작,
상기 가상 현실 환경에 대한 제1 사용자의 인터랙션을 수신하는 동작, 및
상기 수신된 상기 제1 사용자의 인터랙션을 제2 사용자 단말에 제공하는 동작을 수행하기 위한 인스트럭션들을 포함하고,
상기 제1 사용자의 인터랙션은,
상기 제1 사용자의 위치 이동을 포함하고,
상기 제2 사용자 단말은,
상기 제1 사용자의 인터랙션에 응답하여, 상기 제2 사용자 단말의 디스플레이 상에서 상기 제1 사용자에 대응되는 제1 객체를 상기 위치 이동에 대응되는 위치로 이동 표시하고,
상기 제1 사용자의 인터랙션을 수신하는 동작은,
상기 제1 사용자의 위치를 나타내는 LBS (Location Based Service) 정보 또는 GPS (Global Positioning System) 정보를 수신하는 동작, 및 상기 LBS 정보와 상기 GPS 정보 간 오차를 산출하는 동작을 포함하는,
디지털 트윈 기반의 사용자 인터랙션 장치.processor;
a memory for loading a computer program executed by the processor; and
Including a storage for storing the computer program,
The computer program,
An operation of storing digital twin information corresponding to real space;
An operation of providing a virtual reality environment to a first user terminal based on the digital twin information;
receiving a first user's interaction with the virtual reality environment; and
Includes instructions for performing an operation of providing the received interaction of the first user to a second user terminal;
The interaction of the first user,
Including movement of the location of the first user,
The second user terminal,
In response to the interaction of the first user, displaying a first object corresponding to the first user on a display of the second user terminal to a position corresponding to the position movement;
The operation of receiving the interaction of the first user,
Receiving LBS (Location Based Service) information or GPS (Global Positioning System) information indicating the location of the first user, and calculating an error between the LBS information and the GPS information,
User interaction device based on digital twin.
상기 프로세서에 의해 실행되는 컴퓨터 프로그램을 로드(load)하는 메모리; 및
상기 컴퓨터 프로그램을 저장하는 스토리지를 포함하되,
상기 컴퓨터 프로그램은,
서버로부터 디지털 트윈 정보에 기초한 가상 현실 환경을 수신하는 동작,
상기 가상 현실 환경에 기초하여 현실 공간에 대응되는 가상 현실 배경을 표시하는 동작,
상기 가상 현실 배경 상에 사용자를 나타내는 객체를 표시하는 동작, 및
상기 서버로부터 상기 사용자의 인터랙션을 수신하여 상기 가상 현실 배경 상에 표시하는 동작을 수행하기 위한 인스트럭션들을 포함하고,
상기 가상 현실 배경은,
상기 사용자가 위치한 상기 현실 공간을 모사한 것이고,
상기 객체의 상기 가상 현실 배경 상의 위치는 상기 현실 공간 상의 상기 사용자의 위치와 대응되고,
상기 사용자를 나타내는 객체를 표시하는 동작은,
상기 객체의 상기 가상 현실 배경 상의 위치가 미리 결정된 시야각 범위 이내 이면 상기 객체를 캐릭터 모델로써 표시하고, 상기 객체의 상기 가상 현실 배경 상의 위치가 미리 결정된 시야각 범위 밖이면 상기 객체를 명칭 또는 심볼로써 상기 시야각 범위의 가장자리에 표시하는,
디지털 트윈 기반의 사용자 인터랙션 장치.processor;
a memory for loading a computer program executed by the processor; and
Including a storage for storing the computer program,
The computer program,
Receiving a virtual reality environment based on digital twin information from a server;
displaying a virtual reality background corresponding to a real space based on the virtual reality environment;
displaying an object representing a user on the virtual reality background; and
Includes instructions for performing an operation of receiving the user's interaction from the server and displaying it on the virtual reality background;
The virtual reality background,
It simulates the real space where the user is located,
The position of the object on the virtual reality background corresponds to the position of the user in the real space;
The operation of displaying an object representing the user,
If the position of the object on the virtual reality background is within a predetermined viewing angle range, the object is displayed as a character model, and if the position of the object on the virtual reality background is outside the predetermined viewing angle range, the object is designated as a name or symbol at the viewing angle Marked on the edge of the range,
User interaction device based on digital twin.
상기 프로세서에 의해 실행되는 컴퓨터 프로그램을 로드(load)하는 메모리; 및
상기 컴퓨터 프로그램을 저장하는 스토리지를 포함하되,
상기 컴퓨터 프로그램은,
카메라를 통해 현실 공간을 촬영한 영상을 이용하여 증강 현실 배경을 화면에 표시하는 동작,
상기 증강 현실 배경 상에 사용자를 나타내는 객체를 표시하는 동작, 및
서버로부터 상기 사용자의 인터랙션을 수신하여 상기 증강 현실 배경 상에 표시하는 동작을 수행하기 위한 인스트럭션들을 포함하고,
상기 객체가 표시되는 상기 증강 현실 배경 상의 위치는 상기 현실 공간에 대응되는 가상 현실 공간 상의 상기 사용자의 위치와 대응되고,
상기 사용자를 나타내는 객체를 표시하는 동작은,
상기 객체의 상기 증강 현실 배경 상의 위치가 상기 화면 이내 이면 상기 객체를 캐릭터 모델로써 표시하고, 상기 객체의 상기 증강 현실 배경 상의 위치가 상기 화면 밖이면 상기 객체를 명칭 또는 심볼로써 상기 화면의 가장자리에 표시하는,
디지털 트윈 기반의 사용자 인터랙션 장치.
processor;
a memory for loading a computer program executed by the processor; and
Including a storage for storing the computer program,
The computer program,
An operation of displaying an augmented reality background on a screen using an image taken of a real space through a camera;
displaying an object representing a user on the augmented reality background; and
Includes instructions for performing an operation of receiving the user's interaction from a server and displaying it on the augmented reality background;
A position on the augmented reality background where the object is displayed corresponds to a position of the user on a virtual reality space corresponding to the real space;
The operation of displaying an object representing the user,
If the location of the object on the augmented reality background is within the screen, the object is displayed as a character model, and if the location of the object on the augmented reality background is outside the screen, the object is displayed as a name or symbol at the edge of the screen doing,
User interaction device based on digital twin.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210029490 | 2021-03-05 | ||
KR20210029490 | 2021-03-05 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220125694A KR20220125694A (en) | 2022-09-14 |
KR102549072B1 true KR102549072B1 (en) | 2023-06-29 |
Family
ID=83155502
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220027353A KR102549072B1 (en) | 2021-03-05 | 2022-03-03 | Method and apparatus for user interaction based on digital twin |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102549072B1 (en) |
WO (1) | WO2022186619A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230071732A (en) | 2021-11-16 | 2023-05-23 | 박문관 | Digital twin service providing method |
CN118409662A (en) * | 2024-07-03 | 2024-07-30 | 杭州蓝境科技有限公司 | Mixed reality cross-space interaction method and device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019518261A (en) * | 2016-03-17 | 2019-06-27 | 株式会社ソニー・インタラクティブエンタテインメント | Watch a virtual reality environment associated with virtual reality (VR) user interactivity |
JP2020514929A (en) * | 2017-10-17 | 2020-05-21 | 広東工業大学Guangdong University Of Technology | Method and system for quick custom design of smart factory |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101923723B1 (en) * | 2012-09-17 | 2018-11-29 | 한국전자통신연구원 | Metaverse client terminal and method for providing metaverse space for user interaction |
KR101576064B1 (en) * | 2014-01-27 | 2015-12-10 | 국방과학연구소 | A system and method for collecting positioning, navigation, timing information |
US10679401B2 (en) * | 2017-10-24 | 2020-06-09 | GE Sensing & Inspection Technologies, LP | Monitoring multiple industrial machines |
KR102240351B1 (en) * | 2019-03-07 | 2021-04-14 | 주식회사 엘지유플러스 | Apparatus and method for displaying augmented reality contents |
KR102292276B1 (en) * | 2019-07-16 | 2021-08-20 | 주식회사 엘지유플러스 | System Operating Method For Broadcast Control And System of Thereof |
KR102163378B1 (en) | 2020-04-29 | 2020-10-08 | 동의대학교 산학협력단 | Fitting image providing method using digital twin and augmented reality |
-
2022
- 2022-03-03 WO PCT/KR2022/002994 patent/WO2022186619A1/en active Application Filing
- 2022-03-03 KR KR1020220027353A patent/KR102549072B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019518261A (en) * | 2016-03-17 | 2019-06-27 | 株式会社ソニー・インタラクティブエンタテインメント | Watch a virtual reality environment associated with virtual reality (VR) user interactivity |
JP2020514929A (en) * | 2017-10-17 | 2020-05-21 | 広東工業大学Guangdong University Of Technology | Method and system for quick custom design of smart factory |
Also Published As
Publication number | Publication date |
---|---|
WO2022186619A1 (en) | 2022-09-09 |
KR20220125694A (en) | 2022-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11189037B2 (en) | Repositioning method and apparatus in camera pose tracking process, device, and storage medium | |
US20220091725A1 (en) | Method, apparatus and device for view switching of virtual environment, and storage medium | |
Arth et al. | The history of mobile augmented reality | |
CN109074441B (en) | Gaze-based authentication | |
US10062212B2 (en) | Method and device for providing augmented reality output | |
US10984595B2 (en) | Method and apparatus for providing guidance in a virtual environment | |
KR102549072B1 (en) | Method and apparatus for user interaction based on digital twin | |
US20180096450A1 (en) | Shared virtual reality | |
WO2018177314A1 (en) | Panoramic image display control method and apparatus, and storage medium | |
EP2071841A2 (en) | Method, apparatus and computer program product for displaying virtual media items in a visual media | |
CN104541271A (en) | Generating scenes and tours from spreadsheet data | |
CN102695032A (en) | Information processing apparatus, information sharing method, program, and terminal device | |
US20160284130A1 (en) | Display control method and information processing apparatus | |
KR20220125536A (en) | System and operating method for providing mutual interaction service between virtual reality users and augmented reality users | |
US10433105B2 (en) | Geographically-driven group communications | |
KR20220125539A (en) | Method for providing mutual interaction service according to location linkage between objects in virtual space and real space | |
CN110969159B (en) | Image recognition method and device and electronic equipment | |
US20150007036A1 (en) | Electronic device for sharing question message and method of controlling the electronic device | |
CN112788443B (en) | Interaction method and system based on optical communication device | |
CN106875450B (en) | Training set optimization method and device for camera reorientation | |
CN111897437A (en) | Cross-terminal interaction method and device, electronic equipment and storage medium | |
US11796810B2 (en) | Indication of presence awareness | |
KR20220125538A (en) | A system for linking locations between objects in virtual space and real space using a network | |
KR102608117B1 (en) | System and method for correcting image | |
KR102720842B1 (en) | Creating Augmented Reality Sessions Using Skeletal Tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |