KR20210036212A - Server, device and method for providing augmented reality - Google Patents

Server, device and method for providing augmented reality Download PDF

Info

Publication number
KR20210036212A
KR20210036212A KR1020190118408A KR20190118408A KR20210036212A KR 20210036212 A KR20210036212 A KR 20210036212A KR 1020190118408 A KR1020190118408 A KR 1020190118408A KR 20190118408 A KR20190118408 A KR 20190118408A KR 20210036212 A KR20210036212 A KR 20210036212A
Authority
KR
South Korea
Prior art keywords
augmented reality
user terminal
real space
information
space
Prior art date
Application number
KR1020190118408A
Other languages
Korean (ko)
Inventor
이주철
김경빈
윤여진
이유
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020190118408A priority Critical patent/KR20210036212A/en
Publication of KR20210036212A publication Critical patent/KR20210036212A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/50Business processes related to the communications industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/12Messaging; Mailboxes; Announcements

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Operations Research (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

A server for providing an augmented reality service includes a receiving part that receives spatial data for real space from a user terminal; a virtual space generating part that generates a virtual space corresponding to the real space based on the spatial data; a tagging part for tagging the augmented reality message created by the user terminal to a specific location in the virtual space, a transmission part for transmitting the augmented reality message to at least one other user terminal based on exposure condition information on the augmented reality message set from the user terminal. The spatial data for the real space may include location information of the real space and information on the indoor plane area. The augmented reality message created by the user terminal can be tagged in the virtual space.

Description

증강 현실 서비스를 제공하는 서버, 사용자 단말 및 방법{SERVER, DEVICE AND METHOD FOR PROVIDING AUGMENTED REALITY}Server, user terminal and method providing augmented reality service {SERVER, DEVICE AND METHOD FOR PROVIDING AUGMENTED REALITY}

본 발명은 증강 현실 서비스를 제공하는 서버, 사용자 단말 및 방법에 관한 것이다. The present invention relates to a server, a user terminal, and a method for providing an augmented reality service.

증강 현실 기술은 시각으로 보이는 현실 이미지에 가상의 이미지를 겹쳐서 하나의 이미지로 보여주는 기술이다. Augmented reality   technology is a technology that superimposes a virtual image on a visual   reality   image to show as a single image.

증강 현실은 카메라를 통해 취득된 영상에 가상 정보를 합성시켜 구현될 수 있다. 예를 들어, 증강현실 기술이 적용된 어플리케이션을 실행시켜 카메라 화면으로 현실 객체(예컨대, 책 표지)를 비추거나 촬영하면, 현실 객체와 관련된 정보가 현실 객체의 영상에 합성되어 카메라 화면에 표시된다. Augmented reality may be implemented by synthesizing virtual information with an image acquired through a camera. For example, when an application to which augmented reality technology is applied is executed and a real object (eg, a book cover) is projected or photographed on a camera screen, information related to the real object is synthesized with the image of the real object and displayed on the camera screen.

한편, 기존의 메시징 서비스는 단순히 텍스트, 이미지, 동영상을 통해 대화 내용을 평면적으로만 표시하는 단순 커뮤니케이션의 형태로서 5G 네트워크 기반의 실감 커뮤니케이션 환경을 반영하지 못한다는 한계가 있었다. On the other hand, the existing  messaging   service is a form of simple communication that simply displays conversation contents through text, images, and videos on a flat surface, and has a limitation in that it cannot reflect the realistic communication environment based on 5G network.

따라서, 사용자에게 보다 흥미를 유발하면서 시공간을 초월하는 메시징 서비스 기술이 필요하다. Therefore, there is a need for a messaging service technology that induces more interest to users and transcends time and space.

한국등록특허공보 제10-1729012호 (2017.04.17. 등록)Korean Registered Patent Publication No. 10-1729012 (registered on April 17, 2017)

본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 사용자 단말로부터 수신된 현실 공간에 대한 공간 데이터에 기초하여 현실 공간에 대응하는 가상 공간을 생성하고, 사용자 단말에 의해 작성된 증강 현실 메시지를 가상 공간에 태깅하고자 한다. 또한, 본 발명은 가상 공간에 태깅된 증강 현실 메시지를 사용자가 설정한 노출 조건 정보에 따라 타사용자 단말에게 전송하고자 한다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다. The present invention is to solve the problems of the prior art described above, and generates a virtual space corresponding to the real space based on spatial data about the real space received from a user terminal, and virtually creates an augmented reality message created by the user terminal. You want to tag the space. In addition, the present invention is to transmit the augmented reality message tagged in the virtual space to another user terminal according to the exposure condition information set by the user. However, the technical problem to be achieved by the present embodiment is not limited to the technical problems as described above, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 증강 현실 서비스를 제공하는 서버는 사용자 단말로부터 현실 공간에 대한 공간 데이터를 수신하는 수신부 상기 공간 데이터에 기초하여 상기 현실 공간에 대응하는 가상 공간을 생성하는 가상 공간 생성부; 상기 사용자 단말에 의해 작성된 증강 현실 메시지를 상기 가상 공간 내의 특정 위치에 태깅하는 태깅부; 상기 사용자 단말로부터 설정받은 상기 증강 현실 메시지에 대한 노출 조건 정보에 기초하여 상기 증강 현실 메시지를 적어도 하나의 타사용자 단말로 전송하는 전송부를 포함하고, 상기 현실 공간에 대한 공간 데이터는 상기 현실 공간의 위치 정보 및 실내 평면 영역 정보를 포함할 수 있다. As a technical means for achieving the above-described technical problem, the server for providing an augmented reality service according to the first aspect of the present invention includes a receiving unit receiving spatial data for a real space from a user terminal based on the spatial data. A virtual space generation unit that generates a virtual space corresponding to; A tagging unit for tagging the augmented reality message created by the user terminal to a specific location in the virtual space; And a transmission unit for transmitting the augmented reality message to at least one other user terminal based on exposure condition information for the augmented reality message set from the user terminal, and the spatial data for the real space is a location of the real space Information and indoor flat area information may be included.

본 발명의 제 2 측면에 따른 증강 현실 서비스를 제공받는 사용자 단말은 현실 공간에 대응하는 가상 공간을 생성하기 위한 상기 현실 공간에 대한 공간 데이터를 생성하는 생성부; 증강 현실 서비스 제공 서버로 상기 공간 데이터를 전송하는 전송부; 상기 증강 현실 서비스 제공 서버로부터 상기 현실 공간에 대응하는 가상 공간 내의 특정 위치에 태깅된 증강 현실 메시지를 수신하는 수신부; 및 상기 증강 현실 메시지를 상기 사용자 단말의 화면에 출력하는 출력부를 포함하되, 상기 현실 공간에 대한 공간 데이터는 상기 현실 공간의 위치 정보 및 실내 평면 영역 정보를 포함하고, 상기 증강 현실 메시지는 타사용자 단말에 의해 작성된 메시지이고, 상기 타사용자 단말에 의해 설정된 상기 증강 현실 메시지에 대한 노출 조건 정보에 기초하여 상기 사용자 단말로 전송될 수 있다. A user terminal receiving an augmented reality service according to a second aspect of the present invention includes: a generator for generating spatial data on the real space for generating a virtual space corresponding to the real space; A transmission unit for transmitting the spatial data to an augmented reality service providing server; A receiver configured to receive an augmented reality message tagged to a specific location in a virtual space corresponding to the real space from the augmented reality service providing server; And an output unit for outputting the augmented reality message to the screen of the user terminal, wherein the spatial data for the real space includes location information and indoor flat area information of the real space, and the augmented reality message is another user terminal The message is created by and may be transmitted to the user terminal based on exposure condition information for the augmented reality message set by the other user terminal.

본 발명의 제 3 측면에 따른 증강 현실 서비스 제공 서버에 의해 증강 현실 서비스를 제공하는 방법은 사용자 단말로부터 현실 공간에 대한 공간 데이터를 수신하는 단계; 상기 공간 데이터에 기초하여 상기 현실 공간에 대응하는 가상 공간을 생성하는 단계; 상기 사용자 단말에 의해 작성된 증강 현실 메시지를 상기 가상 공간 내의 특정 위치에 태깅하는 단계; 상기 사용자 단말로부터 설정받은 상기 증강 현실 메시지에 대한 노출 조건 정보에 기초하여 상기 증강 현실 메시지를 적어도 하나의 타사용자 단말로 전송하는 단계를 포함하고, 상기 현실 공간에 대한 공간 데이터는 상기 현실 공간의 위치 정보 및 실내 평면 영역 정보를 포함할 수 있다. A method of providing an augmented reality service by an augmented reality service providing server according to a third aspect of the present invention includes: receiving spatial data on a real space from a user terminal; Creating a virtual space corresponding to the real space based on the spatial data; Tagging the augmented reality message created by the user terminal at a specific location in the virtual space; And transmitting the augmented reality message to at least one other user terminal based on exposure condition information for the augmented reality message set from the user terminal, and the spatial data for the real space is a location of the real space. Information and indoor flat area information may be included.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본 발명을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 기재된 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary and should not be construed as limiting the present invention. In addition to the above-described exemplary embodiments, there may be additional embodiments described in the drawings and detailed description of the invention.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 사용자 단말로부터 수신된 현실 공간에 대한 공간 데이터에 기초하여 현실 공간에 대응하는 가상 공간을 생성하고, 사용자 단말에 의해 작성된 증강 현실 메시지를 가상 공간에 태깅할 수 있다. 또한, 본 발명은 가상 공간에 태깅된 증강 현실 메시지를 사용자가 설정한 노출 조건 정보에 따라 타사용자 단말에게 전송할 수 있다. 이를 통해, 본 발명은 사용자들끼리 시간 및 장소를 초월하여 증강 현실 메시지를 전달받고 서로 공유할 수 있는 서비스를 제공할 수 있다. According to any one of the above-described problem solving means of the present invention, a virtual space corresponding to the real space is generated based on spatial data about the real space received from the user terminal, and an augmented reality message created by the user terminal is converted into a virtual space. Can be tagged on. In addition, the present invention may transmit the augmented reality message tagged in the virtual space to another user terminal according to the exposure condition information set by the user. Through this, the present invention can provide a service that allows users to receive augmented reality messages and share them across time and place.

도 1은 본 발명의 일 실시예에 따른, 증강 현실 서비스 제공 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른, 도 1에 도시된 증강 현실 서비스 제공 서버의 블록도이다.
도 3a 내지 3b는 본 발명의 일 실시예에 따른, 현실 공간에 대응하는 가상 공간을 생성 및 업데이트하는 방법을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른, 영상 특징점을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른, 도 1에 도시된 사용자 단말의 블록도이다.
도 6a 내지 6c는 본 발명의 일 실시예에 따른, 증강 현실 서비스의 예를 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른, 증강 현실 서비스 제공 서버에서 증강 현실 서비스 제공 방법을 나타낸 흐름도이다.
도 8은 본 발명의 일 실시예에 따른, 사용자 단말에서 증강 현실 서비스 제공 방법을 나타낸 흐름도이다.
1 is a block diagram of a system for providing an augmented reality service according to an embodiment of the present invention.
2 is a block diagram of the augmented reality service providing server shown in FIG. 1 according to an embodiment of the present invention.
3A to 3B are diagrams for explaining a method of creating and updating a virtual space corresponding to a real space according to an embodiment of the present invention.
4 is a diagram for explaining an image feature point according to an embodiment of the present invention.
5 is a block diagram of the user terminal shown in FIG. 1 according to an embodiment of the present invention.
6A to 6C are diagrams for explaining an example of an augmented reality service according to an embodiment of the present invention.
7 is a flowchart illustrating a method of providing an augmented reality service in an augmented reality service providing server according to an embodiment of the present invention.
8 is a flowchart illustrating a method of providing an augmented reality service in a user terminal according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when a part is said to be "connected" with another part, this includes not only "directly connected" but also "electrically connected" with another element interposed therebetween. . In addition, when a part "includes" a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. In the present specification, the term "unit" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Further, one unit may be realized by using two or more hardware, or two or more units may be realized by one piece of hardware.

본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다. In this specification, some of the operations or functions described as being performed by the terminal or device may be performed instead in a server connected to the terminal or device. Likewise, some of the operations or functions described as being performed by the server may also be performed by a terminal or device connected to the server.

이하, 첨부된 구성도 또는 처리 흐름도를 참고하여, 본 발명의 실시를 위한 구체적인 내용을 설명하도록 한다. Hereinafter, with reference to the accompanying configuration diagram or processing flow chart, it will be described in detail for the implementation of the present invention.

도 1은 본 발명의 일 실시예에 따른, 증강 현실 서비스 제공 시스템의 구성도이다. 1 is a block diagram of a system for providing an augmented reality service according to an embodiment of the present invention.

도 1을 참조하면, 증강 현실 서비스 제공 시스템은 증강 현실 서비스 제공 서버(100), 사용자 단말(110) 및 타사용자 단말(120)을 포함할 수 있다. 다만, 이러한 도 1의 증강 현실 서비스 제공 시스템은 본 발명의 일 실시예에 불과하므로 도 1을 통해 본 발명이 한정 해석되는 것은 아니며, 본 발명의 다양한 실시예들에 따라 도 1과 다르게 구성될 수도 있다. Referring to FIG. 1, the augmented reality service providing system may include an augmented reality service providing server 100, a user terminal 110, and another user terminal 120. However, since the augmented reality service providing system of FIG. 1 is only an embodiment of the present invention, the present invention is not limitedly interpreted through FIG. 1, and may be configured differently from FIG. 1 according to various embodiments of the present invention. have.

일반적으로, 도 1의 증강 현실 서비스 제공 시스템의 각 구성요소들은 네트워크(미도시)를 통해 연결된다. 네트워크는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷 (WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 블루투스 통신, 적외선 통신, 초음파 통신, 가시광 통신(VLC: Visible Light Communication), 라이파이(LiFi) 등이 포함되나 이에 한정되지는 않는다. In general, components of the augmented reality service providing system of FIG. 1 are connected through a network (not shown). A network refers to a connection structure that enables information exchange between nodes such as terminals and servers, and is a local area network (LAN), a wide area network (WAN), and the Internet (WWW: World). Wide Web), wired and wireless data communication networks, telephone networks, wired and wireless television networks, etc. Examples of wireless data networks include 3G, 4G, 5G, 3GPP (3rd Generation Partnership Project), LTE (Long Term Evolution), WIMAX (World Interoperability for Microwave Access), Wi-Fi, Bluetooth communication, infrared communication, and ultrasound. Communication, Visible Light Communication (VLC), LiFi, and the like are included, but are not limited thereto.

사용자 단말(110)은 현실 공간에 방문한 사용자가 현실 공간에 자신의 발자취 기록을 남기기 위해 증강현실 어플리케이션을 실행시킨 경우, 증강현실 어플리케이션을 통해 현실 공간에 대응하는 가상 공간을 생성하기 위한 현실 공간에 대한 공간 데이터를 생성할 수 있다. 여기서, 현실 공간에 대한 공간 데이터는 현실 공간의 위치 정보 및 실내 평면 영역 정보(바닥 평면 정보, 벽면 정보, 천장 평면 정보를 포함)를 포함할 수 있다. When a user visiting the real space runs an augmented reality application to record his or her footsteps in the real space, the user terminal 110 uses the augmented reality application to create a virtual space corresponding to the real space. Spatial data can be created. Here, the spatial data for the real space may include location information of the real space and information on an indoor flat area (including floor plan information, wall surface information, and ceiling plan information).

또한, 사용자 단말(110)은 증강 현실 어플리케이션을 통해 사용자에 의해 증강 현실 메시지를 작성하고, 증강 현실 메시지에 대한 노출 조건 정보를 사용자로부터 설정받을 수 있다. 여기서, 노출 조건 정보는 증강 현실 메시지가 노출되는 노출 공간 정보, 노출 시간 정보 및 수신자 정보 중 적어도 하나를 포함할 수 있다. In addition, the user terminal 110 may create an augmented reality message by a user through an augmented reality application and receive exposure condition information for the augmented reality message set by the user. Here, the exposure condition information may include at least one of exposure space information, exposure time information, and receiver information in which the augmented reality message is exposed.

사용자 단말(110)은 증강 현실 서비스 제공 서버(100)에게 현실 공간에 대한 공간 데이터와 함께 증강 현실 메시지 및 증강 현실 메시지에 대한 노출 조건 정보를 전송할 수 있다. The user terminal 110 may transmit an augmented reality message and exposure condition information for an augmented reality message together with spatial data for a real space to the augmented reality service providing server 100.

증강 현실 서비스 제공 서버(100)는 사용자 단말(110)로부터 수신된 현실 공간에 대한 공간 데이터에 기초하여 현실 공간에 대응하는 가상 공간을 생성할 수 있다. The augmented reality service providing server 100 may generate a virtual space corresponding to the real space based on spatial data about the real space received from the user terminal 110.

증강 현실 서비스 제공 서버(100)는 사용자 단말(110)에 의해 작성된 증강 현실 메시지를 가상 공간 내의 특정 위치에 태깅할 수 있다. The augmented reality service providing server 100 may tag an augmented reality message created by the user terminal 110 to a specific location in a virtual space.

증강 현실 서비스 제공 서버(100)는 사용자 단말(110)로부터 수신된 증강 현실 메시지에 대한 노출 조건 정보에 기초하여 증강 현실 메시지를 적어도 하나의 타사용자 단말(120)에게 전송할 수 있다. The augmented reality service providing server 100 may transmit an augmented reality message to at least one other user terminal 120 based on exposure condition information for the augmented reality message received from the user terminal 110.

예를 들면, 사용자 단말(110) 및 타사용자 단말(120)은 유무선 통신이 가능한 모바일 단말을 포함할 수 있다. 모바일 단말은 휴대성과 이동성이 보장되는 무선 통신 장치로서, 스마트폰(smartphone), 태블릿 PC, 웨어러블 디바이스뿐만 아니라, 블루투스(BLE, Bluetooth Low Energy), NFC, RFID, 초음파(Ultrasonic), 적외선, 와이파이(WiFi), 라이파이(LiFi) 등의 통신 모듈을 탑재한 각종 디바이스를 포함할 수 있다. 다만, 사용자 단말(110) 및 타사용자 단말(120)은 앞서 예시된 것들로 한정 해석되는 것은 아니다.For example, the user terminal 110 and the other user terminal 120 may include mobile terminals capable of wired or wireless communication. Mobile terminals are wireless communication devices that guarantee portability and mobility, as well as smartphones, tablet PCs, and wearable devices, as well as Bluetooth (BLE, Bluetooth Low Energy), NFC, RFID, Ultrasound (Ultrasonic), infrared, and Wi-Fi ( WiFi), LiFi, etc. may include various devices equipped with communication modules. However, the user terminal 110 and the other user terminal 120 are not limited to those exemplified above.

이하에서는 도 1의 증강 현실 서비스 제공 시스템의 각 구성요소의 동작에 대해 보다 구체적으로 설명한다. Hereinafter, the operation of each component of the augmented reality service providing system of FIG. 1 will be described in more detail.

도 2는 본 발명의 일 실시예에 따른, 도 1에 도시된 증강 현실 서비스 제공 서버(100)의 블록도이다. 2 is a block diagram of the augmented reality service providing server 100 shown in FIG. 1 according to an embodiment of the present invention.

도 2를 참조하면, 증강 현실 서비스 제공 서버(100)는 수신부(200), 가상 공간 생성부(210), 태깅부(220) 및 전송부(230)를 포함할 수 있다. 여기서, 가상 공간 생성부(210)는 업데이트부(212)를 포함할 수 있다. 다만, 도 2에 도시된 증강 현실 서비스 제공 서버(100)는 본 발명의 하나의 구현 예에 불과하며, 도 2에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. Referring to FIG. 2, the augmented reality service providing server 100 may include a receiving unit 200, a virtual space generating unit 210, a tagging unit 220, and a transmitting unit 230. Here, the virtual space generation unit 210 may include an update unit 212. However, the augmented reality service providing server 100 shown in FIG. 2 is only an example of implementation of the present invention, and various modifications are possible based on the components shown in FIG. 2.

이하에서는 도 3a를 참조하여 도 2를 설명하기로 한다. Hereinafter, FIG. 2 will be described with reference to FIG. 3A.

수신부(200)는 현실 공간(301)에 방문한 사용자가 현실 공간(301)에 자신의 발자취 기록을 남기거나, 다른 사람의 발자취 기록을 공유받고자 하는 사용자 단말(110)이 증강현실 어플리케이션을 실행한 경우, 사용자 단말(110)로부터 현실 공간(301)에 대한 공간 데이터를 수신할 수 있다. 여기서, 현실 공간(301)에 대한 공간 데이터는 현실 공간(301)의 위치 정보 및 실내 평면 영역 정보, 실내 영상 정보, 현실 공간(301) 내에 배치된 현실 객체(303)에 대응되는 가상 객체를 포함할 수 있다. When the user who visits the real space 301 leaves a record of his or her footsteps in the real space 301, or if the user terminal 110 wishing to share the footsteps of another person runs an augmented reality application , Spatial data for the real space 301 may be received from the user terminal 110. Here, the spatial data for the real space 301 includes location information of the real space 301, indoor flat area information, indoor image information, and a virtual object corresponding to the real object 303 disposed in the real space 301. can do.

구체적으로, 현실 공간(301)의 위치 정보는 예를 들어, 사용자 단말(110)이 현실 공간(301) 내부로의 진입 직전의 위치 정보(예컨대, 사용자 단말(110)의 GPS 좌표 정보)일 수 있다. 현실 공간(301)의 실내 평면 영역 정보는 예를 들어, 사용자 단말(110)의 증강 현실 어플리케이션을 통해 인식된 현실 공간(301) 내부의 바닥 평면 정보, 벽면 정보, 천장 평면 정보를 포함하는 다중의 실내 평면 영역 정보를 포함할 수 있다. 실내 영상 정보는 예를 들어, 사용자 단말(110)의 증강 현실 어플리케이션을 통해 현실 공간(301)이 스캐닝되어 생성된 실내 평면 영역 별 영상 정보일 수 있다. 현실 객체(303)에 대응되는 가상 객체는 현실 공간(301) 내에 배치된 복수의 현실 객체 중 사용자 단말(110)에 의해 선정된 현실 객체(303)(즉, 현실 공간(301)을 대표하는 랜드마크)가 스캐닝되어 생성된 가상 객체일 수 있다. Specifically, the location information of the real space 301 may be, for example, location information immediately before the user terminal 110 enters the real space 301 (eg, GPS coordinate information of the user terminal 110). have. The indoor plan area information of the real space 301 includes, for example, floor plan information, wall information, and ceiling plan information inside the real space 301 recognized through an augmented reality application of the user terminal 110. It may include indoor flat area information. The indoor image information may be, for example, image information for each indoor flat area generated by scanning the real space 301 through an augmented reality application of the user terminal 110. The virtual object corresponding to the real object 303 is a real object 303 selected by the user terminal 110 from among a plurality of real objects arranged in the real space 301 (that is, a land representing the real space 301 ). Mark) may be a virtual object created by scanning.

가상 공간 생성부(210)는 현실 공간(301)에 대한 공간 데이터에 기초하여 현실 공간(301)에 대응하는 가상 공간(305)을 생성할 수 있다. The virtual space generator 210 may generate a virtual space 305 corresponding to the real space 301 based on spatial data on the real space 301.

가상 공간 생성부(210)는 현실 공간(301)의 실내 평면 영역 정보에 포함된 바닥 평면 정보, 벽면 정보 및 천장 평면 정보에 기초하여 가상의 평면 공간을 생성할 수 있다. 예를 들어, 가상 공간 생성부(210)는 실내 평면 영역 정보에 포함된 바닥 평면 정보, 벽면 정보 및 천장 평면 정보를 기반으로 각 평면 영역을 확장하여 직육면체 형태의 가상의 평면 공간을 생성할 수 있다. The virtual space generator 210 may generate a virtual flat space based on floor plan information, wall surface information, and ceiling plan information included in the indoor plan area information of the real space 301. For example, the virtual space generation unit 210 may create a virtual flat space in the form of a rectangular parallelepiped by expanding each flat area based on floor plan information, wall information, and ceiling plan information included in the indoor plan area information. .

가상 공간 생성부(210)는 현실 공간(301)의 실내 영상 정보에 포함된 복수의 실내 평면 영역 별 영상으로부터 영상 특징점을 추출하고, 생성된 가상의 평면 공간에 추출된 영상 특징점을 매핑하여 가상 공간(305)을 생성할 수 있다. 이 때, 가상 공간 생성부(210)는 생성된 가상의 평면 공간을 구성하는 각 평면 영역에 대응하는 영상 특징점을 가상의 평면 공간의 영역에 매칭하여 동일 공간인지를 판별하면서 가상 공간(305)을 생성할 수 있다. The virtual space generation unit 210 extracts image feature points from images for each of a plurality of indoor plane areas included in the indoor image information of the real space 301, maps the extracted image feature points to the generated virtual plane space, and provides a virtual space. (305) can be created. In this case, the virtual space generation unit 210 matches the image feature points corresponding to each flat area constituting the generated virtual flat space with the area of the virtual flat space to determine whether the virtual space 305 is the same. Can be generated.

여기서, 영상 특징점은 객체를 추적하거나 인식할 때 또는 영상과 영상을 매칭할 때 사용될 수 있다. 이러한 영상 특징점은 객체의 형태나 크기, 위치가 변경되도 쉽게 식별 가능해야 하고, 카메라의 시점, 조명이 변해도 영상에서 쉽게 찾아낼 수 있는 것으로 해야 한다. 예를 들어, 도 4를 참조하면, 제 1 영상(40)에서 영상 특징점은 주위 배경과 식별이 용이한 객체의 제 1 점(401)(즉, 코너점)이 될 수 있다. 이 때, 제 1 점(401)이 코너점인지 여부는 제 1 점(401)을 중심점으로 한 반지름 r인 원상의 픽셀값에 기초하여 제 1 점(401)보다 픽셀값이 기설정된 임계값 이상으로 밝거나 어두운 픽셀들이 N개 이상 연속되면 제 1 점(401)을 코너 특징점으로 판단될 수 있다. Here, the image feature point may be used when tracking or recognizing an object or matching an image and an image. These video feature points should be easily identifiable even when the shape, size, and location of the object change, and should be easily found in the video even when the viewpoint and lighting of the camera change. For example, referring to FIG. 4, the image feature point in the first image 40 may be a first point 401 (ie, a corner point) of an object that is easily identifiable with a surrounding background. In this case, whether the first point 401 is a corner point or not is based on a pixel value of the circle having a radius r with the first point 401 as the center point, and the pixel value is greater than or equal to a preset threshold value than the first point 401. When N or more bright or dark pixels are consecutive, the first point 401 may be determined as a corner feature point.

가상 공간 생성부(210)는 현실 공간(301)에 배치된 현실 객체(303)의 위치 정보에 기초하여 생성된 가상 공간(305) 상에 가상 객체를 배치할 수 있다. The virtual space generator 210 may arrange a virtual object on the virtual space 305 generated based on the location information of the real object 303 disposed in the real space 301.

태깅부(220)는 사용자 단말(110)에 의해 작성된 증강 현실 메시지를 가상 공간(305) 내의 특정 위치(예컨대, 가상 객체가 배치된 지점의 주변 영역)에 태깅할 수 있다. 여기서, 증강 현실 메시지는 현실 공간(301)에 방문한 사용자의 발자취를 디지털 형식으로 기록한 메시지일 수 있다. 이러한, 증강 현실 메시지는 예를 들어, 사용자 단말(110)에 의해 생성된 아바타를 이용한 음성 메시지 또는 텍스트 메시지, 동영상 메시지, 3D 드로잉 낙서 정보 등을 포함할 수 있다. The tagging unit 220 may tag the augmented reality message created by the user terminal 110 to a specific location in the virtual space 305 (eg, an area around the point where the virtual object is placed). Here, the augmented reality message may be a message in which the footsteps of a user visiting the real space 301 are recorded in a digital format. The augmented reality message may include, for example, a voice message or text message using an avatar generated by the user terminal 110, a video message, 3D drawing graffiti information, and the like.

태깅부(220)는 지도앱을 통해 제공되는 지도 데이터 중 현실 공간(301)의 위치 정보에 대응하는 지점에 가상 공간(305)에 태깅된 증강 현실 메시지를 매핑시킬 수 있다. The tagging unit 220 may map an augmented reality message tagged in the virtual space 305 to a point corresponding to the location information of the real space 301 among map data provided through the map app.

전송부(230)는 사용자 단말(110)로부터 설정받은 증강 현실 메시지에 대한 노출 조건 정보에 기초하여 증강 현실 메시지를 적어도 하나의 타사용자 단말(120)에게 전송할 수 있다. 여기서, 노출 조건 정보는 증강 현실 메시지가 노출되는 노출 공간 정보, 노출 시간 정보 및 수신자 정보 중 적어도 하나를 포함할 수 있다. 여기서, 수신자 정보는 예를 들어, 사용자 단말(110)에 저장된 복수의 연락처 중 사용자에 의해 선택된 연락처를 포함하는 그룹일 수 있다. 예를 들어, 사용자 단말(110)에 의해 설정된 노출 공간 상에 수신자 정보에 포함된 타사용자가 위치하거나, 현재 시간이 사용자 단말(110)이 설정된 노출 시간에 도달한 경우, 해당 수신자 정보에 포함된 타사용자의 단말로 증강 현실 메시지가 전송될 수 있다. The transmission unit 230 may transmit the augmented reality message to at least one other user terminal 120 based on exposure condition information for the augmented reality message set from the user terminal 110. Here, the exposure condition information may include at least one of exposure space information, exposure time information, and receiver information in which the augmented reality message is exposed. Here, the recipient information may be, for example, a group including a contact selected by the user from among a plurality of contacts stored in the user terminal 110. For example, when another user included in the recipient information is located on the exposure space set by the user terminal 110, or the current time reaches the exposure time set by the user terminal 110, the corresponding recipient information An augmented reality message may be transmitted to another user's terminal.

구체적으로, 전송부(230)는 수신자 정보에 포함된 타사용자의 타사용자 단말(120)이 노출 공간 정보에 대응하는 현실 공간에 위치하는 경우, 타사용자 단말(120)에게 증강 현실 메시지를 전송할 수 있다. 예를 들어, 타사용자 단말(120)이 사용자 단말(110)에 의해 설정된 노출 공간 정보에 대응하는 현실 공간에서 증강현실 카메라의 앱을 구동하면, 타사용자 단말(120)이 촬영한 영상의 시야 범위 내에서 사용자 단말(110)의 증강 현실 메시지가 노출될 수 있다. Specifically, when the other user terminal 120 of another user included in the receiver information is located in a real space corresponding to the exposure space information, the transmission unit 230 may transmit an augmented reality message to the other user terminal 120. have. For example, when the other user terminal 120 drives the app of the augmented reality camera in a real space corresponding to the exposure space information set by the user terminal 110, the field of view of the image captured by the other user terminal 120 The augmented reality message of the user terminal 110 may be exposed within.

전송부(230)는 수신자 정보에 포함된 타사용자의 타사용자 단말(120)을 통해 표시되는 지도에서 현실 공간(301)이 위치하는 지점이 선택된 경우, 가상 공간(305)을 통해 가상 공간(305)에 태깅된 증강 현실 메시지를 타사용자 단말(120)에게 전송할 수 있다. 이 때, 가상 공간에 태깅된 증강 현실 메시지는 타사용자 단말(120)의 화면에 증강되어 표시될 수 있다. 예를 들어, 타사용자 단말(120)이 타사용자 단말(120)의 화면에 표시된 지도에서 가상 공간(305)이 생성된 현실 공간(301)이 위치하는 지점을 선택하게 되면, 타사용자 단말(120)은 사용자 단말(110)의 아바타를 통해 가상 공간(305)에 태깅된 증강 현실 메시지를 확인할 수 있다. When the point where the real space 301 is located is selected on the map displayed through the other user terminal 120 of another user included in the receiver information, the transmission unit 230 transmits the virtual space 305 through the virtual space 305. The augmented reality message tagged in) may be transmitted to the other user terminal 120. In this case, the augmented reality message tagged in the virtual space may be augmented and displayed on the screen of the other user terminal 120. For example, when the other user terminal 120 selects a point where the real space 301 in which the virtual space 305 is created is located on a map displayed on the screen of the other user terminal 120, the other user terminal 120 ) May check the augmented reality message tagged in the virtual space 305 through the avatar of the user terminal 110.

이처럼, 사용자 단말(110)의 증강 현실 메시지를 수신한 타사용자 단말(120)은 실제 현실 공간(301)에 방문하여 해당 증강 현실 메시지를 공유 및 확인할 수 있고, 현실 공간(301)을 방문하지 않더라도 현실 공간(301)에 대응하는 가상 공간에 접속하여 동일한 증강 현실 메시지를 공유 및 확인할 수 있다. In this way, the other user terminal 120 receiving the augmented reality message of the user terminal 110 may visit the actual real space 301 to share and check the corresponding augmented reality message, and even if not visiting the real space 301 The same augmented reality message can be shared and checked by accessing a virtual space corresponding to the real space 301.

이하에서는 도 3a 내지 도 3b를 함께 참조하여 도 2를 설명하기로 한다. Hereinafter, FIG. 2 will be described with reference to FIGS. 3A to 3B together.

수신부(200)는 현실 공간(301)에 방문한 다른 사용자들이 현실 공간(301)에 자신의 발자취 기록을 남기거나, 다른 사람의 발자취 기록을 공유받고자 하는 복수의 다른 사용자 단말(122, 124) 각각이 증강현실 어플리케이션을 실행한 경우, 복수의 다른 사용자 단말(122, 124)로부터 현실 공간(301)의 위치 정보로부터 기설정된 범위 내에 위치하는 어느 현실 공간에 대한 유사 공간 데이터를 수신할 수 있다. 여기서, 유사 공간 데이터는 현실 공간(301)의 위치 정보로부터 기설정된 범위 내에 위치한 어느 현실 공간의 위치 정보 및 실내 평면 영역 정보(바닥 평면 정보, 벽면 정보, 천장 평면 정보를 포함하는 다중의 실내 평 면 영역 정보), 실내 영상 정보(실내 평면 영역 별 실내 영상 정보), 어느 현실 공간 내에 배치된 현실 객체(307)에 대응되는 가상 객체를 포함할 수 있다. The receiving unit 200 allows other users who visited the real space 301 to leave their own footsteps in the real space 301, or a plurality of other user terminals 122 and 124 who wish to share the footsteps of others. When the augmented reality application is executed, similar spatial data for a real space located within a preset range may be received from the location information of the real space 301 from a plurality of other user terminals 122 and 124. Here, the similar spatial data is the location information of a real space located within a preset range from the location information of the real space 301 and information on the indoor plane area (floor plane information, wall surface information, and multiple indoor planes including information on the ceiling plane). Area information), indoor image information (indoor image information for each indoor flat area), and a virtual object corresponding to the real object 307 disposed in a certain real space.

업데이트부(212)는 복수의 다른 사용자 단말(122, 124)로부터 수신된 어느 현실 공간(현실 공간(301)의 위치 정보로부터 기설정된 범위 내에 위치하는 공간)에 대한 유사 공간 데이터에 기초하여 기생성된 가상 공간(305)을 업데이트할 수 있다. The update unit 212 is para-generated based on similar spatial data for a certain real space (a space located within a preset range from the location information of the real space 301) received from a plurality of other user terminals 122, 124. The created virtual space 305 can be updated.

구체적으로, 업데이트부(212)는 사용자 단말(110)로부터 수신된 현실 공간(301)에 대한 공간 데이터에 포함된 실내 평면 영역 정보와 복수의 다른 사용자 단말(122, 124)로부터 수신된 유사 공간 데이터에 포함된 실내 평면 영역 정보간의 비교 결과에 기초하여 가상 공간(305)을 업데이트할 수 있다. Specifically, the update unit 212 includes indoor plan area information included in spatial data for the real space 301 received from the user terminal 110 and similar spatial data received from a plurality of other user terminals 122 and 124. The virtual space 305 may be updated based on the comparison result between the indoor flat area information included in the.

업데이트부(212)는 사용자 단말(110)로부터 수신된 현실 공간(301)에 대한 공간 데이터에 포함된 실내 영상 정보의 복수의 실내 평면 영역 별 영상 특징점과 복수의 다른 사용자 단말(122, 124)로부터 수신된 유사 공간 데이터에 포함된 실내 영상 정보의 복수의 실내 평면 영역 별 영상 특징점 간의 비교 결과에 기초하여 가상 공간(305)을 업데이트할 수 있다. The update unit 212 includes image feature points for each of a plurality of indoor flat areas of the indoor image information included in the spatial data for the real space 301 received from the user terminal 110 and from the plurality of other user terminals 122 and 124. The virtual space 305 may be updated based on a comparison result between image feature points for each of a plurality of indoor plan areas of indoor image information included in the received similar spatial data.

업데이트부(212)는 사용자 단말(110)로부터 수신된 현실 공간(301)에 대한 공간 데이터(유사 공간 데이터)에 포함된 가상 객체와 복수의 다른 사용자 단말(122, 124)로부터 수신된 유사 공간 데이터에 포함된 가상 객체 간의 비교 결과에 기초하여 가상 공간(305)을 업데이트할 수 있다. The update unit 212 includes a virtual object included in spatial data (similar spatial data) for the real space 301 received from the user terminal 110 and similar spatial data received from a plurality of other user terminals 122 and 124. The virtual space 305 may be updated based on a result of comparison between the virtual objects included in.

이처럼, 현실 공간(301)에 증강 현실 메시지를 남기려는 다수의 사용자 단말들이 증강현실 카메라 앱을 구동하게 되면, 현실 공간(301)에 대한 공간 데이터가 크라우드 소싱(Crowd Sourcing) 형태로 수집되어 현실 공간(301)에 대응하는 가상 공간(305)이 정교화될 수 있다. In this way, when a plurality of user terminals attempting to leave an augmented reality message in the real space 301 drive the augmented reality camera app, spatial data for the real space 301 is collected in the form of crowd sourcing and The virtual space 305 corresponding to 301 may be elaborated.

한편, 당업자라면, 수신부(200), 가상 공간 생성부(210), 업데이트부(212), 태깅부(220) 및 전송부(230) 각각이 분리되어 구현되거나, 이 중 하나 이상이 통합되어 구현될 수 있음을 충분히 이해할 것이다. Meanwhile, for those skilled in the art, each of the receiving unit 200, the virtual space generation unit 210, the update unit 212, the tagging unit 220, and the transmission unit 230 are implemented separately, or one or more of them are integrated and implemented. I will fully understand that it can be.

도 5는 본 발명의 일 실시예에 따른, 도 1에 도시된 사용자 단말(110)의 블록도이다. 5 is a block diagram of the user terminal 110 shown in FIG. 1 according to an embodiment of the present invention.

도 5를 참조하면, 사용자 단말(110)은 생성부(500), 전송부(510), 수신부(520) 및 출력부(530)를 포함할 수 있다. 다만, 도 5에 도시된 사용자 단말(110)은 본 발명의 하나의 구현 예에 불과하며, 도 5에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. Referring to FIG. 5, the user terminal 110 may include a generating unit 500, a transmitting unit 510, a receiving unit 520, and an output unit 530. However, the user terminal 110 shown in FIG. 5 is only an example of implementation of the present invention, and various modifications are possible based on the components shown in FIG. 5.

생성부(500)는 현실 공간에 방문한 사용자가 현실 공간에 자신의 발자취 기록을 남기기 위해 증강현실 어플리케이션을 실행한 경우, 현실 공간에 대응하는 가상 공간을 생성하기 위한 현실 공간에 대한 공간 데이터를 생성할 수 있다. 여기서, 현실 공간에 대한 공간 데이터는 현실 공간의 위치 정보로부터 기설정된 범위 내에 위치하는 어느 현실 공간에 대한 유사 공간 데이터를 포함할 수 있다. 여기서, 현실 공간에 대한 공간 데이터는 현실 공간의 위치 정보 및 실내 평면 영역 정보, 실내 영상 정보, 현실 공간에 배치된 현실 객체에 대응되는 가상 객체를 포함할 수 있다. When a user visiting the real space executes an augmented reality application to record his or her footsteps in the real space, the generation unit 500 generates spatial data for the real space to create a virtual space corresponding to the real space. I can. Here, the spatial data for the real space may include similar spatial data for a real space located within a preset range from the location information of the real space. Here, the spatial data for the real space may include location information of the real space, indoor flat area information, indoor image information, and a virtual object corresponding to a real object disposed in the real space.

여기서, 현실 공간의 위치 정보는 예를 들어, 사용자 단말(110)이 현실 공간 내부로의 진입 직전의 위치 정보(예컨대, 사용자 단말(110)의 GPS 좌표 정보)일 수 있다. 현실 공간의 실내 평면 영역 정보는 예를 들어, 사용자 단말(110)의 증강 현실 어플리케이션을 통해 인식된 현실 공간 내부의 바닥 평면 정보, 벽면 정보, 천장 평면 정보를 포함하는 다중의 실내 평면 영역 정보를 포함할 수 있다. 실내 영상 정보는 예를 들어, 사용자 단말(110)의 증강 현실 어플리케이션을 통해 현실 공간이 스캐닝되어 생성된 실내 평면 영역 별 영상 정보일 수 있다. 현실 객체에 대응되는 가상 객체는 현실 공간 내에 배치된 복수의 현실 객체 중 사용자 단말(110)에 의해 선정된 현실 객체(즉, 현실 공간을 대표하는 랜드마크)가 스캐닝되어 생성된 가상 객체일 수 있다. Here, the location information of the real space may be, for example, location information immediately before the user terminal 110 enters the real space (eg, GPS coordinate information of the user terminal 110). The indoor plan area information of the real space includes, for example, multiple indoor plan area information including floor plan information, wall surface information, and ceiling plan information within the real space recognized through an augmented reality application of the user terminal 110. can do. The indoor image information may be, for example, image information for each indoor plane area generated by scanning a real space through an augmented reality application of the user terminal 110. The virtual object corresponding to the real object may be a virtual object generated by scanning a real object (ie, a landmark representing the real space) selected by the user terminal 110 among a plurality of real objects arranged in the real space. .

여기서, 유사 공간 데이터는 현실 공간의 위치 정보로부터 기설정된 범위 내에 위치한 어느 현실 공간의 위치 정보 및 실내 평면 영역 정보(바닥 평면 정보, 벽면 정보, 천장 평면 정보를 포함하는 다중의 실내 평 면 영역 정보), 어느 현실 공간의 실내 영상 정보(실내 평면 영역 별 실내 영상 정보), 어느 현실 공간 내에 배치된 현실 객체에 대응되는 가상 객체를 포함할 수 있다. Here, the similar spatial data is the location information of a real space located within a preset range from the location information of the real space and information on the indoor plane area (multiple indoor plane area information including floor plan information, wall information, and ceiling plane information) , Indoor image information of a certain real space (indoor image information for each indoor flat area), and a virtual object corresponding to a real object disposed in a certain real space may be included.

전송부(510)는 증강 현실 서비스 제공 서버(100)에게 현실 공간에 대한 공간 데이터를 전송할 수 있다. 이후, 증강 현실 서비스 제공 서버(100)는 수신된 현실 공간에 대한 공간 데이터에 기초하여 기존에 해당 현실 공간에 대응하는 가상 공간이 생성되어 있는지 여부를 확인할 수 있다. 현실 공간에 대응하는 가상 공간이 생성되어 있지 않다고 판단된 경우, 증강 현실 서비스 제공 서버(100)는 수신된 현실 공간에 대한 공간 데이터에 기초하여 현실 공간에 대응하는 가상 공간을 생성할 수 있다. 만일, 현실 공간에 대응하는 가상 공간이 이미 생성되어 있다고 판단된 경우, 증강 현실 서비스 제공 서버(100)는 공간 데이터에 포함된 유사 공간 데이터에 기초하여 기생성된 가상 공간을 업데이트할 수 있다. The transmission unit 510 may transmit spatial data for a real space to the augmented reality service providing server 100. Thereafter, the augmented reality service providing server 100 may check whether a virtual space corresponding to the corresponding real space has been previously generated based on the received spatial data on the real space. When it is determined that a virtual space corresponding to the real space is not generated, the augmented reality service providing server 100 may generate a virtual space corresponding to the real space based on the received spatial data on the real space. If it is determined that a virtual space corresponding to the real space has already been created, the augmented reality service providing server 100 may update the para-generated virtual space based on the similar spatial data included in the spatial data.

생성부(500)는 증강 현실 어플리케이션을 통해 증강 현실 메시지를 작성할 수 있다. 예를 들어, 생성부(500)는 증강 현실 어플리케이션을 통해 제공되는 아바타 표정 타입, 아바타 행동 타입, 아바타 스타일 타입 등을 포함하는 아바타 꾸밈 리스트 중 사용자에 의해 선택된 아바타의 표정, 행동, 스타일에 기초하여 아바타를 생성하고, 사용자로부터 입력된 발자취 기록 메시지(예컨대, 음성 메시지, 텍스트 메시지, 동영상 메시지, 3D 드로잉 낙서 정보 등)와 생성된 아바타를 이용하여 증강 현실 메시지를 생성할 수 있다. The generation unit 500 may create an augmented reality message through an augmented reality application. For example, the generation unit 500 is based on the facial expression, behavior, and style of the avatar selected by the user from among the avatar embellishments list including avatar facial expression types, avatar behavior types, and avatar style types provided through an augmented reality application. An avatar may be created, and an augmented reality message may be generated using a message for recording the footsteps input from a user (eg, voice message, text message, video message, 3D drawing graffiti information, etc.) and the generated avatar.

전송부(510)는 현실 공간에 대한 공간 데이터와 함께 증강 현실 메시지 및 증강 현실 메시지에 설정된 노출 조건 정보를 증강 현실 서비스 제공 서버(100)에게 전송할 수 있다. 여기서, 노출 조건 정보는 상기 증강 현실 메시지가 노출되는 노출 공간 정보, 노출 시간 정보 및 수신자 정보 중 적어도 하나를 포함할 수 있다. 이후, 증강 현실 서비스 제공 서버(100)는 현실 공간에 대응하는 가상 공간 내에 증강 현실 메시지를 태깅할 수 있다. 또한, 증강 현실 서비스 제공 서버(100)는 지도앱을 통해 제공되는 지도 데이터 중 현실 공간의 위치 정보에 대응하는 지점에 가상 정보에 태깅된 증강 현실 메시지를 매핑시킬 수 있다. 해당 증강 현실 메시지는 사용자 단말(110)에 의해 설정된 노출 조건 정보에 기초하여 다른 사용자 단말로 전송될 수 있다. The transmission unit 510 may transmit the augmented reality message and exposure condition information set in the augmented reality message together with spatial data for the real space to the augmented reality service providing server 100. Here, the exposure condition information may include at least one of exposure space information, exposure time information, and receiver information in which the augmented reality message is exposed. Thereafter, the augmented reality service providing server 100 may tag an augmented reality message in a virtual space corresponding to the real space. In addition, the augmented reality service providing server 100 may map an augmented reality message tagged to virtual information to a point corresponding to location information of a real space among map data provided through a map app. The augmented reality message may be transmitted to another user terminal based on exposure condition information set by the user terminal 110.

한편, 수신부(520)는 증강 현실 서비스 제공 서버(100)로부터 현실 공간에 대응하는 가상 공간 내의 특정 위치에 태깅된 다른 증강 현실 메시지(타사용자 단말(120)에 의해 작성된 메시지)를 수신할 수 있다. 여기서, 다른 증강 현실 메시지는 다른 증강 현실 메시지를 작성한 타사용자 단말(120)에 의해 설정된 다른 증강 현실 메시지에 대한 노출 조건 정보에 기초하여 사용자 단말(110)로 전송될 수 있다. 예를 들어, 수신부(520)는 사용자 단말(110)의 사용자가 타사용자 단말(120)에 의해 설정된 수신자 정보에 포함되고, 타사용자 단말(120)에 의해 설정된 노출 공간 상에 사용자 단말(110)이 위치하거나 현재 시간이 타사용자 단말(120)에 의해 설정된 노출 시간에 도달한 경우, 현실 공간에 대응하는 가상 공간 내에 태깅된 다른 증강 현실 메시지를 증강 현실 서비스 제공 서버(100)로부터 수신할 수 있다. Meanwhile, the receiving unit 520 may receive another augmented reality message (message created by the other user terminal 120) tagged to a specific location in the virtual space corresponding to the real space from the augmented reality service providing server 100. . Here, the other augmented reality message may be transmitted to the user terminal 110 based on exposure condition information for the other augmented reality message set by the other user terminal 120 that created the other augmented reality message. For example, the receiving unit 520 is included in the recipient information set by the user of the user terminal 110 by the other user terminal 120, the user terminal 110 on the exposed space set by the other user terminal 120 When this location or the current time reaches the exposure time set by the other user terminal 120, another augmented reality message tagged in the virtual space corresponding to the real space may be received from the augmented reality service providing server 100 .

다른 일 실시예로, 수신부(520)는 증강 현실 서비스 제공 서버(100)로 전송한 현실 공간에 대한 공간 데이터에 포함된 실내 영상 정보의 복수의 실내 평면 영역 별 영상 특징점과 기생성된 가상 공간을 구성하는 복수의 실내 평면 영역 별 영상 특징점 간의 비교 결과에 기초하여 증강 현실 서비스 제공 서버(100)로부터 증강 현실 메시지를 수신할 수 있다. In another embodiment, the receiving unit 520 stores image feature points and para-generated virtual spaces for each of a plurality of indoor plane areas of indoor image information included in spatial data for a real space transmitted to the augmented reality service providing server 100. An augmented reality message may be received from the augmented reality service providing server 100 based on a result of comparison between image feature points for each of a plurality of configured indoor flat areas.

다른 일 실시예로, 수신부(520)는 증강 현실 서비스 제공 서버(100)로 전송한 현실 공간에 대한 공간 데이터에 포함된 가상 객체와 기생성된 가상 공간에 배치된 가상 객체 간의 비교 결과에 기초하여 증강 현실 서비스 제공 서버(100)로부터 증강 현실 메시지를 수신할 수 있다. In another embodiment, the receiver 520 is based on a comparison result between the virtual object included in the spatial data for the real space transmitted to the augmented reality service providing server 100 and the virtual object disposed in the para-generated virtual space. An augmented reality message may be received from the augmented reality service providing server 100.

출력부(530)는 증강 현실 서비스 제공 서버(100)로부터 수신된 증강 현실 메시지를 사용자 단말(110)의 화면에 출력할 수 있다. The output unit 530 may output the augmented reality message received from the augmented reality service providing server 100 on the screen of the user terminal 110.

출력부(530)는 사용자 단말(110)이 노출 공간 정보(타사용자 단말(120)에 의해 설정된 다른 증강 현실 메시지에 대한 노출 조건 정보에 포함된 정보)에 대응하는 현실 공간에 위치하는 경우, 사용자 단말(110)이 촬영한 영상의 시야 범위 내에 다른 증강 현실 메시지를 증강시켜 출력할 수 있다. 예를 들어, 도 6a를 참조하면, 출력부(530)는 사용자 단말(110)이 특정 관광 스팟 공간(예컨대, 첨성대가 위치한 공간)를 촬영하면, 해당 관광 스팟 공간에 대응하는 가상 공간에 태깅된 타사용자 단말(120)의 다른 증강 현실 메시지(601)를 촬영 영상 화면에 증강시켜 출력할 수 있다. When the user terminal 110 is located in a real space corresponding to the exposure space information (information included in the exposure condition information for another augmented reality message set by the other user terminal 120), the user terminal 110 Another augmented reality message within the field of view of the image captured by the terminal 110 may be augmented and output. For example, referring to FIG. 6A, when the user terminal 110 photographs a specific tourist spot space (eg, a space where Cheomseongdae is located), the output unit 530 is tagged in a virtual space corresponding to the tourist spot space. Another augmented reality message 601 of the other user terminal 120 may be augmented and output on the captured image screen.

출력부(530)는 사용자 단말(110)을 통해 표시되는 지도로부터 가상 공간이 생성된 현실 공간이 위치하는 지점을 선택받은 경우, 가상 공간을 통해 가상 공간에 태깅된 증강 현실 메시지를 사용자 단말(110)의 화면에 출력할 수 있다. 예를 들어, 도 6b를 참조하면, 출력부(530)는 지도앱을 통해 제공되는 지도 데이터(603) 중 가상 공간이 매핑된 특정 지점(605)을 사용자로부터 선택받으면, 가상 공간(607) 또는 타사용자 단말(120)의 아바타를 통해 가상 공간(607)에 태깅된 증강 현실 메시지를 확인할 수 있다. The output unit 530 transmits an augmented reality message tagged to the virtual space through the virtual space when a point where the real space where the virtual space is created is selected from the map displayed through the user terminal 110. ) Can be printed on the screen. For example, referring to FIG. 6B, when the user selects a specific point 605 to which a virtual space is mapped among map data 603 provided through a map app, the virtual space 607 or The augmented reality message tagged in the virtual space 607 may be checked through the avatar of the other user terminal 120.

다른 실시예로, 도 6c를 참조하면, 증강 현실 서비스 제공 서버(100)에 의해 사용자 단말(110) 및 타사용자 단말(120) 간 증강 현실 서비스가 동기화된 후, 현실 공간에 위치한 사용자 단말(110)이 현실 객체를 촬영하면, 촬영된 현실 객체(609)에 대응하는 가상 객체(611)가 타사용자 단말(120)의 화면에 증강되어 표시될 수 있다. 이 때, 타사용자 단말(120)에 증강되어 표시된 현실 객체(609)에 대응하는 가상 객체(611)에 타사용자 단말(120)이 드로잉을 하게 되면, 해당 드로잉된 표식(613)이 사용자 단말(110)의 촬영 화면 영상에 동일하게 증강되어 표시될 수 있다. 이를 통해, 사용자들이 같은 공간에 위치하지 않더라도 증강 현실 서비스를 통해 정보를 공유하는 커뮤니케이션을 수행할 수 있다. In another embodiment, referring to FIG. 6C, after the augmented reality service is synchronized between the user terminal 110 and the other user terminal 120 by the augmented reality service providing server 100, the user terminal 110 located in the real space ) Photographs a real object, a virtual object 611 corresponding to the photographed real object 609 may be augmented and displayed on the screen of the other user terminal 120. At this time, when the other user terminal 120 draws on the virtual object 611 corresponding to the real object 609 augmented and displayed on the other user terminal 120, the drawn mark 613 110) may be similarly augmented and displayed on the photographed screen image. Through this, even if users are not located in the same space, communication for sharing information through an augmented reality service can be performed.

한편, 당업자라면, 생성부(500), 전송부(510), 수신부(520) 및 출력부(530) 각각이 분리되어 구현되거나, 이 중 하나 이상이 통합되어 구현될 수 있음을 충분히 이해할 것이다. On the other hand, those skilled in the art will fully understand that each of the generation unit 500, the transmission unit 510, the reception unit 520, and the output unit 530 may be implemented separately, or one or more of them may be integrated and implemented.

도 7은 본 발명의 일 실시예에 따른, 증강 현실 서비스 제공 서버(100)에서 증강 현실 서비스 제공 방법을 나타낸 흐름도이다. 7 is a flowchart illustrating a method of providing an augmented reality service in the augmented reality service providing server 100 according to an embodiment of the present invention.

도 7을 참조하면, 단계 S701에서 증강 현실 서비스 제공 서버(100)는 사용자 단말(110)로부터 현실 공간에 대한 공간 데이터를 수신할 수 있다. 여기서, 현실 공간에 대한 공간 데이터는 현실 공간의 위치 정보 및 실내 평면 영역 정보를 포함할 수 있다. Referring to FIG. 7, in step S701, the augmented reality service providing server 100 may receive spatial data for a real space from the user terminal 110. Here, the spatial data on the real space may include location information on the real space and information on the indoor flat area.

단계 S703에서 증강 현실 서비스 제공 서버(100)는 현실 공간에 대한 공간 데이터에 기초하여 현실 공간에 대응하는 가상 공간을 생성할 수 있다. In step S703, the augmented reality service providing server 100 may generate a virtual space corresponding to the real space based on spatial data on the real space.

단계 S705에서 증강 현실 서비스 제공 서버(100)는 사용자 단말(110)에 의해 작성된 증강 현실 메시지를 가상 공간 내의 특정 위치에 태깅할 수 있다. In step S705, the augmented reality service providing server 100 may tag the augmented reality message created by the user terminal 110 to a specific location in the virtual space.

단계 S707에서 증강 현실 서비스 제공 서버(100)는 사용자 단말(110)로부터 설정받은 증강 현실 메시지에 대한 노출 조건 정보에 기초하여 증강 현실 메시지를 적어도 하나의 타사용자 단말(120)로 전송할 수 있다. 여기서, 노출 조건 정보는 증강 현실 메시지가 노출되는 노출 공간 정보, 노출 시간 정보 및 수신자 정보 중 적어도 하나를 포함할 수 있다.In step S707, the augmented reality service providing server 100 may transmit the augmented reality message to at least one other user terminal 120 based on exposure condition information for the augmented reality message set from the user terminal 110. Here, the exposure condition information may include at least one of exposure space information, exposure time information, and receiver information in which the augmented reality message is exposed.

상술한 설명에서, 단계 S701 내지 S707은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. In the above description, steps S701 to S707 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present invention. In addition, some steps may be omitted as necessary, or the order between steps may be changed.

도 8은 본 발명의 일 실시예에 따른, 사용자 단말(110)에서 증강 현실 서비스 제공 방법을 나타낸 흐름도이다. 8 is a flowchart illustrating a method of providing an augmented reality service in the user terminal 110 according to an embodiment of the present invention.

도 8을 참조하면, 단계 S801에서 사용자 단말(110)은 현실 공간에 대응하는 가상 공간을 생성하기 위한 현실 공간에 대한 공간 데이터를 생성할 수 있다. 여기서, 현실 공간에 대한 공간 데이터는 현실 공간의 위치 정보 및 실내 평면 영역 정보를 포함할 수 있다. Referring to FIG. 8, in step S801, the user terminal 110 may generate spatial data for a real space for generating a virtual space corresponding to the real space. Here, the spatial data on the real space may include location information on the real space and information on the indoor flat area.

단계 S803에서 사용자 단말(110)은 증강 현실 서비스 제공 서버(100)에게 현실 공간에 대한 공간 데이터를 전송할 수 있다. In step S803, the user terminal 110 may transmit spatial data for a real space to the augmented reality service providing server 100.

단계 S805에서 사용자 단말(110)은 증강 현실 서비스 제공 서버(100)로부터 현실 공간에 대응하는 가상 공간 내의 특정 위치에 태깅된 증강 현실 메시지를 수신할 수 있다. In step S805, the user terminal 110 may receive an augmented reality message tagged to a specific location in the virtual space corresponding to the real space from the augmented reality service providing server 100.

단계 S807에서 사용자 단말(110)은 증강 현실 메시지를 사용자 단말(110)의 화면에 출력할 수 있다. In step S807, the user terminal 110 may output an augmented reality message on the screen of the user terminal 110.

상술한 설명에서, 단계 S801 내지 S807은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. In the above description, steps S801 to S807 may be further divided into additional steps or may be combined into fewer steps, according to an embodiment of the present invention. In addition, some steps may be omitted as necessary, or the order between steps may be changed.

본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. An embodiment of the present invention may also be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by a computer. Computer-readable media can be any available media that can be accessed by a computer, and includes both volatile and nonvolatile media, removable and non-removable media. Further, the computer-readable medium may include all computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The above description of the present invention is for illustrative purposes only, and those of ordinary skill in the art to which the present invention pertains will be able to understand that other specific forms can be easily modified without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative and non-limiting in all respects. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. The scope of the present invention is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. .

100: 증강 현실 서비스 제공 서버
110: 사용자 단말
120: 타사용자 단말
200: 수신부
210: 가상 공간 생성부
212: 업데이트부
220: 태깅부
230: 전송부
500: 생성부
510: 전송부
520: 수신부
530: 출력부
100: augmented reality service providing server
110: user terminal
120: other user terminal
200: receiver
210: virtual space generation unit
212: update unit
220: tagging unit
230: transmission unit
500: generation unit
510: transmission unit
520: receiver
530: output

Claims (19)

증강 현실 서비스를 제공하는 서버에 있어서,
사용자 단말로부터 현실 공간에 대한 공간 데이터를 수신하는 수신부;
상기 공간 데이터에 기초하여 상기 현실 공간에 대응하는 가상 공간을 생성하는 가상 공간 생성부;
상기 사용자 단말에 의해 작성된 증강 현실 메시지를 상기 가상 공간 내의 특정 위치에 태깅하는 태깅부; 및
상기 사용자 단말로부터 설정받은 상기 증강 현실 메시지에 대한 노출 조건 정보에 기초하여 상기 증강 현실 메시지를 적어도 하나의 타사용자 단말로 전송하는 전송부를 포함하고,
상기 현실 공간에 대한 공간 데이터는 상기 현실 공간의 위치 정보 및 실내 평면 영역 정보를 포함하는 것인, 증강 현실 서비스 제공 서버.
In the server providing an augmented reality service,
A receiving unit for receiving spatial data for a real space from a user terminal;
A virtual space generator configured to generate a virtual space corresponding to the real space based on the spatial data;
A tagging unit for tagging the augmented reality message created by the user terminal to a specific location in the virtual space; And
A transmission unit for transmitting the augmented reality message to at least one other user terminal based on exposure condition information for the augmented reality message set from the user terminal,
The spatial data for the real space includes location information and indoor flat area information of the real space.
제 1 항에 있어서,
상기 가상 공간 생성부는 상기 실내 평면 영역 정보에 포함된 바닥 평면 정보, 벽면 정보 및 천장 평면 정보에 기초하여 가상의 평면 공간을 생성하는 것인, 증강 현실 서비스 제공 서버.
The method of claim 1,
The virtual space generation unit generates a virtual flat space based on floor plan information, wall surface information, and ceiling plan information included in the indoor plan area information.
제 2 항에 있어서,
상기 현실 공간에 대한 공간 데이터는 상기 현실 공간이 스캐닝되어 생성된 실내 영상 정보를 더 포함하고,
상기 가상 공간 생성부는 상기 실내 영상 정보에 포함된 복수의 실내 평면 영역 별 영상으로부터 영상 특징점을 추출하고,
상기 생성된 가상의 평면 공간에 상기 추출된 영상 특징점을 매핑하여 상기 가상 공간을 생성하는 것인, 증강 현실 서비스 제공 서버.
The method of claim 2,
The spatial data for the real space further includes indoor image information generated by scanning the real space,
The virtual space generation unit extracts image feature points from images for each of a plurality of indoor plane areas included in the indoor image information,
The augmented reality service providing server for generating the virtual space by mapping the extracted image feature points to the generated virtual flat space.
제 3 항에 있어서,
상기 현실 공간에 대한 공간 데이터는 상기 현실 공간 내에 배치되어 있는 현실 객체가 스캐닝되어 생성된 가상 객체를 더 포함하고,
상기 가상 공간 생성부는 상기 현실 공간에 배치된 상기 현실 객체의 위치 정보에 기초하여 상기 생성된 가상 공간 상에 상기 가상 객체를 배치하는 것인, 증강 현실 서비스 제공 서버.
The method of claim 3,
The spatial data for the real space further includes a virtual object generated by scanning a real object disposed in the real space,
The virtual space generation unit to arrange the virtual object on the generated virtual space based on the location information of the real object disposed in the real space, augmented reality service providing server.
제 1 항에 있어서,
상기 수신부는 복수의 다른 사용자 단말로부터 상기 현실 공간의 위치 정보로부터 기설정된 범위 내에 위치하는 어느 현실 공간에 대한 유사 공간 데이터를 수신하고,
상기 가상 공간 생성부는
상기 유사 공간 데이터에 기초하여 상기 가상 공간을 업데이트하는 업데이트부를 포함하는 것인, 증강 현실 서비스 제공 서버.
The method of claim 1,
The receiving unit receives similar spatial data for a real space located within a preset range from the location information of the real space from a plurality of other user terminals,
The virtual space generation unit
The augmented reality service providing server comprising an update unit for updating the virtual space based on the similar space data.
제 5 항에 있어서,
상기 업데이트부는 상기 현실 공간에 대한 공간 데이터에 포함된 실내 평면 영역 정보와 상기 유사 공간 데이터에 포함된 실내 평면 영역 정보 간의 비교 결과에 기초하여 상기 가상 공간을 업데이트하는 것인, 증강 현실 서비스 제공 서버.
The method of claim 5,
The update unit updates the virtual space based on a comparison result between the indoor flat area information included in the spatial data for the real space and the indoor flat area information included in the similar spatial data.
제 6 항에 있어서,
상기 업데이트부는 상기 현실 공간에 대한 공간 데이터에 포함된 실내 영상 정보의 복수의 실내 평면 영역 별 영상 특징점과 상기 유사 공간 데이터에 포함된 실내 영상 정보의 복수의 실내 평면 영역 별 영상 특징점 간의 비교 결과에 기초하여 상기 가상 공간을 업데이트하는 것인, 증강 현실 서비스 제공 서버.
The method of claim 6,
The update unit is based on a comparison result between the image feature points for each of a plurality of indoor plane areas of the indoor image information included in the spatial data for the real space and the image feature points for each of the plurality of indoor plane areas of the indoor image information included in the similar spatial data. The augmented reality service providing server to update the virtual space.
제 7 항에 있어서,
상기 업데이트부는 상기 현실 공간에 대한 공간 데이터에 포함된 가상 객체와 상기 유사 공간 데이터에 포함된 가상 객체 간의 비교 결과에 기초하여 상기 가상 공간을 업데이트하는 것인, 증강 현실 서비스 제공 서버.
The method of claim 7,
The update unit updates the virtual space based on a comparison result between the virtual object included in the spatial data for the real space and the virtual object included in the similar spatial data.
제 1 항에 있어서,
상기 노출 조건 정보는 상기 증강 현실 메시지가 노출되는 노출 공간 정보, 노출 시간 정보 및 수신자 정보 중 적어도 하나를 포함하는 것인, 증강 현실 서비스 제공 서버.
The method of claim 1,
The exposure condition information includes at least one of exposure space information, exposure time information, and receiver information to which the augmented reality message is exposed.
제 9 항에 있어서,
상기 수신자 정보에 포함된 타사용자의 타사용자 단말이 상기 노출 공간 정보에 대응하는 현실 공간에 위치하는 경우, 상기 증강 현실 메시지는 상기 타사용자 단말이 촬영한 영상의 시야 범위 내에 증강되어 노출되는 것인, 증강 현실 서비스 제공 서버.
The method of claim 9,
When another user terminal of another user included in the recipient information is located in a real space corresponding to the exposure space information, the augmented reality message is augmented and exposed within the field of view of the image captured by the other user terminal. , Augmented reality service providing server.
제 9 항에 있어서,
상기 수신자 정보에 포함된 타사용자의 타사용자 단말을 통해 표시되는 지도에서 상기 현실 공간이 위치하는 지점이 선택된 경우, 상기 가상 공간을 통해 상기 가상 공간에 태깅된 상기 증강 현실 메시지가 상기 타사용자 단말에 표시되는 것인, 증강 현실 서비스 제공 서버.
The method of claim 9,
When a point where the real space is located on a map displayed through another user terminal of another user included in the recipient information is selected, the augmented reality message tagged to the virtual space through the virtual space is sent to the other user terminal. The augmented reality service providing server that is displayed.
증강 현실 서비스를 제공받는 사용자 단말에 있어서,
현실 공간에 대응하는 가상 공간을 생성하기 위한 상기 현실 공간에 대한 공간 데이터를 생성하는 생성부;
증강 현실 서비스 제공 서버로 상기 공간 데이터를 전송하는 전송부;
상기 증강 현실 서비스 제공 서버로부터 상기 현실 공간에 대응하는 가상 공간 내의 특정 위치에 태깅된 증강 현실 메시지를 수신하는 수신부; 및
상기 증강 현실 메시지를 상기 사용자 단말의 화면에 출력하는 출력부를 포함하되,
상기 현실 공간에 대한 공간 데이터는 상기 현실 공간의 위치 정보 및 실내 평면 영역 정보를 포함하고,
상기 증강 현실 메시지는 타사용자 단말에 의해 작성된 메시지이고, 상기 타사용자 단말에 의해 설정된 상기 증강 현실 메시지에 대한 노출 조건 정보에 기초하여 상기 사용자 단말로 전송되는 것인, 사용자 단말.
In a user terminal receiving an augmented reality service,
A generator for generating spatial data on the real space for generating a virtual space corresponding to the real space;
A transmission unit for transmitting the spatial data to an augmented reality service providing server;
A receiver configured to receive an augmented reality message tagged to a specific location in a virtual space corresponding to the real space from the augmented reality service providing server; And
Including an output unit for outputting the augmented reality message on the screen of the user terminal,
The spatial data for the real space includes location information and indoor flat area information of the real space,
The augmented reality message is a message created by another user terminal, and is transmitted to the user terminal based on exposure condition information for the augmented reality message set by the other user terminal.
제 12 항에 있어서,
상기 현실 공간에 대한 공간 데이터는 상기 현실 공간의 위치 정보로부터 기설정된 범위 내에 위치하는 어느 현실 공간에 대한 유사 공간 데이터를 포함하는 것인, 사용자 단말.
The method of claim 12,
The spatial data for the real space includes similar spatial data for a real space located within a preset range from the location information of the real space.
제 13 항에 있어서,
상기 가상 공간은 상기 공간 데이터 및 상기 유사 공간 데이터에 기초하여 상기 증강 현실 서비스 제공 서버에 의해 업데이트되는 것인, 사용자 단말.
The method of claim 13,
The virtual space is updated by the augmented reality service providing server based on the spatial data and the similar spatial data.
제 12 항에 있어서,
상기 노출 조건 정보는 상기 증강 현실 메시지가 노출되는 노출 공간 정보, 노출 시간 정보 및 수신자 정보 중 적어도 하나를 포함하는 것인, 사용자 단말.
The method of claim 12,
The exposure condition information includes at least one of exposure space information, exposure time information, and receiver information to which the augmented reality message is exposed.
제 15 항에 있어서,
상기 출력부는 상기 사용자 단말이 상기 노출 공간 정보에 대응하는 상기 현실 공간에 위치하는 경우, 상기 사용자 단말이 촬영한 영상의 시야 범위 내에 상기 증강 현실 메시지를 증강시켜 출력하는 것인, 사용자 단말.
The method of claim 15,
When the user terminal is located in the real space corresponding to the exposure space information, the output unit augments and outputs the augmented reality message within a viewing range of an image captured by the user terminal.
제 16 항에 있어서,
상기 출력부는 상기 사용자 단말을 통해 표시되는 지도로부터 상기 현실 공간이 위치하는 지점을 선택받은 경우, 상기 가상 공간을 통해 상기 가상 공간에 태깅된 상기 증강 현실 메시지를 상기 사용자 단말의 화면에 출력하는 것인, 사용자 단말.
The method of claim 16,
The output unit outputs the augmented reality message tagged to the virtual space through the virtual space on the screen of the user terminal when a point where the real space is located is selected from the map displayed through the user terminal. , User terminal.
제 12 항에 있어서,
상기 현실 공간에 대한 공간 데이터는 상기 현실 공간이 스캐닝되어 생성된 실내 영상 정보를 더 포함하고,
상기 수신부는 상기 현실 공간에 대한 공간 데이터에 포함된 상기 실내 영상 정보의 복수의 실내 평면 영역 별 영상 특징점과 상기 가상 공간을 구성하는 복수의 실내 평면 영역 별 영상 특징점 간의 비교 결과에 기초하여 상기 증강 현실 서비스 제공 서버로부터 상기 증강 현실 메시지를 수신하는 것인, 사용자 단말.
The method of claim 12,
The spatial data for the real space further includes indoor image information generated by scanning the real space,
The augmented reality based on a comparison result between the image feature points for each of a plurality of indoor plane regions of the indoor image information included in the spatial data for the real space and the image feature points for each of a plurality of indoor plane regions constituting the virtual space. To receive the augmented reality message from the service providing server, the user terminal.
증강 현실 서비스 제공 서버에 의해 증강 현실 서비스를 제공하는 방법에 있어서,
사용자 단말로부터 현실 공간에 대한 공간 데이터를 수신하는 단계;
상기 공간 데이터에 기초하여 상기 현실 공간에 대응하는 가상 공간을 생성하는 단계;
상기 사용자 단말에 의해 작성된 증강 현실 메시지를 상기 가상 공간 내의 특정 위치에 태깅하는 단계;
상기 사용자 단말로부터 설정받은 상기 증강 현실 메시지에 대한 노출 조건 정보에 기초하여 상기 증강 현실 메시지를 적어도 하나의 타사용자 단말로 전송하는 단계를 포함하고,
상기 현실 공간에 대한 공간 데이터는 상기 현실 공간의 위치 정보 및 실내 평면 영역 정보를 포함하는 것인, 증강 현실 서비스 제공 방법.
In the method of providing an augmented reality service by an augmented reality service providing server,
Receiving spatial data for a real space from a user terminal;
Creating a virtual space corresponding to the real space based on the spatial data;
Tagging the augmented reality message created by the user terminal at a specific location in the virtual space;
Transmitting the augmented reality message to at least one other user terminal based on exposure condition information for the augmented reality message set from the user terminal,
The spatial data for the real space includes location information of the real space and information on an indoor flat area.
KR1020190118408A 2019-09-25 2019-09-25 Server, device and method for providing augmented reality KR20210036212A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190118408A KR20210036212A (en) 2019-09-25 2019-09-25 Server, device and method for providing augmented reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190118408A KR20210036212A (en) 2019-09-25 2019-09-25 Server, device and method for providing augmented reality

Publications (1)

Publication Number Publication Date
KR20210036212A true KR20210036212A (en) 2021-04-02

Family

ID=75466720

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190118408A KR20210036212A (en) 2019-09-25 2019-09-25 Server, device and method for providing augmented reality

Country Status (1)

Country Link
KR (1) KR20210036212A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102420840B1 (en) * 2022-02-04 2022-07-18 크로스잡 주식회사 Method and apparatus for providing a job recruiting platform based on metaverse service
WO2022240080A1 (en) * 2021-05-11 2022-11-17 Samsung Electronics Co., Ltd. Method and device for providing ar service in communication system
WO2023090742A1 (en) * 2021-11-16 2023-05-25 박문관 Method of providing digital twin service based on reality verification
KR20230077189A (en) * 2021-11-25 2023-06-01 주식회사 스탠스 Apparatus, user device and method for providing augmented reality contents
WO2023120770A1 (en) * 2021-12-22 2023-06-29 엔센스코리아주식회사 Method and apparatus for interaction between cognitive mesh information generated in three-dimensional space and virtual objects
WO2023128591A1 (en) * 2021-12-30 2023-07-06 이재학 Metaverse providing method and metaverse providing system
WO2023244753A1 (en) * 2022-06-15 2023-12-21 Design Reactor, Inc. Augmented reality hierarchical device localization

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101729012B1 (en) 2010-10-28 2017-04-25 에스케이플래닛 주식회사 Operation System For Virtual Bulletin Board based on the Augmented Reality And Operating Method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101729012B1 (en) 2010-10-28 2017-04-25 에스케이플래닛 주식회사 Operation System For Virtual Bulletin Board based on the Augmented Reality And Operating Method thereof

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022240080A1 (en) * 2021-05-11 2022-11-17 Samsung Electronics Co., Ltd. Method and device for providing ar service in communication system
WO2023090742A1 (en) * 2021-11-16 2023-05-25 박문관 Method of providing digital twin service based on reality verification
KR20230077189A (en) * 2021-11-25 2023-06-01 주식회사 스탠스 Apparatus, user device and method for providing augmented reality contents
WO2023120770A1 (en) * 2021-12-22 2023-06-29 엔센스코리아주식회사 Method and apparatus for interaction between cognitive mesh information generated in three-dimensional space and virtual objects
WO2023128591A1 (en) * 2021-12-30 2023-07-06 이재학 Metaverse providing method and metaverse providing system
KR102420840B1 (en) * 2022-02-04 2022-07-18 크로스잡 주식회사 Method and apparatus for providing a job recruiting platform based on metaverse service
KR102456158B1 (en) * 2022-02-04 2022-10-19 크로스잡 주식회사 Method and apparatus for creating a virtual space inside a company to provide job seekers with an indirect experience service for the company
KR102456160B1 (en) * 2022-02-04 2022-10-19 크로스잡 주식회사 Method and apparatus for providing a job search matching service between the job seekeer and the company's hiring manager based on the job seeker's interest in the company determined through the metaverse service
WO2023244753A1 (en) * 2022-06-15 2023-12-21 Design Reactor, Inc. Augmented reality hierarchical device localization

Similar Documents

Publication Publication Date Title
KR20210036212A (en) Server, device and method for providing augmented reality
JP2019533372A (en) Panorama image display control method, apparatus, and storage medium
EP2974509B1 (en) Personal information communicator
CN111295872B (en) Method, system and readable medium for obtaining image data of an object in a scene
KR102402580B1 (en) Image processing system and method in metaverse environment
KR101769852B1 (en) System for mediating real estate trading using dron
US11989400B2 (en) Data sharing method and device
KR20210004862A (en) Method, system and non-transitory computer-readable recording medium for supporting user experience sharing
BR112019009494A2 (en) computing device to support an augmented reality application, augmented reality application support method, and computer readable storage
CN105786173A (en) Method And System For Remote Viewing Via Wearable Electronic Devices
KR20220024302A (en) System for authenticating image based on blockchain and hash encryption technique and method thereof
KR20200073784A (en) Server, device and method for providing virtual reality service
US10102675B2 (en) Method and technical equipment for determining a pose of a device
KR101132512B1 (en) System for generating 3D mobile augmented reality based on the user
CN110635995A (en) Method, device and system for realizing interaction between users
KR20200081062A (en) Device, server and method for providing call connection video using avatar
KR20220124676A (en) Real Estate Information Providing Method and the Application Performing thereof
JP7225016B2 (en) AR Spatial Image Projection System, AR Spatial Image Projection Method, and User Terminal
KR102620477B1 (en) Server, device and method for providing augmented reality service
CN107426522B (en) Video method and system based on virtual reality equipment
KR102097199B1 (en) Method and apparatus for providing image based on position
JP6187037B2 (en) Image processing server, image processing system, and program
KR20170000191A (en) Mehod for providing content in terminal and terminal thereof
US20240087157A1 (en) Image processing method, recording medium, image processing apparatus, and image processing system
KR20200076224A (en) Method and user terminal device for recommending clothing store

Legal Events

Date Code Title Description
A201 Request for examination