KR102620477B1 - Server, device and method for providing augmented reality service - Google Patents

Server, device and method for providing augmented reality service Download PDF

Info

Publication number
KR102620477B1
KR102620477B1 KR1020180171105A KR20180171105A KR102620477B1 KR 102620477 B1 KR102620477 B1 KR 102620477B1 KR 1020180171105 A KR1020180171105 A KR 1020180171105A KR 20180171105 A KR20180171105 A KR 20180171105A KR 102620477 B1 KR102620477 B1 KR 102620477B1
Authority
KR
South Korea
Prior art keywords
augmented reality
image
interest
information
user terminal
Prior art date
Application number
KR1020180171105A
Other languages
Korean (ko)
Other versions
KR20200081026A (en
Inventor
김광중
전은솜
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020180171105A priority Critical patent/KR102620477B1/en
Publication of KR20200081026A publication Critical patent/KR20200081026A/en
Application granted granted Critical
Publication of KR102620477B1 publication Critical patent/KR102620477B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • G06Q50/265Personal security, identity or safety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

증강 현실 서비스를 제공하는 증강 현실 제공 서버는 복수의 카메라로부터 영상을 수신하는 수신부, 수신된 영상으로부터 적어도 하나의 관심 객체를 검출하고, 검출된 관심 객체를 분석하는 객체 분석부, 수신된 영상을 통해 영상이 촬영된 상황을 판단하는 상황 판단부, 분석된 관심 객체에 대한 정보 및 판단된 상황에 기초하여 증강 현실 데이터를 생성하는 생성부, 영상에 생성된 증강 현실 데이터를 합성하는 합성부 및 증강 현실 데이터가 합성된 영상을 사용자 단말로 제공하는 제공부를 포함할 수 있다. The augmented reality providing server that provides the augmented reality service includes a receiving unit that receives images from a plurality of cameras, an object analysis unit that detects at least one object of interest from the received images and analyzes the detected object of interest, and an object analysis unit that analyzes the detected object of interest through the received images. A situation determination unit that determines the situation in which the image was captured, a generation unit that generates augmented reality data based on information on the analyzed object of interest and the determined situation, a synthesis unit that synthesizes the augmented reality data generated in the image, and augmented reality. It may include a providing unit that provides an image composed of data to a user terminal.

Description

증강 현실 서비스를 제공하는 서버, 단말 및 방법{SERVER, DEVICE AND METHOD FOR PROVIDING AUGMENTED REALITY SERVICE}Server, terminal and method for providing augmented reality service {SERVER, DEVICE AND METHOD FOR PROVIDING AUGMENTED REALITY SERVICE}

본 발명은 증강 현실 서비스를 제공하는 서버, 단말 및 방법에 관한 것이다.The present invention relates to a server, terminal, and method for providing augmented reality services.

증강 현실 기술은 실제 세계를 촬영한 영상에 가상의 물체를 합성하여 표시하는 기술이다. 이러한, 증강 현실 기술은 현실 세계의 기반에 가상사물을 합성하여 현실 세계만으로는 얻기 어려운 부가적인 정보들을 보강해 제공할 수 있다. Augmented reality technology is a technology that synthesizes and displays virtual objects on images of the real world. This augmented reality technology can synthesize virtual objects on the basis of the real world and provide additional information that is difficult to obtain through the real world alone.

한편, 모바일 단말을 이용한 증강현실 서비스에 대한 보급이 보편화되면서 모바일 단말기의 증강현실을 이용한 다양한 부가서비스에 대한 사용자 요구가 증대하고 있고, 모바일 단말의 사용자에게 다양한 증강현실 컨텐츠를 제공하려는 노력이 활발히 진행되고 있다. Meanwhile, as the spread of augmented reality services using mobile terminals becomes widespread, user demand for various additional services using augmented reality on mobile terminals is increasing, and efforts to provide various augmented reality contents to users of mobile terminals are actively underway. It is becoming.

한국등록특허공보 제10-1757884호 (2017.07.07. 등록)Korean Patent Publication No. 10-1757884 (registered on July 7, 2017)

본 발명은 영상으로부터 검출된 관심 객체에 대한 정보 및 영상을 통해 판단된 상황에 기초하여 증강 현실 데이터를 생성하고, 영상에 증강 현실 데이터를 합성하여 사용자 단말에게 제공하고자 한다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다. The present invention is intended to generate augmented reality data based on information about objects of interest detected from an image and situations determined through the image, and to provide the augmented reality data to a user terminal by combining the augmented reality data with the image. However, the technical challenges that this embodiment aims to achieve are not limited to the technical challenges described above, and other technical challenges may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 증강 현실 서비스를 제공하는 증강 현실 제공 서버는 복수의 카메라로부터 영상을 수신하는 수신부; 상기 수신된 영상으로부터 적어도 하나의 관심 객체를 검출하고, 검출된 관심 객체를 분석하는 객체 분석부; 상기 수신된 영상을 통해 상기 영상이 촬영된 상황을 판단하는 상황 판단부; 상기 분석된 관심 객체에 대한 정보 및 상기 판단된 상황에 기초하여 증강 현실 데이터를 생성하는 생성부; 상기 영상에 상기 생성된 증강 현실 데이터를 합성하는 합성부; 및 상기 증강 현실 데이터가 합성된 영상을 사용자 단말로 제공하는 제공부를 포함할 수 있다. As a technical means for achieving the above-described technical problem, an augmented reality providing server that provides an augmented reality service according to the first aspect of the present invention includes a receiving unit that receives images from a plurality of cameras; an object analysis unit that detects at least one object of interest from the received image and analyzes the detected object of interest; a situation determination unit that determines a situation in which the image was captured based on the received image; a generator that generates augmented reality data based on information about the analyzed object of interest and the determined situation; a synthesis unit that synthesizes the generated augmented reality data with the image; and a providing unit that provides an image synthesized with the augmented reality data to a user terminal.

본 발명의 제 2 측면에 따른 증강 현실 서비스를 제공하는 사용자 단말은 증강 현실 제공 서버로 상기 증강 현실 서비스를 요청하는 요청부; 상기 증강 현실 제공 서버로부터 상기 증강 현실 서비스에 대응하는 증강 현실 데이터가 합성된 영상을 수신하는 수신부; 및 상기 수신된 증강 현실 데이터가 합성된 영상을 출력하는 출력부를 포함하고, 상기 증강 현실 데이터는 복수의 카메라로부터 수신된 영상으로부터 검출 및 분석된 관심 객체에 대한 정보 및 상기 영상이 촬영된 것으로 판단된 상황에 기초하여 생성될 수 있다. A user terminal providing an augmented reality service according to a second aspect of the present invention includes a request unit that requests the augmented reality service from an augmented reality providing server; a receiving unit that receives an image synthesized with augmented reality data corresponding to the augmented reality service from the augmented reality providing server; and an output unit that outputs an image synthesized from the received augmented reality data, wherein the augmented reality data includes information on an object of interest detected and analyzed from images received from a plurality of cameras and a determination that the image was captured. It can be created based on the situation.

본 발명의 제 3 측면에 따른 증강 현실 제공 서버에서 증강 현실 서비스를 제공하는 방법은 복수의 카메라로부터 영상을 수신하는 단계; 상기 수신된 영상으로부터 적어도 하나의 관심 객체를 검출하고, 검출된 관심 객체를 분석하는 단계; 상기 수신된 영상을 통해 상기 영상이 촬영된 상황을 판단하는 단계; 상기 분석된 관심 객체에 대한 정보 및 상기 판단된 상황에 기초하여 증강 현실 데이터를 생성하는 단계; 상기 영상에 상기 생성된 증강 현실 데이터를 합성하는 단계; 및 상기 증강 현실 데이터가 합성된 영상을 사용자 단말로 제공하는 단계를 포함할 수 있다. A method of providing an augmented reality service in an augmented reality providing server according to a third aspect of the present invention includes receiving images from a plurality of cameras; Detecting at least one object of interest from the received image and analyzing the detected object of interest; determining a situation in which the image was captured through the received image; generating augmented reality data based on information about the analyzed object of interest and the determined situation; synthesizing the generated augmented reality data with the image; And it may include providing an image synthesized with the augmented reality data to a user terminal.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본 발명을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 기재된 추가적인 실시예가 존재할 수 있다.The above-described means for solving the problem are merely illustrative and should not be construed as limiting the present invention. In addition to the exemplary embodiments described above, there may be additional embodiments described in the drawings and detailed description of the invention.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 본 발명은 영상으로부터 검출된 관심 객체에 대한 정보 및 영상을 통해 판단된 상황에 기초하여 증강 현실 데이터를 생성하고, 영상에 증강 현실 데이터를 합성하여 사용자 단말에게 제공할 수 있다. 이를 통해, 본 발명은 사용자가 매장에 직접 방문하지 않아도 증강 현실 데이터가 합성된 영상을 통해 매장에 대한 정보를 사용자에게 제공할 수 있고, 사용자의 위치로부터 매장으로의 경로 안내 서비스를 제공할 수 있다. 본 발명은 다른 실시예에 따라 재난 발생 상황에서 증강 현실 데이터가 합성된 영상을 통해 사용자에게 탈출 경로를 제공할 수 있기 때문에 사용자는 재난 현장에서 안전하고 신속하게 탈출할 수 있다. 본 발명은 미아 신고가 접수되면, 실종 아동을 신속하게 찾을 수 있도록 영상을 통해 실종 아동에 대한 이동 경로를 추적하고, 추적된 이동 경로를 사용자 단말로 제공할 수 있다. According to one of the means for solving the problems of the present invention described above, the present invention generates augmented reality data based on information about an object of interest detected from an image and a situation determined through the image, and synthesizes augmented reality data into the image. This can be provided to the user terminal. Through this, the present invention can provide information about the store to the user through an image synthesized with augmented reality data even if the user does not visit the store directly, and can provide a route guidance service from the user's location to the store. . According to another embodiment of the present invention, in a disaster situation, an escape route can be provided to the user through an image synthesized with augmented reality data, so that the user can safely and quickly escape from the disaster site. The present invention can track the movement path of a missing child through video and provide the tracked movement route to the user terminal so that the missing child can be quickly found when a missing child report is received.

도 1은 본 발명의 일 실시예에 따른, 증강 현실 서비스 제공 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른, 도 1에 도시된 증강 현실 제공 서버의 블록도이다.
도 3a 내지 3b는 본 발명의 일 실시예에 따른, 증강 현실 서비스를 제공하는 방법을 설명하기 위한 도면이다.
도 4a 내지 4c는 본 발명의 다른 일 실시예에 따른, 증강 현실 서비스를 제공하는 방법을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 증강 현실 제공 서버에서 증강 현실 서비스를 제공하는 방법을 나타낸 흐름도이다.
도 6은 본 발명의 일 실시예에 따른, 도 1에 도시된 사용자 단말의 블록도이다.
도 7은 본 발명의 일 실시예에 따른, 사용자 단말에서 증강 현실 서비스를 제공하는 방법을 나타낸 흐름도이다.
1 is a configuration diagram of an augmented reality service providing system according to an embodiment of the present invention.
FIG. 2 is a block diagram of the augmented reality providing server shown in FIG. 1 according to an embodiment of the present invention.
3A to 3B are diagrams for explaining a method of providing an augmented reality service according to an embodiment of the present invention.
4A to 4C are diagrams for explaining a method of providing an augmented reality service according to another embodiment of the present invention.
Figure 5 is a flowchart showing a method of providing an augmented reality service in an augmented reality providing server according to an embodiment of the present invention.
Figure 6 is a block diagram of the user terminal shown in Figure 1, according to an embodiment of the present invention.
Figure 7 is a flowchart showing a method of providing an augmented reality service in a user terminal, according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts that are not related to the description are omitted, and similar parts are given similar reference numerals throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected," but also the case where it is "electrically connected" with another element in between. . Additionally, when a part "includes" a certain component, this means that it may further include other components rather than excluding other components, unless specifically stated to the contrary.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. In this specification, 'part' includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Additionally, one unit may be realized using two or more pieces of hardware, and two or more units may be realized using one piece of hardware.

본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다. In this specification, some of the operations or functions described as being performed by a terminal or device may instead be performed on a server connected to the terminal or device. Likewise, some of the operations or functions described as being performed by the server may also be performed on a terminal or device connected to the server.

이하, 첨부된 구성도 또는 처리 흐름도를 참고하여, 본 발명의 실시를 위한 구체적인 내용을 설명하도록 한다. Hereinafter, specific details for implementing the present invention will be described with reference to the attached configuration diagram or processing flow diagram.

도 1은 본 발명의 일 실시예에 따른, 증강 현실 서비스 제공 시스템의 구성도이다. 1 is a configuration diagram of an augmented reality service providing system according to an embodiment of the present invention.

도 1을 참조하면, 증강 현실 서비스 제공 시스템은 증강 현실 제공 서버(100) 및 사용자 단말(110)을 포함할 수 있다. 다만, 이러한 도 1의 증강 현실 서비스 제공 시스템은 본 발명의 일 실시예에 불과하므로 도 1을 통해 본 발명이 한정 해석되는 것은 아니며, 본 발명의 다양한 실시예들에 따라 도 1과 다르게 구성될 수도 있다. Referring to FIG. 1, the augmented reality service providing system may include an augmented reality providing server 100 and a user terminal 110. However, since the augmented reality service providing system of FIG. 1 is only one embodiment of the present invention, the present invention is not limited to FIG. 1, and may be configured differently from FIG. 1 according to various embodiments of the present invention. there is.

일반적으로, 도 1의 증강 현실 서비스 제공 시스템의 각 구성요소들은 네트워크(미도시)를 통해 연결된다. 네트워크는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷 (WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 블루투스 통신, 적외선 통신, 초음파 통신, 가시광 통신(VLC: Visible Light Communication), 라이파이(LiFi) 등이 포함되나 이에 한정되지는 않는다. In general, each component of the augmented reality service providing system of FIG. 1 is connected through a network (not shown). Network refers to a connection structure that allows information exchange between nodes such as terminals and servers, including Local Area Network (LAN), Wide Area Network (WAN), and World Wide Area Network (WWW). Wide Web), wired and wireless data communication networks, telephone networks, wired and wireless television communication networks, etc. Examples of wireless data communication networks include 3G, 4G, 5G, 3GPP (3rd Generation Partnership Project), LTE (Long Term Evolution), WIMAX (World Interoperability for Microwave Access), Wi-Fi, Bluetooth communication, infrared communication, and ultrasound. This includes, but is not limited to, communication, Visible Light Communication (VLC), LiFi, etc.

사용자 단말(110)은 증강 현실 제공 서버(100)에게 증강 현실 서비스를 요청할 수 있다. 예를 들면, 사용자 단말(110)은 재난 상황 시 증강 현실 제공 서버(100)로 탈출 경로에 대한 증강 현실 서비스를 요청할 수 있다. The user terminal 110 may request an augmented reality service from the augmented reality providing server 100. For example, the user terminal 110 may request an augmented reality service for an escape route from the augmented reality providing server 100 in a disaster situation.

증강 현실 제공 서버(100)는 사용자 단말(110)로부터 증강 현실 서비스를 요청받은 경우, 요청된 증강 현실 서비스의 제공에 필요한 영상을 복수의 카메라로부터 수신할 수 있다. When an augmented reality service is requested from the user terminal 110, the augmented reality providing server 100 may receive images required to provide the requested augmented reality service from a plurality of cameras.

증강 현실 제공 서버(100)는 수신된 영상으로부터 적어도 하나의 관심 객체를 검출하고, 검출된 관심 객체를 분석할 수 있다. 예를 들면, 증강 현실 제공 서버(100)는 수신된 영상을 통해 관심 객체의 동선, 감정 및 행위 등을 분석할 수 있다. The augmented reality providing server 100 may detect at least one object of interest from the received image and analyze the detected object of interest. For example, the augmented reality providing server 100 may analyze the movement path, emotions, and actions of the object of interest through the received image.

증강 현실 제공 서버(100)는 수신된 영상을 통해 영상이 촬영된 당시의 상황을 판단할 수 있다. 예를 들면, 증강 현실 제공 서버(100)는 수신된 영상의 분석을 통해 재난 이벤트의 발생이 감지되면, 영상이 촬영된 상황을 재난 발생 상황으로 판단할 수 있다. The augmented reality providing server 100 can determine the situation at the time the image was captured through the received image. For example, when the augmented reality providing server 100 detects the occurrence of a disaster event through analysis of a received video, it may determine that the situation in which the video was captured is a disaster situation.

증강 현실 제공 서버(100)는 분석된 관심 객체에 대한 정보 및 판단된 상황에 기초하여 증강 현실 데이터를 생성할 수 있다. 예를 들면, 증강 현실 제공 서버(100)는 판단된 상황이 재난 발생 상황인 경우, 영상 내의 적어도 하나의 관심 객체의 이동 경로에 기초하여 탈출 경로에 대한 증강 현실 데이터를 생성할 수 있다.The augmented reality providing server 100 may generate augmented reality data based on information about the analyzed object of interest and the determined situation. For example, when the determined situation is a disaster situation, the augmented reality providing server 100 may generate augmented reality data about the escape route based on the movement path of at least one object of interest in the image.

증강 현실 제공 서버(100)는 영상에 생성된 증강 현실 데이터를 합성한 후, 증강 현실 데이터가 합성된 영상을 사용자 단말(110)로 제공할 수 있다. The augmented reality providing server 100 may synthesize the augmented reality data generated in the image and then provide the image in which the augmented reality data is synthesized to the user terminal 110.

사용자 단말(110)은 증강 현실 제공 서버(100)로부터 수신된 증강 현실 데이터가 합성된 영상을 출력할 수 있다. 예를 들면, 사용자 단말(110)은 증강 현실 데이터가 합성된 영상에 탈출 경로에 대한 동선 방향을 표시하여 출력할 수 있다. The user terminal 110 may output an image synthesized with augmented reality data received from the augmented reality providing server 100. For example, the user terminal 110 may display and output the direction of movement for an escape route on an image synthesized with augmented reality data.

사용자 단말(110)은 예를 들면, 유무선 통신이 가능한 모바일 단말을 포함할 수 있다. 모바일 단말은 휴대성과 이동성이 보장되는 무선 통신 장치로서, 스마트폰(smartphone), 태블릿 PC, 웨어러블 디바이스뿐만 아니라, 블루투스(BLE, Bluetooth Low Energy), NFC, RFID, 초음파(Ultrasonic), 적외선, 와이파이(WiFi), 라이파이(LiFi) 등의 통신 모듈을 탑재한 각종 디바이스를 포함할 수 있다. 다만, 클라이언트(120)는 앞서 예시된 것들로 한정 해석되는 것은 아니다.The user terminal 110 may include, for example, a mobile terminal capable of wired or wireless communication. A mobile terminal is a wireless communication device that guarantees portability and mobility, and includes not only smartphones, tablet PCs, and wearable devices, but also Bluetooth (BLE, Bluetooth Low Energy), NFC, RFID, ultrasonic, infrared, and Wi-Fi ( It may include various devices equipped with communication modules such as WiFi) and LiFi. However, the client 120 is not limited to those illustrated above.

이하에서는 도 1의 증강 현실 서비스 제공 시스템의 각 구성요소의 동작에 대해 보다 구체적으로 설명한다. Hereinafter, the operation of each component of the augmented reality service providing system of FIG. 1 will be described in more detail.

도 2는 본 발명의 일 실시예에 따른, 도 1에 도시된 증강 현실 제공 서버(100)의 블록도이다. FIG. 2 is a block diagram of the augmented reality providing server 100 shown in FIG. 1 according to an embodiment of the present invention.

도 2를 참조하면, 증강 현실 제공 서버(100)는 수신부(200), 객체 분석부(210), 상황 판단부(220), 생성부(230), 합성부(240) 및 제공부(250)를 포함할 수 있다. 다만, 도 2에 도시된 증강 현실 제공 서버(100)는 본 발명의 하나의 구현 예에 불과하며, 도 2에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. 이하에서는 도 3a 내지 4c를 함께 참조하여 도 2를 설명하기로 한다. Referring to FIG. 2, the augmented reality providing server 100 includes a receiving unit 200, an object analysis unit 210, a situation determination unit 220, a generating unit 230, a combining unit 240, and a providing unit 250. may include. However, the augmented reality providing server 100 shown in FIG. 2 is only one implementation example of the present invention, and various modifications are possible based on the components shown in FIG. 2. Hereinafter, FIG. 2 will be described with reference to FIGS. 3A to 4C.

수신부(200)는 복수의 카메라로부터 영상을 수신할 수 있다. 예를 들면, 수신부(200)는 사용자 단말(110)의 증강 현실 서비스의 요청을 수신한 경우, 요청된 증강 현실 서비스의 제공에 필요한 영상을 촬영한 복수의 카메라로부터 해당 영상을 수신할 수 있다. 예를 들면, 사용자 단말(110)로부터 미아 찾기에 대한 증강 현실 서비스의 요청을 수신한 경우, 아동이 실종된 위치로부터 기설정된 범위 내를 촬영하는 복수의 카메라로부터 영상을 수신할 수 있다. 예를 들면, 사용자 단말(110)로부터 사용자 단말(110)의 위치에 따른 매장 안내에 대한 증강 현실 서비스를 요청받은 경우, 사용자 단말(110)의 위치로부터 기설정된 범위 내에 존재하는 복수의 매장을 촬영한 복수의 카메라로부터 영상을 수신할 수 있다. The receiving unit 200 can receive images from a plurality of cameras. For example, when receiving a request for an augmented reality service from the user terminal 110, the receiver 200 may receive the corresponding images from a plurality of cameras that have captured images necessary to provide the requested augmented reality service. For example, when a request for an augmented reality service for finding a missing child is received from the user terminal 110, images can be received from a plurality of cameras that take pictures within a preset range from the location where the child went missing. For example, when an augmented reality service for store guidance according to the location of the user terminal 110 is requested from the user terminal 110, a plurality of stores existing within a preset range from the location of the user terminal 110 are photographed. Images can be received from multiple cameras.

객체 분석부(210)는 수신된 영상으로부터 적어도 하나의 관심 객체를 검출할 수 있다. 도 3a를 참조하면, 객체 분석부(210)는 전배경 분리 알고리즘을 이용하여 수신된 영상(301)에서 관심 객체(303)와 배경을 분리하여 관심 객체(303)를 검출할 수 있다. 또한, 객체 분석부(210)는 객체 검출 방식(예컨대, 움직임 검출기, 객체 검출기 등)을 이용하여 수신된 영상(301)으로부터 관심 객체(303)를 검출할 수 있다. The object analysis unit 210 may detect at least one object of interest from the received image. Referring to FIG. 3A , the object analysis unit 210 may detect the object of interest 303 by separating the object of interest 303 from the background in the received image 301 using a full-background separation algorithm. Additionally, the object analysis unit 210 may detect the object of interest 303 from the received image 301 using an object detection method (eg, a motion detector, an object detector, etc.).

객체 분석부(210)는 영상으로부터 검출된 관심 객체를 분석할 수 있다. 예를 들면, 객체 분석부(210)는 수신된 영상을 통해 관심 객체의 이동 경로를 추적할 수 있다. 예를 들면, 객체 분석부(210)는 사용자 단말(110)로부터 미아 신고가 접수된 경우, 실종된 아동을 관심 객체로 설정하고, 수신된 영상에서 추적된 관심 객체의 이동 경로에 기초하여 관심 객체의 최종 위치 정보를 파악할 수 있다. 예를 들면, 현장 관제 단말(미도시)로부터 재난 정보를 수신한 경우, 영상 내의 적어도 하나의 관심 객체의 이동 경로에 기초하여 영상 내에서 탈출 경로(대피 이동 경로)를 분석할 수 있다. 예를 들면, 객체 분석부(210)는 검출된 관심 객체의 표정 정보에 기초하여 관심 객체의 기분이 어떤 상태인지를 분석할 수 있다. 예를 들면, 객체 분석부(210)는 매장 내 촬영된 영상에서 관심 객체의 동선을 분석하여 매장 내에서 사람들이 많이 다니는 지점을 검출할 수 있다. 예를 들면, 객체 분석부(210)는 관심 객체가 구매하는 상품 또는 구매 영수증으로부터 관심 객체의 소비패턴 정보를 분석할 수 있다. The object analysis unit 210 may analyze an object of interest detected from an image. For example, the object analysis unit 210 may track the movement path of the object of interest through the received image. For example, when a missing child report is received from the user terminal 110, the object analysis unit 210 sets the missing child as an object of interest, and sets the object of interest based on the movement path of the object of interest tracked in the received image. The final location information can be obtained. For example, when disaster information is received from an on-site control terminal (not shown), an escape route (evacuation movement path) may be analyzed in the image based on the movement path of at least one object of interest in the image. For example, the object analysis unit 210 may analyze the mood of the object of interest based on the facial expression information of the detected object of interest. For example, the object analysis unit 210 may analyze the movement line of an object of interest in images captured within a store and detect points where many people walk within the store. For example, the object analysis unit 210 may analyze consumption pattern information of the object of interest from products purchased by the object of interest or purchase receipts.

상황 판단부(220)는 수신된 영상을 통해 영상이 촬영된 상황을 판단할 수 있다. 예를 들면, 상황 판단부(220)는 사용자 단말(110)로부터 미아 신고가 접수된 경우, 수신된 영상이 촬영된 상황을 미아 발생 상황으로 판단할 수 있다. 예를 들면, 상황 판단부(220)는 사용자 단말(110)로부터 사용자 단말(110)의 위치에 기초한 증강 현실 서비스 제공을 요청받은 경우, 수신된 영상이 촬영된 상황을 일반 상황으로 판단할 수 있다. 예를 들면, 상황 판단부(220)는 현장 관제 단말(미도시)로부터 재난 정보가 수신된 경우, 수신된 영상이 촬영된 상황을 재난 발생 상황으로 판단하거나, 수신된 영상으로부터 재난 이벤트의 발생이 감지되면, 영상이 촬영된 상황을 재난 발생 상황으로 판단할 수 있다. The situation determination unit 220 may determine the situation in which the image was captured through the received image. For example, when a missing child report is received from the user terminal 110, the situation determination unit 220 may determine that the situation in which the received video was captured is a situation in which a missing child has occurred. For example, when receiving a request from the user terminal 110 to provide an augmented reality service based on the location of the user terminal 110, the situation determination unit 220 may determine that the situation in which the received image was captured is a general situation. . For example, when disaster information is received from an on-site control terminal (not shown), the situation determination unit 220 determines that the situation in which the received video was captured is a disaster occurrence situation, or determines that a disaster event has occurred from the received video. When detected, the situation in which the video was captured can be determined to be a disaster situation.

생성부(230)는 분석된 관심 객체에 대한 정보 및 판단된 상황에 기초하여 증강 현실 데이터를 생성할 수 있다. 예를 들면, 생성부(230)는 판단된 상황이 미아 발생 상황인 경우, 실종 아동에 대응하는 관심 객체의 이동 경로 및 관심 객체의 최종 위치 정보에 대한 증강 현실 데이터를 생성할 수 있다. 예를 들면, 생성부(230)는 판단된 상황이 재난 발생 상황인 경우, 영상 내의 적어도 하나의 관심 객체의 이동 경로에 기초하여 탈출 경로에 대한 증강 현실 데이터를 생성할 수 있다. 예를 들면, 생성부(230)는 판단된 상황이 일반 상황(증강 현실 서비스의 요청 상황)인 경우, 영상으로부터 분석된 관심 객체의 동신 및 소비패턴정보에 기초하여 선정된 상품에 대응하는 정보를 포함하는 증강 현실 데이터를 생성할 수 있다. 예를 들면, 생성부(230)는 판단된 상황이 일반 상황이고, 사용자 단말(110)로부터 사용자의 위치 정보를 수신한 경우, 수신된 영상으로부터 사용자의 위치 정보에 기초하여 검출된 복수의 매장에 대한 증강 현실 데이터를 생성할 수 있다. The generator 230 may generate augmented reality data based on information about the analyzed object of interest and the determined situation. For example, when the determined situation is a missing child situation, the generator 230 may generate augmented reality data about the movement path of the object of interest corresponding to the missing child and the final location information of the object of interest. For example, when the determined situation is a disaster situation, the generator 230 may generate augmented reality data about the escape route based on the movement path of at least one object of interest in the image. For example, when the determined situation is a general situation (an augmented reality service request situation), the generator 230 generates information corresponding to the product selected based on the movement and consumption pattern information of the object of interest analyzed from the image. Augmented reality data including: For example, when the determined situation is a normal situation and the user's location information is received from the user terminal 110, the generator 230 stores a plurality of stores detected based on the user's location information from the received image. Augmented reality data can be generated.

합성부(240)는 수신된 영상에 생성된 증강 현실 데이터를 합성할 수 있다. 예를 들면, 합성부(240)는 증강 현실 데이터가 현실에 존재하는 듯한 증강 현실 효과를 나타내기 위해 영상을 촬영한 카메라의 내부 행렬(intrinsic matrix) 및 왜곡 계수(distortion coefficient)를 계산하여 호모그래피 변환(homography transformation), 극좌표 변환(log-polar transformation) 등을 통해 증강 현실 데이터를 변환하고, 변환된 증강 현실 데이터를 영상에 합성할 수 있다. The synthesis unit 240 may synthesize augmented reality data generated from the received image. For example, the synthesis unit 240 calculates the intrinsic matrix and distortion coefficient of the camera that captured the image to create an augmented reality effect that makes the augmented reality data appear to exist in reality and creates homography. Augmented reality data can be converted through homography transformation, polar coordinate transformation (log-polar transformation), and the converted augmented reality data can be synthesized into an image.

제공부(250)는 증강 현실 데이터가 합성된 영상을 사용자 단말(110)로 제공할 수 있다. The provider 250 may provide an image synthesized with augmented reality data to the user terminal 110 .

제 11st 실시예Example (매장 안내 방법)(Store guidance method)

객체 분석부(210)는 사용자 단말(110)로부터 사용자의 위치 정보를 수신한 경우, 사용자의 위치 정보에 기초하여 복수의 카메라로부터 수신된 영상으로부터 복수의 매장을 검출할 수 있다. 다른 예로, 객체 분석부(210)는 사용자 단말(110)로부터 사용자의 위치 근방에 존재하는 특정 장소에 대한 정보(예컨대, 화장실 위치, 사용자가 원하는 특정 음식점의 위치 등)의 요청을 수신한 경우, 사용자의 위치 정보에 기초하여 수신된 영상으로부터 사용자가 요청한 특정 장소를 검출할 수 있다. When the object analysis unit 210 receives the user's location information from the user terminal 110, the object analysis unit 210 may detect a plurality of stores from images received from a plurality of cameras based on the user's location information. As another example, when the object analysis unit 210 receives a request from the user terminal 110 for information about a specific place that exists near the user's location (e.g., the location of a restroom, the location of a specific restaurant desired by the user, etc.), Based on the user's location information, a specific place requested by the user can be detected from the received image.

생성부(230)는 검출된 복수의 매장에 대한 증강 현실 데이터를 생성할 수 있다. 예를 들면, 생성부(230)는 검출된 복수의 매장 각각에 대한 매장 정보 및 매장 위치 정보를 포함하는 증강 현실 데이터를 생성할 수 있다. 다른 예로, 생성부(230)는 사용자가 요청한 특정 장소로의 이동 방향을 포함하는 증강 현실 데이터를 생성할 수 있다. The generator 230 may generate augmented reality data for a plurality of detected stores. For example, the generator 230 may generate augmented reality data including store information and store location information for each of the plurality of detected stores. As another example, the generator 230 may generate augmented reality data including the direction of movement to a specific location requested by the user.

합성부(240)는 사용자의 위치 정보에 해당하는 영상에 증강 현실 데이터를 합성하여 검색된 복수의 매장에 대한 정보를 표시할 수 있다. 예를 들면, 합성부(240)는 사용자가 위치한 쇼핑몰의 각 층에 해당하는 영상에 각 층별에 존재하는 복수의 매장에 대한 정보를 증강 현실 기반으로 표시할 수 있다. 또한, 합성부(240)는 쇼핑몰의 복수의 매장 중 사용자에 의해 검색된 특정 매장에 대한 이동 방향을 나타내는 화살표를 사용자의 위치에 해당하는 영상에 합성하여 표시할 수 있다. 또한, 합성부(240)는 쇼핑몰의 복수의 매장 중 사용자에게 추천하고자 하는 매장에 대한 정보(예컨대, 세일 행사를 진행중인 매장에 대한 정보)를 영상에 표시할 수 있다. The synthesis unit 240 may display information about a plurality of stores found by combining augmented reality data with an image corresponding to the user's location information. For example, the composite unit 240 may display information about a plurality of stores existing on each floor in an image corresponding to each floor of a shopping mall where the user is located, based on augmented reality. Additionally, the synthesis unit 240 may display an arrow indicating the direction of movement for a specific store searched by the user among a plurality of stores in a shopping mall by combining the image corresponding to the user's location. Additionally, the composite unit 240 may display information about a store that is to be recommended to a user among a plurality of stores in a shopping mall (for example, information about a store that is holding a sale event) on the image.

제공부(250)는 복수의 매장에 대한 정보가 표시된 영상을 사용자 단말(110)에게 제공할 수 있다. 예를 들면, 제공부(250)는 특정 매장에 대한 이동 방향을 나타내는 화살표가 표시된 영상을 사용자 단말(110)에게 제공할 수 있다. 다른 예로, 제공부(250)는 사용자의 위치 정보에 해당하는 영상과 함께 복수의 매장에 대한 정보를 포함하는 증강 현실 데이터를 각각 사용자 단말(110)에게 제공할 수 있다. The provider 250 may provide the user terminal 110 with an image displaying information about a plurality of stores. For example, the provider 250 may provide the user terminal 110 with an image with an arrow indicating the direction of movement toward a specific store. As another example, the provider 250 may provide each user terminal 110 with augmented reality data including information on a plurality of stores along with an image corresponding to the user's location information.

제 22nd 실시예Example (관심 객체의 동선 시각화 및 상품 진열 방법)(How to visualize the movement of objects of interest and display products)

객체 분석부(210)는 매장 내에서 촬영된 영상을 통해 적어도 하나의 관심 객체의 동선을 분석할 수 있다. The object analysis unit 210 may analyze the movement line of at least one object of interest through images captured within the store.

생성부(230)는 관심 객체의 동선에 대한 이동 경로 및 관심 객체가 해당 동선으로 통행하는 통행 확률 정보를 포함하는 증강 현실 데이터를 생성할 수 있다. The generator 230 may generate augmented reality data including a movement path of the object of interest and information on the probability of passage of the object of interest along that route.

합성부(240)는 영상에 생성된 증강 현실 데이터를 합성할 수 있다. 도 3b를 참조하면, 증강 현실 데이터가 합성된 영상(301)에는 각 관심 객체의 동선에 대한 이동 경로를 나타내는 화살표(305) 및 각 동선에 대한 통행 확률 정보가 표시될 수 있다. The synthesis unit 240 may synthesize augmented reality data generated in an image. Referring to FIG. 3B, an arrow 305 indicating the movement path of each object of interest and passage probability information for each movement line may be displayed in the image 301 synthesized with augmented reality data.

다른 실시 예로, 객체 분석부(210)는 매장 내에서 촬영된 영상을 통해 관심 객체의 동선을 분석하고, 고객의 영수증 이미지로부터 소비패턴정보를 분석할 수 있다. In another embodiment, the object analysis unit 210 may analyze the movement line of the object of interest through images captured within the store and analyze consumption pattern information from the customer's receipt image.

생성부(230)는 분석된 관심 객체의 동선 및 소비패턴정보에 기초하여 고객에게 추천하고자 하는 매장 상품을 선정할 수 있다. 또는, 생성부(230)는 관심 객체의 동선 및 소비패턴 정보에 기초하여 매장에서 고객에게 판매하고자 하는 상품 배치를 위한 위치를 선정할 수 있다. 또는, 생성부(230)는 관심 객체의 동선이 집중되는 지점을 상품 배치를 위한 위치로 선정할 수 있다. The generator 230 may select a store product to recommend to a customer based on the analyzed movement path and consumption pattern information of the object of interest. Alternatively, the creation unit 230 may select a location for placing products to be sold to customers in a store based on the movement path and consumption pattern information of the object of interest. Alternatively, the creation unit 230 may select a point where the movement line of the object of interest is concentrated as a location for product placement.

생성부(230)는 선정된 상품(또는 판매하고자 하는 상품)에 대응하는 상품 가상 이미지 및 상품 가상 이미지의 배치 정보를 포함하는 증강 현실 데이터를 생성할 수 있다. 예를 들면, 도 4a와 같이, 생성부(230)는 TV 상품에 대응하는 가상 이미지(401) 및 세탁기 상품에 대응하는 가상 이미지(403)를 생성할 수 있다. The generator 230 may generate augmented reality data including a virtual product image corresponding to the selected product (or a product to be sold) and placement information of the virtual product image. For example, as shown in FIG. 4A, the generator 230 may generate a virtual image 401 corresponding to a TV product and a virtual image 403 corresponding to a washing machine product.

합성부(240)는 증강 현실 데이터에 포함된 상품 가상 이미지의 배치 정보에 기초하여 영상에 상품 가상 이미지를 합성할 수 있다. 예를 들면, 도 4b 내지 4c를 참조하면, 합성부(240)는 영상에서 검출된 지면 중 TV 상품에 대응하는 가상 이미지(401)의 제 1 배치 정보에 해당하는 위치에 TV 상품에 대응하는 가상 이미지(401)를 합성하고, 세탁기 상품에 대응하는 가상 이미지(403)의 제 2 배치 정보에 해당하는 위치에 세탁기 상품에 대응하는 가상 이미지(403)를 합성할 수 있다. The synthesis unit 240 may synthesize a virtual product image into an image based on placement information of the virtual product image included in the augmented reality data. For example, referring to FIGS. 4B to 4C, the synthesis unit 240 places a virtual image corresponding to a TV product at a position corresponding to the first arrangement information of the virtual image 401 corresponding to the TV product among the pages detected in the image. The image 401 may be synthesized, and the virtual image 403 corresponding to the washing machine product may be synthesized at a position corresponding to the second arrangement information of the virtual image 403 corresponding to the washing machine product.

또한, 합성부(240)는 증강 현실 서비스를 요청한 사용자 단말(110)의 사용자에 대한 소비 성향에 기초하여 선정된 추천 상품이 배치된 위치로 안내하는 안내 경로 정보를 영상에 합성할 수 있다. In addition, the synthesis unit 240 may synthesize guidance route information that guides the user to the location where the recommended product selected based on the consumption tendency of the user of the user terminal 110 requesting the augmented reality service is placed into the image.

제공부(250)는 증강 현실 데이터가 합성된 영상을 사용자 단말(110)에게 제공할 수 있다. The provider 250 may provide an image synthesized with augmented reality data to the user terminal 110.

제 33rd 실시예Example (미아 찾기 방법) (How to find a lost child)

객체 분석부(210)는 미아 신고가 접수된 경우, 영상에서 실종된 아동을 관심 객체로 선정할 수 있다. When a missing child report is received, the object analysis unit 210 may select the missing child from the video as an object of interest.

객체 분석부(210)는 영상으로부터 관심 객체의 이동 경로를 추적하고, 추적된 관심객체의 이동 경로에 기초하여 관심 객체의 최종 위치 정보를 파악할 수 있다. 예를 들면, 객체 분석부(210)는 영상에서 실종된 아동과 보호자가 최초로 떨어진 지점을 검색하고, 검색된 지점으로부터 관심 객체의 이동 경로를 추적할 수 있다. The object analysis unit 210 can track the movement path of the object of interest from the image and determine the final location information of the object of interest based on the movement path of the tracked object of interest. For example, the object analysis unit 210 may search the video for the point where the missing child and the guardian first separated and track the movement path of the object of interest from the searched point.

생성부(230)는 관심 객체의 이동 경로 및 최종 위치 정보를 포함하는 증강 현실 데이터를 생성할 수 있다. The generator 230 may generate augmented reality data including the movement path and final location information of the object of interest.

합성부(240)는 증강 현실 데이터에 기초하여 영상에 관심 객체의 이동 경로 및 최종 위치 정보를 표시하여 합성할 수 있다. The synthesis unit 240 may display the movement path and final location information of the object of interest in the image based on the augmented reality data and synthesize the image.

제공부(250)는 관심 객체의 이동 경로 및 최종 위치 정보가 합성된 영상을 사용자 단말(110)로 제공할 수 있다. The providing unit 250 may provide the user terminal 110 with an image combining the movement path and final location information of the object of interest.

제 44th 실시예Example (재난 상황 시 탈출 경로 제공 방법)(How to provide an escape route in a disaster situation)

객체 분석부(210)는 영상으로부터 적어도 하나의 관심 객체의 이동 경로에 기초하여 탈출 경로를 분석할 수 있다. The object analysis unit 210 may analyze an escape route based on the movement path of at least one object of interest from the image.

생성부(230)는 재난 발생 상황인 경우, 영상을 통해 분석된 관심 객체의 이동 경로에 기초하여 탈출 경로에 대한 증강 현실 데이터를 생성할 수 있다. In case of a disaster situation, the generator 230 may generate augmented reality data about the escape route based on the movement route of the object of interest analyzed through the image.

합성부(240)는 영상에 증강 현실 데이터를 합성하여 탈출 경로에 대한 동선 방향을 표시할 수 있다. The synthesis unit 240 may display the direction of movement for the escape route by combining augmented reality data with the image.

제공부(250)는 탈출 경로에 대한 동선 방향이 표시된 영상을 재난 상황이 발생된 위치에 있는 적어도 하나의 사용자 단말(110)로 제공할 수 있다. The providing unit 250 may provide an image showing the direction of movement for an escape route to at least one user terminal 110 located at a location where a disaster situation occurs.

한편, 당업자라면, 수신부(200), 객체 분석부(210), 상황 판단부(220), 생성부(230), 합성부(240) 및 제공부(250) 각각이 분리되어 구현되거나, 이 중 하나 이상이 통합되어 구현될 수 있음을 충분히 이해할 것이다. Meanwhile, those skilled in the art will know that the receiving unit 200, the object analysis unit 210, the situation determination unit 220, the generating unit 230, the combining unit 240, and the providing unit 250 are each implemented separately, or one of them is implemented separately. It will be fully understood that more than one may be integrated and implemented.

도 5는 본 발명의 일 실시예에 따른 증강 현실 제공 서버(100)에서 증강 현실 서비스를 제공하는 방법을 나타낸 흐름도이다. Figure 5 is a flowchart showing a method of providing an augmented reality service in the augmented reality providing server 100 according to an embodiment of the present invention.

도 5에 도시된 실시예에 따른 증강 현실 서비스 제공 방법은 도 1 내지 도 4c에 도시된 실시예에 따른 증강 현실 제공 서버(100) 및 사용자 단말(110)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1 내지 도 4c의 증강 현실 제공 서버(100) 및 사용자 단말(110)에 관하여 기술된 내용은 도 5에 도시된 실시예에 따른 증강 현실 서비스 제공 방법에도 적용될 수 있다. The method for providing an augmented reality service according to the embodiment shown in FIG. 5 includes steps processed in time series in the augmented reality providing server 100 and the user terminal 110 according to the embodiment shown in FIGS. 1 to 4C. . Therefore, even if the content is omitted below, the content described regarding the augmented reality providing server 100 and the user terminal 110 of FIGS. 1 to 4C can also be applied to the augmented reality service providing method according to the embodiment shown in FIG. 5. there is.

도 5를 참조하면, 단계 S501에서 증강 현실 제공 서버(100)는 복수의 카메라로부터 영상을 수신할 수 있다. Referring to FIG. 5, in step S501, the augmented reality providing server 100 may receive images from a plurality of cameras.

단계 S503에서 증강 현실 제공 서버(100)는 수신된 영상으로부터 적어도 하나의 관심 객체를 검출하고, 검출된 관심 객체를 분석할 수 있다. In step S503, the augmented reality providing server 100 may detect at least one object of interest from the received image and analyze the detected object of interest.

단계 S505에서 증강 현실 제공 서버(100)는 수신된 영상을 통해 영상이 촬영된 상황을 판단할 수 있다. In step S505, the augmented reality providing server 100 may determine the situation in which the image was captured through the received image.

단계 S507에서 증강 현실 제공 서버(100)는 분석된 관심 객체에 대한 정보 및 판단된 상황에 기초하여 증강 현실 데이터를 생성할 수 있다. In step S507, the augmented reality providing server 100 may generate augmented reality data based on information about the analyzed object of interest and the determined situation.

단계 S509에서 증강 현실 제공 서버(100)는 영상에 생성된 증강 현실 데이터를 합성할 수 있다. In step S509, the augmented reality providing server 100 may synthesize augmented reality data generated in the image.

단계 S511에서 증강 현실 제공 서버(100)는 증강 현실 데이터가 합성된 영상을 사용자 단말(110)에게 제공할 수 있다. In step S511, the augmented reality providing server 100 may provide an image synthesized with augmented reality data to the user terminal 110.

도 5에는 도시되지 않았으나, 단계 S501에서 증강 현실 제공 서버(100)는 사용자 단말(110)로부터 사용자의 위치 정보를 수신할 수 있다. Although not shown in FIG. 5 , the augmented reality providing server 100 may receive the user's location information from the user terminal 110 in step S501.

상술한 설명에서, 단계 S501 내지 S511은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. In the above description, steps S501 to S511 may be further divided into additional steps or combined into fewer steps, depending on the implementation of the present invention. Additionally, some steps may be omitted or the order between steps may be changed as needed.

도 6은 본 발명의 일 실시예에 따른, 도 1에 도시된 사용자 단말(110)의 블록도이다. FIG. 6 is a block diagram of the user terminal 110 shown in FIG. 1 according to an embodiment of the present invention.

도 6을 참조하면, 사용자 단말(110)은 요청부(600), 위치 정보 전송부(610), 수신부(620) 및 출력부(630)를 포함할 수 있다. 다만, 도 6에 도시된 사용자 단말(110)은 본 발명의 하나의 구현 예에 불과하며, 도 6에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. Referring to FIG. 6, the user terminal 110 may include a request unit 600, a location information transmission unit 610, a reception unit 620, and an output unit 630. However, the user terminal 110 shown in FIG. 6 is only one implementation example of the present invention, and various modifications are possible based on the components shown in FIG. 6.

요청부(600)는 증강 현실 제공 서버(100)로 증강 현실 서비스를 요청할 수 있다. 예를 들면, 요청부(600)는 증강 현실 제공 서버(100)로 미아 찾기에 대한 증강 현실 서비스를 요청할 수 있다. 예를 들면, 요청부(600)는 재난 상황 시 증강 현실 제공 서버(100)로 탈출 경로에 대한 증강 현실 서비스를 요청할 수 있다. 예를 들면, 요청부(600)는 증강 현실 제공 서버(100)로 매장 정보 또는 특정 매장의 추천 상품 및 특정 매장으로의 경로 안내에 대한 증강 현실 서비스를 요청할 수 있다. The request unit 600 may request an augmented reality service from the augmented reality providing server 100. For example, the request unit 600 may request an augmented reality service for finding a missing child from the augmented reality providing server 100. For example, the request unit 600 may request an augmented reality service for an escape route from the augmented reality providing server 100 in a disaster situation. For example, the request unit 600 may request an augmented reality service for store information, recommended products for a specific store, and route guidance to a specific store from the augmented reality providing server 100.

위치 정보 전송부(610)는 증강 현실 제공 서버(100)에게 사용자 단말(110)의 위치 정보를 전송할 수 있다. 예를 들면, 위치 정보 전송부(610)는 탈출 경로 또는 매장 안내에 대한 증강 현실 서비스를 요청한 경우, 증강 현실 제공 서버(100)로 사용자 단말(110)의 위치 정보를 전송할 수 있다. The location information transmission unit 610 may transmit location information of the user terminal 110 to the augmented reality providing server 100. For example, when an augmented reality service for an escape route or store guide is requested, the location information transmitter 610 may transmit the location information of the user terminal 110 to the augmented reality providing server 100.

수신부(620)는 증강 현실 제공 서버(100)로부터 증강 현실 서비스에 대응하는 증강 현실 데이터가 합성된 영상을 수신할 수 있다. 여기서, 증강 현실 데이터는 영상으로부터 분석된 관심 객체에 대한 정보 및 영상(증강 현실 서비스의 제공에 필요한 영상을 촬영한 복수의 카메라로부터 수신된 영상)으로부터 판단된 상황(예컨대, 미아 발생 상황, 재난 발생 상황, 일반 상황 등)에 기초하여 생성될 수 있다. 여기서, 관심 객체에 대한 정보는 예를 들면, 관심 객체의 이동 경로, 관심 객체의 동선 및 소비패턴 정보 등을 포함할 수 있다. The receiving unit 620 may receive an image synthesized with augmented reality data corresponding to the augmented reality service from the augmented reality providing server 100. Here, augmented reality data includes information on objects of interest analyzed from images and situations determined from images (images received from multiple cameras that captured images necessary for providing augmented reality services) (e.g., a missing child situation, a disaster occurrence) situation, general situation, etc.). Here, information about the object of interest may include, for example, the movement path of the object of interest, the movement line of the object of interest, and consumption pattern information.

출력부(630)는 수신된 증강 현실 데이터가 합성된 영상을 출력할 수 있다. The output unit 630 may output an image synthesized from the received augmented reality data.

예를 들면, 증강 현실 제공 서버(100)로 증강 현실 제공 서버(100)로 미아 찾기에 대한 증강 현실 서비스를 요청한 경우, 수신부(620)는 영상으로부터 추적된 실종 아동에 대응하는 관심 객체의 이동 경로에 기초하여 파악된 관심 객체의 최종 위치 정보를 증강 현실 제공 서버(100)로부터 수신할 수 있다. For example, when an augmented reality service for finding a missing child is requested from the augmented reality providing server 100, the receiver 620 may determine the movement path of the object of interest corresponding to the missing child tracked from the video. The final location information of the object of interest identified based on can be received from the augmented reality providing server 100.

출력부(630)는 증강 현실 데이터가 합성된 영상에 관심 객체의 최종 위치 정보를 표시할 수 있다. The output unit 630 may display the final location information of the object of interest on the image synthesized with the augmented reality data.

예를 들면, 증강 현실 제공 서버(100)로 매장 안내에 대한 증강 현실 서비스를 요청한 경우, 수신부(620)는 영상으로부터 검출된 복수의 매장에 대한 증강 현실 데이터 및 사용자 단말(110)의 위치 정보에 해당하는 영상을 수신할 수 있다. For example, when an augmented reality service for store guidance is requested from the augmented reality providing server 100, the receiver 620 receives augmented reality data for a plurality of stores detected from the image and location information of the user terminal 110. You can receive the corresponding video.

출력부(630)는 사용자 단말(110)의 위치 정보에 해당하는 영상에 복수의 매장에 대한 증강 현실 데이터를 표시하여 출력할 수 있다. The output unit 630 may display and output augmented reality data about a plurality of stores on an image corresponding to the location information of the user terminal 110.

출력부(630)는 사용자 단말(110)의 현재 위치로부터 복수의 매장 중 사용자가 선택한 매장으로 안내하는 안내 경로에 대한 이동 방향을 사용자 단말(110)의 위치 정보에 해당하는 영상에 표시하여 출력할 수 있다. The output unit 630 displays and outputs the direction of movement of the guide path leading from the current location of the user terminal 110 to the store selected by the user among the plurality of stores on the image corresponding to the location information of the user terminal 110. You can.

예를 들면, 증강 현실 제공 서버(100)로 재난 상황에 따른 탈출 경로에 대한 증강 현실 서비스를 요청한 경우, 수신부(620)는 사용자 단말(110)의 현재 위치로부터 안전한 장소로 안내하는 탈출 경로에 대한 증강 현실 데이터가 합성된 영상을 수신할 수 있다. 여기서, 탈출 경로에 대한 증강 현실 데이터는 영상을 통해 분석된 적어도 하나의 관심 객체의 이동 경로에 기초하여 생성된 데이터일 수 있다. For example, when an augmented reality service for an escape route according to a disaster situation is requested from the augmented reality providing server 100, the receiver 620 provides an escape route that guides from the current location of the user terminal 110 to a safe place. An image in which augmented reality data is synthesized can be received. Here, the augmented reality data about the escape route may be data generated based on the movement path of at least one object of interest analyzed through an image.

출력부(630)는 증강 현실 데이터가 합성된 영상에 탈출 경로에 대한 동선 방향을 표시하여 출력할 수 있다. The output unit 630 may display the direction of movement for the escape route on an image synthesized with augmented reality data and output it.

예를 들면, 특정 매장에 대한 증강 현실 서비스를 요청한 경우, 수신부(620)는 증강 현실 제공 서버(100)로부터 특정 매장에서 판매하는 상품(또는 사용자에게 추천하고자 하는 상품 등)에 대응하는 상품 가상 이미지 및 상품 가상 이미지의 배치 정보를 포함하는 증강 현실 데이터가 합성된 영상을 수신할 수 있다. For example, when requesting an augmented reality service for a specific store, the receiver 620 receives a virtual image of the product corresponding to the product sold at the specific store (or a product to be recommended to the user, etc.) from the augmented reality providing server 100. And an image synthesized with augmented reality data including placement information of a virtual product image may be received.

출력부(630)는 증강 현실 데이터가 합성된 영상 중 상품 가상 이미지의 배치 정보에 대응하는 위치에 상품 가상 이미지를 표시하여 출력할 수 있다. The output unit 630 may display and output the virtual product image at a location corresponding to the arrangement information of the virtual product image among the images in which the augmented reality data is synthesized.

한편, 당업자라면, 요청부(600), 위치 정보 전송부(610), 수신부(620) 및 출력부(630) 각각이 분리되어 구현되거나, 이 중 하나 이상이 통합되어 구현될 수 있음을 충분히 이해할 것이다. Meanwhile, those skilled in the art will fully understand that the request unit 600, the location information transmitter 610, the receiver 620, and the output unit 630 may be implemented separately, or one or more of them may be integrated and implemented. will be.

도 7은 본 발명의 일 실시예에 따른, 사용자 단말(110)에서 증강 현실 서비스를 제공하는 방법을 나타낸 흐름도이다. Figure 7 is a flowchart showing a method of providing an augmented reality service in the user terminal 110, according to an embodiment of the present invention.

도 7에 도시된 실시예에 따른 증강 현실 서비스 제공 방법은 도 1 내지 도 6에 도시된 실시예에 따른 증강 현실 제공 서버(100) 및 사용자 단말(110)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1 내지 도 6의 증강 현실 제공 서버(100) 및 사용자 단말(110)에 관하여 기술된 내용은 도 7에 도시된 실시예에 따른 증강 현실 서비스 제공 방법에도 적용될 수 있다. The method for providing an augmented reality service according to the embodiment shown in FIG. 7 includes steps processed in time series in the augmented reality providing server 100 and the user terminal 110 according to the embodiment shown in FIGS. 1 to 6. . Therefore, even if the content is omitted below, the content described regarding the augmented reality providing server 100 and the user terminal 110 of FIGS. 1 to 6 can also be applied to the augmented reality service providing method according to the embodiment shown in FIG. 7. there is.

도 7을 참조하면, 단계 S701에서 사용자 단말(110)은 증강 현실 제공 서버(100)에게 증강 현실 서비스를 요청할 수 있다. Referring to FIG. 7, in step S701, the user terminal 110 may request an augmented reality service from the augmented reality providing server 100.

단계 S703에서 사용자 단말(110)은 증강 현실 제공 서버(100)로부터 증강 현실 서비스에 대응하는 증강 현실 데이터가 합성된 영상을 수신할 수 있다. 여기서, 증강 현실 데이터는 영상으로부터 분석된 관심 객체에 대한 정보 및 영상으로부터 판단된 상황에 기초하여 생성된 데이터일 수 있다. In step S703, the user terminal 110 may receive an image in which augmented reality data corresponding to the augmented reality service is synthesized from the augmented reality providing server 100. Here, the augmented reality data may be data generated based on information about the object of interest analyzed from the image and the situation determined from the image.

단계 S705에서 사용자 단말(110)은 수신된 증강 현실 데이터가 합성된 영상을 출력할 수 있다. In step S705, the user terminal 110 may output an image synthesized from the received augmented reality data.

상술한 설명에서, 단계 S701 내지 S705는 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. In the above description, steps S701 to S705 may be further divided into additional steps or combined into fewer steps, depending on the implementation of the present invention. Additionally, some steps may be omitted or the order between steps may be changed as needed.

본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. One embodiment of the present invention may also be implemented in the form of a recording medium containing instructions executable by a computer, such as program modules executed by a computer. Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and non-volatile media, removable and non-removable media. Additionally, computer-readable media may include all computer storage media. Computer storage media includes both volatile and non-volatile, removable and non-removable media implemented in any method or technology for storage of information such as computer-readable instructions, data structures, program modules or other data.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The description of the present invention described above is for illustrative purposes, and those skilled in the art will understand that the present invention can be easily modified into other specific forms without changing the technical idea or essential features of the present invention. will be. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. For example, each component described as single may be implemented in a distributed manner, and similarly, components described as distributed may also be implemented in a combined form.

본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. .

100: 증강 현실 제공 서버
110: 사용자 단말
200: 수신부
202: 위치 정보 수신부
210: 객체 분석부
220: 상황 판단부
230: 생성부
240: 합성부
250: 제공부
610: 요청부
620: 위치 정보 전송부
630: 수신부
630: 출력부
100: Augmented reality provision server
110: user terminal
200: Receiving unit
202: Location information receiver
210: Object analysis unit
220: Situation judgment unit
230: Generation unit
240: synthesis part
250: Provider
610: Request section
620: Location information transmission unit
630: Receiving unit
630: output unit

Claims (18)

증강 현실 서비스를 제공하는 증강 현실 제공 서버에 있어서,
복수의 카메라로부터 영상을 수신하는 수신부;
상기 수신된 영상으로부터 적어도 하나의 관심 객체를 검출하고, 검출된 관심 객체를 분석하는 객체 분석부;
상기 수신된 영상을 통해 상기 영상이 촬영된 상황을 판단하는 상황 판단부;
상기 분석된 관심 객체에 대한 정보 및 상기 판단된 상황에 기초하여 증강 현실 데이터를 생성하는 생성부;
상기 영상에 상기 생성된 증강 현실 데이터를 합성하는 합성부; 및
상기 증강 현실 데이터가 합성된 영상을 사용자 단말로 제공하는 제공부를 포함하고,
상기 객체 분석부는 상기 수신된 영상으로부터 상기 관심 객체의 동선 및 소비패턴정보를 분석하는 것인, 증강 현실 제공 서버.
In the augmented reality provision server that provides augmented reality services,
A receiving unit that receives images from a plurality of cameras;
an object analysis unit that detects at least one object of interest from the received image and analyzes the detected object of interest;
a situation determination unit that determines a situation in which the image was captured based on the received image;
a generator that generates augmented reality data based on information about the analyzed object of interest and the determined situation;
a synthesis unit that synthesizes the generated augmented reality data with the image; and
It includes a providing unit that provides an image synthesized with the augmented reality data to a user terminal,
The object analysis unit analyzes the movement path and consumption pattern information of the object of interest from the received image.
제 1 항에 있어서,
상기 객체 분석부는
상기 영상으로부터 상기 관심 객체의 이동 경로를 추적하고,
상기 추적된 관심객체의 이동 경로에 기초하여 상기 관심 객체의 최종 위치 정보를 파악하는 것인 증강 현실 제공 서버.
According to claim 1,
The object analysis unit
Tracking the movement path of the object of interest from the image,
An augmented reality providing server that determines final location information of the object of interest based on the tracked movement path of the object of interest.
삭제delete 제 1 항에 있어서,
상기 생성부는
상기 분석된 관심 객체의 동선 및 소비패턴정보에 기초하여 고객에게 추천하고자 하는 상품을 선정하고,
상기 선정된 상품에 대응하는 상품 가상 이미지 및 상기 상품 가상 이미지의 배치 정보를 포함하는 증강 현실 데이터를 생성하는 것인, 증강 현실 제공 서버.
According to claim 1,
The generator
Select a product to recommend to customers based on the movement path and consumption pattern information of the analyzed object of interest,
An augmented reality providing server that generates augmented reality data including a product virtual image corresponding to the selected product and placement information of the product virtual image.
제 4 항에 있어서,
상기 합성부는
상기 증강 현실 데이터에 포함된 상기 상품 가상 이미지의 배치 정보에 기초하여 상기 영상에 상기 상품 가상 이미지를 합성하는 것인, 증강 현실 제공 서버.
According to claim 4,
The synthesis part
An augmented reality providing server that synthesizes the virtual product image into the image based on placement information of the virtual product image included in the augmented reality data.
제 1 항에 있어서,
상기 생성부는
상기 판단된 상황이 재난 발생 상황인 경우, 상기 영상을 통해 분석된 관심 객체의 이동 경로에 기초하여 탈출 경로에 대한 증강 현실 데이터를 생성하고,
상기 합성부는 상기 영상에 상기 증강 현실 데이터를 합성하여 탈출 경로에 대한 동선 방향을 표시하는 것인, 증강 현실 제공 서버.
According to claim 1,
The generator
If the determined situation is a disaster situation, augmented reality data about the escape route is generated based on the movement path of the object of interest analyzed through the image,
The augmented reality providing server wherein the synthesis unit synthesizes the augmented reality data with the image and displays a movement direction for an escape route.
제 1 항에 있어서,
상기 객체 분석부는
사용자 단말로부터 사용자의 위치 정보를 수신한 경우, 상기 위치 정보에 기초하여 상기 영상으로부터 복수의 매장을 검색하고,
상기 생성부는
상기 검출된 복수의 매장에 대한 증강 현실 데이터를 생성하고,
상기 합성부는
상기 사용자의 위치 정보에 해당하는 영상에 상기 증강 현실 데이터를 합성하여 상기 검색된 복수의 매장에 대한 정보를 표시하는 것인, 증강 현실 제공 서버.
According to claim 1,
The object analysis unit
When receiving the user's location information from the user terminal, search for a plurality of stores from the image based on the location information,
The generator
Generating augmented reality data for the detected plurality of stores,
The synthesis part
An augmented reality providing server that displays information about the plurality of stores found by combining the augmented reality data with an image corresponding to the user's location information.
증강 현실 서비스를 제공하는 사용자 단말에 있어서,
증강 현실 제공 서버로 상기 증강 현실 서비스를 요청하는 요청부;
상기 증강 현실 제공 서버로부터 상기 증강 현실 서비스에 대응하는 증강 현실 데이터가 합성된 영상을 수신하는 수신부; 및
상기 수신된 증강 현실 데이터가 합성된 영상을 출력하는 출력부
를 포함하고,
상기 증강 현실 데이터는 복수의 카메라로부터 수신된 영상으로부터 검출 및 분석된 관심 객체에 대한 정보 및 상기 영상이 촬영된 것으로 판단된 상황에 기초하여 생성된 것이고,
상기 분석된 관심 객체에 대한 정보는 상기 관심 객체의 동선 정보 및 소비패턴정보를 포함하는 것인, 사용자 단말.
In a user terminal that provides an augmented reality service,
a request unit that requests the augmented reality service from an augmented reality providing server;
a receiving unit that receives an image synthesized with augmented reality data corresponding to the augmented reality service from the augmented reality providing server; and
An output unit that outputs an image synthesized from the received augmented reality data.
Including,
The augmented reality data is generated based on information on objects of interest detected and analyzed from images received from a plurality of cameras and the situation in which the images are determined to have been captured,
The user terminal wherein the information on the analyzed object of interest includes movement line information and consumption pattern information of the object of interest.
제 8 항에 있어서,
상기 수신부는 상기 영상으로부터 추적된 상기 관심 객체의 이동 경로에 기초하여 파악된 상기 관심 객체의 최종 위치 정보를 상기 증강 현실 제공 서버로부터 수신하는 것인, 사용자 단말.
According to claim 8,
The receiving unit is configured to receive final location information of the object of interest identified based on the movement path of the object of interest tracked from the image from the augmented reality providing server.
제 8 항에 있어서,
상기 증강 현실 제공 서버로 상기 사용자 단말의 위치 정보를 전송하는 위치 정보 전송부를 더 포함하는 것인, 사용자 단말.
According to claim 8,
The user terminal further comprising a location information transmission unit that transmits location information of the user terminal to the augmented reality providing server.
제 10 항에 있어서,
상기 수신부는 상기 영상으로부터 검출된 복수의 매장에 대한 증강 현실 데이터 및 상기 사용자 단말의 위치 정보에 해당하는 영상을 수신하는 것인, 사용자 단말.
According to claim 10,
The receiving unit receives augmented reality data for a plurality of stores detected from the image and an image corresponding to location information of the user terminal.
제 11 항에 있어서,
상기 출력부는 상기 사용자 단말의 위치 정보에 해당하는 영상에 상기 복수의 매장에 대한 증강 현실 데이터를 표시하여 출력하는 것인, 사용자 단말.
According to claim 11,
The output unit displays and outputs augmented reality data about the plurality of stores on an image corresponding to the location information of the user terminal.
제 8 항에 있어서,
상기 수신부는 상기 판단된 상황이 재난 발생 상황인 경우, 탈출 경로에 대한 증강 현실 데이터가 합성된 영상을 수신하고,
상기 탈출 경로에 대한 증강 현실 데이터는 상기 영상을 통해 분석된 관심 객체의 이동 경로에 기초하여 생성된 것인, 사용자 단말.
According to claim 8,
If the determined situation is a disaster situation, the receiving unit receives an image synthesized with augmented reality data about an escape route,
The augmented reality data about the escape route is generated based on the movement route of the object of interest analyzed through the image.
제 13 항에 있어서,
상기 출력부는 상기 영상에 상기 탈출 경로에 대한 동선 방향을 표시하여 출력하는 것인, 사용자 단말.
According to claim 13,
The output unit displays the direction of movement for the escape route on the image and outputs it.
제 8 항에 있어서,
상기 수신부는 상기 증강 현실 제공 서버로부터 상품에 대응하는 상품 가상 이미지 및 상기 상품 가상 이미지의 배치 정보를 포함하는 증강 현실 데이터가 합성된 영상을 수신하는 것인, 사용자 단말.
According to claim 8,
The user terminal wherein the receiving unit receives an image in which augmented reality data including a product virtual image corresponding to the product and placement information of the product virtual image are synthesized from the augmented reality providing server.
제 15 항에 있어서,
상기 상품은 상기 영상을 통해 분석된 상기 관심 객체의 동선 및 소비패턴정보에 기초하여 선정된 상품인 것인, 사용자 단말.
According to claim 15,
The product is a product selected based on the movement path and consumption pattern information of the object of interest analyzed through the video.
증강 현실 제공 서버에서 증강 현실 서비스를 제공하는 방법에 있어서,
복수의 카메라로부터 영상을 수신하는 단계;
상기 수신된 영상으로부터 적어도 하나의 관심 객체를 검출하고, 검출된 관심 객체를 분석하는 단계;
상기 수신된 영상을 통해 상기 영상이 촬영된 상황을 판단하는 단계;
상기 분석된 관심 객체에 대한 정보 및 상기 판단된 상황에 기초하여 증강 현실 데이터를 생성하는 단계;
상기 영상에 상기 생성된 증강 현실 데이터를 합성하는 단계; 및
상기 증강 현실 데이터가 합성된 영상을 사용자 단말로 제공하는 단계를 포함하고,
상기 관심 객체를 분석하는 단계는 상기 수신된 영상으로부터 상기 관심 객체의 동선 및 소비패턴정보를 분석하는 단계를 포함하는 것인, 증강 현실 제공 방법.
In a method of providing augmented reality services from an augmented reality provision server,
Receiving images from a plurality of cameras;
Detecting at least one object of interest from the received image and analyzing the detected object of interest;
determining a situation in which the image was captured through the received image;
generating augmented reality data based on information about the analyzed object of interest and the determined situation;
synthesizing the generated augmented reality data with the image; and
Comprising the step of providing an image synthesized with the augmented reality data to a user terminal,
The step of analyzing the object of interest includes analyzing the movement line and consumption pattern information of the object of interest from the received image.
제 17 항에 있어서,
상기 사용자 단말로부터 사용자의 위치 정보를 수신하는 단계를 더 포함하는 것인, 증강 현실 제공 방법.
According to claim 17,
A method for providing augmented reality, further comprising receiving user location information from the user terminal.
KR1020180171105A 2018-12-27 2018-12-27 Server, device and method for providing augmented reality service KR102620477B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180171105A KR102620477B1 (en) 2018-12-27 2018-12-27 Server, device and method for providing augmented reality service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180171105A KR102620477B1 (en) 2018-12-27 2018-12-27 Server, device and method for providing augmented reality service

Publications (2)

Publication Number Publication Date
KR20200081026A KR20200081026A (en) 2020-07-07
KR102620477B1 true KR102620477B1 (en) 2024-01-03

Family

ID=71603365

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180171105A KR102620477B1 (en) 2018-12-27 2018-12-27 Server, device and method for providing augmented reality service

Country Status (1)

Country Link
KR (1) KR102620477B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113923252B (en) * 2021-09-30 2023-11-21 北京蜂巢世纪科技有限公司 Image display device, method and system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101397712B1 (en) * 2010-07-27 2014-06-27 주식회사 팬택 Apparatus and Method for Providing Recognition Guide for Augmented Reality Object
KR101566022B1 (en) * 2013-08-09 2015-11-05 우석대학교 산학협력단 3D GIS including sensor map based festival vistor statistics management system and method
CN108474929B (en) * 2015-12-30 2022-06-21 艾伦神火公司 Optical narrowcast
KR101757884B1 (en) 2016-12-09 2017-07-13 엘아이지넥스원 주식회사 Apparatus for providing circumstance information based on battlefield situation awareness and method thereof

Also Published As

Publication number Publication date
KR20200081026A (en) 2020-07-07

Similar Documents

Publication Publication Date Title
US10586395B2 (en) Remote object detection and local tracking using visual odometry
JP6239715B2 (en) System and method for transmitting information using image code
US9277101B2 (en) Method and system for generating interpolations of captured video content
KR102421355B1 (en) Signage device, mobile device and method for providing augmented reality service
US8917908B2 (en) Distributed object tracking for augmented reality application
US9807300B2 (en) Display apparatus for generating a background image and control method thereof
JP6182607B2 (en) Video surveillance system, surveillance device
KR102479360B1 (en) Method and apparatus for providing augmented reality service
WO2014162554A1 (en) Image processing system and image processing program
KR20210036212A (en) Server, device and method for providing augmented reality
CN111753622A (en) Computer-implemented method, server, and medium for localization of indoor environment
JP2015191505A (en) Information processing terminal, display terminal, display method and program
JP2015002477A (en) Information processing apparatus, information processing system, and information processing method
KR20200005060A (en) A method for image searching using an captured image based on guidelines and an apparatus therefor
JP2019160310A (en) On-demand visual analysis focalized on salient events
JP2022020891A (en) Congestion information notification system
JP6500651B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROVIDING SYSTEM, INFORMATION PROVIDING METHOD, AND PROGRAM
JP2015106862A (en) Content information acquisition device and program, and content distribution device
KR20180038175A (en) Server, device and method for providing virtual reality service
KR102620477B1 (en) Server, device and method for providing augmented reality service
JPWO2016031203A1 (en) Display control apparatus and display control method
KR20140035545A (en) Image printing service providing method and system
JP2018205534A (en) Display control device, display control method and program
JP7124281B2 (en) Program, information processing device, image processing system
US20180321757A1 (en) Remote control device, method for driving remote control device, image display device, method for driving image display device, and computer-readable recording medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant