KR20230126187A - Device and method for providing contents based on augmented reality - Google Patents

Device and method for providing contents based on augmented reality Download PDF

Info

Publication number
KR20230126187A
KR20230126187A KR1020230014603A KR20230014603A KR20230126187A KR 20230126187 A KR20230126187 A KR 20230126187A KR 1020230014603 A KR1020230014603 A KR 1020230014603A KR 20230014603 A KR20230014603 A KR 20230014603A KR 20230126187 A KR20230126187 A KR 20230126187A
Authority
KR
South Korea
Prior art keywords
content
miniature
marker
output
time point
Prior art date
Application number
KR1020230014603A
Other languages
Korean (ko)
Inventor
이동현
조영익
Original Assignee
이동현
조영익
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이동현, 조영익 filed Critical 이동현
Publication of KR20230126187A publication Critical patent/KR20230126187A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)

Abstract

An embodiment of the present invention provides an apparatus and method for implementing content through augmented reality when a plurality of markers around a miniature are recognized. The method includes the steps of: generating data for a miniature structure; recognizing an image of at least one marker; recognizing a shooting direction; matching the shooting direction and the data; and outputting content.

Description

증강 현실을 이용한 컨텐츠 구현 장치 및 방법{DEVICE AND METHOD FOR PROVIDING CONTENTS BASED ON AUGMENTED REALITY}Apparatus and method for implementing contents using augmented reality {DEVICE AND METHOD FOR PROVIDING CONTENTS BASED ON AUGMENTED REALITY}

본 발명은 증강 현실로 구현되는 컨텐츠의 배경이 되는 미니어처를 모델링화된 데이터로 생성하고, 모델링화된 데이터가 생성된 미니어처와 컨텐츠를 디바이스를 통해 증강현실로 구현될 수 있도록 하는 장치 및 방법에 관한 것이다. The present invention relates to an apparatus and method for generating a miniature, which is the background of content implemented in augmented reality, as modeled data, and enabling the modeled data to be implemented as augmented reality through a device. will be.

이하에서 기술되는 내용은 본 발명의 실시 예와 관련되는 배경 정보를 제공할 목적으로 기재된 것일 뿐이고, 기술되는 내용들이 당연하게 종래기술을 구성하는 것은 아니다. The contents described below are only described for the purpose of providing background information related to an embodiment of the present invention, and the contents described do not naturally constitute prior art.

증강현실(Augmentation Reality)이란 사용자가 눈으로 보는 현실 세계에 가상의 물체를 겹쳐 보여주는 기술로, 현실 세계에 실시간으로 부가 정보를 갖는 가상 세계를 합쳐 하나의 영상으로 보여주므로 혼합현실(Mixed Reality, MR)이라고도 한다.Augmentation Reality is a technology that superimposes virtual objects on the real world that users see with their eyes. It combines the virtual world with additional information in real time into the real world and shows it as a single image. ) is also called

증강현실은 가상현실과 서로 비슷한 듯 하지만 주체가 허상이냐 실상이냐에 따라 명확히 구분된다. 구체적으로 가상 현실과 증강 현실의 차이는주인공이 위치한 곳이 가상의 새로운 공간인지 아닌지 여부에 따라 결정될 수 있다. Augmented reality seems to be similar to virtual reality, but it is clearly distinguished depending on whether the subject is virtual or real. Specifically, the difference between virtual reality and augmented reality may be determined depending on whether or not the place where the protagonist is located is a virtual new space.

이러한 증강 현실 기술의 한계는 한 사용자가 보고 있는 증강 현실 컨텐츠를 다수의 사용자가 동시에 보기 위해서 서버를 이용하지만 이를 위한 개발비가 증가된다는 한계가 있었다. A limitation of such augmented reality technology is that a server is used so that a plurality of users can simultaneously view augmented reality content that one user is viewing, but development costs for this increase.

또한 증강 현실에서 구현되는 가상 캐릭터는 가상 캐릭터만 증강 현실로 구현된다. 예를 들어 가상 캐릭터가 호랑이인 경우에 디바이스를 통해 호랑이만을 증강 현실로 구현할 뿐, 디바이스에서 촬영하는 영상은 호랑이와 관련 없는 영상이다. 따라서, 서비스를 이용하는 사용자가 주변 사물과 동떨어진 느낌으로 가상 캐릭터를 접하는 한계가 있었다. In addition, only virtual characters implemented in augmented reality are implemented in augmented reality. For example, when the virtual character is a tiger, only the tiger is implemented in augmented reality through the device, and the video captured by the device is not related to the tiger. Therefore, there is a limit in that a user using the service may come into contact with the virtual character with a sense of being separated from surrounding objects.

전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.The foregoing background art is technical information that the inventor possessed for derivation of the present invention or acquired during the derivation process of the present invention, and cannot necessarily be said to be known art disclosed to the general public prior to filing the present invention.

본 발명의 실시 예는 디바이스를 통해 증강 현실을 통해 컨텐츠를 구현할 때, 컨텐츠와 함께 컨텐츠와 관련된 미니어처를 디바이스에서 영상 구현하도록 하는 증강 현실을 이용한 컨텐츠 구현 장치 및 방법을 제공하는 것이다. An embodiment of the present invention is to provide an apparatus and method for implementing content using augmented reality that, when implementing content through augmented reality through a device, enables a device to implement a miniature image related to the content together with the content.

또한, 본 발명의 실시 예는 컨텐츠와 함께 영상 출력되는 미니어처의 모델링화된 데이터를 생성한 후, 생성된 모델링화된 데이터 상에 컨텐츠를 구현하도록 하여 미니어처와 컨텐츠가 간섭되는 영역에서도 컨텐츠와 미니어처가 독립적으로 출력되거나 컨텐츠가 부자연스럽게 출력되는 것을 최소화할 수 있는 증강 현실을 이용한 컨텐츠 구현 장치 및 방법을 제공하는 것이다. In addition, in the embodiment of the present invention, after generating miniature modeled data that is output along with the content, the content is implemented on the generated modeled data so that the content and the miniature can be reproduced even in an area where the miniature and the content interfere. An object of the present invention is to provide an apparatus and method for implementing content using augmented reality capable of minimizing independent output or unnatural output of content.

또한, 본 발명의 실시 예는 컨텐츠 정보를 포함하는 마커가 미니어처 주변에 복수 개 배치되고, 단일의 디바이스가 복수의 마커 중 제1 마커 및 제2 마커를 서로 다른 시점에 인식한 경우, 먼저 인식한 제1 마커를 인식한 시점을 기준으로 컨텐츠를 출력할 수 있도록 하는 증강 현실을 이용한 컨텐츠 구현 장치 및 방법을 제공하는 것이다. In addition, in an embodiment of the present invention, when a plurality of markers including content information are disposed around a miniature and a single device recognizes a first marker and a second marker among the plurality of markers at different times, first recognized It is an object of the present invention to provide an apparatus and method for implementing content using augmented reality that enables content to be output based on a point in time at which a first marker is recognized.

이와 다르게 본 발명의 실시 예는 컨텐츠 정보를 포함하는 마커가 미니어처 주변에 복수 개 배치되고, 복수의 디바이스가 복수의 마커 중 제1 마커 및 제2 마커를 서로 다른 시점에 인식하는 경우, 각각의 디바이스에는 서로 다른 시점에 동일한 컨텐츠가 출력될 수 있도록 하는 증강 현실을 이용한 컨텐츠 구현 장치 및 방법을 제공하는 것이다. Unlike this, in an embodiment of the present invention, when a plurality of markers including content information are arranged around a miniature, and a plurality of devices recognize a first marker and a second marker among the plurality of markers at different times, each device To provide a content implementation device and method using augmented reality that allows the same content to be output at different times.

본 발명의 목적은 이상에서 언급한 과제에 한정되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시 예에 의해보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 알 수 있을 것이다.The object of the present invention is not limited to the above-mentioned tasks, and other objects and advantages of the present invention not mentioned above can be understood by the following description and will be more clearly understood by the embodiments of the present invention. It will also be seen that the objects and advantages of the present invention may be realized by means of the instrumentalities and combinations indicated in the claims.

본 발명의 실시 예에 따른 증강 현실을 이용하여 컨텐츠를 구현하는 방법은, 디바이스를 통해 증강 현실로 구현되는 컨텐츠 배경이 되는 미니어처 구조에 대한 모델링화된 데이터를 생성하고, 상기 미니어처 및 상기 미니어처 주변에 배치되며, 상기 컨텐츠 정보를 포함하는 적어도 하나의 마커를 영상 인식한 후, 기 설정된 상기 미니어처의 정면을 기준으로 상기 디바이스가 상기 미니어처를 촬영하는 촬영 방향을 인지하고, 상기 촬영 방향과 대응하는 방향과 나란한 방향의 상기 미니어처 구조에 대한 상기 모델링화된 데이터를 매칭한 후에 상기 모델링화된 데이터와 상기 미니어처 구조가 일치하는 경우, 상기 디바이스를 통해 상기 컨텐츠를 출력하는 과정으로 수행될 수 있다. A method of implementing content using augmented reality according to an embodiment of the present invention generates modeled data for a miniature structure that becomes a background of content implemented in augmented reality through a device, and creates a modeled data on the miniature and around the miniature. After recognizing an image of at least one marker including the content information, the device recognizes a photographing direction in which the miniature is photographed based on a preset front of the miniature, and determines a photographing direction and a direction corresponding to the photographing direction. After matching the modeled data for the miniature structure in a parallel direction, when the modeled data and the miniature structure match, a process of outputting the content through the device may be performed.

실시 예에서, 영상을 인식하는 과정은, 상기 적어도 하나의 마커 중 제1 마커를 인식하고, 상기 제1 마커와 서로 다른 위치의 제2 마커를 상기 제1 마커를 인식한 제1 시점을 기준으로 상기 제1 시점보다 늦은 제2 시점에 인식하는 과정으로 수행될 수 있다. 이때, 상기 제1 시점을 기준으로 상기 컨텐츠를 출력할 수 있다. In an embodiment, the process of recognizing an image includes recognizing a first marker among the at least one marker, and using a second marker at a position different from that of the first marker based on a first viewpoint at which the first marker is recognized. It may be performed as a process of recognizing at a second time point later than the first time point. At this time, the content may be output based on the first viewpoint.

실시 예에서 영상 인식 시, 상기 적어도 하나의 마커 중 제1 마커와 인접한 제1 디바이스를 통해 상기 제1 마커를 인식하고, 상기 제1 마커와 서로 다른 위치의 제2 마커를 제2 디바이스를 통해 상기 제1 시점과 서로 다른 시점에 인식할 수 있다. 이때, 상기 제1 디바이스와 상기 제2 디바이스는 서로 다른 시점에 동일한 상기 컨텐츠를 출력할 수 있다. In an embodiment, when recognizing an image, the first marker is recognized through a first device adjacent to a first marker among the at least one marker, and a second marker at a position different from the first marker is detected through a second device. It can be recognized at a different time point from the first point of view. In this case, the first device and the second device may output the same content at different times.

실시 예에서, 상기 컨텐츠는 복수 개고, 상기 컨텐츠를 출력하는 출력 시점에서부터 소정 시간이 지난 제1 시간에 제1 컨텐츠 출력 시점을 설정할 수 있으며, 상기 제1 시점이 상기 제1 컨텐츠 출력 시점인 경우, 상기 제1 디바이스가 상기 제1 마커를 인식하면 상기 제1 컨텐츠를 재생할 수 있다. In an embodiment, the content is plural, and the first content output time may be set at a first time after a predetermined time from the output time of outputting the content, and the first content output time is the first content output time, When the first device recognizes the first marker, the first content can be reproduced.

실시 예에서, 상기 미니어처 외형과 대응하도록 상기 모델링화된 데이터를 생성할 수 있다. In an embodiment, the modeled data may be generated to correspond to the miniature appearance.

실시 예에서, 상기 모델링화된 데이터와 상기 미니어처 구조 정보가 일치하지 않는 것으로 판단되면, 상기 미니어처 영상 재 인식 알림을 안내할 수 있다. In an embodiment, when it is determined that the modeled data and the miniature structure information do not match, the miniature image re-recognition notification may be notified.

실시 예에서, 상기 미니어처와 상기 마커를 동시에 인식하는 경우에 상기 컨텐츠가 출력될 수 있다. In an embodiment, the content may be output when the miniature and the marker are simultaneously recognized.

실시 예에서, 상기 디바이스의 이동이 감지되는 경우, 상기 디바이스의 이동 방향을 따라 상기 컨텐츠를 이동시킬 수 있다. In an embodiment, when the movement of the device is detected, the content may be moved along the movement direction of the device.

본 발명의 실시 예에 따른 컨텐츠 구현 장치는, 프로세서 및 상기 프로세서와 전기적으로 연결되고, 상기 프로세서에서 수행되는 적어도 하나의 코드(code)가 저장되는 메모리를 포함하고, 상기 메모리는 상기 프로세서를 통해 실행될 때 상기 프로세서가 디바이스를 통해 증강 현실로 구현되는 컨텐츠 배경이 되는 미니어처 구조에 대한 모델링화된 데이터를 생성하고, 상기 미니어처 및 상기 미니어처 주변에 배치되며, 상기 컨텐츠 정보를 포함하는 적어도 하나의 마커를 영상 인식한 뒤, 기 설정된 상기 미니어처의 정면을 기준으로 상기 디바이스가 상기 미니어처를 촬영하는 촬영 방향을 인지한 후, 상기 촬영 방향과 대응하는 방향과 나란한 방향의 상기 미니어처 구조에 대한 상기 모델링화된 데이터와 상기 미니어처 구조가 일치하는 경우, 상기 디바이스를 통해 상기 컨텐츠를 출력하도록 야기하는 코드들을 저장할 수 있다. A content implementation device according to an embodiment of the present invention includes a processor and a memory electrically connected to the processor and storing at least one code executed by the processor, wherein the memory is to be executed by the processor. When the processor generates modeled data for a miniature structure that becomes a content background implemented in augmented reality through a device, and displays the miniature and at least one marker disposed around the miniature, including the content information, as an image After recognition, after recognizing a photographing direction in which the device photographs the miniature based on the front of the preset miniature, the modeled data for the miniature structure in a direction parallel to the photographing direction and the direction corresponding to the photographing direction When the miniature structures match, codes that cause the contents to be output through the device may be stored.

전술한 것 외의 다른 측면, 특징, 및 이점이 이하의 도면, 청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages other than those described above will become apparent from the following drawings, claims, and detailed description of the invention.

본 발명의 실시 예는 디바이스를 이용하여 증강 현실을 구현하고, 구현되는 증강 현실에서 컨텐츠가 실현될 수 있다. 이때, 컨텐츠는 컨텐츠의 배경화면으로 사용되는 실제 사물인 미니어처와 인접한(예: 미니어처 주변, 미니어처 내부 등) 위치에서 구현될 수 있다. 여기서 컨텐츠를 실현하기 위해 미니어처 주변이나 미니어처 자체에 마커를 배치할 수 있다. 배치된 마커를 디바이스를 통해 인식하면 마커에 저장된 컨텐츠 정보를 기초로 미니어처 주변에 컨텐츠가 출력될 수 있다. 이로 인해, 증강 현실을 통해 구현되는 컨텐츠가 주변 사물과 동떨어지지 않고 보다 사실감 있게 구현될 수 있다. An embodiment of the present invention implements augmented reality using a device, and content may be realized in the implemented augmented reality. In this case, the content may be implemented at a location adjacent to a miniature, which is an actual object used as a background screen of the content (eg, around the miniature, inside the miniature, etc.). Here you can place markers around the miniature or on the miniature itself to bring content to life. When the placed marker is recognized through the device, content may be output around the miniature based on content information stored in the marker. As a result, content implemented through augmented reality can be implemented more realistically without being separated from surrounding objects.

또한, 컨텐츠는 미니어처와 간섭 없이 출력될 수 있다. 구체적으로 컨텐츠와 함께 미니어처를 디바이스에서 영상 출력하기 위해서 미니어처의 모델링화된 데이터를 생성할 수 있다. 디바이스 및 서버에 기 저장될 수 있으며 디바이스가 저장된 모델링 데이터와 매칭되는 미니어처 이미지(영상)를 인식하면 미니어처에 대응하는 모델링 데이터를 출력할 수 있다. 이때, 마커를 통해 출력되는 컨텐츠는 모델링 데이터의 뒤쪽 배경으로 인식되는 예를 들어 미니어처 벽 뒤로 컨텐츠가 출력되어야 하는 경우와 같이 컨텐츠와 미니어처가 간섭되는 경우에 컨텐츠 또는/및 미니어처 중 어느 하나를 독립적으로 출력하도록 하여 컨텐츠가 자연스럽게 출력될 수 있도록 한다. Also, the content can be output without interfering with the miniatures. Specifically, modeled data of a miniature may be generated in order to output a video of a miniature along with content from a device. It may be pre-stored in a device and a server, and when the device recognizes a miniature image (image) matching the stored modeling data, modeling data corresponding to the miniature may be output. At this time, the content output through the marker is recognized as the background behind the modeling data, for example, when the content and the miniature interfere, such as when the content should be output behind a miniature wall, either the content or/and the miniature is independently displayed. Make it output so that the content can be output naturally.

한편, 컨텐츠 정보를 포함하는 마커는 미니어처 주변에 복수 개가 배치될 수 있다. 이때, 하나의 디바이스를 통해 복수 개의 마커 중 제1 마커와 제1 마커와 인접한 제2 마커를 인식하는 경우, 먼저 인식한 제1 마커를 기준으로 컨텐츠를 출력할 수 있도록 한다. 즉, 복수의 마커를 서로 다른 시점에 인식하여도 중복됨 없이 컨텐츠가 출력될 수 있다. Meanwhile, a plurality of markers including content information may be arranged around the miniature. In this case, when a first marker and a second marker adjacent to the first marker are recognized among a plurality of markers through one device, the content can be output based on the previously recognized first marker. That is, even if a plurality of markers are recognized at different points in time, content can be output without overlapping.

이와 다르게, 복수의 마커가 서로 다른 디바이스에 의해 인식될 수도 있다. 즉, 제1 디바이스가 마커 중 제1 마커를 인식하고 제2 디바이스가 제2 마커를 인식하는 경우, 제1 디바이스와 제2 디바이스는 서로 다른 시점일지라도 동일한 컨텐츠를 확인할 수 있다. 즉, 복수의 각 마커에는 동일한 컨텐츠 정보를 포함하고 있고, 서로 다른 디바이스가 다른 시점에 다른 위치의 마커를 인식하더라도 각각의 디바이스에는 동일한 컨텐츠가 구현될 수 있다. Alternatively, a plurality of markers may be recognized by different devices. That is, when the first device recognizes a first marker among the markers and the second device recognizes a second marker, the first device and the second device can view the same content even at different viewpoints. That is, the same content information may be included in each of a plurality of markers, and even if different devices recognize markers at different positions at different times, the same content may be implemented in each device.

이때, 각 디바이스가 서로 다른 시점에 마커를 인식하는 경우에 컨텐츠가 출력되는 시작 시점은 동일하도록 설정될 수 있다. 즉, 제1 디바이스가 제1 마커를 인식하는 제1 시점이 제2 디바이스가 제2 마커를 인식하는 제2 시점보다 빠른 경우에도, 제1 디바이스로 컨텐츠 출력 시점에 관계 없이 제2 디바이스가 제2 마커를 인식한 시점을 기초로 컨텐츠를 출력하도록 하여 서로 다른 디바이스를 통해 컨텐츠가 구현되더라도 복수의 사용자는 동일한 컨텐츠를 이용할 수 있게 된다. In this case, when each device recognizes the marker at different points of time, the start point of outputting the content may be set to be the same. That is, even if the first time point at which the first device recognizes the first marker is earlier than the second time point at which the second device recognizes the second marker, the second device sets the second device to the second device regardless of the time point at which content is output to the first device. By outputting the content based on the point in time at which the marker is recognized, a plurality of users can use the same content even if the content is implemented through different devices.

본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명의 실시 예에 따른 증강 현실을 통한 컨텐츠 구현 장치의 통신 환경을 개략적으로 나타낸 도면이다.
도 2는 본 발명의 실시 예에 따른 증강 현실을 통해 컨텐츠를 구현하기 위한 미니어처 모델링 과정을 도시한 도면이다.
도 3 및 도 4는 본 발명의 실시 예에 따른 미니어처 주변에 복수의 마커가 배치된 예를 도시한 도면이다.
도 5는 본 발명의 실시 예에 따른 복수의 마커 각각에 증강 현실을 이용하여 출력되는 컨텐츠 정보를 입력하는 예를 도시한 도면이다.
도 6은 본 발명의 실시 예에 따른 복수의 마커를 통한 컨텐츠 출력 조건을 도시한 도면이다.
도 7은 본 발명의 실시 예에 따른 증강 현실을 통한 컨텐츠를 구현하는 디바이스의 구성을 나타낸 블록도이다.
도 8은 본 발명의 실시 예에 따른 증강 현실을 통한 컨텐츠를 구현하기 위한 디바이스와 통신 연결되는 서버의 구성을 나타낸 블록도이다.
도 9는 본 발명의 실시 예에 따른 증강 현실을 통한 컨텐츠 구현 과정을 도시한 순서도이다.
1 is a diagram schematically illustrating a communication environment of a device for implementing content through augmented reality according to an embodiment of the present invention.
2 is a diagram illustrating a miniature modeling process for implementing content through augmented reality according to an embodiment of the present invention.
3 and 4 are diagrams illustrating an example in which a plurality of markers are arranged around a miniature according to an embodiment of the present invention.
5 is a diagram illustrating an example of inputting content information output using augmented reality to each of a plurality of markers according to an embodiment of the present invention.
6 is a diagram illustrating conditions for outputting content through a plurality of markers according to an embodiment of the present invention.
7 is a block diagram showing the configuration of a device that implements content through augmented reality according to an embodiment of the present invention.
8 is a block diagram showing the configuration of a server connected to a device for implementing content through augmented reality according to an embodiment of the present invention.
9 is a flowchart illustrating a process of implementing content through augmented reality according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 발명된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 발명된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 발명된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 발명된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 발명된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the embodiments invented in this specification will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted. The suffixes "module" and "unit" for components used in the following description are given or used together in consideration of ease of writing the specification, and do not have meanings or roles that are distinct from each other by themselves. In addition, when it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification in describing the embodiments disclosed herein, the detailed descriptions thereof will be omitted. In addition, the accompanying drawings are only for making it easy to understand the embodiments invented in this specification, and the technical ideas invented in this specification are not limited by the accompanying drawings, and are included in the spirit and technical scope of the present invention. It should be understood to include all modifications, equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers, such as first and second, may be used to describe various components, but the components are not limited by the terms. These terms are only used for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수 개의 표현을 포함한다.Expressions in the singular number include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as "comprise" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

이하 도면을 참고하여 본 발명의 증강 현실을 통한 컨텐츠를 구현하는 장치에 관하여 자세히 살펴보기로 한다. Hereinafter, with reference to the drawings, a device for implementing content through augmented reality according to the present invention will be described in detail.

도 1은 본 발명의 실시 예에 따른 증강 현실을 통한 컨텐츠 구현 장치의 통신 환경을 개략적으로 나타낸 도면이고, 도 2는 본 발명의 실시 예에 따른 증강 현실을 통해 컨텐츠를 구현하기 위한 미니어처 모델링 과정을 도시한 도면이다.1 is a diagram schematically illustrating a communication environment of a device for implementing content through augmented reality according to an embodiment of the present invention, and FIG. 2 illustrates a miniature modeling process for implementing content through augmented reality according to an embodiment of the present invention. It is an illustrated drawing.

도면을 참고하면, 증강 현실을 통한 컨텐츠 구현 장치를 구현하는 환경(10)은 마커(100)를 포함하는 미니어처(200), 디바이스(50) 및 서버(300)가 네트워크에 의해 서로 통신될 수 있다. Referring to the drawing, in an environment 10 implementing an apparatus for implementing content through augmented reality, a miniature 200 including a marker 100, a device 50, and a server 300 may communicate with each other through a network. .

증강 현실을 통해 컨텐츠를 구현하는 환경(10)에 대해 간략히 살펴보면, 우선 컨텐츠를 이용하고자 하는 사용자는 디바이스(50)를 이용하여 미니어처(200) 및 마커(100)를 영상 인식할 수 있다. 마커(100) 및 미니어처(200)를 영상 인식하면 마커(100)에 기 저장된 컨텐츠의 정보에 따라 디바이스(50)에 관련 컨텐츠가 구현될 수 있다. 이때, 구현되는 컨텐츠는 증강 현실을 통해 구현되는 컨텐츠로서, 미니어처(200) 정보와 관련 있는 컨텐츠, 가상 캐릭터 중 어느 하나일 수 있고, 본 발명의 실시 예에서는 가상 캐릭터인 경우를 예를 들어 설명하기로 한다. Briefly looking at the environment 10 implementing content through augmented reality, first, a user who wants to use content may use the device 50 to recognize the miniature 200 and the marker 100 as images. When the marker 100 and the miniature 200 are image-recognized, related content may be implemented in the device 50 according to content information pre-stored in the marker 100 . At this time, the implemented content is content implemented through augmented reality, and may be any one of content related to the miniature 200 information and a virtual character. do it with

컨텐츠가 구현되는 증강 현실(Augmentation Reality)이란 사용자가 눈으로 보는 현실 세계에 가상의 물체를 겹쳐 보여주는 기술이다. Augmentation reality, in which content is implemented, is a technology that superimposes virtual objects on the real world seen by the user.

마커(100)는 컴퓨터 비전 기술로 인식하기 용이한 임의의 물체를 의미하는 것으로, 주로 검정색 바탕의 특이한 색상이나 문양 또는 기하학적인 형태나 3차원 객체를 사용하기도 한다. 예를 들어 최근에 사용되고 있는 QR코드, 문자, 번호 또는 이들의 조합으로 이루어진 식별코드를 입력하는 형태 중 어느 하나일 수 있다. 이와 다르게 마커(100)는 사진과 같은 이미지로도 구현될 수 있으며, 본 발명의 실시 예의 마커(100)는 검정색 바탕의 특이한 색상이나 문양 또는 기하학적인 형태로 이루어진 예를 들어 설명하지만 마커(100)의 형태에 의해 본 발명이 제한되는 것은 아니다.The marker 100 refers to an arbitrary object easily recognized by computer vision technology, and mainly uses a unique color or pattern on a black background, a geometric shape, or a three-dimensional object. For example, it may be any one of the forms of inputting an identification code consisting of a recently used QR code, a letter, a number, or a combination thereof. Unlike this, the marker 100 can also be implemented in an image such as a photograph, and the marker 100 of the embodiment of the present invention will be described as an example consisting of a unique color, pattern or geometric shape on a black background, but the marker 100 The present invention is not limited by the form of.

이러한 마커(100)는 이하 설명될 도 3 내지 도 5에 도시된 바와 같이 미니어처(200)에 마커(100) 자체가 인쇄되어 미니어처(200)와 마커(100)가 일체화될 수도 있으며, 미니어처(200) 주변에 별도로 배치될 수도 있다. 미니어처(200) 주변에 별도 배치된 마커(100)는 미니어처(200) 정면, 측면 중 어느 하나의 일 면에 형성될 수 있지만 다르게는 미니어처(200)의 정면, 측면 및 후면 모두에 배치될 수도 있다. 이하 설명에서는 복수의 마커(100)가 미니어처(200)의 정면, 측면 및 후면에 모두 배치된 예를 들어 설명하기로 한다. As shown in FIGS. 3 to 5 to be described below, the marker 100 may be printed on the miniature 200 so that the miniature 200 and the marker 100 may be integrated. ) may be separately arranged around the periphery. The markers 100 separately disposed around the miniature 200 may be formed on one of the front and side surfaces of the miniature 200, but may be disposed on all of the front, side, and rear surfaces of the miniature 200. . In the following description, an example in which the plurality of markers 100 are disposed on all of the front, side, and rear surfaces of the miniature 200 will be described.

미니어처(200)는 마커(100)와 인접하게 배치된 실제 사물일 수 있다. 예를 들어 미니어처(200)는 마커(100)를 통해 구현되는 컨텐츠의 주변 환경을 표현하는 사물일 수 있으며, 구체적으로 구현되는 컨텐츠가 동물일 경우, 미니어처(200)는 나무, 잔디, 미니 숲 등일 수 있고, 컨텐츠가 게임 캐릭터인 경우 게임 환경을 나타내는 공간일 수 있다. The miniature 200 may be a real object disposed adjacent to the marker 100 . For example, the miniature 200 may be an object that expresses the surrounding environment of the content implemented through the marker 100. When the specifically implemented content is an animal, the miniature 200 may be a tree, grass, mini forest, and the like. and, when the content is a game character, it may be a space representing a game environment.

디바이스(50)는 마커(100)와 미니어처(200)를 인식할 수 있는 촬영부(55_도 7 참고)를 포함하고, 촬영부(55)에 의해 인식된 마커(100)와 미니어처(200)에 대한 정보를 기반으로 컨텐츠를 생성할 수 있는 장치이다. 이러한 디바이스(50)는 예를 들어 MR(Mixed Reality) 또는 AR/VR 기반으로 디스플레이 할 수 있는 HMD 디스플레이(50A), 어느 하나의 어플리케이션을 통해 디스플레이 하도록 휴대 단말기(50B) 및 안경 형태로 AR 영상을 제공하는 스마트 글래스(50C) 중 어느 하나가 될 수 있다. The device 50 includes a photographing unit (55_refer to FIG. 7) capable of recognizing the marker 100 and the miniature 200, and the marker 100 and the miniature 200 recognized by the photographing unit 55 are captured. It is a device capable of generating content based on information about. Such a device 50 is, for example, an HMD display 50A capable of displaying based on MR (Mixed Reality) or AR/VR, a portable terminal 50B to display through any one application, and an AR image in the form of glasses. It may be any one of the provided smart glasses 50C.

다시 말해, 디바이스(50)는 마커(100)를 통해 호출된 가상 캐릭터에 대한 가상공간 이미지를 생성하는 장치이다. 이러한 디바이스(50)는 마커(100)와 미니어처(200)를 동시에 영상 인식할 수 있고, 디바이스(50)에는 미니어처(200) 및 미니어처(200) 주변으로 마커(100)에 포함된 정보인 컨텐츠(400)가 출력될 수 있다. In other words, the device 50 is a device that generates a virtual space image for a virtual character called through the marker 100 . Such a device 50 can recognize the image of the marker 100 and the miniature 200 at the same time, and the device 50 includes the miniature 200 and the miniature 200 around the marker 100, which is information included in the content ( 400) may be output.

또한, 디바이스(50)는 컨텐츠가 증강 현실에서 구현될 수 있는 어플, 프로그램 등을 포함할 수 있으며, 이하 본 발명의 실시 예에서는 디바이스(50)에 어플이 설치되어 마커(100) 및 미니어처(200)를 촬영함과 동시에 관련 어플이 작동하거나 어플을 작동한 뒤 마커(100)와 미니어처(200)를 촬영하면 증강현실에서 컨텐츠(400)가 구현될 수 있는 예를 들어 설명하기로 한다. In addition, the device 50 may include an application, program, etc. in which content can be implemented in augmented reality. ) and at the same time, when the related application is operated or the marker 100 and the miniature 200 are taken after the application is operated, the content 400 can be implemented in augmented reality as an example.

여기서 디바이스(50)를 통해 출력되는 컨텐츠(400)는 실제 공간인 미니어처(200)과 인접한 위치에 출력될 수 있다. 또한, 컨텐츠(400)는 디바이스(50)의 이동 방향과 함께 이동하며 디바이스(50)를 이용하는 사용자의 시선(실제 디바이스를 바라보는 시선)과 함께 이동할 수 있다. Here, the content 400 output through the device 50 may be output at a location adjacent to the miniature 200, which is a real space. In addition, the content 400 may move along with the movement direction of the device 50 and may move along with the gaze of the user using the device 50 (actual gaze toward the device).

설명한 바와 같이 미니어처(200)는 컨텐츠(400)와 관련된 실제 사물일 수 있다. 한편 컨텐츠(400)는 미니어처(200) 주변에서 출력되기 때문에 증강 현실을 이용하는 사용자는 주변 환경과 조화가 이루어진 컨텐츠를 접할 수 있게 된다. As described above, the miniature 200 may be an actual object related to the content 400 . Meanwhile, since the content 400 is output around the miniature 200, a user using augmented reality can access content that is in harmony with the surrounding environment.

다시 도 1을 참고하여 증강현실을 이용한 컨텐츠 구현 과정을 살펴보면 사용자는 디바이스(50)를 이용하여 미니어처(200) 주변의 마커(100)를 영상 인식할 수 있다. 이때, 마커(100)는 나무 모양의 미니어처(200) 주변에 배치될 수 있다. 또한, 사용자는 마커(100)와 미니어처(200)를 동시에 인식할 수 있다. Referring to FIG. 1 again, looking at the process of implementing content using augmented reality, the user can image the marker 100 around the miniature 200 using the device 50 . In this case, the marker 100 may be disposed around the tree-shaped miniature 200 . Also, the user may recognize the marker 100 and the miniature 200 at the same time.

이후, 마커(100)에 저장된 정보가 디바이스(50)를 통해 출력될 수 있다. 마커(100)에 저장된 정보가 예를 들어 동물이라고 가정하면, 디바이스(50)에는 미니어처(200) 주변에 동물 컨텐츠가 출력될 수 있다. 즉, 실제 공간인 미니어처(200) 주변에 가상 캐릭터가 생성되도록 하여 증강 현실을 통해 컨텐츠를 접하는 사용자는 보다 생동감 있는 컨텐츠를 확인할 수 있게 된다.After that, information stored in the marker 100 may be output through the device 50 . Assuming that the information stored in the marker 100 is, for example, an animal, animal content may be output around the miniature 200 on the device 50 . That is, a virtual character is created around the miniature 200, which is a real space, so that a user who encounters content through augmented reality can check more lively content.

한편, 컨텐츠(400)와 미니어처(200)가 함께 출력될 때, 컨텐츠(400)와 미니어처(200)가 간섭될 수 있다(도 2의 (d) 참고_미니어처 뒤편 출력되는 가상 캐릭터 참고). 이때, 미니어처(200) 배치에 맞도록 컨텐츠(400)가 출력될 수 있도록 한다. Meanwhile, when the contents 400 and the miniature 200 are output together, the contents 400 and the miniature 200 may be interfered with (refer to (d) in FIG. 2_refer to the virtual character output behind the miniature). At this time, the contents 400 are output to match the arrangement of the miniatures 200 .

이를 위해, 컨텐츠와 함께 미니어처(200)를 디바이스(50)에서 영상 출력하기 위해 모델링화된 미니어처(2000)를 생성할 수 있다. 구체적으로 도 2를 참고하면, 미니어처(200) 외형과 동일하게 모델링화된 데이터를 생성하고, 생성된 모델링화된 데이터는 디바이스(50) 또는/및 서버(300)에 기 저장할 수 있다. 이후, 디바이스(50)가 미니어처(200)를 이미지(영상) 인식하면 미리 정해둔 자리에 위치한 미니어처(200)와 대응하는 모델링화된 데이터 정보를 디바이스(50) 또는/및 서버(300)의 메모리에서 출력할 수 있다. 즉, 사용자는 미니어처(200)를 영상 인식하지만, 디바이스(50)에서 출력되는 정보는 미니어처(200) 자체가 아닌 모델링화된 미니어처(2000_모델링화된 데이터)를 출력하는 것이다. To this end, a modeled miniature 2000 may be generated in order to output an image of the miniature 200 from the device 50 together with the content. Specifically, referring to FIG. 2 , modeled data identical to the appearance of the miniature 200 may be generated, and the generated modeled data may be previously stored in the device 50 or/and the server 300 . Thereafter, when the device 50 recognizes the miniature 200 as an image (image), modeled data information corresponding to the miniature 200 located at a predetermined location is stored in the memory of the device 50 or/and the server 300. can be output from That is, the user recognizes the miniature 200 as an image, but information output from the device 50 outputs a modeled miniature (2000_modeled data), not the miniature 200 itself.

이때, 컨텐츠(400)는 디바이스(50)에 출력되는 전체 정보 중 뒤쪽 배경으로 인식될 수 있다. 예시적으로, 컨텐츠(400)가 미니어처(200)의 벽 뒤로 위치해야 하는 경우와 같이 컨텐츠(400)와 미니어처(200)가 간섭되는 경우, 모델링화된 미니어처(2000)가 디바이스(50)에 우선 출력되고, 컨텐츠(400)는 모델링화된 미니어처(2000)에 가려져 사용자는 컨텐츠(400)가 미니어처(200) 벽 뒤에 위치하는 것과 같이 보여질 수 있다. In this case, the content 400 may be recognized as a background background among all information output to the device 50 . Illustratively, when the content 400 and the miniature 200 interfere, such as when the content 400 needs to be located behind a wall of the miniature 200, the modeled miniature 2000 takes precedence over the device 50. After being output, the content 400 is covered by the modeled miniature 2000 so that the user can see the content 400 as being located behind the wall of the miniature 200 .

다시 도 2를 참고하면, 모델링화된 미니어처(2000)를 생성하는 과정은 구체적으로 컨텐츠(400)의 배경이 될 수 있는 미니어처(200)를 인식하고(도 2의 (a) 참고), 인식한 미니어처(200)와 대응할 수 있는 3D 그래픽을 생성할 수 있다(도 2의 (b) 참고). 즉, 미니어처(200)의 3D 그래픽을 기준으로 미니어처(200)에 투명한 쉐이더(벽)을 적용한 모델링화된 데이터를 생성할 수 있다. Referring back to FIG. 2, the process of generating the modeled miniature 2000 specifically recognizes the miniature 200 that may be the background of the content 400 (see (a) in FIG. 2), 3D graphics that can correspond to the miniature 200 can be generated (refer to (b) of FIG. 2). That is, modeled data obtained by applying a transparent shader (wall) to the miniature 200 based on the 3D graphics of the miniature 200 may be generated.

이후, 미니어처(200) 주변이나 미니어처(200) 자체에 마커(100)를 배치하고 마커(100) 상에 3D 그래픽화된 모델링화된 미니어처(2000)를 배치할 수 있다(도 3의 (c) 참고). 이때, 디바이스(50)에서는 마커(100)를 중심으로 좌표를 추출하여 모델링화된 미니어처(2000)를 추출할 수 있다. Thereafter, the marker 100 may be placed around the miniature 200 or the miniature 200 itself, and the 3D graphically modeled miniature 2000 may be placed on the marker 100 (Fig. 3(c)). reference). In this case, the device 50 may extract the modeled miniature 2000 by extracting coordinates centered on the marker 100 .

즉, 디바이스(50)가 마커(100)를 인식하면 모델링화된 미니어처(2000)가 디바이스(50)에서 추출될 수 있다. 이때 디바이스(50)에서 추출하는 모델링화된 미니어처(2000)는 투명 쉐이더로 된 형상이다. 즉, 디바이스(50)에서 보여지는 것은 실제 미니어처(200)가 아닌 모델링화된 미니어처(2000)인 것이다. 이때, 디바이스(50)는 추출한 모델링화된 미니어처(2000)와 실제 미니어처(200)가 대응하도록 디바이스(50)를 움직여 실제 미니어처(200)가 모델링화된 미니어처(2000) 프레임에 배치될 수 있도록 한다. 이로 인해 사용자는 디바이스(50)를 통해 미니어처(200)를 보는 것과 동일한 결과를 도출할 수 있다. That is, when the device 50 recognizes the marker 100 , the modeled miniature 2000 may be extracted from the device 50 . At this time, the modeled miniature 2000 extracted from the device 50 is a shape made of a transparent shader. That is, what is shown in the device 50 is the modeled miniature 2000, not the actual miniature 200. At this time, the device 50 moves the device 50 so that the extracted modeled miniature 2000 and the actual miniature 200 correspond so that the actual miniature 200 can be placed in the frame of the modeled miniature 2000. . Due to this, the user may derive the same result as viewing the miniature 200 through the device 50 .

다시 도면을 참고하면, 마커(100)는 미니어처(200) 정면이나 측면 중 어느 한 위치에 배치될 수 있다. 예시적으로, 마커(100)가 미니어처(200) 정면에 위치하고, 디바이스(50)가 미니어처(200) 정면에서 미니어처(200)를 인식할 경우, 디바이스(50)에 저장된 모델링화된 미니어처(2000)와 실제 미니어처(200)의 1:1 대응이 쉽게 이루어질 수 있다.Referring back to the drawing, the marker 100 may be disposed on either the front or side of the miniature 200 . For example, when the marker 100 is located in front of the miniature 200 and the device 50 recognizes the miniature 200 from the front of the miniature 200, the modeled miniature 2000 stored in the device 50 1: 1 correspondence between and the actual miniature 200 can be easily achieved.

이와 다르게, 사용자가 미니어처(200)를 이미지(영상) 인식할 때, 미니어처(200) 측면에서 이미지(영상) 인식할 수 있다(도 4의 방향축의 좌, 우 방향). 즉, 디바이스(50)는 모델링화된 미니어처(2000) 측면에서 인식하는 것이다. 이때, 디바이스(50)에 저장된 모델링화된 미니어처(2000)가 정면인 경우 디바이스(50)에서 출력되는 미니어처(200) 정보는 정면(도 4의 방향축의 전, 후 방향)을 향하는 정보일 수 있다. 따라서, 디바이스(50)에서 보여지는 미니어처와 모델링화된 미니어처(2000)가 일치하지 않게 된다. 이를 위해, 측면에서 미니어처(200)를 영상 인식하는 경우라도 모델링화된 미니어처(2000)의 정보가 측면측에 매칭되는 모델링화된 미니어처(2000)가 디바이스(50)에 출력될 수 있도록 한다. Unlike this, when the user recognizes an image (video) of the miniature 200, the image (video) can be recognized from the side of the miniature 200 (left and right directions of the directional axis in FIG. 4). That is, the device 50 is recognized in terms of the modeled miniature 2000 . In this case, when the modeled miniature 2000 stored in the device 50 is a front side, miniature 200 information output from the device 50 may be information directed to the front side (front and rear directions of the direction axis of FIG. 4 ). . Therefore, the miniature displayed on the device 50 and the modeled miniature 2000 do not match. To this end, even when the image of the miniature 200 is recognized from the side, the modeled miniature 2000 matching information on the modeled miniature 2000 to the side can be output to the device 50 .

또한, 미니어처(200)를 측면에서 인식하는 경우, 모델링화된 미니어처(2000)의 측면 방향을 기준으로 컨텐츠(400)를 출력할 수 있도록 한다. 설명한 바와 같이, 미니어처(200) 측면을 인식하여도 모델링화된 미니어처(2000)가 자동으로 미니어처(200)의 측면에 대응하는 3D 데이터를 출력할 수 있다. 따라서, 미니어처(200) 주변에 출력되는 컨텐츠(400) 또한, 미니어처(200) 측면을 따라 이동하는 동작이 수행될 수 있다. 이로 인해, 사용자가 미니어처의 어느 방향에서 출력되는 컨텐츠는 미니어처의 방향에 관계없이 저장된 조건에 따라 미니어처의 형상, 모양 등에 맞춰 출력될 수 있게 된다. In addition, when recognizing the miniature 200 from the side, the contents 400 can be output based on the side direction of the modeled miniature 2000 . As described above, even if the sides of the miniature 200 are recognized, the modeled miniature 2000 may automatically output 3D data corresponding to the sides of the miniature 200 . Accordingly, an operation of moving the content 400 output around the miniature 200 along the side of the miniature 200 may also be performed. As a result, contents output from any direction of the miniature by the user can be output according to the shape, shape, etc. of the miniature according to stored conditions regardless of the direction of the miniature.

앞서 설명한 바와 같이, 본 발명의 실시 예에서 마커(100)는 미니어처(200) 주변에 복수 개가 배치될 수 있다. 예를 들어 마커(100)는 미니어처(200)의 전, 후 및 양 측면에 각각 배치되는 예를 들어 설명하기로 한다. 미니어처(200)의 주변에 배치된 복수의 마커(100)에는 출력되는 컨텐츠에 대한 동일한 정보가 포함되어 있다. 즉, 복수의 마커(100) 중 어느 하나만을 인식하더라도 마커(100)에 포함된 컨텐츠가 출력될 수 있도록 구성될 수 있다. As described above, in an embodiment of the present invention, a plurality of markers 100 may be disposed around the miniature 200 . For example, the marker 100 will be described as an example in which the markers 100 are respectively disposed on the front, rear, and both sides of the miniature 200 . The plurality of markers 100 arranged around the miniature 200 include the same information about the output content. That is, even if only one of the plurality of markers 100 is recognized, the content included in the marker 100 may be output.

이와 관련한 구체적인 설명은 하기의 도 3 내지 도 5를 참고하여 설명하기로 한다. A detailed description in this regard will be described with reference to FIGS. 3 to 5 below.

한편, 디바이스(50)는 이동 가능할 수 있다. 만약, 컨텐츠(400) 출력 시도 디바이스(50) 이동이 감지되는 경우, 디바이스(50) 이동 방향을 따라 컨텐츠(400)가 이동되도록 하여 보다 실감나는 컨텐츠 출력이 가능해지도록 할 수 있다. Meanwhile, the device 50 may be movable. If the content 400 is attempted to be output, when the movement of the device 50 is detected, the content 400 may be moved along the moving direction of the device 50 to enable more realistic content output.

서버(300)는 마커(100) 및 미니어처(200)에 대한 정보를 제공하는 데이터 베이스일 수 있다. 그 밖에 서버(300)는 디바이스(50)에 설치된 어플리케이션 또는 웹 브라우저를 이용하여 사용자가 음성, 터치 등으로 제어할 수 있는 웹서버 또는 어플리케이션 서버를 포함할 수도 있다. The server 300 may be a database providing information on the marker 100 and the miniature 200 . In addition, the server 300 may include a web server or application server that the user can control by voice or touch using an application installed in the device 50 or a web browser.

또한, 서버(300)는 디바이스(50)로 보여지는 컨텐츠(400) 출력을 위한 마커(100) 및 미니어처(200) 인식 명령을 수신하고, 수신된 명령에 대응하여 디바이스(50)가 수행할 수 있는 동작이 저장될 수 있다. 여기서 디바이스(50)가 수행할 수 있는 동작은 예를 들어 출력되는 컨텐츠(400)가 미니어처 주변에서 움직이도록 출력되거나, 가상 캐릭터에 대응하는 환경이 가상 캐릭터와 함께 출력되는 의미할 수 있다. In addition, the server 300 may receive a command for recognizing the marker 100 and the miniature 200 for outputting the content 400 shown by the device 50, and the device 50 may perform the command in response to the received command. Actions can be saved. Here, the operation that the device 50 can perform may mean, for example, that the outputted content 400 is output to move around a miniature or that an environment corresponding to a virtual character is output together with the virtual character.

도 3 및 도 4는 본 발명의 실시 예에 따른 미니어처 주변에 복수의 마커가 배치된 예를 도시한 도면이고, 도 5는 본 발명의 실시 예에 따른 복수의 마커 각각에 증강 현실을 이용하여 출력되는 컨텐츠 정보를 입력하는 예를 도시한 도면이며, 도 6은 본 발명의 실시 예에 따른 복수의 마커를 통한 컨텐츠 출력 조건을 도시한 도면이다. 3 and 4 are diagrams illustrating an example in which a plurality of markers are arranged around a miniature according to an embodiment of the present invention, and FIG. 5 is output using augmented reality to each of a plurality of markers according to an embodiment of the present invention. FIG. 6 is a diagram showing an example of inputting content information to be used, and FIG. 6 is a diagram showing conditions for outputting content through a plurality of markers according to an embodiment of the present invention.

도면을 참고하면 본 발명의 실시 예에 따른 증강 현실을 통해 컨텐츠가 구현되기 위한 미니어처(200) 주변에는 복수의 마커(100)가 배치될 수 있다. Referring to the drawing, a plurality of markers 100 may be arranged around a miniature 200 for implementing content through augmented reality according to an embodiment of the present invention.

도 3과 같이 미니어처(200)를 중심으로 미니어처(200)의 전, 후 및 측면 각각에 마커(100)가 배치될 수 있으며 다르게는 도 4와 같이 미니어처(200)가 구형(둥근 모양)인 경우 미니어처(200)의 둘레를 따라 복수의 마커(100)가 배치될 수도 있다. As shown in FIG. 3, markers 100 may be placed on each of the front, rear, and side surfaces of the miniature 200 centered on the miniature 200. Alternatively, when the miniature 200 is spherical (round shape) as shown in FIG. 4 A plurality of markers 100 may be disposed along the circumference of the miniature 200 .

이와 같이 배치된 복수의 마커(100)에는 동일한 컨텐츠 정보가 포함될 수 있다. 동일한 컨텐츠 정보란, 예를 들어 하나의 디바이스가 제1 마커(100A) 또는 제2 마커(100B)를 인식하더라도 동일한 컨텐츠가 출력될 수 있는 것을 의미할 수 있다. 다르게는 서로 다른 각각의 디바이스가 서로 다른 마커를 인식하는 경우에, 각각의 디바이스에 출력되는 컨텐츠가 동일한 것을 의미할 수 있다. The same content information may be included in the plurality of markers 100 arranged in this way. The same content information may mean that, for example, the same content can be output even if one device recognizes the first marker 100A or the second marker 100B. Alternatively, when each different device recognizes a different marker, it may mean that content output to each device is the same.

이를 위해 복수의 마커(100) 각각에는 동일한 컨텐츠 정보를 입력해야 한다. 구체적으로 도 5를 참고하면 미니어처(200)를 중심으로 제1 마커(100A)를 임의의 위치(본 발명의 실시 예: 미니어처(200) 정면에 배치할 수 있다. 배치되는 제1 마커(100A)에는 미니어처(200)에 대한 모델링화된 데이터(200)가 저장될 수 있다. 따라서, 디바이스(50)에서 제1 마커(100A)를 영상 인식하면 미니어처(200) 주변에 컨텐츠(400)가 출력될 수 있다. To this end, the same content information should be input to each of the plurality of markers 100 . Specifically, referring to FIG. 5 , the first marker 100A may be placed at an arbitrary position (an embodiment of the present invention: in front of the miniature 200) centered on the miniature 200. The first marker 100A to be placed may store modeled data 200 for the miniature 200. Therefore, when the device 50 recognizes the first marker 100A as an image, the content 400 is output around the miniature 200. can

이와 유사하게 미니어처(200)를 중심으로 제1 마커(100A)와 다른 위치(본 발명의 실시 예: 미니어처(200) 일 측면)에 제2 마커(100B)를 배치할 수 있다. 배치되는 제2 마커(100B)에도 제1 마커(100A)와 동일한 미니어처(200)에 대한 모델링화된 데이터(200)가 저장될 수 있다. 이와 같은 방법으로 미니어처(200)의 타 면에 미니어처(200)에 대한 모델링화된 데이터(200)가 포함되어 있는 제3 마커(100C) 및 제4 마커(100D)를 배치할 수 있다. 이로써, 미니어처(200) 주변을 따라 복수의 마커(100)가 배치되어 미니어처(200)의 어느 면에서 마커를 영상 인식하여도 미니어처(200) 주변에 컨텐츠(400)가 출력될 수 있게 된다. Similarly, the second marker 100B may be disposed at a location different from the first marker 100A centered on the miniature 200 (an embodiment of the present invention: one side of the miniature 200). Modeled data 200 for the miniature 200 identical to that of the first marker 100A may also be stored in the disposed second marker 100B. In this way, the third marker 100C and the fourth marker 100D including the modeled data 200 for the miniature 200 may be disposed on the other surface of the miniature 200 . In this way, the plurality of markers 100 are arranged along the periphery of the miniature 200 so that the contents 400 can be output around the miniature 200 even when the markers are recognized as images on any surface of the miniature 200 .

이때, 복수의 마커(100)를 인식하는 디바이스(50)가 한대이고, 하나의 디바이스(50)에서 복수의 마커(100)를 거의 동시에 인식할 수 있다. 예컨대, 디바이스(50)가 제1 마커(100A)를 인식한 후, 제1 마커(100A)와 인접한 제2 마커(100B)를 인식할 수 있다. 이 경우, 디바이스(50)에는 우선 인식한 마커를 기준으로 컨텐츠가 출력될 수 있는 명령이 저장될 수 있다. 즉, 제1 마커(100A)를 우선 인식하였으므로, 나중에 인식한 제2 마커(100B)에 저장된 컨텐츠 정보는 출력하지 않도록 하여 컨텐츠가 중복되어 출력되는 것을 방지할 수 있다. At this time, there is only one device 50 that recognizes the plurality of markers 100, and one device 50 can recognize the plurality of markers 100 almost simultaneously. For example, after the device 50 recognizes the first marker 100A, it may recognize a second marker 100B adjacent to the first marker 100A. In this case, a command for outputting content may be stored in the device 50 based on the first recognized marker. That is, since the first marker 100A is first recognized, content information stored in the second marker 100B recognized later is not output, thereby preventing overlapping content from being output.

이와 다르게 복수의 마커(100)를 인식하는 디바이스(50)가 복수대일 수 있다. 즉, 서로 다른 위치에서 서로 다른 디바이스가 서로 다른 마커(100)를 인식할 수 있다. 이때, 복수의 마커(100)에는 동일한 컨텐츠 정보가 포함되어 있으므로 서로 다른 디바이스에는 동일한 컨텐츠가 출력될 수 있다. 예를 들어 제1 디바이스와 제2 디바이스가 각각 제1 마커(100A) 및 제2 마커(100B)를 인식하는 경우라도 제1 마커(100A) 및 제2 마커(100B)에는 동일한 컨테츠 정보가 포함되어 있으므로 제1 및 제2 디바이스에는 동일한 컨텐츠가 출력될 수 있다. Unlike this, the number of devices 50 recognizing the plurality of markers 100 may be plural. That is, different devices at different locations may recognize different markers 100 . At this time, since the same content information is included in the plurality of markers 100, the same content may be output to different devices. For example, even when the first device and the second device recognize the first marker 100A and the second marker 100B, the same content information is included in the first marker 100A and the second marker 100B. Therefore, the same content can be output to the first and second devices.

이때, 제1 디바이스가 미니어처(200) 측면에 배치된 제2 마커(100B)를 인식하고, 제2 디바이스가 제2 마커(100B)와 대향하는 위치에 배치된 제4 마커(100D)를 인식하는 경우 제1 및 제2 디바이스는 미니어처(200)를 서로 다른 측면에서 인식하는 것이라 할 수 있다. 이 경우, 미니어처(200) 측면을 인식하더라도 모델링화된 미니어처(2000)가 서로 다른 미니어처(200)의 측면에 대응하는 3D 데이터를 출력하도록 한다. 이로써, 각 디바이스에 출력되는 컨텐츠는 미니어처의 방향에 관계 없이 저장된 조건에 따라 미니어처(200) 주변에 출력될 수 있다. At this time, the first device recognizes the second marker 100B disposed on the side of the miniature 200, and the second device recognizes the fourth marker 100D disposed opposite the second marker 100B. In this case, it can be said that the first and second devices recognize the miniature 200 from different sides. In this case, even if the side of the miniature 200 is recognized, 3D data corresponding to the side of the modeled miniature 2000 is outputted from each other. Accordingly, contents output to each device may be output around the miniature 200 according to stored conditions regardless of the direction of the miniature.

한편, 복수의 마커(100)에 저장된 컨텐츠는 미니어처(200)를 설명하는 음성 서비스일 수 있다. 구체적으로 컨텐츠는 미니어처를 설명하기 위한 음성 서비스를 시간별로 구분한 복수의 이벤트일 수 있다. Meanwhile, the content stored in the plurality of markers 100 may be a voice service explaining the miniatures 200 . Specifically, the content may be a plurality of events in which voice services for explaining miniatures are divided by time.

일반적으로 음성 서비스는 시작 시간이 기 설정될 수 있기 때문에 여러 대의 디바이스가 복수의 마커(100)를 서로 다른 시점에 인식하는 경우 임의의 디바이스는 음성 서비스 시작 시간에 맞추지 못하여 음성 서비스를 이용하지 못하는 경우가 발생할 수 있다. 즉, 음성 서비스 시작 시간에 맞춰 동시에 여러 대의 디바이스가 마커를 동시에 인식하는 경우에만 음성 서비스를 제공받는 경우라면 제1 디바이스는 음성 서비스를 시작 시간에 맞춰 이용하는 반면, 제2 디바이스는 음성 서비스를 이용하지 못하는 경우가 발생할 수 있다. In general, since the start time of a voice service can be set in advance, when several devices recognize a plurality of markers 100 at different times, when an arbitrary device fails to meet the voice service start time and cannot use the voice service may occur. That is, if the voice service is provided only when several devices simultaneously recognize the marker in accordance with the voice service start time, the first device uses the voice service according to the start time, while the second device does not use the voice service. It may happen that you cannot.

이를 위해, 도 6에 도시된 바와 같이, 컨텐츠가 음성 서비스이고 시간을 기준으로 설정한 복수의 이벤트를 포함할 수 있다. 예를 들어, 컨텐츠(음성 서비스) 시작 시점이 기 설정되고, 제1 디바이스(50)가 제1 마커(100A)를 인식하는 제1 시간이 컨텐츠(음성 서비스) 시작 시점이 아니라 시작 시점에서 소정 시간이 지난 시간일 수 있다. 이 경우, 제1 디바이스에 출력되는 제1 컨텐츠는 소정 시간이 지난 시점에 출력되는 제1 컨텐츠가 출력될 수 있다. 즉, 시작된 음성 서비스를 처음부터 청취하지 않고 시간이 흐른 위치에서의 음성 서비스를 청취할 수 있다. To this end, as shown in FIG. 6, the content is a voice service and may include a plurality of events set based on time. For example, the content (voice service) start time is set in advance, and the first time at which the first device 50 recognizes the first marker 100A is not the content (voice service) start time, but a predetermined time from the start time. This may be past time. In this case, the first content output to the first device may be output when a predetermined time has elapsed. That is, it is possible to listen to a voice service at a position where time has elapsed without listening to a voice service that has been started from the beginning.

이러한 특징을 기초로 도 6을 참고하면, 제1 디비이스가 제1 마커를 인식하고, 제1 디바이스가 제1 마커를 인식하는 시점이 컨텐츠가 출력되는 연출 시작 시점인 이벤트 A(음성 서비스 시작) 시작 시점일 수 있다. 이와 다르게, 소정 시간 이후에 이벤트 B(음성 서비스 중간)가 시작될 수 있는 시점에 제2 디바이스가 제2 마커를 인식할 수 있다. 이 경우, 제2 디바이스는 컨텐츠 시작부터 출력되는 것이 아니라 소정 시간이 지난 시점의 이벤트 B에 대한 컨텐츠부터 출력될 수 있다. Based on these characteristics, referring to FIG. 6 , event A (voice service start), when the first device recognizes the first marker and the first device recognizes the first marker is the start time of directing at which content is output. It may be a starting point. Alternatively, the second device may recognize the second marker at a point in time when event B (midway of voice service) may start after a predetermined time. In this case, the second device may not output the content from the start, but may output the content for event B after a predetermined time has elapsed.

이러한 이벤트는 컨텐츠 출력이 종료되면 다시 시작되도록 설정할 수 있고, 이로 인해 다수의 디바이스에서 서로 다른 시점에 서로 다른 이벤트(예: 이벤트 C, 이벤트 E 등)에 관해 출력된다 하더라도 컨텐츠는 다시 시작하여 이벤트 A 에 대한 컨텐츠가 출력되기 때문에 각각의 디바이스는 전체 컨텐츠를 이용할 수 있게 된다. These events can be set to restart when the content output ends, so even if multiple devices output about different events (e.g., event C, event E, etc.) Since the content for is output, each device can use the entire content.

예를 들어, 도 4에 도시된 바와 같이 전시물(미니어처)가 매우 크고, 전시물에 대한 설명이 필요한 미니어처인 경우, 각 위치에서 미니어처 주변이나 미니어처에 표시된 마커를 인식하는 시점이 다른 경우라도 각 디바이스는 미니어처에 대한 설명을 전체적으로 확인할 수 있게 되는 것이다. For example, as shown in FIG. 4, when an exhibit (miniature) is very large and requires explanation about the exhibit, even if the viewpoint of recognizing the surroundings of the miniature or the marker displayed on the miniature at each location is different, each device You will be able to check the description of the miniature as a whole.

도 7은 본 발명의 실시 예에 따른 증강 현실을 통한 컨텐츠를 구현하는 디바이스의 구성을 나타낸 블록도이고, 도 8은 본 발명의 실시 예에 따른 증강 현실을 통한 컨텐츠를 구현하기 위한 디바이스와 통신 연결되는 서버의 구성을 나타낸 블록도이다. 7 is a block diagram showing the configuration of a device for implementing content through augmented reality according to an embodiment of the present invention, and FIG. 8 is a communication connection with a device for implementing content through augmented reality according to an embodiment of the present invention. It is a block diagram showing the configuration of the server.

도면을 참고하면, 디바이스(50)는 통신부(52), 설정부(53), 촬영부(55), 모델링 생성부(56), 매칭부(57), 메모리(58) 및 프로세서(59)를 포함하여 구성될 수 있다.Referring to the drawing, the device 50 includes a communication unit 52, a setting unit 53, a photographing unit 55, a modeling generation unit 56, a matching unit 57, a memory 58, and a processor 59. can be configured to include

디바이스(50)의 통신부(52)는 디바이스(50)를 통해 마커(100)와 미니어처(200)를 인식하면 관련 이미지를 서버(300)로부터 수신 받을 수 있는 구성이다. The communication unit 52 of the device 50 is configured to receive related images from the server 300 when the marker 100 and the miniature 200 are recognized through the device 50 .

또한, 통신부(52)는 디바이스(50)를 조작하는 사용자의 컨텐츠 디스플레이 요청 신호를 수신하는 역할을 할 수도 있다. 나아가 통신부(52)는 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다. 본 실시 예에서 다른 전자기기라 함은, 인식된 마커(100) 및 미니어처(200)에 대한 정보를 디바이스(50)로 전송할 수 있는 장치일 수 있다. Also, the communication unit 52 may serve to receive a content display request signal from a user who manipulates the device 50 . Furthermore, the communication unit 52 may be a device including hardware and software necessary for transmitting and receiving signals such as control signals or data signals with other network devices through wired or wireless connections. In this embodiment, another electronic device may be a device capable of transmitting information about the recognized marker 100 and the miniature 200 to the device 50 .

설정부(53)는 미니어처(200) 주변에 배치되는 복수의 마커(100)에 미니어처(200)에 대한 모델링화된 데이터(200)가 설정할 수 있는 구성이다. 또한 설정부(53)는 컨텐츠를 출력하는 출력 시점에서부터 소정 시간이 지난 제1 시간에 제1 컨텐츠가 출력되도록 복수의 컨텐츠가 재생되는 시간을 설정할 수 있는 구성이기도 하다. The setting unit 53 is a component capable of setting modeled data 200 for the miniature 200 to a plurality of markers 100 disposed around the miniature 200 . In addition, the setting unit 53 is also a component capable of setting a playback time of a plurality of contents so that the first content is output at a first time after a predetermined time has elapsed from the time of outputting the contents.

촬영부(55)는 마커(100) 및 미니어처(200)를 영상 인식하는 구성이다. 이를 위해, 촬영부(55)는 디바이스(50)에 포함된 카메라일 수 있다. 이러한 촬영부(55)는 이미지, 영상 촬영을 통해 마커(100)와 미니어처(200)에 대한 정보를 수집할 수 있다. The photographing unit 55 is a component for image recognition of the marker 100 and the miniature 200 . To this end, the photographing unit 55 may be a camera included in the device 50 . The photographing unit 55 may collect information about the marker 100 and the miniature 200 through image and video capture.

분석부(54)는 촬영부(55)에서 마커(100)를 촬영하면 촬영한 마커(100)에 포함된 정보를 분석할 수 있다. 분석부(54)를 통해 마커(100) 정보를 분석하면, 후술할 모델링 생성부(56)에서 생성한 모델링화된 미니어처(2000)와 함께 컨텐츠(400)가 출력될 수 있다. The analysis unit 54 may analyze information included in the captured marker 100 when the photographing unit 55 captures the marker 100 . When the marker 100 information is analyzed through the analyzer 54, the content 400 may be output together with the modeled miniature 2000 generated by the modeling generator 56 to be described later.

모델링 생성부(56)는 촬영부(55)에서 촬영한 미니어처(200)의 정보나 서버(300)에 기 저장된 미니어처(200)의 실물 정보를 기반으로 미니어처(200)를 모델링화하는 구성이다. The modeling generator 56 is a component that models the miniature 200 based on information of the miniature 200 photographed by the photographing unit 55 or actual information of the miniature 200 pre-stored in the server 300 .

앞서 설명한 바와 같이, 컨텐츠(400)와 미니어처(200)가 함께 출력될 때, 컨텐츠(400)와 미니어처(200)가 혼합되어 출력되는 것을 방지하기 위해 미니어처(200)를 모델링화할 수 있다. As described above, when the contents 400 and the miniature 200 are output together, the miniature 200 may be modeled in order to prevent the contents 400 and the miniature 200 from being mixed and output.

구체적으로 모델링 생성부(56)는 촬영부(55)에서 촬영한 미니어처(200) 이미지와 서버(300)에 기 저장된 미니어처(200)의 실제 정보를 매칭하여 미니어처(200)의 외형과 대응하는 모델링화된 미니어처(2000)를 생성할 수 있다. Specifically, the modeling generator 56 matches the image of the miniature 200 captured by the photographing unit 55 with the actual information of the miniature 200 previously stored in the server 300 to model the appearance of the miniature 200 and the corresponding one. A customized miniature (2000) can be created.

예시적으로 모델링 생성부는 Depth 센서가 없는 저사양 모바일 혹은 그와 유사한 AR 디바이스에서 Fake Depth Occlusion 기법을 이용하여 모델링을 생성할 수 있다. For example, the modeling generation unit may generate modeling using a fake depth occlusion technique in a low-end mobile or similar AR device without a depth sensor.

설명한 바와 같이 모델링 생성부(56)는 인식한 미니어처(200)의 외형을 투명 쉐이더(Shader)로 인식할 수 있도록 한다. 이를 위해, 미니어처(200)를 3D 데이터화한 모델링한 미니어처(200)에 쉐이더 마커를 설정하고, 설정한 쉐이더 마커를 기준으로 실제 미니어처(200)를 배치하면 모델링화된 미니어처(2000)와 실제 미니어처(200)가 1:1 배치될 수 있다. As described above, the modeling generating unit 56 allows the recognized external appearance of the miniature 200 to be recognized as a transparent shader. To this end, if a shader marker is set on the modeled miniature 200 obtained by converting the miniature 200 into 3D data, and the actual miniature 200 is placed based on the set shader marker, the modeled miniature (2000) and the actual miniature ( 200) may be arranged 1:1.

이후, 마커(100)를 중심으로 배치하면 모델링화된 미니어처(2000)에 1:1 배치된 실제 미니어처(200)를 배치시키면 디바이스(50)를 통해 증강 현실이 연출될 수 있다. 즉, 실제 미니어처(200)를 중심으로 증강현실의 컨텐츠(400)가 연출되고, 미니어처(200)의 벽이나 장애물에 의해 컨텐츠가 가려질 수 있는 효과가 있다. Thereafter, when the marker 100 is placed at the center, when the actual miniature 200 arranged 1:1 is placed on the modeled miniature 2000, augmented reality may be produced through the device 50. That is, the content 400 of the augmented reality is directed around the actual miniature 200, and there is an effect that the content can be covered by walls or obstacles of the miniature 200.

매칭부(57)는 모델링 생성부(56)에서 생성한 모델링화된 미니어처(2000)와 촬영부(55)에서 촬영한 미니어처(200)의 정보가 일치하는지 매칭할 수 있다. 또한, 매칭부(57)는 촬영부(55)에서 촬영하여 분석한 마커(100)의 정보와 촬영한 미니어처(200)의 영상 정보가 일치하는지도 매칭할 수 있다. The matching unit 57 may match whether information on the modeled miniature 2000 generated by the modeling generator 56 and the miniature 200 photographed by the photographing unit 55 match. Also, the matching unit 57 may match whether information of the marker 100 photographed and analyzed by the photographing unit 55 matches image information of the photographed miniature 200 .

구체적으로, 마커(100)는 동물 정보를 포함하고, 마커(100)를 촬영하면 동물이 증강 현실로 구현됨에 반해, 미니어처(200)는 궁과 같은 경우라고 할 경우, 마커(100)의 정보와 미니어처(200)의 영상 정보가 매칭되지 않을 수 있다. 예를 들어, 분석부(54)에서 분석한 마커(100)의 정보가 병사, 전투와 관련된 컨텐츠 등고, 촬영한 미니어처(200)가 나무, 숲 등과 같이 동물이 출력되어야 할 미니어처인 경우인지를 매칭부(57)를 통해 확인할 수 있다. 이러한 정보를 매칭부(57)에서 확인할 수 있으며, 마커(100)에 포함된 컨텐츠 정보와 촬영부(55)에서 촬영한 미니어처(200)의 정보가 매칭되지 않는 경우 디바이스(50)를 통해 사용자에게 알릴 수 있다. Specifically, the marker 100 includes animal information, and when the marker 100 is photographed, the animal is implemented in augmented reality, whereas the miniature 200 is the case of an arch, the information of the marker 100 and Image information of the miniature 200 may not match. For example, matching whether the information of the marker 100 analyzed by the analysis unit 54 is a content related to soldiers and battles, and whether the photographed miniature 200 is a miniature such as a tree or a forest where an animal is to be output. It can be confirmed through part 57. This information can be checked by the matching unit 57, and if the content information included in the marker 100 and the information of the miniature 200 photographed by the photographing unit 55 do not match, the user is informed through the device 50. can inform

다시 말해, 마커(100)에 포함된 컨텐츠 정보와 촬영부(55)에서 촬영한 미니어처(200)의 정보가 매칭되지 않는 경우, 마커(100) 또는 미니어처(200) 정보가 잘못된 것을 사용자에게 알리고, 인식해야 할 마커(100) 또는 미니어처(200)를 확인하거나 재 인식할 수 있도록 하여 사용자가 보다 정확한 컨텐츠를 이용할 수 있도록 할 수 있다. In other words, if the contents information included in the marker 100 and the information of the miniature 200 photographed by the photographing unit 55 do not match, the user is notified that the information of the marker 100 or the miniature 200 is incorrect, The marker 100 or the miniature 200 to be recognized can be checked or re-recognized so that the user can use more accurate content.

메모리(58)는 마커(100)의 정보, 모델링화된 미니어처(2000) 정보들이 저장될 수 있다. 구체적으로 메모리(58)는 촬영부(55)에서 마커(100) 미 미니어처(200)를 촬영하면 모델링화된 미니어처(2000)를 출력하고, 마커(100)가 나타내는 컨텐츠(400)보다 모델링화된 미니어처(2000)가 우선 디바이스(50)에 출력될 수 있도록 하는 정보 등을 포함할 수 있다. The memory 58 may store information of the marker 100 and information of the modeled miniature 2000 . Specifically, the memory 58 outputs a modeled miniature 2000 when the marker 100 and the miniature 200 are photographed by the photographing unit 55, and the content 400 represented by the marker 100 is modeled Information for enabling the miniature 2000 to be output to the device 50 may be included.

즉, 메모리(58)는 매칭부(57)에서 분석한 마커(100)의 정보와 미니어처(200)가 관련성이 있다고 판단되면, 디바이스(50)로 마커(100)가 나타내는 컨텐츠(400)가 출력되도록 하는 명령이 메모리(58)에 저장될 수 있다. That is, when the memory 58 determines that the information of the marker 100 analyzed by the matching unit 57 and the miniature 200 are related, the content 400 indicated by the marker 100 is output to the device 50. Instructions to do so may be stored in memory 58 .

더욱이 메모리(58)는 디바이스(50)에서 증강 현실을 통한 컨텐츠가 구현될 수 있는 명령 이외에 서버(300)의 동작에 필요한 각종 정보들을 기록하는 구성으로, 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다. 기록 매체는 프로세서(59)에 의해 읽힐 수 있는 데이터를 저장한 것으로, HDD(hard disk drive), SSD(solid state disk), SDD(silicon disk drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등을 포함할 수 있다.Furthermore, the memory 58 is a configuration for recording various information necessary for the operation of the server 300 in addition to commands for implementing content through augmented reality in the device 50, and may include a volatile or non-volatile recording medium. . The recording medium stores data that can be read by the processor 59, and includes a hard disk drive (HDD), solid state disk (SSD), silicon disk drive (SDD), ROM, RAM, CD-ROM, magnetic tape, It may include a floppy disk, an optical data storage device, and the like.

프로세서(59)는 분석된 마커(100)의 정보와 마커(100)와 미니어처(200) 사이의 관계에 따라 디바이스(50)로 컨텐츠가 구현될 수 있도록 하는 동작이 실행될 수 있는 명령 신호를 제어할 수 있다. 이러한 프로세서(59)는 일종의 중앙처리장치로서, 메모리(58)에 탑재된 제어 소프트웨어를 구동하여 디바이스(50)로 보여지는 컨텐츠를 선택하거나 컨텐츠의 움직임을 제어할 수 있는 다양한 기능을 제공할 수 있다. The processor 59 controls a command signal capable of executing an operation for implementing content in the device 50 according to the information of the analyzed marker 100 and the relationship between the marker 100 and the miniature 200. can This processor 59, as a kind of central processing unit, can provide various functions for selecting content displayed by the device 50 or controlling the movement of content by driving control software loaded in the memory 58. .

여기서 프로세서(59)(processor)는, 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.Here, the processor 59 (processor) may include all types of devices capable of processing data. Here, a 'processor' may refer to a data processing device embedded in hardware having a physically structured circuit to perform functions expressed by codes or instructions included in a program, for example. As an example of such a data processing device built into hardware, a microprocessor, a central processing unit (CPU), a processor core, a multiprocessor, an application-specific integrated (ASIC) circuit), field programmable gate array (FPGA), etc., but the scope of the present invention is not limited thereto.

다시 도면을 참고하면, 본 발명의 실시 예에 따른 서버(300)는 증강 현실을 이용한 컨텐츠 구현을 위한 마커(100), 미니어처(200) 등의 정보 등을 디바이스(50)에 제공하여 디바이스(50)가 증강 현실을 구현할 수 있는 정보를 저장하는 구성일 수 있다. Referring back to the drawings, the server 300 according to an embodiment of the present invention provides information such as markers 100 and miniatures 200 for content implementation using augmented reality to the device 50 so that the device 50 ) may be a configuration for storing information capable of implementing augmented reality.

이러한 서버(300)는 디바이스(50)의 외부에 별도로 구성된 장치 또는 디바이스(50) 내부에 탑재된 구성으로 디바이스(50)의 프로세서(59)와 동일한 기능을 수행할 수 있다. The server 300 may perform the same function as the processor 59 of the device 50 as a separately configured device outside the device 50 or a configuration mounted inside the device 50 .

또한, 서버(300)는 적어도 하나의 디바이스(50)와 통신할 수 있으며, 디바이스(50)를 대신하거나(혹은 도와) 데이터를 분석하여 결과를 도출할 수 있다. 여기서, 다른 장치를 도운다는 의미는 분산 처리를 통한 연산력의 분배를 의미할 수 있다.In addition, the server 300 may communicate with at least one device 50 and may derive a result by analyzing data on behalf of the device 50 (or also). Here, the meaning of helping other devices may mean distribution of computing power through distributed processing.

더욱이 서버(300)는 단일한 서버뿐만 아니라 복수의 서버 세트, 클라우드 서버 또는 이들의 조합 등으로 구현될 수 있다. 즉, 서버(300)는 복수로 구성되어 학습 장치 세트(혹은 클라우드 서버)를 구성할 수도 있다. Moreover, the server 300 may be implemented as a single server, a plurality of server sets, a cloud server, or a combination thereof. That is, a plurality of servers 300 may be configured to configure a learning device set (or cloud server).

이를 위해 서버(300)는 통신부(Communication Unit, 320), 수신부(330), 처리부(340), 메모리(Memory, 350) 및 프로세서(Processor, 360) 등을 포함하여 구성될 수 있다. To this end, the server 300 may include a communication unit 320, a receiver 330, a processing unit 340, a memory 350, a processor 360, and the like.

통신부(320)는 디바이스(50)의 통신부(52)를 포괄하는 구성과 대응될 수 있다. 즉, 유무선 통신이나 인터페이스를 통하여 다른 장치와 데이터를 송수신할 수 있다.The communication unit 320 may correspond to a configuration encompassing the communication unit 52 of the device 50 . That is, data can be transmitted and received with other devices through wired/wireless communication or an interface.

메모리(350) 및 프로세서(360)는 디바이스(50)의 메모리(58) 및 프로세서(59)와 대응할 수 있다. Memory 350 and processor 360 may correspond with memory 58 and processor 59 of device 50 .

수신부(330)는 디바이스(50)를 통해 마커(100) 및 미니어처(200)의 정보를 수신할 수 있고, 처리부(340)는 수신한 마커(100) 및 미니어처(200) 정보를 증강 현실로 구현할 수 있는 명령을 생성할 수 있다. The receiving unit 330 may receive information on the marker 100 and the miniature 200 through the device 50, and the processing unit 340 may implement the received information on the marker 100 and the miniature 200 as augmented reality. commands can be created.

이와 같이 수신부(330)에서 디바이스(50)를 통해 마커(100) 및 미니어처(200)의 정보를 수신하면, 증강 현실로 구현할 수 있는 컨텐츠를 생성하고, 생성된 컨텐츠에 대한 정보는 디바이스(50)로 전송될 수 있다. 디바이스(50)로 전송된 컨텐츠에 대한 정보는 미니어처(200) 주변에서 움직이며 구현되는 가상 캐릭터일 수 있으며, 다르게는 미니어처(200)와 연관된 영상일 수도 있다. In this way, when the receiver 330 receives information on the marker 100 and the miniature 200 through the device 50, content that can be implemented as augmented reality is generated, and information about the generated content is transmitted to the device 50. can be sent to The information on the content transmitted to the device 50 may be a virtual character implemented while moving around the miniature 200 , or may be an image associated with the miniature 200 .

한편, 본 발명의 실시 예에서 서버(300)는 디바이스(50)에 포함된 구성인 예를 들어 설명하기로 하며, 다르게는 디바이스(50)와 서버(300)가 별도의 구성일 수 있음은 물론이다. On the other hand, in an embodiment of the present invention, the server 300 will be described as an example of a configuration included in the device 50, and otherwise, the device 50 and the server 300 may be separate configurations am.

도 9는 본 발명의 실시 예에 따른 증강 현실을 통한 컨텐츠 구현 과정을 도시한 순서도이다. 9 is a flowchart illustrating a process of implementing content through augmented reality according to an embodiment of the present invention.

도면을 참고하면, 우선 미니어처(200) 외형과 동일하게 모델링화된 데이터를 생성할 수 있다(S110). Referring to the drawing, first, modeled data identical to the appearance of the miniature 200 may be generated (S110).

생성된 모델링화된 데이터는 디바이스(50) 또는/및 서버(300)에 기 저장할 수 있다. 이후, 디바이스(50)가 미니어처(200)를 영상 인식하면 영상 인식한 미니어처(200)와 대응하는 모델링화된 데이터 정보를 디바이스(50) 또는/및 서버(300)의 메모리에서 출력할 수 있다. The generated modeled data may be previously stored in the device 50 or/and the server 300 . Thereafter, when the device 50 recognizes the miniature 200 as an image, modeled data information corresponding to the image-recognized miniature 200 may be output from the memory of the device 50 or/and the server 300 .

구체적으로, 증강 현실의 배경이 될 수 있는 미니어처(200)를 생성하고, 생성된 미니어처(200)와 대응할 수 있는 3D 그래픽을 생성할 수 있다. Specifically, a miniature 200 that can be a background of augmented reality can be created, and 3D graphics that can correspond to the created miniature 200 can be created.

이후, 미니어처(200) 주변에 마커(100)를 배치하고 마커(100) 상에 3D 그래픽화된 모델링화된 미니어처(2000)를 배치할 수 있다(S120). 이때, 디바이스(50)에서는 마커(100)를 중심으로 좌표를 추출하여 모델링화된 미니어처(2000)를 추출할 수 있다. Thereafter, the marker 100 may be placed around the miniature 200 and the 3D graphic modeled miniature 2000 may be placed on the marker 100 (S120). In this case, the device 50 may extract the modeled miniature 2000 by extracting coordinates centered on the marker 100 .

과정에서, 미니어처(200)와 모델링화된 미니어처(2000)가 매칭할 수 있다(S130). 즉 디바이스(50)에서 보여지는 것은 실제 미니어처(200)가 아닌 모델링화된 미니어처(2000)이기 때문에 디바이스(50)는 추출한 모델링화된 미니어처(2000)와 실제 미니어처(200)가 대응하여야 한다. In the process, the miniature 200 and the modeled miniature 2000 may be matched (S130). That is, since what is shown in the device 50 is not the actual miniature 200 but the modeled miniature 2000, the device 50 should correspond between the extracted modeled miniature 2000 and the actual miniature 200.

이때, 미니어처(200) 주변에는 복수의 마커(100)가 배치될 수 있다. 예를 들어 마커(100)는 미니어처(200)의 전, 후 및 양 측면에 각각 배치될 수 있다. 배치된 복수의 마커(100)에는 컨텐츠에 대한 동일한 정보가 포함되어 있다. 즉, 복수의 마커(100) 중 어느 하나의 마커를 인식하더라도 마커(100)에 포함된 컨텐츠가 출력될 수 있도록 구성될 수 있다. 동일한 컨텐츠 정보란, 예를 들어 하나의 디바이스가 제1 마커(100A) 또는 제2 마커(100B)를 인식하더라도 동일한 컨텐츠가 출력될 수 있는 것을 의미할 수 있다. 다르게는 서로 다른 각각의 디바이스가 서로 다른 마커를 인식하는 경우에, 각각의 디바이스에 출력되는 컨텐츠가 동일한 것을 의미할 수도 있다. 이를 위해 복수의 마커(100) 각각에 동일한 컨텐츠 정보를 입력할 수 있다. At this time, a plurality of markers 100 may be disposed around the miniature 200 . For example, the markers 100 may be disposed on the front, rear, and both sides of the miniature 200, respectively. The plurality of markers 100 arranged include the same information about content. That is, even if any one marker among the plurality of markers 100 is recognized, the content included in the marker 100 may be output. The same content information may mean that, for example, the same content can be output even if one device recognizes the first marker 100A or the second marker 100B. Alternatively, when each different device recognizes a different marker, it may mean that content output to each device is the same. To this end, the same content information may be input to each of the plurality of markers 100 .

이와 같이 미니어처(200)와 모델링화된 미니어처(2000)가 매칭되고, 복수의 마커(100) 중 어느 하나의 마커를 인식하면 마커(100)에 저장된 컨텐츠(400)를 출력할 수 있다(S140, S150). In this way, when the miniature 200 and the modeled miniature 2000 are matched, and any one of the plurality of markers 100 is recognized, the content 400 stored in the marker 100 can be output (S140, S150).

이때, 복수의 마커(100)를 인식하는 디바이스(50)가 한대이고, 하나의 디바이스(50)에서 복수의 마커(100)를 거의 동시에 인식할 수 있다. 예컨대, 디바이스(50)가 제1 마커(100A)를 인식한 후, 제1 마커(100A)와 인접한 제2 마커(100B)를 인식할 수 있다. 이 경우, 디바이스(50)에는 우선 인식한 마커를 기준으로 컨텐츠가 출력될 수 있는 명령이 저장될 수 있다. 즉, 제1 마커(100A)를 우선 인식하였으므로, 나중에 인식한 제2 마커(100B)에 저장된 컨텐츠 정보는 출력하지 않도록 하여 컨텐츠가 중복되어 출력되는 것을 방지할 수 있다. At this time, there is only one device 50 that recognizes the plurality of markers 100, and one device 50 can recognize the plurality of markers 100 almost simultaneously. For example, after the device 50 recognizes the first marker 100A, it may recognize a second marker 100B adjacent to the first marker 100A. In this case, a command for outputting content may be stored in the device 50 based on the first recognized marker. That is, since the first marker 100A is first recognized, content information stored in the second marker 100B recognized later is not output, thereby preventing overlapping content from being output.

이와 다르게 복수의 마커(100)를 인식하는 디바이스(50)가 복수대일 수 있다. 즉, 서로 다른 위치에서 서로 다른 디바이스가 서로 다른 마커(100)를 인식할 수 있다. 이때, 복수의 마커(100)에는 동일한 컨텐츠 정보가 포함되어 있으므로 서로 다른 디바이스에는 동일한 컨텐츠가 출력될 수 있다. 예를 들어 제1 디바이스와 제2 디바이스가 각각 제1 마커(100A) 및 제2 마커(100B)를 인식하는 경우라도 제1 마커(100A) 및 제2 마커(100B)에는 동일한 컨테츠 정보가 포함되어 있으므로 제1 및 제2 디바이스에는 동일한 컨텐츠가 출력될 수 있다. Unlike this, the number of devices 50 recognizing the plurality of markers 100 may be plural. That is, different devices at different locations may recognize different markers 100 . At this time, since the same content information is included in the plurality of markers 100, the same content may be output to different devices. For example, even when the first device and the second device recognize the first marker 100A and the second marker 100B, the same content information is included in the first marker 100A and the second marker 100B. Therefore, the same content can be output to the first and second devices.

이때, 제1 디바이스가 미니어처(200) 측면에 배치된 제2 마커(100B)를 인식하고, 제2 디바이스가 제2 마커(100B)와 대향하는 위치에 배치된 제4 마커(100D)를 인식하는 경우 제1 및 제2 디바이스는 미니어처(200)를 서로 다른 측면에서 인식하는 것이라 할 수 있다. 이 경우, 미니어처(200) 측면을 인식하더라도 모델링화된 미니어처(2000)가 서로 다른 미니어처(200)의 측면에 대응하는 3D 데이터를 출력하도록 한다. 이로써, 각 디바이스에 출력되는 컨텐츠는 미니어처의 방향에 관계 없이 저장된 조건에 따라 미니어처(200) 주변에 출력될 수 있다. At this time, the first device recognizes the second marker 100B disposed on the side of the miniature 200, and the second device recognizes the fourth marker 100D disposed opposite the second marker 100B. In this case, it can be said that the first and second devices recognize the miniature 200 from different sides. In this case, even if the side of the miniature 200 is recognized, 3D data corresponding to the side of the modeled miniature 2000 is outputted from each other. Accordingly, contents output to each device may be output around the miniature 200 according to stored conditions regardless of the direction of the miniature.

한편, 설명한 바와 같이 디바이스(50)에서 보여지는 것은 실제 미니어처(200)가 아닌 모델링화된 미니어처(2000)이고, 추출한 모델링화된 미니어처(2000)와 실제 미니어처(200)가 매칭되어 있으므로 사용자는 디바이스(50)를 통해 미니어처(200)를 보는 것과 같다. On the other hand, as described above, what is shown on the device 50 is the modeled miniature 2000, not the actual miniature 200, and since the extracted modeled miniature 2000 and the actual miniature 200 are matched, the user can use the device It is like viewing miniature (200) through (50).

미니어처(200)의 일 면 뒤로 컨텐츠(400)가 출력되어도 미니어처(200)가 선 출력되어 컨텐츠(400)가 미니어처(200) 일 면 뒤에 있는 정보 그대로 출력될 수 있다. Even if the content 400 is output behind one side of the miniature 200, the miniature 200 may be output in advance so that the content 400 may be output as it is on the back side of the miniature 200.

이와 같이, 예는 디바이스를 이용하여 증강 현실을 구현하고, 구현되는 증강 현실에서 컨텐츠가 실현될 수 있다. 이때, 컨텐츠는 컨텐츠의 배경화면으로 사용되는 실제 사물인 미니어처와 인접한(예: 미니어처 주변, 미니어처 내부 등) 위치에서 구현될 수 있다. 여기서 컨텐츠를 실현하기 위해 미니어처 주변이나 미니어처 자체에 마커를 배치할 수 있다. 배치된 마커를 디바이스를 통해 인식하면 마커에 저장된 컨텐츠 정보를 기초로 미니어처 주변에 컨텐츠가 출력될 수 있다. 이로 인해, 증강 현실을 통해 구현되는 컨텐츠가 주변 사물과 동떨어지지 않고 보다 사실감 있게 구현될 수 있다. In this way, an example may implement augmented reality using a device, and content may be realized in the implemented augmented reality. In this case, the content may be implemented at a location adjacent to a miniature, which is an actual object used as a background screen of the content (eg, around the miniature, inside the miniature, etc.). Here you can place markers around the miniature or on the miniature itself to bring content to life. When the placed marker is recognized through the device, content may be output around the miniature based on content information stored in the marker. As a result, content implemented through augmented reality can be implemented more realistically without being separated from surrounding objects.

또한, 컨텐츠는 미니어처와 간섭 없이 출력될 수 있다. 구체적으로 컨텐츠와 함께 미니어처를 디바이스에서 영상 출력하기 위해서 미니어처의 모델링화된 데이터를 생성할 수 있다. 디바이스 및 서버에 기 저장될 수 있으며 디바이스가 저장된 모델링 데이터와 매칭되는 미니어처 이미지(영상)를 인식하면 미니어처에 대응하는 모델링 데이터를 출력할 수 있다. 이때, 마커를 통해 출력되는 컨텐츠는 모델링 데이터의 뒤쪽 배경으로 인식되는 예를 들어 미니어처 벽 뒤로 컨텐츠가 출력되어야 하는 경우와 같이 컨텐츠와 미니어처가 간섭되는 경우에 컨텐츠 또는/및 미니어처 중 어느 하나를 독립적으로 출력하도록 하여 컨텐츠가 자연스럽게 출력될 수 있도록 한다. Also, the content can be output without interfering with the miniatures. Specifically, modeled data of a miniature may be generated in order to output a video of a miniature along with content from a device. It may be pre-stored in a device and a server, and when the device recognizes a miniature image (image) matching the stored modeling data, modeling data corresponding to the miniature may be output. At this time, the content output through the marker is recognized as the background behind the modeling data, for example, when the content and the miniature interfere, such as when the content should be output behind a miniature wall, either the content or/and the miniature is independently displayed. Make it output so that the content can be output naturally.

한편, 컨텐츠 정보를 포함하는 마커는 미니어처 주변에 복수 개가 배치될 수 있다. 이때, 하나의 디바이스를 통해 복수 개의 마커 중 제1 마커와 제1 마커와 인접한 제2 마커를 인식하는 경우, 먼저 인식한 제1 마커를 기준으로 컨텐츠를 출력할 수 있도록 한다. 즉, 복수의 마커를 서로 다른 시점에 인식하여도 중복됨 없이 컨텐츠가 출력될 수 있다. Meanwhile, a plurality of markers including content information may be arranged around the miniature. In this case, when a first marker and a second marker adjacent to the first marker are recognized among a plurality of markers through one device, the content can be output based on the previously recognized first marker. That is, even if a plurality of markers are recognized at different points in time, content can be output without overlapping.

이와 다르게, 복수의 마커가 서로 다른 디바이스에 의해 인식될 수도 있다. 즉, 제1 디바이스가 마커 중 제1 마커를 인식하고 제2 디바이스가 제2 마커를 인식하는 경우, 제1 디바이스와 제2 디바이스는 서로 다른 시점일지라도 동일한 컨텐츠를 확인할 수 있다. 즉, 복수의 각 마커에는 동일한 컨텐츠 정보를 포함하고 있고, 서로 다른 디바이스가 다른 시점에 다른 위치의 마커를 인식하더라도 각각의 디바이스에는 동일한 컨텐츠가 구현될 수 있다. Alternatively, a plurality of markers may be recognized by different devices. That is, when the first device recognizes a first marker among the markers and the second device recognizes a second marker, the first device and the second device can view the same content even at different viewpoints. That is, the same content information may be included in each of a plurality of markers, and even if different devices recognize markers at different positions at different times, the same content may be implemented in each device.

이때, 각 디바이스가 서로 다른 시점에 마커를 인식하는 경우에 컨텐츠가 출력되는 시작 시점은 동일하도록 설정될 수 있다. 즉, 제1 디바이스가 제1 마커를 인식하는 제1 시점이 제2 디바이스가 제2 마커를 인식하는 제2 시점보다 빠른 경우에도, 제1 디바이스로 컨텐츠 출력 시점에 관계 없이 제2 디바이스가 제2 마커를 인식한 시점을 기초로 컨텐츠를 출력하도록 하여 서로 다른 디바이스를 통해 컨텐츠가 구현되더라도 복수의 사용자는 동일한 컨텐츠를 이용할 수 있게 된다. In this case, when each device recognizes the marker at different points of time, the start point of outputting the content may be set to be the same. That is, even if the first time point at which the first device recognizes the first marker is earlier than the second time point at which the second device recognizes the second marker, the second device sets the second device to the second device regardless of the time point at which content is output to the first device. By outputting the content based on the point in time at which the marker is recognized, a plurality of users can use the same content even if the content is implemented through different devices.

이상 설명된 본 발명의 실시 예에 대한 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The description of the embodiments of the present invention described above is for illustrative purposes, and those skilled in the art can easily modify them into other specific forms without changing the technical spirit or essential features of the present invention. you will understand that Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 청구범위에 의하여 나타내어지며, 청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. The scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts thereof should be construed as being included in the scope of the present invention.

Claims (13)

디바이스를 통해 증강 현실로 구현되는 컨텐츠 배경이 되는 미니어처 구조에 대한 모델링화된 데이터를 생성하는 단계;
상기 미니어처 및 상기 미니어처 주변에 배치되며, 상기 컨텐츠 정보를 포함하는 적어도 하나의 마커를 영상 인식하는 단계;
기 설정된 상기 미니어처의 정면을 기준으로 상기 디바이스가 상기 미니어처를 촬영하는 촬영 방향을 인지하는 단계;
상기 촬영 방향과 대응하는 방향과 나란한 방향의 상기 미니어처 구조에 대한 상기 모델링화된 데이터를 매칭하는 단계; 및
상기 모델링화된 데이터와 상기 미니어처 구조가 일치하는 경우, 상기 디바이스를 통해 상기 컨텐츠를 출력하는 단계를 포함하는,
컨텐츠 구현 방법.
Generating modeled data for a miniature structure that becomes a content background implemented in augmented reality through a device;
recognizing an image of the miniature and at least one marker disposed around the miniature and including the content information;
Recognizing a photographing direction in which the device photographs the miniature based on a preset front of the miniature;
matching the modeled data for the miniature structure in a direction parallel to the direction corresponding to the photographing direction; and
When the modeled data and the miniature structure match, outputting the content through the device,
How content is implemented.
제1항에 있어서,
상기 영상 인식하는 단계는,
상기 적어도 하나의 마커 중 제1 마커를 인식하는 단계; 및
상기 제1 마커와 서로 다른 위치의 제2 마커를 상기 제1 마커를 인식한 제1 시점을 기준으로 상기 제1 시점보다 늦은 제2 시점에 인식하는 단계를 포함하고,
상기 컨텐츠를 출력하는 단계는,
상기 제1 시점을 기준으로 상기 컨텐츠를 출력하는,
컨텐츠 구현 방법.
According to claim 1,
The step of recognizing the image is,
recognizing a first marker of the at least one marker; and
Recognizing a second marker at a position different from the first marker at a second time point later than the first time point based on the first time point at which the first marker was recognized;
The step of outputting the content is,
Outputting the content based on the first viewpoint,
How content is implemented.
제1항에 있어서,
상기 영상 인식하는 단계는,
상기 적어도 하나의 마커 중 제1 마커와 인접한 제1 디바이스를 통해 상기 제1 마커를 인식하는 단계;
상기 제1 마커와 서로 다른 위치의 제2 마커를 제2 디바이스를 통해 상기 제1 시점과 서로 다른 시점에 인식하는 단계를 더 포함하고,
상기 컨텐츠를 출력하는 단계는,
상기 제1 디바이스와 상기 제2 디바이스는 서로 다른 시점에 동일한 상기 컨텐츠를 출력하는,
컨텐츠 구현 방법.
According to claim 1,
The step of recognizing the image is,
Recognizing a first marker of the at least one marker through a first device adjacent to a first marker;
Recognizing a second marker at a different location from the first marker at a different time point than the first point of view through a second device,
The step of outputting the content is,
The first device and the second device output the same content at different times,
How content is implemented.
제3항에 있어서,
상기 컨텐츠는 복수 개고,
상기 컨텐츠를 출력하는 출력 시점에서부터 소정 시간이 지난 제1 시간에 제1 컨텐츠 출력 시점을 설정하는 단계를 더 포함하고,
상기 컨텐츠를 출력하는 단계는,
상기 제1 시점이 상기 제1 컨텐츠 출력 시점인 경우, 상기 제1 디바이스가 상기 제1 마커를 인식하면 상기 제1 컨텐츠를 재생하는,
컨텐츠 구현 방법.
According to claim 3,
The content is plural,
Setting a first content output time point at a first time after a predetermined time has elapsed from the output time point of outputting the content;
The step of outputting the content is,
When the first time point is the first content output time point, the first device reproduces the first content when recognizing the first marker.
How content is implemented.
제1항에 있어서,
상기 생성하는 단계는,
상기 미니어처 외형과 대응하도록 상기 모델링화된 데이터를 생성하는,
컨텐츠 구현 방법.
According to claim 1,
The generating step is
Generating the modeled data to correspond to the miniature appearance,
How content is implemented.
제1항에 있어서,
상기 매칭하는 단계는,
상기 모델링화된 데이터와 상기 미니어처 구조 정보가 일치하지 않는 것으로 판단되면, 상기 미니어처 영상 재 인식 알림을 안내하는 단계를 포함하는,
컨텐츠 구현 방법.
According to claim 1,
The matching step is
Including guiding a miniature image re-recognition notification when it is determined that the modeled data and the miniature structure information do not match.
How content is implemented.
제1항에 있어서,
상기 출력하는 단계는,
상기 미니어처와 상기 마커를 동시에 인식하는 경우에 상기 컨텐츠가 출력되는,
컨텐츠 구현 방법.
According to claim 1,
The outputting step is
The content is output when the miniature and the marker are simultaneously recognized.
How content is implemented.
제1항에 있어서,
상기 디바이스의 이동을 감지하는 단계를 더 포함하고,
상기 출력하는 단계는,
상기 디바이스의 이동이 감지되는 경우, 상기 디바이스의 이동 방향을 따라 상기 컨텐츠를 이동시키는,
컨텐츠 구현 방법.
According to claim 1,
Further comprising the step of detecting the movement of the device,
The outputting step is
When the movement of the device is detected, moving the content along the movement direction of the device,
How content is implemented.
프로세서; 및
상기 프로세서와 전기적으로 연결되고, 상기 프로세서에서 수행되는 적어도 하나의 코드(code)가 저장되는 메모리를 포함하고,
상기 메모리는 상기 프로세서를 통해 실행될 때 상기 프로세서가
디바이스를 통해 증강 현실로 구현되는 컨텐츠 배경이 되는 미니어처 구조에 대한 모델링화된 데이터를 생성하고, 상기 미니어처 및 상기 미니어처 주변에 배치되며, 상기 컨텐츠 정보를 포함하는 적어도 하나의 마커를 영상 인식한 뒤, 기 설정된 상기 미니어처의 정면을 기준으로 상기 디바이스가 상기 미니어처를 촬영하는 촬영 방향을 인지한 후, 상기 촬영 방향과 대응하는 방향과 나란한 방향의 상기 미니어처 구조에 대한 상기 모델링화된 데이터와 상기 미니어처 구조가 일치하는 경우, 상기 디바이스를 통해 상기 컨텐츠를 출력하도록 야기하는 코드들을 저장하는,
컨텐츠 구현 장치.
processor; and
A memory electrically connected to the processor and storing at least one code executed by the processor;
When the memory is executed by the processor, the processor
After creating modeled data for a miniature structure that is a background of content implemented in augmented reality through a device, and disposed around the miniature and the miniature, at least one marker including the content information is image-recognized, After recognizing a photographing direction in which the device photographs the miniature based on the front of the miniature that is set in advance, the modeled data for the miniature structure in a direction parallel to the photographing direction and the miniature structure If matched, storing codes that cause the content to be output through the device,
Content Implementation Device.
제9항에 있어서,
상기 메모리는 상기 프로세서를 통해 실행될 때 상기 프로세서가,
상기 적어도 하나의 마커 중 제1 마커를 인식하고, 상기 제1 마커와 서로 다른 위치의 제2 마커를 상기 제1 마커를 인식한 제1 시점을 기준으로 상기 제1 시점보다 늦은 제2 시점에 인식하는 경우, 상기 제1 시점을 기준으로 상기 컨텐츠를 출력하도록 야기하는 코드들을 저장하는,
컨텐츠 구현 장치.
According to claim 9,
When the memory is executed through the processor, the processor,
A first marker among the at least one marker is recognized, and a second marker at a position different from the first marker is recognized at a second time point later than the first time point based on the first time point at which the first marker is recognized. In the case of doing so, storing codes that cause the content to be output based on the first point of view,
Content Implementation Device.
제9항에 있어서,
상기 메모리는 상기 프로세서를 통해 실행될 때 상기 프로세서가,
상기 적어도 하나의 마커 중 제1 마커와 인접한 제1 디바이스를 통해 상기 제1 마커를 인식하고, 상기 제1 마커와 서로 다른 위치의 제2 마커를 제2 디바이스를 통해 상기 제1 시점과 서로 다른 시점에 인식하는 경우, 상기 제1 디바이스와 상기 제2 디바이스는 서로 다른 시점에 동일한 상기 컨텐츠를 출력하도록 야기하는 코드들을 저장하는,
컨텐츠 구현 장치.
According to claim 9,
When the memory is executed through the processor, the processor,
The first marker is recognized through a first device adjacent to the first marker among the at least one marker, and a second marker at a position different from the first marker is provided through a second device, a viewpoint different from the first viewpoint. In case of recognizing, the first device and the second device store codes that cause the same content to be output at different times,
Content Implementation Device.
제11항에 있어서,
상기 메모리는 상기 프로세서를 통해 실행될 때 상기 프로세서가,
상기 컨텐츠는 복수 개고, 상기 컨텐츠를 출력하는 출력 시점에서부터 소정 시간이 지난 제1 시간에 제1 컨텐츠 출력 시점을 설정하며, 상기 제1 시점이 상기 제1 컨텐츠 출력 시점인 경우, 상기 제1 디바이스가 상기 제1 마커를 인식하면 상기 제1 컨텐츠를 재생하도록 야기하는 코드들을 저장하는,
컨텐츠 구현 장치.
According to claim 11,
When the memory is executed through the processor, the processor,
The content is plural, and a first content output time point is set at a first time after a predetermined time has elapsed from the output time point of outputting the content. When the first time point is the first content output time point, the first device storing codes that cause the first content to be reproduced when the first marker is recognized;
Content Implementation Device.
제9항에 있어서,
상기 컨텐츠는 상기 미니어처에 대한 시간별로 구분한 복수의 이벤트인,
컨텐츠 구현 장치.
According to claim 9,
The content is a plurality of events divided by time for the miniature,
Content Implementation Device.
KR1020230014603A 2022-02-22 2023-02-03 Device and method for providing contents based on augmented reality KR20230126187A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220023099 2022-02-22
KR20220023099 2022-02-22

Publications (1)

Publication Number Publication Date
KR20230126187A true KR20230126187A (en) 2023-08-29

Family

ID=87802365

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230014603A KR20230126187A (en) 2022-02-22 2023-02-03 Device and method for providing contents based on augmented reality

Country Status (1)

Country Link
KR (1) KR20230126187A (en)

Similar Documents

Publication Publication Date Title
KR102376390B1 (en) Method and apparatus for providing metaverse service
KR102417645B1 (en) AR scene image processing method, device, electronic device and storage medium
JP7409692B2 (en) Systems, methods, and media for displaying interactive augmented reality displays
US10460512B2 (en) 3D skeletonization using truncated epipolar lines
KR101918262B1 (en) Method and system for providing mixed reality service
KR20210046591A (en) Augmented reality data presentation method, device, electronic device and storage medium
TW202220438A (en) Display method, electronic device and computer readable storage medium in augmented reality scene
US10573060B1 (en) Controller binding in virtual domes
WO2021118962A1 (en) Cross reality system with simplified programming of virtual content
CN114730546A (en) Cross-reality system with location services and location-based shared content
EP1883052A2 (en) Generating images combining real and virtual images
JP2020071851A (en) Method and apparatus for live broadcasting with avatar
CN113994396A (en) User guidance system based on augmented reality and/or gesture detection technology
CN112933606B (en) Game scene conversion method and device, storage medium and computer equipment
KR20140082610A (en) Method and apaaratus for augmented exhibition contents in portable terminal
KR20220093342A (en) Method, device and related products for implementing split mirror effect
KR101734520B1 (en) User Interfacing system based on movement patterns recognition by gyro sensor
US10955911B2 (en) Gazed virtual object identification module, a system for implementing gaze translucency, and a related method
CN111833457A (en) Image processing method, apparatus and storage medium
US10740957B1 (en) Dynamic split screen
JP7150894B2 (en) AR scene image processing method and device, electronic device and storage medium
CN112788443B (en) Interaction method and system based on optical communication device
CN111744197B (en) Data processing method, device and equipment and readable storage medium
CN111383313B (en) Virtual model rendering method, device, equipment and readable storage medium
KR20230126187A (en) Device and method for providing contents based on augmented reality

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right