KR20190006584A - Method and apparatus for displaying augmented reality object based on geometry recognition - Google Patents

Method and apparatus for displaying augmented reality object based on geometry recognition Download PDF

Info

Publication number
KR20190006584A
KR20190006584A KR1020190003562A KR20190003562A KR20190006584A KR 20190006584 A KR20190006584 A KR 20190006584A KR 1020190003562 A KR1020190003562 A KR 1020190003562A KR 20190003562 A KR20190003562 A KR 20190003562A KR 20190006584 A KR20190006584 A KR 20190006584A
Authority
KR
South Korea
Prior art keywords
augmented reality
information
image
reality object
actual space
Prior art date
Application number
KR1020190003562A
Other languages
Korean (ko)
Inventor
권재현
Original Assignee
(주) 올림플래닛
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 올림플래닛 filed Critical (주) 올림플래닛
Priority to KR1020190003562A priority Critical patent/KR20190006584A/en
Publication of KR20190006584A publication Critical patent/KR20190006584A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a method to display an augmented reality object based on geographic information recognition, and to a device thereof. More specifically, according to an embodiment of the present invention, the method includes: a step of receiving an image about an actual space through a camera; a step of extracting pixel data information of the image about the actual space inputted through the camera; a step of recognizing marker information based on the extracted pixel data information, while determining an augmented reality object corresponding to the recognized marker information by exploring a pre-stored database; a step of analyzing geographic information about the actual space based on the extracted pixel data information, while converting the determined augmented reality object in accordance with the analyzed geographic information; and a step of combining the converted augmented reality object with the image about the actual space and displaying the same.

Description

지형정보 인식을 기반으로 증강현실 오브젝트를 표시하는 방법 및 그 장치{METHOD AND APPARATUS FOR DISPLAYING AUGMENTED REALITY OBJECT BASED ON GEOMETRY RECOGNITION}[0001] METHOD AND APPARATUS FOR DISPLAYING AUGMENTED REALITY OBJECT BASED ON GEOMETRY RECOGNITION [0002]

본 발명은 지형정보 인식을 기반으로 증강현실 오브젝트를 표시하는 방법 및 그 장치에 관한 것으로서, 보다 구체적으로는 실제 환경의 수직수평 지형정보를 인식하되, 증강현실 오브젝트를 상기 인식된 지형정보를 적용하여 표시하는 방법 및 그 장치에 관한 것이다.The present invention relates to a method and apparatus for displaying an augmented reality object based on the recognition of terrain information, and more particularly, to a method and apparatus for recognizing a vertical and horizontal terrain information of an actual environment by applying the recognized augmented reality information And more particularly to a method and apparatus for displaying information.

최근 들어, 영상 분야의 비약적인 발전으로 인해 다양한 영상 기술이 개발 및 응용되고 있으며, 특히, 컴퓨터 또는 사용자 단말을 통해 가상 현실 또는 증강 현실 영상을 재생하고 관람하는 기술이 등장하고 있다.2. Description of the Related Art [0002] In recent years, various image technologies have been developed and applied due to the rapid development of the image field. In particular, technologies for playing and viewing a virtual reality or augmented reality image through a computer or a user terminal are emerging.

여기에서, 가상 현실(Virtual Reality: VR)이라 함은 실제 현실은 아니지만 사용자가 현실과 같은 환경을 3차원적인 시각(Sight)을 통해 경험할 수 있는 시뮬레이션 기술을 의미하며, 증강 현실(Augmented Reality: AR)이라 함은 사용자가 눈으로 보는 현실세계에 가상의 오브젝트(Object)를 겹쳐 보여주는 시뮬레이션 기술을 의미한다. 증강 현실은, 현실세계에 실시간으로 부가정보를 갖는 가상의 오브젝트를 합쳐 하나의 영상으로 보여주는 특징으로 인해 흔히 혼합 현실(Mixed Reality: MR)이라고도 불리운다.Here, the term 'virtual reality' (VR) refers to a simulation technique that allows a user to experience an environment such as reality through a three-dimensional sight (Sight), which is not an actual reality, and augmented reality ) Refers to a simulation technique in which a virtual object is superimposed on a real world viewed by the user. The augmented reality is often called a mixed reality (MR) because of its feature of combining virtual objects having additional information in real time in real time into a single image.

앞서 설명한 가상 현실과 증강 현실은 서로 비슷한 듯 하지만 그 주체가 허상이냐 실상이냐에 따라 명확히 구분될 수 있다. The virtual reality and the augmented reality described above seem to be similar to each other, but they can be clearly distinguished according to whether the subject is virtual or real.

컴퓨터 격투 게임을 예로 들어 양자를 비교 설명하면, 가상 현실 게임은 나를 대신하는 캐릭터가 가상의 공간에서 가상의 적과 대결하지만, 증강 현실 게임은 현실의 내가 현실의 공간에서 가상의 적과 대결을 벌이는 형태가 된다. 그에 따라, 증강 현실 기술을 이용할 경우 현실에 실제로 존재하지 않는 가상 캐릭터 등이 화면상으로는 실제로 존재하는 것처럼 보여질 수 있다.When we compare computer games with computer games, virtual reality game is a character that substitutes me in a virtual space against a virtual enemy. However, augmented reality game is a form in which I confront a virtual enemy in a real space do. Accordingly, when augmented reality technology is used, a virtual character or the like that does not actually exist in reality can be seen as actually existing on the screen.

따라서, 이러한 증강 현실 기술은 가상의 환경만으로 구성된 가상 현실 기술과는 달리, 실제 환경과 가상의 오브젝트가 혼합된 영상이 사용자에게 제공되는 것이므로, 사용자로서는 가상의 오브젝트를 실제 환경과 함께 볼 수 있어 가상의 환경만으로 구성된 가상 현실과 비교할 때 보다 나은 현실감과 부가 정보가 제공된다는 장점이 존재하고 있다.Therefore, unlike the virtual reality technology configured by only a virtual environment, the augmented reality technology provides a user with an image in which a real environment and a virtual object are mixed with each other. Therefore, as a user, There is a merit that a better reality and additional information are provided when compared with a virtual reality composed of only the environment of the environment.

과거 또는 현재의 증강 현실은, 카메라로부터 촬영되는 영상으로부터 실제 영상과 함께 증강 현실 마커를 감지하되, 상기 감지된 마커에 따른 가상 오브젝트를 상기 실제 영상에 합성하여 출력하는 방법으로 실현되고 있다. The past or present augmented reality is realized by a method of detecting an augmented reality marker together with an actual image from an image photographed by a camera, and synthesizing a virtual object according to the detected marker with the actual image and outputting the synthesized image.

즉, 과거 또는 현재의 증강 현실 기술은, 가상 물체를 화면상에 나타내기 위해, 카메라로부터 입력되는 영상의 각 프레임 별로 마커를 인지하고, 마커의 종류 및 위치 등에 대응되도록 가상 오브젝트의 크기, 위치, 형태 등을 계산하여 계산된 위치에 상기 가상 오브젝트를 상기 영상과 합성하여야 한다. That is, past or current augmented reality technology recognizes a marker for each frame of an image input from a camera to display a virtual object on the screen, and displays the size, position, and position of the virtual object so as to correspond to the type and position of the marker, And the virtual object is synthesized with the image at the calculated position.

그런데, 이와 같은 과거 또는 현재의 마커 방식 증강 현실 기술의 경우, 마커가 수평 면에 놓여 있건 수직 벽면에 붙어있건 간에 그것의 깊이감 또는 위치감을 포함하는 지형정보를 3차원적으로 인식하지 못한다는 문제점이 존재하고 있다. However, in the case of the past or current marker-based augmented reality technology, it is difficult to recognize the terrain information including the depth or position of the marker three-dimensionally regardless of whether the marker is placed on the horizontal surface or the vertical wall surface .

그에 따라 과거 또는 현재의 증강 현실 기술은, 영상 내 실제 사물과 가상 오브젝트 간에 정확한 공간적 매칭이 이루어지지 않아 사실감 저하 및 그에 따른 사용자의 흥미 저하 유발이 추가적인 문제점으로 대두되고 있다.Accordingly, the past or present augmented reality technology has an additional problem in that accurate spatial matching between actual objects and virtual objects in the image is not performed, resulting in lowering of realism and deterioration of interest of the user.

따라서, 위와 같은 문제점을 해결하기 위한 방법이 요구되고 있는 실정이다.Therefore, a method for solving the above problems is required.

본 발명의 목적은, 상기 문제점을 해결할 수 있도록 지형정보 인식을 기반으로 증강 현실 오브젝트를 표시하는 방법을 제공하는데 있다.It is an object of the present invention to provide a method of displaying an augmented reality object based on topographic information recognition in order to solve the above problems.

본 발명의 다른 목적은, 실제 영상의 지형정보 인식를 인식하되, 상기 인식된 지형정보를 기반으로 상기 증강 현실 오브젝트를 합성하여 표시하는 방법을 제공하는데 있다. It is another object of the present invention to provide a method of recognizing a terrain information recognition of an actual image and synthesizing and displaying the augmented reality object based on the recognized terrain information.

본 발명의 또 다른 목적은, 위와 같은 방법을 실현시키기 위한 장치를 제공하는데 있다.It is still another object of the present invention to provide an apparatus for realizing the above method.

본 발명에서 이루고자 하는 기술적 과제들은 상기 기술적 과제로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be solved by the present invention are not limited to the technical problems and other technical problems which are not mentioned can be understood by those skilled in the art from the following description.

상술한 문제점을 해결하기 위한 본 발명의 일실시예에 따른 지형정보 인식을 기반으로 증강 현실 오브젝트를 표시하는 방법은, 실제 공간에 대한 영상을 카메라를 통해 입력받는 단계, 상기 카메라를 통해 입력된 실제 공간에 대한 영상의 픽셀 데이터 정보를 추출하는 단계, 상기 추출된 픽셀 데이터 정보를 기반으로 마커 정보를 인식하되, 상기 인식된 마커 정보에 대응되는 증강현실 오브젝트를 미리 저장된 데이터베이스를 탐색하여 결정하는 단계, 상기 추출된 픽셀 데이터 정보를 기반으로 상기 실제 공간에 대한 지형 정보 분석을 수행하되, 상기 결정된 증강현실 오브젝트를 상기 분석된 지형 정보에 대응하여 변환하는 단계 및 상기 변환된 증강현실 오브젝트를 상기 실제 공간에 대한 영상에 합성하여 디스플레이하는 단계를 포함하여 이루어질 수 있다.According to an aspect of the present invention, there is provided a method for displaying an augmented reality object based on topographic information recognition according to an embodiment of the present invention includes receiving an image of an actual space through a camera, Extracting pixel data information of an image with respect to a space, searching for a pre-stored database of an augmented reality object corresponding to the recognized marker information by recognizing marker information based on the extracted pixel data information, Converting the determined augmented reality object to correspond to the analyzed topographic information, and performing the step of converting the augmented reality object into the real space, based on the extracted pixel data information, And displaying the synthesized image on the display unit Can.

본 발명의 일실시예에 따른 지형정보 인식을 기반으로 증강 현실 오브젝트를 표시하는 방법에 있어서, 상기 픽셀 데이터 정보는 상기 실제 공간에 대한 영상의 RGB 데이터 정보를 포함하여 이루어질 수 있다.In the method of displaying an augmented reality object based on the recognition of the terrain information according to an embodiment of the present invention, the pixel data information may include RGB data of an image of the real space.

본 발명의 일실시예에 따른 지형정보 인식을 기반으로 증강 현실 오브젝트를 표시하는 방법에 있어서, 상기 지형 정보 분석은, 상기 실제 공간에 대한 영상 내 적어도 하나 이상의 객체 각각에 대한 픽셀의 위치 및 상기 실제 공간 상에서의 상기 적어도 하나 이상의 객체 각각의 위치를 기반으로 하여 상기 영상 내 소실점을 결정하는 단계, 상기 결정된 소실점의 수직축을 기준으로 상기 영상에 대한 회전을 가하여 상기 영상 내 적어도 하나 이상의 객체 각각에 대한 좌표 변화량을 측정하는 단계 및 상기 좌표 변화량을 기반으로 상기 실제 공간에 대한 수평 정보, 수직 정보 및 평면 정보를 포함하는 지형 정보를 분석하는 단계를 포함하여 이루어질 수 있다.The method of displaying an augmented reality object based on the recognition of terrain information according to an embodiment of the present invention is characterized in that the terrain information analysis includes a step of analyzing a location of a pixel with respect to each of at least one object in the image, Determining a vanishing point in the image based on a position of each of the at least one object in the space, applying rotation about the image based on the determined vertical axis of the vanishing point, Analyzing the terrain information including the horizontal information, the vertical information, and the plane information of the actual space based on the coordinate change amount.

본 발명의 일실시예에 따른 지형정보 인식을 기반으로 증강 현실 오브젝트를 표시하는 방법은, 상기 결정된 증강현실 오브젝트를 상기 분석된 지형 정보에 대응하여 변환하는 단계는, 상기 실제 공간에 대한 영상 내에서 상기 결정된 증강현실 오브젝트가 합성되어 표시될 위치, 크기 및 회전 정도 중 적어도 하나 이상을 상기 실제 공간에 대한 수평 정보, 수직 정보 및 평면 정보에 맞게 변환하는 것을 포함하여 이루어질 수 있다.The method of displaying an augmented reality object based on the recognition of the terrain information according to an embodiment of the present invention may include the steps of converting the determined augmented reality object corresponding to the analyzed terrain information, And converting at least one of a position, a size, and a degree of rotation to be displayed by combining the determined augmented reality object according to the horizontal information, the vertical information, and the plane information of the actual space.

상술한 문제점을 해결하기 위한 본 발명의 일실시예에 따른 지형정보 인식을 기반으로 증강현실 오브젝트를 표시하는 증강현실 장치는, 실제 공간에 대한 영상을 입력받는 카메라부, 상기 카메라를 통해 입력된 실제 공간에 대한 영상의 픽셀 데이터 정보를 추출하는 제어부, 상기 추출된 픽셀 데이터 정보를 기반으로 마커 정보를 인식하되, 상기 인식된 마커 정보에 대응되는 증강현실 오브젝트를 미리 저장된 데이터베이스를 탐색하여 결정하는 마커 인식부, 상기 추출된 픽셀 데이터 정보를 기반으로 상기 실제 공간에 대한 지형 정보 분석을 수행하되, 상기 결정된 증강현실 오브젝트를 상기 분석된 지형 정보에 대응하여 변환하는 이미지 처리부 및 상기 변환된 증강현실 오브젝트를 상기 실제 공간에 대한 영상에 합성하여 디스플레이하는 디스플레이부를 포함하여 이루어질 수 있다.According to an aspect of the present invention, there is provided an augmented reality apparatus for displaying an augmented reality object based on geographical information recognition according to an embodiment of the present invention includes a camera unit for receiving an image of an actual space, A marker recognition unit for recognizing marker information based on the extracted pixel data information and searching for a database in which augmented reality objects corresponding to the recognized marker information are stored in advance, An image processing unit that performs geospatial information analysis on the real space based on the extracted pixel data information and converts the determined augmented reality object according to the analyzed topographical information, A display for compositing and displaying the image on the actual space It may be made, including the chin.

상기와 같은 본 발명에 따르면 아래에 기재된 효과를 얻을 수 있다. 다만, 본 발명을 통해 얻을 수 있는 효과는 이에 제한되지 않는다.According to the present invention as described above, the following effects can be obtained. However, effects obtained through the present invention are not limited thereto.

첫째, 본 발명에 따르면 지형정보 인식을 기반으로 증강 현실 오브젝트를 표시하는 방법이 제공될 수 있다.First, according to the present invention, a method of displaying an augmented reality object based on the recognition of terrain information can be provided.

둘째, 본 발명에 따르면 실제 영상의 지형정보 인식를 인식하되, 상기 인식된 지형정보를 기반으로 상기 증강 현실 오브젝트를 합성하여 표시하는 방법이 제공될 수 있다.According to another aspect of the present invention, there is provided a method of recognizing a terrain information recognition of an actual image, and synthesizing and displaying the augmented reality object based on the recognized terrain information.

셋째, 본 발명에 따르면, 선술한 방법을 실현시키기 위한 장치가 제공될 수 있다.Third, according to the present invention, an apparatus for realizing the above-described method can be provided.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtained by the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those skilled in the art from the following description will be.

도 1은 본 발명이 적용될 수 있는 증강현실 장치의 구성을 예시하는 도면이다.
도 2는 본 발명의 일실시예에 따라 지형정보 인식을 기반으로 증강현실 오브젝트를 표시하는 과정을 설명하기 위한 도면이다.
도 3은 본 발명의 일실시예에 따라 증강현실 장치가 지형정보 인식을 수행하는 과정을 설명하기 위한 또 다른 도면이다.
도 4는 본 발명의 일실시예에 따라 지형정보 인식을 기반으로 증강현실 오브젝트를 표시한 일례를 나타내기 위한 도면이다.
도 5는 본 발명의 일실시예에 따라 지형정보 인식을 기반으로 증강현실 오브젝트를 표시한 일례를 나타내기 위한 또 다른 도면이다.
1 is a diagram illustrating a configuration of an augmented reality apparatus to which the present invention can be applied.
2 is a diagram illustrating a process of displaying an augmented reality object based on geographical information recognition according to an embodiment of the present invention.
FIG. 3 is another diagram for explaining a process of performing the terrain information recognition by the augmented reality device according to an embodiment of the present invention.
4 is a diagram illustrating an example of displaying an augmented reality object based on topographic information recognition according to an embodiment of the present invention.
FIG. 5 is another diagram illustrating an example of displaying an augmented reality object based on topographic information recognition according to an embodiment of the present invention. Referring to FIG.

이하, 본 발명에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The following detailed description, together with the accompanying drawings, is intended to illustrate exemplary embodiments of the invention and is not intended to represent the only embodiments in which the invention may be practiced.

단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전히 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.It is to be understood that both the foregoing general description and the following detailed description of the present invention are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. Only.

몇몇의 경우, 본 발명의 개념이 모호해지는 것을 피하기 위하여 공지의 구조 및 장치는 생략되거나, 각 구조 및 장치의 핵심기능을 중심으로 한 블록도 형식으로 도시될 수 있다. 또한, 본 명세서 전체에서 동일한 구성요소에 대해서는 동일한 도면 부호를 사용하여 설명한다.In some instances, well-known structures and devices may be omitted or may be shown in block diagram form, centering on the core functionality of each structure and device, to avoid obscuring the concepts of the present invention. In the following description, the same components are denoted by the same reference numerals throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함(comprising 또는 including)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when an element is referred to as "comprising" or " including ", it is meant that the element does not exclude other elements, do.

또한, 명세서에 기재된 "…부" 의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 나아가, "일(a 또는 an)", "하나(one)", 및 유사 관련어는 본 발명을 기술하는 문맥에 있어서 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.Also, the term "part" in the description means a unit for processing at least one function or operation, which may be implemented by hardware, software, or a combination of hardware and software. Furthermore, the terms " a or an, "" one," and similar related terms, unless the context clearly dictates otherwise or clearly contradicted by context, As used herein.

아울러, 본 발명의 실시예들에서 사용되는 특정(特定) 용어들은 본 발명의 이해를 돕기 위해서 제공된 것이며, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 이러한 특정 용어의 사용은 본 발명의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.In addition, specific terms used in embodiments of the present invention are provided to facilitate understanding of the present invention. Unless otherwise defined, all terms used herein, including technical or scientific terms, And have the same meaning as commonly understood by those of ordinary skill in the art. The use of such a specific term may be changed to other forms without departing from the spirit of the present invention.

이하, 본 발명에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The following detailed description, together with the accompanying drawings, is intended to illustrate exemplary embodiments of the invention and is not intended to represent the only embodiments in which the invention may be practiced.

도 1은 본 발명이 적용될 수 있는 증강현실 장치의 구성을 예시하는 도면이다.1 is a diagram illustrating a configuration of an augmented reality apparatus to which the present invention can be applied.

도 1을 참고하면, 본 발명이 적용될 수 있는 증강현실 장치는, 카메라부(100), 제어부(200), 마커인식부(300), 이미지 처리부(400) 및 디스플레이부(500)를 포함하여 이루어질 수 있다. 1, the augmented reality device to which the present invention can be applied includes a camera unit 100, a control unit 200, a marker recognition unit 300, an image processing unit 400, and a display unit 500 .

다만, 이하에서 언급되는 증강현실 장치는 도 1에 도시된 구성요소들 중 적어도 하나를 포함하나, 반드시 이에 한정되는 것은 아니다.However, the augmented reality apparatus described below includes at least one of the components shown in FIG. 1, but is not limited thereto.

상기 증강현실 장치(1000)는 예를들어, '증강현실 어플리케이션(Application)' 또는 '증강현실 프로그램'이 실행되는 모바일 클라이언트가 될 수 있으며, 예를 들어, WCDMA, LTE와 같은 이동 통신망을 이용하는 통상의 스마트폰, 스마트패드, VR(Virtual Reality), AR(Augmented Reality) 장치, PC(Personal Computer), 노트북 컴퓨터, 태블릿 PC(Tablet Personal Computer), 단말 장치, 휴대폰, 이동 단말, 모바일 단말, 터미널(Terminal), MS(Mobile Station), MSS(Mobile Subscriber Station), SS(Subscriber Station), AMS(Advanced Mobile Station), WT(Wireless terminal), MTC(Machine-Type Communication) 장치, M2M(Machine-to-Machine) 장치, D2D 장치(Device-to-Device) 장치를 포함하는 개념으로 해석될 수 있다. For example, the augmented reality device 1000 may be a mobile client on which an 'augmented reality application' or an 'augmented reality program' is executed. For example, the augmented reality device 1000 may be an ordinary augmented reality application using a mobile communication network such as WCDMA or LTE Such as a smart phone, a smart pad, a virtual reality (VR), an augmented reality (AR) device, a personal computer (PC), a notebook computer, a tablet personal computer, a terminal device, a mobile phone, Terminal, an MS (Mobile Station), an MSS (Mobile Subscriber Station), an SS (Subscriber Station), an AMS (Advanced Mobile Station), a WT (Wireless Terminal), a MTC (Machine- Machine, and a D2D (Device-to-Device) device.

이 때, 상기 증강현실 어플리케이션 또는 증강현실 프로그램은, 증강현실 서비스의 운영자가 다양한 증강현실 서비스의 제공을 목적으로 하여 배포하는 것으로서, 예를 들어, 통상의 앱 스토어 서버(도면 미도시)를 통해 배포할 수 있다. 어플리케이션 또는 프로그램은 모바일 OS제조사에서 제공하는 개발언어를 이용하여 해당 모바일 기기에서만 동작되는 응용 프로그램을 말한다. 상기 어플리케이션 또는 프로그램의 경우, 장치가 제공하는 하드웨어적 기능을 지원 받아 다양한 기능의 구현이 가능하다.At this time, the augmented reality application or the augmented reality program is distributed by the operator of the augmented reality service for the purpose of providing various augmented reality services. For example, the augmented reality application or the augmented reality program is distributed through a normal app store server (not shown) can do. An application or a program refers to an application program which is operated only by a mobile device using a development language provided by a mobile OS manufacturer. In the case of the application or the program, various functions can be implemented by supporting the hardware functions provided by the device.

다만, 상기 증강현실 장치는 반드시 모바일 클라이언트로 구성될 필요는 없으며, 카메라 및 디스플레이를 구비한 일반적인 PC(Personal Computer) 또는 이와 동등한 컴퓨팅 수단이면 어느 것이나 이용될 수 있다.However, the augmented reality device does not necessarily have to be configured as a mobile client, and may be a general PC (Personal Computer) having a camera and a display or any equivalent computing means.

상기 카메라부(100)는 실제 공간에 대한 영상을 입력받을 수 있으며, 모노 카메라를 포함하는 통상적인 카메라일 수 있으며, 증강현실 오브젝트(또는 증강현실 컨텐츠)를 구현하기 위한 실제 공간을 촬영하기 위해 현재까지 개발되었거나 앞으로 개발될 다양한 영상 촬영 기능을 갖는 장치를 포함하는 개념으로 해석될 수 있다.The camera unit 100 may receive an image of an actual space and may be a conventional camera including a mono camera. In order to capture an actual space for realizing an augmented reality object (or augmented reality content) Which can be interpreted as a concept including a device having various image taking functions developed or developed in the future.

본 발명의 증강현실 장치는 마커 인식부(300) 및 이미지 처리부(400)를 포함하여 이루어질 수 있으며, 상기 마커 인식부(300)는 상기 카메라부(100)를 통해 입력된 영상으로부터 마커를 인식하는 기능을 수행할 수 있으며, 보다 구체적으로 상기 카메라부(100)에 의해 입력된 영상 내 픽셀 데이터 정보를 기반으로 마커 정보를 인식하되, 상기 인식된 마커 정보에 대응되는 증강현실 오브젝트를 미리 저장된 데이터베이스를 탐색하여 결정할 수 있다.The augmented reality device of the present invention may include a marker recognition unit 300 and an image processing unit 400. The marker recognition unit 300 recognizes a marker from an image input through the camera unit 100 More specifically, it is possible to recognize the marker information based on the pixel data information in the image input by the camera unit 100, and to store the augmented reality object corresponding to the recognized marker information in advance in the database It can be determined by searching.

이 때, 상기 데이터베이스는 증강현실을 위한 각 마커의 고유 인식 정보 및/또는 이에 대응하는 증강현실 오브젝트에 대한 정보를 미리 저장하고 있을 수 있다.At this time, the database may previously store unique recognition information of each marker for the augmented reality and / or information about the augmented reality object corresponding thereto.

또한, 상기 이미지 처리부(400)는 상기 카메라부(100)에 의해 입력된 영상 내 픽셀 데이터 정보를 기반으로 상기 실제 공간에 대한 지형 정보 분석을 수행하되, 상기 마커인식부(300)를 통해 결정된 증강현실 오브젝트를 상기 분석된 지형 정보에 대응하여 변환할 수 있다.In addition, the image processing unit 400 performs topographic information analysis on the actual space based on the pixel data information in the image input by the camera unit 100, and performs the enhancement determined through the marker recognition unit 300 The real object can be converted corresponding to the analyzed terrain information.

본 발명의 증강현실 장치는 증강현실 인터페이스 및 그와 관련된 정보(예를 들어, 실제 공간에 대한 영상 및/또는 증강현실 오브젝트 등)를 표시하거나, UI(User Interface) 또는 GUI(Graphic User Interface) 등을 디스플레이(또는 표시)하는 디스플레이부(500)를 상기 장치의 내부 또는 외부에 포함할 수 있다. The augmented reality device of the present invention may display an augmented reality interface and related information (for example, an image and / or augmented reality object for an actual space), a UI (User Interface), a GUI (Graphic User Interface) The display unit 500 may be included inside or outside the apparatus.

상기 디스플레이부(500)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중 적어도 어느 하나로 구현될 수도 있으며, 구현 형태에 따라 디스플레이부가 2개 이상 존재할 수도 있다. 예를 들어, 단말(200)에는 외부 디스플레이부와 내부 디스플레이부가 동시에 구비될 수도 있다.The display unit 500 may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a three-dimensional display (3D display), or may include two or more display units depending on the implementation. For example, the terminal 200 may be provided with an external display unit and an internal display unit at the same time.

또한, 증강현실 장치는 제어부(200)를 더 포함할 수 있으며, 제어부는 각종 데이터 또는 신호에 대한 처리를 수행하거나 혹은 상기 데이터 또는 신호를 기반으로 증강현실 인터페이스 및/또는 오브젝트에 대한 제어를 수행할 수 있다.The augmented reality apparatus may further include a controller 200. The controller may perform processing on various data or signals or perform control on the augmented reality interface and / or object based on the data or the signal .

본 발명에서 상기 제어부(200)는. 상기 카메라부(100)를 통해 입력된 실제 공간에 대한 영상의 픽셀 데이터 정보를 추출할 수 있으며, 앞서 언급한 상기 카메라부(100), 상기 마커 인식부(300), 이미지 처리부(400) 및 디스플레이부(500) 각각이 올바르게 동작을 수행할 수 있도록 이들 각각에 대한 제어를 수행할 수 있다.In the present invention, the controller 200 includes: It is possible to extract pixel data information of an image of the actual space input through the camera unit 100. The camera unit 100, the marker recognition unit 300, the image processing unit 400, It is possible to control each of them so that each of the units 500 can perform the correct operation.

상기 제어부는 프로세서(Processor), 컨트롤러(controller), 마이크로 컨트롤러(microcontroller), 마이크로 프로세서(microprocessor), 마이크로 컴퓨터(microcomputer) 등으로도 호칭될 수 있으며, 상기 제어부는 하드웨어(hardware) 또는 펌웨어(firmware), 소프트웨어 또는 이들의 결합에 의해 구현될 수 있다.The controller may also be referred to as a processor, a controller, a microcontroller, a microprocessor, a microcomputer, etc., and the controller may be hardware or firmware, , Software, or a combination thereof.

필요한 경우 상기 증강현실 장치는 메모리부를 더 포함할 수 있으며, 상기 제어부(200)는 데이터 또는 신호를 상기 메모리부에 저장할 수도 있으며, 상기 메모리부는 상기 제어부(200)에 연결되어 오퍼레이팅 시스템(operating system), 어플리케이션, 및 일반 파일(general files)들 또한 저장할 수 있다.The augmented reality device may further include a memory unit, and the controller 200 may store data or signals in the memory unit. The memory unit may be connected to the controller 200 and may be connected to an operating system, , Applications, and general files.

한편, 본 발명의 일실시예에 따라 상기 디스플레이부(500)를 비롯한 다양한 장치를 포함하는 상기 증강현실 장치는, 사용자에게 다양한 시청각 자극을 제공하기 위한 다양한 입출력부를 추가적으로 더 포함할 수도 있다. Meanwhile, the augmented reality device including various devices including the display unit 500 according to an embodiment of the present invention may further include various input / output units for providing various audiovisual stimuli to the user.

보다 구체적으로, 상기 증강현실 장치는 사용자 입력부(예를 들어, 카메라, 키보드, 마우스, 조이스틱, 터치 센서 등)와 같은 일반적/표준적인 영상, 신호 입력 장치를 내부 또는 외부에 포함할 수 있으며, 그 외에도 입력 장치인, 자이로 변화, 가속도 변화 등을 이용하여 사용자가 모션으로서 소정의 신호를 물리적으로 입력할 수 있는 물리기반센서 등을 포함하거나 혹은 유/무선 기술을 통해 연결 또는 결합될 수 있다.More specifically, the augmented reality device may include a general / standard image and signal input device such as a user input unit (e.g., a camera, a keyboard, a mouse, a joystick, a touch sensor, etc.) Based sensor capable of physically inputting a predetermined signal as a motion by using an input device such as a gyro change, an acceleration change, or the like, or may be connected or coupled via wire / wireless technology.

아울러, 상기 디스플레이부(500)의 경우, 다양한 증강현실 오브젝트의 시각화를 사용자에게 제공할 수 있으며, 그 뿐만 아니라 사용자에게 입체감 있는 증강현실 오브젝트를 제공하되 현실감 있는 시청각 자극을 제공할 수 있도록, 현재 개발되었거나 향후 개발될 다양한 출력장치(예를 들어, 디스플레이 장치, 음향 장치 등)를 더 포함하고 있을 수 있다. In addition, in the case of the display unit 500, it is possible to provide visualization of various augmented reality objects to the user, and to provide augmented reality objects to the user as well as to provide users with realistic audiovisual stimulation. (E.g., a display device, a sound device, etc.) to be developed or to be developed in the future.

본 발명에서 상기 증강현실 장치는 물리기반센서를 더 포함할 수 있으며, 상기 물리기반센서는 사용자 또는 영상 내 적어도 하나 이상의 객체에 대한 위치, 움직임, 변화 등을 측정/인식할 수 있으며, 이를 위해 가속도 센서, 자이로 센서, 중력 센서, 자기 센서 또는 온도 센서 중 적어도 하나 이상을 포함하여 이루어질 수 있다.In the present invention, the augmented reality device may further include a physically-based sensor, which can measure / recognize position, movement, change, etc. with respect to at least one or more objects in a user or an image, A sensor, a gyro sensor, a gravity sensor, a magnetic sensor, or a temperature sensor.

이 때, 상기 가속도 센서는 지면을 중심으로 객체가 얼마만큼 기울어져 있는지를 측정할 수 있다. 상기 가속도 센서는 어느 한 방향의 가속도 변화에 대해서 이를 전기 신호로 바꾸어 주는 소자로서, MEMS(micro-electromechanical systems) 기술의 발달과 더불어 널리 사용되고 있으며, 상기 가속도 센서는 중력가속도의 변화를 인식하는 중력 센서를 포함할 수 있다.At this time, the acceleration sensor can measure how much the object is inclined about the ground. The acceleration sensor is widely used as a micro-electromechanical systems (MEMS) technology, which converts an acceleration change in one direction into an electric signal. The acceleration sensor is a gravity sensor . ≪ / RTI >

한편, 상기 가속도 센서는 액티브센싱(Active Sensing)이 가능한 블루투스 4.2와 같이 블루투스 4.0 이후의 비콘(BLE)을 함께 사용할 경우, 임의의 객체의 특정한 움직임이 있을 경우, 해당 객체가 얼마의 속도로 특정한 움직임을 수행하고 있는 지를 알 수 있게 되어, 이동과 관련하여 정확한 시간 측정 또한 가능할 수 있다.Meanwhile, when the beacon (BLE) of 4.0 or later is used together with the Bluetooth 4.2 capable of active sensing, the acceleration sensor can detect a specific movement of a certain object at a certain speed So that accurate time measurement in relation to movement can also be possible.

한편, 상기 자이로 센서는 각속도 또는 회전력을 측정하는 것이 가능한 센서로서, 자이로스코프의 원리를 이용한다. 이 때, 상기 자이로스코프는 중앙의 회전체가 외부의 회전력이 주어졌을 때 자동으로 회전 중심을 세우는 원리를 보여주는 장치로서, 회전체의 복원력은 외부에서 준 회전력과 일치하므로 각속도를 감지할 수 있다. On the other hand, the gyro sensor is a sensor capable of measuring angular velocity or rotational force, and uses the principle of the gyroscope. In this case, the gyroscope is a device for automatically rotating the center of rotation when an external rotational force is applied to the center rotator. The restoring force of the gyroscope matches the quasi-rotational force from the outside, so that the angular velocity can be detected.

상기 증강현실 장치는 증강현실 어플리케이션 또는 증강현실 프로그램의 구동에 의해 적어도 하나 이상의 외부 장치와의 연동 없이 증강현실 기능을 실행할 수 있으며, 도 1에 도시되어 있지는 않으나, 통상의 유무선 네트워크를 통해 증강현실 서버 등과 연동하여 일부 기능을 상기 서버와의 연동을 통해 제공하는 것도 가능하다. 예를 들어, 증강현실에 사용되는 다양한 가상 영상은 제공되는 영상의 종류 및 내용에 따라 큰 데이터량을 가지거나 실시간으로 변경될 수 있는데, 이러한 경우에는 가상 영상에 관한 정보를 네트워크를 통해 증강현실 서버로부터 제공받도록 할 수도 있다.The augmented reality device can perform the augmented reality function without interworking with at least one external device by driving the augmented reality application or the augmented reality program. Although not shown in Fig. 1, It is also possible to provide some functions through interoperation with the server. For example, various virtual images used in the augmented reality may have a large amount of data or be changed in real time depending on the type and content of the provided image. In this case, As shown in FIG.

도 2는 본 발명의 일실시예에 따라 지형정보 인식을 기반으로 증강현실 오브젝트를 표시하는 과정을 설명하기 위한 도면이다.2 is a diagram illustrating a process of displaying an augmented reality object based on geographical information recognition according to an embodiment of the present invention.

*도 2를 참고하면, 본 발명의 일실시예에 따라 증강현실 장치가 지형정보 인식을 기반으로 증강현실 오브젝트를 표시하는 과정을 위해, 먼저 실제 공간에 대한 영상을 카메라부를 통해 입력받을 수 있다.Referring to FIG. 2, in order to display an augmented reality object based on the recognition of the terrain information according to an embodiment of the present invention, an image of the actual space may first be received through the camera unit.

그 후, 상기 증강현실 장치는 상기 카메라를 통해 입력된 실제 공간에 대한 영상의 픽셀 데이터 정보를 추출할 수 있으며, 이 때, 상기 픽셀 데이터 정보는 상기 실제 공간에 대한 영상의 RGB 데이터 정보를 포함하여 이루어질 수 있다.Thereafter, the augmented reality device can extract pixel data information of an image of an actual space inputted through the camera, wherein the pixel data information includes RGB data information of the image of the actual space Lt; / RTI >

한편, 상기 실제 공간에 대한 영상의 픽셀 데이터 정보를 추출하면, 상기 증강현실 장치(또는 마커 인식부)는 상기 추출된 픽셀 데이터 정보를 기반으로 마커 정보를 인식하되, 상기 인식된 마커 정보에 대응되는 증강현실 오브젝트를 미리 저장된 데이터베이스를 탐색하여 결정할 수 있다. On the other hand, if the pixel data information of the image for the actual space is extracted, the augmented reality device (or marker recognition unit) recognizes the marker information based on the extracted pixel data information, The augmented reality object can be searched and determined in advance.

상기 결정은 상기 인식된 마커 정보의 특징점을 탐색한 후, 이를 기반으로 상기 미리 저장된 데이터베이스 검색하여 상기 인식된 마커 정보와 대응되는 증강현실 오브젝트를 탐색함에 따라 이루어질 수 있다.The determination may be made by searching a minutiae of the recognized marker information, searching the previously stored database based on the minutiae, and searching an augmented reality object corresponding to the recognized marker information.

위와 같은 탐색에 따라, 상기 인식된 마커 정보와 대응되는 증강현실 오브젝트를 결정하면, 상기 증강현실 장치는 상기 추출된 픽셀 데이터 정보를 기반으로 상기 실제 공간에 대한 지형 정보 분석을 수행하되, 상기 결정된 증강현실 오브젝트를 상기 분석된 지형 정보에 대응하여 변환할 수 있다.According to the above search, when the augmented reality object corresponding to the recognized marker information is determined, the augmented reality device performs the terrain information analysis on the actual space based on the extracted pixel data information, The real object can be converted corresponding to the analyzed terrain information.

이 때, 본 발명의 일실시예에 따르면, 상기 지형 정보 분석을 위해 먼저 도 3(a)에 도시된 바와 같이 상기 실제 공간에 대한 영상 내 적어도 하나 이상의 객체 각각에 대한 픽셀의 위치 및 상기 실제 공간 상에서의 상기 적어도 하나 이상의 객체 각각의 위치를 기반으로 하여 카메라 중앙점을 기준으로 하는 상기 영상 내 소실점을 결정할 수 있다.According to an embodiment of the present invention, for the topographic information analysis, as shown in FIG. 3 (a), the position of a pixel with respect to each of at least one or more objects in the image with respect to the real space, The vanishing point in the image can be determined based on the camera center point based on the position of each of the at least one object on the image.

이 때, 상기 영상 내 소실점 결정을 위해 상기 영상 내 적어도 하나 이상의 객체 각각이 영상 내에서 자리하는 위치를 지평선 라인을 기준으로 하여 고려할 수 있다.In this case, a position where each of at least one or more objects in the image is located in the image may be considered with reference to the horizon line to determine a vanishing point in the image.

한편, 상기 결정된 소실점의 수직축을 기준으로 하여 상기 영상에 대한 회전(예를 들어, 반시계 방향 등)을 가하면, 도 3(b)에 도시된 바와 같이 상기 영상 내 적어도 하나 이상의 객체 각각에 대한 좌표 변화량을 측정할 수 있으며, 상기 좌표 변화량을 이용하면 도 3(c)에 도시된 바와 같이 상기 영상 내 적어도 하나 이상의 객체 각각에 대하여 실제 공간에 대한 수평 정보, 수직 정보 및 평면 정보를 포함하는 지형 정보를 분석할 수 있다.3 (b), when the rotation (for example, counterclockwise) is applied to the image based on the determined vertical axis of the vanishing point, the coordinates of the at least one object in the image As shown in FIG. 3 (c), when the coordinate change amount is used, for each of at least one object in the image, the terrain information including the horizontal information, the vertical information, Can be analyzed.

한편, 상기 카메라부를 통해 입력된 실제 공간에 대한 영상으로부터 픽셀 데이터 정보를 추출한 후, 이를 기반으로 상기 실제 공간에 대한 지형 정보 분석을 수행하면, 상기 증강현실 장치(또는 이미지 처리부)는 상기 실제 공간에 대한 영상에 합성할 증강현실 오브젝트를 상기 분석된 지형 정보에 대응하여 변환할 수 있다.Meanwhile, if the pixel data information is extracted from the image of the actual space inputted through the camera unit and the topographic information analysis is performed on the actual space based on the extracted pixel data information, the augmented reality device (or the image processing unit) The augmented reality object to be synthesized on the Korean image can be converted corresponding to the analyzed terrain information.

이 때, 변환은 상기 증강현실 오브젝트가 상기 실제 공간에 대한 영상 내에서 합성되어 표시될 위치, 크기 및 회전 정도 중 적어도 하나 이상을 상기 분석된 지형 정보(즉, 실제 공간에 대한 수평 정보, 수직 정보 및 평면 정보 등)에 맞게 변환하는 것을 포함하여 이루어질 수 있다.At this time, the transformation may include at least one of a position, a size, and a degree of rotation of the augmented reality object to be displayed in the image of the actual space and displayed on the basis of the analyzed topographic information (i.e., And plane information, and the like).

한편, 상기 증강현실 장치는 상기 변환된 증강현실 오브젝트를 상기 실제 공간에 대한 영상에 합성하여 디스플레이 할 수 있다.Meanwhile, the augmented reality device can synthesize and display the converted augmented reality object on the image of the actual space.

따라서, 본 발명에 의할 경우 상기 증강현실 장치가 실제 영상의 지형정보 인식를 인식하되, 상기 인식된 지형정보를 기반으로 상기 증강현실 오브젝트를 합성하여 표시하는 것이 가능하여, 현실세계와 일치하도록 증강현실 오브젝트를 물리적으로 표현하는 것이 가능하다는 효과가 있을 수 있다.Therefore, according to the present invention, it is possible for the augmented reality device to recognize the terrain information recognition of the actual image, and to display the composite augmented reality object based on the recognized terrain information, There is an effect that it is possible to physically express an object.

예를 들어, 상기 증강현실 오브젝트가 시계 또는 네비게이션인 경우, 상기 시계는 수직 벽면에 표시되는 것이 일반적이되, 상기 네비게이션의 경우 수평 평면에 표시되는 것이 사용자에게 용이하게 인식될 수 있으므로, 본 발명에 의하면 상기 시계 또는 네비게이션에 해당하는 증강현실 오브젝트 각각을 상기 인식된 지형정보를 기반으로 하여 수직 벽면 또는 수평 평면에 표시하는 것이 가능할 수 있다.For example, when the augmented reality object is a clock or a navigation, the clock is generally displayed on a vertical wall surface. In the case of the navigation, it can be easily recognized by a user that the object is displayed on a horizontal plane. It is possible to display each of the augmented reality objects corresponding to the clock or the navigation on the vertical wall surface or the horizontal plane based on the recognized terrain information.

또한, 본 발명은 앞서 설명한 바와 같이 증강현실 오브젝트를 지형정보를 반영하여 표시되도록 하고 있으며, 이 때 중력센서 또는 자기장 센서와 같은 추가적인 센서를 사용함이 없이 오로지 카메라에 의해 입력된 영상의 픽셀 데이터 정보만을 이용하여 상기 지형정보를 인식할 수 있다는 특장점이 있다.In the present invention, as described above, the augmented reality object is displayed by reflecting the topographic information. In this case, only the pixel data information of the image input by the camera without using an additional sensor such as a gravity sensor or a magnetic field sensor It is possible to recognize the terrain information by using the terrain information.

도 4 및 도 5는 본 발명의 일실시예에 따라 지형정보 인식을 기반으로 증강현실 오브젝트를 표시한 일례를 나타내기 위한 도면이다.4 and 5 are views illustrating an example of displaying an augmented reality object based on the recognition of terrain information according to an embodiment of the present invention.

본 발명에서 상기 증강현실 장치가 카메라에 의해 입력된 영상의 픽셀 데이터 정보를 이용하여 실제 공간에 대한 지형정보를 인식할 경우, 도 4에 도시된 바와 같이 별도의 선(line) 및/또는 점(dot) 등을 이용하여 지형 분석 결과(수직, 수평, 평면, 경사도, 면적 등)를 시각적으로 표현할 수 있다. In the present invention, when the augmented reality device recognizes the topographic information on the actual space by using the pixel data information of the image input by the camera, a separate line and / or point (vertical, horizontal, flat, slope, area, etc.) can be visually expressed by using the map,

아울러, 본 발명에서 상기 증강현실 장치는 마커에 등록된 증강현실 오브젝트와 함께 혹은 이를 제거한 상태에서 추가적인 증강현실 오브젝트를 디스플레이 할 수 있으며, 상기 추가적인 증강현실 오브젝트도 상기 지형 인식 결과(또는 지형 분석 결과)를 반영하여 디스플레이 할 수 있다.Further, in the present invention, the augmented reality device can display an additional augmented reality object with or without the augmented reality object registered in the marker, and the augmented reality object can also display the augmented reality object (or the terrain analysis result) Can be displayed.

즉, 도 5(a)에 도시된 바와 같이 구면체의 형상으로 이루어진 복수의 증강현실 오브젝트를 표시하는 경우, 상기 지형 인식 결과(또는 지형 분석 결과)를 반영하지 않은 상태에서는 상기 구면체의 형상으로 이루어진 복수의 증강현실 오브젝트가 화면 내 깊숙한 방향으로 그대로 떨어져버리는 것으로 디스플레이 될 수 있다. That is, when a plurality of augmented reality objects having a shape of a spherical body are displayed as shown in Fig. 5 (a), a plurality of augmented reality objects having a shape of the spherical body Can be displayed as the augmented reality object of the virtual reality object falls directly in the depth direction of the screen.

그러나, 상기 추가적인 증강현실 오브젝트에 상기 지형 인식 결과(또는 지형 분석 결과)를 반영할 경우, 도 5(b)에 도시된 바와 같이 상기 구면체의 형상으로 이루어진 복수의 증강현실 오브젝트가 상기 인식된 지형에 대응하여 반응(예를 들어, 튕김 등)하는 것으로 디스플레이 될 수 있어, 본 발명의 일실시예에 따르면 보다 현실감있는 증강현실 오브젝트의 표현이 가능하다.However, when the terrain recognition result (or terrain analysis result) is reflected on the additional augmented reality object, as shown in Fig. 5 (b), a plurality of augmented reality objects in the shape of the spherical augmented object (E.g., skip, etc.) correspondingly, and it is possible to represent a more realistic augmented reality object according to an embodiment of the present invention.

한편, 상술한 방법은, 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터 판독 가능 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터 판독 가능 매체에 여러 수단을 통하여 기록될 수 있다. 본 발명의 다양한 방법들을 수행하기 위한 실행 가능한 컴퓨터 코드를 저장하는 컴퓨터 판독 가능 매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, DVD 등)와 같은 저장 매체를 포함한다.On the other hand, the above-described method can be implemented in a general-purpose digital computer that can be created as a program that can be executed in a computer and operates the program using a computer-readable medium. Further, the structure of the data used in the above-described method can be recorded on a computer-readable medium through various means. Computer readable media for storing executable computer code for carrying out the various methods of the present invention include magnetic storage media (e.g., ROM, floppy disks, hard disks, etc.), optical readable media (e.g., Etc.).

본 발명의 실시예들과 관련된 기술 분야에서 통상의 지식을 가진 자는 상기 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로, 개시된 방법들은 한정적인 관점이 아닌 설명적 관점에서 고려되어야 한다. 본 발명의 범위는 발명의 상세한 설명이 아닌 청구 범위에 나타나며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명의 범위에 포함되는 것으로 해석되어야 한다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed methods should be considered in an illustrative rather than a restrictive sense. It is intended that the scope of the invention be defined by the claims appended hereto and their equivalents falling within the scope of the invention.

본 발명인 지형정보 인식을 기반으로 증강현실 오브젝트를 표시하는 방법 및 그 장치는 증강현실 오브젝트를 표시하기 위한 다양한 방법에 적용하는 것이 가능하다.The method and apparatus for displaying an augmented reality object based on the recognition of terrain information according to the present invention can be applied to various methods for displaying an augmented reality object.

100: 카메라부
200: 제어부
300: 마커인식부
400: 이미지 처리부
500: 디스플레이부
100:
200:
300: marker recognition unit
400:
500:

Claims (1)

증강현실 장치가 지형정보 인식을 기반으로 증강현실 오브젝트를 표시하는 방법에 있어서,
실제 공간에 대한 영상을 카메라를 통해 입력받는 단계;
상기 카메라를 통해 입력된 실제 공간에 대한 영상의 픽셀 데이터 정보를 추출하는 단계;
상기 추출된 픽셀 데이터 정보를 기반으로 마커 정보를 인식하되, 상기 인식된 마커 정보에 대응되는 증강현실 오브젝트를 미리 저장된 데이터베이스를 탐색하여 결정하는 단계;
상기 추출된 픽셀 데이터 정보를 기반으로 상기 실제 공간에 대한 지형 정보 분석을 수행하되, 상기 결정된 증강현실 오브젝트를 상기 분석된 지형 정보에 대응하여 변환하는 단계; 및
상기 변환된 증강현실 오브젝트를 상기 실제 공간에 대한 영상에 합성하여 디스플레이하는 단계;를 포함하여 이루어지고,
상기 결정된 증강현실 오브젝트를 상기 분석된 지형 정보에 대응하여 변환하는 단계는
상기 실제 공간에 대한 영상 내 적어도 하나 이상의 객체 각각에 대한 픽셀의 위치 및 상기 실제 공간 상에서의 상기 적어도 하나 이상의 객체 각각의 위치를 기반으로 하여 상기 카메라 중앙점을 기준으로 하는 상기 영상 내 소실점을 결정하는 단계;
상기 결정된 소실점의 수직축을 기준으로 하여 상기 영상에 대한 회전을 인식하여 상기 영상 내 적어도 하나 이상의 객체 각각에 대한 좌표 변화량을 측정하는 단계; 및
상기 좌표 변화량을 이용하여 상기 영상 내 적어도 하나 이상의 객체 각각에 대하여 실제 공간에 대한 수평 정보, 수직 정보 및 평면 정보를 포함하는 지형 정보를 분석하는 단계를 포함하는, 지형정보 인식 기반 증강현실 오브젝트 표시방법.
A method for displaying an augmented reality object based on topographic information recognition in an augmented reality device,
Receiving an image of an actual space through a camera;
Extracting pixel data information of an image of an actual space inputted through the camera;
Recognizing marker information based on the extracted pixel data information and searching for a database in which augmented reality objects corresponding to the recognized marker information are stored in advance;
Performing geospatial information analysis on the actual space based on the extracted pixel data information, and converting the determined augmented reality object corresponding to the analyzed geospatial information; And
And synthesizing and displaying the converted augmented reality object on an image of the real space,
The step of converting the determined augmented reality object according to the analyzed terrain information
Determining a vanishing point in the image based on the camera center point based on a position of a pixel for each of at least one object in the image with respect to the actual space and a position of each of the at least one object in the real space step;
Recognizing a rotation of the image based on the determined vertical axis of the vanishing point and measuring a coordinate change amount for each of at least one object in the image; And
And analyzing the terrain information including the horizontal information, the vertical information, and the plane information for the actual space for each of at least one or more objects in the image using the coordinate change amount, .
KR1020190003562A 2019-01-10 2019-01-10 Method and apparatus for displaying augmented reality object based on geometry recognition KR20190006584A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190003562A KR20190006584A (en) 2019-01-10 2019-01-10 Method and apparatus for displaying augmented reality object based on geometry recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190003562A KR20190006584A (en) 2019-01-10 2019-01-10 Method and apparatus for displaying augmented reality object based on geometry recognition

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180007862A Division KR101939530B1 (en) 2018-01-22 2018-01-22 Method and apparatus for displaying augmented reality object based on geometry recognition

Publications (1)

Publication Number Publication Date
KR20190006584A true KR20190006584A (en) 2019-01-18

Family

ID=65323737

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190003562A KR20190006584A (en) 2019-01-10 2019-01-10 Method and apparatus for displaying augmented reality object based on geometry recognition

Country Status (1)

Country Link
KR (1) KR20190006584A (en)

Similar Documents

Publication Publication Date Title
KR102414587B1 (en) Augmented reality data presentation method, apparatus, device and storage medium
AU2020202551B2 (en) Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
US11163997B2 (en) Methods and apparatus for venue based augmented reality
US10225506B2 (en) Information processing apparatus and information processing method
KR20210047278A (en) AR scene image processing method, device, electronic device and storage medium
CN110478901B (en) Interaction method and system based on augmented reality equipment
EP3467790B1 (en) Information processing device, information processing method, and storage medium
KR101330805B1 (en) Apparatus and Method for Providing Augmented Reality
CN111742281B (en) Electronic device for providing second content according to movement of external object for first content displayed on display and operating method thereof
JP6624646B2 (en) Information presentation system, information presentation method, and information presentation program
WO2018113759A1 (en) Detection system and detection method based on positioning system and ar/mr
CN112729327A (en) Navigation method, navigation device, computer equipment and storage medium
KR20120017783A (en) Method and apparatus for presenting location information on augmented reality
US20210118236A1 (en) Method and apparatus for presenting augmented reality data, device and storage medium
CN113345108A (en) Augmented reality data display method and device, electronic equipment and storage medium
Pryss et al. The AREA framework for location-based smart mobile augmented reality applications
KR101568741B1 (en) Information System based on mobile augmented reality
KR101914660B1 (en) Method and apparatus for controlling displaying of augmented reality contents based on gyro sensor
KR101939530B1 (en) Method and apparatus for displaying augmented reality object based on geometry recognition
CN112788443B (en) Interaction method and system based on optical communication device
Abbas et al. Augmented reality-based real-time accurate artifact management system for museums
US20170228869A1 (en) Multi-spectrum segmentation for computer vision
KR20190006584A (en) Method and apparatus for displaying augmented reality object based on geometry recognition
EP4100918B1 (en) Method and system for aligning a digital model of a structure with a video stream
KR101153127B1 (en) Apparatus of displaying geographic information in smart phone

Legal Events

Date Code Title Description
A107 Divisional application of patent