KR102344817B1 - Method of compensating the orientation of augmented reality using more than two markers, recording medium electronic device - Google Patents

Method of compensating the orientation of augmented reality using more than two markers, recording medium electronic device Download PDF

Info

Publication number
KR102344817B1
KR102344817B1 KR1020210055111A KR20210055111A KR102344817B1 KR 102344817 B1 KR102344817 B1 KR 102344817B1 KR 1020210055111 A KR1020210055111 A KR 1020210055111A KR 20210055111 A KR20210055111 A KR 20210055111A KR 102344817 B1 KR102344817 B1 KR 102344817B1
Authority
KR
South Korea
Prior art keywords
real
marker
virtual
direction vector
coordinates
Prior art date
Application number
KR1020210055111A
Other languages
Korean (ko)
Inventor
신창훈
장경원
Original Assignee
주식회사 차후
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 차후 filed Critical 주식회사 차후
Priority to KR1020210055111A priority Critical patent/KR102344817B1/en
Application granted granted Critical
Publication of KR102344817B1 publication Critical patent/KR102344817B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

A method of compensating the orientation of augmented reality using more than two markers according to an embodiment of the present invention includes the steps of: recognizing the real coordinate of a first marker given to a first object in real space and the real coordinate of a second marker given to a second object adjacent to the first object, respectively; generating virtual coordinates in a virtual space with respect to the real coordinates of the first marker and the second marker; calculating a real space direction vector between two real coordinates and a virtual space direction vector between two virtual coordinates; calculating an angle between the real space direction vector and the virtual space direction vector to calculate a coordinate error between the real space and the virtual space; and generating a rotation angle for correcting the coordinate error and then correcting the direction of the virtual space direction vector with the generated rotation angle.

Description

두개 이상의 마커를 이용하는 증강현실 방위 보정 방법 및 이를 구현하기 위한 프로그램이 저장된 기록매체, 이를 실행하는 전자 디바이스{Method of compensating the orientation of augmented reality using more than two markers, recording medium electronic device}Augmented reality orientation correction method using two or more markers, a recording medium storing a program for implementing the same, and an electronic device executing the same

본 발명은 두개 이상의 마커를 이용하는 증강현실 방위 보정 방법 및 이를 구현하기 위한 프로그램이 저장된 기록매체, 이를 실행하는 전자 디바이스에 관한 것이다.The present invention relates to an augmented reality orientation correction method using two or more markers, a recording medium storing a program for implementing the same, and an electronic device executing the same.

기존의 증강현실 시스템에서는 스마트 디바이스에 내장된 위치 센서의 나침반 기능을 이용하거나 또는 GPS 좌표를 취득하여 가상 세계의 방위를 맞추는 방식을 이용한다.In the existing augmented reality system, the compass function of the location sensor built into the smart device is used or the method of aligning the orientation of the virtual world by acquiring GPS coordinates is used.

그러나, 두 데이터 모두 오차가 크기 때문에, 이를 이용하여 방위를 맞추면 현실 세계의 객체와 가상 객체의 위치가 어긋나 보이는 현상이 발생하며, 객체의 좌표나 정확한 위치가 주요 관심사가 되는 건축/토목 관련 증강현실 시스템에서 사용하기 어렵다는 문제가 있다.However, since both data have a large error, if the orientation is adjusted using this, a phenomenon occurs that the positions of the real world and virtual objects are misaligned. There is a problem that it is difficult to use in the system.

미국특허 공개공보 US 9619942US Patent Publication US 9619942

본 발명이 해결하고자 하는 과제는 스마트 디바이스에서 증강현실 시스템을 구동할 때, 현실 세계 영상과 해당 영상에 대응하는 가상 세계의 방위 오차를 줄여, 높은 위치 정확도를 갖는 증강현실 화면을 제공할 수 있는 두개 이상의 마커를 이용하는 증강현실 방위 보정 방법 및 이를 구현하기 위한 프로그램이 저장된 기록매체, 이를 실행하는 전자 디바이스를 제공하는 데 그 목적이 있다.The problem to be solved by the present invention is to reduce the azimuth error between the real world image and the virtual world corresponding to the image when driving the augmented reality system on a smart device, thereby providing an augmented reality screen with high positioning accuracy. An object of the present invention is to provide an augmented reality orientation correction method using the above markers, a recording medium storing a program for implementing the same, and an electronic device executing the same.

상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 두개 이상의 마커를 이용하는 증강현실 방위 보정 방법은 현실공간의 제1 대상물에 부여된 제1 마커 및 상기 제1 대상물과 인접한 제2 대상물에 부여된 제2 마커 각각의 현실좌표를 인식하는 단계; 상기 제1 마커 및 상기 제2 마커의 현실좌표에 대한 가상공간 내의 가상좌표를 생성하는 단계; 2개의 현실좌표 간의 현실공간 방향벡터 및 2개의 가상좌표 간의 가상공간 방향벡터를 산출하는 단계; 상기 현실공간 방향벡터와 상기 가상공간 방향벡터 간의 각도차를 계산하여 현실 공간과 가상 공간 간의 좌표오차를 확인하는 단계; 및 확인된 좌표오차를 보정하기 위한 회전각을 생성한 후, 생성된 회전각으로 가상공간 방향벡터의 방향을 보정하는 단계를 포함한다.In an augmented reality orientation correction method using two or more markers according to an embodiment of the present invention for solving the above problems, a first marker given to a first object in real space and a second object adjacent to the first object are provided. recognizing the real coordinates of each of the second markers; generating virtual coordinates in a virtual space with respect to the real coordinates of the first marker and the second marker; calculating a real space direction vector between two real coordinates and a virtual space direction vector between two virtual coordinates; checking a coordinate error between the real space and the virtual space by calculating an angle difference between the real space direction vector and the virtual space direction vector; and after generating a rotation angle for correcting the identified coordinate error, correcting the direction of the virtual space direction vector with the generated rotation angle.

일 실시예에서, 상기 제1 마커 및 상기 제2 마커는 대상물의 인식코드, x, y, z 좌표정보를 포함한다.In an embodiment, the first marker and the second marker include an object recognition code and x, y, z coordinate information.

일 실시예에서, 상기 가상좌표를 생성하는 단계는 상기 가상공간 상의 사용자 위치를 시점으로 하여 화면상의 마커의 위치를 향하도록 생성된 직선과 가상공간에 생성된 메쉬가 교차한 교차점의 위치로 상기 가상공간 내의 대상물에 대한 가상좌표를 생성하는 단계인 것을 특징으로 한다.In one embodiment, the generating of the virtual coordinates may include the location of the intersection of the mesh generated in the virtual space and the straight line generated to face the location of the marker on the screen with the user's location on the virtual space as the starting point. It is characterized in that it is a step of generating virtual coordinates for an object in space.

일 실시예에서, 상기 현실공간 방향벡터는 제2 마커의 현실좌표와 제1 마커의 현실좌표의 차로 산출되고, 상기 가상공간 방향벡터는 상기 제2 마커의 가상좌표와 제1 마커의 가상좌표의 차로 산출되는 것을 특징으로 한다.In an embodiment, the real space direction vector is calculated as a difference between the real coordinates of the second marker and the real coordinates of the first marker, and the virtual space direction vector is the difference between the virtual coordinates of the second marker and the virtual coordinates of the first marker. It is characterized in that it is calculated by car.

일 실시예에서, 상기 현실공간 방향벡터와 상기 가상공간 방향벡터는 X축 및 y축 값을 갖는 2차원 벡터인 것을 특징으로 한다.In an embodiment, the real space direction vector and the virtual space direction vector are two-dimensional vectors having X-axis and Y-axis values.

일 실시예에서, 상기 확인된 좌표오차를 보정하기 위한 회전각을 생성하는 단계는 하기의 식 2를 이용하여 상기 회전각(θ)생성하는 단계인 것을 특징으로 한다.In one embodiment, the generating of the rotation angle for correcting the identified coordinate error is characterized in that the step of generating the rotation angle θ using Equation 2 below.

[식 2][Equation 2]

Figure 112021049801593-pat00001
Figure 112021049801593-pat00001

여기서, Vr은 현실 방향벡터이고, Vv는 가상공간 방향벡터이고, Xr, Yr은 각각 Vr의 x값과 y값이며, Xv, Yv는 각각 Vv의 x값과 y값을 나타낸다. 각도 θ는 (+)일 때 반시계방향, (-)일 때 시계방향을 나타낸다.Here, Vr is a real direction vector, Vv is a virtual space direction vector, Xr and Yr are the x and y values of Vr, respectively, and Xv and Yv represent the x and y values of Vv, respectively. The angle θ indicates a counterclockwise direction when it is (+) and a clockwise direction when it is (-).

상기 과제를 해결하기 위한 기록매체는 청구항 1, 청구항 2, 청구항 4 내지 청구항 6 중 어느 하나의 항에 기재된 두개 이상의 마커를 이용하는 증강현실 방위 보정 방법을 구현하기 위한 프로그램이 저장된 기록매체인 것을 특징으로 한다.The recording medium for solving the above problem is a recording medium in which a program for implementing the augmented reality orientation correction method using two or more markers according to any one of claims 1, 2, and 4 to 6 is stored. do.

본 발명의 일 실시예에 따른 두 개 이상의 마커를 이용하는 증강현실 방위 보정 방법을 이용하면, 실제 좌표공간을 구현하는 증강현실 시스템에서 현실 세계 영상 위에 좌표에 대응하는 가상 객체가 그려질 때, 기존 기술을 사용하는 경우 보다 높은 위치 정확도로 표현할 수 있다는 이점이 있다.When the augmented reality orientation correction method using two or more markers according to an embodiment of the present invention is used, when a virtual object corresponding to the coordinates is drawn on the real world image in the augmented reality system implementing the real coordinate space, the existing technology When using , there is an advantage that it can be expressed with higher positioning accuracy.

도 1은 Unity 엔진에서 제공하는 가상 공간을 나타낸 예시도이다.
도 2는 AR Foundation 프레임 워크의 일 예시도이다.
도 3은 본 발명의 일 실시예에 따른 두개 이상의 마커를 이용하는 증강현실 방위 보정 방법을 실행하는 프로그램의 구성도이다.
도 4는 본 발명의 일 실시예에 따른 두개 이상의 마커를 이용하는 증강현실 방위 보정 방법의 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 두개 이상의 마커를 이용하는 증강현실 방위 보정 프로그램을 실행한 전자 디바이스에서 현실공간의 대상지역(마커)를 인식한 모습을 실사도이다.
도 6은 도 5에 도시된 전자 디바이스에서 표시된 가상공간 내에 표시된 오브젝트의 TM 정보가 표시된 가상현실의 예시도이다.
1 is an exemplary diagram illustrating a virtual space provided by the Unity engine.
2 is an exemplary diagram of an AR Foundation framework.
3 is a block diagram of a program for executing the augmented reality orientation correction method using two or more markers according to an embodiment of the present invention.
4 is a flowchart of an augmented reality orientation correction method using two or more markers according to an embodiment of the present invention.
5 is a live-action view illustrating a state in which the target area (marker) in real space is recognized by the electronic device executing the augmented reality orientation correction program using two or more markers according to an embodiment of the present invention.
6 is an exemplary view of virtual reality in which TM information of an object displayed in a virtual space displayed in the electronic device shown in FIG. 5 is displayed.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the present invention can have various changes and can have various forms, specific embodiments are illustrated in the drawings and described in detail in the text. However, this is not intended to limit the present invention to the specific disclosed form, it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention.

제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다. Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component.

본 출원에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification is present, and includes one or more other features or It should be understood that the existence or addition of numbers, steps, operations, components, parts, or combinations thereof does not preclude the possibility of addition.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

이하, 첨부된 도면들을 참조하여 본 발명의 일 실시예에 따른 두개 이상의 마커를 이용하는 증강현실 방위 보정 방법을 보다 상세하게 설명하도록 한다.Hereinafter, an augmented reality orientation correction method using two or more markers according to an embodiment of the present invention will be described in more detail with reference to the accompanying drawings.

먼저, 본 발명의 일 실시예에 따른 두개 이상의 마커를 이용하는 증강현실 방위 보정 방법은 스마트 디바이스 상에서 구동되는 증강현실 시스템을 구현할 때, 현실 세계의 방위와 가상 세계의 방위를 맞추는 수단으로써 두개 이상의 마커를 이용하여 가상세계의 방위 정확도를 보정하기 위한 방법이다.First, in the augmented reality orientation correction method using two or more markers according to an embodiment of the present invention, when implementing an augmented reality system driven on a smart device, two or more markers are used as a means of matching the orientation of the real world and the orientation of the virtual world. This is a method for correcting the azimuth accuracy of the virtual world using

본 발명에서 서술하는 증강현실 기술은 비디오 카메라를 통해 들어오는 현실 세계의 영상 위에 매 프레임 마다 가상 객체를 중첩하여 보여주는 기술로, 해당 객체가 사용자로 하여금 마치 실제로 현실 세계에 존재하는 것처럼 느끼도록 하는 효과를 제공하는 기술이다.The augmented reality technology described in the present invention is a technology that superimposes a virtual object every frame on the image of the real world coming through a video camera, and the effect of making the object feel as if it actually exists in the real world. technology that provides

본 발명에서 언급하는 증강현실 시스템은 유니티(Unity) 게임 엔진에서 제공하는 ARFoundation이라는 프레임워크를 이용하여 구현된 시스템으로 안드로이드 OS가 탑재된 스마트 디바이스 상에서 구동된다(도 2 참조)The augmented reality system referred to in the present invention is a system implemented using a framework called ARFoundation provided by the Unity game engine and runs on a smart device equipped with Android OS (see FIG. 2 ).

ARFoundation에서는 디바이스 화면에 3차원으로 된 가상의 좌표 공간을 띄우고, 실시간으로 촬영된 비디오 카메라 영상을 배경에 출력하는 방식으로 증강현실을 표현한다. 이 때, 가상 공간의 초기 좌표축 방향은 시스템이 구동된 순간에 스마트 디바이스가 바라보는 방향을 기준으로 맞춰진다. ARFoundation expresses augmented reality by floating a three-dimensional virtual coordinate space on the device screen and outputting a video camera image captured in real time to the background. At this time, the initial coordinate axis direction of the virtual space is adjusted based on the direction the smart device looks at at the moment the system is driven.

도 1은 Unity 엔진에서 제공하는 가상 공간을 나타낸 예시도이고, 도 2는 AR Foundation의 아키텍처의 일 예시도이다.1 is an exemplary diagram illustrating a virtual space provided by the Unity engine, and FIG. 2 is an exemplary diagram of the AR Foundation architecture.

도 1을 참조, 적색 화살표는 평면의 가로축, 청색 화살표는 평면의 세로축, 녹색 화살표는 높이를 나타낸다. Referring to FIG. 1 , a red arrow indicates a horizontal axis of the plane, a blue arrow indicates a vertical axis of the plane, and a green arrow indicates a height.

ARFoundation에서는 증강현실 시스템 구동과 동시에 스마트 디바이스의 중력센서를 이용하여 높이 축의 방향을 현실세계와 동일하게 맞춘다. In ARFoundation, at the same time as the augmented reality system is driven, the direction of the height axis is aligned with the real world by using the gravity sensor of the smart device.

그러나 평면의 가로축과 세로축은 사용자나 어플리케이션의 목적에 따라서 요구되는 방향이 달라지기 때문에, 시스템이 구동되는 순간의 디바이스 오른쪽 방향을 가로축, 앞쪽 방향을 세로축으로 맞추는 것을 기본으로 한다. However, since the direction required for the horizontal and vertical axes of the plane varies depending on the purpose of the user or application, the horizontal axis and the front direction are aligned with the vertical axis for the right direction of the device at the moment the system is operated.

이는 디바이스의 방향이 현실 세계의 정북쪽을 곧바로 바라보고 있지 않으면 가상 공간의 가로축과 세로축이 현실 세계의 동쪽, 북쪽과 일치하지 않을 수 있다는 것을 의미한다. 따라서, 증강현실에서 현실 세계와 일치하는 좌표 및 방향을 표현하기 위해서는, 가상 공간과 현실 공간의 방위를 일치시키는 과정이 별도로 요구된다.This means that if the orientation of the device does not directly face the north of the real world, the horizontal and vertical axes of the virtual space may not coincide with the east and north of the real world. Therefore, in order to express coordinates and directions that coincide with the real world in augmented reality, a process of matching the orientations of the virtual space and the real space is separately required.

이에 본 발명에서는 방위를 맞추기 위한 사전 준비단계로서, 현실세계의 대상지역(대상물)에 마커 또는 QR코드를 부착하고 데이터베이스에 해당 마커 또는 QR 정보를 저장하는 과정이 필요하다. Accordingly, in the present invention, as a preliminary preparation step for aligning the orientation, a process of attaching a marker or QR code to a target area (object) in the real world and storing the marker or QR information in a database is required.

증강현실이 이용될 대상지역에 QR코드를 부착하여 움직이지 않도록 고정한 후, 부착된 위치의 좌표를 측량하여 QR코드가 나타내는 내용과 함께 DB에 저장한다. DB 테이블의 개략적인 모습은 아래의 표 1과 같이 구성될 수 있다.After attaching the QR code to the target area where the augmented reality will be used and fixing it so that it does not move, the coordinates of the attached location are measured and stored in the DB together with the contents indicated by the QR code. A schematic view of the DB table can be configured as shown in Table 1 below.

[표 1][Table 1]

Figure 112021049801593-pat00002
Figure 112021049801593-pat00002

여기서, ID는 DB에서 각 행에 부여하는 고유번호, Code는 QR코드 자체에 담겨있는 내용(숫자 혹은 문자열), X, Y, Z는 각각 측량된 x, y, z좌표(TM좌표)를 의미한다.Here, ID is a unique number given to each row in the DB, Code is the content (number or string) contained in the QR code itself, and X, Y, Z are the measured x, y, and z coordinates (TM coordinates). do.

증강현실 시스템이 구동되면 가장 먼저 현실 세계의 공간을 인식하는 단계가 진행되어야 한다. ARFoundation에서는 Plane Detection이라는 기술을 제공하여, 카메라 영상으로부터 가로 평면과 세로 평면을 검출할 수 있게 해준다. When the augmented reality system is activated, the first step of recognizing the space in the real world should be performed. ARFoundation provides a technology called Plane Detection, which makes it possible to detect horizontal and vertical planes from camera images.

이 기술을 이용하면 현실 세계의 도로 바닥이나 건물 벽을 검출할 수 있고, 가상 공간에 검출된 바닥과 벽의 형상을 본 뜬 mesh를 생성할 수 있게 된다. 인식할 마커 또는 QR 코드 주변에 mesh 생성이 완료되면 본 격적으로 본원의 마커 또는 QR 코드 인식 단계로 넘어간다.Using this technology, it is possible to detect road floors or building walls in the real world, and create a mesh that mimics the shapes of floors and walls detected in virtual space. When the mesh generation around the marker or QR code to be recognized is completed, it moves on to the marker or QR code recognition step of this application in earnest.

참고로, 본 발명에서 소개하는 두개 이상의 마커를 이용하는 증강현실 방위 보정 프로그램은 인식부(120), 가상좌표 생성부(130), 방향벡터 산출부(140), 좌표오차 확인부(150), 좌표오차 보정부(160)로 구성될 수 있다.For reference, the augmented reality orientation correction program using two or more markers introduced in the present invention includes the recognition unit 120 , the virtual coordinate generation unit 130 , the direction vector calculation unit 140 , the coordinate error check unit 150 , and the coordinates. It may be configured as an error correction unit 160 .

인식부(120)는 현실공간의 제1 대상물에 부여된 제1 마커 및 상기 제1 대상물과 인접한 제2 대상물에 부여된 제2 마커 각각의 현실좌표를 인식하는 기능을 수행한다.The recognition unit 120 performs a function of recognizing the real coordinates of each of a first marker provided to a first object in real space and a second marker provided to a second object adjacent to the first object.

가상좌표 생성부(130)는 상기 제1 마커 및 상기 제2 마커의 현실좌표에 대한 가상공간 내의 가상좌표를 생성하는 기능을 수행한다.The virtual coordinate generating unit 130 performs a function of generating virtual coordinates in a virtual space with respect to the real coordinates of the first marker and the second marker.

방향벡터 산출부(140)는 2개의 현실좌표 간의 현실공간 방향벡터 및 2개의 가상좌표 간의 가상공간 방향벡터를 산출하는 기능을 수행한다.The direction vector calculator 140 calculates a real space direction vector between two real coordinates and a virtual space direction vector between two virtual coordinates.

좌표오차 확인부(150)는 상기 현실공간 방향벡터와 상기 가상공간 방향벡터 간의 각도차를 계산하여 현실 공간과 가상 공간 간의 좌표오차를 확인하는 기능을 수행한다.The coordinate error check unit 150 calculates an angular difference between the real space direction vector and the virtual space direction vector to check the coordinate error between the real space and the virtual space.

좌표오차 보정부(160)는 확인된 좌표오차를 보정하기 위한 회전각을 생성한 후, 생성된 회전각으로 가상공간 방향벡터의 방향을 보정하는 기능을 수행한다.The coordinate error correcting unit 160 generates a rotation angle for correcting the identified coordinate error, and then performs a function of correcting the direction of the virtual space direction vector with the generated rotation angle.

상술한 두개 이상의 마커를 이용하는 증강현실 방위 보정 프로그램의 각 구성들의 세부적인 기능들에 대한 설명은 후술하는 두개 이상의 마커를 이용하는 증강현실 방위 보정 방법을 통해서 보다 상세하게 설명하도록 한다.The description of the detailed functions of each component of the augmented reality orientation correction program using the two or more markers described above will be described in more detail through the augmented reality orientation correction method using two or more markers to be described later.

도 4는 본 발명의 일 실시예에 따른 두 개 이상의 마커를 이용하는 증강현실 방위 보정 방법을 설명한 흐름도이다.4 is a flowchart illustrating an augmented reality orientation correction method using two or more markers according to an embodiment of the present invention.

도 4를 참조, 본 발명의 일 실시예에 따른 두개 이상의 마커를 이용하는 증강현실 방위 보정 방법(S700)은 먼저, 현실공간의 제1 대상물에 부여된 제1 마커 및 상기 제1 대상물과 인접한 제2 대상물에 부여된 제2 마커 각각의 현실좌표를 인식(S710)한다.Referring to FIG. 4 , in the augmented reality orientation correction method S700 using two or more markers according to an embodiment of the present invention, first, a first marker provided to a first object in real space and a second adjacent to the first object The real coordinates of each of the second markers assigned to the object are recognized (S710).

여기서, 상기 제1 마커 및 상기 제2 마커는 인식코드, x, y, z 좌표정보를 포함한다.Here, the first marker and the second marker include an identification code and x, y, z coordinate information.

이후, 상기 제1 마커 및 상기 제2 마커의 현실좌표에 대한 가상공간 내의 가상좌표를 생성(S720)한다. 여기서, 상기 가상공간 내의 가상좌표를 생성하는 단계(S720)는 상기 가상공간 상의 사용자 위치를 시점으로 하여 화면상의 마커의 위치를 향하도록 생성된 직선과 가상공간에 생성된 메쉬가 교차한 교차점의 위치로 상기 가상공간 내의 대상물에 대한 가상좌표를 생성하는 단계를 포함한다.Thereafter, virtual coordinates in the virtual space for the real coordinates of the first marker and the second marker are generated (S720). Here, in the step of generating the virtual coordinates in the virtual space (S720), the position of the intersection point where the mesh created in the virtual space intersects the straight line created to face the position of the marker on the screen with the user position in the virtual space as a starting point. and generating virtual coordinates for the object in the virtual space.

여기서 메쉬(mesh)란 가상 공간에 존재할 수 있는 3D 객체 덩어리를 말하며, 화면상에 3차원 형상을 시각화하고 충돌 감지와 같은 물리 시뮬레이션을 수행할 수 있는 객체이다.Here, a mesh refers to a mass of 3D objects that can exist in virtual space, and is an object that can visualize a 3D shape on a screen and perform physical simulations such as collision detection.

이후, 2개의 현실좌표 간의 현실공간 방향벡터 및 2개의 가상좌표 간의 가상공간 방향벡터를 산출(S730)한다.Thereafter, a real space direction vector between the two real coordinates and a virtual space direction vector between the two virtual coordinates are calculated ( S730 ).

참고로, 첫 번째 인식된 제1 마커는 방위를 맞추는 용도로, 제2 마커는 방위를 맞추는 동시에 객체의 위치를 잡는 용도로 사용된다. For reference, the first recognized first marker is used for aligning the orientation, and the second marker is used for aligning the orientation and positioning of the object.

각 마커를 인식하여 획득한 현실 세계 좌표를 각각 R1, R2라고 하고 가상 공간에서의 좌표를 V1, V2라고 하면, 다음과 같은 식 1로 현실 방향벡터 Vr과 가상 공간 방향벡터 Vv를 구할 수 있다. If the real world coordinates obtained by recognizing each marker are R1 and R2, respectively, and the coordinates in the virtual space are V1 and V2, the real direction vector Vr and the virtual space direction vector Vv can be obtained by the following Equation 1.

[식 1][Equation 1]

Figure 112021049801593-pat00003
Figure 112021049801593-pat00003

이 때, 높이 축의 방향은 이미 현실 세계와 맞추어져 있기 때문에 R1, R2, V2, V1의 z좌표는 계산에서 제외한다. 따라서 Vr과 Vv는 x, y값을 갖는 2차원 벡터의 형태를 띄게 된다.At this time, since the direction of the height axis is already aligned with the real world, the z-coordinates of R1, R2, V2, and V1 are excluded from the calculation. Therefore, Vr and Vv take the form of a two-dimensional vector having x and y values.

다음으로, 상기 현실공간 방향벡터와 상기 가상공간 방향벡터 간의 각도차를 계산하여 현실 공간과 가상 공간 간의 좌표오차를 확인(S740)한다.Next, a coordinate error between the real space and the virtual space is checked by calculating the angular difference between the real space direction vector and the virtual space direction vector (S740).

여기서, 좌표오차란 현실공간 방향벡터와 가상공간 방향벡터 간의 틀어진 정도를 의미한다.Here, the coordinate error means the degree of misalignment between the real space direction vector and the virtual space direction vector.

즉, 틀어진 정보를 보정하기 위해서는 현실공간 방향벡터(Vr)을 가상 공간에 투영하고, 투영된 현실공간 방향벡터가 가상공간 방향벡터(Vv)와 일치할 때까지 가상 공간을 돌려주면 가상 세계의 세로축이 현실 세계의 북쪽을 바라보도록 할 수 있다.That is, in order to correct the erroneous information, the real space direction vector (Vr) is projected into the virtual space, and the virtual space is returned until the projected real space direction vector matches the virtual space direction vector (Vv). You can make it look north of this real world.

마지막으로, 확인된 좌표오차를 보정하기 위한 회전각을 생성한 후, 생성된 회전각으로 가상공간 방향벡터의 방향을 보정(S750)하는 과정으로 이루어진다.Finally, after generating a rotation angle for correcting the identified coordinate error, a process of correcting the direction of the virtual space direction vector using the generated rotation angle (S750) is performed.

상기 S750 과정은 현실공간 방향벡터(Vr)을 가상공간 방향벡터(Vv)의 방향으로 맞추기 위한 회전각을 계산하여 이를 토대로 가상공간 방향벡터를 보정하는 과정으로, 상기 확인된 좌표오차를 보정하기 위한 회전각을 생성하는 과정은 하기의 식 2를 이용하여 상기 회전각(θ)생성할 수 있다.The step S750 is a process of correcting the virtual space direction vector based on calculating a rotation angle for aligning the real space direction vector (Vr) with the virtual space direction vector (Vv) in the direction of the virtual space direction vector (Vv). In the process of generating the rotation angle, the rotation angle θ may be generated using Equation 2 below.

[식 2][Equation 2]

Figure 112021049801593-pat00004
Figure 112021049801593-pat00004

여기서, Xr, Yr은 각각 Vr의 x값과 y값이며, Xv, Yv는 각각 Vv의 x값과 y값을 나타낸다. 각도 θ는 (+)일 때 반시계방향, (-)일 때 시계방향을 나타낸다Here, Xr and Yr are the x and y values of Vr, respectively, and Xv and Yv are the x and y values of Vv, respectively. Angle θ indicates counterclockwise when (+) and clockwise when (-)

한편, 상기 S710 과정에서 제1 마커를 인식하는 순간에 제1 마커의 현실좌표(R1)과 가상좌표(V1)의 값을 계산하여 저장하고, 제2 마커를 인식하는 순간 제2 마커의 가상좌표(V2), 현실좌표(R2), 회전각(θ)값을 계산하도록 한 후, 모든 값이 결정되면 방위를 보정하고 가상 객체를 출력하는 단계로 넘어간다.Meanwhile, at the moment of recognizing the first marker in the process S710, the values of the real coordinate R1 and the virtual coordinate V1 of the first marker are calculated and stored, and the virtual coordinate of the second marker is recognized the moment the second marker is recognized. After calculating (V2), real coordinates (R2), and rotation angle (θ) values, when all values are determined, the process proceeds to the step of correcting the orientation and outputting the virtual object.

따라서, 가상 공간 내에서 제2 마커의 가상좌표(V2) 위치를 기준 축으로 삼아 공간평면을 θ만큼 회전시키면 가상 공간과 현실공간의 방위를 일치시킬 수 있다.Accordingly, if the space plane is rotated by θ using the virtual coordinate V2 position of the second marker in the virtual space, the orientation of the virtual space and the real space can be matched.

또한, 현실공간의 현실좌표(R2) 좌표를 기준으로 가상 객체들의 상대적 위치를 계산하고, 가상 공간의 가상좌표(V2) 좌표를 기준으로 객체들을 계산된 위치에 배치하면 현실 세계 좌표와 방위가 반영된 증강현실 시스템을 구현할 수 있다.In addition, if the relative positions of virtual objects are calculated based on the real coordinates (R2) coordinates of the real space, and the objects are placed in the calculated positions based on the virtual coordinates (V2) coordinates of the virtual space, the real world coordinates and orientation are reflected. Augmented reality systems can be implemented.

계산 결과에 오차를 발생시킬 수 있는 요인에는 QR코드 부착 위치의 측량 오차와 평면 검출 정확도에 따른 오차가 있는데, 평면 검출 정확도가 상황에 따른 변동성이 크기 때문에 가장 주요한 오차 발생 원인으로 볼 수 있다. Factors that can cause errors in calculation results include measurement errors of the QR code attachment position and errors due to plane detection accuracy.

그러나 오차를 감안해도 기존에 사용하던 디바이스 나침반을 이용한 방법, GPS 좌표 이용 방법에 비해 높은 정확도를 보여주는 것을 확인할 수 있었다.However, even considering the error, it was confirmed that it showed higher accuracy than the method using the device compass and the method using GPS coordinates.

참고로, 본 발명은 두 개 이상의 마커를 이용한 증강현실 방위 보정 방법을 보다 간편하게 설명하기 위하여 2개의 마커를 이용한 예시를 들었으나, 2개에 국한되지 않고, 3개, 4개 또는 그 이상의 마커들을 이용하여 현실공간의 현실좌표를 기준으로 가상 객체들의 상대적 위치를 계산하고, 가상공간의 가상좌표를 기준으로 객체들을 계산된 위치에 배치하여 현실 세계 좌표와 방위가 반영되도록 구현할 수 있다. 즉, 본 발명에서 제시하는 보정방법은 일 예에 불과하다는 것을 명시하도록 한다.For reference, the present invention has given an example using two markers to more conveniently explain the augmented reality orientation correction method using two or more markers, but is not limited to two, and three, four or more markers are used. It can be used to calculate the relative positions of virtual objects based on the real coordinates of the real space, and place the objects at the calculated positions based on the virtual coordinates of the virtual space to reflect real world coordinates and orientations. That is, it is to be specified that the correction method presented in the present invention is only an example.

따라서, 본 발명의 일 실시예에 따른 두개 이상의 마커를 이용하는 증강현실 방위 보정 방법을 이용하면, 실제 좌표공간을 구하는 증강현실 시스템에서 현실 세계 영상 위에 좌표에 대응하는 가상 객체가 그러질 때, 기존 기술을 사용하는 경우보다 높은 위치 정확도를 보인다는 이점이 있다.Therefore, using the augmented reality orientation correction method using two or more markers according to an embodiment of the present invention, when the virtual object corresponding to the coordinates on the real world image in the augmented reality system for obtaining the real coordinate space is like that, the existing technology It has the advantage of showing higher positioning accuracy than the case of using it.

한편, 본 발명의 일 실시 예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. Meanwhile, the method according to an embodiment of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination.

상기 매체에 기록되는 프로그램 명령은 본 발 명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수 도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체 (magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장 하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지 는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코 드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작 동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floppy disks. - Includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to carry out the operations of the present invention, and vice versa.

본 발명은 특정 기능들 및 그의 관계들의 성능을 나타내는 방법 단계들의 목적을 가지고 위에서 설명되었다. 이 러한 기능적 구성 요소들 및 방법 단계들의 경계들 및 순서는 설명의 편의를 위해 여기에서 임의로 정의되었다.The invention has been described above for the purpose of method steps presenting the performance of specific functions and their relationships. The boundaries and order of these functional components and method steps have been arbitrarily defined herein for convenience of description.

상기 특정 기능들 및 관계들이 적절히 수행되는 한 대안적인 경계들 및 순서들이 정의될 수 있다. 임의의 그러 한 대안적인 경계들 및 순서들은 그러므로 상기 청구된 발명의 범위 및 사상 내에 있다. 추가로, 이러한 기능적 구성 요소들의 경계들은 설명의 편의를 위해 임의로 정의되었다. 어떠한 중요한 기능들이 적절히 수행되는 한 대안적인 경계들이 정의될 수 있다. 마찬가지로, 흐름도 블록들은 또한 어떠한 중요한 기능성을 나타내기 위해 여기에서 임의로 정의되었을 수 있다. 확장된 사용을 위해, 상기 흐름도 블록 경계들 및 순서는 정의되었을 수 있으며 여전히 어떠한 중요한 기능을 수행한다. 기능적 구성 요소들 및 흐름도 블록들 및 순서들 둘 다의 대안 적인 정의들은 그러므로 청구된 본 발명의 범위 및 사상 내에 있다.Alternative boundaries and orders may be defined so long as the specific functions and relationships are properly performed. Any such alternative boundaries and orders are therefore within the scope and spirit of the claimed invention. Additionally, boundaries of these functional components have been arbitrarily defined for convenience of description. Alternative boundaries can be defined as long as any important functions are properly performed. Likewise, flowchart blocks may also be arbitrarily defined herein to represent any significant functionality. For extended use, the flowchart block boundaries and order may have been defined and still perform some important function. Alternative definitions of both functional components and flowchart blocks and sequences are therefore within the scope and spirit of the claimed subject matter.

본 발명은 또한 하나 이상의 실시 예들의 용어로, 적어도 부분적으로 설명되었을 수 있다. 본 발명의 실시 예는 본 발명, 그 측면, 그 특징, 그 개념, 및/또는 그 예를 나타내기 위해 여기에서 사용된다. 본 발명을 구현하는 장치, 제조의 물건, 머신, 및/또는 프로세스의 물리적인 실시 예는 여기에 설명된 하나 이상의 실시 예들을 참 조하여 설명된 하나 이상의 측면들, 특징들, 개념들, 예들 등을 포함할 수 있다. 더구나, 전체 도면에서, 실시 예들은 상기 동일한 또는 상이한 참조 번호들을 사용할 수 있는 상기 동일하게 또는 유사하게 명명된 기능들, 단계들, 모듈들 등을 통합할 수 있으며, 그와 같이, 상기 기능들, 단계들, 모듈들 등은 상기 동일한 또는 유사 한 기능들, 단계들, 모듈들 등 또는 다른 것들일 수 있다The invention may also have been described, at least in part, in terms of one or more embodiments. Embodiments of the present invention are used herein to represent the present invention, aspects thereof, features thereof, concepts thereof, and/or examples thereof. A physical embodiment of an apparatus, article of manufacture, machine, and/or process embodying the present invention may include one or more aspects, features, concepts, examples, etc. described with reference to one or more embodiments described herein. may include Moreover, throughout the drawings, embodiments may incorporate the same or similarly named functions, steps, modules, etc., which may use the same or different reference numbers, as such, the functions, The steps, modules, etc. may be the same or similar functions, steps, modules, etc. or different ones.

이상에서 본 발명은 실시예를 참조하여 상세히 설명되었으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 상기에서 설명된 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 부가 및 변형이 가능할 것임은 당연하며, 이와 같은 변형된 실시 형태들 역시 아래에 첨부한 특허청구범위에 의하여 정하여지는 본 발명의 보호 범위에 속하는 것으로 이해되어야 할 것이다.In the above, the present invention has been described in detail with reference to the embodiments, but those of ordinary skill in the art to which the present invention pertains may make various substitutions, additions and modifications within the scope not departing from the technical spirit described above. Of course, it should be understood that such modified embodiments also fall within the protection scope of the present invention as defined by the appended claims below.

100: 두개 이상의 마커를 이용하는 증강현실 방위 보정 프로그램
120: 인식부
130: 가상좌표 생성부
140: 방향벡터 산출부
150: 좌표오차 확인부
160: 좌표오차 보정부
100: Augmented reality orientation correction program using two or more markers
120: recognition unit
130: virtual coordinate generator
140: direction vector calculation unit
150: coordinate error check unit
160: coordinate error correction unit

Claims (8)

현실공간의 제1 대상물에 부여된 제1 마커 및 상기 제1 대상물과 인접한 제2 대상물에 부여된 제2 마커 각각의 현실좌표를 인식하는 단계;
상기 제1 마커 및 상기 제2 마커의 현실좌표에 대한 가상공간 내의 가상좌표를 생성하는 단계;
2개의 현실좌표 간의 현실공간 방향벡터 및 2개의 가상좌표 간의 가상공간 방향벡터를 산출하는 단계;
상기 현실공간 방향벡터와 상기 가상공간 방향벡터 간의 각도차를 계산하여 현실 공간과 가상 공간 간의 좌표오차를 확인하는 단계; 및
확인된 좌표오차를 보정하기 위한 회전각을 생성한 후, 생성된 회전각으로 가상공간 방향벡터의 방향을 보정하는 단계를 포함하고,
상기 가상좌표를 생성하는 단계는
가상공간 상의 사용자 위치를 시점으로 하여 화면상의 마커의 위치를 향하도록 생성된 직선과 가상공간에 생성된 메쉬가 교차한 교차점의 위치로 상기 가상공간 내의 대상물에 대한 가상좌표를 생성하는 단계인 두개 이상의 마커를 이용하는 증강현실 방위 보정 방법.
recognizing the real coordinates of each of a first marker provided to a first object in real space and a second marker provided to a second object adjacent to the first object;
generating virtual coordinates in a virtual space with respect to the real coordinates of the first marker and the second marker;
calculating a real space direction vector between two real coordinates and a virtual space direction vector between two virtual coordinates;
checking a coordinate error between the real space and the virtual space by calculating an angle difference between the real space direction vector and the virtual space direction vector; and
After generating a rotation angle for correcting the identified coordinate error, correcting the direction of the virtual space direction vector with the generated rotation angle;
The step of generating the virtual coordinates is
Two or more steps of generating virtual coordinates for an object in the virtual space at the location of the intersection of the mesh created in the virtual space and the straight line created to point to the position of the marker on the screen with the user's position in the virtual space as the starting point Augmented reality orientation correction method using markers.
제1항에 있어서,
상기 제1 마커 및 상기 제2 마커는
대상물의 고유번호(ID), 인식코드, x, y, z 좌표정보를 포함하는 두개 이상의 마커를 이용하는 증강현실 방위 보정 방법.
According to claim 1,
The first marker and the second marker are
Augmented reality orientation correction method using two or more markers including the object's unique number (ID), recognition code, x, y, z coordinate information.
삭제delete 제1항에 있어서,
상기 현실공간 방향벡터는 제2 마커의 현실좌표와 제1 마커의 현실좌표의 차로 산출되고, 상기 가상공간 방향벡터는 상기 제2 마커의 가상좌표와 제1 마커의 가상좌표의 차로 산출되는 두개 이상의 마커를 이용하는 증강현실 방위 보정 방법.
According to claim 1,
The real space direction vector is calculated by the difference between the real coordinates of the second marker and the first marker, and the virtual space direction vector is calculated by the difference between the virtual coordinates of the second marker and the first marker. Augmented reality orientation correction method using markers.
제4항에 있어서,
상기 현실공간 방향벡터와 상기 가상공간 방향벡터는 X축 및 y축 값을 갖는 2차원 벡터인 두개 이상의 마커를 이용하는 증강현실 방위 보정 방법.
5. The method of claim 4,
The augmented reality orientation correction method using two or more markers, wherein the real space direction vector and the virtual space direction vector are two-dimensional vectors having X-axis and y-axis values.
제1항에 있어서,
상기 확인된 좌표오차를 보정하기 위한 회전각을 생성하는 단계는
하기의 식 2를 이용하여 상기 회전각(θ)생성하는 단계인 것을 특징으로 하는 두개 이상의 마커를 이용하는 증강현실 방위 보정 방법.
[식 2]
Figure 112021078928731-pat00005

여기서, Vr은 현실 방향벡터이고, Vv는 가상공간 방향벡터이고, Xr, Yr은 각각 Vr의 x값과 y값이며, Xv, Yv는 각각 Vv의 x값과 y값을 나타낸다. 각도 θ는 (+)일 때 반시계방향, (-)일 때 시계방향을 나타낸다.
According to claim 1,
The step of generating a rotation angle for correcting the identified coordinate error is
Augmented reality orientation correction method using two or more markers, characterized in that the step of generating the rotation angle (θ) using Equation 2 below.
[Equation 2]
Figure 112021078928731-pat00005

Here, Vr is a real direction vector, Vv is a virtual space direction vector, Xr and Yr are the x and y values of Vr, respectively, and Xv and Yv represent the x and y values of Vv, respectively. The angle θ indicates a counterclockwise direction when it is (+) and a clockwise direction when it is (-).
청구항 1, 청구항 2, 청구항 4 내지 청구항 6 중 어느 하나의 항에 기재된 두개 이상의 마커를 이용하는 증강현실 방위 보정 방법을 구현하기 위한 프로그램이 저장된 기록매체.
A recording medium storing a program for implementing the augmented reality orientation correction method using two or more markers according to any one of claims 1, 2, and 4 to 6.
청구항 1, 청구항 2, 청구항 4 내지 청구항 6 중 어느 하나의 항에 기재된 두개 이상의 마커를 이용하는 증강현실 방위 보정 방법을 구현하기 위한 프로그램을 실행하도록 비디오 카메라 및 3차원 그래픽에 대한 연산과 디스플레이가 가능한 전자 디바이스.Electronic devices capable of calculation and display for a video camera and 3D graphics to execute a program for implementing the augmented reality orientation correction method using two or more markers according to any one of claims 1, 2, and 4 to 6 device.
KR1020210055111A 2021-04-28 2021-04-28 Method of compensating the orientation of augmented reality using more than two markers, recording medium electronic device KR102344817B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210055111A KR102344817B1 (en) 2021-04-28 2021-04-28 Method of compensating the orientation of augmented reality using more than two markers, recording medium electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210055111A KR102344817B1 (en) 2021-04-28 2021-04-28 Method of compensating the orientation of augmented reality using more than two markers, recording medium electronic device

Publications (1)

Publication Number Publication Date
KR102344817B1 true KR102344817B1 (en) 2021-12-30

Family

ID=79178493

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210055111A KR102344817B1 (en) 2021-04-28 2021-04-28 Method of compensating the orientation of augmented reality using more than two markers, recording medium electronic device

Country Status (1)

Country Link
KR (1) KR102344817B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160121257A (en) * 2015-04-10 2016-10-19 서울과학기술대학교 산학협력단 Architectural design verification system and method using augmented reality
US9619942B2 (en) 2013-01-30 2017-04-11 F3 & Associates Coordinate geometry augmented reality process
KR20170134829A (en) * 2016-05-26 2017-12-07 경북대학교 산학협력단 Virtual Reality System using of Mixed reality, and thereof implementation method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9619942B2 (en) 2013-01-30 2017-04-11 F3 & Associates Coordinate geometry augmented reality process
KR20160121257A (en) * 2015-04-10 2016-10-19 서울과학기술대학교 산학협력단 Architectural design verification system and method using augmented reality
KR20170134829A (en) * 2016-05-26 2017-12-07 경북대학교 산학협력단 Virtual Reality System using of Mixed reality, and thereof implementation method

Similar Documents

Publication Publication Date Title
JP4926817B2 (en) Index arrangement information measuring apparatus and method
JP4599184B2 (en) Index placement measurement method, index placement measurement device
US7752008B2 (en) Method and apparatus for determining position and orientation
JP5832341B2 (en) Movie processing apparatus, movie processing method, and movie processing program
US20060227211A1 (en) Method and apparatus for measuring position and orientation
EP1596330B1 (en) Estimating position and orientation of markers in digital images
US7974462B2 (en) Image capture environment calibration method and information processing apparatus
JP4789745B2 (en) Image processing apparatus and method
JP3486613B2 (en) Image processing apparatus and method, program, and storage medium
US7911503B2 (en) Information processing apparatus and information processing method
CN108776976B (en) Method, system and storage medium for simultaneously positioning and establishing image
US20050253870A1 (en) Marker placement information estimating method and information processing device
JP6008397B2 (en) AR system using optical see-through HMD
US20110261187A1 (en) Extracting and Mapping Three Dimensional Features from Geo-Referenced Images
CN110033489A (en) A kind of appraisal procedure, device and the equipment of vehicle location accuracy
JP2010134649A (en) Information processing apparatus, its processing method, and program
JP2006267879A (en) Image processing method, image processing apparatus and marker
JP2012513059A (en) System and method for fusing scenes and virtual scenarios
JP2003344018A (en) Unit and method for image processing as well as program and storage medium
KR101453143B1 (en) Stereo matching process system, stereo matching process method, and recording medium
JP5693691B2 (en) Information processing apparatus, processing method thereof, and program
US20230316677A1 (en) Methods, devices, apparatuses, and storage media for virtualization of input devices
CN104166995B (en) Harris-SIFT binocular vision positioning method based on horse pace measurement
KR20190130407A (en) Apparatus and method for omni-directional camera calibration
JP2014106642A (en) Ar system using optical see-through type hmd

Legal Events

Date Code Title Description
GRNT Written decision to grant