KR101898075B1 - Augmented Reality System with Space and Object Recognition - Google Patents

Augmented Reality System with Space and Object Recognition Download PDF

Info

Publication number
KR101898075B1
KR101898075B1 KR1020170183308A KR20170183308A KR101898075B1 KR 101898075 B1 KR101898075 B1 KR 101898075B1 KR 1020170183308 A KR1020170183308 A KR 1020170183308A KR 20170183308 A KR20170183308 A KR 20170183308A KR 101898075 B1 KR101898075 B1 KR 101898075B1
Authority
KR
South Korea
Prior art keywords
augmented reality
actual
real
image
virtual
Prior art date
Application number
KR1020170183308A
Other languages
Korean (ko)
Inventor
하태진
Original Assignee
주식회사 버넥트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 버넥트 filed Critical 주식회사 버넥트
Priority to KR1020170183308A priority Critical patent/KR101898075B1/en
Application granted granted Critical
Publication of KR101898075B1 publication Critical patent/KR101898075B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking

Abstract

The present invention relates to an augmented reality system which accurately identifies an actual object even when the actual object partially exists in a capturing image and displays a virtual object assigned to the actual object at a targeted position. The augmented reality system simultaneously applied with space recognition and object recognition comprises an augmented reality terminal which is embedded with an image camera capturing an image around a user and obtaining actual image information and displays a three-dimensional virtual image on a display. The augmented reality terminal generates a space-based three-dimensional matching coordinate system by recognizing a space in three dimensions, displays each virtual object on a coordinate of the actual object individually assigned in advance based on the space-based three-dimensional matching coordinate system, updates the coordinate of the identified actual object after identifying the coordinate of the actual object again whenever the actual object of the actual image information is image-identified based on object recognition, and displays the virtual object previously assigned to the coordinate of the updated actual object.

Description

공간 인식 및 사물 인식이 동시에 적용된 증강현실 시스템{Augmented Reality System with Space and Object Recognition}{Augmented Reality System with Space and Object Recognition}

본 발명은 증강현실 시스템에 관한 것으로서, 더 상세하게는 공간 인식 및 사물 인식을 동시에 적용하여 가상객체의 위치를 정확한 위치에 표시할 수 있는 증강현실 시스템에 관한 것이다.Field of the Invention [0002] The present invention relates to an augmented reality system, and more particularly, to an augmented reality system capable of displaying a position of a virtual object at an accurate position by simultaneously applying space recognition and object recognition.

최근 카메라 모듈을 이용한 촬영 시 현실의 공간에 다양한 정보를 덧씌워 보여 주는 증강 현실(augmented reality) 기법을 이용한 컨텐츠 제공이 활발히 연구되고 있다.Recently, contents are being actively researched using augmented reality technique in which various information is superimposed on a real space when photographing using a camera module.

증강현실(Augmented Reality, AR)이란 가상현실(Virtual Reality, VR)의 한 분야에 속하는 기술이며, 사용자가 감각으로 느끼는 실제환경에 가상환경을 합성하여 원래의 실제환경에 가상환경이 존재하는 것처럼 느끼게 하는 컴퓨터 기법이다.Augmented Reality (AR) is a technology belonging to one of the fields of Virtual Reality (VR). It combines a virtual environment with a real environment that a user feels in a sense, and feels as if a virtual environment exists in the original real environment Is a computer technique.

이러한 증강 현실은 가상의 공간과 사물만을 대상으로 하는 기존의 가상현실과 달리 현실 세계의 기반에 가상사물을 합성하여 현실 세계만으로는 얻기 어려운 부가적인 정보들을 보강해 제공할 수 있는 장점이 있다.This augmented reality is advantageous in that it can supplement and supplement additional information that is difficult to obtain only in the real world by synthesizing virtual objects on the basis of the real world, unlike the existing virtual reality which only targets virtual space and objects.

즉, 사용자가 보고 있는 실사 영상에 컴퓨터 그래픽으로 만들어진 가상환경, 예를 들면, 3차원 가상환경을 정합함으로써 구현된 현실을 증강현실이라고 할 수 있다. 여기서, 3차원 가상환경은 사용자가 바라보는 실사 영상에서 필요한 정보를 제공해주고, 3차원 가상영상은 실사영상과 정합되어 사용자의 몰입도를 높일 수 있다.That is, a realization realized by matching a virtual environment created by computer graphics to a real image viewed by a user, for example, a three-dimensional virtual environment, can be called an augmented reality. Here, the 3D virtual environment provides necessary information from the real image that the user views, and the 3D virtual image matches with the real image to increase the user's immersion.

이러한 증강현실은 단순 가상현실 기술에 비하여 3차원 가상환경에 실사영상도 같이 제공하여 현실환경과 가상환경과의 구분이 모호해지게 함으로써, 보다 나은 현실감을 제공할 수 있다.Such augmented reality can provide better realism by making the distinction between the real environment and the virtual environment be blurred by providing the real image in the three-dimensional virtual environment as well as the simple virtual reality technology.

이와 같은 증강현실 시스템의 장점에 기인하여, 최근 세계적으로 증강현실을 접목한 기술에 대해 활발한 연구/개발이 진행되고 있다. 예를 들어, 증강 현실 기술은 방송, 광고, 전시, 게임, 테마 파크, 군용, 교육 및 프로모션 등의 분야에서 실용화가 진행 중인 상태이다.Due to the advantages of such an augmented reality system, active research and development are currently under way for technologies that have been combined with augmented reality around the world. For example, augmented reality technology is being put into practical use in fields such as broadcast, advertisement, exhibition, game, theme park, military, education and promotion.

이동 단말기는 최근 휴대폰, PDA(personal digital assistants), UMPC(ultra mobile personalcomputer) 등 모바일 기기의 컴퓨팅 능력 향상 및 무선 네트워크 장치의 발달로 핸드헬드(handheld) 증강현실시스템이 가능해 졌다.Recently, the handheld augmented reality system has become possible by improving the computing ability of mobile devices such as mobile phones, personal digital assistants (PDAs), and ultra mobile personal computers (UMPCs) and wireless network devices.

이러한 시스템이 가능해지면서 모바일 기기를 사용한 증강현실 어플리케이션이 다수 개발되었다. 그리고 모바일 기기의 보급이 매우 빠르게 보편화되어 증강현실 어플리케이션을 접할 수 있는 환경이 조성되고 있는 상황이다.As these systems become available, many augmented reality applications using mobile devices have been developed. In addition, the spread of mobile devices is becoming very common and an environment for accessing augmented reality applications is being created.

더불어, 단말기의 증강현실을 이용한 다양한 부가서비스에 대한 사용자 요구가 증대하고 있으며, 이를 이용하여 단말기 사용자에게 다양한 증강현실 컨텐츠를 적용하려는 시도가 증가하고 있다.In addition, user demands for various supplementary services using an augmented reality of a terminal are increasing, and attempts to apply various augmented reality contents to a terminal user are increasing.

한국특허 공개번호 제10-2016-0092292호는 "광고물에 대한 증강현실 서비스 제공 시스템 및 방법"에 관한 것으로서, 광고물에 증강현실을 적용하여 광고 대상에 관련된 정보들을 피광고자가 손쉽게 취득할 수 있고 흥미롭게 몰입하여 습득할 수 있도록 하는 등 효과적으로 전달할 수 있는 시스템을 제안하고 있다.Korean Patent Laid-Open Publication No. 10-2016-0092292 relates to a system and method for providing an augmented reality service for an advertisement, and it is an object of the present invention to apply an augmented reality to an advertisement, And the system is able to communicate effectively by being intrigued and intriguing.

한편, 사용자의 몸에 착용할 수 있는 다양한 웨어러블 디바이스 제품이 출시되고 있다. 특히 모바일 기술과 투명 디스플레이 기술을 안경에 적용하여 사용자가 안경을 통해 다양한 정보를 확인할 수 있는 시스템이 개발되고 있다.Meanwhile, various wearable device products that can be worn on the body of the user are being released. In particular, a system has been developed in which mobile technology and transparent display technology are applied to glasses to allow users to check various information through glasses.

도 1은 종래의 증강현실 시스템에서 표시되는 가상객체를 도시한 도면이다.1 is a diagram illustrating a virtual object displayed in a conventional augmented reality system.

도 1을 참조하면, 종래의 증강현실 시스템은 안경의 투명 디스플레이에 너무 많은 가상객체를 표시하므로 사용자의 시선을 가리게 되며 이러한 이유로 인해 사용자가 필요한 정보를 인지하기 어려운 문제가 발생한다.Referring to FIG. 1, the conventional augmented reality system displays too many virtual objects in a transparent display of eyeglasses, thereby hindering the user's eyesight. For this reason, it is difficult for the user to recognize necessary information.

또한, 실체객체가 촬영영상 내에 모두 존재하거나 부분적으로 존재하더라도 이를 정확하게 식별하여 실제객체에 할당된 가상객체를 목표된 위치에 표시할 수 있는 기술이 요구되고 있다.Also, there is a need for a technique that can accurately identify virtual objects existing in a captured image or exist partially or partially, and display a virtual object allocated to a real object at a desired position.

또한, 외형이 비슷한 실제객체가 다수 존재할 경우 중복 인식되거나, 할당되지 않은 가상객체가 표시되어 혼동을 유발할 수 있으므로 유사객체를 식별하여 중복 인식을 방지할 수 있는 기술이 요구되고 있다.In addition, if there are a plurality of actual objects having similar appearance, duplicate recognition or unassigned virtual objects may be displayed to cause confusion, so that a technology capable of identifying duplicate objects and preventing duplicate recognition is required.

KRKR 10-2016-009229210-2016-0092292 AA

본 발명은 상기와 같은 기술적 과제를 해결하기 위해 제안된 것으로, 실체객체가 촬영영상 내에 부분적으로 존재하더라도 이를 정확하게 식별하여 실제객체에 할당된 가상객체를 목표된 위치에 표시할 수 있는 증강현실 시스템을 제공한다.SUMMARY OF THE INVENTION It is an object of the present invention to provide an augmented reality system capable of accurately identifying a virtual object even if the actual object partially exists in the captured image and displaying the virtual object allocated to the real object at a desired position to provide.

상기 문제점을 해결하기 위한 본 발명의 일 실시예에 따르면, 사용자 주위의 영상을 촬영하여 실제영상정보를 획득하는 영상 카메라가 내장되며 디스플레이에 3차원 가상영상을 표시하는 증강현실 단말기를 포함하고, 상기 증강현실 단말기는, 공간을 3차원적으로 인식하여 공간기반의 3차원 정합 좌표계를 생성하고 상기 공간기반의 3차원 정합 좌표계를 기준으로 각각 미리 할당된 실제객체의 좌표에 각각의 가상객체를 표시하되, 상기 실제영상정보의 실제객체가 사물인식기반으로 영상 식별될 때마다 상기 실제객체의 좌표를 다시 파악한 후, 파악된 상기 실제객체의 좌표를 갱신하고, 갱신된 상기 실제객체의 좌표에 미리 할당된 가상객체를 표시하는 것을 특징으로 하는 증강현실 시스템이 제공된다.According to an aspect of the present invention, there is provided an augmented reality terminal including an image camera for capturing an image of a user around the user and acquiring real image information, and displaying a three-dimensional virtual image on a display, The augmented reality terminal recognizes the space three-dimensionally to generate a space-based three-dimensional matching coordinate system, and displays each virtual object in the coordinates of the real objects pre-allocated based on the space-based three-dimensional matching coordinate system The coordinates of the actual object are grasped again each time the actual object of the actual image information is image-recognized based on object recognition, the coordinates of the actual object are updated, and the coordinates of the actual object, And a virtual object is displayed on the display device.

또한, 본 발명의 다른 실시예에 따르면, 사용자 주위의 영상을 촬영하여 실제영상정보를 획득하는 영상 카메라가 내장되며 디스플레이에 3차원 가상영상을 표시하는 증강현실 단말기를 포함하고, 상기 증강현실 단말기는, 공간을 3차원적으로 인식하여 공간기반의 3차원 정합 좌표계를 생성하고 상기 공간기반의 3차원 정합 좌표계를 기준으로 각각 미리 할당된 실제객체의 좌표에 각각의 가상객체를 표시하되, 상기 실제영상정보의 실제객체가 사물인식기반으로 영상 식별될 때마다 상기 실제객체의 좌표를 파악한 후 사물인식기반의 3차원 정합 좌표계를 추가로 생성하고, 상기 사물인식기반의 3차원 정합 좌표계를 기준으로 상기 공간기반의 3차원 정합 좌표계를 갱신하는 것을 특징으로 하는 증강현실 시스템이 제공된다.According to another embodiment of the present invention, there is provided an augmented reality terminal, which includes a video camera for capturing an image of a user and acquiring actual image information, and displaying a three-dimensional virtual image on a display, Dimensional space, and generates a space-based three-dimensional matching coordinate system, and displays each virtual object in the coordinates of the real objects allocated in advance based on the space-based three-dimensional matching coordinate system, Dimensional matching coordinate system based on the object recognition based on the coordinates of the actual object each time the actual object of information is image-recognized based on the object recognition based on the three-dimensional matching coordinate system based on the object recognition, Based three-dimensional matching coordinate system is updated.

또한, 본 발명의 또 다른 실시예에 따르면, 사용자 주위의 영상을 촬영하여 실제영상정보를 획득하는 영상 카메라가 내장되며 디스플레이에 3차원 가상영상을 표시함에 있어서, 현재위치정보와 상기 실제영상정보에 대응하는 상기 3차원 가상영상을 사용자의 시야범위 내에 표시하는 증강현실 단말기 및 상기 증강현실 단말기로부터 전송되는 상기 현재위치정보와 상기 실제영상정보에 대응되는 상기 3차원 가상영상을 상기 증강현실 단말기에 실시간으로 제공하는 서버를 포함하고, 상기 서버는 상기 실제영상정보의 실제객체를 영상 식별하고 식별된 실제객체에 각각 할당된 상기 3차원 가상영상의 가상객체를 상기 증강현실 단말기에 제공함에 있어서, 상기 증강현실 단말기는, 공간을 3차원적으로 인식하여 공간기반의 3차원 정합 좌표계를 생성하고 상기 공간기반의 3차원 정합 좌표계를 기준으로 각각 미리 할당된 실제객체의 좌표에 각각의 가상객체를 표시하되, 상기 실제영상정보의 실제객체가 사물인식기반으로 영상 식별될 때마다 상기 실제객체의 좌표를 다시 파악한 후, 파악된 상기 실제객체의 좌표를 갱신하고, 갱신된 상기 실제객체의 좌표에 미리 할당된 가상객체를 표시하는 것을 특징으로 하는 증강현실 시스템이 제공된다.According to another embodiment of the present invention, there is provided an image display apparatus including a video camera for capturing an image of a user and acquiring real image information, and displaying a three-dimensional virtual image on a display, And displaying the 3D virtual image corresponding to the current image information and the current position information transmitted from the augmented reality terminal in the visual range of the user, Wherein the server provides the virtual object of the 3D virtual image assigned to the identified real object to the augmented reality terminal by image identification of the actual object of the actual image information, The real terminal recognizes the space three-dimensionally and generates a space-based 3D matching coordinate system Wherein each virtual object is displayed in the coordinates of an actual object previously allocated based on the space-based three-dimensional matching coordinate system, and each time the actual object of the actual image information is image- The coordinates of the actual object are updated, and the virtual object previously allocated to the coordinates of the updated actual object is displayed.

또한, 본 발명의 또 다른 실시예에 따르면, 사용자 주위의 영상을 촬영하여 실제영상정보를 획득하는 영상 카메라가 내장되며 디스플레이에 3차원 가상영상을 표시함에 있어서, 현재위치정보와 상기 실제영상정보에 대응하는 상기 3차원 가상영상을 사용자의 시야범위 내에 표시하는 증강현실 단말기 및 상기 증강현실 단말기로부터 전송되는 상기 현재위치정보와 상기 실제영상정보에 대응되는 상기 3차원 가상영상을 상기 증강현실 단말기에 실시간으로 제공하는 서버를 포함하고,According to another embodiment of the present invention, there is provided an image display apparatus including a video camera for capturing an image of a user and acquiring real image information, and displaying a three-dimensional virtual image on a display, And displaying the 3D virtual image corresponding to the current image information and the current position information transmitted from the augmented reality terminal in the visual range of the user, To a server,

상기 서버는 상기 실제영상정보의 실제객체를 영상 식별하고 식별된 실제객체에 각각 할당된 상기 3차원 가상영상의 가상객체를 상기 증강현실 단말기에 제공함에 있어서, 상기 증강현실 단말기는, 공간을 3차원적으로 인식하여 공간기반의 3차원 정합 좌표계를 생성하고 상기 공간기반의 3차원 정합 좌표계를 기준으로 각각 미리 할당된 실제객체의 좌표에 각각의 가상객체를 표시하되, 상기 실제영상정보의 실제객체가 사물인식기반으로 영상 식별될 때마다 상기 실제객체의 좌표를 파악한 후 사물인식기반의 3차원 정합 좌표계를 추가로 생성하고, 상기 사물인식기반의 3차원 정합 좌표계를 기준으로 상기 공간기반의 3차원 정합 좌표계를 갱신하는 것을 특징으로 하는 증강현실 시스템이 제공된다.Wherein the server provides the virtual object of the 3D virtual image assigned to the identified real object to the augmented reality terminal by image identification of the actual object of the actual image information, Based three-dimensional matching coordinate system, and displays each virtual object in the coordinates of the real object allocated in advance based on the space-based three-dimensional matching coordinate system, wherein the actual object of the actual image information is Dimensional coordinate system based on the object recognition, after recognizing the coordinates of the actual object each time the image is identified based on the object recognition, and generating the three-dimensional coordinate system based on the object recognition based on the three- And the coordinate system is updated.

본 발명의 실시예에 따른 증강현실 시스템은, 실체객체가 촬영영상 내에 존재하지 않거나 부분적으로 존재하더라도 이를 정확하게 식별하여 실제객체에 할당된 가상객체를 목표된 위치에 표시할 수 있다.The augmented reality system according to the embodiment of the present invention can correctly identify the actual object even if it does not exist in the captured image or partially exist and display the virtual object allocated to the actual object at the target position.

즉, 공간 인식 및 사물 인식을 동시에 적용하여 가상객체의 위치를 정확한 위치에 표시할 수 있다.That is, it is possible to display the position of the virtual object at the correct position by simultaneously applying the space recognition and the object recognition.

도 1은 종래의 증강현실 시스템에서 표시되는 가상객체를 도시한 도면
도 2는 본 발명의 실시예에 따른 증강현실 시스템(1)의 구성도
도 3은 사물인식기반으로 구현되는 증강현실을 나타낸 도면
도 3a는 공간인식기반으로 구현되는 증강현실을 나타낸 도면
도 4는 증강현실 시스템(1)의 동작 개념도
도 5는 증강현실 시스템(1)의 동작 상태를 나타낸 예시도
도 6은 증강현실 시스템(1)에서 유사객체를 식별하기 위한 학습과정을 나타낸 순서도
도 6a는 증강현실 시스템(1)에서 유사객체를 식별하기 위한 추가인식영역을 선정하는 과정을 도시한 구성도
도 7은 증강현실 시스템(1)에서 유사객체를 식별하는 과정을 나타낸 순서도
도 8은 증강현실 시스템(1)에서 유사객체를 식별하는 상태를 나타낸 제1 예시도
도 9는 증강현실 시스템(1)에서 유사객체를 식별하는 상태를 나타낸 제2 예시도
도 10은 증강현실 시스템(1)의 다른 동작원리를 나타낸 도면
도 11 및 도 11a는 증강현실 시스템(1)의 또 다른 동작원리를 나타낸 도면
도 12는 증강현실 시스템(1)의 증강현실 단말기(100)의 구성도
도 12a는 증강현실 단말기(100)의 예시도
도 13은 증강현실 시스템(1)의 안전모드가 동작하는 상태도
도 14는 증강현실 시스템(1)의 오버헤드 뷰 모드(Overhead View Mode)가 동작하는 상태도
1 is a diagram showing a virtual object displayed in a conventional augmented reality system;
2 is a block diagram of an augmented reality system 1 according to an embodiment of the present invention.
3 is a view showing an augmented reality realized on the basis of object recognition
3A is a diagram showing an augmented reality realized based on spatial recognition;
4 is a conceptual diagram of the operation of the augmented reality system 1. Fig.
5 is an exemplary diagram showing an operation state of the augmented reality system 1. Fig.
6 is a flowchart showing a learning process for identifying similar objects in the augmented reality system 1. Fig.
6A is a diagram showing a process of selecting an additional recognition area for identifying a similar object in the AR system 1
7 is a flowchart showing a process of identifying a similar object in the augmented reality system 1
8 is a first exemplary diagram showing a state for identifying a similar object in the augmented reality system 1. Fig.
9 is a second example showing a state in which similar objects are identified in the augmented reality system 1. Fig.
10 is a diagram showing another operation principle of the augmented reality system 1
11 and 11A are diagrams showing still another operation principle of the augmented reality system 1
12 is a configuration diagram of the augmented reality terminal 100 of the augmented reality system 1. Fig.
12A is an exemplary diagram of the augmented reality terminal 100
13 is a state diagram in which the safe mode of the augmented reality system 1 is operated
14 is a diagram showing a state in which the overhead view mode of the augmented reality system 1 is operated

이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 정도로 상세히 설명하기 위하여, 본 발명의 실시예를 첨부한 도면을 참조하여 설명하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, in order to facilitate a person skilled in the art to easily carry out the technical idea of the present invention.

도 2는 본 발명의 실시예에 따른 증강현실 시스템(1)의 구성도이다.2 is a configuration diagram of an augmented reality system 1 according to an embodiment of the present invention.

본 실시예에 따른 증강현실 시스템(1)은 제안하고자 하는 기술적인 사상을 명확하게 설명하기 위한 간략한 구성만을 포함하고 있다.The augmented reality system 1 according to the present embodiment includes only a brief configuration for clearly explaining the technical idea to be proposed.

도 2를 참조하면, 증강현실 시스템(1)은 증강현실 단말기(100)와, 서버(200)와, 복수의 센싱부(300)를 포함하여 구성된다. 여기에서 복수의 센싱부(300) 또는 서버(200)는 실시예에 따라 증강현실 시스템(1)에 선택적으로 구비될 수 있는 구성이다. 2, the augmented reality system 1 includes an augmented reality terminal 100, a server 200, and a plurality of sensing units 300. As shown in Fig. Here, the plurality of sensing units 300 or the server 200 may be selectively provided in the augmented reality system 1 according to the embodiment.

참고적으로, 증강현실 단말기(100)의 연산능력과, 저장 공간이 충분한 경우, 증강현실 시스템(1)은 서버(200)의 구성없이 증강현실 단말기(100) 자체에서 서버(200)의 역할을 수행하도록 구성될 수도 있을 것이다.The augmented reality system 1 can play the role of the server 200 in the augmented reality terminal 100 itself without the configuration of the server 200 when the computing ability and the storage space of the augmented reality terminal 100 are sufficient As shown in FIG.

또한, 본 실시예에서 증강현실 단말기(100)는 증강현실안경 또는 모바일 단말기로 구성될 수 있다. 증강현실안경에 대한 상세한 구성은 후술하기로 하며, 모바일 단말기는 휴대폰, 스마트폰, 스마트 패드 등과 같이 사용자가 휴대하면서 사용할 수 있는 기기를 총칭하는 것이며, 본 실시예에서는 스마트폰으로 구성된 모바일 단말기로 가정하고 설명하기로 한다.In addition, in the present embodiment, the augmented reality terminal 100 may be composed of augmented reality glasses or a mobile terminal. The detailed configuration of the augmented reality glasses will be described later, and the mobile terminal is collectively referred to as a mobile phone, a smart phone, a smart pad, etc., which can be used while the user is carrying it. .

기본적으로 증강현실 단말기(100)는 사용자 주위의 영상을 촬영하여 실제영상정보를 획득하는 영상 카메라가 내장되며 디스플레이에 3차원 가상영상을 표시함에 있어서, 현재위치정보와 실제영상정보에 대응하는 3차원 가상영상을 사용자의 시야범위 내에 표시한다.Basically, the augmented reality terminal 100 has a built-in video camera for capturing an image of a user and acquiring real image information, and displaying a three-dimensional virtual image on a display, The virtual image is displayed within the visual range of the user.

서버(200)는 증강현실 단말기(100)로부터 전송되는 현재위치정보와 실제영상정보에 대응되는 3차원 가상영상을 증강현실 단말기(100)에 실시간으로 제공한다.The server 200 provides a three-dimensional virtual image corresponding to the current location information and the actual image information transmitted from the augmented reality terminal 100 to the augmented reality terminal 100 in real time.

증강현실 단말기(100)는 기본적으로 위성위치정보를 현재위치정보로써 서버(200)에 제공하도록 구성된다. 증강현실 단말기(100)에 통신모듈이 포함되어 있을 경우, 위성위치정보 뿐만 아니라 주변의 와이파이(Wi-Fi) 중계기의 위치, 기지국 위치 등이 현재위치정보로써 서버(200)에 추가로 제공될 수 있다.The augmented reality terminal 100 is basically configured to provide the satellite position information to the server 200 as current position information. When augmented reality terminal 100 includes a communication module, not only the satellite position information but also the location of a nearby Wi-Fi repeater, the location of a base station, and the like can be additionally provided to the server 200 as current location information have.

예를 들어 특히 실내에서는 위성위치정보를 수신할 수 없는 경우가 많으므로, 증강현실 단말기(100)는, 검색된 적어도 하나 이상의 와이파이(Wi-Fi) 중계기의 신호세기를 추가로 파악하여 서버(200)로 전달할 수 있다. 즉 실내에 위치한 와이파이(Wi-Fi) 중계기의 절대위치는 미리 서버(200)에 저장되어 있으므로, 증강현실 단말기(100)가 검색된 와이파이(Wi-Fi) 중계기의 고유번호와 신호세기를 추가로 제공할 경우, 서버(200)에서는 증강현실 단말기(100)의 상대적인 이동경로를 파악할 수 있다.The augmented reality terminal 100 may further determine the signal strength of at least one of the searched Wi-Fi repeaters and transmit the satellite position information to the server 200, . That is, since the absolute position of the Wi-Fi repeater located indoors is stored in advance in the server 200, the augmented reality terminal 100 additionally provides the unique number and signal strength of the Wi-Fi repeater searched for , The server 200 can grasp the relative movement path of the augmented reality terminal 100.

즉, 증강현실 단말기(100)와 와이파이(Wi-Fi) 중계기 사이의 상대적인 거리를 신호세기로써 확인할 수 있으며 이웃하는 와이파이(Wi-Fi) 중계기와의 신호세기 변화를 토대로 이동방향을 산출할 수 있다. 실내에서 현재위치정보를 획득하는 추가적인 방식에 대해서는 후술하기로 한다.That is, the relative distance between the augmented reality terminal 100 and the Wi-Fi repeater can be confirmed by the signal strength, and the direction of movement can be calculated based on the change in the signal intensity with the neighboring Wi-Fi repeater . An additional method for acquiring the current position information in the room will be described later.

따라서 서버(200)는 증강현실 단말기(100)를 착용 또는 소지한 사용자의 현재위치정보와, 증강현실 단말기(100)의 영상 카메라에서 촬영된 실제영상정보를 통해 각각의 실제객체에 할당된 가상객체를 파악하고, 이에 대한 정보를 증강현실 단말기(100)로 실시간으로 전송한다.Therefore, the server 200 can acquire the virtual object (s) assigned to the actual object through the current position information of the user wearing or holding the augmented reality terminal 100 and the actual image information photographed by the image camera of the augmented reality terminal 100. [ And transmits the information to the augmented reality terminal 100 in real time.

한편, 실내에서 실제객체를 식별하는 방식은 크게 2가지로 구분할 수 있다.Meanwhile, there are two methods of identifying actual objects in the room.

도 3은 사물인식기반으로 구현되는 증강현실을 나타낸 도면이고, 도 3a는 공간인식기반으로 구현되는 증강현실을 나타낸 도면이다.FIG. 3 is a diagram illustrating an augmented reality based on object recognition, and FIG. 3A is a view illustrating an augmented reality implemented based on a spatial recognition.

도 3 및 도 3a를 참조하면, 우선 사물인식기반으로 실제객체를 식별하는 방식은 공간 대비 사물의 크기가 작기 때문에 영상 기반 학습이 용이하다. 다만, 사물이 영상 내에 포함되어 있어야만 인식이 가능하고, 인식 방향과 거리에 제약이 발생할 수 있다. 사물은 위치가 변경될 수 있기 때문에 사전에 위치를 저장하는 것이 어려운 과제이다. 참고적으로 사물인식기반의 3차원 정합 좌표계(증강현실 정합 좌표계)는 각 사물당 1개가 생성된다.Referring to FIGS. 3 and 3A, the method of identifying an actual object on the basis of object recognition is easy because the size of an object is small compared to a space. However, if objects are included in the image, recognition can be performed, and restrictions on the recognition direction and distance may occur. Storing a location in advance is a difficult task because an object can change its location. As a reference, one object matching object coordinate system (augmented reality matching coordinate system) is generated for each object.

다음으로, 공간인식기반으로 실제객체의 위치를 식별하는 방식은 기본적으로 SLAM(Simultaneous Localization And Map-Building, Simultaneous Localization and Mapping) 기술을 적용한다. 슬램(SLAM)은 단말기(로봇)가 미지의 환경을 돌아다니면서 단말기(로봇)에 부착되어 있는 센서만으로 외부의 도움 없이 환경에 대한 정확한 3차원 지도를 작성하는 작업으로 자율주행을 위한 핵심기술로 정의될 수 있다.Next, SLAM (Simultaneous Localization and Map-Building, Simultaneous Localization and Mapping) technology is applied to the method of identifying the location of the actual object based on the spatial recognition. SLAM is a task to create a precise 3D map of the environment without the help of the outside only by the sensor attached to the terminal (robot) while the terminal (robot) travels around the unknown environment. It is defined as the core technology for autonomous driving .

즉, 공간인식기반 방식은 공간을 3차원적으로 인식하여 공간의 3차원 정합 좌표계를 생성하고 3차원 정합 좌표계를 기준으로 각각 미리 할당된 실제객체의 좌표에 각각의 가상객체를 표시하는 방식으로 정의될 수 있다.In other words, the space recognition based method is a method of creating a three-dimensional matching coordinate system of space by three-dimensionally recognizing a space and displaying each virtual object in coordinates of an actual object allocated in advance according to a three- dimensional matching coordinate system .

따라서 사물이 영상 내에 포함되어 있지 않아도 사물(실제객체)에 가상객체를 증강할 수 있다. 다만, 초기 인식 지점으로부터 단말기가 이동되면 공간 추적 오차가 누적되어 증강현실 정보(가상객체)가 적절한 위치에 표출되기 어려울 수 있다. 참고적으로 공간기반의 3차원 정합 좌표계(증강현실 정합 좌표계)는 공간당 1개가 생성된다.Therefore, a virtual object can be augmented on an object (real object) even if the object is not included in the image. However, when the terminal is moved from the initial recognition point, the spatial tracking error may accumulate and it may be difficult for the augmented reality information (virtual object) to be displayed at an appropriate position. For reference, one space-based three-dimensional matching coordinate system (augmented reality matching coordinate system) is generated per space.

따라서 본 발명의 증강현실 시스템(1)은, 실체객체가 촬영영상 내에 모두 존재하거나, 모두 존재하지 않거나, 부분적으로 존재하더라도 이를 정확하게 식별하여 실제객체에 할당된 가상객체를 목표된 위치에 표시할 수 있도록, 공간 인식 및 사물 인식을 동시에 적용하여 가상객체의 위치를 정확한 위치에 표시할 수 있도록 구성된다.Accordingly, the augmented reality system 1 according to the present invention can accurately identify virtual objects, which are all present in the photographed image, all of them not present or partially existing, and displaying the virtual objects allocated to the actual objects at the target positions So that the position of the virtual object can be displayed at the correct position by simultaneously applying the space recognition and the object recognition.

즉, 증강현실 단말기(100)는, 공간을 3차원적으로 인식하여 공간기반의 3차원 정합 좌표계를 생성하고 공간기반의 3차원 정합 좌표계를 기준으로 각각 미리 할당된 실제객체의 좌표에 각각의 가상객체를 표시하되, 실제영상정보의 실제객체가 사물인식기반으로 영상 식별될 때마다 실제객체의 좌표를 파악한 후 사물인식기반의 3차원 정합 좌표계를 추가로 생성하고, 사물인식기반의 3차원 정합 좌표계를 기준으로 공간기반의 3차원 정합 좌표계를 갱신한다.That is, the augmented reality terminal 100 recognizes the space three-dimensionally to generate a space-based three-dimensional matching coordinate system, and assigns each virtual Dimensional object coordinate system based on object recognition after recognizing the coordinates of the actual object each time the actual object of the actual image information is image-recognized based on the object recognition based on the three-dimensional coordinate system based on the object recognition, Based three-dimensional matching coordinate system is updated based on the three-dimensional coordinate system.

도 4는 증강현실 시스템(1)의 동작 개념도이고, 도 5는 증강현실 시스템(1)의 동작 상태를 나타낸 예시도이다.4 is a conceptual diagram of the operation of the augmented reality system 1, and Fig. 5 is an exemplary view showing the operation state of the augmented reality system 1. As shown in Fig.

도 4 및 도 5를 참조하여 증강현실 시스템(1)의 동작원리를 설명하면 다음과 같다.The operation principle of the augmented reality system 1 will be described with reference to FIGS. 4 and 5. FIG.

증강현실 단말기(100)는, 공간을 3차원적으로 인식하여 공간기반의 3차원 정합 좌표계를 생성하고 공간기반의 3차원 정합 좌표계를 기준으로 각각 미리 할당된 실제객체의 좌표에 각각의 가상객체를 표시한다.The augmented reality terminal 100 recognizes the space three-dimensionally, generates a space-based three-dimensional matching coordinate system, and assigns each virtual object to the coordinate of the actual object allocated in advance based on the space-based three-dimensional matching coordinate system Display.

따라서 실체객체가 촬영영상 내에 존재하지 않거나 부분적으로 존재하더라도 공간기반의 3차원 정합 좌표계만을 이용하여 실제객체에 할당된 가상객체를 목표된 위치에 표시할 수 있다.Therefore, even if the entity object does not exist in the photographed image or partially exists, the virtual object allocated to the actual object can be displayed at the target position using only the space-based 3D matching coordinate system.

이때, 증강현실 단말기(100)는 실제영상정보의 실제객체가 사물인식기반으로 영상 식별될 때마다 실제객체의 좌표를 다시 파악한 후, 파악된 실제객체의 좌표를 갱신하고, 갱신된 실제객체의 좌표에 미리 할당된 가상객체를 표시할 수도 있다. 즉, 기본적으로 공간인식기반으로 실체객체의 위치를 식별하면서 동시에 사물인식기반을 적용한 후 식별된 실제객체의 위치의 좌표를 갱신할 수 있다.At this time, each time the actual object of the actual image information is image-recognized based on the object recognition, the augmented reality terminal 100 grasps the coordinates of the actual object, updates the coordinates of the detected actual object, The virtual object may be displayed in advance. That is, basically, it is possible to identify the location of the entity object based on the spatial recognition, and simultaneously update the coordinates of the location of the identified actual object after applying the object recognition basis.

한편, 증강현실 단말기(100)는 공간을 3차원적으로 인식하여 공간기반의 3차원 정합 좌표계를 생성하고 공간기반의 3차원 정합 좌표계를 기준으로 각각 미리 할당된 실제객체의 좌표에 각각의 가상객체를 표시하는데, On the other hand, the augmented reality terminal 100 recognizes the space three-dimensionally to generate a space-based three-dimensional matching coordinate system, and assigns each virtual object Lt; / RTI >

이때 증강현실 단말기(100)는 실제영상정보의 실제객체가 사물인식기반으로 영상 식별될 때마다 실제객체의 좌표를 파악한 후 사물인식기반의 3차원 정합 좌표계를 추가로 생성하고, 사물인식기반의 3차원 정합 좌표계를 기준으로 공간기반의 3차원 정합 좌표계를 갱신한다. At this time, each time the actual object of the actual image information is image-recognized based on the object recognition, the augmented reality terminal 100 obtains the coordinates of the actual object, and further generates a three-dimensional matching coordinate system based on the object recognition. Based three-dimensional matching coordinate system based on the dimensional matching coordinate system.

즉, 사물인식기반으로 실제객체가 식별될 때마다 실제객체의 좌표를 기준으로 공간기반의 3차원 정합 좌표계를 유추하여 보정할 수 있다.That is, each time an actual object is identified based on object recognition, a space-based 3-dimensional matching coordinate system can be estimated and corrected based on the coordinates of the actual object.

도 5에 도시된 바와 같이 사물(실제객체)이 사물인식기반으로 영상 식별될 때마다 사물인식기반의 3차원 정합 좌표계(#n)를 추가로 생성하고, 이를 기반으로 공간기반의 3차원 정합 좌표계를 갱신함으로써, 증강현실 단말기(100)의 이동 등으로 인한 공간기반의 3차원 정합 좌표계의 누적오차를 보정할 수 있다.As shown in FIG. 5, each time an object (real object) is image-recognized based on object recognition, a three-dimensional matching coordinate system #n based on object recognition is additionally generated, and based on this, The accumulated error of the space-based three-dimensional matching coordinate system due to the movement of the augmented reality terminal 100 or the like can be corrected.

이때, 복수의 사물(실제객체)이 사물인식기반으로 영상 인식될 경우, 증강현실 단말기(100)는 각 실제객체 간의 상대적인 위치를 고려하여 실제객체의 위치변화를 감지할 수 있다. In this case, when a plurality of objects (real objects) are recognized based on object recognition, the augmented reality terminal 100 can sense a change in the position of an actual object in consideration of a relative position between the actual objects.

따라서 증강현실 단말기(100)는 공간기반의 3차원 정합 좌표계를 통해 실제객체의 위치 이동여부를 확인할 수 있을 뿐만 아니라 여기에 각 실제객체 간의 상대적인 위치까지 추가로 고려하여 실제객체의 위치변화를 감지할 수 있을 것이다.Therefore, the augmented reality terminal 100 not only can confirm whether the actual object is moved through the space-based three-dimensional matching coordinate system, but also detects the change in the position of the actual object by further considering the relative position between the actual objects It will be possible.

증강현실 시스템(1)은 3차원 공간 위치 인식(SLAM 알고리즘)을 수행하면서 동시에 병렬적으로 인터랙션을 위한 사물을 인식/추적하고 콘텐츠를 정합한다.The augmented reality system 1 performs three-dimensional spatial location recognition (SLAM algorithm) while at the same time recognizing / tracking objects for parallel interaction and matching contents.

우선, 증강현실 단말기(100)에서 3차원 공간 학습(SLAM 알고리즘)을 수행하면서, 공간에 증강현실 정합 좌표계 생성한다. 다음으로 공간의 정합 좌표계를 기준으로 단말기의 자세(이동, 회전) 추적하는데, 만약 사전에 학습했던 공간이 인식되면 사전에 정의했던 증강현실 정합 좌표계를 불러올 수 있다.First, the augmented reality terminal 100 generates an augmented reality matching coordinate system by performing three-dimensional space learning (SLAM algorithm). Next, the attitude (movement, rotation) of the terminal is tracked based on the co-ordinate coordinate system of the space. If the previously learned space is recognized, the augmented reality matching coordinate system defined in advance can be called.

다음으로 증강현실 단말기(100)는 카메라 영상에서 사물 인식 시도하고, 사물이 인식될 경우, 사물인식기반의 3차원 정합 좌표계를 추가로 생성한다. 다음으로 사물 위에 정보(콘텐츠) 증강하는데, 증강현실 단말기(100)의 카메라 영상 내에 사물의 많은 부분이 보이지 않더라도 공간 및 사물 기준으로 가상정보가 증강될 수 있다.Next, the augmented reality terminal 100 tries to recognize an object from a camera image, and when the object is recognized, a three-dimensional matching coordinate system based on object recognition is additionally generated. Next, the information (content) is augmented on the object. Even if a large part of the object is not visible in the camera image of the augmented reality terminal 100, the virtual information can be enhanced based on the space and the object.

요약하면, 증강현실 시스템(1)이 증강현실 단말기(100) 및 서버(200)로 구성될 경우,In summary, when the augmented reality system 1 comprises the augmented reality terminal 100 and the server 200,

서버(200)는 실제영상정보의 실제객체를 영상 식별하고 식별된 실제객체에 각각 할당된 3차원 가상영상의 가상객체를 증강현실 단말기(100)에 제공하고,The server 200 images the real objects of the real image information and provides the virtual objects of the three-dimensional virtual images assigned to the identified real objects to the augmented reality terminal 100,

증강현실 단말기(100)는, 공간을 3차원적으로 인식하여 공간기반의 3차원 정합 좌표계를 생성하고 공간기반의 3차원 정합 좌표계를 기준으로 각각 미리 할당된 실제객체의 좌표에 각각의 가상객체를 표시하되, 실제영상정보의 실제객체가 사물인식기반으로 영상 식별될 때마다 실제객체의 좌표를 다시 파악한 후, 파악된 실제객체의 좌표를 갱신하고, 갱신된 실제객체의 좌표에 미리 할당된 가상객체를 표시한다.The augmented reality terminal 100 recognizes the space three-dimensionally, generates a space-based three-dimensional matching coordinate system, and assigns each virtual object to the coordinate of the actual object allocated in advance based on the space-based three-dimensional matching coordinate system The coordinates of the actual object are reassembled every time the actual object of the actual image information is image-recognized based on object recognition, the coordinates of the actual object are updated, and the coordinates of the updated real object are updated. .

또한, 증강현실 단말기(100)는, 공간을 3차원적으로 인식하여 공간기반의 3차원 정합 좌표계를 생성하고 공간기반의 3차원 정합 좌표계를 기준으로 각각 미리 할당된 실제객체의 좌표에 각각의 가상객체를 표시하되, 실제영상정보의 실제객체가 사물인식기반으로 영상 식별될 때마다 실제객체의 좌표를 파악한 후 사물인식기반의 3차원 정합 좌표계를 추가로 생성하고, 사물인식기반의 3차원 정합 좌표계를 기준으로 공간기반의 3차원 정합 좌표계를 갱신한다.In addition, the augmented reality terminal 100 recognizes spaces three-dimensionally to generate a space-based three-dimensional matching coordinate system, and assigns each virtual Dimensional object coordinate system based on object recognition after recognizing the coordinates of the actual object each time the actual object of the actual image information is image-recognized based on the object recognition based on the three-dimensional coordinate system based on the object recognition, Based three-dimensional matching coordinate system is updated based on the three-dimensional coordinate system.

한편, 본 발명의 실시예에 따른 증강현실 시스템(1)은 추가인식영역을 선정하고, 추가인식영역의 영상 차이점을 토대로 고유 식별자를 실제객체에 각각 부여하여 유사객체를 식별할 수 있다.Meanwhile, the augmented reality system 1 according to the embodiment of the present invention can identify the similar object by selecting an additional recognition area and assigning a unique identifier to the actual object based on the image difference of the additional recognition area.

또한, 증강현실 시스템(1)은 추가인식영역의 영상 차이점을 토대로 각각의 실제객체에 부여된 고유 식별자와, 각 실제객체의 현재위치정보를 모두 고려하여 각각의 실제객체를 식별할 수 있다.In addition, the augmented reality system 1 can identify each real object by considering both the unique identifier given to each real object and the current position information of each real object based on the image difference in the additional recognition area.

따라서 유사성이 높은 실제객체가 배열되더라도 이를 식별하여 각각의 실제객체에 할당된 가상객체를 표시하여 사용자에게 혼동 없는 정보를 전달할 수 있다.Therefore, even if real objects having high similarity are arranged, it is possible to identify them and display the virtual objects allocated to the respective real objects, thereby conveying information without confusion to the user.

객체의 시각인지기술은 네 가지 단계로 구분할 수 있다. - DCRI (Detection, Classification, Recognition, and Identification) - The visual cognition description of an object can be divided into four steps. - DCRI (Detection, Classification, Recognition, and Identification) -

우선, 발견(Detection)은 객체가 있는지 없는지만 알 수 있는 단계이다.First, detection is a step that can detect whether or not an object exists.

다음으로, 분류(Classification)는 객체가 어떤 분류인지 알 수 있는 단계이다. - 예를 들면 사람인지 동물인지 분류할 수 있음 - Next, Classification is a step of knowing what classification an object is. - For example, it can be classified as human or animal -

다음으로, 인식(Recognition)은 객체의 개략적인 특성을 알 수 있는 단계이다. - 예를 들면 사람이 입고 있는 옷의 간략한 정보를 알 수 있음 - Next, Recognition is a step to know the approximate characteristics of the object. - For example, you can find brief information about clothes that a person wears -

마지막으로, 식별(Identification)은 객체의 세밀한 특성을 알 수 있는 단계이다. - 예를 들면 어떤 사람의 얼굴을 구분할 수 있고, 자동차 번호판의 숫자를 알 수 있음 - Finally, Identification is a step that allows to know the detailed characteristics of an object. For example, you can identify a person's face and know the number of the license plate.

본원발명의 증강현실 시스템(1)은 식별(Identification)단계가 구현되어 유사한 실제객체의 세부 특성을 구분할 수 있도록 동작한다.The augmented reality system 1 of the present invention operates so that an identification step can be implemented to distinguish detailed characteristics of similar real objects.

예를 들면 증강현실 시스템(1)은 유사한 모양을 갖는 설비(실제객체)에 부착된 문자를 인식하고 고유식별번호를 부여하거나, 차이가 있는 부분을 식별한 후 그 부분을 추가인식영역을 선정하고, 추가인식영역의 2D/3D 특징정보 차이와, 위성위치정보 및 와이파이 신호 등으로 계측된 현재위치정보를 모두 이용하여 유사도 값이 높은 실제객체를 각각 구분할 수 있도록 구성된다.For example, the augmented reality system 1 recognizes a character attached to a facility (real object) having a similar shape and assigns a unique identification number, or identifies a difference portion, and then selects the additional recognition region The 2D / 3D feature information difference of the additional recognition area, and the current position information measured by the satellite position information and the Wi-Fi signal, to distinguish real objects having high similarity values.

도 6은 증강현실 시스템(1)에서 유사객체를 식별하기 위한 학습과정을 나타낸 순서도이고, 도 6a는 증강현실 시스템(1)에서 유사객체를 식별하기 위한 추가인식영역을 선정하는 과정을 도시한 구성도이다.FIG. 6A is a flowchart illustrating a learning process for identifying similar objects in the AR system 1, FIG. 6A is a flowchart illustrating a process of selecting an additional recognition area for identifying similar objects in the AR system 1 .

도 6 및 도 6a를 참조하면, 서버(200)는 실제영상정보의 실제객체를 식별하고 식별된 실제객체에 각각 할당된 3차원 가상영상의 가상객체를 증강현실 단말기(100)에 제공하도록 동작한다.6 and 6A, the server 200 operates to identify a real object of actual image information and to provide a virtual object of a three-dimensional virtual image allocated to each identified real object to the augmented reality terminal 100 .

즉, 서버(200)는 실제영상정보에 존재하는 복수의 실제객체 중에서 소정의 영상 유사도 값(d) 이상을 갖는 실제객체들은 각각의 실제영상정보를 차분하여 추가인식영역을 선정하고, 추가인식영역의 영상 차이점을 토대로 고유 식별자를 실제객체에 각각 부여한다.That is, the server 200 selects the additional recognition area by subtracting the actual image information from the actual objects having the predetermined image similarity value d or more among the plurality of actual objects existing in the actual image information, And assigns a unique identifier to the actual object based on the image difference of the object.

예를 들면 추가인식영역이 서로 다른 문자나, 숫자가 표시되어 있을 경우 서버(200)는 추가인식영역의 차이점을 토대로 각각의 실제객체에 고유 식별자를 부여한 후 이를 데이터베이스화하여 저장하고, 고유 식별자에 할당된 가상객체를 추가 증강현실 단말기(100)로 전송할 수 있다.For example, when characters or numbers different from each other are displayed in the additional recognition area, the server 200 assigns a unique identifier to each of the actual objects based on the difference of the additional recognition areas, stores the database in a database, And can transmit the assigned virtual object to the augmented reality terminal 100.

즉, 복수의 실제객체가 소정의 영상 유사도 값(d) 이상을 가질 경우, 영상을 추상화하고 영상을 차분화하여 추가인식영역(추가 학습영역)을 설정한 후, 추가인식영역의 차이점을 식별하여 각각의 고유 식별자를 부여하는 것이다.That is, when a plurality of actual objects have a predetermined image similarity value (d) or more, the image is abstracted and the image is differentiated to set an additional recognition area (additional learning area) And each unique identifier is assigned.

도 7은 증강현실 시스템(1)에서 유사객체를 식별하는 과정을 나타낸 순서도이고, 도 8은 증강현실 시스템(1)에서 유사객체를 식별하는 상태를 나타낸 제1 예시도이다.FIG. 7 is a flowchart illustrating a process of identifying similar objects in the AR system 1, and FIG. 8 is a first exemplary view illustrating a state in which similar objects are identified in the AR system 1. FIG.

도 7 및 도 8을 참조하면, 증강현실 단말기(100)로부터 실제영상정보가 전달되면, 서버(200)는 실제영상정보의 실제객체를 구분한 후, 유사 이미지가 존재하지 않을 경우(유사한 모양의 실제객체가 존재하지 않을 경우)에는 식별된 이미지에 해당하는 가상객체를 각각 할당한다.7 and 8, when the actual image information is transmitted from the augmented reality terminal 100, the server 200 identifies the actual object of the actual image information, and if the similar image does not exist If there is no actual object), virtual objects corresponding to the identified image are respectively allocated.

이때, 서버(200)는 유사 이미지가 존재할 경우(유사한 모양의 실제객체가 존재할 경우) 추가인식영역의 정보를 비교하여 고유 식별자를 식별한 후, 고유 식별자에 해당하는 가상객체를 할당한다.At this time, the server 200 compares the information of the additional recognition area with the similar image (if a similar object exists), identifies the unique identifier, and then assigns the virtual object corresponding to the unique identifier.

즉, 도 8에 도시된 바와 같이, 유사한 모양의 설비(실제객체)가 이웃한 위치에 배치될 경우, 서버(200)는 증강현실 단말기(100)으로부터 전송된 실제영상정보에서 복수의 실제객체를 인식한 후, 각 실제객체의 추가인식영역의 정보를 비교하여 고유 식별자를 식별하고 고유 식별자에 해당하는 가상객체를 할당한다.8, when similar facilities (actual objects) are arranged at neighboring positions, the server 200 may extract a plurality of actual objects from actual image information transmitted from the augmented reality terminal 100 Then, the information of the additional recognition area of each real object is compared to identify the unique identifier, and the virtual object corresponding to the unique identifier is allocated.

한편, 각 설비의 추가인식영역에 서로 다른 식별마커가 인쇄되어 있을 경우, 그 식별마커의 형태는 다음과 같이 구성될 수 있다.On the other hand, when different identification markers are printed in the additional recognition area of each facility, the shape of the identification markers can be configured as follows.

식별마커는 제1 식별마커 영역과, 제2 식별마커 영역과, 제3 식별마커 영역과, 제4 식별마커 영역을 포함하여 구성될 수 있다.The identification marker may be configured to include a first identification marker region, a second identification marker region, a third identification marker region, and a fourth identification marker region.

즉, 식별마커는 제1 식별마커 영역, 제2 식별마커 영역, 제3 식별마커 영역 및 제4 식별마커 영역을 하나의 식별자로써 인식한다. 즉, 증강현실 단말기(100)은 기본적으로 제1 내지 제4 식별마커를 모두 촬영하여 서버(200)로 전송하고 서버(200)는 인식된 식별마커를 하나의 고유 식별자로써 인식한다.That is, the identification marker recognizes the first identification marker region, the second identification marker region, the third identification marker region, and the fourth identification marker region as one identifier. That is, the augmented reality terminal 100 basically captures all the first to fourth identification markers and transmits them to the server 200, and the server 200 recognizes the recognized identification markers as one unique identifier.

이때, 제1 식별마커 영역은 가시광선 영역의 파장을 반사하도록 구성된다. 즉, 제1 식별마커 영역은 일반적인 도료로 인쇄되며 사람이 시각적으로 구분할 수 있도록 인쇄된다.At this time, the first identification marker region is configured to reflect the wavelength of the visible light region. That is, the first identification marker area is printed with a common paint and printed so that a human can visually distinguish it.

또한, 제2 식별마커 영역은 제1 적외선 파장을 반사하는데, 제1 적외선 파장을 반사하는 도료로 인쇄되며 사람이 시각적으로 구분할 수 없다.In addition, the second identification marker region reflects the first infrared wavelength, printed with a paint reflecting the first infrared wavelength, and can not be visually distinguished by a person.

또한, 제3 식별마커 영역은 제1 적외선 파장 보다 긴 파장의 제2 적외선 파장을 반사하는데, 제2 적외선 파장을 반사하는 도료로 인쇄되며 사람이 시각적으로 구분할 수 없다.Further, the third identification marker region reflects a second infrared wavelength of a wavelength longer than the first infrared wavelength, and is printed with a paint reflecting the second infrared wavelength, and can not be visually distinguished by a person.

또한, 제4 식별마커 영역은 제1 적외선 파장 및 제2 적외선 파장을 동시에 반사하는데, 제1 및 제2 적외선 파장을 반사하는 도료로 인쇄되며 사람이 시각적으로 구분할 수 없다.Further, the fourth identification marker region simultaneously reflects the first infrared wavelength and the second infrared wavelength, which is printed with a paint reflecting the first and second infrared wavelengths, and can not be visually distinguished by a person.

이때, 식별마커를 영상 촬영하는 증강현실 단말기(100)의 카메라는 적외선 투과파장을 조절하는 분광필터가 장착되어 적외선 파장 영역을 촬영하여 인식할 수 있도록 구성된다.At this time, the camera of the augmented reality terminal 100 for imaging the identification marker is configured to be equipped with a spectral filter for controlling the infrared transmission wavelength so as to photograph and recognize the infrared wavelength region.

따라서 설비에 인쇄된 식별마커 중 제1 식별마커 영역만이 사람이 시각적으로 확인할 수 있으며, 제2 식별마커 영역, 제3 식별마커 영역 및 제4 식별마커 영역은 사람이 시각적으로 확인할 수 없고 증강현실 단말기(100)의 카메라를 통해 촬영될 수 있다. Therefore, only the first identification marker region of the identification markers printed on the facility can be visually confirmed by the person, and the second identification marker region, the third identification marker region and the fourth identification marker region can not be visually confirmed by the person, And can be photographed through the camera of the terminal 100.

제1 식별마커 영역, 제2 식별마커 영역, 제3 식별마커 영역 및 제4 식별마커 영역의 상대적인 인쇄위치(좌우상하)도 하나의 구분자로써 이용될 수 있다. 식별마커 영역에는 숫자, 기호, 부호 등과 같이 다양한 문자들이 인쇄될 수도 있다. 또한, 식별마커는 QR 코드, 바코드 형태로 인쇄될 수도 있을 것이다.Relative printing positions (left, right, top and bottom) of the first identification marker region, the second identification marker region, the third identification marker region and the fourth identification marker region can also be used as one delimiter. In the identification marker area, various characters such as numbers, symbols, and symbols may be printed. In addition, the identification marker may be printed in the form of a QR code or a bar code.

도 9는 증강현실 시스템(1)에서 유사객체를 식별하는 상태를 나타낸 제2 예시도이다.9 is a second exemplary view showing a state in which similar objects are identified in the augmented reality system 1. Fig.

도 9를 참조하면, 서버(200)는 추가인식영역의 영상 차이점을 토대로 각각의 실제객체에 부여된 고유 식별자와, 각 실제객체의 현재위치정보를 모두 고려하여 각각의 실제객체를 식별할 수 있다. 즉, 사용자(증강현실 단말기(100))의 현재위치정보를 추가적으로 고려하여 실제객체를 식별할 수 있다.Referring to FIG. 9, the server 200 can identify each real object by considering both the unique identifier assigned to each real object and the current position information of each real object based on the image difference in the additional recognition area . That is, the actual object can be identified by further considering the current location information of the user (the augmented reality terminal 100).

예를 들면 복수의 실제객체가 소정의 이격거리를 유지할 경우, 유사도 값이 높은 실제객체라 할지라도 사용자의 현재위치정보를 이용하여 이를 식별할 수 있다. 여기에서 현재위치정보는 사용자의 절대적인 위치정보, 상대적인 위치정보, 이동방향, 가속도 및 시선의 방향 등을 모두 포함한다고 가정한다.For example, when a plurality of actual objects maintain a predetermined distance, the user can identify the object using the current location information even if the actual object has a high similarity value. Herein, it is assumed that the current position information includes the absolute position information of the user, relative position information, the moving direction, the acceleration, and the direction of the line of sight.

이때, 서버(200)는 현재위치정보로도 식별되지 않는 실제객체들을 추가적으로 식별하기 위해 추가인식영역을 선정하고 이 영역을 인식하여 실제객체들의 차이를 식별할 수도 있을 것이다.At this time, the server 200 may select an additional recognition area to further identify actual objects not identified by the current location information, and recognize the difference to identify differences between actual objects.

또한, 서버(200)는 각 실제객체의 현재위치정보를 토대로 추가인식영역의 후보위치를 결정할 수 있다.Also, the server 200 can determine the candidate position of the additional recognition area based on the current position information of each actual object.

즉, 도 9를 참조하면, 사용자가 제1 위치(P1)에 위치하고 정면에 위치한 실제객체를 응시할 경우, That is, referring to FIG. 9, when the user gazes at the actual object located at the first position P1 and located at the front,

서버(200)는 실제영상정보를 토대로 해당 실제객체와 사용자와의 이격거리를 판단한 후, 그 실제객체의 공간상의 좌표(x1,y1,z1)를 검출한다.The server 200 determines the distance between the real object and the user based on the actual image information, and then detects the coordinates (x1, y1, z1) on the space of the actual object.

공간상의 좌표(x1,y1,z1)에 위치하는 실제객체에는 복수의 추가인식영역이 미리 설정되어 있으므로, 서버(200)는 실제객체의 공간상의 좌표(x1,y1,z1), 즉 실제객체의 현재위치정보를 토대로 추가인식영역의 후보위치를 결정할 수 있다.Since the plurality of additional recognition areas are previously set in the actual object located at the coordinates (x1, y1, z1) on the space, the server 200 stores the coordinates (x1, y1, z1) The candidate position of the additional recognition area can be determined based on the current position information.

서버(200)는 공간상의 좌표(x1,y1,z1)에 미리 어떤 실제객체가 존재하는지와, 그 실제객체의 어떤 부분이 추가인식영역으로 지정되어 있는지를 미리 파악하고 있으므로, 단순히 추가인식영역의 후보위치만을 식별하여 객체를 식별할 수 있는 것이다. 이와 같은 방식은 추가인식영역을 식별하기 위한 연산량이 감소할 수 있는 장점이 있다.The server 200 grasps in advance which real object exists in the coordinates (x1, y1, z1) on the space and which part of the actual object is designated as the additional recognition area, It is possible to identify an object by identifying only a candidate position. Such a scheme has an advantage that the amount of calculation for identifying an additional recognition area can be reduced.

참고적으로, 실내공간이라고 가정하고 조명의 방향이 모두 일정하다고 가정하면, 유사한 실제객체라 할지라도 그 조명에 의한 그림자의 위치 및 크기는 서로 달라질 수 있다. 따라서 서버(200)는 사용자의 현재위치를 기준으로 각각의 실제객체의 그림자 위치 및 크기의 차이점을 추가정보로 이용하여 각각의 실제객체를 식별할 수도 있을 것이다.For reference, assuming indoor space and assuming that all directions of illumination are constant, the position and size of shadows due to the illumination may be different from each other even for similar real objects. Accordingly, the server 200 may identify each actual object using the difference between the shadow position and the size of each actual object as additional information based on the current position of the user.

한편, 실제영상정보의 실제객체에 각각 할당되어 표시되는 3차원 가상영상의 가상객체의 위치는, 실제객체와 소정의 이격거리를 유지하도록 자동 조절되어 증강현실 단말기(100)에 표시된다.On the other hand, the positions of the virtual objects of the three-dimensional virtual images allocated to the actual objects of the actual image information are automatically adjusted to maintain a predetermined distance from the actual objects and displayed on the augmented reality terminal 100.

또한, 각각의 가상객체 사이의 위치도 소정의 이격거리를 유지하도록 자동 조절되어 증강현실 단말기(100)에 표시된다.In addition, the positions between the virtual objects are automatically adjusted to maintain a predetermined separation distance, and displayed on the augmented reality terminal 100.

따라서 실제객체 및 가상객체간의 상호 위치관계를 고려하여 객체들이 서로 중첩되지 않도록 위치가 자동 조절되므로 사용자가 편리하게 원하는 가상객체의 정보를 확인할 수 있다. 즉, 가상객체를 집중력 있게 인지하는 시간이 길어지게 되어 광고효과가 상승할 수 있다.Therefore, since the position is automatically adjusted so that the objects are not overlapped with each other considering the mutual positional relationship between the actual object and the virtual object, the user can conveniently check the information of the desired virtual object. That is, it takes a long time to recognize the virtual objects with concentration, and the advertisement effect can be increased.

도 10은 증강현실 시스템(1)의 다른 동작원리를 나타낸 도면이다.10 is a view showing another operation principle of the augmented reality system 1. Fig.

도 10을 참조하여 증강현실 시스템(1)의 동작원리를 좀 더 상세히 설명하면 다음과 같다.The operation principle of the augmented reality system 1 will be described in more detail with reference to FIG.

제1 가상객체(Virtual Object 1)와 실제객체(Physical Object) 사이의 이격거리(D2)는,The distance D2 between the first virtual object (Virtual Object 1) and the actual object (Physical Object)

제1 가상객체(Virtual Object 1)의 중심점과 제1 가상객체(Virtual Object 1)의 최외곽영역 사이의 거리(R1)와, 실제객체(Physical Object)의 중심점과 실제객체(Physical Object)의 최외곽영역 사이의 거리(R3)의 합보다 더 긴 거리를 갖도록 자동 설정된다.The distance R1 between the center point of the first virtual object 1 and the outermost area of the first virtual object 1 and the distance R1 between the center point of the actual object and the center of the physical object Is set to be longer than the sum of the distance R3 between the outer areas.

또한, 제2 가상객체(Virtual Object 2)와 실제객체(Physical Object) 사이의 이격거리(D1)는, 제2 가상객체(Virtual Object 2)의 중심점과 제2 가상객체(Virtual Object 2)의 최외곽영역 사이의 거리(R2)와, 실제객체(Physical Object)의 중심점과 실제객체(Physical Object)의 최외곽영역 사이의 거리(R3)의 합보다 더 긴 거리를 갖도록 자동 설정된다.The distance Dl between the second virtual object 2 and the physical object is a distance between the center point of the second virtual object 2 and the center of the second virtual object 2 The distance R2 between the outer regions and the distance R3 between the center point of the physical object and the outermost region of the physical object.

또한, 제1 가상객체(Virtual Object 1)와 제2 가상객체(Virtual Object 2) 사이의 이격거리(D1)는, 제1 가상객체(Virtual Object 1)의 중심점과 제1 가상객체(Virtual Object 1)의 최외곽영역 사이의 거리(R1)와, 제2 가상객체(Virtual Object 2)의 중심점과 제2 가상객체(Virtual Object 2)의 최외곽영역 사이의 거리(R2)의 합보다 더 긴 거리를 갖도록 자동 설정된다.The distance D1 between the first virtual object 1 and the second virtual object 2 is calculated by dividing the distance between the center point of the first virtual object 1 and the first virtual object 1 And a distance R2 between the center point of the second virtual object 2 and the outermost region of the second virtual object 2 (Virtual Object 2), which is longer than the sum of the distance R1 between the outermost region of the second virtual object .

제1 가상객체(Virtual Object 1) 및 제2 가상객체(Virtual Object 2)는 수평방향 및 수직방향으로 이동하며, 다른 객체와 중복되어 사용자의 시야에서 벗어나지 않도록 3차원 공간상에서 위치가 자동 조절 - x , y , z 축을 기준으로 위치가 조절됨 - 된다.The first virtual object (Virtual Object 1) and the second virtual object (Virtual Object 2) move in the horizontal direction and the vertical direction and are automatically overlapped with other objects to automatically adjust the position in the three-dimensional space so as not to deviate from the user's view. , the position is adjusted with respect to the y and z axes.

한편, 실제객체(Physical Object) 및 제1 가상객체(Virtual Object 1) 사이와, 실제객체(Physical Object) 및 제2 가상객체(Virtual Object 2) 사이에는 각각의 가상선(L1, L2)이 동적으로 생성되어 표시된다.On the other hand, between the physical object and the first virtual object 1, and between the physical object and the second virtual object 2, the virtual lines L1 and L2 are dynamic As shown in FIG.

가상선(L1, L2)은 많은 수의 가상객체가 화면상에 존재할 때, 실제객체(Physical Object)와의 연관성을 지시하기 위해 표시되며 가상선(L1, L2)의 굵기, 투명도, 색상은 사용자의 시선에 따라 자동으로 변경될 수 있다. When a large number of virtual objects exist on the screen, the virtual lines L1 and L2 are displayed to indicate the association with the physical object, and the thickness, transparency, and color of the virtual lines L1 and L2 are It can be changed automatically according to the line of sight.

예를 들면 사용자가 제1 가상객체(Virtual Object 1)를 소정의 시간 이상 응시할 경우 증강현실 단말기(100)가 제1 가상객체(Virtual Object 1)의 응시여부를 감지한 후, 실제객체(Physical Object)와 제1 가상객체(Virtual Object 1) 사이의 가상선(L1)의 굵기를 다른 가상선(L2)보다 더 굵게 변경하고, 투명도도 더 낮게 변경하고, 색상도 붉은색 등과 같이 강조될 수 있는 색상으로 자동 변경하도록 동작할 수도 있다.For example, when the user gazes at the first virtual object (Virtual Object 1) for a predetermined time or longer, the augmented reality terminal 100 detects whether or not the first virtual object 1 is examined, The thickness of the virtual line L1 between the first virtual object 1 and the first virtual object 1 is changed to be thicker than the other virtual line L2 and the transparency is changed to be lower, It may also operate to automatically change to color.

이때, 실제객체(Physical Object)에 제1 가상객체(Virtual Object 1) 및 제2 가상객체(Virtual Object 2)가 모두 할당된다고 가정하면, 실제객체(Physical Object)에 할당된 복수의 가상객체의 거리는 상술한 바와 같이 소정의 이격거리(D2, D3)를 각각 유지하되, 더 세부적인 정보를 갖는 가상객체가 실제객체(Physical Object)에 상대적으로 더 가까이에 배치된다.At this time, assuming that the first virtual object 1 and the second virtual object 2 are all allocated to the physical object, the distance of the plurality of virtual objects allocated to the physical object is As described above, virtual objects having more detailed information are held closer to a physical object while maintaining a predetermined distance D2 and D3, respectively.

예를 들어 제1 가상객체(Virtual Object 1)의 정보가 더 세부적인 정보이고, 제2 가상객체(Virtual Object 2)의 정보는 상대적으로 개념적인 정보라고 가정하면,For example, if the information of the first virtual object (Virtual Object 1) is more detailed information and the information of the second virtual object (Virtual Object 2) is relatively conceptual information,

제1 가상객체(Virtual Object 1)와 실제객체(Physical Object) 사이의 이격거리(D2)보다 제2 가상객체(Virtual Object 2)와 실제객체(Physical Object) 사이의 이격거리(D3)가 더 길게 자동 설정되어, 사용자가 세부적인 정보를 빠르게 인지할 수 있다.The distance D3 between the second virtual object 2 and the physical object is longer than the distance D2 between the first virtual object 1 and the physical object It is automatically set up so that the user can quickly recognize detailed information.

또한, 실제객체(Physical Object)에 복수의 가상객체가 할당되어 있을 경우, 연관성이 높을수록 가상객체 사이의 거리가 더 가까이 배치되고, 연관성이 낮을수록 가상객체 사이의 거리가 더 멀리 자동 배치될 수 있다.Also, when a plurality of virtual objects are allocated to a physical object, the distance between the virtual objects is arranged closer to the virtual object, and the distance between the virtual objects is arranged more automatically have.

도 11 및 도 11a는 증강현실 시스템(1)의 또 다른 동작원리를 나타낸 도면이다.11 and 11A are diagrams showing still another operation principle of the augmented reality system 1. Fig.

도 11 및 도 11a를 참조하면, 실제영상정보의 실제객체에 각각 할당되어 표시되는 3차원 가상영상의 가상객체의 정보량은, 실제객체와 사용자와의 거리에 따라 동적으로 자동 조절되어 증강현실 단말기(100)에 표시될 수 있다.11 and 11A, the amount of information of a virtual object of a three-dimensional virtual image allocated and displayed to real objects of the actual image information is automatically dynamically adjusted according to the distance between the actual object and the user, 100 < / RTI >

따라서 사용자가 객체에 가까이 접근하였을 때 가상객체가 좀 더 세부적인 정보를 표시하므로, 사용자가 편리하게 원하는 가상객체의 정보를 확인할 수 있다. 즉, 사용자가 해당 가상객체를 집중력 있게 인지하는 시간이 길어지게 되어 정보전달 효과가 상승할 수 있다.Therefore, when the user approaches the object, the virtual object displays more detailed information, so that the user can conveniently check the information of the desired virtual object. That is, the time for the user to concentrate on the virtual object is prolonged, and the information transfer effect can be increased.

일반적으로 사용자는 관심있는 객체에 대한 정보를 좀 더 가까이에서 보려하는 경향이 있으므로, 사용자가 관심 객체와 멀리 떨어져 있을 때는 추상적으로 정보를 표시하고, 사용자가 관심 객체에 근접할 경우 좀 더 상세한 정보를 표시하도록 동작한다.In general, the user tends to look closer at the information about the object of interest, so that when the user is far away from the object of interest, the information is abstractly displayed, and when the user is close to the object of interest, .

사용자와 실제객체 또는 가상객체 사이의 거리가 소정의 이격거리(D1) 내에 도달할 때부터 실제객체에 할당된 가상객체가 표시되기 시작하며, 사용자와 실제객체 또는 가상객체 사이의 거리가 가까워질수록 좀 더 세부적인 정보의 가상객체가 표시된다.A virtual object assigned to an actual object starts to be displayed from a time when a distance between a user and a real object or a virtual object reaches within a predetermined separation distance D1 and the closer the distance between the user and the actual or virtual object becomes A virtual object of more detailed information is displayed.

즉, 하나의 실제객체에 할당된 가상객체의 정보는 계층화되어 있다. 도 8a에 도시된 바와 같이, That is, information of a virtual object allocated to one real object is layered. As shown in FIG. 8A,

가장 추상적인 가상객체(A)는 사용자가 소정의 이격거리(D1)에 진입할 때 표시되고, 사용자가 실제객체 또는 가상객체에 좀 더 접근(D2)할 경우 좀 더 구체적인 정보를 갖는 가상객체(A1, A2)가 표시된다. 또한, 사용자가 실제객체 또는 가상객체에 가장 가까이 접근(D3)할 경우 가장 구체적인 정보를 갖는 가상객체(A1-1, A1-2, A2-1, A2-2)가 표시된다.The most abstract virtual object A is displayed when the user enters a predetermined separation distance D1 and becomes a virtual object having more specific information when the user approaches (D2) the actual or virtual object more A1, A2) are displayed. Also, when the user approaches (D3) closest to the actual object or the virtual object, the virtual objects (A1-1, A1-2, A2-1, A2-2) having the most specific information are displayed.

예를 들어 사용자의 전방에 실제객체로써 자동 판매기가 배치되어 있다고 가정하면,For example, assuming that a vending machine is placed as a real object in front of the user,

사용자가 소정의 이격거리(D1)내로 진입할 때, 자동 판매기에 할당된 가상객체가 표시된다. 여기에서 가상객체는 자동 판매기의 아이콘으로 가정한다.When the user enters the predetermined separation distance D1, the virtual object allocated to the vending machine is displayed. Here, the virtual object is assumed to be the icon of the vending machine.

다음으로 사용자가 자동 판매기에 좀 더 접근(D2)할 경우, 자판기에서 판매되고 있는 음료수 제품들의 아이콘이 더 상세한 정보의 가상객체로써 표시될 수 있다.Next, when the user approaches the vending machine more (D2), the icons of the vending products sold in the vending machine can be displayed as virtual objects of more detailed information.

마지막으로 사용자가 자동 판매기에 가장 가까이 접근(D3)할 경우, 각 음료수 제품의 칼로리, 성분 등이 더 상세한 정보의 가상객체로써 표시될 수 있다.Finally, when the user closest approaches the vending machine (D3), the calories, ingredients, etc. of each beverage product can be displayed as a virtual object of more detailed information.

다른 예를 들면, 사용자의 전방에 실제객체로써 자동차 판매점이 있다고 가정하면,As another example, assuming that there is an automobile store as a real object in front of the user,

사용자가 소정의 이격거리(D1)내로 진입할 때, 자동차 판매점에 할당된 가상객체가 표시된다. 여기에서 가상객체는 판매되는 자동차 브랜드 아이콘으로 가정한다.When the user enters the predetermined separation distance D1, the virtual object allocated to the car dealership is displayed. Here, the virtual object is assumed to be a car brand icon to be sold.

다음으로 사용자가 자동차 판매점에 좀 더 접근(D2)할 경우, 판매되고 있는 다양한 종류의 자동차 아이콘이 더 상세한 정보의 가상객체로써 표시될 수 있다. 이때, 현재 전시되어 있는 자동차, 즉 실제객체가 있을 경우 그 실제객체 주변에 가상객체가 표시될 수 있으며, 전시되어 있지 않는 자동차, 즉 실제객체가 없을 경우에도 주변영역에 가상객체가 표시될 수 있다.Next, when the user accesses the car dealer more (D2), the various kinds of car icons being sold can be displayed as virtual objects of more detailed information. At this time, a virtual object can be displayed in the vicinity of the currently displayed car, that is, an actual object if there is an actual object, and a virtual object can be displayed in the surrounding area even when the car is not displayed .

마지막으로 사용자가 자동차 판매점에 가장 가까이 접근(D3)할 경우, 판매되고 있는 자동차의 제원, 가격, 예상 출고일 등이 좀 더 상세한 정보의 가상객체로써 표시될 수 있다.Finally, when the user closest approach (D3) to the car dealership, the specification of the vehicle being sold, the price, and the expected date of shipment can be displayed as virtual objects of more detailed information.

한편, 증강현실 단말기(100)은 사용자가 확인하고 싶은 가상객체 또는 실제객체를 응시한 상태에서 진동이 발생했을 경우, 진동의 변화율에 대응하는 이동거리를 산출한 후 응시방향과 산출된 이동거리를 토대로 가상객체의 정보량을 재설정하여 표시할 수 있다.Meanwhile, when a vibration occurs in a state where a user looks at a virtual object or an actual object that the user wants to check, a movement distance corresponding to a rate of change of vibration is calculated, and then a gaze direction and a calculated movement distance are calculated The amount of information of the virtual object can be reset and displayed.

즉, 사용자가 직접 이동하지 않고 진동을 통해 가상으로 이동했다고 가정하거나, 진동으로 이동거리에 가중치를 부여하고, 그 가상 이동거리에 따라 가상객체의 정보량을 재설정하여 표시할 수 있다.That is, it is assumed that the user has moved by virtual vibration without directly moving, or a weight is given to the movement distance by vibration, and the information amount of the virtual object is reset according to the virtual movement distance and displayed.

즉, 진동의 변화율이 크다는 것은 사용자가 달리거나 빠르게 움직이는 것이며, 진동의 변화율이 작다는 것은 사용자가 천천히 움직이는 것에 해당하는 것이므로, 이를 토대로 이동거리를 산출할 수 있다. 따라서 사용자가 실제 움직이지 않고 고개 등을 위 아래로 흔들면서 진동을 부여하여 가상의 이동거리를 반영할 수도 있을 것이다.That is, the large change rate of the vibration means that the user is running or moving fast, and the small change rate of the vibration corresponds to the user moving slowly, so that the travel distance can be calculated based on this. Therefore, the user may be able to reflect the virtual movement distance by imparting vibration while shaking the head up and down without actually moving.

사용자가 확인하고 싶은 방향을 응시한 상태, 예를 들어 사용자가 오른쪽으로 고개를 돌리고 오른쪽을 바라보는 동시에 진동이 계속해서 발생할 경우, 증강현실 단말기(100)은 사용자의 응시방향과 진동을 토대로 이동방향 및 이동거리를 산출한다.When the user gazes at a direction to be checked by the user, for example, when the user turns his or her head to the right and continues to vibrate while looking at the right side, the augmented reality terminal 100, based on the gazing direction and the vibration of the user, And the movement distance.

즉, 증강현실 단말기(100)는 내장된 센서를 통해 사용자의 머리 회전을 감지하고, 진동을 감지한 후 가상의 현재위치를 산출하는데, 걷거나 뛰는 행동을 진동의 변화율을 통해 그 이동거리를 파악한다. That is, the augmented reality terminal 100 detects the head rotation of the user through the built-in sensor, calculates the virtual current position after detecting the vibration, and determines the movement distance of the walking or running behavior through the rate of change of vibration .

증강현실 단말기(100)은 사용자가 응시한 방향을 감지할 때, 머리의 회전방향을 토대로 응시방향을 감지하도록 구성될 수 있고, 눈동자의 이동방향을 감지하여 응시방향을 감지하도록 구성될 수 있을 것이다.The augmented reality terminal 100 may be configured to detect the gazing direction based on the direction of rotation of the head when detecting the gazing direction of the user and to sense the gazing direction by sensing the moving direction of the pupil .

또한, 머리의 회전방향 및 눈동자의 이동방향을 동시에 감지하고, 두 감지결과에 우선비중을 달리하여 응시방향을 보다 정밀하게 산출할 수 있다. 즉, 머리의 회전으로 인한 회전각도 감지에 50% 내지 100%의 비중을 부여하고, 눈동자의 이동방향에 0% 내지 60%의 비중을 부여하여 응시방향을 산출하도록 구성될 수 있을 것이다. Further, it is possible to simultaneously detect the rotational direction of the head and the moving direction of the pupil, and calculate the gaze direction more precisely by differentiating the specific gravity first from the two detection results. That is, it is possible to provide a specific gravity of 50% to 100% for detecting the rotation angle due to rotation of the head, and to calculate the gaze direction by giving a specific gravity of 0% to 60% to the moving direction of the pupil.

또한, 증강현실 단말기(100)에서 이동거리확장 설정모드를 선택하고 실행하여, 산출된 가상 이동거리의 2배 내지 100배의 거리 가중치가 반영되도록 사용자가 설정할 수도 있다.Also, the user can set the moving distance extension setting mode in the augmented reality terminal 100 so that the distance weight is 2 to 100 times the calculated virtual moving distance.

또한, 증강현실 단말기(100)은 진동의 변화율에 대응하는 이동거리를 산출함에 있어서, 노이즈 값을 제외하기 위해, 진동 크기의 상위값 10%와 하위값 20%를 제외하고, 나머지 진동값의 변화율을 토대로 이동거리를 산출할 수 있다.In order to exclude the noise value, the augmented reality terminal 100 may exclude the upper value 10% of the vibration magnitude and the lower value 20% and calculate the change rate of the remaining vibration value It is possible to calculate the moving distance.

결과적으로 사용자는 실제로 실제객체 또는 가상객체로 접근하지 않거나, 아주 조금 접근하더라도 실제객체 또는 가상객체 바로 앞에 접근한 것과 같은 정보량을 갖는 가상객체를 확인할 수 있다.As a result, the user can identify a virtual object that has the same amount of information as a real object or a virtual object, even if the user does not actually access the actual object or the virtual object or approaches the virtual object.

도 12는 증강현실 시스템(1)의 증강현실 단말기(100)의 구성도이고, 도 12a는 증강현실 단말기(100)의 예시도이다.12 is a configuration diagram of the augmented reality terminal 100 of the augmented reality system 1, and Fig. 12A is an exemplary view of the augmented reality terminal 100. As shown in Fig.

도 12 및 도 12a를 참조하면, 증강현실 단말기(100)는 투명 디스플레이(110)와, 좌측 전방 카메라(121)와, 우측 전방 카메라(122)와, 좌측 3D센서(131)와, 우측 3D센서(132)와, 위성모듈(141)과, 통신모듈(142)과, 9축 센서(143)와, 배터리(144)와, 인식 카메라(145)와, 제어부(150)를 포함하여 구성된다.12 and 12A, the augmented reality terminal 100 includes a transparent display 110, a left front camera 121, a right front camera 122, a left 3D sensor 131, a right 3D sensor 131, Axis sensor 143, a battery 144, a recognition camera 145, and a control unit 150. The control unit 150 includes a control unit 132, a satellite module 141, a communication module 142, a nine-axis sensor 143,

투명 디스플레이(110)는 투명한 재질의 디스플레이로써 증강현실 단말기(100)의 렌즈를 구성한다. 따라서 사용자가 전방을 주시한 상태에서 실제객체와 가상객체를 동시에 확인할 수 있다. 이때 투명 디스플레이(110)는 렌즈 전체 또는 렌즈 일부에 탑재될 수 있다.The transparent display 110 is a transparent material and constitutes a lens of the augmented reality terminal 100. Therefore, the user can simultaneously recognize the real object and the virtual object while looking ahead. At this time, the transparent display 110 may be mounted on the entire lens or a part of the lens.

좌측 전방 카메라(121)는 안경의 좌측에 탑재되어 전방의 실제영상정보를 획득한다. 또한, 우측 전방 카메라(122)는 안경의 우측에 탑재되어 전방의 실제영상정보를 획득한다.The left front camera 121 is mounted on the left side of the glasses to acquire actual image information of the front side. Further, the right front camera 122 is mounted on the right side of the glasses to acquire the actual image information of the front side.

좌측 3D센서(131) 및 우측 3D센서(132)는 좌측 전방 카메라(121) 및 우측 전방 카메라(122)와 연동되어 전방의 3D영상을 촬영할 수 있도록 동작한다. 즉 촬영된 3D 영상은 내장된 메모리에 저장되거나 서버(200)로 전송될 수 있다. 참고적으로 실시예에 따라 전방 카메라 및 3D센서가 하나씩 배치되어 실제영상정보를 획득하도록 구성될 수도 있을 것이다. 전방 카메라는 적외선 영역 및 가시광선 영역을 모두 촬영할 수 있도록 구성되는 것이 바람직하다.The left 3D sensor 131 and the right 3D sensor 132 operate in conjunction with the left front camera 121 and the right front camera 122 so as to take a 3D image of the front side. In other words, the photographed 3D image can be stored in the built-in memory or transmitted to the server 200. For reference, the front camera and the 3D sensor may be arranged one by one according to the embodiment to obtain actual image information. It is preferable that the front camera is configured to be able to photograph both the infrared region and the visible light region.

위성모듈(141)은 위성위치정보를 획득하기 위해 구비되고, 통신모듈(142)은 와이파이(Wi-Fi) 통신모듈, 블루투스 통신모듈, 광대역(3G, 4G, LTE) 통신모듈이 탑재될 수 있다.The communication module 142 may be equipped with a Wi-Fi communication module, a Bluetooth communication module, and a broadband (3G, 4G, LTE) communication module .

9축 센서(143)는 가속도 3축, 관성 3축, 지자기 3축으로 총 9축의 값이 측정되기 때문에 9축 센서라고 지칭되며, 온도값에 대한 보정을 위해 온도센서가 추가로 구비될 수 있다. 9축 센서(143)는 증강현실 단말기(100)의 3차원적인 움직임을 감지하여 사용자의 응시방향, 이동방향, 기울기 등을 감지할 수 있다.The 9-axis sensor 143 is referred to as a 9-axis sensor because the values of 9 axes, i.e., 3 axes of acceleration, 3 axes of inertia and 3 axes of geomagnetism are measured, and a temperature sensor may be additionally provided for correcting the temperature value . The 9-axis sensor 143 senses the three-dimensional movement of the augmented reality terminal 100, and can sense a gazing direction, a moving direction, a tilt, and the like of the user.

배터리(144)는 증강현실 단말기(100)에 구동전원을 공급할 수 있도록 구성되며 충전 가능한 리튬이온 배터리나, 의사 캐패시터로 구성될 수 있다.The battery 144 may be configured to be capable of supplying driving power to the augmented reality terminal 100, and may include a rechargeable lithium ion battery or a pseudo capacitor.

참고적으로, 배터리(144)는 복수의 의사 캐패시터(Pseudo Capacitor)로 구성될 수 있는데, 의사 캐패시터(Pseudo Capacitor)는 전극에서의 이차원적인 산화-환원 반응을 이용하므로 일반적인 캐패시터보다 우수한 축전용량을 가지며 수명이 상대적으로 긴 장점이 있다. For reference, the battery 144 may be composed of a plurality of pseudo capacitors. The pseudo capacitors use a two-dimensional oxidation-reduction reaction at the electrodes, The advantage is that the life span is relatively long.

인식 카메라(145)는 사용자의 눈동자의 움직임과, 눈동자의 응시방향, 눈의 크기변화를 감지한다. 인식 카메라(145)는 좌측 및 우측에 각각 배치되는 것이 가장 바람직하며 어느 한 방향에만 배치될 수도 있다. The recognition camera 145 detects the movement of the user's eyes, the gazing direction of the eyes, and the size of the eyes. The recognition camera 145 is most preferably disposed on the left and right sides, respectively, and may be disposed in only one direction.

기본적으로 인식 카메라(145)는 사용자의 눈이 위치한 방향으로 촬영되고 있으나, 투명 디스플레이(110)에서 반사되는 눈의 영상을 촬영하여 눈동자의 움직임, 응시방향, 크기변화 등을 감지하도록 구성될 수도 있을 것이다.Basically, although the recognition camera 145 is photographed in the direction in which the user's eyes are located, the recognition camera 145 may be configured to photograph an image of the eye reflected by the transparent display 110 to detect movement of the pupil, a gazing direction, will be.

제어부(150)는 투명 디스플레이(110), 좌측 전방 카메라(121), 우측 전방 카메라(122), 좌측 3D센서(131), 우측 3D센서(132), 위성모듈(141), 통신모듈(142), 9축 센서(143), 배터리(144), 인식 카메라(145)의 동작을 제어한다.The control unit 150 includes a transparent display 110, a left front camera 121, a right front camera 122, a left 3D sensor 131, a right 3D sensor 132, a satellite module 141, a communication module 142, The nine-axis sensor 143, the battery 144, and the recognition camera 145, as shown in FIG.

한편, 제어부(150)는 충전전력의 크기에 따라 복수의 의사 캐패시터 중 적어도 어느 하나를 선택적으로 충전하도록 구성될 수 있다. 그 충전방식에 대해서 상세히 설명하면 다음과 같다.Meanwhile, the controller 150 may be configured to selectively charge at least one of the plurality of pseudo-capacitors according to the magnitude of the charging power. The charging method will be described in detail as follows.

복수의 의사 캐패시터가 3개 배치될 경우, 즉 제1 의사 캐패시터, 제2 의사 캐패시터 및 제3 의사 캐패시터가 배치된다고 가정한다. 이때 제1 의사 캐패시터의 충전용량이 가장 크고, 제2 의사 캐패시터의 충전용량은 제1 의사 캐패시터보다 작고, 제3 의사 캐패시터의 충전용량은 제2 의사 캐패시터보다 더 작다고 가정한다.It is assumed that when three pseudo-capacitors are arranged, that is, a first pseudo capacitor, a second pseudo capacitor, and a third pseudo capacitor are arranged. It is assumed that the charge capacity of the first pseudo capacitor is the largest, the charge capacity of the second pseudo capacitor is smaller than that of the first pseudo capacitor, and the charge capacity of the third pseudo capacitor is smaller than that of the second pseudo capacitor.

제어부(150)는 제1 의사 캐패시터, 제2 의사 캐패시터 및 제3 의사 캐패시터의 충전량을 감지한 후, 충전량이 가장 높은 순서대로 구동전력을 공급한다.The controller 150 detects the charged amount of the first pseudo capacitor, the second pseudo capacitor, and the third pseudo capacitor, and then supplies the driving power in the order of the highest charge amount.

예를 들면, 제1 의사 캐패시터의 충전량이 60%이고, 제2 의사 캐패시터의 충전량이 70%이고, 제3 의사 캐패시터의 충전량이 80%일 경우,For example, when the charge amount of the first pseudo capacitor is 60%, the charge amount of the second pseudo capacitor is 70%, and the charge amount of the third pseudo capacitor is 80%

제3 의사 캐패시터의 전력을 우선으로 공급하다가, 충전량이 40%에 도달하면 제3 의사 캐패시터의 전력공급을 차단하고 제2 의사 캐패시터의 전력을 공급한다. 또한, 제2 의사 캐패시터의 충전량이 40%에 도달하면 제2 의사 캐패시터의 전력공급을 차단하고 제1 의사 캐패시터의 전력을 공급한다.The power of the third pseudo capacitor is supplied first, and when the amount of charge reaches 40%, the power supply of the third pseudo capacitor is interrupted and the power of the second pseudo capacitor is supplied. Further, when the charged amount of the second pseudo capacitor reaches 40%, the power supply of the second pseudo capacitor is interrupted and the power of the first pseudo capacitor is supplied.

또한, 제1 내지 제3 의사 캐패시터의 충전량이 모두 40% 이하 일 경우, 제어부(150)는 제1 내지 제3 의사 캐패시터를 병렬로 연결하여 구동전력을 공급한다.If the first to third pseudo-capacitors are all charged at 40% or less, the controller 150 connects the first to third pseudo capacitors in parallel to supply the driving power.

도 13은 증강현실 시스템(1)의 안전모드가 동작하는 상태도이다.13 is a state diagram in which a safe mode of the augmented reality system 1 operates.

증강현실 시스템(1)은 사용자의 안전을 위해 안전모드가 설정될 수 있다.The augmented reality system 1 can be set to a safe mode for the user's safety.

안전모드가 설정될 경우, 증강현실 단말기(100)은 전방 카메라(121, 123)를 통해 사용자에게 접근하는 실제객체를 감지한다. 즉, 자동차, 자전거 등과 같이 사용자에게 위험이 될 수 있는 실제객체가 사용자 방향으로 빠르게 접근하는 것을 감지하여 위험상황을 투명 디스플레이(110)에 표시할 수 있다.When the safety mode is set, the augmented reality terminal 100 senses an actual object approaching the user through the front cameras 121 and 123. [ That is, it is possible to display a dangerous situation on the transparent display 110 by sensing that a real object, such as a car, a bicycle, etc., which is dangerous to the user, is approaching quickly to the user's direction.

도 13을 참조하면, 사용자가 전방을 주시하고 있는 상태의 화면이 도시되어 있는데, 중앙에 점선으로 표시된 사각영역은 시선집중구역으로 정의되며 점선의 테두리로 그 영역이 정의되어 있다. 이때, 전방 카메라(121, 122)에서 자동차, 자전거 등과 같이 사용자에게 위험이 될 수 있는 실제객체가 사용자 방향으로 빠르게(소정의 속도 이상) 접근하는 것을 감지할 경우,Referring to FIG. 13, a screen in a state in which a user is looking forward is shown. A rectangular area indicated by a dotted line in the center is defined as a sight line concentrated area, and the area is defined by a dotted line frame. In this case, when the front cameras 121 and 122 detect that the actual object, which may be a danger to the user such as a car or a bicycle, approaches the user in a fast direction (more than a predetermined speed)

시선집중구역의 크기가 자동으로 확장되고, 화면에 표시되고 있는 가상객체는 시선집중구역의 외곽방향으로 자동이동하거나, 그 투명도가 더욱 강화되어 사용자가 접근하는 실제객체를 용이하게 인지할 수 있도록 동작한다. The size of the sight line concentrated area is automatically expanded and the virtual object displayed on the screen automatically moves to the outward direction of the sight line concentrated area or the transparency is further strengthened so that the user can easily recognize the actual object accessed by the user do.

사용자에게 접근하는 실제객체의 속도에 비례(정비례 또는 제곱에 비례)하여 시선집중구역의 크기, 가상객체의 투명도, 외곽방향으로 이동하는 가상객체의 이동속도가 자동 결정될 수 있다.The size of the visual attention zone, the transparency of the virtual object, and the moving speed of the virtual object moving in the outward direction can be automatically determined in proportion to the speed of the actual object accessing the user (proportional to the direct proportion or square).

또한, 인식 카메라(145)가 사용자의 눈동자의 방향을 감지할 경우, 시선집중구역은 눈동자의 방향에 따라 자동 이동하도록 동작한다. 즉, 사용자의 눈이 오른쪽을 응시하고 있을 경우 시선집중구역은 오른쪽 방향으로 이동한 상태이다. 이때, 전방 카메라(121, 123)에서 자동차, 자전거 등과 같이 사용자에게 위험이 될 수 있는 실제객체가 사용자 방향으로 접근 - 정면에서 접근 - 하는 것을 감지할 경우, 시선집중구역은 상술한 바와 같은 안전동작을 진행하되, 사용자의 정면방향으로 시선집중구역이 자동이동한다.Further, when the recognition camera 145 detects the direction of the user's eyes, the eye-focused area operates to automatically move in accordance with the direction of the eyes. That is, when the eye of the user is gazing to the right, the eye-focused area is moved to the right direction. In this case, when the front cameras 121 and 123 detect that an actual object, which may be a danger to the user such as an automobile or a bicycle, is approaching from the front to the user, the sight line concentrated area may include a safety operation And the eye-focused area automatically moves in the front direction of the user.

즉, 시선집중구역은 사용자에게 빠르게 접근하는 실제객체의 방향으로 자동이동하도록 설정될 수도 있을 것이다.That is, the eye-focused area may be set to automatically move in the direction of the actual object that is rapidly approaching the user.

또한, 사용자에게 위험이 될 수 있는 실제객체에 새로운 가상객체가 할당되어 표시되고 실제객체(Physical Object)와의 연관성을 지시하기 위한 가상선이 표시될 수 있다. 이때 새로운 가상객체는 위험을 지시하는 아이콘, 문자 등으로 표시될 수 있으며 접근속도가 가상객체로써 추가 표시될 수도 있을 것이다.In addition, a new virtual object may be assigned to a real object that may be a risk to the user, and a virtual line may be displayed to indicate the association with a physical object. At this time, a new virtual object may be displayed as an icon, a character indicating danger, and the access speed may be additionally displayed as a virtual object.

참고적으로 인식 카메라(145)는 사용자의 눈동자의 움직임과, 눈동자의 응시방향, 눈의 크기변화를 감지할 수 있으므로, 이러한 눈동자의 크기변화를 토대로 동작명령을 지시할 수 있다. For reference, the recognition camera 145 can detect the movement of the user's pupil, the gaze direction of the pupil, and the change in the size of the eyes, and thus can instruct an operation command based on the change in size of the pupil.

예를 들면 사용자가 눈을 소정의 시간동안 크게 뜰 때마다 점차적으로 하위 정보에 해당하는 가상정보를 표시하고, 눈을 소정의 시간동안 작게 뜰 때마다 점차적으로 상위 정보에 해당하는 가상정보를 표시하도록 지시될 수 있다. 또한, 인식 카메라(145)의 명령 인식률을 향상시키기 위해 사용자의 눈썹에 지시용 눈썹을 부착할 수도 있다. 지시용 눈썹은 소정의 적외선 파장을 반사하는 반사도료가 코팅되어 있으며, 인식 카메라(145)는 그 적외선 파장을 인식할 수 있도록 구성되어 명령 인식율을 향상시킬 수도 있을 것이다.For example, every time the user opens his or her eyes for a predetermined time, the virtual information corresponding to the lower information is gradually displayed, and the virtual information corresponding to the upper information is gradually displayed every time the eyes are opened for a predetermined time Can be instructed. Further, in order to improve the recognition rate of the recognition camera 145, an instruction eyebrow may be attached to a user's eyebrow. The pointing eyebrow may be coated with a reflective paint that reflects a predetermined infrared wavelength, and the recognition camera 145 may be configured to recognize the infrared wavelength to improve the command recognition rate.

도 14는 증강현실 시스템(1)의 오버헤드 뷰 모드(Overhead View Mode)가 동작하는 상태도이다.14 is a state diagram in which the overhead view mode of the augmented reality system 1 operates.

도 14를 참조하면, 증강현실 시스템(1)은 오버헤드 뷰 모드(Overhead View Mode)가 설정될 수 있다.Referring to FIG. 14, an augmented reality system 1 may have an overhead view mode.

오버헤드 뷰 모드(Overhead View Mode)는 사용자의 머리 위에서 촬영되어 합성된 영상이 투명 디스플레이(110)에 표시되는 모드를 의미한다.The overhead view mode refers to a mode in which a composite image photographed on the user's head is displayed on the transparent display 110.

즉, 도면에 미도시되었으나 증강현실 단말기(100)에는 적외선 영역 및 가시광선 영역을 촬영할 수 있는 복수의 뷰 카메라가 안경 프레임을 따라 추가적으로 배열될 수 있다. 따라서 복수의 뷰 카메라에서 촬영된 영상을 합성하여 사용자의 시야에 제공할 수 있는데, 주간 뿐만 아니라 특히 야간에는 사용자가 안전하게 이동할 수 있는 발바닥 궤적을 표시할 수 있다. 이때, 발바닥 궤적은 소정의 이전 위치를 기준으로한 지면의 높이가 표시되어 사용자가 보다 안전하게 이동하는데 도움을 줄 수 있다.That is, although not shown in the figure, a plurality of view cameras capable of photographing an infrared region and a visible light region may be additionally arranged along the spectacle frame. Accordingly, the images photographed by the plurality of view cameras can be synthesized and provided to the user's field of view. In addition to the daytime, especially at night, the user can safely move the footprint. At this time, the height of the ground surface based on a predetermined previous position is displayed on the soles of the feet, which can help the user to move more safely.

또한, 증강현실 시스템(1)은 와이파이 통신모듈이 내장되며 실내의 공간에 일정한 간격으로 배치되는 복수의 센싱부(300)를 더 포함하여 구성될 수 있다.In addition, the augmented reality system 1 may further include a plurality of sensing units 300, each of which includes a Wi-Fi communication module and is disposed at a predetermined interval in a room.

복수의 센싱부(300)는 실내에서 증강현실 단말기(100)의 위치를 감지할 수 있도록 선택적으로 배치될 수 있으며,The plurality of sensing units 300 may be selectively arranged to sense the position of the augmented reality terminal 100 in the room,

복수의 센싱부(300)는 증강현실 단말기(100)에서 주기적으로 출력되는 와이파이 핫스팟(WIFI HOTSPOT) 신호를 감지할 때마다 그 감지정보를 서버(200)로 전송하여, 서버(200)에서 복수의 센싱부(300)의 절대위치를 기준으로 증강현실 단말기(100)의 상대적 위치를 파악할 수 있을 것이다.The plurality of sensing units 300 transmits the sensing information to the server 200 every time it detects a WIFI HOTSPOT signal periodically output from the augmented reality terminal 100, The relative position of the augmented reality terminal 100 can be determined on the basis of the absolute position of the sensing unit 300.

상술한 바와 같이 제안한 시스템에서는 실외에서는 위성위치정보를 바탕으로 현재위치정보를 획득하고, 실내에서는 와이파이 신호를 이용하여 현재위치정보를 획득하는 방식을 설명하였다.As described above, in the proposed system, the present position information is acquired based on the satellite position information in the outdoor, and the current position information is acquired using the Wi-Fi signal in the room.

한편, 실내 및 실외에서 현재위치정보를 획득할 수 있는 추가적인 방식에 대해 설명하면 다음과 같다.An additional method for acquiring current position information in indoor and outdoor is described as follows.

와이파이 신호를 이용하는 방식은 기본적으로 삼각측량 및 핑거 프린팅 방식으로 구분할 수 있다.The method using the Wi-Fi signal can be basically divided into triangulation and fingerprinting.

우선, 삼각측량은 3개 이상의 AP(Access Point)로부터 신호강도(Received Signal Strength, RSS)를 측정하고 신호강도를 거리로 환산한 후 방정식을 통해 위치를 계산하는 방식이다.First, triangulation measures the received signal strength (RSS) from three or more access points (APs), converts the signal intensity to distance, and calculates the position through the equation.

다음으로, 핑거 프린팅 방식은 실내 공간을 작은 셀(cell)로 나누고 각 셀에서 직접 신호강도 값을 수집하고 데이터베이스화하여 라디오맵(Radio Map)을 구축한 후, 사용자 위치에서 수신된 신호강도 값을 데이터베이스와 비교하여 가장 유사한 신호 패턴을 보이는 셀을 사용자의 위치로 추정하는 방식이다.Next, in the fingerprinting method, the indoor space is divided into small cells, and signal intensity values are directly collected from each cell, and a database is constructed to form a radio map. Then, It estimates the cell that shows the most similar signal pattern compared with the database to the user's location.

다음으로, 주변에 스마트폰을 가진 다수의 사용자로부터 직간접적으로 와이파이 신호를 교환하면서 각 스마트폰의 위치 데이터를 수집하는 방식을 사용할 수도 있다.Next, a method of collecting position data of each smartphone while exchanging Wi-Fi signals directly or indirectly from a plurality of users having smart phones in the vicinity may be used.

또한, 증강현실 단말기(100)의 통신모듈(142)은 블루투스 통신모듈을 포함하고 있으므로, 블루투스 통신을 이용하여 현재위치정보를 파악할 수 있다.In addition, since the communication module 142 of the augmented reality terminal 100 includes the Bluetooth communication module, the current location information can be grasped by using the Bluetooth communication.

우선, 실내공간에 복수의 비콘을 배치시킨 후 어느 하나의 비콘과 통신을 진행할 때 그 비콘 주변에 사용자가 위치하고 있다고 추정하는 방식이 있다.First of all, there is a method of estimating that a user is located around a beacon when communicating with any one beacon after arranging a plurality of beacons in an indoor space.

다음으로, 반구의 형태의 표면에 다수의 지향성 안테나가 배열된 수신기를 실내공간에 배치한 후, 증강현실 단말기(100)에서 발신한 신호를 수신하는 특정 지향성 안테나의 식별을 통해 사용자의 위치를 추정하는 방식이 있다. 이때, 2개 이상의 수신기를 배치할 경우 사용자의 위치를 삼차원형태로 식별할 수도 있다.Next, a receiver in which a plurality of directional antennas are arranged on the surface of a hemispherical shape is disposed in an indoor space, and then a position of a user is estimated through identification of a specific directional antenna that receives a signal transmitted from the augmented reality terminal 100 . In this case, when two or more receivers are arranged, the user's position may be identified in a three-dimensional form.

또한, 위성위치정보를 토대로 사용자의 현재위치정보를 파악하고 있다가, 위성위치정보의 음영지역에 진입할 경우, 9축 센서(143)의 정보를 이용하여 속도 및 이동방향을 추정하는 방식이다. 즉, 걸음 수 측정(Step counting), 보폭 추정(Stride length estimation), 방향 추정(Heading estimation)을 통해 실내에서 사용자의 위치를 추정할 수 있다. 이때, 추정정보의 정확성을 높이기 위해 사용자의 신체조건(키, 몸무게, 보폭) 등의 정보를 입력받아 위치추정 연산에 사용할 수도 있다. 9축 센서(143)의 정보를 이용할 때, 상술한 와이파이 통신을 이용한 위치추정기법을 결합하여 추정정보의 정확성을 향상시킬 수 있다.In addition, the current position information of the user is grasped based on the satellite position information, and the velocity and the moving direction are estimated using the information of the 9-axis sensor 143 when entering the shadow area of the satellite position information. That is, the position of the user can be estimated through indoor step counting, stride length estimation, and heading estimation. At this time, in order to increase the accuracy of the estimated information, information such as the user's physical condition (key, weight, stride) may be input and used for the position estimation calculation. When using the information of the 9-axis sensor 143, the accuracy of the estimated information can be improved by combining the position estimation technique using the Wi-Fi communication.

즉, 와이파이 기법으로 다소 정확도가 낮더라도 전역적으로(globally) 절대적인 좌표(absolute position)를 계산하고, 9축 센서(143)의 정보를 통해 지역적으로(locally) 높은 정확도의 상대 측위(relative position)를 결합하여 정확도를 향상 시킬 수 있다. 또한, 추가적으로 블루투스 통신방식을 적용하여 위치추정정보의 정확성을 보다 향상시킬 수도 있을 것이다.In other words, even if the accuracy is low with the Wi-Fi technique, the absolute position is globally calculated and the relative position of the locally high accuracy is obtained through the information of the 9- Can be combined to improve accuracy. In addition, the accuracy of the position estimation information may be further improved by further applying the Bluetooth communication method.

또한, 실내공간에는 위치를 구분할 수 있는 고유의 자기장 정보가 형성되어 있으므로, 각 공간의 자기장맵을 구축한 후, 와이파이를 이용한 핑거 프린팅 방식과 유사하게 현재위치를 추정하는 방법이 적용될 수 있다. 이때, 사용자가 이동하면서 발생하는 자기장의 변화추세를 추가적인 정보로 이용할 수도 있다.In addition, since the magnetic field information unique to the position is formed in the indoor space, a method of estimating the current position similarly to the fingerprinting method using Wi-Fi can be applied after constructing the magnetic field map of each space. At this time, the trend of the change in the magnetic field generated when the user moves can be used as additional information.

또한, 실내공간에 설치된 조명을 활용하는 방법이 있다. 즉, LED 조명을 사람이 식별할 수 없을 정도의 빠르기로 점멸하면서, 특정 위치 식별자를 출력하고 증강현실 단말기(100)의 카메라가 특정 위치 식별자를 인식하여 위치를 추정하는 방식이 사용될 수 있다.There is also a method of utilizing the illumination installed in the indoor space. That is, a method of outputting a specific position identifier while blinking the LED illumination at a speed that the person can not identify, and a method of the camera of the augmented reality terminal 100 recognizing the specific position identifier and estimating the position can be used.

또한, 실내공간의 여러 위치와 다양한 각도에서 찍은 이미지들을 데이터베이스화 한 다음 사용자 위치에서 찍은 사진을 매칭하는 기법이 있으며, 실내 공간의 다양한 랜드마크(간판, 상표, 방 번호, 표지판 등)를 추가 식별함으로써 위치를 교정하는 방식이 사용될 수 있다.In addition, there is a technique to database the images taken from various locations and various angles of the indoor space, and then to match the pictures taken at the user's location. In addition, various landmarks (signs, trademarks, room numbers, signs, etc.) A method of correcting the position can be used.

참고적으로 실내공간에서 현재위치정보를 획득하는 방식은 상술한 방식을 적어도 하나 이상 조합하여 정확도를 향상시키는 것이 가장 바람직하다.For reference, it is most preferable that the method of acquiring the current position information in the indoor space improves the accuracy by combining at least one of the above methods.

본 발명의 실시예에 따른 증강현실 시스템은, 실체객체가 촬영영상 내에 모두 존재하거나 부분적으로 존재하더라도 이를 정확하게 식별하여 실제객체에 할당된 가상객체를 목표된 위치에 표시할 수 있다.The augmented reality system according to the embodiment of the present invention can correctly identify the existence or nonexistence of the entity object in the photographed image and display the virtual object allocated to the actual object at the target position.

즉, 공간 인식 및 사물 인식을 동시에 적용하여 가상객체의 위치를 정확한 위치에 표시할 수 있다.That is, it is possible to display the position of the virtual object at the correct position by simultaneously applying the space recognition and the object recognition.

또한, 증강현실 시스템은 공간인식기반으로 공간기반의 3차원 정합 좌표계를 생성하면서 실제객체의 좌표를 파악하는 동시에 사물인식기반으로 사물인식기반의 3차원 정합 좌표계를 추가로 생성하여 공간기반의 3차원 정합 좌표계를 보정함으로써 오차를 보정할 수 있다. 또한 여기에 상술한 사용자의 현재위치를 기준으로 실제객체를 구분하는 기법을 적용하여 여 실내 또는 실외에서 실제객체의 위치를 보다 정확하게 파악할 수 있을 것이다. 또한 여기에 유사객체를 식별하는 기법과, 객체간의 거리를 유지하는 기법과, 거리에 따라 가상객체의 정보량을 조절하는 기법을 적어도 하나 이상 적용하여 증강현실 시스템을 구성할 수 있을 것이다.In addition, the augmented reality system recognizes the coordinates of real objects while generating space-based 3-dimensional matching coordinate system based on spatial recognition, and simultaneously generates 3-dimensional matching coordinate system based on object recognition based on object recognition, The error can be corrected by correcting the matching coordinate system. Also, it is possible to more precisely grasp the position of the actual object in the room or outdoor by applying the technique of distinguishing the real object based on the current position of the user. Also, the augmented reality system can be constructed by applying at least one technique for identifying similar objects, a technique for maintaining distance between objects, and a technique for adjusting the amount of information of virtual objects according to distance.

또한, 본 발명의 실시에 따른 증강현실 시스템(1)은, 객체와 사용자와의 거리에 따라 가상객체의 정보량이 동적으로 조절되므로, 사용자가 편리하게 원하는 가상객체의 정보를 확인할 수 있다.In addition, the augmented reality system 1 according to the embodiment of the present invention can dynamically adjust the information amount of a virtual object according to the distance between the object and the user, so that the user can conveniently check information of the desired virtual object.

따라서 증강현실광고의 형태로 가상객체가 표시될 경우 사용자가 해당 가상객체를 집중력 있게 인지하는 시간이 길어지게 되어 광고효과가 상승할 수 있다.Therefore, when a virtual object is displayed in the form of an augmented reality advertisement, the time for the user to recognize the virtual object is concentrated, and the advertisement effect can be increased.

또한 본 발명의 실시예에 따른 증강현실 시스템은 추가인식영역을 선정하고, 추가인식영역의 영상 차이점을 토대로 고유 식별자를 실제객체에 각각 부여하여 유사객체를 식별할 수 있다.Also, the augmented reality system according to the embodiment of the present invention can select an additional recognition area and identify similar objects by assigning unique identifiers to real objects based on image differences in the additional recognition area.

또한, 증강현실 시스템은 추가인식영역의 영상 차이점을 토대로 각각의 실제객체에 부여된 고유 식별자와, 각 실제객체의 현재위치정보를 모두 고려하여 각각의 실제객체를 식별할 수 있다.Also, the augmented reality system can identify each real object by considering both the unique identifier assigned to each real object and the current position information of each real object based on the image difference of the additional recognition area.

따라서 유사성이 높은 실제객체가 배열되더라도 이를 식별하여 각각의 실제객체에 할당된 가상객체를 표시하여 사용자에게 혼동 없는 정보를 전달할 수 있다.Therefore, even if real objects having high similarity are arranged, it is possible to identify them and display the virtual objects allocated to the respective real objects, thereby conveying information without confusion to the user.

이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Thus, those skilled in the art will appreciate that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the embodiments described above are to be considered in all respects only as illustrative and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

100 : 증강현실 단말기
200 : 서버
300 : 센싱부
110 : 디스플레이
121 : 좌측 전방 카메라
122 : 우측 전방 카메라
131 : 좌측 3D센서
132 : 우측 3D센서
141 : 위성모듈
142 : 통신모듈
143 : 9축 센서
144 : 배터리
145 : 인식 카메라
150 : 제어부
100: augmented reality terminal
200: Server
300: sensing part
110: Display
121: Left front camera
122: Right front camera
131: Left 3D sensor
132: Right 3D sensor
141: Satellite module
142: Communication module
143: 9 axis sensor
144: Battery
145: Recognition camera
150:

Claims (6)

삭제delete 삭제delete 사용자 주위의 영상을 촬영하여 실제영상정보를 획득하는 영상 카메라가 내장되며 디스플레이에 3차원 가상영상을 표시함에 있어서, 현재위치정보와 상기 실제영상정보에 대응하는 상기 3차원 가상영상을 사용자의 시야범위 내에 표시하는 증강현실 단말기; 및 상기 증강현실 단말기로부터 전송되는 상기 현재위치정보와 상기 실제영상정보에 대응되는 상기 3차원 가상영상을 상기 증강현실 단말기에 실시간으로 제공하는 서버;를 포함하고, 상기 서버는 상기 실제영상정보의 실제객체를 영상 식별하고 식별된 실제객체에 각각 할당된 상기 3차원 가상영상의 가상객체를 상기 증강현실 단말기에 제공함에 있어서, 상기 증강현실 단말기는, 공간을 3차원적으로 인식하여 공간기반의 3차원 정합 좌표계를 생성하고 상기 공간기반의 3차원 정합 좌표계를 기준으로 각각 미리 할당된 실제객체의 좌표에 각각의 가상객체를 표시하되, 상기 실제영상정보의 실제객체가 사물인식기반으로 영상 식별될 때마다 상기 실제객체의 좌표를 다시 파악한 후, 파악된 상기 실제객체의 좌표를 갱신하고, 갱신된 상기 실제객체의 좌표에 미리 할당된 가상객체를 표시하며,
상기 서버는, 상기 실제영상정보에 존재하는 복수의 실제객체 중에서 소정의 영상 유사도 값 이상을 갖는 실제객체들은 각각의 실제영상정보를 차분하여 추가인식영역을 선정하고, 추가인식영역의 영상 차이점을 토대로 고유 식별자를 실제객체에 각각 부여하고, 추가인식영역의 영상 차이점을 토대로 각각의 실제객체에 부여된 고유 식별자와, 각 실제객체의 현재위치정보를 모두 고려하여 각각의 실제객체를 식별하는 것을 특징으로 하는 증강현실 시스템.
A three-dimensional virtual image corresponding to the current position information and the current position information is displayed on a display area of the user, An augmented reality terminal for displaying the augmented reality terminal; And a server for real-time providing the three-dimensional virtual image corresponding to the actual image information to the augmented reality terminal in real time based on the current position information transmitted from the augmented reality terminal, The augmented reality terminal recognizes a space three-dimensionally and provides space-based three-dimensional virtual images of three-dimensional virtual images assigned to the identified real objects, And a display unit for displaying each virtual object on the coordinate of the real object allocated in advance based on the space-based three-dimensional matching coordinate system, wherein each time the actual object of the real image information is image- The coordinates of the actual object are grasped again, and the coordinates of the actual object are grasped, and the coordinates of the updated actual object Displays virtual objects pre-assigned to coordinates,
The server selects an additional recognition area by subtracting each of the actual image information from real objects having a predetermined image similarity value or more among a plurality of actual objects existing in the actual image information, Identifies each real object by giving a unique identifier to each of the actual objects, taking into consideration both the unique identifier given to each actual object and the current position information of each actual object based on the image difference of the additional recognition area, Augmented reality system.
사용자 주위의 영상을 촬영하여 실제영상정보를 획득하는 영상 카메라가 내장되며 디스플레이에 3차원 가상영상을 표시함에 있어서, 현재위치정보와 상기 실제영상정보에 대응하는 상기 3차원 가상영상을 사용자의 시야범위 내에 표시하는 증강현실 단말기; 및 상기 증강현실 단말기로부터 전송되는 상기 현재위치정보와 상기 실제영상정보에 대응되는 상기 3차원 가상영상을 상기 증강현실 단말기에 실시간으로 제공하는 서버;를 포함하고, 상기 서버는 상기 실제영상정보의 실제객체를 영상 식별하고 식별된 실제객체에 각각 할당된 상기 3차원 가상영상의 가상객체를 상기 증강현실 단말기에 제공함에 있어서, 상기 증강현실 단말기는, 공간을 3차원적으로 인식하여 공간기반의 3차원 정합 좌표계를 생성하고 상기 공간기반의 3차원 정합 좌표계를 기준으로 각각 미리 할당된 실제객체의 좌표에 각각의 가상객체를 표시하되, 상기 실제영상정보의 실제객체가 사물인식기반으로 영상 식별될 때마다 상기 실제객체의 좌표를 파악한 후 사물인식기반의 3차원 정합 좌표계를 추가로 생성하고, 상기 사물인식기반의 3차원 정합 좌표계를 기준으로 상기 공간기반의 3차원 정합 좌표계를 갱신하며,
상기 서버는, 상기 실제영상정보에 존재하는 복수의 실제객체 중에서 소정의 영상 유사도 값 이상을 갖는 실제객체들은 각각의 실제영상정보를 차분하여 추가인식영역을 선정하고, 추가인식영역의 영상 차이점을 토대로 고유 식별자를 실제객체에 각각 부여하고, 각 실제객체의 현재위치정보를 토대로 추가인식영역의 후보위치를 결정하는 것을 특징으로 하는 증강현실 시스템.
A three-dimensional virtual image corresponding to the current position information and the current position information is displayed on a display area of the user, An augmented reality terminal for displaying the augmented reality terminal; And a server for real-time providing the three-dimensional virtual image corresponding to the actual image information to the augmented reality terminal in real time based on the current position information transmitted from the augmented reality terminal, The augmented reality terminal recognizes a space three-dimensionally and provides space-based three-dimensional virtual images of three-dimensional virtual images assigned to the identified real objects, And a display unit for displaying each virtual object on the coordinate of the real object allocated in advance based on the space-based three-dimensional matching coordinate system, wherein each time the actual object of the real image information is image- Dimensional coordinate system based on the object recognition based on the coordinate of the actual object, A reference three-dimensional coordinate system, and matching the updated three-dimensional coordinate system of the space-based matching,
The server selects an additional recognition area by subtracting each of the actual image information from real objects having a predetermined image similarity value or more among a plurality of actual objects existing in the actual image information, A unique identifier is assigned to each of the real objects, and a candidate position of the additional recognition area is determined based on the current position information of each real object.
사용자 주위의 영상을 촬영하여 실제영상정보를 획득하는 영상 카메라가 내장되며 디스플레이에 3차원 가상영상을 표시함에 있어서, 현재위치정보와 상기 실제영상정보에 대응하는 상기 3차원 가상영상을 사용자의 시야범위 내에 표시하는 증강현실 단말기; 및 상기 증강현실 단말기로부터 전송되는 상기 현재위치정보와 상기 실제영상정보에 대응되는 상기 3차원 가상영상을 상기 증강현실 단말기에 실시간으로 제공하는 서버;를 포함하고, 상기 서버는 상기 실제영상정보의 실제객체를 영상 식별하고 식별된 실제객체에 각각 할당된 상기 3차원 가상영상의 가상객체를 상기 증강현실 단말기에 제공함에 있어서, 상기 증강현실 단말기는, 공간을 3차원적으로 인식하여 공간기반의 3차원 정합 좌표계를 생성하고 상기 공간기반의 3차원 정합 좌표계를 기준으로 각각 미리 할당된 실제객체의 좌표에 각각의 가상객체를 표시하되, 상기 실제영상정보의 실제객체가 사물인식기반으로 영상 식별될 때마다 상기 실제객체의 좌표를 파악한 후 사물인식기반의 3차원 정합 좌표계를 추가로 생성하고, 상기 사물인식기반의 3차원 정합 좌표계를 기준으로 상기 공간기반의 3차원 정합 좌표계를 갱신하며,
상기 서버는, 상기 실제영상정보에 존재하는 복수의 실제객체 중에서 소정의 영상 유사도 값 이상을 갖는 실제객체들은 각각의 실제영상정보를 차분하여 추가인식영역을 선정하고, 추가인식영역의 영상 차이점을 토대로 고유 식별자를 실제객체에 각각 부여하고, 추가인식영역의 영상 차이점을 토대로 각각의 실제객체에 부여된 고유 식별자와, 각 실제객체의 현재위치정보를 모두 고려하여 각각의 실제객체를 식별하는 것을 특징으로 하는 증강현실 시스템.
A three-dimensional virtual image corresponding to the current position information and the current position information is displayed on a display area of the user, An augmented reality terminal for displaying the augmented reality terminal; And a server for real-time providing the three-dimensional virtual image corresponding to the actual image information to the augmented reality terminal in real time based on the current position information transmitted from the augmented reality terminal, The augmented reality terminal recognizes a space three-dimensionally and provides space-based three-dimensional virtual images of three-dimensional virtual images assigned to the identified real objects, And a display unit for displaying each virtual object on the coordinate of the real object allocated in advance based on the space-based three-dimensional matching coordinate system, wherein each time the actual object of the real image information is image- Dimensional coordinate system based on the object recognition based on the coordinate of the actual object, A reference three-dimensional coordinate system, and matching the updated three-dimensional coordinate system of the space-based matching,
The server selects an additional recognition area by subtracting each of the actual image information from real objects having a predetermined image similarity value or more among a plurality of actual objects existing in the actual image information, Identifies each real object by giving a unique identifier to each of the actual objects, taking into consideration both the unique identifier given to each actual object and the current position information of each actual object based on the image difference of the additional recognition area, Augmented reality system.
사용자 주위의 영상을 촬영하여 실제영상정보를 획득하는 영상 카메라가 내장되며 디스플레이에 3차원 가상영상을 표시함에 있어서, 현재위치정보와 상기 실제영상정보에 대응하는 상기 3차원 가상영상을 사용자의 시야범위 내에 표시하는 증강현실 단말기; 및 상기 증강현실 단말기로부터 전송되는 상기 현재위치정보와 상기 실제영상정보에 대응되는 상기 3차원 가상영상을 상기 증강현실 단말기에 실시간으로 제공하는 서버;를 포함하고, 상기 서버는 상기 실제영상정보의 실제객체를 영상 식별하고 식별된 실제객체에 각각 할당된 상기 3차원 가상영상의 가상객체를 상기 증강현실 단말기에 제공함에 있어서, 상기 증강현실 단말기는, 공간을 3차원적으로 인식하여 공간기반의 3차원 정합 좌표계를 생성하고 상기 공간기반의 3차원 정합 좌표계를 기준으로 각각 미리 할당된 실제객체의 좌표에 각각의 가상객체를 표시하되, 상기 실제영상정보의 실제객체가 사물인식기반으로 영상 식별될 때마다 상기 실제객체의 좌표를 다시 파악한 후, 파악된 상기 실제객체의 좌표를 갱신하고, 갱신된 상기 실제객체의 좌표에 미리 할당된 가상객체를 표시하며,
상기 서버는, 상기 실제영상정보에 존재하는 복수의 실제객체 중에서 소정의 영상 유사도 값 이상을 갖는 실제객체들은 각각의 실제영상정보를 차분하여 추가인식영역을 선정하고, 추가인식영역의 영상 차이점을 토대로 고유 식별자를 실제객체에 각각 부여하고, 각 실제객체의 현재위치정보를 토대로 추가인식영역의 후보위치를 결정하는 것을 특징으로 하는 증강현실 시스템.
A three-dimensional virtual image corresponding to the current position information and the current position information is displayed on a display area of the user, An augmented reality terminal for displaying the augmented reality terminal; And a server for real-time providing the three-dimensional virtual image corresponding to the actual image information to the augmented reality terminal in real time based on the current position information transmitted from the augmented reality terminal, The augmented reality terminal recognizes a space three-dimensionally and provides space-based three-dimensional virtual images of three-dimensional virtual images assigned to the identified real objects, And a display unit for displaying each virtual object on the coordinate of the real object allocated in advance based on the space-based three-dimensional matching coordinate system, wherein each time the actual object of the real image information is image- The coordinates of the actual object are grasped again, and the coordinates of the actual object are updated, and the coordinates of the updated actual object Displays virtual objects pre-assigned to coordinates,
The server selects an additional recognition area by subtracting each of the actual image information from real objects having a predetermined image similarity value or more among a plurality of actual objects existing in the actual image information, A unique identifier is assigned to each of the real objects, and a candidate position of the additional recognition area is determined based on the current position information of each real object.
KR1020170183308A 2017-12-29 2017-12-29 Augmented Reality System with Space and Object Recognition KR101898075B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170183308A KR101898075B1 (en) 2017-12-29 2017-12-29 Augmented Reality System with Space and Object Recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170183308A KR101898075B1 (en) 2017-12-29 2017-12-29 Augmented Reality System with Space and Object Recognition

Publications (1)

Publication Number Publication Date
KR101898075B1 true KR101898075B1 (en) 2018-09-12

Family

ID=63592844

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170183308A KR101898075B1 (en) 2017-12-29 2017-12-29 Augmented Reality System with Space and Object Recognition

Country Status (1)

Country Link
KR (1) KR101898075B1 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102051309B1 (en) * 2019-06-27 2019-12-03 주식회사 버넥트 Intelligent technology based augmented reality system
KR20200034468A (en) * 2018-09-21 2020-03-31 김승진 Integrated space information management platform using virtual reality video and operation method thereof
KR102166586B1 (en) 2019-07-19 2020-10-16 백호암 Mobile Augmented Reality Service Apparatus and Method Using Deep Learning Based Positioning Technology
CN112102498A (en) * 2019-06-18 2020-12-18 明日基金知识产权控股有限公司 System and method for virtually attaching applications to dynamic objects and enabling interaction with dynamic objects
WO2020262725A1 (en) * 2019-06-25 2020-12-30 티팟스튜디오 주식회사 Augmented reality method for providing information on basis of three-dimensional object recognition using deep learning, and system using same
WO2022098134A1 (en) * 2020-11-04 2022-05-12 삼성전자 주식회사 Electronic device, ar device, and data transmission period control method therefor
WO2022131465A1 (en) * 2020-12-14 2022-06-23 삼성전자 주식회사 Electronic device and method for displaying augmented reality content
WO2022231223A1 (en) * 2021-04-26 2022-11-03 주식회사 피앤씨솔루션 Augmented reality content platform system for plurality of users in indoor environment and operation method therefor
CN115731375A (en) * 2022-12-09 2023-03-03 支付宝(杭州)信息技术有限公司 Method and device for updating virtual image
US20230186571A1 (en) * 2020-10-06 2023-06-15 Samsung Electronics Co., Ltd. Electronic device and operating method thereof
US11893698B2 (en) 2020-11-04 2024-02-06 Samsung Electronics Co., Ltd. Electronic device, AR device and method for controlling data transfer interval thereof
CN115731375B (en) * 2022-12-09 2024-05-10 支付宝(杭州)信息技术有限公司 Method and device for updating virtual image

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120091749A (en) * 2011-02-10 2012-08-20 한국과학기술정보연구원 Visualization system for augment reality and method thereof
KR20150114106A (en) * 2014-03-31 2015-10-12 (주)세이프텍리서치 The plant field operators outfit for plant operation by using augmented reality and the method for providing information for plant operator
KR20160092292A (en) 2015-01-27 2016-08-04 주식회사 아이마카 System and method for providing augmented reality service of materials for an promotional objects

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120091749A (en) * 2011-02-10 2012-08-20 한국과학기술정보연구원 Visualization system for augment reality and method thereof
KR20150114106A (en) * 2014-03-31 2015-10-12 (주)세이프텍리서치 The plant field operators outfit for plant operation by using augmented reality and the method for providing information for plant operator
KR20160092292A (en) 2015-01-27 2016-08-04 주식회사 아이마카 System and method for providing augmented reality service of materials for an promotional objects

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200034468A (en) * 2018-09-21 2020-03-31 김승진 Integrated space information management platform using virtual reality video and operation method thereof
KR102182314B1 (en) * 2018-09-21 2020-11-24 김승진 Management server for integrated space information management platform using virtual reality video and operation method thereof
CN112102498A (en) * 2019-06-18 2020-12-18 明日基金知识产权控股有限公司 System and method for virtually attaching applications to dynamic objects and enabling interaction with dynamic objects
WO2020262725A1 (en) * 2019-06-25 2020-12-30 티팟스튜디오 주식회사 Augmented reality method for providing information on basis of three-dimensional object recognition using deep learning, and system using same
KR102051309B1 (en) * 2019-06-27 2019-12-03 주식회사 버넥트 Intelligent technology based augmented reality system
KR102166586B1 (en) 2019-07-19 2020-10-16 백호암 Mobile Augmented Reality Service Apparatus and Method Using Deep Learning Based Positioning Technology
US20230186571A1 (en) * 2020-10-06 2023-06-15 Samsung Electronics Co., Ltd. Electronic device and operating method thereof
US11830155B2 (en) 2020-10-06 2023-11-28 Samsung Electronics Co., Ltd. Electronic device and operating method thereof
WO2022098134A1 (en) * 2020-11-04 2022-05-12 삼성전자 주식회사 Electronic device, ar device, and data transmission period control method therefor
US11893698B2 (en) 2020-11-04 2024-02-06 Samsung Electronics Co., Ltd. Electronic device, AR device and method for controlling data transfer interval thereof
WO2022131465A1 (en) * 2020-12-14 2022-06-23 삼성전자 주식회사 Electronic device and method for displaying augmented reality content
WO2022231223A1 (en) * 2021-04-26 2022-11-03 주식회사 피앤씨솔루션 Augmented reality content platform system for plurality of users in indoor environment and operation method therefor
CN115731375A (en) * 2022-12-09 2023-03-03 支付宝(杭州)信息技术有限公司 Method and device for updating virtual image
CN115731375B (en) * 2022-12-09 2024-05-10 支付宝(杭州)信息技术有限公司 Method and device for updating virtual image

Similar Documents

Publication Publication Date Title
KR101898075B1 (en) Augmented Reality System with Space and Object Recognition
KR101898088B1 (en) Augmented Reality System with Frame Region Recording and Reproduction Technology Based on Object Tracking
KR20190079008A (en) An augmented reality system to which a dynamic expression technique of an augmented image according to a user's gaze information is applied
KR101985703B1 (en) Augmented reality service Software as a Service based Augmented Reality Operating System
US10665036B1 (en) Augmented reality system and method with dynamic representation technique of augmented images
US10719993B1 (en) Augmented reality system and method with space and object recognition
US10949671B2 (en) Augmented reality system capable of manipulating an augmented reality object and an augmented reality method using the same
KR101983256B1 (en) Augmented reality system with dynamic representation technique of augmented image considering mutual positional relationship between objects
CN108692720B (en) Positioning method, positioning server and positioning system
US11403827B2 (en) Method and system for resolving hemisphere ambiguity using a position vector
KR102012835B1 (en) An augmented reality system capable of manipulating an augmented reality object using three-dimensional attitude information and recognizes handwriting of character
EP3008708B1 (en) Vision augmented navigation
CN107771342B (en) Augmented reality display method and head-mounted display equipment
US9495783B1 (en) Augmented reality vision system for tracking and geolocating objects of interest
CN105143907B (en) Alignment system and method
US10726631B1 (en) Augmented reality system and method with frame region recording and reproduction technology based on object tracking
KR102051309B1 (en) Intelligent technology based augmented reality system
CN105391970A (en) Method and system for determining at least one image feature in at least one image
US20140368539A1 (en) Head wearable electronic device for augmented reality and method for generating augmented reality using the same
CN110487262A (en) Indoor orientation method and system based on augmented reality equipment
CN104699247A (en) Virtual reality interactive system and method based on machine vision
CN110823218A (en) Object tracking system
KR20190078524A (en) Virtual reality control system
KR20200025960A (en) Intelligent technology based augmented reality system
CN108151732A (en) A kind of long-range position and behavior method of estimation

Legal Events

Date Code Title Description
GRNT Written decision to grant