KR102338627B1 - System and method for providing augmented reality user interface - Google Patents

System and method for providing augmented reality user interface Download PDF

Info

Publication number
KR102338627B1
KR102338627B1 KR1020170183534A KR20170183534A KR102338627B1 KR 102338627 B1 KR102338627 B1 KR 102338627B1 KR 1020170183534 A KR1020170183534 A KR 1020170183534A KR 20170183534 A KR20170183534 A KR 20170183534A KR 102338627 B1 KR102338627 B1 KR 102338627B1
Authority
KR
South Korea
Prior art keywords
user
augmented reality
user terminal
image
unit
Prior art date
Application number
KR1020170183534A
Other languages
Korean (ko)
Other versions
KR20190081179A (en
Inventor
남상원
Original Assignee
엘에스일렉트릭(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘에스일렉트릭(주) filed Critical 엘에스일렉트릭(주)
Priority to KR1020170183534A priority Critical patent/KR102338627B1/en
Publication of KR20190081179A publication Critical patent/KR20190081179A/en
Application granted granted Critical
Publication of KR102338627B1 publication Critical patent/KR102338627B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • G06K9/00221
    • G06K9/00597
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

본 발명은 증강 현실 제공 시스템 및 방법에 관한 것이다. 상기 증강 현실 제공 방법은, 상기 사용자 단말기에 포함된 제1 카메라를 통해 객체에 대한 영상을 촬영하는 단계, 상기 촬영된 영상에 포함된 객체를 인식하는 단계, 상기 사용자 단말기에 포함된 제2 카메라를 통해 사용자에 대한 영상 촬영하는 단계, 상기 촬영된 영상에 포함된 사용자의 얼굴 요소를 인식하는 단계, 상기 인식된 얼굴 요소를 기초로, 상기 객체에 대한 상기 사용자의 접근 권한을 판단하는 단계, 및 상기 사용자 단말기에서 상기 사용자에게 상기 객체에 대한 접근 권한이 있는 경우, 상기 객체에 대한 증강 현실 인터페이스를 촬영된 영상에 오버랩하여 표시하는 단계를 포함한다.The present invention relates to a system and method for providing augmented reality. The augmented reality providing method includes: photographing an image of an object through a first camera included in the user terminal, recognizing an object included in the photographed image, and using a second camera included in the user terminal capturing an image of the user through the steps of, recognizing a user's face element included in the captured image, determining the user's access right to the object based on the recognized face element, and the and displaying an augmented reality interface for the object overlapping the captured image when the user has access to the object in the user terminal.

Description

증강 현실 제공 시스템 및 방법{System and method for providing augmented reality user interface}System and method for providing augmented reality user interface

본 발명은 증강 현실 제공 시스템 및 방법에 관한 것이다. 증강 현실 제공 시스템 및 방법The present invention relates to a system and method for providing augmented reality. Augmented reality providing system and method

증강 현실(augmented reality, AR)이란 실제 환경에 가상 사물이나 정보를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법을 말한다.Augmented reality (AR) refers to a computer graphics technique in which virtual objects or information are synthesized in a real environment to make them look like objects existing in the original environment.

증강 현실은 가상의 공간과 사물만을 대상으로 하는 기존의 가상 현실과 달리, 현실 세계의 기반 위에 가상의 사물을 합성하여 현실 세계만으로는 얻기 어려운 부가적인 정보들을 보강해 제공할 수 있는 특징을 가진다. 이러한 특징 때문에 증강 현실은 단순히 게임과 같은 분야에만 한정된 적용이 가능한 기존 가상 현실과 달리 다양한 현실 환경에 응용이 가능하다. 특히, 증강 현실은 유비쿼터스 환경에 적합한 차세대 디스플레이 기술로 각광받고 있다.Unlike conventional virtual reality, which targets only virtual space and objects, augmented reality has a feature of providing additional information that is difficult to obtain only in the real world by synthesizing virtual objects on the basis of the real world. Because of these characteristics, augmented reality can be applied to a variety of real environments, unlike existing virtual reality, which can be applied only to fields such as games. In particular, augmented reality is spotlighted as a next-generation display technology suitable for a ubiquitous environment.

증강 현실 기술에 대한 연구가 시작된 이래 다양한 분야에서 증강 현실 기술을 활용하려는 연구가 이어져 왔으며, 최근에는 스마트폰의 확산과 더불어 증강 현실 기술이 위치 기반 서비스에 많이 활용되고 있다.Since the research on augmented reality technology began, research to utilize augmented reality technology has been continued in various fields.

일반적으로, 증강 현실 기술은 현재 촬영되고 있는 기기에 대한 정보를 메뉴 형태로 프리뷰 화면 상에 표시한다. 이때 프리뷰 화면은 촬영되고 있는 기기의 상태 정보를 2D 또는 3D 형태로 표시할 수 있다.In general, augmented reality technology displays information about a device currently being photographed on a preview screen in the form of a menu. In this case, the preview screen may display status information of the device being photographed in 2D or 3D form.

다만, 종래의 증강 현실 제공 방법의 경우, 사용자의 접근 권한과는 상관없이 모든 사용자에게 동일한 증강 현실을 제공한다. 따라서, 기기에 대한 접근 권한이 없는 사용자에게도 증강 현실이 제공되어, 해당 기기에 대한 보안이 취약해지는 문제점이 있었다.However, in the case of the conventional augmented reality providing method, the same augmented reality is provided to all users regardless of the user's access rights. Therefore, augmented reality is provided even to a user who does not have access to the device, and there is a problem in that the security of the device is weakened.

또한, 증강 현실은 대상 기기를 사용자 단말기를 통해 촬영을 해야 하는 바, 사용자는 손으로 사용자 단말기를 잡고 있어야 한다. 이때, 대상 기기의 접근 권한 인증을 위해 패스워드의 입력이 필요한 경우, 사용자가 사용자 단말기를 한 손으로 잡은 상태에서 패스워드를 입력하기 어려운 문제점이 있었다.In addition, in augmented reality, the target device must be photographed through the user terminal, and the user must hold the user terminal by hand. In this case, when input of a password is required to authenticate access authority of the target device, there is a problem in that it is difficult for the user to input the password while holding the user terminal with one hand.

본 발명은 촬영된 영상에 포함된 대상 기기 중에서 현재 사용자에게 접근 권한이 있는 대상 기기에 대해서만 해당 기기의 증강 현실 인터페이스를 표시하는 증강 현실 제공 시스템 및 방법을 제공하는 것을 목적으로 한다.An object of the present invention is to provide an augmented reality providing system and method for displaying an augmented reality interface of only a target device to which a current user has access right among target devices included in a captured image.

또한, 본 발명은 대상 기기를 촬영하는 도중에 특별한 조작 없이 사용자의 얼굴 인식을 통해 촬영된 대상 기기의 권한 인증을 수행하고, 사용자에게 접근 권한이 있는 해당 대상 기기에 대해서만 증강 현실 인터페이스를 오버랩하여 화면에 표시하는 증강 현실 제공 시스템 및 방법을 제공하는 것을 목적으로 한다.In addition, the present invention performs authorization authentication of the photographed target device through the user's face recognition without any special manipulation while the target device is being photographed, and overlaps the augmented reality interface only for the target device to which the user has access rights to display the screen. An object of the present invention is to provide an augmented reality providing system and method for displaying.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention not mentioned may be understood by the following description, and will be more clearly understood by the examples of the present invention. It will also be readily apparent that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the appended claims.

상기의 목적을 달성하기 위한 본 발명의 증강 현실 제공 방법은, 상기 사용자 단말기에 포함된 제1 카메라를 통해 객체에 대한 영상을 촬영하는 단계, 상기 촬영된 영상에 포함된 객체를 인식하는 단계, 상기 사용자 단말기에 포함된 제2 카메라를 통해 사용자에 대한 영상 촬영하는 단계, 상기 촬영된 영상에 포함된 사용자의 얼굴 요소를 인식하는 단계, 상기 인식된 얼굴 요소를 기초로, 상기 객체에 대한 상기 사용자의 접근 권한을 판단하는 단계, 및 상기 사용자 단말기에서 상기 사용자에게 상기 객체에 대한 접근 권한이 있는 경우, 상기 객체에 대한 증강 현실 인터페이스를 촬영된 영상에 오버랩하여 표시하는 단계를 포함한다.The augmented reality providing method of the present invention for achieving the above object includes the steps of photographing an image of an object through a first camera included in the user terminal, recognizing an object included in the photographed image, the Taking an image of the user through a second camera included in the user terminal, recognizing a user's face element included in the captured image, based on the recognized face element, the user's Determining an access right, and when the user has an access right to the object in the user terminal, overlapping and displaying an augmented reality interface for the object on the captured image.

또한, 상기 촬영된 영상에 포함된 사용자의 얼굴 요소를 인식하는 단계는, 상기 촬영된 영상에 포함된 사용자의 얼굴 이미지를 추출하는 단계와, 추출된 상기 얼굴 이미지에서 상기 사용자의 적어도 하나의 얼굴 요소를 추출하는 단계를 포함할 수 있다.In addition, the step of recognizing the user's face element included in the photographed image includes extracting the user's face image included in the photographed image, and at least one facial element of the user from the extracted facial image It may include the step of extracting.

또한, 상기 얼굴 요소는, 상기 사용자의 홍채, 얼굴 윤곽, 또는 이목구비의 형상을 포함할 수 있다.In addition, the face element may include a shape of the user's iris, face outline, or features.

또한, 상기 인식된 얼굴 요소를 기초로 상기 객체에 대한 상기 사용자의 접근 권한을 판단하는 단계는, 상기 인식된 얼굴 요소와, 상기 객체에 대하여 미리 입력된 등록 사용자의 얼굴 요소를 비교하여, 상기 사용자가 등록 사용자인지 여부를 판단하는 것을 포함할 수 있다.In addition, the determining of the user's access right to the object based on the recognized face element may include comparing the recognized face element with a face element of a registered user input in advance with respect to the object, and the user and determining whether is a registered user.

또한, 상기 인식된 얼굴 요소를 기초로 상기 객체에 대한 접근 권한을 판단하는 단계는, 상기 사용자의 서로 다른 제1 및 제2 얼굴 요소에 대한 데이터가, 상기 객체에 대하여 미리 입력된 등록 사용자의 데이터와 모두 일치하는지 여부를 기초로, 상기 사용자가 등록 사용자인지 여부를 판단하는 것을 포함할 수 있다.In addition, the determining of the access right to the object based on the recognized facial element may include: data of a registered user in which data on the first and second different facial elements of the user are inputted in advance for the object and determining whether the user is a registered user based on whether or not they all match.

또한, 상기 객체에 대한 증강 현실 인터페이스를 촬영된 영상에 오버랩하여 표시하는 단계는, 상기 사용자에게 접근 권한이 있는 객체에 대한 증강 현실 인터페이스를 상기 사용자 단말기와 연결된 서버에 요청하는 단계와, 상기 증강 현실 인터페이스에 포함된 증강 현실 이미지를 상기 접근 권한이 있는 객체 상에 오버랩하여 표시하는 단계를 포함할 수 있다.In addition, the step of overlapping and displaying the augmented reality interface for the object on the captured image includes the steps of requesting an augmented reality interface for the object to which the user has an access right to a server connected to the user terminal, the augmented reality The method may include overlapping and displaying the augmented reality image included in the interface on the object having the access right.

또한, 상기 객체에 대한 증강 현실 인터페이스를 촬영된 영상에 오버랩하여 표시하는 단계는, 사용자의 접근 권한 레벨에 따라 서로 다른 정보를 포함하는 증강 현실 인터페이스를 표시하는 것을 포함할 수 있다.In addition, the displaying of the augmented reality interface for the object overlapping the captured image may include displaying the augmented reality interface including different information according to the user's access right level.

또한, 상기 객체에 대한 증강 현실 인터페이스를 촬영된 영상에 오버랩하여 표시하는 단계는, 상기 사용자에게 접근 권한이 없는 객체의 경우, 촬영된 영상을 그대로 표시하는 단계를 더 포함할 수 있다.In addition, the step of displaying the augmented reality interface for the object overlapping the captured image may further include displaying the captured image as it is in the case of an object to which the user does not have access right.

또한, 상기 사용자에게 상기 객체에 대한 접근 권한이 없는 경우, 상기 객체에 대한 사용자의 접근 권한을 등록할 수 있는 권한 등록 메뉴로 이동하는 단계를 더 포함할 수 있다.In addition, when the user does not have access to the object, the method may further include moving to a permission registration menu for registering the user's access right to the object.

상기의 목적을 달성하기 위한 본 발명의 증강 현실 제공 시스템은, 객체에 대한 영상을 촬영하는 제1 카메라부, 사용자에 대한 영상을 촬영하는 제2 카메라부, 상기 제1 카메라부에서 촬영된 영상에 포함된 상기 객체를 인식하는 객체 인식부, 상기 제2 카메라부에서 촬영된 상기 사용자의 얼굴 요소를 인식하는 안면 인식부, 상기 객체에 대한 증강 현실 정보를 기초로 증강 현실 인터페이스를 생성하는 증강 현실 처리부, 상기 객체에 대한 증강 현실 정보 또는 상기 증강 현실 인터페이스를 수신하는 통신부, 상기 증강 현실 인터페이스를 표시하는 디스플레이부, 및 상기 인식된 얼굴 요소를 이용하여 판단된 상기 사용자의 접근 권한 여부를 기초로, 상기 객체에 대한 증강 현실 인터페이스를 표시하는 제어부를 포함한다.Augmented reality providing system of the present invention for achieving the above object, a first camera unit for photographing an image of an object, a second camera unit for photographing an image of a user, the image captured by the first camera unit An object recognition unit for recognizing the included object, a face recognition unit for recognizing the user's face element photographed by the second camera unit, and an augmented reality processing unit for generating an augmented reality interface based on augmented reality information on the object , based on whether the user has access right determined using the augmented reality information on the object or a communication unit for receiving the augmented reality interface, a display unit for displaying the augmented reality interface, and the recognized face element, the and a controller for displaying an augmented reality interface for the object.

또한, 상기 제1 카메라부는, 상기 증강 현실 제공 장치의 일면에 배치되고, 상기 제2 카메라부는, 상기 증강 현실 제공 장치의 일면과 마주보는 타면에 배치될 수 있다.In addition, the first camera unit may be disposed on one side of the augmented reality providing device, and the second camera unit may be disposed on the other side facing the one side of the augmented reality providing device.

또한, 상기 제어부는, 상기 인식된 얼굴 요소와, 상기 객체에 대하여 미리 입력된 등록 사용자의 얼굴 요소를 비교하여, 상기 사용자가 등록 사용자인지 여부를 판단할 수 있다.Also, the controller may determine whether the user is a registered user by comparing the recognized face element with a face element of a registered user previously input with respect to the object.

또한 , 상기 제어부는, 상기 사용자에게 상기 객체에 대한 접근 권한이 있는 경우, 상기 객체에 대한 증강 현실 인터페이스를 상기 사용자 단말기와 연결된 서버에 요청하여 상기 디스플레이부에 표시하고, 상기 사용자에게 상기 객체에 대한 접근 권한이 없는 경우, 상기 촬영된 객체의 영상을 그대로 상기 디스플레이부에 표시할 수 있다.In addition, when the user has access to the object, the controller requests an augmented reality interface for the object from a server connected to the user terminal and displays it on the display unit, and provides the user with information about the object. If there is no access right, the image of the photographed object may be displayed on the display unit as it is.

또한, 상기 제어부는, 상기 사용자에게 상기 객체에 대한 접근 권한이 없는 경우, 상기 객체에 대한 사용자의 접근 권한을 등록할 수 있는 권한 등록 메뉴를 상기 디스플레이부에 표시할 수 있다.In addition, when the user does not have an access right to the object, the controller may display a permission registration menu for registering the user's access right to the object on the display unit.

또한, 상기 안면 인식부는, 상기 사용자의 홍채, 얼굴 윤곽, 또는 이목구비의 형태를 상기 얼굴 요소로 인식할 수 있다.Also, the face recognition unit may recognize a shape of the user's iris, face outline, or features as the face element.

또한, 상기 제1 및 제2 카메라부, 상기 통신부, 상기 디스플레이부 및 상기 제어부를 포함하는 사용자 단말기와, 상기 객체 인식부와 상기 증강 현실 처리부를 포함하는 서버를 포함할 수 있다.In addition, a user terminal including the first and second camera units, the communication unit, the display unit, and the control unit, and a server including the object recognition unit and the augmented reality processing unit.

본 발명의 증강 현실 제공 시스템 및 방법은, 현재 사용자에게 접근 권한이 있는 대상 기기에 대해서만 증강 현실 인터페이스를 표시함으로써, 중요한 정보의 유출을 방지할 수 있으며, 시스템의 보안성을 향상시킬 수 있다.The augmented reality providing system and method of the present invention can prevent leakage of important information and improve the security of the system by displaying the augmented reality interface only for the target device to which the current user has access.

또한, 본 발명의 증강 현실 제공 시스템 및 방법은, 대상 기기를 촬영하는 도중에 특별한 조작 없이 사용자의 얼굴 인식을 통해 대상 기기의 권한 인증을 수행함으로써, 사용자가 패스워드를 직접 입력해야 하는 과정을 생략할 수 있다. 이를 통해, 사용자의 편의성을 높일 수 있으며, 동일한 시간 내에 빠른 작업 처리가 가능해지므로 작업 효율이 향상될 수 있다.In addition, the augmented reality providing system and method of the present invention can omit a process in which the user must directly input a password by performing authorization authentication of the target device through the user's face recognition without special manipulation while the target device is being photographed. have. Through this, it is possible to increase the user's convenience, and since it is possible to quickly process a task within the same time, work efficiency can be improved.

상술한 효과와 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다. In addition to the above-described effects, the specific effects of the present invention will be described together while describing specific details for carrying out the invention below.

도 1은 본 발명의 일 실시예에 따른 증강 현실 제공 시스템을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 증강 현실 제공 장치를 설명하기 위한 블럭도이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 증강 현실 제공 장치의 동작 방법을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 증강 현실 제공 방법을 나타내는 순서도이다.
도 6은 도 5의 증강 현실 제공 방법의 동작의 일 예를 설명하기 위한 순서도이다.
도 7은 도 5의 증강 현실 제공 방법의 동작의 다른 예를 설명하기 위한 순서도이다.
도 8 내지 도 10은 본 발명의 몇몇 실시예에 따른 증강 현실 제공 방법의 동작의 일 예를 설명하기 위한 도면이다.
1 is a diagram illustrating an augmented reality providing system according to an embodiment of the present invention.
2 is a block diagram illustrating an apparatus for providing augmented reality according to an embodiment of the present invention.
3 and 4 are diagrams for explaining a method of operating an apparatus for providing augmented reality according to an embodiment of the present invention.
5 is a flowchart illustrating a method for providing augmented reality according to an embodiment of the present invention.
6 is a flowchart illustrating an example of an operation of the augmented reality providing method of FIG. 5 .
7 is a flowchart illustrating another example of the operation of the augmented reality providing method of FIG. 5 .
8 to 10 are diagrams for explaining an example of an operation of an augmented reality providing method according to some embodiments of the present invention.

전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용된다.The above-described objects, features and advantages will be described below in detail with reference to the accompanying drawings, and accordingly, those of ordinary skill in the art to which the present invention pertains will be able to easily implement the technical idea of the present invention. In describing the present invention, if it is determined that a detailed description of a known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to indicate the same or similar components.

이하에서, 도 1 내지 도 10을 참조하여 본 발명에 따른 증강 현실 제공 시스템 및 방법에 대해 설명하도록 한다.Hereinafter, an augmented reality providing system and method according to the present invention will be described with reference to FIGS. 1 to 10 .

도 1은 본 발명의 일 실시예에 따른 증강 현실 제공 시스템을 나타내는 도면이다.1 is a diagram illustrating an augmented reality providing system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 증강 현실 제공 시스템은, 사용자 단말기(100), 대상 기기(200) 및 서버(300)를 포함한다. Referring to FIG. 1 , the augmented reality providing system according to an embodiment of the present invention includes a user terminal 100 , a target device 200 , and a server 300 .

사용자 단말기(100)는 증강 현실 제공 장치로써 동작할 수 있다. 사용자 단말기(100)는 대상 기기(200)를 촬영하고, 대상 기기(200)의 증강 현실 인터페이스를 서버(300)로부터 수신한다. 사용자 단말기(100)는 사용자의 접근 권한에 따라 서로 다른 증강 현실 인터페이스를 표시한다.The user terminal 100 may operate as an augmented reality providing device. The user terminal 100 photographs the target device 200 and receives the augmented reality interface of the target device 200 from the server 300 . The user terminal 100 displays different augmented reality interfaces according to the user's access rights.

예를 들어, 사용자 단말기(100)는 촬영되는 대상 기기(200)에 대한 사용자의 접근 권한을 판단한 뒤, 사용자에게 접근 권한이 있는 대상 기기(200)에 대한 증강 현실 인터페이스를 표시할 수 있다. 이를 통해, 접근 권한이 없는 사용자에게 중요한 정보를 제공하는 것을 방지하여 보안성을 향상시킬 수 있다.For example, after determining the user's access right to the target device 200 to be photographed, the user terminal 100 may display the augmented reality interface for the target device 200 having the access right to the user. Through this, it is possible to improve security by preventing the provision of important information to users who do not have access rights.

또한, 사용자 단말기(100)는 사용자의 얼굴을 촬영하여 얼굴 인식을 통해 대상 기기(200)에 대한 접근 권한 여부를 판단할 수 있다. 사용자 단말기(100)는 대상 기기(200)를 촬영하는 도중에 특별한 조작 없이 사용자의 얼굴을 인식하여 대상 기기(200)에 대한 권한 인증을 수행할 수 있다. 따라서, 본 발명의 증강 현실 제공 시스템은 사용자가 권한 인증을 위해 패스워드를 따로 입력해야 하는 과정을 생략함으로써 사용자의 편의성을 높일 수 있다.Also, the user terminal 100 may photograph the user's face and determine whether access to the target device 200 is authorized through face recognition. The user terminal 100 may perform authorization authentication for the target device 200 by recognizing the user's face without special manipulation while the target device 200 is being photographed. Accordingly, the augmented reality providing system of the present invention can increase user convenience by omitting a process in which the user must separately input a password for authorization authentication.

사용자 단말기(100)는 촬영되는 대상 기기(200)에 대한 증강 현실 정보를 서버(300)로부터 수신하고, 증강 현실 정보를 기초로 증강 현실 인터페이스를 생성하여 화면에 표시한다. 여기에서, 증강 현실 정보는 증강 현실 인터페이스를 생성하기 위한 촬영된 대상 기기(200)에 대한 증강 현실 관련 데이터를 포함한다. The user terminal 100 receives augmented reality information about the target device 200 to be photographed from the server 300 , generates an augmented reality interface based on the augmented reality information, and displays it on the screen. Here, the augmented reality information includes augmented reality related data about the captured target device 200 for generating the augmented reality interface.

증강 현실 정보는 2D 또는 3D 이미지로 모델링 및 렌더링될 수 있으며, 렌더링된 이미지는 증강 현실 인터페이스로 변환되어 사용자 단말기(100)의 화면에 프리뷰 형태로 표시된다.Augmented reality information may be modeled and rendered as a 2D or 3D image, and the rendered image is converted into an augmented reality interface and displayed in a preview form on the screen of the user terminal 100 .

추가적으로, 사용자 단말기(100)는 촬영되는 대상 기기(200)에 대한 증강 현실 인터페이스를 서버(300)로부터 수신하고, 이를 화면에 그대로 표시할 수 있다.Additionally, the user terminal 100 may receive the augmented reality interface for the target device 200 to be photographed from the server 300 and display it on the screen as it is.

사용자 단말기(100)는 증강 현실의 디스플레이 방식에 따라, 모바일 기반의 장치, 착용형 장치(wearable device)(예를 들어, HMD(Head Mounted Device), 비디오 시쓰루 장치(Video See-Through device), 광학 시쓰루 장치(Optical See-Through device)), 스크린 기반의 장치, 및 프로젝터 기반 장치 중 어느 하나가 될 수 있다.The user terminal 100 may include a mobile-based device, a wearable device (eg, a head mounted device (HMD), a video see-through device), It may be any one of an optical see-through device, a screen-based device, and a projector-based device.

또한, 사용자 단말기(100)는 컴퓨터, UMPC(Ultra Mobile PC), 워크스테이션, 넷북(net-book), PDA (Personal Digital Assistants), 포터블(portable) 컴퓨터, 웹 타블렛(web tablet), 무선 전화기(wireless phone), 모바일 폰(mobile phone), 스마트폰(smart phone), e-북(e-book), PMP(portable multimedia player) 등 정보를 무선 환경에서 송수신할 수 있는 장치가 될 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다.In addition, the user terminal 100 is a computer, an Ultra Mobile PC (UMPC), a workstation, a net-book, a PDA (Personal Digital Assistants), a portable computer, a web tablet (web tablet), a wireless phone ( It may be a device capable of transmitting and receiving information such as a wireless phone, a mobile phone, a smart phone, an e-book, and a portable multimedia player (PMP) in a wireless environment. However, the present invention is not limited thereto.

대상 기기(200)는 다양한 전자기기가 될 수 있다. 예를 들어, 대상 기기(200)는 자동제어기기나 산업용기기 또는 배전반이 될 수 있다. 이때, 대상 기기(200)는 차단기, 계전기, 통신링크장치, 전력량계, 센서부, HMI(Human Machine Interface) 등을 구성요소로 포함할 수 있고, 대상 기기(200)에 포함된 구성요소들의 동작 상태에 따라 대상 기기(200)의 전체적인 동작 상태가 결정될 수 있다. The target device 200 may be various electronic devices. For example, the target device 200 may be an automatic control device, an industrial device, or a switchboard. In this case, the target device 200 may include a circuit breaker, a relay, a communication link device, a watt-hour meter, a sensor unit, a human machine interface (HMI), etc. as components, and the operating state of the components included in the target device 200 . Accordingly, the overall operating state of the target device 200 may be determined.

다른 예로, 대상 기기(200)는 원격 검침 시스템(Automatic Meter Reading; 이하, AMR)의 측정 대상이 될 수 있다. 일반적으로, 원격 검침 시스템(AMR)이라 함은 멀리 떨어진 지점의 측정 대상으로부터 측정 결과를 전기적 신호로 변환하여 통신 네트워크를 통해 데이터를 전송하고, 그 데이터를 컴퓨터에서 처리하는 것을 말한다.As another example, the target device 200 may be a measurement target of an automatic meter reading system (hereinafter, AMR). In general, the remote meter reading system (AMR) refers to converting a measurement result into an electrical signal from a measurement target at a distant point, transmitting data through a communication network, and processing the data in a computer.

원격 검침 시스템(AMR)의 서버는 TCP/IP(Transmission Control Protocol/Internet Protocol)를 기반으로 데이터 통신을 수행할 수 있도록 제공되는 데이터 통신망(예컨대, 기간망, 사설망, 인터넷망 포함)을 통해 다수의 데이터수집장치와 상호 접속된다. 서버는 데이터 통신망을 통해 데이터수집장치와 실시간으로 데이터 송수신을 수행하며, 각 측정 대상의 전력 상태를 실시간으로 모니터링(monitoring)하는 것이 가능하다.The server of the remote meter reading system (AMR) uses a data communication network (eg, backbone network, private network, Internet network included) provided to perform data communication based on TCP/IP (Transmission Control Protocol/Internet Protocol). interconnected with the collection device. The server performs data transmission and reception in real time with the data collection device through the data communication network, and it is possible to monitor the power state of each measurement target in real time.

또한, 서버는 데이터수집장치로부터 각 측정 대상의 검침 데이터를 실시간으로 제공받는다. 이러한 검침 데이터를 기초로 하여 각 측정 대상의 전력 상태, 예컨대 정전, 도전, 누전 상태 등을 분석하여 관리자에게 제공한다. In addition, the server receives the meter reading data of each measurement target in real time from the data collection device. Based on the meter reading data, the power state of each measurement target, for example, a power failure, conduction, leakage state, etc. is analyzed and provided to the manager.

여기서, 검침 데이터는 하나의 데이터 집중화 장치에 할당된 모든 측정 대상의 사용 전력량의 총합, 각 측정 대상별 사용 전력량, 순시 전력량 등이 될 수 있으며, 이 외에도 각 측정 대상의 전력 품질을 파악할 수 있는 모든 데이터가 포함될 수 있다.Here, the meter reading data may be the sum total of the amount of power used by all measurement targets allocated to one data concentrator device, the amount of power used by each measurement target, the instantaneous power amount, etc. In addition, all data that can determine the power quality of each measurement target may be included.

서버(300)는 대상 기기(200)에 대한 각종 정보를 저장하는 데이터베이스를 포함한다. 예를 들어, 서버(300)는 대상 기기(200)에 대한 객체 정보, 대상 기기(200)의 상태 정보, 대상 기기(200)에 포함된 구성요소에 대한 정보, 대상 기기(200)의 접근 권한 정보 및 대상 기기(200)에 대한 증강 현실 관련 데이터를 저장할 수 있다.The server 300 includes a database for storing various types of information on the target device 200 . For example, the server 300 may include object information on the target device 200 , status information of the target device 200 , information on components included in the target device 200 , and access rights of the target device 200 . Information and data related to augmented reality for the target device 200 may be stored.

서버(300)는 원격 검침 시스템(AMR)의 데이터수집장치 또는 서버로써 동작할 수 있다. 즉, 서버(300)는 대상 기기(200)에 대한 검침 데이터를 실시간을 제공받고 저장할 수 있다. 이를 통해, 서버(300)는 대상 기기(200)의 동작 상태를 모니터링하고 원격 제어할 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다. The server 300 may operate as a data collection device or server of the remote meter reading system (AMR). That is, the server 300 may receive and store the meter reading data for the target device 200 in real time. Through this, the server 300 may monitor and remotely control the operating state of the target device 200 . However, the present invention is not limited thereto.

도 2는 본 발명의 일 실시예에 따른 증강 현실 제공 장치를 설명하기 위한 블럭도이다.2 is a block diagram illustrating an apparatus for providing augmented reality according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 증강 현실 제공 장치인 사용자 단말기(100)는, 제어부(110), 카메라부(120), 객체 인식부(130), 안면 인식부(135), 위치 측정부(140), 증강 현실 처리부(150), 통신부(160), 센서부(165), 메모리부(170), 디스플레이부(180) 및 인터페이스부(190)를 포함한다. 다만, 도 2에 도시된 사용자 단말기(100)의 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 사용자 단말기(100)가 구현될 수 있다.Referring to FIG. 2 , the user terminal 100 as an augmented reality providing apparatus according to an embodiment of the present invention includes a controller 110 , a camera unit 120 , an object recognition unit 130 , and a face recognition unit 135 . , a position measuring unit 140 , an augmented reality processing unit 150 , a communication unit 160 , a sensor unit 165 , a memory unit 170 , a display unit 180 , and an interface unit 190 . However, since the components of the user terminal 100 shown in FIG. 2 are not essential, the user terminal 100 having more components or fewer components may be implemented.

제어부(110)는 사용자 단말기(100)에 포함된 구성요소의 전반적인 동작을 제어할 수 있다. 제어부(110)는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 실행할 수 있다. 또한, 제어부(350)는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수 있다. 상기 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터로 판독 가능한 기록 매체에 저장될 수 있다. 제어부(110)의 자세한 동작에 대한 설명은 이하에서 후술하도록 한다.The controller 110 may control the overall operation of the components included in the user terminal 100 . The controller 110 may execute an operating system (OS) and one or more software applications executed on the operating system. In addition, the controller 350 may access, store, manipulate, process, and generate data in response to the execution of the software. The software may be distributed over networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media. A detailed operation of the control unit 110 will be described below.

카메라부(120)는 영상을 촬영하는 장치로써, 촬영된 영상은 제어부(110)에 전달된다. 카메라부(120)에서 촬영된 영상은 실시간 프리뷰 형태로 디스플레이부(180)에 표시될 수 있다.The camera unit 120 is a device for capturing an image, and the captured image is transmitted to the controller 110 . The image captured by the camera unit 120 may be displayed on the display unit 180 in the form of a real-time preview.

카메라부(120)는 전면 카메라부(122)와 후면 카메라부(124)를 포함할 수 있다. 전면 카메라부(122)는 사용자 단말기(100)의 디스플레이부(180)와 동일한 평면 상에 배치되며, 사용자의 얼굴을 촬영하는데 이용될 수 있다. 후면 카메라부(124)는 사용자 단말기(100)의 후면에 배치되며, 대상 기기(200)를 촬영하는데 이용될 수 있다. 이때, 전면 카메라부(122)는 사용자 단말기(100)의 일면에 배치되고, 후면 카메라부(124)는 사용자 단말기(100)의 일면과 마주보는 타면에 배치될 수 있다.The camera unit 120 may include a front camera unit 122 and a rear camera unit 124 . The front camera unit 122 is disposed on the same plane as the display unit 180 of the user terminal 100 and may be used to photograph a user's face. The rear camera unit 124 is disposed on the rear side of the user terminal 100 , and may be used to photograph the target device 200 . In this case, the front camera unit 122 may be disposed on one surface of the user terminal 100 , and the rear camera unit 124 may be disposed on the other surface facing the one surface of the user terminal 100 .

객체 인식부(130)는 카메라부(120)에서 촬영된 영상에 포함된 객체를 인식한다. 객체 인식부(130)에서 사용되는 객체 인식 방법에는 영상에 포함된 마커를 이용해 객체를 인식하는 마커 기반 인식 방법과, 물리적인 마커 대신에 미리 등록된 실제 물체를 인식하는 마커리스 인식 방법이 있다.The object recognition unit 130 recognizes an object included in the image captured by the camera unit 120 . The object recognition method used in the object recognition unit 130 includes a marker-based recognition method for recognizing an object using a marker included in an image, and a markerless recognition method for recognizing a pre-registered real object instead of a physical marker.

구체적으로, 마커 기반 인식 방법은 큐알 코드(QR code), 데이터 메트릭스(DataMatrix) 또는 2D 바코드(Barcode) 등과 같은 마커를 기초로 객체를 인식하는 방법이다. 마커 기반 인식 방법은 시스템이 미리 이해하고 있는 특수한 형태의 마커를 활용하므로 연산 속도와 인식률이 높게 나타난다.Specifically, the marker-based recognition method is a method of recognizing an object based on a marker such as a QR code, a data matrix, or a 2D barcode. The marker-based recognition method utilizes a special type of marker that the system understands in advance, so the calculation speed and recognition rate are high.

마커리스 인식 방법은 자연영상 기반 방식과 환경인식 기반 방식으로 나뉜다. 자연영상 기반 방식은 일반적인 평면 이미지에 존재하는 다수의 특징점(feature point)들을 분석하여, 분석된 특징점들을 보이지 않는 마커처럼 활용한다. 자연영상 기반 방식은, 자연영상에 존재하는 특징점을 추출하는 기술과, 특징점을 묘사하는 디스크립터(descriptor)로 효과적으로 변환시키는 기술을 이용한다. 환경인식 기반 방식은, 특수한 형태의 마커나 미리 입력된 영상 없이 환경 자체를 삼차원 지도 형태로 인식하는 기법이다. 환경인식 기반 방식은 카메라 혹은 RGBD 센서로부터 데이터를 분석하여 삼차원 환경 지도를 실시간으로 작성하는 지도 작성(mapping) 기술과, 작성된 지도에서 현재 카메라의 위치를 추정하는 카메라 추적(tracking) 기술이 이용될 수 있다.The markerless recognition method is divided into a natural image-based method and an environment recognition-based method. The natural image-based method analyzes a number of feature points existing in a general flat image and uses the analyzed feature points as invisible markers. The natural image-based method uses a technique for extracting a feature point existing in a natural image and a technique for effectively converting the feature point into a descriptor. The environment recognition-based method is a technique for recognizing the environment itself in the form of a three-dimensional map without a special type of marker or a pre-input image. In the environment recognition-based method, a mapping technology that creates a three-dimensional environment map in real time by analyzing data from a camera or RGBD sensor, and a camera tracking technology that estimates the current camera position on the created map can be used. have.

다만, 이러한 객체 인식부(130)의 동작은 별도의 외부 장치(예를 들어, 서버(300))에서 수행될 수 있으며, 수행 결과에 대한 결과 데이터만을 사용자 단말기(100)에서 수신하여 이용할 수 있다.However, the operation of the object recognition unit 130 may be performed in a separate external device (eg, the server 300 ), and only result data of the execution result may be received and used by the user terminal 100 . .

안면 인식부(135)는 사용자의 얼굴을 촬영하고, 촬영된 영상에서 사용자의 얼굴 요소를 추출한다. 예를 들어, 안면 인식부(135)는 전면 카메라를 통해 사용자의 얼굴을 촬영한다. 이어서, 안면 인식부(135)는 촬영된 영상에서 사용자의 홍채, 얼굴 윤곽, 또는 이목구비에 대한 각각의 크기, 형상 및 배치, 얼굴의 3차원 패턴을 포함하는 얼굴 요소를 추출할 수 있다. 이때, 안면 인식부(135)는 복수의 얼굴 요소를 동시에 추출할 수 있다. 안면 인식부(135)에서 추출된 얼굴 요소는 사용자를 인식하는데 이용될 수 있으며, 사용자의 접근 권한을 판단하는 기초 데이터로 이용될 수 있다. The face recognition unit 135 captures the user's face and extracts the user's face element from the captured image. For example, the face recognition unit 135 captures the user's face through the front camera. Next, the face recognition unit 135 may extract a face element including the size, shape, and arrangement of the user's iris, face contour, or feature, and a three-dimensional pattern of the face from the captured image. In this case, the face recognition unit 135 may simultaneously extract a plurality of face elements. The facial element extracted from the face recognition unit 135 may be used to recognize the user, and may be used as basic data for determining the user's access right.

객체 인식부(130)는 앞에서 설명한 마커 기반 인식 방법과 마커리스 인식 방법을 이용하여 촬영된 영상에 포함된 객체를 인식할 수 있다. 이때, 객체 인식부(130)는 영상이 촬영된 위치 정보, 객체에 대한 마커 또는 객체의 마커리스 정보를 기초로 영상에 포함된 객체를 인식할 수 있다. 다만, 객체 인식부(130)가 객체를 인식하는 방법이 이에 한정되는 것은 아니며, 새로이 개발되는 다양한 방식이 적용될 수 있다.The object recognition unit 130 may recognize an object included in a captured image using the marker-based recognition method and the markerless recognition method described above. In this case, the object recognition unit 130 may recognize an object included in the image based on location information at which the image was captured, a marker for the object, or markerless information of the object. However, the method of recognizing the object by the object recognition unit 130 is not limited thereto, and various newly developed methods may be applied.

위치 측정부(140)는 사용자 단말기(100)의 현재 위치와, 촬영되는 객체의 위치를 측정한다. 구체적으로, 위치 측정부(140)는 로컬 위치 추적 기술을 이용하여 사용자 단말기(100)의 현재 위치와 사용자 단말기(100)에서 촬영되는 객체의 위치를 측정할 수 있다. 로컬 위치 추적 기술은 사용되는 방식에 따라서 TOF(time of flight), 공간 스캔(spatial scan), 관성측정(inertial sensing), 기계 연결식(mechanical linkage), 위상차 검출식(phase difference sensing), 직접 필드검출(direct field sensing)로 구분될 수 있으며, 정확도를 높이기 위해서 상기 기술들을 혼합하여 사용할 수 있다. The position measuring unit 140 measures the current position of the user terminal 100 and the position of the object to be photographed. Specifically, the location measurement unit 140 may measure the current location of the user terminal 100 and the location of an object photographed by the user terminal 100 using a local location tracking technology. Depending on the method used, local location tracking technology includes time of flight (TOF), spatial scan, inertial sensing, mechanical linkage, phase difference sensing, and direct field detection. (direct field sensing), and a mixture of the above techniques can be used to increase accuracy.

위치 측정부(140)는 근거리통신(near field communication; NFC)을 이용한 위치기반 서비스를 이용하여 위치측정을 할 수 있다. 예를 들어, 상기 위치기반 서비스는 Zigbee, iBeacon 기술을 이용할 수 있다. 위치기반 서비스는 주로 GPS를 사용하지 못하는 실내환경에서 이용될 수 있고, 각 노드의 신호강도를 통해서 상대위치를 파악할 수 있다. 또한, 위치 측정부(140)는 사용자 단말기(100)에 장착되어 있는 각종 센서(관성측정 센서, 고도계, 나침반) 등을 이용해서 위치측정의 정밀도를 높일 수 있다.The location measurement unit 140 may measure a location using a location-based service using near field communication (NFC). For example, the location-based service may use Zigbee and iBeacon technology. The location-based service can be mainly used in an indoor environment where GPS cannot be used, and the relative location can be determined through the signal strength of each node. In addition, the position measurement unit 140 may increase the accuracy of position measurement by using various sensors (inertial measurement sensor, altimeter, compass) installed in the user terminal 100 .

증강 현실 처리부(150)는 증강 현실 정보를 기초로 사용자에게 제공되는 증강 현실 인터페이스를 생성할 수 있다. 증강 현실 정보는 촬영되는 객체를 모델링 및 렌더링 하는데 이용되는 로데이터(raw data)이다. 증강 현실 정보는 서버(300)의 데이터베이스에 저장되거나, 사용자 단말기(100)의 메모리부(170)에 저장되어 이용될 수 있다.The augmented reality processing unit 150 may generate an augmented reality interface provided to the user based on the augmented reality information. Augmented reality information is raw data used to model and render a photographed object. The augmented reality information may be stored in the database of the server 300 or stored in the memory unit 170 of the user terminal 100 and used.

증강 현실 처리부(150)는 증강 현실 정보를 기초로 실제 물체를 가상으로 정확하게 표현하는 모델링 기술과, 이를 사실적으로 표현하는 렌더링 기술을 이용할 수 있다. 모델링 기술은 비디오로 입력되는 2D 영상에 깊이 정보를 반영하여 합성하는 기술이다. 모델링 기술은 사용자 의도대로 객체 변형, 색상 변화 등을 수행하여 현실 공간에서 이룰 수 없는 다양한 응용을 가능케 한다. 렌더링 기술은 생성된 가상 모델들에 조명효과, 그림자 효과, 밝기 변화 등을 부가하여 가상 모델을 사실적으로 표현함으로써, 사용자가 증강 현실 인터페이스에서 생동감을 느낄 수 있게 하는 기술이다.The augmented reality processing unit 150 may use a modeling technique that virtually accurately expresses a real object based on augmented reality information, and a rendering technique that realistically expresses it. The modeling technology is a technology for synthesizing a 2D image input as a video by reflecting depth information. Modeling technology enables various applications that cannot be achieved in real space by performing object transformation and color change according to the user's intention. Rendering technology is a technology that allows a user to feel alive in the augmented reality interface by realistically expressing the virtual model by adding lighting effects, shadow effects, and brightness changes to the generated virtual models.

다만, 이러한 증강 현실 처리부(150)의 동작은 별도의 외부 장치(예를 들어, 서버(300))에서 수행될 수 있으며, 수행 결과에 대한 결과 데이터만을 사용자 단말기(100)에서 수신하여 이용할 수 있다.However, the operation of the augmented reality processing unit 150 may be performed in a separate external device (eg, the server 300 ), and only result data for the execution result may be received and used by the user terminal 100 . .

통신부(160)는 증강현실 데이터베이스를 저장하고 관리하는 서버(300) 또는 촬영 대상인 대상 기기(200)와 데이터를 교환한다. 이때, 증강현실 데이터베이스는 증강현실 객체, 증강현실 객체의 속성 정보를 저장한 데이터베이스이다. The communication unit 160 exchanges data with the server 300 that stores and manages the augmented reality database or the target device 200 that is a photographing target. In this case, the augmented reality database is an augmented reality object and a database storing attribute information of the augmented reality object.

통신부(160)는 다른 단말 장치와 유무선으로 데이터를 주고 받는 전자 장치, 모듈 또는 프로그램을 포함할 수 있다. 통신부(160)에서 이용하는 통신 규약은, 예를 들어, CDMA(Code Division Multiple Access) 통신, WCDMA(Wideband Code Division Multiple Access) 통신 혹은, 광대역 무선 통신을 포함한다. 다만, 본 발명이 이에 한정되는 것은 아니다. The communication unit 160 may include an electronic device, a module, or a program that transmits and receives data to and from another terminal device in a wired or wireless manner. The communication protocol used by the communication unit 160 includes, for example, CDMA (Code Division Multiple Access) communication, WCDMA (Wideband Code Division Multiple Access) communication, or broadband wireless communication. However, the present invention is not limited thereto.

센서부(165)는 증강현실에 필요한 정보 또는 증강현실에 추가로 적용되는 맥락정보를 감지하는 장치이다. 센서부(165)는 온도 센서, 습도 센서, 위치감지 센서, 동작감지 센서 등을 포함할 수 있다. 여기에서, 위치감지 센서는 GPS신호를 감지하는 GPS 센서가 이용될 수 있고, 동작감지 센서로는 자이로스코프 센서 또는 가속도 센서가 이용될 수 있다. 또한, 센서부(165)는 사용자 단말기(100)의 현재 위치, 움직임, 기울기, 방향, 촬영하는 객체와의 거리, 주변의 소리, 밝기 등을 측정할 수 있다.The sensor unit 165 is a device for detecting information necessary for augmented reality or context information additionally applied to augmented reality. The sensor unit 165 may include a temperature sensor, a humidity sensor, a position sensor, a motion sensor, and the like. Here, a GPS sensor that detects a GPS signal may be used as the location sensor, and a gyroscope sensor or an acceleration sensor may be used as the motion sensor. In addition, the sensor unit 165 may measure the current position, movement, tilt, direction, distance to the object to be photographed, ambient sound, brightness, and the like of the user terminal 100 .

메모리부(170)는 사용자 단말기(100)의 전반적인 동작을 제어하기 위한 운영체제, 응용 프로그램 및 저장용 데이터(전화번호, SMS 메시지, 압축된 이미지 파일, 동영상 등)를 저장한다. 또한, 메모리부(170)는 촬영되는 대상에 대응되는 증강현실 객체, 증강현실 객체의 속성 정보 및 상태 정보를 저장할 수 있다. 즉, 메모리부(170)는 촬영 대상인 객체와, 객체에 포함된 구성요소에 대한 상태 정보 및 증강 현실 정보를 저장한다. The memory unit 170 stores an operating system for controlling the overall operation of the user terminal 100, an application program, and data for storage (phone number, SMS message, compressed image file, video, etc.). In addition, the memory unit 170 may store the augmented reality object corresponding to the object to be photographed, attribute information of the augmented reality object, and state information. That is, the memory unit 170 stores the object to be photographed, state information about the components included in the object, and augmented reality information.

메모리부(170)는 RAM(Random Access Memory) 또는 ROM(Read Only Memory)과 정적 정보 및 명령어들을 저장하는 정적 저장 디바이스를 포함할 수 있다. 메모리부(170)는 휘발성 메모리 유닛 또는 비휘발성 메모리 유닛일 수 있다. 메모리부(170)는 또한 자기 또는 광디스크와 같은 컴퓨터 판독가능 매체의 또 다른 유형일 수 있다.The memory unit 170 may include a random access memory (RAM) or read only memory (ROM) and a static storage device for storing static information and instructions. The memory unit 170 may be a volatile memory unit or a non-volatile memory unit. Memory unit 170 may also be another type of computer readable medium, such as a magnetic or optical disk.

디스플레이부(180)는 사용자 단말기(100)의 동작 중에 발생되는 상태 정보(또는 인디케이터), 제한된 숫자와 문자들, 동화상(moving picture) 및 정화상(still picture) 등을 표시한다. 또한, 디스플레이부(180)는 카메라부(120)를 통해 수신되는 영상을 표시하고, 촬영되는 객체에 대응되는 증강 현실 인터페이스를 표시할 수 있다. The display unit 180 displays status information (or indicators) generated during operation of the user terminal 100 , limited numbers and characters, a moving picture, a still picture, and the like. Also, the display unit 180 may display an image received through the camera unit 120 and display an augmented reality interface corresponding to a photographed object.

인터페이스부(190)는 사용자로부터의 입력을 수신할 수 있다. 인터페이스부(190)는 버튼형 입력부, 터치 스크린, 키보드 또는 마우스 등과 같은 입력장치를 포함할 수 있다. 예를 들어, 터치 스크린은 디스플레이부(180)의 상면에 형성될 수 있고, 사용자의 터치를 통해 입력을 수신할 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다.The interface unit 190 may receive an input from a user. The interface unit 190 may include an input device such as a button type input unit, a touch screen, a keyboard, or a mouse. For example, the touch screen may be formed on the upper surface of the display unit 180 and may receive an input through a user's touch. However, the present invention is not limited thereto.

도 3 및 도 4는 본 발명의 일 실시예에 따른 증강 현실 제공 장치의 동작 방법을 설명하기 위한 도면이다.3 and 4 are diagrams for explaining a method of operating an apparatus for providing augmented reality according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시예에 따른 증강 현실 제공 장치인 사용자 단말기(100)는 후면 카메라부(124)를 이용하여 대상 기기(200)를 촬영하고, 촬영된 대상 기기(200)에 대한 증강 현실 인터페이스를 디스플레이부(180) 상에 표시한다.Referring to FIG. 3 , the user terminal 100 , which is an augmented reality providing apparatus according to an embodiment of the present invention, uses a rear camera unit 124 to photograph a target device 200 , and the photographed target device 200 . displays the augmented reality interface for the on the display unit 180 .

여기에서, 대상 기기(200)는 제1 및 제2 대상기기(210, 220)를 포함할 수 있다. 예를 들어, 제1 및 제 2 대상 기기(210, 220)는 각각 자동제어기기나 산업용기기 또는 배전반 중 어느 하나가 될 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다. Here, the target device 200 may include first and second target devices 210 and 220 . For example, each of the first and second target devices 210 and 220 may be any one of an automatic control device, an industrial device, or a switchboard. However, the present invention is not limited thereto.

서버(300)는 대상 기기(200)와 연동되어 대상 기기(200)에 대한 다양한 데이터를 저장한다. 서버(300)는 객체 정보 DB(310), 접근 권한 정보 DB(320), 증강현실 DB(330)를 포함한다. 이하에서, 대상 기기(200)는 촬영 대상인 '객체'라는 용어와 혼용하여 설명하도록 한다.The server 300 works with the target device 200 to store various data about the target device 200 . The server 300 includes an object information DB 310 , an access right information DB 320 , and an augmented reality DB 330 . Hereinafter, the target device 200 will be described by mixing it with the term 'object', which is a photographing target.

객체 정보 DB(310)는 객체에 대한 다양한 정보를 포함한다. 예를 들어, 객체의 제품 정보(제품명, 제품 번호, 제품 종류, 설치 시기, 관리 방법 등), 객체가 설치된 위치 정보, 객체와 관련된 회로도 등의 정보를 포함할 수 있다.The object information DB 310 includes various information about objects. For example, it may include information such as product information of the object (product name, product number, product type, installation time, management method, etc.), location information where the object is installed, and a circuit diagram related to the object.

접근 권한 정보 DB(320)는 객체에 접근이 허여된 사용자의 접근 권한 정보를 포함한다. 접근 권한 정보 DB(320)는 각 객체에 대한 사용자의 접근 권한 정보를 저장한다. 이때, 접근 권한 정보 DB(320)는 각 객체에 대한 등록 사용자의 얼굴 요소, 지문 등 사용자를 식별할 수 있는 생체정보와 사용자가 미리 설정한 패스워드 및 암호화키를 저장할 수 있다. 즉, 접근 권한 정보 DB(320)는 사용자의 객체에 대한 접근 권한 여부를 판단하는데 필요한 정보를 저장한다. 이때, 객체에 대한 접근 권한은, 사용자에 따라 서로 다른 레벨이 할당될 수 있다. 즉, 각각의 사용자는 서로 다른 접근 권한 레벨을 가질 수 있으며, 사용자의 접근 권한 레벨에 따라 객체에 대해 접근할 수 있는 정보의 레벨은 상이해질 수 있다. The access authority information DB 320 includes access authority information of a user who is granted access to an object. The access authority information DB 320 stores the user's access authority information for each object. In this case, the access right information DB 320 may store biometric information that can identify the user, such as the face element and fingerprint of the registered user for each object, and a password and encryption key preset by the user. That is, the access authority information DB 320 stores information necessary for determining whether the user has access authority to the object. In this case, different levels of access rights for objects may be assigned according to users. That is, each user may have different access authority levels, and the level of information that can be accessed for an object may be different according to the user's access authority level.

증강현실 DB(330)는 객체를 모델링 및 렌더링 하는데 이용되는 로데이터(raw data)인 증강 현실 정보를 저장한다. 또한, 증강현실 DB(330)는 증강 현실 정보를 기초로 사용자에게 제공되는 증강 현실 인터페이스를 저장한다. 즉, 증강현실 DB(330)는 객체의 모델링 및 렌더링 이전의 증강 현실 정보와, 모델링 및 렌더링 이후의 증강 현실 인터페이스를 모두 저장하고, 사용자 단말기(100)의 요청에 따라 필요한 데이터를 제공할 수 있다. The augmented reality DB 330 stores augmented reality information that is raw data used to model and render an object. In addition, the augmented reality DB 330 stores the augmented reality interface provided to the user based on the augmented reality information. That is, the augmented reality DB 330 may store all of the augmented reality information before modeling and rendering of the object and the augmented reality interface after modeling and rendering, and may provide necessary data according to the request of the user terminal 100 . .

사용자 단말기(100)는 촬영되는 영상에 포함된 객체인 대상 기기(200)를 인식하고, 대상 기기(200)에 대한 증강 현실 정보 또는 증강 현실 인터페이스를 서버(300)로부터 수신하여 디스플레이부(180)에 표시한다. 이때, 사용자 단말기(100)는 현재 사용자의 대상 기기(200)에 대한 접근 권한을 판단하거나, 서버(300)로부터 사용자의 접근 권한에 대한 정보를 수신한다. 이어서, 사용자 단말기(100)는 사용자에게 접근 권한이 있는 대상 기기(200)에 대한 증강 현실 인터페이스만을 디스플레이부(180)에 표시한다.The user terminal 100 recognizes the target device 200, which is an object included in the captured image, and receives augmented reality information or an augmented reality interface for the target device 200 from the server 300, and the display unit 180 displayed on In this case, the user terminal 100 determines the current user's access right to the target device 200 or receives information about the user's access right from the server 300 . Next, the user terminal 100 displays only the augmented reality interface for the target device 200 to which the user has access right on the display unit 180 .

도 4를 참조하면, 사용자 단말기(100)는 사용자(User)의 얼굴에 대한 영상을 촬영한다. 이때, 사용자 단말기(100)는 전면 카메라부(122)를 이용하여 사용자(User)의 얼굴을 촬영하고, 촬영된 영상에서 사용자(User)의 얼굴 요소를 추출한다. 예를 들어, 사용자 단말기(100)는 사용자(User)의 얼굴을 촬영하고, 촬영된 영상에서 사용자의 홍채(S11, S12)를 인식한 뒤, 인식된 데이터를 기초로 사용자가 대상 기기(200)에 대한 접근 권한을 가지고 있는지 판단한다. 다만, 본 발명이 이에 한정되는 것은 아니며, 사용자 단말기(100)는 사용자의 얼굴 요소 중에서 사용자의 얼굴 윤곽 또는 얼굴의 3차원 패턴을 고려할 수 있고, 이목구비에 대한 각각의 크기, 형상 및 배치를 기초로 사용자의 접근 권한을 판단할 수 있다.Referring to FIG. 4 , the user terminal 100 captures an image of a user's face. At this time, the user terminal 100 uses the front camera unit 122 to photograph the user's face, and extracts the user's face elements from the captured image. For example, the user terminal 100 captures the user's face, recognizes the user's iris S11 and S12 from the captured image, and then, based on the recognized data, the user selects the target device 200 . Determine if you have access to However, the present invention is not limited thereto, and the user terminal 100 may consider the user's face contour or a three-dimensional pattern of the user's face among the user's face elements, and based on the size, shape and arrangement of each feature You can determine the user's access right.

사용자 단말기(100)에서 수행되는 증강 현실 제공 방법에 대한 자세한 설명은 이하에서 후술하도록 한다.A detailed description of the augmented reality providing method performed in the user terminal 100 will be described below.

도 5는 본 발명의 일 실시예에 따른 증강 현실 제공 방법을 나타내는 순서도이다.5 is a flowchart illustrating a method for providing augmented reality according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 일 실시예에 따른 증강 현실 제공 방법은 우선, 사용자 단말기(100)는 후면 카메라부(124)를 이용하여 객체(즉, 대상 기기(200))를 포함하는 영상을 촬영한다(S110). Referring to FIG. 5 , in the augmented reality providing method according to an embodiment of the present invention, first, the user terminal 100 uses the rear camera unit 124 to display an image including an object (ie, the target device 200 ). is photographed (S110).

이어서, 객체 인식부(130)는 촬영된 영상에 포함된 객체를 인식한다(S120). 객체 인식부(130)는 촬영된 영상에 포함된 복수의 객체를 모두 인식할 수 있다.Next, the object recognition unit 130 recognizes an object included in the captured image (S120). The object recognition unit 130 may recognize all of the plurality of objects included in the captured image.

이어서, 사용자 단말기(100)는 전면 카메라부(122)를 이용하여 사용자를 포함하는 영상을 촬영하고, 촬영된 영상에서 사용자를 인식한다(S130). Next, the user terminal 100 captures an image including the user using the front camera unit 122, and recognizes the user from the captured image (S130).

이어서, 사용자 단말기(100)는 사용자 인식 정보를 서버(300)에 전달한다(S140). 예를 들어, 사용자 단말기(100)는 사용자의 얼굴을 인식하고, 얼굴에 포함된 얼굴 요소를 포함하는 사용자 인식 정보를 서버(300)에 전달할 수 있다.Then, the user terminal 100 transmits the user recognition information to the server 300 (S140). For example, the user terminal 100 may recognize a user's face and transmit user recognition information including a face element included in the face to the server 300 .

이어서, 서버(300)는 특정 객체에 대하여 미리 입력된 등록 사용자의 정보와, 사용자 단말기(100)로부터 수신한 사용자 인식 정보를 비교하여 객체에 대한 접근 권한을 판단한다(S150). 이때, 객체에 대한 접근 권한의 판단 주체는 서버(300)이고, 사용자 단말기(100)는 접근 권한 여부에 대한 결과를 수신할 수 있다. Next, the server 300 compares the registered user information input in advance for the specific object with the user recognition information received from the user terminal 100 to determine the access right to the object (S150). In this case, the subject of determining the access right to the object is the server 300 , and the user terminal 100 may receive a result of whether or not the access authority is present.

본 발명의 다른 실시예에서, 도면에 명확히 도시하지는 않았으나, 사용자 단말기(100)는 서버(300)로부터 객체에 대한 미리 입력된 등록 사용자의 정보를 수신하여, 직접 객체에 대한 접근 권한 여부를 판단할 수 있다.In another embodiment of the present invention, although not clearly shown in the drawings, the user terminal 100 receives the pre-entered registered user information about the object from the server 300, and directly determines whether access to the object is authorized. can

이어서, 사용자 단말기(100)는 촬영된 객체에 대한 접근 권한을 고려하여 현재 사용자에게 객체에 대한 접근 권한이 있는 경우, 객체에 대한 증강 현실 인터페이스를 디스플레이부(180)에 표시한다(S160, S170). 이때, 사용자 단말기(100)는 해당 객체에 대한 증강 현실 인터페이스를 서버(300)로부터 수신하여 표시할 수 있다.Next, the user terminal 100 displays the augmented reality interface for the object on the display unit 180 when the current user has the access right to the object in consideration of the access right to the photographed object (S160, S170) . In this case, the user terminal 100 may receive and display the augmented reality interface for the object from the server 300 .

반면, 현재 사용자에게 촬영된 객체에 대한 접근 권한이 없는 경우, 사용자 단말기(100)는 객체에 대한 사용자의 접근 권한을 등록할 수 있는 권한 등록 메뉴로 이동한다(S165).On the other hand, if the current user does not have an access right to the photographed object, the user terminal 100 moves to a permission registration menu for registering the user's access right to the object (S165).

이어서, 이후에도 여전히 사용자에게 해당 객체에 대한 접근 권한이 없는 경우, 사용자 단말기(100)는 해당 객체에 대해 촬영된 영상을 그대로 표시할 수 있다.Subsequently, if the user still does not have access to the corresponding object even after that, the user terminal 100 may display the image captured for the corresponding object as it is.

추가적으로, 본 발명의 일 실시예에서 사용자 단말기(100)는 서버(300)로부터 수신한 증강 현실 관련 데이터를 증강 현실 인터페이스로 변환하여 디스플레이부(180)로 출력할 수 있다. 사용자 단말기(100)의 증강 현실 처리부(150)는 사용자가 미리 설정한 설정값을 반영하여 객체 변형 또는 색상 변화 등과 같은 효과를 추가적으로 부여할 수 있다. Additionally, in an embodiment of the present invention, the user terminal 100 may convert the augmented reality related data received from the server 300 into an augmented reality interface and output the converted data to the display unit 180 . The augmented reality processing unit 150 of the user terminal 100 may additionally apply effects such as object transformation or color change by reflecting a preset value set by the user.

추가적으로, 본 발명의 다른 실시예에서 사용자 단말기(100)는 촬영되는 영상에 포함된 객체인 대상 기기(200)에 대한 서버(300)에 미리 저장된 증강 현실 인터페이스를 수신하여 디스플레이부(180)에 바로 표시할 수 있다. Additionally, in another embodiment of the present invention, the user terminal 100 receives the augmented reality interface stored in advance in the server 300 for the target device 200, which is an object included in the captured image, and directly displays the augmented reality interface on the display unit 180. can be displayed

예를 들어, 서버(300)는 앞에서 설명한 사용자 단말기(100)의 객체 인식부(130)와 증강 현실 처리부(150)의 동작을 수행할 수 있다. 이어서, 사용자 단말기(100)는 서버(300)로부터 수행된 동작의 결과 데이터를 수신하여 이용할 수 있다. 구체적으로, 사용자 단말기(100)는 후면 카메라부(124)에서 촬영된 영상을 서버(300)에 전송하고, 서버(300)는 수신된 영상에 포함된 객체를 인식하며, 인식된 객체에 대한 증강 현실 인터페이스를 생성하여 사용자 단말기(100)에 제공할 수 있다.For example, the server 300 may perform the operations of the object recognition unit 130 and the augmented reality processing unit 150 of the user terminal 100 described above. Subsequently, the user terminal 100 may receive and use result data of the operation performed from the server 300 . Specifically, the user terminal 100 transmits the image captured by the rear camera unit 124 to the server 300, and the server 300 recognizes an object included in the received image, and augments the recognized object. A real interface may be generated and provided to the user terminal 100 .

이 경우, 사용자 단말기(100)는 서버(300)로부터 수신한 데이터(즉, 증강 현실 인터페이스)를 그대로 이용할 수 있어 제어부(110)의 연산량이 감소되므로 동작 속도가 증가될 수 있다. In this case, the user terminal 100 can use the data (ie, the augmented reality interface) received from the server 300 as it is, so that the amount of computation of the control unit 110 is reduced, so that the operation speed can be increased.

또한, 사용자 단말기(100)는 사용자의 설정값을 반영하여 사용자의 요구에 맞게 변경된 증강 현실 인터페이스를 출력할 수 있다. 즉, 사용자 단말기(100)는 서버(300)에서 제공하는 증강 현실 인터페이스를 그대로 이용할 뿐만 아니라, 사용자가 원하는 다양한 표현 효과를 증강 현실 인터페이스 상에 구현할 수 있다. In addition, the user terminal 100 may output the augmented reality interface changed to suit the user's request by reflecting the user's setting value. That is, the user terminal 100 may not only use the augmented reality interface provided by the server 300 as it is, but also implement various expression effects desired by the user on the augmented reality interface.

따라서, 본 발명의 다른 실시예에 따른 증강 현실 제공 방법은 사용자의 필요에 맞도록 증강 현실 인터페이스를 변경하여 출력할 수 있다. Accordingly, the augmented reality providing method according to another embodiment of the present invention may change and output the augmented reality interface to suit the needs of the user.

도 6은 도 5의 증강 현실 제공 방법의 동작의 일 예를 설명하기 위한 순서도이다. 도 6에서는 도 5를 참조하여 설명한 내용과 중복되는 내용은 생략하고, 차이점을 위주로 설명하도록 한다.6 is a flowchart illustrating an example of an operation of the augmented reality providing method of FIG. 5 . In FIG. 6, content overlapping with the content described with reference to FIG. 5 will be omitted, and differences will be mainly described.

도 6을 참조하면, 앞에서 설명한 S120 단계에 이어서, 사용자 단말기(100)는 전면 카메라부(122)를 이용하여 사용자의 얼굴 이미지를 촬영한다(S230).Referring to FIG. 6 , following step S120 described above, the user terminal 100 takes a face image of the user using the front camera unit 122 ( S230 ).

이어서, 사용자 단말기(100)는 촬영된 얼굴 이미지에 포함된 얼굴 요소를 추출한다(S240). 구체적으로, 사용자 단말기(100)의 안면 인식부(135)는 촬영된 영상에서 사용자의 얼굴을 인식한다. 이어서, 사용자 단말기(100)는 사용자의 홍채, 얼굴 윤곽, 또는 이목구비에 대한 각각의 크기, 형상 및 배치, 얼굴의 3차원 패턴을 포함하는 얼굴 요소를 인식한다. 인식된 사용자의 얼굴 요소는 사용자를 인증하고, 사용자의 접근 권한을 판단하는데 이용된다.Next, the user terminal 100 extracts a face element included in the photographed face image ( S240 ). Specifically, the face recognition unit 135 of the user terminal 100 recognizes the user's face in the captured image. Then, the user terminal 100 recognizes a face element including the size, shape and arrangement of each of the user's iris, facial contour, or feature, and a three-dimensional pattern of the face. The recognized user's face element is used to authenticate the user and determine the user's access right.

이어서, 사용자 단말기(100)는 현재 사용자의 인식된 얼굴 요소를 기초로 사용자 인증을 수행한다(S250). 이때, 사용자 인증의 주체는 사용자 단말기(100) 또는 서버(300)가 될 수 있다. 사용자 인증은 특정 객체에 대하여 미리 입력된 등록 사용자의 얼굴 요소와, 현재 사용자의 인식된 얼굴 요소가 매칭되는지 여부를 기초로 수행된다. 만약, 객체에 대한 등록 사용자와 현재 사용자의 얼굴 요소가 일치하는 경우, 사용자 단말기(100) 또는 서버(300)는 현재 사용자의 객체에 대한 접근 권한이 있다고 판단한다.Next, the user terminal 100 performs user authentication based on the recognized face element of the current user (S250). In this case, the subject of user authentication may be the user terminal 100 or the server 300 . User authentication is performed based on whether the face element of the registered user input in advance for a specific object and the recognized face element of the current user match. If the registered user for the object matches the face element of the current user, the user terminal 100 or the server 300 determines that the current user has access to the object.

이어서, 사용자 단말기(100)는 인식된 각각의 객체들에 대하여 인식된 사용자가 접근 권한이 있는지 확인한다(S260).Next, the user terminal 100 checks whether the recognized user has access to each of the recognized objects (S260).

이어서, 사용자 단말기(100)는 접근 권한이 확인된 객체에 대한 증강 현실 인터페이스만을 디스플레이부(180)에 오버랩하여 표시한다(S270). 이때, 사용자 단말기(100)는 사용자의 접근 권한 레벨에 따라 서로 다른 증강 현실 인터페이스를 객체에 오버랩하여 표시할 수 있다. 예를 들어, 접근 권한 레벨이 낮은 사용자에게는 해당 객체에 대한 한정된 정보만을 포함하는 증강 현실 인터페이스를 표시하고, 접근 권한 레벨이 높은 사용자에게는 해당 객체에 대한 모든 정보를 포함하는 증강 현실 인터페이스를 표시할 수 있다. 다만, 이는 하나의 예시에 불과하고, 본 발명이 이에 한정되는 것은 아니다. Then, the user terminal 100 overlaps and displays only the augmented reality interface for the object whose access right is confirmed on the display unit 180 (S270). In this case, the user terminal 100 may overlap and display different augmented reality interfaces on the object according to the user's access right level. For example, an augmented reality interface including only limited information about the object may be displayed to a user with a low access permission level, and an augmented reality interface including all information about the object may be displayed to a user having a high access permission level. have. However, this is only an example, and the present invention is not limited thereto.

즉, 사용자 단말기(100)는 현재 사용자의 얼굴 요소를 기초로 촬영된 객체에 대한 접근 권한 여부를 판단하고, 현재 사용자가 접근 권한이 있는 객체에 대한 증강 현실 인터페이스만을 화면에 표시할 수 있다. That is, the user terminal 100 may determine whether access to the photographed object is right based on the face element of the current user, and display only the augmented reality interface for the object to which the current user has access right on the screen.

도 7은 도 5의 증강 현실 제공 방법의 동작의 다른 예를 설명하기 위한 순서도이다. 도 7에서는 도 5를 참조하여 설명한 내용과 중복되는 내용은 생략하고, 차이점을 위주로 설명하도록 한다.7 is a flowchart illustrating another example of the operation of the augmented reality providing method of FIG. 5 . In FIG. 7, content overlapping with the content described with reference to FIG. 5 will be omitted, and differences will be mainly described.

도 7을 참조하면, 앞에서 설명한 S120 단계에 이어서, 사용자 단말기(100)는 전면 카메라부(122)를 이용하여 사용자의 얼굴 이미지를 촬영하고, 촬영된 얼굴 이미지에 포함된 복수의 얼굴 요소를 추출한다(S330). Referring to FIG. 7 , following step S120 described above, the user terminal 100 captures a face image of the user using the front camera unit 122 and extracts a plurality of face elements included in the captured face image. (S330).

구체적으로, 사용자 단말기(100)의 안면 인식부(135)는 촬영된 영상에서 사용자의 얼굴 이미지를 인식한다. 이어서, 사용자 단말기(100)는 얼굴 이미지에서 복수의 얼굴 요소를 추출한다. 이때, 얼굴 요소는 사용자의 홍채, 얼굴 윤곽, 또는 이목구비의 구조, 배치, 형상 등을 포함할 수 있다.Specifically, the face recognition unit 135 of the user terminal 100 recognizes the user's face image from the captured image. Next, the user terminal 100 extracts a plurality of face elements from the face image. In this case, the face element may include the user's iris, facial contour, or the structure, arrangement, and shape of the features.

이어서, 사용자 단말기(100) 또는 서버(300)는 현재 사용자에 대한 복수의 얼굴 요소를 이용하여 사용자 인증을 수행한다(S340). 구체적으로, 사용자 단말기(100) 또는 서버(300)는 현재 사용자의 서로 다른 제1 및 제2 얼굴 요소에 대한 데이터가, 해당 객체에 대하여 미리 입력된 등록 사용자의 데이터와 모두 일치하는지 여부를 기초로 현재 사용자가 등록 사용자인지 여부를 판단할 수 있다. 예를 들어, 제1 얼굴 요소는 홍채, 제2 얼굴요소는 안면 윤곽 정보가 될 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다. Next, the user terminal 100 or the server 300 performs user authentication using a plurality of face elements for the current user ( S340 ). Specifically, the user terminal 100 or the server 300 determines whether the data for the first and second face elements different from the current user match all the data of the registered user input in advance for the corresponding object, based on whether It may be determined whether the current user is a registered user. For example, the first facial element may be the iris, and the second facial element may be facial contour information. However, the present invention is not limited thereto.

이어서, 사용자 단말기(100)는 촬영된 복수의 객체 각각에 대하여, 현재 사용자의 접근 권한을 확인한다(S350).Next, the user terminal 100 confirms the access right of the current user for each of the plurality of photographed objects ( S350 ).

이어서, 사용자 단말기(100)는 촬영된 복수의 객체 중에서 사용자의 접근 권한이 확인된 객체에 대한 증강 현실 인터페이스만을 디스플레이부(180)에 표시한다(S360). Next, the user terminal 100 displays only the augmented reality interface for the object for which the user's access right is confirmed among the plurality of photographed objects on the display unit 180 (S360).

도 8 내지 도 10은 본 발명의 몇몇 실시예에 따른 증강 현실 제공 방법의 동작의 일 예를 설명하기 위한 도면이다.8 to 10 are diagrams for explaining an example of an operation of an augmented reality providing method according to some embodiments of the present invention.

도 8을 참조하면, 본 발명의 몇몇 실시예에 따른 증강 현실 제공 방법에서, 사용자 단말기(100)는 전면 카메라부(122)를 통하여 현재 사용자의 얼굴 이미지를 촬영한다. Referring to FIG. 8 , in the augmented reality providing method according to some embodiments of the present invention, the user terminal 100 captures a face image of the current user through the front camera unit 122 .

이어서, 사용자 단말기(100)는 촬영된 사용자의 얼굴 이미지에서 얼굴 요소를 추출한다. 예를 들어, 사용자 단말기(100)의 안면 인식부(135)는 촬영된 영상에서 사용자의 얼굴 이미지(S2)를 우선 인식한다. 이어서, 안면 인식부(135)는 얼굴 이미지(S2)에서 눈 부분(S1)을 인식하여, 양쪽 홍채(S11, S12)에 대한 데이터를 추출한다. Next, the user terminal 100 extracts a face element from the photographed face image of the user. For example, the face recognition unit 135 of the user terminal 100 first recognizes the user's face image S2 from the captured image. Next, the face recognition unit 135 recognizes the eye portion S1 from the face image S2 and extracts data for both irises S11 and S12 .

사용자 단말기(100)는 사용자의 양쪽 홍채(S11, S12)에 대한 데이터를, 미리 입력된 객체에 대한 등록 사용자의 데이터와 비교한다. 등록 사용자의 데이터는 서버(300)에 저장될 수 있으며, 사용자 단말기(100)의 호출에 의해 사용자 단말기(100)에 전달될 수 있다. 이를 통해, 사용자 단말기(100)는 사용자가 촬영된 대상 객체에 접근 권한을 갖고 있는지 여부를 판단할 수 있다. The user terminal 100 compares the data on both iris S11 and S12 of the user with the data of the registered user for the pre-entered object. The registered user's data may be stored in the server 300 , and may be transmitted to the user terminal 100 by a call of the user terminal 100 . Through this, the user terminal 100 may determine whether the user has an access right to the photographed target object.

이때, 사용자의 접근 권한에 대한 판단 주체를 사용자 단말기(100)로 설명하였으나, 본 발명이 이에 한정되는 것은 아니다. 예를 들어, 사용자 단말기(100)는 추출된 사용자의 양쪽 홍채(S11, S12)에 대한 데이터를 서버(300)에 전달하고, 서버(300)는 미리 입력된 객체에 대한 등록 사용자의 데이터를 기초로 사용자의 접근 권한을 판단한다. 이어서, 서버(300)는 판단된 객체에 대한 사용자의 접근 권한을 사용자 단말기(100)에 전달할 수 있다.At this time, although the user terminal 100 has been described as the subject for determining the user's access right, the present invention is not limited thereto. For example, the user terminal 100 transmits the extracted data on both iris S11 and S12 of the user to the server 300, and the server 300 based on the registered user data for the pre-entered object. to determine the user's access right. Subsequently, the server 300 may transmit the user's access right to the determined object to the user terminal 100 .

여기에서, 사용자의 얼굴 요소로써, 홍채만을 인식하는 실시예를 설명하였으나, 본 발명이 이에 한정되는 것은 아니며, 다양한 얼굴 요소(예를 들어, 얼굴 윤곽, 이목구비의 형상 및 배치)를 고려하여 사용자의 접근 권한을 판단할 수 있다.Here, an embodiment in which only the iris is recognized as the user's face element has been described, but the present invention is not limited thereto, and the user's Access rights can be determined.

이때, 사용자는 사용자 단말기(100)를 두손을 이용해 안정적으로 파지한 상태에서 사용자의 권한 인증을 수행할 수 있다. 따라서, 본 발명의 증강 현실 제공 시스템 및 방법은, 객체를 촬영하는 도중에 특별한 조작 없이 얼굴 인식을 통해 객체에 대한 권한 인증을 수행함으로써, 패스워드를 따로 입력해야 하는 과정을 생략할 수 있다. 이를 통해 사용자의 편의성을 향상시킬 수 있으며, 동일한 시간 내에 빠른 작업 처리가 가능해지므로 작업 효율이 향상될 수 있다.In this case, the user may perform the user's authority authentication while stably holding the user terminal 100 with both hands. Accordingly, the augmented reality providing system and method of the present invention may omit a process of separately inputting a password by performing authorization authentication for an object through face recognition without special manipulation while photographing the object. Through this, user's convenience can be improved, and work efficiency can be improved because quick work processing is possible within the same time.

도 9를 참조하면, 본 발명의 몇몇 실시예에 따른 증강 현실 제공 방법에서, 사용자 단말기(100)는 대상 기기(200)를 촬영하고, 대상 기기(200)는 제1 및 제2 객체(210, 220)를 포함할 수 있다. 사용자 단말기(100)는 현재 사용자가 제1 및 제2 객체(210, 220)에 대해 접근 권한을 갖고 있는지 여부를 판단한다. Referring to FIG. 9 , in the augmented reality providing method according to some embodiments of the present invention, the user terminal 100 photographs a target device 200 , and the target device 200 includes first and second objects 210 , 220) may be included. The user terminal 100 determines whether the current user has access rights to the first and second objects 210 and 220 .

만약, 사용자 단말기(100)의 현재 사용자가 제1 객체(210)에 대해 접근 권한을 갖고 있는 경우, 사용자 단말기(100)는 제1 객체(210) 상에 제1 객체(210)에 대한 증강 현실 인터페이스를 표시할 수 있다. 사용자 단말기(100)는 증강 현실 인터페이스에 포함된 증강 현실 이미지를 제1 객체(210) 상에 오버랩 되도록 표시될 수 있다. 이때, 제1 객체(210) 상에는 사용자가 접근 권한을 갖고 있다는 증강 현실 메뉴(M31)가 표시될 수 있다. If the current user of the user terminal 100 has an access right to the first object 210 , the user terminal 100 is augmented reality for the first object 210 on the first object 210 . interface can be displayed. The user terminal 100 may display the augmented reality image included in the augmented reality interface to overlap the first object 210 . In this case, the augmented reality menu M31 indicating that the user has the access right may be displayed on the first object 210 .

반면, 사용자 단말기(100)의 현재 사용자가 제2 객체(220)에 대해 접근 권한을 갖고 있지 않은 경우, 사용자 단말기(100)는 제2 객체(220)를 촬영되는 영상 그대로 표시할 수 있다. 이때, 제2 객체(220) 상에는 사용자가 접근 권한을 갖고 있지 않다는 증강 현실 메뉴(M21)가 표시될 수 있다.On the other hand, when the current user of the user terminal 100 does not have access to the second object 220 , the user terminal 100 may display the second object 220 as it is a captured image. In this case, the augmented reality menu M21 indicating that the user does not have an access right may be displayed on the second object 220 .

또한, 사용자 단말기(100)는 제2 객체(220)에 대해 사용자가 권한 등록을 신청할 수 있는 증강 현실 메뉴(M22)를 화면에 표시할 수 있다. 사용자가 권한 등록 신청에 대한 증강 현실 메뉴(M22)를 선택하는 경우, 사용자 단말기(100)는 제2 객체(220)에 대한 사용자 권한을 등록할 수 있는 권한 등록 메뉴를 포함하는 홈페이지 또는 인터페이스로 화면을 전환할 수 있다.In addition, the user terminal 100 may display the augmented reality menu M22 on the screen in which the user can apply for permission registration for the second object 220 . When the user selects the augmented reality menu M22 for the permission registration application, the user terminal 100 screens to a homepage or interface including a permission registration menu for registering user rights for the second object 220 can be switched

도 10을 참조하면, 사용자는 증강 현실 인터페이스가 제공되는 제1 객체(210)를 선택할 수 있다. 이 경우, 사용자 단말기(100)는 제1 객체(210)에 대한 상세 정보를 나타내는 증강 현실 메뉴(M32)를 표시할 수 있다. Referring to FIG. 10 , a user may select a first object 210 to which an augmented reality interface is provided. In this case, the user terminal 100 may display the augmented reality menu M32 indicating detailed information on the first object 210 .

예를 들어, 사용자가 제1 객체(210)을 선택하는 경우, 증강 현실 처리부(150)는 제1 객체(210)의 동작 상태 및 상태 정보(예를 들어, 동작 전력량, 시간당 전력 변화량, 평균 전력량, 전력량 변화 추이 등)를 반영한 증강 현실 인터페이스를 생성하여 표시할 수 있다. 사용자 단말기(100)는 사용자가 객체에 대한 접근 권한을 가지고 있는 경우에만, 해당 객체에 대한 자세한 정보를 증강 현실 인터페이스로 표시한다.For example, when the user selects the first object 210 , the augmented reality processing unit 150 provides the first object 210 with operational state and state information (eg, amount of operational power, amount of change in power per hour, and average amount of power) of the first object 210 . , electricity amount change trend, etc.) can be generated and displayed in an augmented reality interface. The user terminal 100 displays detailed information about the object in the augmented reality interface only when the user has access to the object.

이때, 사용자 단말기(100)는 사용자의 접근 권한 레벨에 따라 서로 다른 증강 현실 메뉴(M32)를 제1 객체(210)에 오버랩하여 표시할 수 있다. 예를 들어, 접근 권한 레벨이 낮은 사용자에게는 해당 객체에 대한 한정된 정보만을 포함하는 증강 현실 메뉴(M32)를 표시하고, 접근 권한 레벨이 높은 사용자에게는 해당 객체에 대한 모든 정보를 포함하는 증강 현실 메뉴(M32)를 표시할 수 있다. 다만, 이는 하나의 예시에 불과하고, 본 발명이 이에 한정되는 것은 아니다.In this case, the user terminal 100 may overlap the first object 210 and display different augmented reality menus M32 according to the user's access authority level. For example, an augmented reality menu (M32) including only limited information about the object is displayed to a user with a low access permission level, and an augmented reality menu (M32) including all information about the corresponding object to a user with a high access permission level ( M32) can be displayed. However, this is only an example, and the present invention is not limited thereto.

반면, 사용자가 제2 객체(220)을 선택하는 경우, 사용자 단말기(100)는 제2 객체(220)에 대한 어떠한 정보도 표시하지 않는다. 즉, 사용자 단말기(100)는 사용자가 객체에 대한 접근 권한을 가지고 있지 않은 경우, 해당 객체에 대한 정보를 표시하지 않고, 해당 객체에 대한 카메라로 촬영된 영상을 그대로 표시한다.On the other hand, when the user selects the second object 220 , the user terminal 100 does not display any information about the second object 220 . That is, when the user does not have access to the object, the user terminal 100 does not display information on the object, but displays the image captured by the camera for the object as it is.

이를 통해, 본 발명의 증강 현실 제공 시스템 및 방법은, 접근 권한이 있는 사용자에게만 해당 기기의 증강 현실 인터페이스를 제공하므로, 중요한 정보의 유출을 방지하여 보안성을 향상시킬 수 있다.Through this, since the augmented reality providing system and method of the present invention provides the augmented reality interface of the device only to a user with access rights, it is possible to prevent leakage of important information and improve security.

이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although embodiments of the present invention have been described with reference to the accompanying drawings, those of ordinary skill in the art to which the present invention pertains can realize that the present invention can be embodied in other specific forms without changing its technical spirit or essential features. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

100: 사용자 단말기
200: 대상 기기
300: 서버
100: user terminal
200: target device
300: server

Claims (16)

사용자 단말기 또는 서버에서 수행되는 증강 현실 제공 방법에 있어서,
상기 사용자 단말기에 포함된 제1 카메라를 통해 객체에 대한 영상을 촬영하는 단계;
상기 촬영된 영상에 포함된 객체를 인식하는 단계;
상기 사용자 단말기에 포함된 제2 카메라를 통해 상기 객체를 촬영하는 사용자에 대한 영상 촬영하는 단계;
상기 촬영된 영상에 포함된 사용자의 얼굴 요소를 인식하는 단계;
상기 인식된 얼굴 요소를 기초로, 상기 객체에 대한 상기 사용자의 접근 권한을 판단하는 단계; 및
상기 사용자 단말기에서 상기 사용자에게 상기 객체에 대한 접근 권한이 있는 경우, 상기 객체에 대한 증강 현실 인터페이스를 촬영된 영상에 오버랩하여 표시하는 단계를 포함하고,
상기 제1 카메라는, 상기 사용자 단말기의 일면에 배치되고,
상기 제2 카메라는, 상기 사용자 단말기의 일면과 마주보는 타면에 배치되는
증강 현실 제공 방법.
In the augmented reality providing method performed in a user terminal or server,
photographing an image of an object through a first camera included in the user terminal;
recognizing an object included in the captured image;
photographing an image of a user photographing the object through a second camera included in the user terminal;
recognizing a user's face element included in the captured image;
determining an access right of the user to the object based on the recognized face element; and
In the user terminal, when the user has access to the object, displaying an augmented reality interface for the object overlapping the captured image,
The first camera is disposed on one surface of the user terminal,
The second camera is disposed on the other surface facing the one surface of the user terminal
How to provide augmented reality.
제1 항에 있어서,
상기 촬영된 영상에 포함된 사용자의 얼굴 요소를 인식하는 단계는,
상기 촬영된 영상에 포함된 사용자의 얼굴 이미지를 추출하는 단계와,
추출된 상기 얼굴 이미지에서 상기 사용자의 적어도 하나의 얼굴 요소를 추출하는 단계를 포함하는 증강 현실 제공 방법.
According to claim 1,
The step of recognizing the user's face element included in the captured image,
extracting the user's face image included in the captured image;
and extracting at least one facial element of the user from the extracted facial image.
제2 항에 있어서,
상기 얼굴 요소는, 상기 사용자의 홍채, 얼굴 윤곽, 또는 이목구비의 형상을 포함하는 증강 현실 제공 방법.
3. The method of claim 2,
The facial element is an augmented reality providing method including the shape of the user's iris, facial contour, or features.
제1 항에 있어서,
상기 인식된 얼굴 요소를 기초로 상기 객체에 대한 상기 사용자의 접근 권한을 판단하는 단계는,
상기 인식된 얼굴 요소와, 상기 객체에 대하여 미리 입력된 등록 사용자의 얼굴 요소를 비교하여, 상기 사용자가 등록 사용자인지 여부를 판단하는 것을 포함하는 증강 현실 제공 방법.
According to claim 1,
The step of determining the user's access right to the object based on the recognized face element comprises:
and determining whether the user is a registered user by comparing the recognized face element with a face element of a registered user previously input with respect to the object.
제4 항에 있어서,
상기 인식된 얼굴 요소를 기초로 상기 객체에 대한 접근 권한을 판단하는 단계는,
상기 사용자의 서로 다른 제1 및 제2 얼굴 요소에 대한 데이터가, 상기 객체에 대하여 미리 입력된 등록 사용자의 데이터와 모두 일치하는지 여부를 기초로, 상기 사용자가 등록 사용자인지 여부를 판단하는 것을 포함하는 증강 현실 제공 방법.
5. The method of claim 4,
The step of determining the access right to the object based on the recognized face element,
Determining whether the user is a registered user based on whether the data on the first and second different facial elements of the user match all of the registered user data input in advance for the object How to provide augmented reality.
제1 항에 있어서,
상기 객체에 대한 증강 현실 인터페이스를 촬영된 영상에 오버랩하여 표시하는 단계는,
상기 사용자에게 접근 권한이 있는 객체에 대한 증강 현실 인터페이스를 상기 사용자 단말기와 연결된 서버에 요청하는 단계와,
상기 증강 현실 인터페이스에 포함된 증강 현실 이미지를 상기 접근 권한이 있는 객체 상에 오버랩하여 표시하는 단계를 포함하는 증강 현실 제공 방법.
According to claim 1,
The step of overlapping and displaying the augmented reality interface for the object on the captured image,
requesting an augmented reality interface for an object to which the user has access rights to a server connected to the user terminal;
Augmented reality providing method comprising the step of overlapping and displaying the augmented reality image included in the augmented reality interface on the object having the access right.
제1 항에 있어서,
상기 객체에 대한 증강 현실 인터페이스를 촬영된 영상에 오버랩하여 표시하는 단계는,
사용자의 접근 권한 레벨에 따라 서로 다른 정보를 포함하는 증강 현실 인터페이스를 표시하는 것을 포함하는 증강 현실 제공 방법.
According to claim 1,
The step of overlapping and displaying the augmented reality interface for the object on the captured image,
Augmented reality providing method comprising displaying an augmented reality interface including different information according to a user's access right level.
제1 항에 있어서,
상기 객체에 대한 증강 현실 인터페이스를 촬영된 영상에 오버랩하여 표시하는 단계는,상기 사용자에게 접근 권한이 없는 객체의 경우, 촬영된 영상을 그대로 표시하는 단계를 더 포함하는 증강 현실 제공 방법.
According to claim 1,
The step of overlapping and displaying the augmented reality interface for the object on the captured image, Augmented reality providing method further comprising the step of displaying the captured image as it is in the case of an object that the user does not have access to.
제1 항에 있어서,
상기 사용자에게 상기 객체에 대한 접근 권한이 없는 경우, 상기 객체에 대한 사용자의 접근 권한을 등록할 수 있는 권한 등록 메뉴로 이동하는 단계를 더 포함하는 증강 현실 제공 방법.
According to claim 1,
If the user does not have access to the object, the augmented reality providing method further comprising the step of moving to a permission registration menu for registering the user's access right to the object.
객체에 대한 영상을 촬영하는 제1 카메라부;
상기 객체를 촬영하는 사용자에 대한 영상을 촬영하는 제2 카메라부;
상기 제1 카메라부에서 촬영된 영상에 포함된 상기 객체를 인식하는 객체 인식부;
상기 제2 카메라부에서 촬영된 상기 사용자의 얼굴 요소를 인식하는 안면 인식부;
상기 객체에 대한 증강 현실 정보를 기초로 증강 현실 인터페이스를 생성하는 증강 현실 처리부;
상기 객체에 대한 증강 현실 정보 또는 상기 증강 현실 인터페이스를 수신하는 통신부;
상기 증강 현실 인터페이스를 표시하는 디스플레이부; 및
상기 인식된 얼굴 요소를 이용하여 판단된 상기 사용자의 접근 권한 여부를 기초로, 상기 객체에 대한 증강 현실 인터페이스를 표시하는 제어부를 포함하고,
상기 제1 카메라부는, 증강 현실 제공 장치의 일면에 배치되고,
상기 제2 카메라부는, 상기 증강 현실 제공 장치의 일면과 마주보는 타면에 배치되는
증강 현실 제공 시스템.
a first camera unit for capturing an image of an object;
a second camera unit that takes an image of a user who shoots the object;
an object recognition unit for recognizing the object included in the image captured by the first camera unit;
a face recognition unit recognizing the user's face element photographed by the second camera unit;
an augmented reality processing unit generating an augmented reality interface based on the augmented reality information on the object;
a communication unit configured to receive augmented reality information on the object or the augmented reality interface;
a display unit displaying the augmented reality interface; and
a control unit for displaying an augmented reality interface for the object based on whether the user has access right determined using the recognized face element;
The first camera unit is disposed on one surface of the augmented reality providing device,
The second camera unit is disposed on the other surface facing the one surface of the augmented reality providing device
Augmented reality providing system.
삭제delete 제10 항에 있어서,
상기 제어부는, 상기 인식된 얼굴 요소와, 상기 객체에 대하여 미리 입력된 등록 사용자의 얼굴 요소를 비교하여, 상기 사용자가 등록 사용자인지 여부를 판단하는 증강 현실 제공 시스템.
11. The method of claim 10,
The controller is configured to compare the recognized face element with a face element of a registered user previously input with respect to the object to determine whether the user is a registered user.
제10 항에 있어서,
상기 제어부는,
상기 사용자에게 상기 객체에 대한 접근 권한이 있는 경우, 상기 객체에 대한 증강 현실 인터페이스를 사용자 단말기와 연결된 서버에 요청하여 상기 디스플레이부에 표시하고,
상기 사용자에게 상기 객체에 대한 접근 권한이 없는 경우, 상기 촬영된 객체의 영상을 그대로 상기 디스플레이부에 표시하는 증강 현실 제공 시스템.
11. The method of claim 10,
The control unit is
When the user has access to the object, an augmented reality interface for the object is requested from a server connected to the user terminal and displayed on the display unit,
When the user does not have access to the object, the augmented reality providing system for displaying the image of the photographed object as it is on the display unit.
제10 항에 있어서,
상기 제어부는, 상기 사용자에게 상기 객체에 대한 접근 권한이 없는 경우, 상기 객체에 대한 사용자의 접근 권한을 등록할 수 있는 권한 등록 메뉴를 상기 디스플레이부에 표시하는 증강 현실 제공 시스템.
11. The method of claim 10,
The control unit, when the user does not have the access right to the object, the augmented reality providing system for displaying a permission registration menu for registering the user's access right to the object on the display unit.
제10 항에 있어서,
상기 안면 인식부는, 상기 사용자의 홍채, 얼굴 윤곽, 또는 이목구비의 형태를 상기 얼굴 요소로 인식하는 증강 현실 제공 시스템.
11. The method of claim 10,
The face recognition unit, an augmented reality providing system for recognizing the shape of the user's iris, face outline, or features as the face element.
제10 항에 있어서,
상기 제1 및 제2 카메라부, 상기 통신부, 상기 디스플레이부 및 상기 제어부를 포함하는 사용자 단말기와,
상기 객체 인식부와 상기 증강 현실 처리부를 포함하는 서버를 포함하는,
증강 현실 제공 시스템.
11. The method of claim 10,
a user terminal including the first and second camera units, the communication unit, the display unit, and the control unit;
Containing a server including the object recognition unit and the augmented reality processing unit,
Augmented reality providing system.
KR1020170183534A 2017-12-29 2017-12-29 System and method for providing augmented reality user interface KR102338627B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170183534A KR102338627B1 (en) 2017-12-29 2017-12-29 System and method for providing augmented reality user interface

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170183534A KR102338627B1 (en) 2017-12-29 2017-12-29 System and method for providing augmented reality user interface

Publications (2)

Publication Number Publication Date
KR20190081179A KR20190081179A (en) 2019-07-09
KR102338627B1 true KR102338627B1 (en) 2021-12-10

Family

ID=67261164

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170183534A KR102338627B1 (en) 2017-12-29 2017-12-29 System and method for providing augmented reality user interface

Country Status (1)

Country Link
KR (1) KR102338627B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102214793B1 (en) * 2019-11-07 2021-02-10 주식회사 엠투아이코퍼레이션 HMI for enhancing security using iris scanning

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017202326A (en) * 2016-05-13 2017-11-16 ダルマイアー エレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング ウント コンパニー コマンディートゲゼルシャフトDallmeier electronic GmbH & Co. KG System and method for capturing and analyzing video data relating to course of game on gambling table in casinos

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101694159B1 (en) * 2010-04-21 2017-01-09 엘지전자 주식회사 Augmented Remote Controller and Method of Operating the Same
KR102077305B1 (en) * 2013-05-09 2020-02-14 삼성전자 주식회사 Method and apparatus for providing contents including augmented reality information

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017202326A (en) * 2016-05-13 2017-11-16 ダルマイアー エレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング ウント コンパニー コマンディートゲゼルシャフトDallmeier electronic GmbH & Co. KG System and method for capturing and analyzing video data relating to course of game on gambling table in casinos

Also Published As

Publication number Publication date
KR20190081179A (en) 2019-07-09

Similar Documents

Publication Publication Date Title
US20190129607A1 (en) Method and device for performing remote control
US9268410B2 (en) Image processing device, image processing method, and program
KR101453815B1 (en) Device and method for providing user interface which recognizes a user's motion considering the user's viewpoint
WO2020253655A1 (en) Method for controlling multiple virtual characters, device, apparatus, and storage medium
KR20220009393A (en) Image-based localization
JP6496671B2 (en) Information processing apparatus, terminal apparatus, information processing method, and program
KR102347586B1 (en) Method for providing augmented reality user interface
KR20210086072A (en) System and method for real-time monitoring field work
CN113741698A (en) Method and equipment for determining and presenting target mark information
KR102197615B1 (en) Method of providing augmented reality service and server for the providing augmented reality service
KR20230074618A (en) Augmented reality system
KR102337209B1 (en) Method for notifying environmental context information, electronic apparatus and storage medium
KR101176743B1 (en) Apparatus and method for recognizing object, information content providing apparatus and information content managing server
JP2016122392A (en) Information processing apparatus, information processing system, control method and program of the same
CN109583187A (en) A kind of augmented reality identifying code method and application
Chen et al. A case study of security and privacy threats from augmented reality (ar)
KR102263468B1 (en) System and method for providing augmented reality user interface
KR102345333B1 (en) Device and method for providing augmented reality user interface
CN108932055B (en) Method and equipment for enhancing reality content
KR102338627B1 (en) System and method for providing augmented reality user interface
KR102264754B1 (en) Device and method for providing augmented reality user interface
KR102268797B1 (en) Syetem and method for providing augmented reality user interface
CN112099681B (en) Interaction method and device based on three-dimensional scene application and computer equipment
KR20190035373A (en) Virtual movile device implementing system and control method for the same in mixed reality
KR102268798B1 (en) System and method for providing augmented reality user interface

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant