KR102268797B1 - Syetem and method for providing augmented reality user interface - Google Patents

Syetem and method for providing augmented reality user interface Download PDF

Info

Publication number
KR102268797B1
KR102268797B1 KR1020170182585A KR20170182585A KR102268797B1 KR 102268797 B1 KR102268797 B1 KR 102268797B1 KR 1020170182585 A KR1020170182585 A KR 1020170182585A KR 20170182585 A KR20170182585 A KR 20170182585A KR 102268797 B1 KR102268797 B1 KR 102268797B1
Authority
KR
South Korea
Prior art keywords
augmented reality
information
component
event
occurred
Prior art date
Application number
KR1020170182585A
Other languages
Korean (ko)
Other versions
KR20190080242A (en
Inventor
남상원
Original Assignee
엘에스일렉트릭(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘에스일렉트릭(주) filed Critical 엘에스일렉트릭(주)
Priority to KR1020170182585A priority Critical patent/KR102268797B1/en
Publication of KR20190080242A publication Critical patent/KR20190080242A/en
Application granted granted Critical
Publication of KR102268797B1 publication Critical patent/KR102268797B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • G06K9/00671
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/35Aspects of automatic or semi-automatic exchanges related to information services provided via a voice call
    • H04M2203/359Augmented reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 증강 현실 제공 시스템 및 방법에 관한 것이다. 상기 증강 현실 제공 방법은, 객체를 포함하는 영상을 촬영하는 단계, 상기 촬영된 영상에 포함된 객체를 인식하는 단계, 상기 객체에 포함된 적어도 하나의 구성요소에 대한 정보를 수신하는 단계, 상기 적어도 하나의 구성요소에 대한 상태 정보를 수신하는 단계, 상기 수신된 상태 정보를 기초로 상기 적어도 하나의 구성요소 각각에 대한 이벤트의 발생 여부를 판단하는 단계, 상기 이벤트가 발생된 구성요소에 대한 증강 현실 정보를 수신하는 단계, 및 상기 증강 현실 정보를 기초로 증강 현실 인터페이스를 생성하여 표시하는 단계를 포함한다.The present invention relates to a system and method for providing augmented reality. The augmented reality providing method may include photographing an image including an object, recognizing an object included in the photographed image, receiving information on at least one component included in the object, the at least Receiving state information for one component, determining whether an event has occurred for each of the at least one component based on the received state information, augmented reality for the component in which the event occurred Receiving information, and generating and displaying an augmented reality interface based on the augmented reality information.

Description

증강 현실 제공 시스템 및 방법{Syetem and method for providing augmented reality user interface}Augmented reality providing system and method {Syetem and method for providing augmented reality user interface}

본 발명은 증강 현실 제공 시스템 및 방법에 관한 것이다. 구체적으로, 촬영되고 있는 기기에 포함된 구성요소에 대한 증강 현실 정보를 제공하는 증강 현실 제공 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for providing augmented reality. Specifically, it relates to an augmented reality providing system and method for providing augmented reality information on components included in a device being photographed.

증강 현실(augmented reality, AR)이란 실제 환경에 가상 사물이나 정보를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법을 말한다.Augmented reality (AR) refers to a computer graphics technique in which a virtual object or information is synthesized in a real environment to appear as an object existing in the original environment.

증강 현실은 가상의 공간과 사물만을 대상으로 하는 기존의 가상 현실과 달리, 현실 세계의 기반 위에 가상의 사물을 합성하여 현실 세계만으로는 얻기 어려운 부가적인 정보들을 보강해 제공할 수 있는 특징을 가진다. 이러한 특징 때문에 증강 현실은 단순히 게임과 같은 분야에만 한정된 적용이 가능한 기존 가상 현실과 달리 다양한 현실 환경에 응용이 가능하다. 특히, 유비쿼터스 환경에 적합한 차세대 디스플레이 기술로 각광받고 있다.Unlike conventional virtual reality, which targets only virtual space and objects, augmented reality has a feature of providing additional information that is difficult to obtain only in the real world by synthesizing virtual objects on the basis of the real world. Because of these characteristics, augmented reality can be applied to a variety of real environments, unlike existing virtual reality, which can be applied only to fields such as games. In particular, it is spotlighted as a next-generation display technology suitable for a ubiquitous environment.

증강 현실 기술에 대한 연구가 시작된 이래 다양한 분야에서 증강 현실 기술을 활용하려는 연구가 이어져 왔으며, 최근에는 스마트폰의 확산과 더불어 증강 현실 기술이 위치 기반 서비스에 많이 활용되고 있다.Since research on augmented reality technology has been started, research to utilize augmented reality technology has continued in various fields. Recently, with the spread of smartphones, augmented reality technology has been widely used for location-based services.

일반적으로, 증강 현실 기술은 현재 촬영되고 있는 기기에 대한 정보를 메뉴 형태로 프리뷰 화면 상에 표시한다. 이때 프리뷰 화면은 촬영되고 있는 기기의 상태 정보를 2D 또는 3D 형태로 표시할 수 있다.In general, augmented reality technology displays information about a device currently being photographed on a preview screen in the form of a menu. In this case, the preview screen may display status information of the device being photographed in 2D or 3D form.

다만, 종래의 증강 현실 제공 방법의 경우, 촬영되고 있는 기기가 포함하고 있는 구성요소의 종류 및 상태와는 상관없이, 대상 기기에 대한 동일한 메뉴만을 제공한다. 따라서, 동종 다수의 기기가 배치되어 있는 경우, 각각의 기기에 대한 동일한 메뉴를 증강 현실로 제공하게 되며, 현재 촬영되고 있는 기기에 포함된 구성요소의 종류나 동작 상태에 대한 정보는 파악하기 어려운 문제점이 있었다.However, in the case of the conventional augmented reality providing method, only the same menu for the target device is provided regardless of the type and state of the components included in the device being photographed. Therefore, when a plurality of devices of the same type are arranged, the same menu for each device is provided in augmented reality, and it is difficult to grasp information on the types or operating states of components included in the currently photographed device. there was

본 발명은 촬영되고 있는 기기에 포함된 구성요소에 종류 및 동작 상태에 따라, 서로 다른 증강 현실 인터페이스를 표시하는 증강 현실 제공 시스템 및 방법을 제공하는 것을 목적으로 한다.An object of the present invention is to provide an augmented reality providing system and method for displaying different augmented reality interfaces according to types and operating states of components included in a device being photographed.

또한, 본 발명은 촬영되고 있는 기기에 포함된 복수의 구성요소에 대하여, 각각의 이상 동작 여부를 판단하고, 이상 동작의 원인에 따라 서로 다른 증강 현실 인터페이스를 표시하는 증강 현실 제공 시스템 및 방법을 제공하는 것을 목적으로 한다.In addition, the present invention provides an augmented reality providing system and method for determining whether each abnormal operation is present for a plurality of components included in the device being photographed, and displaying different augmented reality interfaces according to the cause of the abnormal operation aim to do

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention not mentioned may be understood by the following description, and will be more clearly understood by the examples of the present invention. Moreover, it will be readily apparent that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the claims.

상기의 목적을 달성하기 위한 본 발명의 증강 현실 제공 방법은, 객체를 포함하는 영상을 촬영하는 (a) 단계, 상기 촬영된 영상에 포함된 객체를 인식하는 (b) 단계, 상기 객체에 포함된 적어도 하나의 구성요소에 대한 정보를 수신하는 (c) 단계, 상기 적어도 하나의 구성요소에 대한 상태 정보를 수신하는 (d) 단계, 상기 수신된 상태 정보를 기초로 상기 적어도 하나의 구성요소 각각에 대한 이벤트의 발생 여부를 판단하는 (e) 단계, 상기 이벤트가 발생된 구성요소에 대한 증강 현실 정보를 기초로 증강 현실 인터페이스를 생성하는 (f) 단계, 및 상기 촬영된 영상에 상기 증강 현실 인터페이스를 오버랩하여 화면에 표시하는 (g) 단계를 포함한다.The augmented reality providing method of the present invention for achieving the above object includes the steps of (a) photographing an image including an object, (b) recognizing an object included in the photographed image, and (c) receiving information on at least one component, (d) receiving status information on the at least one component, based on the received status information, to each of the at least one component Step (e) of determining whether an event has occurred, (f) generating an augmented reality interface based on augmented reality information about the component in which the event has occurred, and adding the augmented reality interface to the captured image (g) of overlapping and displaying on the screen.

또한, 상기 수신된 상태 정보를 기초로 상기 적어도 하나의 구성요소 각각에 대한 이벤트의 발생 여부를 판단하는 (e) 단계는, 상기 적어도 하나의 구성요소 중 특정 구성요소의 상기 상태 정보와 미리 정해진 정상 동작 기준치를 비교하여, 상기 특정 구성요소의 정상 동작 여부를 판단하는 (e1) 단계와, 상기 특정 구성요소가 정상 동작 중이 아닌 경우, 상기 상태 정보를 기초로 이상 동작의 원인을 판단하고, 상기 이상 동작의 원인을 포함하는 이벤트를 생성하는 (e2) 단계를 포함할 수 있다.In addition, the step (e) of determining whether an event has occurred for each of the at least one component based on the received status information includes the status information of a specific component among the at least one component and a predetermined normal condition. (e1) determining whether the specific component operates normally by comparing the operation reference value, and if the specific component is not operating normally, determining the cause of the abnormal operation based on the status information, and It may include a step (e2) of generating an event including the cause of the operation.

또한, 상기 (e1) 단계와 상기 (e2) 단계는, 상기 객체에 포함된 상기 적어도 하나의 구성요소 각각에 대하여 반복 수행될 수 있다.Also, steps (e1) and (e2) may be repeatedly performed for each of the at least one component included in the object.

또한, 상기 이벤트가 발생된 구성요소에 대한 증강 현실 정보를 기초로 증강 현실 인터페이스를 생성하는 (f) 단계는, 상기 이벤트에 포함된 상기 이상 동작의 원인에 따라, 서로 다른 증강 현실 인터페이스를 생성하기 위한 상기 증강 현실 정보를 수신하는 것을 포함할 수 있다.In addition, the step (f) of generating an augmented reality interface based on the augmented reality information on the component in which the event has occurred may include generating different augmented reality interfaces according to the cause of the abnormal operation included in the event. It may include receiving the augmented reality information for.

또한, 상기 상태 정보는, 상기 구성요소에 대한 전력량 정보, 온도 정보, 전압 정보, 전류 정보, 또는 차단 상태를 포함할 수 있다.In addition, the state information may include power amount information, temperature information, voltage information, current information, or a cut-off state for the component.

또한, 상기 (b) 또는 (f) 단계는 상기 서버에서 수행되고, 다른 나머지 단계는 상기 사용자 단말기에서 수행될 수 있다.In addition, the steps (b) or (f) may be performed in the server, and other remaining steps may be performed in the user terminal.

또한, 상기 이벤트가 발생된 구성요소에 대한 증강 현실 정보를 기초로 증강 현실 인터페이스를 생성하는 (f) 단계는, 상기 이벤트에 포함된 이상 동작의 원인에 따라 서로 다른 증강 현실 인터페이스를 생성하는 것을 포함하고, 상기 촬영된 영상에 상기 증강 현실 인터페이스를 오버랩하여 화면에 표시하는 (g) 단계는, 상기 생성된 증강 현실 인터페이스를 상기 이벤트가 발생된 구성요소에 오버랩하여 표시하는 것을 포함할 수 있다.In addition, the step (f) of generating an augmented reality interface based on the augmented reality information on the component in which the event occurred includes generating different augmented reality interfaces according to the cause of the abnormal operation included in the event. And, the step (g) of overlapping the augmented reality interface on the captured image and displaying it on the screen may include displaying the generated augmented reality interface by overlapping the component in which the event occurred.

또한, 상기 서로 다른 증강 현실 인터페이스는, 서로 다른 색깔 또는 서로 다른 모양의 증강 현실 모델링을 포함할 수 있다.Also, the different augmented reality interfaces may include augmented reality modeling of different colors or different shapes.

또한, 상기 촬영된 영상에 포함된 객체를 인식하는 (b) 단계는, 상기 영상이 촬영된 위치 정보, 상기 객체의 마커 또는 상기 객체의 마커리스 정보를 이용하여, 상기 영상에 포함된 상기 객체를 인식하는 것을 포함할 수 있다.In addition, the step (b) of recognizing the object included in the photographed image may include selecting the object included in the image by using location information at which the image was captured, a marker of the object, or markerless information of the object. This may include recognizing

상기의 목적을 달성하기 위한 본 발명의 증강 현실 제공 시스템은, 객체를 포함하는 영상을 촬영하는 카메라부, 상기 영상에 포함된 상기 객체를 인식하는 객체 인식부, 상기 객체에 포함된 적어도 하나의 구성요소에 대한 정보와, 상기 적어도 하나의 구성요소에 대한 상태 정보와, 이벤트가 발생된 상기 구성요소에 대한 증강 현실 정보를 수신하는 통신부, 상기 증강 현실 정보를 기초로 증강 현실 인터페이스를 생성하는 증강 현실 처리부, 상기 증강 현실 인터페이스를 상기 촬영된 영상에 오버랩하여 표시하는 디스플레이부, 및 상기 수신된 상태 정보를 기초로 상기 적어도 하나의 구성요소 각각에 대한 상기 이벤트의 발생 여부를 판단하는 제어부를 포함한다.Augmented reality providing system of the present invention for achieving the above object, a camera unit for capturing an image including an object, an object recognition unit for recognizing the object included in the image, at least one component included in the object A communication unit configured to receive information on an element, state information on the at least one component, and augmented reality information on the component in which an event has occurred, augmented reality for generating an augmented reality interface based on the augmented reality information A processing unit, a display unit displaying the augmented reality interface overlapping the captured image, and a control unit determining whether the event occurs for each of the at least one component based on the received state information.

또한, 상기 제어부는, 상기 적어도 하나의 구성요소 중 특정 구성요소의 상기 상태 정보와 미리 정해진 정상 동작 기준치를 비교하여, 상기 특정 구성요소의 정상 동작 여부를 판단하고, 상기 특정 구성요소가 정상 동작 중이 아닌 경우, 상기 상태 정보를 기초로 이상 동작의 원인을 판단하고, 상기 이상 동작의 원인을 포함하는 이벤트를 생성하고, 상기 이벤트가 발생한 구성요소를 선정하여, 상기 선정된 구성요소에 대한 상기 증강 현실 정보를 요청할 수 있다.In addition, the controller compares the state information of a specific component among the at least one component with a predetermined normal operation reference value to determine whether the specific component operates normally, and determines whether the specific component is operating normally. If not, determine the cause of the abnormal operation based on the state information, generate an event including the cause of the abnormal operation, select the component in which the event occurred, and the augmented reality for the selected component You can request information.

또한, 상기 제어부는, 상기 이벤트에 포함된 상기 이상 동작에 따라, 서로 다른 증강 현실 인터페이스를 생성하기 위한 상기 증강 현실 정보를 요청할 수 있다.Also, the controller may request the augmented reality information for generating different augmented reality interfaces according to the abnormal operation included in the event.

또한, 상기 증강 현실 처리부는, 상기 이벤트에 포함된 이상 동작의 원인에 따라 서로 다른 증강 현실 인터페이스를 생성하고, 상기 디스플레이부는, 상기 생성된 증강 현실 인터페이스를 상기 이벤트가 발생된 구성요소에 오버랩하여 표시할 수 있다.In addition, the augmented reality processing unit generates different augmented reality interfaces depending on the cause of the abnormal operation included in the event, and the display unit displays the generated augmented reality interface by overlapping the component in which the event occurred. can do.

또한, 상기 카메라부, 상기 통신부, 상기 디스플레이부 및 상기 제어부를 포함하는 사용자 단말기와, 상기 객체 인식부와 상기 증강 현실 처리부를 포함하는 서버를 포함할 수 있다.In addition, it may include a user terminal including the camera unit, the communication unit, the display unit and the control unit, and a server including the object recognition unit and the augmented reality processing unit.

본 발명의 증강 현실 제공 시스템 및 방법은, 촬영되고 있는 기기에 포함된 구성요소의 종류 및 동작 상태를 증강 현실로 표현함으로써, 사용자가 기기의 상태를 한눈에 파악할 수 있도록 한다. 이를 통해, 사용자는 기기에 포함된 각 구성요소에 대한 상태 정보를 직관적이고 쉽게 파악할 수 있다. 또한, 기기 운영의 편의성이 향상될 수 있다.The augmented reality providing system and method of the present invention allow the user to grasp the state of the device at a glance by expressing the types and operating states of components included in the device being photographed in augmented reality. Through this, the user can intuitively and easily grasp status information for each component included in the device. In addition, the convenience of operating the device may be improved.

또한, 본 발명의 증강 현실 제공 시스템 및 방법은, 촬영되고 있는 기기에 포함된 복수의 구성요소에 대해 이상 동작 여부를 각각 판단하고, 이상 동작의 원인에 따라 서로 다른 증강 현실 인터페이스를 제공한다. 이를 통해, 본 발명은 기기 관리에 소요되는 시간을 단축시켜 사용자의 편의성을 높이고, 업무 처리 속도를 향상시킬 수 있다. 또한, 동일한 시간 내에 빠른 작업 처리가 가능해지므로 작업 효율이 향상될 수 있다.In addition, the augmented reality providing system and method of the present invention determine whether abnormal operation of a plurality of components included in the device being photographed, respectively, and provide different augmented reality interfaces according to the cause of the abnormal operation. Through this, the present invention can shorten the time required for device management to increase user convenience and improve work processing speed. In addition, since it is possible to quickly process the work within the same time, work efficiency can be improved.

상술한 효과와 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다. In addition to the above-described effects, the specific effects of the present invention will be described together while describing specific details for carrying out the invention below.

도 1은 본 발명의 일 실시예에 따른 증강 현실 제공 시스템을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 증강 현실 제공 장치를 설명하기 위한 블럭도이다.
도 3은 본 발명의 일 실시예에 따른 증강 현실 제공 장치의 동작 방법을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 증강 현실 제공 방법을 나타내는 순서도이다.
도 5는 도 4의 구성요소 각각에 대한 이벤트의 발생 여부를 판단하는 단계의 일 예를 구체적으로 설명하기 위한 순서도이다.
도 6은 도 4의 증강 현실 인터페이스를 생성하여 표시하는 단계의 일 예를 구체적으로 설명하기 위한 순서도이다.
도 7 및 도 8은 본 발명의 일 실시예에 따른 증강 현실 제공 방법의 동작의 일 예를 설명하기 위한 도면이다.
1 is a diagram illustrating an augmented reality providing system according to an embodiment of the present invention.
2 is a block diagram illustrating an apparatus for providing augmented reality according to an embodiment of the present invention.
3 is a diagram for explaining a method of operating an apparatus for providing augmented reality according to an embodiment of the present invention.
4 is a flowchart illustrating a method for providing augmented reality according to an embodiment of the present invention.
5 is a flowchart specifically explaining an example of a step of determining whether an event has occurred for each of the components of FIG. 4 .
6 is a flowchart for specifically explaining an example of a step of generating and displaying the augmented reality interface of FIG. 4 .
7 and 8 are diagrams for explaining an example of the operation of the augmented reality providing method according to an embodiment of the present invention.

전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용된다.The above-described objects, features and advantages will be described below in detail with reference to the accompanying drawings, and accordingly, those of ordinary skill in the art to which the present invention pertains will be able to easily implement the technical idea of the present invention. In describing the present invention, if it is determined that a detailed description of a known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to indicate the same or similar components.

이하에서, 도 1 내지 도 8을 참조하여 본 발명에 따른 증강 현실 제공 시스템 및 방법에 대해 설명하도록 한다. Hereinafter, an augmented reality providing system and method according to the present invention will be described with reference to FIGS. 1 to 8 .

도 1은 본 발명의 일 실시예에 따른 증강 현실 제공 시스템을 나타내는 도면이다.1 is a diagram illustrating an augmented reality providing system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 증강 현실 제공 시스템은, 사용자 단말기(100), 대상 기기(200) 및 서버(300)를 포함한다. Referring to FIG. 1 , the augmented reality providing system according to an embodiment of the present invention includes a user terminal 100 , a target device 200 , and a server 300 .

사용자 단말기(100)는 증강 현실 제공 장치로써 동작할 수 있다. 사용자 단말기(100)는 대상 기기(200)를 촬영하고, 대상 기기(200)에 포함된 적어도 하나의 구성요소에 대한 정보를 서버(300)로부터 수신한다. The user terminal 100 may operate as an augmented reality providing device. The user terminal 100 photographs the target device 200 and receives information on at least one component included in the target device 200 from the server 300 .

이어서, 사용자 단말기(100)는 대상 기기(200)에 포함된 적어도 하나의 구성요소에 대한 상태 정보를 수신하고, 상태 정보를 기초로 적어도 하나의 구성요소 각각에 대한 이상 여부를 판단한다. Next, the user terminal 100 receives status information on at least one component included in the target device 200 , and determines whether each of the at least one component is abnormal based on the status information.

이어서, 사용자 단말기(100)는 이벤트가 발생된 구성요소에 대한 증강 현실 정보를 서버(300)로부터 수신하고, 증강 현실 정보를 기초로 증강 현실 인터페이스를 생성하여 화면에 표시한다. 여기에서, 증강 현실 정보는 증강 현실 인터페이스를 생성하기 위한 촬영된 대상 기기(200)에 포함된 구성요소의 증강 현실 관련 데이터를 포함한다. Then, the user terminal 100 receives the augmented reality information on the component in which the event has occurred from the server 300, generates an augmented reality interface based on the augmented reality information, and displays it on the screen. Here, the augmented reality information includes augmented reality related data of components included in the captured target device 200 for generating the augmented reality interface.

증강 현실 정보는 2D 또는 3D 이미지로 모델링 및 렌더링될 수 있으며, 렌더링된 이미지는 증강 현실 인터페이스로 변환되어 사용자 단말기(100)의 화면에 프리뷰 형태로 표시된다.Augmented reality information may be modeled and rendered as a 2D or 3D image, and the rendered image is converted into an augmented reality interface and displayed in a preview form on the screen of the user terminal 100 .

사용자 단말기(100)는 증강 현실의 디스플레이 방식에 따라, 모바일 기반의 장치, 착용형 장치(wearable device)(예를 들어, HMD(Head Mounted Device), 비디오 시쓰루 장치(Video See-Through device), 광학 시쓰루 장치(Optical See-Through device)), 스크린 기반의 장치, 및 프로젝터 기반 장치 중 어느 하나가 될 수 있다.The user terminal 100 may include a mobile-based device, a wearable device (eg, a head mounted device (HMD), a video see-through device), It may be any one of an optical see-through device, a screen-based device, and a projector-based device.

또한, 사용자 단말기(100)는 컴퓨터, UMPC(Ultra Mobile PC), 워크스테이션, 넷북(net-book), PDA (Personal Digital Assistants), 포터블(portable) 컴퓨터, 웹 타블렛(web tablet), 무선 전화기(wireless phone), 모바일 폰(mobile phone), 스마트폰(smart phone), e-북(e-book), PMP(portable multimedia player) 등 정보를 무선 환경에서 송수신할 수 있는 장치가 될 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다.In addition, the user terminal 100 is a computer, an Ultra Mobile PC (UMPC), a workstation, a net-book, a PDA (Personal Digital Assistants), a portable computer, a web tablet (web tablet), a wireless phone ( It may be a device capable of transmitting and receiving information such as a wireless phone, a mobile phone, a smart phone, an e-book, and a portable multimedia player (PMP) in a wireless environment. However, the present invention is not limited thereto.

대상 기기(200)는 적어도 하나의 구성요소를 포함하는 다양한 전자기기가 될 수 있다. 예를 들어, 대상 기기(200)는 자동제어기기나 산업용기기 또는 배전반이 될 수 있다. 이때, 대상 기기(200)는 차단기, 계전기, 통신링크장치, 전력량계, 센서부, HMI(Human Machine Interface) 등을 구성요소로 포함할 수 있다. 각 구성요소에 대한 설명은 충분히 공지되어 있는 바 여기에서 자세한 설명은 생략하도록 한다.The target device 200 may be various electronic devices including at least one component. For example, the target device 200 may be an automatic control device, an industrial device, or a switchboard. In this case, the target device 200 may include a circuit breaker, a relay, a communication link device, a watt-hour meter, a sensor unit, a human machine interface (HMI), etc. as components. A description of each component is sufficiently well known, a detailed description thereof will be omitted herein.

다른 예로, 대상 기기(200)는 원격 검침 시스템(Automatic Meter Reading; 이하, AMR)의 측정 대상이 될 수 있다. 일반적으로, 원격 검침 시스템(AMR)이라 함은 멀리 떨어진 지점의 측정 대상으로부터 측정 결과를 전기적 신호로 변환하여 통신 네트워크를 통해 데이터를 전송하고, 그 데이터를 컴퓨터에서 처리하는 것을 말한다.As another example, the target device 200 may be a measurement target of an automatic meter reading system (hereinafter, AMR). In general, the remote meter reading system (AMR) refers to converting a measurement result into an electrical signal from a measurement target at a distant point, transmitting data through a communication network, and processing the data in a computer.

원격 검침 시스템(AMR)의 서버는 TCP/IP(Transmission Control Protocol/Internet Protocol)를 기반으로 데이터 통신을 수행할 수 있도록 제공되는 데이터 통신망(예컨대, 기간망, 사설망, 인터넷망 포함)을 통해 다수의 데이터수집장치와 상호 접속된다. 서버는 데이터 통신망을 통해 데이터수집장치와 실시간으로 데이터 송수신을 수행하며, 각 측정 대상의 전력 상태를 실시간으로 모니터링(monitoring)하는 것이 가능하다.The server of the remote meter reading system (AMR) uses a data communication network (eg, backbone network, private network, Internet network included) provided to perform data communication based on TCP/IP (Transmission Control Protocol/Internet Protocol). interconnected with the collection device. The server performs data transmission and reception in real time with the data collection device through the data communication network, and it is possible to monitor the power state of each measurement target in real time.

또한, 서버는 데이터수집장치로부터 각 측정 대상의 검침 데이터를 실시간으로 제공받는다. 이러한 검침 데이터를 기초로 하여 각 측정 대상의 전력 상태, 예컨대 정전, 도전, 누전 상태 등을 분석하여 관리자에게 제공한다. In addition, the server receives the meter reading data of each measurement target from the data collection device in real time. Based on the meter reading data, the power status of each measurement target, for example, power failure, conduction, and leakage status is analyzed and provided to the manager.

여기서, 검침 데이터는 하나의 데이터 집중화 장치에 할당된 모든 측정 대상의 사용 전력량의 총합, 각 측정 대상별 사용 전력량, 순시 전력량 등이 될 수 있으며, 이 외에도 각 측정 대상의 전력 품질을 파악할 수 있는 모든 데이터가 포함될 수 있다.Here, the meter reading data may be the sum total of the amount of power used by all measurement targets allocated to one data concentrator device, the amount of power used by each measurement target, the instantaneous power amount, etc. In addition, all data that can determine the power quality of each measurement target may be included.

서버(300)는 대상 기기(200)에 대한 각종 정보를 저장하는 데이터베이스를 포함한다. 예를 들어, 서버(300)는 대상 기기(200)에 대한 객체 정보, 대상 기기(200)에 포함된 구성요소에 대한 정보, 각 구성요소의 상태 정보, 및 대상 기기(200)와 각 구성요소에 대한 증강 현실 정보를 저장할 수 있다.The server 300 includes a database for storing various information about the target device 200 . For example, the server 300 includes object information on the target device 200 , information on components included in the target device 200 , status information of each component, and the target device 200 and each component. Augmented reality information about the may be stored.

서버(300)는 원격 검침 시스템(AMR)의 데이터수집장치 또는 서버로써 동작할 수 있다. 즉, 서버(300)는 대상 기기(200)에 대한 검침 데이터를 실시간을 제공받고 저장할 수 있다. 이를 통해, 서버(300)는 대상 기기(200)의 동작 상태를 모니터링하고 원격 제어할 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다. The server 300 may operate as a data collection device or server of the remote meter reading system (AMR). That is, the server 300 may receive and store the meter reading data for the target device 200 in real time. Through this, the server 300 may monitor and remotely control the operating state of the target device 200 . However, the present invention is not limited thereto.

도 2는 본 발명의 일 실시예에 따른 증강 현실 제공 장치를 설명하기 위한 블럭도이다.2 is a block diagram illustrating an apparatus for providing augmented reality according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 증강 현실 제공 장치인 사용자 단말기(100)는, 제어부(110), 카메라부(120), 객체 인식부(130), 위치 측정부(140), 증강 현실 처리부(150), 통신부(160), 센서부(165), 메모리부(170), 디스플레이부(180) 및 인터페이스부(190)를 포함한다. 다만, 도 2에 도시된 사용자 단말기(100)의 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 사용자 단말기(100)가 구현될 수 있다.Referring to FIG. 2 , the user terminal 100 as an augmented reality providing apparatus according to an embodiment of the present invention includes a controller 110 , a camera unit 120 , an object recognition unit 130 , and a location measurement unit 140 . , an augmented reality processing unit 150 , a communication unit 160 , a sensor unit 165 , a memory unit 170 , a display unit 180 , and an interface unit 190 . However, since the components of the user terminal 100 shown in FIG. 2 are not essential, the user terminal 100 having more components or fewer components may be implemented.

제어부(110)는 사용자 단말기(100)에 포함된 구성요소의 전반적인 동작을 제어할 수 있다. 제어부(110)는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 실행할 수 있다. 또한, 제어부(350)는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수 있다. 상기 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터로 판독 가능한 기록 매체에 저장될 수 있다. 제어부(110)의 자세한 동작에 대한 설명은 이하에서 후술하도록 한다.The controller 110 may control the overall operation of the components included in the user terminal 100 . The controller 110 may execute an operating system (OS) and one or more software applications executed on the operating system. In addition, the controller 350 may access, store, manipulate, process, and generate data in response to the execution of the software. The software may be distributed over networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media. A detailed operation of the control unit 110 will be described below.

카메라부(120)는 영상을 촬영하는 장치로써, 촬영된 영상은 제어부(110)에 전달된다. 카메라부(120)에서 촬영된 영상은 실시간 프리뷰 형태로 디스플레이부(180)에 표시될 수 있다.The camera unit 120 is a device for capturing an image, and the captured image is transmitted to the controller 110 . The image captured by the camera unit 120 may be displayed on the display unit 180 in the form of a real-time preview.

객체 인식부(130)는 카메라부(120)에서 촬영된 영상에 포함된 객체를 인식한다. 객체 인식부(130)에서 사용되는 객체 인식 방법에는 영상에 포함된 마커를 이용해 객체를 인식하는 마커 기반 인식 방법과, 물리적인 마커 대신에 미리 등록된 실제 물체를 인식하는 마커리스 인식 방법이 있다.The object recognition unit 130 recognizes an object included in the image captured by the camera unit 120 . The object recognition method used by the object recognition unit 130 includes a marker-based recognition method for recognizing an object using a marker included in an image, and a markerless recognition method for recognizing a pre-registered real object instead of a physical marker.

구체적으로, 마커 기반 인식 방법은 큐알 코드(QR code), 데이터 메트릭스(DataMatrix) 또는 2D 바코드(Barcode) 등과 같은 마커를 기초로 객체를 인식하는 방법이다. 마커 기반 인식 방법은 시스템이 미리 이해하고 있는 특수한 형태의 마커를 활용하므로 연산 속도와 인식률이 높게 나타난다.Specifically, the marker-based recognition method is a method of recognizing an object based on a marker such as a QR code, a data matrix, or a 2D barcode. The marker-based recognition method utilizes a special type of marker that the system understands in advance, so the calculation speed and recognition rate are high.

마커리스 인식 방법은 자연영상 기반 방식과 환경인식 기반 방식으로 나뉜다. 자연영상 기반 방식은 일반적인 평면 이미지에 존재하는 다수의 특징점(feature point)들을 분석하여, 분석된 특징점들을 보이지 않는 마커처럼 활용한다. 자연영상 기반 방식은, 자연영상에 존재하는 특징점을 추출하는 기술과, 특징점을 묘사하는 디스크립터(descriptor)로 효과적으로 변환시키는 기술을 이용한다. 환경인식 기반 방식은, 특수한 형태의 마커나 미리 입력된 영상 없이 환경 자체를 삼차원 지도 형태로 인식하는 기법이다. 환경인식 기반 방식은 카메라 혹은 RGBD 센서로부터 데이터를 분석하여 삼차원 환경 지도를 실시간으로 작성하는 지도 작성(mapping) 기술과, 작성된 지도에서 현재 카메라의 위치를 추정하는 카메라 추적(tracking) 기술이 이용될 수 있다.The markerless recognition method is divided into a natural image-based method and an environment recognition-based method. The natural image-based method analyzes a number of feature points existing in a general flat image and uses the analyzed feature points as invisible markers. The natural image-based method uses a technique for extracting a feature point existing in a natural image and a technique for effectively converting the feature point into a descriptor. The environment recognition-based method is a technique for recognizing the environment itself in the form of a three-dimensional map without special markers or pre-input images. In the environment recognition-based method, a mapping technology that creates a three-dimensional environment map in real time by analyzing data from a camera or RGBD sensor, and a camera tracking technology that estimates the current camera position on the created map can be used. have.

객체 인식부(130)는 앞에서 설명한 마커 기반 인식 방법과 마커리스 인식 방법을 이용하여 촬영된 영상에 포함된 객체를 인식할 수 있다. 이때, 객체 인식부(130)는 영상이 촬영된 위치 정보, 객체에 대한 마커 또는 객체의 마커리스 정보를 기초로 영상에 포함된 객체를 인식할 수 있다. 다만, 객체 인식부(130)가 객체를 인식하는 방법이 이에 한정되는 것은 아니며, 새로이 개발되는 다양한 방식이 적용될 수 있다.The object recognition unit 130 may recognize an object included in the captured image using the marker-based recognition method and the markerless recognition method described above. In this case, the object recognition unit 130 may recognize an object included in the image based on location information at which the image was captured, a marker for the object, or markerless information of the object. However, the method of recognizing the object by the object recognition unit 130 is not limited thereto, and various newly developed methods may be applied.

다만, 이러한 객체 인식부(130)의 동작은 별도의 외부 장치(예를 들어, 서버(300))에서 수행될 수 있으며, 수행 결과에 대한 결과 데이터만을 사용자 단말기(100)에서 수신하여 이용할 수 있다.However, the operation of the object recognition unit 130 may be performed in a separate external device (eg, the server 300 ), and only result data for the execution result may be received and used by the user terminal 100 . .

위치 측정부(140)는 사용자 단말기(100)의 현재 위치와, 촬영되는 객체의 위치를 측정한다. 구체적으로, 위치 측정부(140)는 로컬 위치 추적 기술을 이용하여 사용자 단말기(100)의 현재 위치와 사용자 단말기(100)에서 촬영되는 객체의 위치를 측정할 수 있다. 로컬 위치 추적 기술은 사용되는 방식에 따라서 TOF(time of flight), 공간 스캔(spatial scan), 관성측정(inertial sensing), 기계 연결식(mechanical linkage), 위상차 검출식(phase difference sensing), 직접 필드검출(direct field sensing)로 구분될 수 있으며, 정확도를 높이기 위해서 상기 기술들을 혼합하여 사용할 수 있다. The position measuring unit 140 measures the current position of the user terminal 100 and the position of a photographed object. Specifically, the location measurement unit 140 may measure the current location of the user terminal 100 and the location of an object photographed by the user terminal 100 using a local location tracking technology. Depending on the method used, local location tracking technology may include time of flight (TOF), spatial scan, inertial sensing, mechanical linkage, phase difference sensing, and direct field detection. (direct field sensing), and a mixture of the above techniques can be used to increase accuracy.

위치 측정부(140)는 근거리통신(near field communication; NFC)을 이용한 위치기반 서비스를 이용하여 위치측정을 할 수 있다. 예를 들어, 상기 위치기반 서비스는 Zigbee, iBeacon 기술을 이용할 수 있다. 위치기반 서비스는 주로 GPS를 사용하지 못하는 실내환경에서 이용될 수 있고, 각 노드의 신호강도를 통해서 상대위치를 파악할 수 있다. 또한, 위치 측정부(140)는 사용자 단말기(100)에 장착되어 있는 각종 센서(관성측정 센서, 고도계, 나침반) 등을 이용해서 위치측정의 정밀도를 높일 수 있다.The location measurement unit 140 may measure a location using a location-based service using near field communication (NFC). For example, the location-based service may use Zigbee and iBeacon technologies. The location-based service can be mainly used in an indoor environment where GPS cannot be used, and the relative location can be determined through the signal strength of each node. In addition, the position measurement unit 140 may increase the accuracy of position measurement by using various sensors (inertial measurement sensor, altimeter, compass) installed in the user terminal 100 .

증강 현실 처리부(150)는 증강 현실 정보를 기초로 사용자에게 제공되는 증강 현실 인터페이스를 생성할 수 있다. 증강 현실 정보는 촬영되는 객체를 모델링 및 렌더링 하는데 이용되는 로데이터(raw data)이다. 증강 현실 정보는 서버(300)의 데이터베이스에 저장되거나, 사용자 단말기(100)의 메모리부(170)에 저장되어 이용될 수 있다.The augmented reality processing unit 150 may generate an augmented reality interface provided to the user based on the augmented reality information. Augmented reality information is raw data used to model and render a photographed object. The augmented reality information may be stored in a database of the server 300 or stored in the memory unit 170 of the user terminal 100 and used.

증강 현실 처리부(150)는 증강 현실 정보를 기초로 실제 물체를 가상으로 정확하게 표현하는 모델링 기술과, 이를 사실적으로 표현하는 렌더링 기술을 이용할 수 있다. 모델링 기술은 비디오로 입력되는 2D 영상에 깊이 정보를 반영하여 합성하는 기술이다. 모델링 기술은 사용자 의도대로 객체 변형, 색상 변화 등을 수행하여 현실 공간에서 이룰 수 없는 다양한 응용을 가능하게 한다. 렌더링 기술은 생성된 가상 모델들에 조명효과, 그림자 효과, 밝기 변화 등을 부가하여 가상 모델을 사실적으로 표현함으로써, 사용자가 증강 현실 인터페이스에서 생동감을 느낄 수 있게 하는 기술이다.The augmented reality processing unit 150 may use a modeling technique for accurately expressing a real object in virtual reality based on the augmented reality information, and a rendering technique for realistically expressing the real object. The modeling technique is a technique for synthesizing a 2D image input as a video by reflecting depth information. Modeling technology enables various applications that cannot be achieved in real space by performing object transformation and color change according to the user's intention. Rendering technology is a technology that allows a user to feel a sense of vitality in an augmented reality interface by realistically expressing the virtual model by adding lighting effects, shadow effects, and brightness changes to the generated virtual models.

다만, 이러한 증강 현실 처리부(150)의 동작은 별도의 외부 장치(예를 들어, 서버(300))에서 수행될 수 있으며, 수행 결과에 대한 결과 데이터만을 사용자 단말기(100)에서 수신하여 이용할 수 있다.However, the operation of the augmented reality processing unit 150 may be performed in a separate external device (eg, the server 300 ), and only result data of the execution result may be received and used by the user terminal 100 . .

통신부(160)는 증강현실 데이터베이스를 저장하고 관리하는 서버(300) 또는 촬영 대상인 대상 기기(200)와 데이터를 교환한다. 이때, 증강현실 데이터베이스는 증강현실 객체, 증강현실 객체의 속성 정보를 저장한 데이터베이스이다. The communication unit 160 exchanges data with the server 300 that stores and manages the augmented reality database or the target device 200 that is a photographing target. In this case, the augmented reality database is an augmented reality object and a database storing attribute information of the augmented reality object.

통신부(160)는 다른 단말 장치와 유무선으로 데이터를 주고 받는 전자 장치, 모듈 또는 프로그램을 포함할 수 있다. 통신부(160)에서 이용하는 통신 규약은, 예를 들어, CDMA(Code Division Multiple Access) 통신, WCDMA(Wideband Code Division Multiple Access) 통신 혹은, 광대역 무선 통신을 포함한다. 다만, 본 발명이 이에 한정되는 것은 아니다. The communication unit 160 may include an electronic device, module, or program that transmits and receives data to and from another terminal device in a wired or wireless manner. The communication protocol used by the communication unit 160 includes, for example, CDMA (Code Division Multiple Access) communication, WCDMA (Wideband Code Division Multiple Access) communication, or broadband wireless communication. However, the present invention is not limited thereto.

센서부(165)는 증강현실에 필요한 정보 또는 증강현실에 추가로 적용되는 맥락정보를 감지하는 장치이다. 센서부(165)는 온도 센서, 습도 센서, 위치감지 센서, 동작감지 센서 등을 포함할 수 있다. 여기에서, 위치감지 센서는 GPS신호를 감지하는 GPS 센서가 이용될 수 있고, 동작감지 센서로는 자이로스코프 센서 또는 가속도 센서가 이용될 수 있다. 또한, 센서부(165)는 사용자 단말기(100)의 현재 위치, 움직임, 기울기, 방향, 촬영하는 객체와의 거리, 주변의 소리, 밝기 등을 측정할 수 있다.The sensor unit 165 is a device for detecting information necessary for augmented reality or context information additionally applied to augmented reality. The sensor unit 165 may include a temperature sensor, a humidity sensor, a position sensor, a motion sensor, and the like. Here, a GPS sensor that detects a GPS signal may be used as the location sensor, and a gyroscope sensor or an acceleration sensor may be used as the motion sensor. In addition, the sensor unit 165 may measure the current position, movement, tilt, direction, distance from the object to be photographed, ambient sound, brightness, and the like of the user terminal 100 .

메모리부(170)는 사용자 단말기(100)의 전반적인 동작을 제어하기 위한 운영체제, 응용 프로그램 및 저장용 데이터(전화번호, SMS 메시지, 압축된 이미지 파일, 동영상 등)를 저장한다. 또한, 메모리부(170)는 촬영되는 대상에 대응되는 증강현실 객체, 증강현실 객체의 속성 정보 및 상태 정보를 저장할 수 있다. 즉, 메모리부(170)는 촬영 대상인 객체와, 객체에 포함된 구성요소에 대한 상태 정보 및 증강 현실 정보를 저장한다. The memory unit 170 stores an operating system for controlling the overall operation of the user terminal 100 , an application program, and data for storage (a phone number, an SMS message, a compressed image file, a video, etc.). In addition, the memory unit 170 may store the augmented reality object corresponding to the object to be photographed, attribute information and state information of the augmented reality object. That is, the memory unit 170 stores the object to be photographed, state information about the components included in the object, and augmented reality information.

메모리부(170)는 RAM(Random Access Memory) 또는 ROM(Read Only Memory)과 정적 정보 및 명령어들을 저장하는 정적 저장 디바이스를 포함할 수 있다. 메모리부(170)는 휘발성 메모리 유닛 또는 비휘발성 메모리 유닛일 수 있다. 메모리부(170)는 또한 자기 또는 광디스크와 같은 컴퓨터 판독가능 매체의 또 다른 유형일 수 있다.The memory unit 170 may include a random access memory (RAM) or read only memory (ROM) and a static storage device for storing static information and instructions. The memory unit 170 may be a volatile memory unit or a non-volatile memory unit. Memory unit 170 may also be another type of computer readable medium, such as a magnetic or optical disk.

디스플레이부(180)는 사용자 단말기(100)의 동작 중에 발생되는 상태 정보(또는 인디케이터), 제한된 숫자와 문자들, 동화상(moving picture) 및 정화상(still picture) 등을 표시한다. 또한, 디스플레이부(180)는 카메라부(120)를 통해 수신되는 영상을 표시하고, 촬영되는 객체에 대응되는 증강 현실 인터페이스를 표시할 수 있다. The display unit 180 displays status information (or indicators) generated during operation of the user terminal 100 , limited numbers and characters, moving pictures and still pictures, and the like. Also, the display unit 180 may display an image received through the camera unit 120 and display an augmented reality interface corresponding to a photographed object.

인터페이스부(190)는 사용자로부터의 입력을 수신할 수 있다. 인터페이스부(190)는 버튼형 입력부, 터치 스크린, 키보드 또는 마우스 등과 같은 입력장치를 포함할 수 있다. 예를 들어, 터치 스크린은 디스플레이부(180)의 상면에 형성될 수 있고, 사용자의 터치를 통해 입력을 수신할 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다.The interface unit 190 may receive an input from a user. The interface unit 190 may include an input device such as a button type input unit, a touch screen, a keyboard, or a mouse. For example, the touch screen may be formed on the upper surface of the display unit 180 and may receive an input through a user's touch. However, the present invention is not limited thereto.

도 3은 본 발명의 일 실시예에 따른 증강 현실 제공 장치의 동작 방법을 설명하기 위한 도면이다.3 is a diagram for explaining a method of operating an apparatus for providing augmented reality according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시예에 따른 증강 현실 제공 장치인 사용자 단말기(100)는 대상 기기(200)를 촬영하고, 촬영된 대상 기기(200)에 대한 증강 현실 인터페이스를 디스플레이부(190) 상에 표시한다.Referring to FIG. 3 , the user terminal 100 , which is an augmented reality providing apparatus according to an embodiment of the present invention, captures a target device 200 , and displays an augmented reality interface for the captured target device 200 on the display unit ( 190) is displayed.

여기에서, 대상 기기(200)는 제1 내지 제4 구성요소(210, 220, 230, 240)를 포함할 수 있다. 예를 들어, 대상 기기(200)는 자동제어기기나 산업용기기 또는 배전반이 될 수 있다. 이때, 제1 내지 제4 구성요소(210, 220, 230, 240)는 각각 차단기, 계전기, 통신링크장치, 전력량계, 센서부, HMI 중 어느 하나가 될 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다. Here, the target device 200 may include first to fourth components 210 , 220 , 230 , and 240 . For example, the target device 200 may be an automatic control device, an industrial device, or a switchboard. In this case, the first to fourth components 210 , 220 , 230 , and 240 may be any one of a circuit breaker, a relay, a communication link device, a watt-hour meter, a sensor unit, and an HMI, respectively. However, the present invention is not limited thereto.

서버(300)는 대상 기기(200)와 연동되어 대상 기기(200)에 대한 다양한 데이터를 저장한다. 서버(300)는 객체 정보 DB(310), 구성요소 DB(320), 상태 정보 DB(330), 증강현실 DB(340)를 포함한다. 이하에서, 대상 기기(200)는 촬영 대상인 '객체'라는 용어와 혼용하여 설명하도록 한다.The server 300 works with the target device 200 to store various data about the target device 200 . The server 300 includes an object information DB 310 , a component DB 320 , a state information DB 330 , and an augmented reality DB 340 . Hereinafter, the target device 200 will be described by mixing it with the term 'object', which is a photographing target.

객체 정보 DB(310)는 객체에 대한 다양한 정보를 포함한다. 예를 들어, 객체의 제품 정보(제품명, 제품 카테고리, 설치 시기, 관리 방법 등), 객체가 설치된 위치 정보, 객체와 관련된 회로도 및 설치도 등의 정보를 포함할 수 있다.The object information DB 310 includes various information about objects. For example, it may include information such as product information (product name, product category, installation time, management method, etc.) of the object, location information where the object is installed, and a circuit diagram and installation diagram related to the object.

구성요소 DB(320)는 객체에 포함된 모든 구성요소에 대한 정보를 포함한다. 구성요소 DB(320)는 각 객체가 포함하는 구성요소, 각 구성요소 사이의 연결관계, 미리 정해진 각 구성요소의 정상 동작 범위, 고장시 대체 가능한 구성요소 등에 대한 정보를 포함한다.The component DB 320 includes information on all components included in the object. The component DB 320 includes information on components included in each object, a connection relationship between each component, a predetermined normal operating range of each component, and replaceable components in case of failure.

예를 들어, 배전반에 포함된 차단기의 경우, VCB(Vacuum Circuit Breaker, 진공 차단기), ACB(Air Circuit Breaker, 기중 차단기), MCCB(Molded Case Circuit Breaker, 배선용 차단기) 등을 포함하며, 구성요소 DB(320)는 대상 배전기에 포함된 차단기의 종류 및 대체 가능한 차단기에 대한 정보를 포함할 수 있다.For example, in the case of a circuit breaker included in a switchboard, it includes VCB (Vacuum Circuit Breaker), ACB (Air Circuit Breaker), MCCB (Molded Case Circuit Breaker, circuit breaker for wiring), etc., and component DB 320 may include information about the type of circuit breaker included in the target distributor and replaceable circuit breaker.

상태 정보 DB(330)는 객체에 포함된 각 구성요소의 동작 정보를 포함한다. 예를 들어, 상태 정보 DB(330)는 각 객체의 구성요소에 대한 전력량 정보, 온도 정보, 전압 정보, 전류 정보, 또는 각 구성요소의 상태 정보(예를 들어, 차단 상태 또는 트립 상태)를 포함할 수 있다. 각 구성요소의 상태 정보는 실시간으로 업데이트될 수 있으며, 원격 검침 시스템(AMR)의 일부로 이용될 수 있다.The state information DB 330 includes operation information of each component included in the object. For example, the state information DB 330 includes wattage information, temperature information, voltage information, current information, or state information of each component (eg, cut-off state or trip state) for the components of each object. can do. Status information of each component may be updated in real time, and may be used as a part of a remote meter reading system (AMR).

증강현실 DB(340)는 객체를 모델링 및 렌더링 하는데 이용되는 로데이터(raw data)인 증강 현실 정보를 저장한다. 또한, 증강현실 DB(340)는 증강 현실 정보를 기초로 사용자에게 제공되는 증강 현실 인터페이스를 저장한다. 즉, 증강현실 DB(340)는 객체의 모델링 및 렌더링 이전의 증강 현실 정보와, 모델링 및 렌더링 이후의 증강 현실 인터페이스를 모두 저장하고, 사용자 단말기(100)의 요청에 따라 필요한 데이터를 제공할 수 있다. The augmented reality DB 340 stores augmented reality information that is raw data used to model and render an object. In addition, the augmented reality DB 340 stores the augmented reality interface provided to the user based on the augmented reality information. That is, the augmented reality DB 340 stores both the augmented reality information before modeling and rendering of the object, and the augmented reality interface after modeling and rendering, and may provide necessary data according to the request of the user terminal 100 . .

사용자 단말기(100)는 촬영되는 영상에 포함된 객체인 대상 기기(200)를 인식하고, 대상 기기(200)에 포함된 제1 내지 제4 구성요소(210, 220, 230, 240)에 대한 증강 현실 정보 또는 증강 현실 인터페이스를 서버(300)로부터 수신하여 화면에 표시한다. 증강 현실 인터페이스에서는 실제로는 보이지 않는 제1 내지 제4 구성요소(210, 220, 230, 240)에 대한 증강 현실 아이콘이 대상 기기(200) 상에 오버랩 되도록 표현될 수 있다. 다만, 이는 하나의 예시에 불과하며, 본 발명이 이에 한정되는 것은 아니다. The user terminal 100 recognizes the target device 200 as an object included in the captured image, and augments the first to fourth components 210 , 220 , 230 , and 240 included in the target device 200 . Reality information or augmented reality interface is received from the server 300 and displayed on the screen. In the augmented reality interface, augmented reality icons for the first to fourth components 210 , 220 , 230 , and 240 that are not actually visible may be expressed to overlap on the target device 200 . However, this is only an example, and the present invention is not limited thereto.

사용자 단말기(100)에서 수행되는 증강 현실 제공 방법에 대한 자세한 설명은 이하에서 후술하도록 한다.A detailed description of the augmented reality providing method performed in the user terminal 100 will be described below.

도 4는 본 발명의 일 실시예에 따른 증강 현실 제공 방법을 나타내는 순서도이다.4 is a flowchart illustrating a method for providing augmented reality according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 일 실시예에 따른 증강 현실 제공 방법은 우선, 사용자 단말기(100)의 카메라부(120)에서 객체를 포함하는 영상을 촬영한다(S110).Referring to FIG. 4 , in the augmented reality providing method according to an embodiment of the present invention, an image including an object is first captured by the camera unit 120 of the user terminal 100 ( S110 ).

이어서, 객체 인식부(130)는 촬영된 영상에 포함된 객체를 인식한다(S120). Next, the object recognition unit 130 recognizes an object included in the captured image (S120).

이어서, 제어부(110)는 통신부(160)를 통하여 객체에 포함된 적어도 하나의 구성요소에 대한 정보를 수신한다(S130). 제어부(110)는 인식된 객체에 대한 정보와, 인식된 객체에 포함된 구성요소에 대한 정보를 서버(300)로부터 수신할 수 있다. 또한, 과거에 해당 객체에 대한 정보를 수신한 경우, 해당 객체의 정보를 저장하는 메모리부(170)로부터 객체에 대한 정보를 수신할 수 있다. 이때, 객체에 포함된 구성요소는 복수개가 될 수 있다.Next, the control unit 110 receives information on at least one component included in the object through the communication unit 160 (S130). The controller 110 may receive information on the recognized object and information on components included in the recognized object from the server 300 . In addition, when information on the corresponding object has been received in the past, the information on the object may be received from the memory unit 170 that stores the information of the corresponding object. In this case, the component included in the object may be a plurality.

이어서, 제어부(110)는 통신부(160)를 통하여 객체에 포함된 적어도 하나의 구성요소에 대한 상태 정보를 서버(300)로부터 수신한다(S140). 서버(300)는 원격 검침 시스템(AMR)을 기초로 객체에 포함된 각 구성요소의 상태 정보를 실시간으로 저장한다. 제어부(110)는 서버(300)에 저장된 각 구성요소의 현재 상태 정보를 요청하여 수신할 수 있다.Next, the control unit 110 receives the state information on at least one component included in the object from the server 300 through the communication unit 160 (S140). The server 300 stores state information of each component included in the object in real time based on the remote meter reading system (AMR). The controller 110 may request and receive current state information of each component stored in the server 300 .

이어서, 제어부(110)는 수신된 상태 정보를 기초로 적어도 하나의 구성요소 각각에 대한 이벤트의 발생 여부를 판단한다(S150). 여기에서, 이벤트는 해당 구성요소의 동작에 이상이 있는 경우 발생할 수 있다. 이벤트는 해당 구성요소의 이상 동작 원인에 대한 정보를 포함할 수 있다.Next, the control unit 110 determines whether an event has occurred for each of the at least one component based on the received state information (S150). Here, the event may occur when there is an abnormality in the operation of the corresponding component. The event may include information on the cause of the abnormal operation of the corresponding component.

이어서, 제어부(110)는 통신부(160)를 통하여 이벤트가 발생된 구성요소에 대한 증강 현실 정보를 수신한다(S160). 제어부(110)는 서버(300)로부터 해당 구성요소의 증강 현실 정보를 수신할 수 있다.Then, the control unit 110 receives the augmented reality information on the component in which the event is generated through the communication unit 160 (S160). The controller 110 may receive augmented reality information of a corresponding component from the server 300 .

이어서, 증강 현실 처리부(150)는 수신된 증강 현실 정보를 기초로 증강 현실 인터페이스를 생성하여 디스플레이부(180)에서 촬영된 영상에 증강 현실 인터페이스를 오버랩하여 표시한다(S170, S180). Next, the augmented reality processing unit 150 generates an augmented reality interface based on the received augmented reality information, and displays the augmented reality interface by overlapping the image captured by the display unit 180 ( S170 , S180 ).

추가적으로, 본 발명의 다른 실시예에서 제어부(110)는 이벤트가 발생된 구성요소에 대한 증강 현실 정보를 수신하는 대신, 해당 구성요소에 대한 서버(300)에 미리 저장된 증강 현실 인터페이스를 수신하여 디스플레이부(180)에 바로 표시할 수 있다. Additionally, in another embodiment of the present invention, the control unit 110 receives the augmented reality interface stored in advance in the server 300 for the corresponding component, instead of receiving the augmented reality information on the component in which the event has occurred, and the display unit (180) can be displayed directly.

예를 들어, 서버(300)는 앞에서 설명한 사용자 단말기(100)의 객체 인식부(130)와 증강 현실 처리부(150)의 동작을 수행할 수 있다. 이어서, 사용자 단말기(100)는 서버(300)로부터 수행된 동작의 결과 데이터를 수신하여 이용할 수 있다. 구체적으로, 사용자 단말기(100)는 카메라부(120)에서 촬영된 영상을 서버(300)에 전송하고, 서버(300)는 수신된 영상에 포함된 객체를 인식하며, 인식된 객체에 대한 증강 현실 인터페이스를 생성하여 사용자 단말기(100)에 제공할 수 있다.For example, the server 300 may perform the operations of the object recognition unit 130 and the augmented reality processing unit 150 of the user terminal 100 described above. Subsequently, the user terminal 100 may receive and use result data of the operation performed from the server 300 . Specifically, the user terminal 100 transmits the image captured by the camera unit 120 to the server 300 , and the server 300 recognizes an object included in the received image, and augments reality for the recognized object. An interface may be created and provided to the user terminal 100 .

이 경우, 사용자 단말기(100)는 서버(300)로부터 수신한 데이터(즉, 증강 현실 인터페이스)를 바로 디스플레이부(180)로 출력한다. 따라서, 제어부(110)의 연산량이 감소되므로 동작 속도가 증가될 수 있다. In this case, the user terminal 100 directly outputs the data (ie, the augmented reality interface) received from the server 300 to the display unit 180 . Accordingly, since the amount of calculation of the control unit 110 is reduced, the operation speed may be increased.

도 5는 도 4의 구성요소 각각에 대한 이벤트의 발생 여부를 판단하는 단계의 일 예를 구체적으로 설명하기 위한 순서도이다.5 is a flowchart specifically explaining an example of a step of determining whether an event has occurred for each of the components of FIG. 4 .

도 5를 참조하면, 도 4의 S150 단계인 객체에 포함된 구성요소 각각에 대한 이벤트의 발생 여부를 판단하는 것은, 제어부(110)에서 다음과 같은 순서로 수행될 수 있다.Referring to FIG. 5 , determining whether an event has occurred for each component included in the object in step S150 of FIG. 4 may be performed by the controller 110 in the following order.

우선, 객체에 포함된 적어도 하나의 구성요소 중 어느 하나를 특정한다(S251).First, any one of at least one component included in the object is specified (S251).

이어서, 특정된 구성요소의 상태 정보와 미리 정해진 정상 동작 기준치를 비교하여, 특정된 구성요소의 정상 동작 여부를 판단한다(S252, S253). 예를 들어, 상태 정보는 구성요소에 대한 전력량 정보, 온도 정보, 전압 정보, 또는 전류 정보를 포함한다. 정상 동작 기준치는 각 상태 수치값에 대한 정상 동작 범위로써, 메모리부(170)에 미리 저장되어 이용될 수 있다.Next, by comparing the state information of the specified component with a predetermined normal operation reference value, it is determined whether the specified component is operating normally ( S252 , S253 ). For example, the state information includes wattage information, temperature information, voltage information, or current information for a component. The normal operation reference value is a normal operation range for each state numerical value, and may be stored in advance in the memory unit 170 and used.

이어서, 특정된 구성요소가 정상 동작 중이 아니라고 판단되는 경우, 제어부(110)는 특정된 구성요소의 상태 정보를 기초로 이상 동작의 원인을 판단한다(S255). 예를 들어, 특정된 구성요소의 온도가 정상 동작 범위를 벗어나는 경우 온도 이상 발생으로 판단되고, 특정된 구성요소의 전력량이 정상 동작 범위를 벗어나는 경우 전력량 이상 발생으로 판단될 수 있다. Next, when it is determined that the specified component is not operating normally, the control unit 110 determines the cause of the abnormal operation based on the state information of the specified component ( S255 ). For example, when the temperature of the specified component is out of the normal operating range, it may be determined that the temperature abnormal occurs, and when the amount of power of the specified component is out of the normal operating range, it may be determined that the electrical energy abnormal is generated.

이어서, 제어부(110)는 판단된 이상 동작의 원인을 포함하는 이벤트를 생성한다(S256). 이벤트가 발생한 해당 구성요소에 대한 정보는 증강 현실 처리부(150)에 전달되거나, 메모리부(170)에 저장될 수 있다.Next, the control unit 110 generates an event including the determined cause of the abnormal operation (S256). Information on the component in which the event has occurred may be transmitted to the augmented reality processing unit 150 or stored in the memory unit 170 .

이어서, 제어부(110)는 특정 구성요소를 다른 구성요소로 변경한다(S254).Then, the control unit 110 changes the specific component to another component (S254).

이어서, 제어부(110)는 다른 구성요소에 대하여 S251 단계 내지 S256 단계를 반복하여 수행한다. 이를 통해, 객체에 포함된 모든 구성요소들의 정상 동작 여부를 판단할 수 있다.Next, the control unit 110 repeats steps S251 to S256 for other components. Through this, it can be determined whether all components included in the object operate normally.

도 6은 도 4의 증강 현실 인터페이스를 생성하여 표시하는 단계의 일 예를 구체적으로 설명하기 위한 순서도이다.6 is a flowchart for specifically explaining an example of a step of generating and displaying the augmented reality interface of FIG. 4 .

도 6을 참조하면, 도 4의 S170 단계 및 S180 단계에서 증강 현실 인터페이스를 생성하여 표시하는 단계는 증강 현실 처리부(150)에서 다음과 같은 순서로 수행될 수 있다.Referring to FIG. 6 , generating and displaying the augmented reality interface in steps S170 and S180 of FIG. 4 may be performed by the augmented reality processing unit 150 in the following order.

우선, 증강 현실 처리부(150)는 발생된 이벤트에 포함된 이상 동작 원인을 추출한다(S371). 예를 들어, 해당 구성요소에 온도에 이상이 있는 경우, 증강 현실 처리부(150)는 이벤트에서 해당 구성요소에 대한 정보와 온도 이상 발생이라는 이상 동작 원인에 대한 정보를 추출할 수 있다.First, the augmented reality processing unit 150 extracts the cause of the abnormal operation included in the generated event (S371). For example, when there is an abnormality in the temperature of the corresponding component, the augmented reality processing unit 150 may extract information on the corresponding component and information on the cause of the abnormal operation such as the occurrence of the temperature abnormality from the event.

이어서, 증강 현실 처리부(150)는 이벤트에 포함된 이상 동작의 원인에 따라, 서로 다른 증강 현실 인터페이스를 생성한다(S373). 이때, 증강 현실 처리부(150)는 서로 다른 증강 현실 인터페이스를 생성하기 위한 증강 현실 정보를 서버(300)에 요청할 수 있다. 증강 현실 처리부(150)는 수신된 증강 현실 정보를 기초로 증강 현실 인터페이스를 생성할 수 있다.Next, the augmented reality processing unit 150 generates different augmented reality interfaces according to the cause of the abnormal operation included in the event ( S373 ). In this case, the augmented reality processing unit 150 may request augmented reality information for generating different augmented reality interfaces from the server 300 . The augmented reality processing unit 150 may generate an augmented reality interface based on the received augmented reality information.

이때, 증강 현실 인터페이스는 이상 동작의 원인에 따라 서로 다른 모델링 및 렌더링 이미지를 이용하여 생성될 수 있다. 또한, 증강 현실 인터페이스는 이상 동작의 정도에 따라 서로 다른 색깔로 표현될 수 있다. In this case, the augmented reality interface may be generated using different modeling and rendering images depending on the cause of the abnormal operation. In addition, the augmented reality interface may be expressed in different colors according to the degree of the abnormal operation.

예를 들어, 이상 동작 원인이 온도인 경우 생성되는 증강 현실 인터페이스(예를 들어, 화염 렌더링 이미지)와, 이상 동작 원인이 전력량인 경우 생성되는 증강 현실 인터페이스(예를 들어, 번개 렌더링 이미지)는 서로 다를 수 있다. For example, the augmented reality interface (eg, flame rendered image) generated when the cause of abnormal operation is temperature and the augmented reality interface (eg, rendered image of lightning) generated when the cause of abnormal operation is the amount of electricity can be different.

또한, 이상이 발생된 구성요소의 온도가 100도 인 경우와 150도 인 경우는 서로 다른 색깔로 표현될 수 있다. 다만, 이는 하나의 예시일 뿐, 본 발명이 이에 한정되는 것은 아니다. In addition, when the temperature of the component in which the abnormality occurs is 100 degrees and 150 degrees, it may be expressed in different colors. However, this is only an example, and the present invention is not limited thereto.

이어서, 제어부(110)는 증강 현실 처리부(150)에서 생성된 증강 현실 인터페이스를 이벤트가 발생된 해당 구성요소에 오버랩하여 표시한다(S380). Next, the controller 110 overlaps the augmented reality interface generated by the augmented reality processing unit 150 on the corresponding component in which the event has occurred and displays it ( S380 ).

추가적으로, 본 발명의 다른 실시예에서 제어부(110)는 이상 동작 원인에 대한 증강 현실 정보를 수신하는 대신, 해당 구성요소에 대한 서버(300)에 미리 저장된 증강 현실 인터페이스를 수신하여 디스플레이부(180)에 바로 표시할 수 있다. 이 경우, 제어부(110)는 이상 동작 원인에 대한 증강 현실 인터페이스를 서버(300)에 요청할 수 있다.Additionally, in another embodiment of the present invention, the control unit 110 receives the augmented reality interface stored in advance in the server 300 for the corresponding component, instead of receiving the augmented reality information on the cause of the abnormal operation to the display unit 180 . can be displayed directly on In this case, the controller 110 may request an augmented reality interface for the cause of the abnormal operation from the server 300 .

도 7 및 도 8은 본 발명의 일 실시예에 따른 증강 현실 제공 방법의 동작의 일 예를 설명하기 위한 도면이다.7 and 8 are diagrams for explaining an example of the operation of the augmented reality providing method according to an embodiment of the present invention.

도 7을 참조하면, 본 발명의 일 실시예에 따른 증강 현실 제공 방법에서, 사용자 단말기(100)는 대상 기기(200)를 촬영하고, 대상 기기(200)는 제1 내지 제4 구성요소(210, 220, 230, 240)를 포함할 수 있다. 사용자 단말기(100)는 제1 내지 제4 구성요소(210, 220, 230, 240)를 증강 현실로 대상 기기(200) 상에 오버랩 되도록 표시할 수 있다.Referring to FIG. 7 , in the augmented reality providing method according to an embodiment of the present invention, the user terminal 100 photographs a target device 200 , and the target device 200 includes first to fourth components 210 , 220, 230, 240) may be included. The user terminal 100 may display the first to fourth components 210 , 220 , 230 , and 240 to overlap on the target device 200 in augmented reality.

이때, 제어부(110)는 제1 내지 제4 구성요소(210, 220, 230, 240)의 상태 정보를 기초로, 제1 및 제4 구성요소(210, 240)는 정상 동작 중이고, 제2 및 제3 구성요소(210, 240)에 이벤트가 발생하였음을 판단할 수 있다.At this time, the control unit 110, based on the state information of the first to fourth components 210, 220, 230, 240, the first and fourth components 210 and 240 are in normal operation, the second and It may be determined that an event has occurred in the third components 210 and 240 .

증강 현실 처리부(150)는 발생된 이벤트를 기초로 제2 구성요소(220)에는 온도 이상이 발생한 상태이고, 제3 구성요소(230)에는 전력량 이상이 발생한 상태임을 판단할 수 있다. The augmented reality processing unit 150 may determine that a temperature abnormality has occurred in the second component 220 and a power quantity abnormality has occurred in the third component 230 based on the generated event.

증강 현실 처리부(150)는 온도 이상이 발생한 제2 구성요소(220) 상에 제1 증강 현실 인터페이스(예를 들어, 불꽃이 타오르는 렌더링 이미지와 이에 대한 설명)를 오버랩시킬 수 있다. The augmented reality processing unit 150 may overlap the first augmented reality interface (eg, a rendered image in which a flame burns and a description thereof) on the second component 220 in which the temperature abnormality occurs.

또한, 증강 현실 처리부(150)는 전력량 이상이 발생한 제3 구성요소(230) 상에 제2 증강 현실 인터페이스(예를 들어, 번개가 치는 렌더링 이미지와 이에 대한 설명)를 오버랩시킬 수 있다.In addition, the augmented reality processing unit 150 may overlap the second augmented reality interface (eg, a rendered image of lightning and a description thereof) on the third component 230 in which the amount of power is abnormal.

도 8을 참조하면, 사용자는 사용자 단말기(100)의 인터페이스부(190)를 통해, 제1 및 제2 증강 현실 인터페이스가 오버랩된 제2 및 제3 구성요소(210, 240) 부분을 선택할 수 있다. Referring to FIG. 8 , the user may select, through the interface unit 190 of the user terminal 100 , portions of the second and third components 210 and 240 in which the first and second augmented reality interfaces overlap. .

이 경우, 증강 현실 처리부(150)는 제1 및 제2 증강 현실 인터페이스에 구체적인 정보를 포함하는 추가 메뉴를 생성하여 표시할 수 있다. 여기에서 추가 메뉴는 각 이상 발생 원인과 관련된 상세 정보를 포함할 수 있다.In this case, the augmented reality processing unit 150 may generate and display an additional menu including specific information on the first and second augmented reality interfaces. Here, the additional menu may include detailed information related to the cause of each abnormality.

예를 들어, 이상 발생 원인이 온도인 경우, 증강 현실 처리부(150)는 구성요소의 정상 온도 범위, 현재 구성요소의 온도, 구성요소의 쿨 다운 방법에 대한 정보를 추가 메뉴로 생성하여 제1 증강 현실 인터페이스에 반영할 수 있다.For example, when the cause of the abnormality is temperature, the augmented reality processing unit 150 generates information on the normal temperature range of the component, the temperature of the current component, and the cooling-down method of the component as an additional menu to create the first augmentation. It can be reflected in the real interface.

다른 예로, 이상 발생 원인이 전력량인 경우, 증강 현실 처리부(150)는 구성요소의 정상 전력량 범위, 현재 전력량, 과거부터 현재까지 전력량 변화를 나타내는 그래프 등에 대한 정보를 추가 메뉴로 생성하여 제2 증강 현실 인터페이스에 반영할 수 있다. 다만, 이는 하나의 예시에 불과하며, 본 발명이 이에 한정되는 것은 아니다. As another example, when the cause of the abnormality is the amount of power, the augmented reality processing unit 150 generates information about the normal power range of the component, the current amount of power, a graph representing the change in the amount of power from the past to the present, as an additional menu, and creates the second augmented reality It can be reflected in the interface. However, this is only an example, and the present invention is not limited thereto.

단, 본 발명은 대상 기기(200)는 제1 내지 제4 구성요소(210, 220, 230, 240) 중 동작 이상이 발생한 구성요소에 대하여만, 추가적인 증강 현실 인터페이스를 생성하는 것에 한정되지 않는다. 추가적으로, 본 발명은 구성요소에 대한 추가 알림 정보가 있는 경우, 이를 증강 현실 인터페이스로 생성하여 표시할 수 있다.However, the present invention is not limited to generating an additional augmented reality interface for the target device 200 only for the first to fourth components 210 , 220 , 230 , and 240 . Additionally, according to the present invention, if there is additional notification information for a component, it may be generated and displayed as an augmented reality interface.

예를 들어, 대상 기기(200)에 포함된 구성요소의 교체시기가 다가오는 경우, 관련 교체 모델에 대한 정보를 포함하는 증강 현실 인터페이스를 생성하여 해당 구성요소에 표시할 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다. For example, when the replacement time of a component included in the target device 200 approaches, an augmented reality interface including information on a related replacement model may be generated and displayed on the corresponding component. However, the present invention is not limited thereto.

앞에서 살펴본 바와 같이, 본 발명의 증강 현실 제공 시스템 및 방법은, 촬영되고 있는 객체에 포함된 각 구성요소의 종류 및 동작 상태를 증강 현실로 표현하여 사용자에게 제공할 수 있다. 구체적으로, 본 발명은 촬영되고 있는 객체에 포함된 복수의 구성요소에 대해 이상 동작 여부를 각각 판단하고, 이상 동작의 원인에 따라 서로 다른 증강 현실 인터페이스를 제공한다.As described above, in the augmented reality providing system and method of the present invention, the type and operating state of each component included in the object being photographed may be expressed in augmented reality and provided to the user. Specifically, the present invention determines whether an abnormal operation is performed for a plurality of components included in an object being photographed, and provides different augmented reality interfaces according to the cause of the abnormal operation.

따라서, 사용자는 기기에 포함된 각 구성요소에 대한 상태 정보를 직관적이고 쉽게 파악할 수 있다. 즉, 본 발명은 기기 관리에 소요되는 시간을 단축시켜 사용자의 편의성을 높이고, 업무 처리 속도를 향상시킬 수 있다. 또한, 동일한 시간 내에 빠른 작업 처리가 가능해지므로 작업 효율이 향상될 수 있다.Accordingly, the user can intuitively and easily grasp status information for each component included in the device. That is, the present invention can shorten the time required for device management to increase user convenience and improve work processing speed. In addition, since it is possible to quickly process the work within the same time, work efficiency can be improved.

이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although the embodiments of the present invention have been described above with reference to the accompanying drawings, those of ordinary skill in the art to which the present invention pertains can realize that the present invention can be implemented in other specific forms without changing the technical spirit or essential features. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

100: 사용자 단말기
200: 대상 기기
300: 서버
100: user terminal
200: target device
300: server

Claims (14)

사용자 단말기 또는 서버에서 수행되는 증강 현실 제공 방법으로서,
객체를 포함하는 영상을 촬영하는 (a) 단계;
상기 촬영된 영상에 포함된 객체를 인식하는 (b) 단계;
상기 객체에 포함된 적어도 하나의 구성요소에 대한 정보를 수신하는 (c) 단계;
상기 적어도 하나의 구성요소에 대한 상태 정보를 수신하는 (d) 단계;
상기 수신된 상태 정보를 기초로 상기 적어도 하나의 구성요소 각각에 대한 이벤트의 발생 여부를 판단하는 (e) 단계;
상기 이벤트가 발생된 구성요소에 대한 증강 현실 정보를 기초로 증강 현실 인터페이스를 생성하는 (f) 단계; 및
상기 촬영된 영상에 상기 증강 현실 인터페이스를 오버랩하여 화면에 표시하는 (g) 단계를 포함하고,
상기 수신된 상태 정보를 기초로 상기 적어도 하나의 구성요소 각각에 대한 이벤트의 발생 여부를 판단하는 (e) 단계는,
상기 적어도 하나의 구성요소 중 특정 구성요소의 상기 상태 정보와 미리 정해진 정상 동작 기준치를 비교하여, 상기 특정 구성요소의 정상 동작 여부를 판단하는 (e1) 단계와,
상기 특정 구성요소가 정상 동작 중이 아니라고 판단되는 경우, 상기 상태 정보를 기초로 이상 동작의 원인을 판단하고, 상기 이상 동작의 원인을 포함하는 이벤트를 생성하는 (e2) 단계를 포함하는
증강 현실 제공 방법.
As an augmented reality providing method performed in a user terminal or server,
(a) photographing an image including an object;
(b) recognizing an object included in the photographed image;
(c) receiving information on at least one component included in the object;
(d) receiving status information on the at least one component;
(e) determining whether an event has occurred for each of the at least one component based on the received state information;
(f) generating an augmented reality interface based on augmented reality information on the component in which the event has occurred; and
(g) overlapping the augmented reality interface on the captured image and displaying on the screen,
(e) determining whether an event has occurred for each of the at least one component based on the received state information,
(e1) determining whether the specific component operates normally by comparing the state information of the specific component among the at least one component with a predetermined normal operation reference value;
(e2) determining the cause of the abnormal operation based on the state information when it is determined that the specific component is not operating normally, and generating an event including the cause of the abnormal operation
How to provide augmented reality.
삭제delete 제1 항에 있어서,
상기 (e1) 단계와 상기 (e2) 단계는, 상기 객체에 포함된 상기 적어도 하나의 구성요소 각각에 대하여 반복 수행되는 증강 현실 제공 방법.
According to claim 1,
The step (e1) and the step (e2) are repeatedly performed for each of the at least one component included in the object.
제1 항에 있어서,
상기 이벤트가 발생된 구성요소에 대한 증강 현실 정보를 기초로 증강 현실 인터페이스를 생성하는 (f) 단계는,
상기 이벤트에 포함된 상기 이상 동작의 원인에 따라, 서로 다른 증강 현실 인터페이스를 생성하기 위한 상기 증강 현실 정보를 수신하는 것을 포함하는 증강 현실 제공 방법.
According to claim 1,
(f) of generating an augmented reality interface based on the augmented reality information on the component in which the event has occurred,
and receiving the augmented reality information for generating different augmented reality interfaces according to a cause of the abnormal operation included in the event.
제1 항에 있어서,
상기 상태 정보는, 상기 구성요소에 대한 전력량 정보, 온도 정보, 전압 정보, 전류 정보, 또는 차단 상태를 포함하는 증강 현실 제공 방법.
According to claim 1,
The state information is, the augmented reality providing method including the amount of power information, temperature information, voltage information, current information, or a blocking state for the component.
제1 항에 있어서,
상기 (b) 또는 (f) 단계는 상기 서버에서 수행되고, 다른 나머지 단계는 상기 사용자 단말기에서 수행되는 증강 현실 제공 방법.
According to claim 1,
The step (b) or (f) is performed in the server, and the other steps are performed in the user terminal.
제1 항에 있어서,
상기 이벤트가 발생된 구성요소에 대한 증강 현실 정보를 기초로 증강 현실 인터페이스를 생성하는 (f) 단계는, 상기 이벤트에 포함된 이상 동작의 원인에 따라 서로 다른 증강 현실 인터페이스를 생성하는 것을 포함하고,
상기 촬영된 영상에 상기 증강 현실 인터페이스를 오버랩하여 화면에 표시하는 (g) 단계는, 상기 생성된 증강 현실 인터페이스를 상기 이벤트가 발생된 구성요소에 오버랩하여 표시하는 것을 포함하는 증강 현실 제공 방법.
According to claim 1,
The step (f) of generating an augmented reality interface based on the augmented reality information on the component in which the event has occurred includes generating different augmented reality interfaces according to the cause of the abnormal operation included in the event,
The step (g) of overlapping the augmented reality interface on the captured image and displaying the augmented reality interface on the screen includes overlapping the generated augmented reality interface with the component in which the event has occurred and displaying the overlapped.
제7 항에 있어서,
상기 서로 다른 증강 현실 인터페이스는, 서로 다른 색깔 또는 서로 다른 모양의 증강 현실 모델링을 포함하는 증강 현실 제공 방법.
8. The method of claim 7,
The different augmented reality interfaces include augmented reality modeling of different colors or different shapes.
제1 항에 있어서,
상기 촬영된 영상에 포함된 객체를 인식하는 (b) 단계는,
상기 영상이 촬영된 위치 정보, 상기 객체의 마커 또는 상기 객체의 마커리스 정보를 이용하여, 상기 영상에 포함된 상기 객체를 인식하는 것을 포함하는 증강 현실 제공 방법.
According to claim 1,
Step (b) of recognizing an object included in the photographed image,
Augmented reality providing method comprising recognizing the object included in the image by using the location information at which the image was captured, the marker of the object, or the markerless information of the object.
객체를 포함하는 영상을 촬영하는 카메라부;
상기 영상에 포함된 상기 객체를 인식하는 객체 인식부;
상기 객체에 포함된 적어도 하나의 구성요소에 대한 정보와, 상기 적어도 하나의 구성요소에 대한 상태 정보와, 이벤트가 발생된 상기 구성요소에 대한 증강 현실 정보를 수신하는 통신부;
상기 증강 현실 정보를 기초로 증강 현실 인터페이스를 생성하는 증강 현실 처리부;
상기 증강 현실 인터페이스를 상기 촬영된 영상에 오버랩하여 표시하는 디스플레이부; 및
상기 수신된 상태 정보를 기초로 상기 적어도 하나의 구성요소 각각에 대한 상기 이벤트의 발생 여부를 판단하는 제어부를 포함하고,
상기 제어부는,
상기 적어도 하나의 구성요소 중 특정 구성요소의 상기 상태 정보와 미리 정해진 정상 동작 기준치를 비교하여, 상기 특정 구성요소의 정상 동작 여부를 판단하고,
상기 특정 구성요소가 정상 동작 중이 아니라고 판단되는 경우, 상기 상태 정보를 기초로 이상 동작의 원인을 판단하고, 상기 이상 동작의 원인을 포함하는 이벤트를 생성하고,
상기 이벤트가 발생한 구성요소를 선정하여, 상기 선정된 구성요소에 대한 상기 증강 현실 정보를 요청하는
증강 현실 제공 시스템.
a camera unit for capturing an image including an object;
an object recognition unit for recognizing the object included in the image;
a communication unit configured to receive information on at least one component included in the object, state information on the at least one component, and augmented reality information on the component in which an event has occurred;
an augmented reality processing unit generating an augmented reality interface based on the augmented reality information;
a display unit for displaying the augmented reality interface by overlapping the captured image; and
A control unit for determining whether the event has occurred for each of the at least one component based on the received state information,
The control unit is
comparing the state information of a specific component among the at least one component with a predetermined normal operation reference value to determine whether the specific component operates normally;
When it is determined that the specific component is not operating normally, the cause of the abnormal operation is determined based on the state information, and an event including the cause of the abnormal operation is generated,
Selecting a component in which the event occurred, and requesting the augmented reality information for the selected component
Augmented reality providing system.
삭제delete 제10 항에 있어서,
상기 제어부는, 상기 이벤트에 포함된 상기 이상 동작에 따라, 서로 다른 증강 현실 인터페이스를 생성하기 위한 상기 증강 현실 정보를 요청하는 증강 현실 제공 시스템.
11. The method of claim 10,
The controller may request the augmented reality information for generating different augmented reality interfaces according to the abnormal operation included in the event.
제10 항에 있어서,
상기 증강 현실 처리부는, 상기 이벤트에 포함된 이상 동작의 원인에 따라 서로 다른 증강 현실 인터페이스를 생성하고,
상기 디스플레이부는, 상기 생성된 증강 현실 인터페이스를 상기 이벤트가 발생된 구성요소에 오버랩하여 표시하는 증강 현실 제공 시스템.
11. The method of claim 10,
The augmented reality processing unit generates different augmented reality interfaces according to the cause of the abnormal operation included in the event,
The display unit, an augmented reality providing system for overlapping the generated augmented reality interface with the component in which the event occurred.
제10 항에 있어서,
상기 카메라부, 상기 통신부, 상기 디스플레이부 및 상기 제어부를 포함하는 사용자 단말기와,
상기 객체 인식부와 상기 증강 현실 처리부를 포함하는 서버를 포함하는,
증강 현실 제공 시스템.
11. The method of claim 10,
a user terminal including the camera unit, the communication unit, the display unit, and the control unit;
Containing a server including the object recognition unit and the augmented reality processing unit,
Augmented reality providing system.
KR1020170182585A 2017-12-28 2017-12-28 Syetem and method for providing augmented reality user interface KR102268797B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170182585A KR102268797B1 (en) 2017-12-28 2017-12-28 Syetem and method for providing augmented reality user interface

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170182585A KR102268797B1 (en) 2017-12-28 2017-12-28 Syetem and method for providing augmented reality user interface

Publications (2)

Publication Number Publication Date
KR20190080242A KR20190080242A (en) 2019-07-08
KR102268797B1 true KR102268797B1 (en) 2021-06-23

Family

ID=67256232

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170182585A KR102268797B1 (en) 2017-12-28 2017-12-28 Syetem and method for providing augmented reality user interface

Country Status (1)

Country Link
KR (1) KR102268797B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023210970A1 (en) * 2022-04-24 2023-11-02 주식회사 피앤씨솔루션 Augmented-reality texture display method using augmented reality-dedicated writing tool

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102430041B1 (en) * 2022-04-22 2022-08-08 (주)브리콘랩 facility inspection system and electronic device operating method that inspects facilities using augmented reality technology

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102077305B1 (en) * 2013-05-09 2020-02-14 삼성전자 주식회사 Method and apparatus for providing contents including augmented reality information
KR101807655B1 (en) * 2015-12-01 2017-12-11 주식회사 퓨처플레이 Method, device, system and non-transitory computer-readable recording medium for providing user interface

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023210970A1 (en) * 2022-04-24 2023-11-02 주식회사 피앤씨솔루션 Augmented-reality texture display method using augmented reality-dedicated writing tool

Also Published As

Publication number Publication date
KR20190080242A (en) 2019-07-08

Similar Documents

Publication Publication Date Title
KR102347586B1 (en) Method for providing augmented reality user interface
US20200388080A1 (en) Displaying content in an augmented reality system
US9268410B2 (en) Image processing device, image processing method, and program
JP7315313B2 (en) 3D mapping of the process control environment
KR102289745B1 (en) System and method for real-time monitoring field work
US10412594B2 (en) Network planning tool support for 3D data
KR101330805B1 (en) Apparatus and Method for Providing Augmented Reality
US20140313228A1 (en) Image processing device, and computer program product
KR101665399B1 (en) Object generation apparatus and method of based augmented reality using actual measured
EP2974509B1 (en) Personal information communicator
CN113741698A (en) Method and equipment for determining and presenting target mark information
JP2014106681A5 (en)
KR102264754B1 (en) Device and method for providing augmented reality user interface
KR102263468B1 (en) System and method for providing augmented reality user interface
KR101470757B1 (en) Method and apparatus for providing augmented reality service
KR102345333B1 (en) Device and method for providing augmented reality user interface
KR102268797B1 (en) Syetem and method for providing augmented reality user interface
JP5685436B2 (en) Augmented reality providing device, augmented reality providing system, augmented reality providing method and program
JP2016122392A (en) Information processing apparatus, information processing system, control method and program of the same
KR102338627B1 (en) System and method for providing augmented reality user interface
KR102268798B1 (en) System and method for providing augmented reality user interface
CN114187509B (en) Object positioning method and device, electronic equipment and storage medium
JP2016192014A (en) Information processing device, information processing method, and program
CN111857341B (en) Display control method and device
KR102221898B1 (en) Method for visualization in virtual object based on real object

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant