KR20190080244A - Device and method for providing augmented reality user interface - Google Patents

Device and method for providing augmented reality user interface Download PDF

Info

Publication number
KR20190080244A
KR20190080244A KR1020170182587A KR20170182587A KR20190080244A KR 20190080244 A KR20190080244 A KR 20190080244A KR 1020170182587 A KR1020170182587 A KR 1020170182587A KR 20170182587 A KR20170182587 A KR 20170182587A KR 20190080244 A KR20190080244 A KR 20190080244A
Authority
KR
South Korea
Prior art keywords
augmented reality
information
image
model
user terminal
Prior art date
Application number
KR1020170182587A
Other languages
Korean (ko)
Other versions
KR102345333B1 (en
Inventor
남상원
Original Assignee
엘에스산전 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘에스산전 주식회사 filed Critical 엘에스산전 주식회사
Priority to KR1020170182587A priority Critical patent/KR102345333B1/en
Publication of KR20190080244A publication Critical patent/KR20190080244A/en
Application granted granted Critical
Publication of KR102345333B1 publication Critical patent/KR102345333B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • G06K9/00671
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/35Aspects of automatic or semi-automatic exchanges related to information services provided via a voice call
    • H04M2203/359Augmented reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a system and a method for providing augmented reality. The method for providing augmented reality comprises the following steps: (a) photographing an image including an object; (b) recognizing the object included in the photographed image; (c) receiving information on the object; (d) calculating a remaining lifespan of the object based on the received information; (e) determining a necessity of replacing the object based on the remaining lifespan; (f) generating an augmented reality interface as to whether the object needs to be replaced when there is the necessity of replacing the object; and (g) displaying the image on a screen by overlapping the augmented reality interface with the photographed image.

Description

증강 현실 제공 시스템 및 방법{Device and method for providing augmented reality user interface}Technical Field [0001] The present invention relates to augmented reality providing system and method,

본 발명은 증강 현실 제공 시스템 및 방법에 관한 것이다. 구체적으로, 촬영되고 있는 기기의 교체 필요성을 판단하고, 해당 기기의 대체 가능 모델에 대한 정보를 제공하는 증강 현실 제공 시스템 및 방법에 관한 것이다.The present invention relates to augmented reality providing system and method. Specifically, the present invention relates to an augmented reality providing system and method for determining necessity of replacing a device being photographed, and providing information on a replaceable model of the device.

증강 현실(augmented reality, AR)이란 실제 환경에 가상 사물이나 정보를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법을 말한다.Augmented reality (AR) is a computer graphics technique that combines virtual objects or information into a real environment to make them look like objects in the original environment.

증강 현실은 가상의 공간과 사물만을 대상으로 하는 기존의 가상 현실과 달리, 현실 세계의 기반 위에 가상의 사물을 합성하여 현실 세계만으로는 얻기 어려운 부가적인 정보들을 보강해 제공할 수 있는 특징을 가진다. 이러한 특징 때문에 증강 현실은 단순히 게임과 같은 분야에만 한정된 적용이 가능한 기존 가상 현실과 달리 다양한 현실 환경에 응용이 가능하다. 특히, 증강 현실은 유비쿼터스 환경에 적합한 차세대 디스플레이 기술로 각광받고 있다.The augmented reality has a characteristic that it can reinforce and provide additional information that is difficult to obtain only in the real world by synthesizing a virtual object on the basis of the real world, unlike the existing virtual reality which only deals with a virtual space and objects. Because of this feature, the augmented reality can be applied to various real environments unlike existing virtual reality, which can be applied only to fields such as games. Especially, augmented reality is attracting attention as next generation display technology suitable for ubiquitous environment.

증강 현실 기술에 대한 연구가 시작된 이래 다양한 분야에서 증강 현실 기술을 활용하려는 연구가 이어져 왔으며, 최근에는 스마트폰의 확산과 더불어 증강 현실 기술이 위치 기반 서비스에 많이 활용되고 있다.Research on augmented reality technology has been continued since the start of research on augmented reality technology. Recently, augmented reality technology has been widely used in location based services with the proliferation of smart phones.

일반적으로, 증강 현실 기술은 현재 촬영되고 있는 기기에 대한 정보를 메뉴 형태로 프리뷰 화면 상에 표시한다. 이때 프리뷰 화면은 촬영되고 있는 기기의 상태 정보를 2D 또는 3D 형태로 표시할 수 있다.Generally, the augmented reality technology displays information about the device currently being photographed on a preview screen in a menu form. At this time, the preview screen can display the status information of the device being photographed in 2D or 3D form.

다만, 종래의 증강 현실 제공 방법의 경우, 촬영되고 있는 기기의 잔여 수명 및 동작 상태에 대한 고려 없이 동일한 증강 현실 인터페이스만을 제공한다. 따라서, 종래의 증강 현실 제공 방법은, 촬영되고 있는 기기가 오래되어 교체의 필요성이 있거나, 동작에 이상이 발생하여 교체의 필요한 경우에도, 관련 정보를 제공하지 않아 사용자가 이를 파악하기 어려운 문제점이 있었다.However, in the case of the conventional method for providing an augmented reality, only the same augmented reality interface is provided without considering the remaining lifetime and operation state of the device being photographed. Therefore, the conventional method of providing an augmented reality has a problem that it is difficult for the user to grasp the information because the related information is not provided even when the device being taken is old and needs to be replaced or an operation error occurs and replacement is required .

본 발명은 촬영되고 있는 기기의 상태 정보를 기초로 해당 기기의 교체 필요성을 판단하고, 대체 가능 모델에 대한 정보를 증강 현실로 제공하는 증강 현실 제공 시스템 및 방법을 제공하는 것을 목적으로 한다.An object of the present invention is to provide a system and method for providing an augmented reality that determines necessity of replacement of a device based on state information of a device being photographed and provides information on an alternative model to the augmented reality.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention which are not mentioned can be understood by the following description and more clearly understood by the embodiments of the present invention. It will also be readily apparent that the objects and advantages of the invention may be realized and attained by means of the instrumentalities and combinations particularly pointed out in the appended claims.

상기의 목적을 달성하기 위한 본 발명의 증강 현실 제공 방법은, 객체를 포함하는 영상을 촬영하는 (a) 단계, 상기 촬영된 영상에 포함된 객체를 인식하는 (b) 단계, 상기 객체에 대한 정보를 수신하는 (c) 단계, 상기 수신된 정보를 기초로 상기 객체의 잔여 수명을 계산하는 (d) 단계, 상기 잔여 수명을 기초로 상기 객체의 교체 필요성을 판단하는 (e) 단계, 상기 객체의 교체 필요성이 있는 경우, 상기 객체의 교체 필요 여부에 대한 증강 현실 인터페이스를 생성하는 (f) 단계, 및 상기 촬영된 영상에 상기 증강 현실 인터페이스를 오버랩하여 화면에 표시하는 (g) 단계를 포함한다.According to another aspect of the present invention, there is provided an augmented reality providing method including: (a) capturing an image including an object; (b) recognizing an object included in the captured image; (D) calculating the remaining lifetime of the object based on the received information, (e) determining the need to replace the object based on the remaining lifetime, (F) generating an augmented reality interface with respect to whether or not the object needs to be replaced if there is a necessity of replacing the augmented reality interface, and displaying (g) overlapping the augmented reality interface on the captured image and displaying on the screen.

또한, 상기 객체의 잔여 수명을 계산하는 (d) 단계는, 상기 객체의 사용기간과 상기 객체의 권장사용수명을 비교하여 상기 잔여 수명을 계산하는 것을 포함할 수 있다.In addition, the step (d) of calculating the remaining lifetime of the object may include calculating the remaining lifetime by comparing the lifetime of the object with the recommended lifetime of the object.

또한, 상기 객체의 잔여 수명을 계산하는 (d) 단계는, 상기 객체의 상기 수신된 정보를 기초로, 상기 객체에 포함된 각 구성요소의 정상 동작 여부를 판단하여, 상기 잔여 수명을 계산하는 것을 포함할 수 있다.The step (d) of calculating the remaining lifetime of the object may include calculating the remaining lifetime by determining whether each component included in the object operates normally based on the received information of the object .

또한, 상기 객체에 대한 정보는, 상기 객체에 포함된 각 구성요소의 마모 상태, 융착 정도, 퓨즈 상태, 스위치의 동작 상태, 스위치의 동작 횟수, 차단기의 동작 상태, 또는 차단기의 동작 횟수를 포함할 수 있다.The information on the object may include a wear state, a fusing degree, a fuse state, an operation state of the switch, an operation frequency of the switch, an operation state of the breaker, or an operation frequency of the breaker, .

또한, 상기 객체의 교체 필요성을 판단하는 (e) 단계는, 상기 잔여 수명이 미리 설정된 기준치보다 작은 경우, 상기 객체의 교체 필요성이 있다고 판단하는 것을 포함할 수 있다.In addition, the step (e) of determining necessity of replacing the object may include determining that there is a necessity of replacing the object if the remaining lifetime is less than a preset reference value.

또한, 상기 객체의 대체 가능 모델에 대한 증강 현실 인터페이스를 표시하는 단계를 더 포함할 수 있다.The method may further include displaying an augmented reality interface for the replaceable model of the object.

또한, 상기 객체의 대체 가능 모델에 대한 증강 현실 인터페이스를 표시하는 단계는, 상기 객체와 동종의 모델 또는 상기 객체와 호환 가능한 모델에 대한 증강 현실 이미지를 상기 객체에 오버랩하여 표시하는 것을 포함할 수 있다.In addition, the step of displaying the augmented reality interface for the replaceable model of the object may include displaying the augmented reality image for the model of the same type as the object or the model compatible with the object, overlaid on the object .

또한, 상기 객체의 대체 가능 모델에 대한 증강 현실 인터페이스를 표시하는 단계는, 상기 대체 가능 모델이 복수인 경우, 미리 입력되거나, 사용자에 의해 선택된 정렬 기준을 기초로 상기 대체 가능 모델에 대한 리스트를 증강 현실 메뉴로 표시하는 것을 포함할 수 있다.In addition, the step of displaying the augmented reality interface for the replaceable model of the object may include the step of, if the plurality of replaceable models is a plurality, adding a list to the replaceable model based on the sorting criterion selected by the user And displaying it with a realistic menu.

또한, 상기 정렬 기준은, 상기 객체와의 호환성, 제조날짜, 예상수명, 가격, 또는 상품평을 포함할 수 있다.Further, the sorting criterion may include compatibility with the object, a manufacturing date, an expected life span, a price, or a product review.

또한, 상기 촬영된 영상에 포함된 객체를 인식하는 (b) 단계는, 상기 영상이 촬영된 위치 정보, 상기 객체의 마커 또는 상기 객체의 마커리스 정보를 이용하여, 상기 영상에 포함된 상기 객체를 인식하는 것을 포함할 수 있다.In addition, the step (b) of recognizing an object included in the photographed image may include the step of recognizing the object included in the image using the position information of the image, the marker of the object or the markerless information of the object ≪ / RTI >

또한, 상기 (b) 또는 (f) 단계는 상기 서버에서 수행되고, 다른 나머지 단계는 상기 사용자 단말기에서 수행될 수 있다.The step (b) or (f) may be performed in the server, and the remaining steps may be performed in the user terminal.

상기의 목적을 달성하기 위한 본 발명의 증강 현실 제공 시스템은, 객체를 포함하는 영상을 촬영하는 카메라부, 상기 영상에 포함된 상기 객체를 인식하는 객체 인식부, 상기 객체에 대한 정보와, 상기 객체의 대체 가능 모델에 대한 증강 현실 정보를 수신하는 통신부, 상기 증강 현실 정보를 기초로 증강 현실 인터페이스를 생성하는 증강 현실 처리부, 상기 증강 현실 인터페이스를 상기 촬영된 영상에 오버랩하여 표시하는 디스플레이부, 및 상기 객체에 대한 정보를 기초로 상기 객체의 잔여 수명을 계산하고, 상기 계산된 잔여 수명을 기초로 상기 객체의 교체 필요성을 판단하는 제어부를 포함한다.According to an aspect of the present invention, there is provided an augmented reality providing system including a camera unit for capturing an image including an object, an object recognition unit for recognizing the object included in the image, information about the object, An augmented reality processing unit for generating an augmented reality interface based on the augmented reality information, a display unit for overlapping and displaying the augmented reality interface on the photographed image, And a controller for calculating a remaining lifetime of the object based on the information about the object and determining necessity of replacing the object based on the calculated remaining lifetime.

또한, 상기 제어부는, 상기 객체의 대체 가능 모델에 대한 정보를 상기 사용자 단말기와 연결된 서버에 요청하고, 상기 증강 현실 인터페이스를 수신하여 상기 디스플레이부에 표시할 수 있다.In addition, the controller may request information on an alternative model of the object to a server connected to the user terminal, and may receive the augmented reality interface and display the augmented reality interface on the display unit.

또한, 상기 제어부는, 상기 객체의 제조년도와 상기 객체의 평균 수명을 비교하거나, 상기 객체에 대한 정보를 기초로 상기 객체의 각 구성요소에 대한 정상 동작 여부를 판단하여, 상기 잔여 수명을 계산할 수 있다.Also, the controller may calculate the remaining lifetime by comparing the year of manufacture of the object and the average lifetime of the object, or by determining whether each component of the object is normal or not based on the information about the object .

또한, 상기 제어부는, 상기 객체와 동종의 모델 또는 상기 객체와 호환 가능한 모델에 대한 증강 현실 이미지를 상기 객체에 오버랩되도록 표시할 수 있다.Also, the controller may display an augmented reality image for a model of the same type as the object or a model compatible with the object, so as to overlap the object.

또한, 상기 카메라부, 상기 통신부, 상기 디스플레이부 및 상기 제어부를 포함하는 사용자 단말기와, 상기 객체 인식부와 상기 증강 현실 처리부를 포함하는 서버를 포함할 수 있다.The mobile terminal may further include a user terminal including the camera unit, the communication unit, the display unit, and the controller, and a server including the object recognition unit and the augmented reality processing unit.

본 발명의 증강 현실 제공 시스템 및 방법은, 촬영되고 있는 기기의 잔여 수명 및 동작 상태에 따라 대체 가능 모델에 대한 정보를 제공함으로써, 사용자가 기기의 교체 필요성을 한눈에 파악할 수 있도록 한다. 이를 통해, 사용자는 기기에 대한 교체 필요성과, 대체 가능 모델에 대한 정보를 직관적이고 쉽게 파악할 수 있다. The system and method for providing an augmented reality according to the present invention provide information on a replaceable model according to the remaining lifetime and operation state of the device being photographed so that the user can grasp the necessity of replacement of the device at a glance. This allows the user to intuitively and easily grasp the need for replacement of the device and information about the replaceable model.

또한, 본 발명의 증강 현실 제공 시스템 및 방법은, 촬영되고 있는 기기의 잔여 수명과 이상 동작 발생 여부를 사용자가 쉽게 파악할 수 있어, 복수의 기기 관리에 소요되는 시간을 단축시켜 사용자의 편의성을 높일 수 있다. 또한, 동일한 시간 내에 빠른 작업 처리가 가능해지므로 작업 효율이 향상될 수 있다.Further, the system and method for providing an augmented reality according to the present invention can easily grasp the remaining lifetime of a device being photographed and whether an abnormal operation has occurred, thereby shortening the time required for managing a plurality of devices, have. In addition, since a quick work process can be performed within the same time, the working efficiency can be improved.

또한, 본 발명의 증강 현실 제공 시스템 및 방법은, 해당 기기와 호환 가능한 기기에 대한 정보를 사용자에게 제공함으로써, 사용자는 별도의 검색 없이 대체 가능 모델에 대한 정보를 쉽게 얻을 수 있고, 판매자는 마케팅 및 홍보 수단으로 이용할 수 있어, 사용자의 니즈와 판매자의 니즈를 동시에 충족시킬 수 있다.In addition, the system and method for providing an augmented reality of the present invention can provide the user with information on compatible devices with the device, so that the user can easily obtain information on the replaceable model without performing any search, It can be used as a publicity measure, so that the needs of the user and the needs of the seller can be satisfied at the same time.

상술한 효과와 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다. The above and other objects, features and advantages of the present invention will be more apparent from the following detailed description taken in conjunction with the accompanying drawings, in which: FIG.

도 1은 본 발명의 일 실시예에 따른 증강 현실 제공 시스템을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 증강 현실 제공 장치를 설명하기 위한 블럭도이다.
도 3은 본 발명의 일 실시예에 따른 증강 현실 제공 장치의 동작 방법을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 증강 현실 제공 방법을 나타내는 순서도이다.
도 5는 도 4의 수명 판단 알고리즘 동작의 일 예를 설명하기 위한 순서도이다.
도 6 및 도 7은 본 발명의 일 실시예에 따른 증강 현실 제공 방법의 동작의 일 예를 설명하기 위한 도면이다.
1 is a diagram illustrating an augmented reality providing system according to an embodiment of the present invention.
2 is a block diagram for explaining an augmented reality providing apparatus according to an embodiment of the present invention.
3 is a diagram illustrating an operation method of an augmented reality providing apparatus according to an embodiment of the present invention.
4 is a flowchart illustrating a method of providing an augmented reality according to an embodiment of the present invention.
5 is a flowchart for explaining an example of the operation of the life judgment algorithm of FIG.
6 and 7 are views for explaining an example of the operation of the augmented reality providing method according to an embodiment of the present invention.

전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용된다.The above and other objects, features, and advantages of the present invention will become more apparent by describing in detail exemplary embodiments thereof with reference to the attached drawings, which are not intended to limit the scope of the present invention. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to denote the same or similar elements.

이하에서, 도 1 내지 도 7을 참조하여 본 발명에 따른 증강 현실 제공 시스템 및 방법에 대해 설명하도록 한다.Hereinafter, a system and method for providing an augmented reality according to the present invention will be described with reference to Figs. 1 to 7.

도 1은 본 발명의 일 실시예에 따른 증강 현실 제공 시스템을 나타내는 도면이다.1 is a diagram illustrating an augmented reality providing system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 증강 현실 제공 시스템은, 사용자 단말기(100), 대상 기기(200) 및 서버(300)를 포함한다. Referring to FIG. 1, an augmented reality providing system according to an embodiment of the present invention includes a user terminal 100, a target device 200, and a server 300.

사용자 단말기(100)는 증강 현실 제공 장치로써 동작할 수 있다. 사용자 단말기(100)는 대상 기기(200)를 촬영하고, 대상 기기(200)의 객체 정보와 동작 상태 정보를 서버(300)로부터 수신한다. The user terminal 100 may operate as an augmented reality providing apparatus. The user terminal 100 photographs the target device 200 and receives object information and operation state information of the target device 200 from the server 300.

예를 들어, 사용자 단말기(100)는 촬영되고 있는 대상 기기(200)의 제조시기, 설치 시기, 제품명, 제품 번호, 제품 종류, 내부 구성요소, 권장사용수명 등에 대한 정보를 포함하는 객체 정보를 수신할 수 있다. 또한, 사용자 단말기(100)는 촬영되고 있는 대상 기기(200)의 동작 전력량, 온도, 전압 및 전류 등에 대한 정보를 포함하는 상태 정보를 수신할 수 있다.For example, the user terminal 100 receives object information including information on a manufacturing time, an installation time, a product name, a product number, a product type, an internal component, a recommended service life, etc. of the target device 200 being photographed can do. Also, the user terminal 100 may receive status information including information on the operation power amount, temperature, voltage, current, etc. of the target device 200 being photographed.

사용자 단말기(100)는 대상 기기(200)의 객체 정보와 상태 정보를 기초로 대상 기기(200)의 교체 필요성을 판단한다. 만약, 대상 기기(200)의 교체 필요성이 있는 경우, 사용자 단말기(100)는 대상 기기(200)의 대체 가능 모델에 대한 정보를 기초로 증강 현실 인터페이스를 생성하여 화면에 표시할 수 있다. The user terminal 100 determines necessity of replacing the target device 200 based on object information and status information of the target device 200. [ If there is a need to replace the target device 200, the user terminal 100 may generate an augmented reality interface based on information on the replaceable model of the target device 200 and display the generated augmented reality interface on the screen.

이때, 사용자 단말기(100)는 대상 기기(200)의 상태 정보를 기초로, 대상 기기(200)의 이상 동작 유무를 판단하고, 대상 기기(200)의 잔여 수명을 판단할 수 있다. 사용자 단말기(100)는 대상 기기(200)의 대체 가능 모델에 대한 증강 현실 정보를 서버(300)로부터 수신하고, 증강 현실 정보를 기초로 증강 현실 인터페이스를 생성하여 화면에 표시할 수 있다. 여기에서, 증강 현실 정보는 대상 기기(200)의 대체 가능 모델에 대한 증강 현실 관련 데이터를 포함한다. At this time, the user terminal 100 can determine whether the target device 200 has an abnormal operation and determine the remaining service life of the target device 200 based on the status information of the target device 200. The user terminal 100 can receive the augmented reality information for the replaceable model of the target device 200 from the server 300 and generate an augmented reality interface based on the augmented reality information and display the augmented reality interface on the screen. Here, the augmented reality information includes the augmented reality-related data for the replaceable model of the target device 200. [

증강 현실 정보는 2D 또는 3D 이미지로 모델링 및 렌더링될 수 있으며, 렌더링된 이미지는 증강 현실 인터페이스로 변환되어 사용자 단말기(100)의 화면에 프리뷰 형태로 표시된다.The augmented reality information can be modeled and rendered as a 2D or 3D image, and the rendered image is converted into an augmented reality interface and displayed in a preview form on the screen of the user terminal 100. [

추가적으로, 사용자 단말기(100)는 촬영되는 대상 기기(200)에 대한 대체 가능 모델의 증강 현실 인터페이스를 직접 서버(300)로부터 수신하고, 이를 화면에 그대로 표시할 수 있다.In addition, the user terminal 100 may directly receive the augmented reality interface of the substitutable model for the target device 200 to be photographed from the server 300, and may display the augmented reality interface directly on the screen.

사용자 단말기(100)는 증강 현실의 디스플레이 방식에 따라, 모바일 기반의 장치, 착용형 장치(wearable device)(예를 들어, HMD(Head Mounted Device), 비디오 시쓰루 장치(Video See-Through device), 광학 시쓰루 장치(Optical See-Through device)), 스크린 기반의 장치, 및 프로젝터 기반 장치 중 어느 하나가 될 수 있다.The user terminal 100 may be a mobile-based device, a wearable device (e.g., a head mounted device (HMD), a video see-through device, An optical see-through device), a screen-based device, and a projector-based device.

또한, 사용자 단말기(100)는 컴퓨터, UMPC(Ultra Mobile PC), 워크스테이션, 넷북(net-book), PDA (Personal Digital Assistants), 포터블(portable) 컴퓨터, 웹 타블렛(web tablet), 무선 전화기(wireless phone), 모바일 폰(mobile phone), 스마트폰(smart phone), e-북(e-book), PMP(portable multimedia player) 등 정보를 무선 환경에서 송수신할 수 있는 장치가 될 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다.Also, the user terminal 100 may be a computer, a UMPC (Ultra Mobile PC), a workstation, a netbook, a PDA (Personal Digital Assistants), a portable computer, a web tablet, a wireless mobile phone, a mobile phone, a smart phone, an e-book, a portable multimedia player (PMP), and the like. However, the present invention is not limited thereto.

대상 기기(200)는 다양한 전자기기가 될 수 있다. 예를 들어, 대상 기기(200)는 자동제어기기나 산업용기기 또는 배전반이 될 수 있다. 이때, 대상 기기(200)는 차단기, 계전기, 통신링크장치, 전력량계, 센서부, HMI(Human Machine Interface) 등을 구성요소로 포함할 수 있고, 대상 기기(200)에 포함된 구성요소들의 동작 상태에 따라 대상 기기(200)의 전체적인 동작 상태 및 잔여 수명이 결정될 수 있다. The target device 200 may be various electronic devices. For example, the target device 200 may be an automatic controller, industrial device, or switchboard. In this case, the target device 200 may include a circuit breaker, a relay, a communication link device, a watt-hour meter, a sensor unit, an HMI (Human Machine Interface) The overall operating state and remaining service life of the target device 200 can be determined.

다른 예로, 대상 기기(200)는 원격 검침 시스템(Automatic Meter Reading; 이하, AMR)의 측정 대상이 될 수 있다. 일반적으로, 원격 검침 시스템(AMR)이라 함은 멀리 떨어진 지점의 측정 대상으로부터 측정 결과를 전기적 신호로 변환하여 통신 네트워크를 통해 데이터를 전송하고, 그 데이터를 컴퓨터에서 처리하는 것을 말한다.As another example, the target device 200 may be an object of measurement of Automatic Meter Reading (AMR). Generally, the AMR refers to converting measurement results from an object at a remote location to an electrical signal, transmitting the data through the communication network, and processing the data in the computer.

원격 검침 시스템(AMR)의 서버는 TCP/IP(Transmission Control Protocol/Internet Protocol)를 기반으로 데이터 통신을 수행할 수 있도록 제공되는 데이터 통신망(예컨대, 기간망, 사설망, 인터넷망 포함)을 통해 다수의 데이터수집장치와 상호 접속된다. 서버는 데이터 통신망을 통해 데이터수집장치와 실시간으로 데이터 송수신을 수행하며, 각 측정 대상의 전력 상태를 실시간으로 모니터링(monitoring)하는 것이 가능하다.The server of the AMR system can receive a plurality of data (e.g., data) through a data communication network (e.g., a backbone network, a private network, and an Internet network) provided to perform data communication based on a Transmission Control Protocol / Internet Protocol Collecting device. The server transmits and receives data in real time to and from the data collection device through the data communication network, and it is possible to monitor the power status of each measurement object in real time.

또한, 서버는 데이터수집장치로부터 각 측정 대상의 검침 데이터를 실시간으로 제공받는다. 이러한 검침 데이터를 기초로 하여 각 측정 대상의 전력 상태, 예컨대 정전, 누전, 또는 방전 여부, 융착 여부, 바이패스 스위치 동작여부, 차단기의 동작여부 등을 분석하여 관리자에게 제공한다. 여기서, 검침 데이터는 하나의 데이터 집중화 장치에 할당된 모든 측정 대상의 전력 품질을 파악할 수 있는 모든 데이터가 포함될 수 있다.In addition, the server receives meter reading data of each measurement object from the data collection device in real time. Based on the meter reading data, the power state of each measurement object, for example, whether it is a power failure, a short circuit, or a discharge, whether it is fused, whether or not the bypass switch is operated, Here, the meter reading data may include all data capable of measuring the power quality of all the measurement objects allocated to one data centralizing apparatus.

서버(300)는 대상 기기(200)에 대한 각종 정보를 저장하는 데이터베이스를 포함한다. 예를 들어, 서버(300)는 대상 기기(200)에 대한 객체 정보, 대상 기기(200)의 상태 정보, 대상 기기(200)에 포함된 구성요소에 대한 정보, 및 대상 기기(200)에 대한 증강 현실 관련 데이터를 저장할 수 있다.The server 300 includes a database for storing various kinds of information about the target device 200. For example, the server 300 may store the object information about the target device 200, the status information of the target device 200, the information about the components included in the target device 200, Augmented reality related data can be stored.

서버(300)는 원격 검침 시스템(AMR)의 데이터수집장치 또는 서버로써 동작할 수 있다. 즉, 서버(300)는 대상 기기(200)에 대한 검침 데이터를 실시간을 제공받고 저장할 수 있다. 이를 통해, 서버(300)는 대상 기기(200)의 동작 상태를 모니터링하고 원격 제어할 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다. The server 300 may operate as a data collection device or server of an AMR system. That is, the server 300 can receive and store the meter reading data for the target device 200 in real time. In this way, the server 300 can monitor and remotely control the operation status of the target device 200. However, the present invention is not limited thereto.

도 2는 본 발명의 일 실시예에 따른 증강 현실 제공 장치를 설명하기 위한 블럭도이다.2 is a block diagram for explaining an augmented reality providing apparatus according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 증강 현실 제공 장치인 사용자 단말기(100)는, 제어부(110), 카메라부(120), 객체 인식부(130), 위치 측정부(140), 증강 현실 처리부(150), 통신부(160), 센서부(165), 메모리부(170), 디스플레이부(180) 및 인터페이스부(190)를 포함한다. 다만, 도 2에 도시된 사용자 단말기(100)의 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 사용자 단말기(100)가 구현될 수 있다.2, a user terminal 100 as an augmented reality providing apparatus according to an exemplary embodiment of the present invention includes a control unit 110, a camera unit 120, an object recognition unit 130, a position measurement unit 140, An augmented reality processing unit 150, a communication unit 160, a sensor unit 165, a memory unit 170, a display unit 180, and an interface unit 190. However, the components of the user terminal 100 shown in FIG. 2 are not essential, so that the user terminal 100 having more or fewer components can be implemented.

제어부(110)는 사용자 단말기(100)에 포함된 구성요소의 전반적인 동작을 제어할 수 있다. 제어부(110)는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 실행할 수 있다. 또한, 제어부(350)는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수 있다. 상기 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터로 판독 가능한 기록 매체에 저장될 수 있다. 제어부(110)의 자세한 동작에 대한 설명은 이하에서 후술하도록 한다.The control unit 110 may control the overall operation of the components included in the user terminal 100. The control unit 110 may execute an operating system (OS) and one or more software applications executed on the operating system. In addition, the control unit 350 can access, store, manipulate, process, and generate data in response to execution of the software. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media. The detailed operation of the control unit 110 will be described below.

카메라부(120)는 영상을 촬영하는 장치로써, 촬영된 영상은 제어부(110)에 전달된다. 카메라부(120)에서 촬영된 영상은 실시간 프리뷰 형태로 디스플레이부(180)에 표시될 수 있다.The camera unit 120 is a device for capturing an image, and the captured image is transmitted to the control unit 110. The image photographed by the camera unit 120 may be displayed on the display unit 180 in a real-time preview format.

객체 인식부(130)는 카메라부(120)에서 촬영된 영상에 포함된 객체를 인식한다. 객체 인식부(130)에서 사용되는 객체 인식 방법에는 영상에 포함된 마커를 이용해 객체를 인식하는 마커 기반 인식 방법과, 물리적인 마커 대신에 미리 등록된 실제 물체를 인식하는 마커리스 인식 방법이 있다.The object recognition unit 130 recognizes an object included in the image photographed by the camera unit 120. The object recognition method used in the object recognition unit 130 includes a marker based recognition method for recognizing an object using a marker included in an image and a markerless recognition method for recognizing an actual object registered in advance instead of a physical marker.

구체적으로, 마커 기반 인식 방법은 큐알 코드(QR code), 데이터 메트릭스(DataMatrix) 또는 2D 바코드(Barcode) 등과 같은 마커를 기초로 객체를 인식하는 방법이다. 마커 기반 인식 방법은 시스템이 미리 이해하고 있는 특수한 형태의 마커를 활용하므로 연산 속도와 인식률이 높게 나타난다.Specifically, the marker-based recognition method is a method of recognizing an object based on a marker such as a QR code, a data matrix (DataMatrix), or a 2D barcode. Since the marker-based recognition method utilizes a special type of marker that the system understands in advance, the operation speed and the recognition rate are high.

마커리스 인식 방법은 자연영상 기반 방식과 환경인식 기반 방식으로 나뉜다. 자연영상 기반 방식은 일반적인 평면 이미지에 존재하는 다수의 특징점(feature point)들을 분석하여, 분석된 특징점들을 보이지 않는 마커처럼 활용한다. 자연영상 기반 방식은, 자연영상에 존재하는 특징점을 추출하는 기술과, 특징점을 묘사하는 디스크립터(descriptor)로 효과적으로 변환시키는 기술을 이용한다. 환경인식 기반 방식은, 특수한 형태의 마커나 미리 입력된 영상 없이 환경 자체를 삼차원 지도 형태로 인식하는 기법이다. 환경인식 기반 방식은 카메라 혹은 RGBD 센서로부터 데이터를 분석하여 삼차원 환경 지도를 실시간으로 작성하는 지도 작성(mapping) 기술과, 작성된 지도에서 현재 카메라의 위치를 추정하는 카메라 추적(tracking) 기술이 이용될 수 있다.The markerless recognition method is divided into a natural image-based method and an environmental recognition-based method. The natural image-based method analyzes a large number of feature points existing in a general plane image, and uses the analyzed feature points as invisible markers. The natural image-based method uses a technique of extracting a feature point existing in a natural image and a technique of effectively converting the feature point into a descriptor for describing the feature point. The environment recognition based method is a technique of recognizing the environment itself as a three-dimensional map without a special type of marker or a pre-input image. The environment recognition based method can be a mapping technique for realizing a three-dimensional environment map by analyzing data from a camera or an RGBD sensor and a camera tracking technique for estimating the position of the current camera on the created map have.

객체 인식부(130)는 앞에서 설명한 마커 기반 인식 방법과 마커리스 인식 방법을 이용하여 촬영된 영상에 포함된 객체를 인식할 수 있다. 이때, 객체 인식부(130)는 영상이 촬영된 위치 정보, 객체에 대한 마커 또는 객체의 마커리스 정보를 기초로 영상에 포함된 객체를 인식할 수 있다. 다만, 객체 인식부(130)가 객체를 인식하는 방법이 이에 한정되는 것은 아니며, 새로이 개발되는 다양한 방식이 적용될 수 있다.The object recognition unit 130 can recognize the objects included in the photographed image by using the marker-based recognition method and the markerless recognition method described above. At this time, the object recognition unit 130 can recognize the object included in the image based on the position information on which the image was captured, the marker for the object, or the markerless information on the object. However, the method of recognizing the object by the object recognizing unit 130 is not limited to this, and various newly developed methods can be applied.

다만, 이러한 객체 인식부(130)의 동작은 별도의 외부 장치(예를 들어, 서버(300))에서 수행될 수 있으며, 수행 결과에 대한 결과 데이터만을 사용자 단말기(100)에서 수신하여 이용할 수 있다.However, the operation of the object recognition unit 130 may be performed by a separate external device (e.g., the server 300), and only the result data on the execution result may be received and used by the user terminal 100 .

위치 측정부(140)는 사용자 단말기(100)의 현재 위치와, 촬영되는 객체의 위치를 측정한다. 구체적으로, 위치 측정부(140)는 로컬 위치 추적 기술을 이용하여 사용자 단말기(100)의 현재 위치와 사용자 단말기(100)에서 촬영되는 객체의 위치를 측정할 수 있다. 로컬 위치 추적 기술은 사용되는 방식에 따라서 TOF(time of flight), 공간 스캔(spatial scan), 관성측정(inertial sensing), 기계 연결식(mechanical linkage), 위상차 검출식(phase difference sensing), 직접 필드검출(direct field sensing)로 구분될 수 있으며, 정확도를 높이기 위해서 상기 기술들을 혼합하여 사용할 수 있다. The position measuring unit 140 measures the current position of the user terminal 100 and the position of the object to be photographed. In more detail, the position measuring unit 140 may measure the current position of the user terminal 100 and the position of the object photographed by the user terminal 100 using the local position tracking technique. Local location tracking techniques may be used in accordance with the manner in which they are used, such as time of flight (TOF), spatial scan, inertial sensing, mechanical linkage, phase difference sensing, (direct field sensing), and the above techniques may be used in combination to increase the accuracy.

위치 측정부(140)는 근거리통신(near field communication; NFC)을 이용한 위치기반 서비스를 이용하여 위치측정을 할 수 있다. 예를 들어, 상기 위치기반 서비스는 Zigbee, iBeacon 기술을 이용할 수 있다. 위치기반 서비스는 주로 GPS를 사용하지 못하는 실내환경에서 이용될 수 있고, 각 노드의 신호강도를 통해서 상대위치를 파악할 수 있다. 또한, 위치 측정부(140)는 사용자 단말기(100)에 장착되어 있는 각종 센서(관성측정 센서, 고도계, 나침반) 등을 이용해서 위치측정의 정밀도를 높일 수 있다.The location measurement unit 140 can perform location measurement using a location based service using near field communication (NFC). For example, the location based service may use Zigbee, iBeacon technology. The location based service can be used mainly in indoor environment where GPS can not be used and the relative position can be grasped through the signal strength of each node. In addition, the position measuring unit 140 can increase the accuracy of position measurement using various sensors (inertial measurement sensor, altimeter, compass) mounted on the user terminal 100. [

증강 현실 처리부(150)는 증강 현실 정보를 기초로 사용자에게 제공되는 증강 현실 인터페이스를 생성할 수 있다. 증강 현실 정보는 촬영되는 객체를 모델링 및 렌더링 하는데 이용되는 로데이터(raw data)이다. 증강 현실 정보는 서버(300)의 데이터베이스에 저장되거나, 사용자 단말기(100)의 메모리부(170)에 저장되어 이용될 수 있다.The augmented reality processing unit 150 may generate the augmented reality interface provided to the user based on the augmented reality information. The augmented reality information is raw data used for modeling and rendering objects to be photographed. The augmented reality information may be stored in the database of the server 300 or may be stored in the memory unit 170 of the user terminal 100 and used.

증강 현실 처리부(150)는 증강 현실 정보를 기초로 실제 물체를 가상으로 정확하게 표현하는 모델링 기술과, 이를 사실적으로 표현하는 렌더링 기술을 이용할 수 있다. 모델링 기술은 비디오로 입력되는 2D 영상에 깊이 정보를 반영하여 합성하는 기술이다. 모델링 기술은 사용자 의도대로 객체 변형, 색상 변화 등을 수행하여 현실 공간에서 이룰 수 없는 다양한 응용을 가능케 한다. 렌더링 기술은 생성된 가상 모델들에 조명효과, 그림자 효과, 밝기 변화 등을 부가하여 가상 모델을 사실적으로 표현함으로써, 사용자가 증강 현실 인터페이스에서 생동감을 느낄 수 있게 하는 기술이다.The augmented reality processing unit 150 can use a modeling technique for accurately expressing an actual object virtually on the basis of the augmented reality information and a rendering technique for realistically expressing it. The modeling technique is a technique of synthesizing the 2D image input by the video by reflecting the depth information. The modeling technique enables various applications that can not be achieved in the real space by performing object transformation, color change, and the like as the user intends. Rendering technology is a technology that enables the user to feel the vividness in the augmented reality interface by realistically expressing the virtual model by adding lighting effect, shadow effect, brightness change, etc. to the created virtual models.

다만, 이러한 증강 현실 처리부(150)의 동작은 별도의 외부 장치(예를 들어, 서버(300))에서 수행될 수 있으며, 수행 결과에 대한 결과 데이터만을 사용자 단말기(100)에서 수신하여 이용할 수 있다.However, the operation of the augmented reality processing unit 150 may be performed by a separate external device (for example, the server 300), and only the result data on the execution result may be received and used by the user terminal 100 .

통신부(160)는 증강현실 데이터베이스를 저장하고 관리하는 서버(300) 또는 촬영 대상인 대상 기기(200)와 데이터를 교환한다. 이때, 증강현실 데이터베이스는 증강현실 객체, 증강현실 객체의 속성 정보를 저장한 데이터베이스이다. The communication unit 160 exchanges data with the server 300 that stores and manages the augmented reality database or the target device 200 to be imaged. At this time, the augmented reality database is a database storing attribute information of augmented reality objects and augmented reality objects.

통신부(160)는 다른 단말 장치와 유무선으로 데이터를 주고 받는 전자 장치, 모듈 또는 프로그램을 포함할 수 있다. 통신부(160)에서 이용하는 통신 규약은, 예를 들어, CDMA(Code Division Multiple Access) 통신, WCDMA(Wideband Code Division Multiple Access) 통신 혹은, 광대역 무선 통신을 포함한다. 다만, 본 발명이 이에 한정되는 것은 아니다. The communication unit 160 may include an electronic device, a module, or a program that exchanges data with other terminal devices by wire or wireless. The communication protocol used by the communication unit 160 includes, for example, CDMA (Code Division Multiple Access) communication, WCDMA (Wideband Code Division Multiple Access) communication, or broadband wireless communication. However, the present invention is not limited thereto.

센서부(165)는 증강현실에 필요한 정보 또는 증강현실에 추가로 적용되는 맥락정보를 감지하는 장치이다. 센서부(165)는 온도 센서, 습도 센서, 위치감지 센서, 동작감지 센서 등을 포함할 수 있다. 여기에서, 위치감지 센서는 GPS신호를 감지하는 GPS 센서가 이용될 수 있고, 동작감지 센서로는 자이로스코프 센서 또는 가속도 센서가 이용될 수 있다. 또한, 센서부(165)는 사용자 단말기(100)의 현재 위치, 움직임, 기울기, 방향, 촬영하는 객체와의 거리, 주변의 소리, 밝기 등을 측정할 수 있다.The sensor unit 165 is a device for detecting information required for the augmented reality or context information that is further applied to the augmented reality. The sensor unit 165 may include a temperature sensor, a humidity sensor, a position sensor, a motion sensor, and the like. Here, a GPS sensor for sensing a GPS signal may be used as the position detection sensor, and a gyroscope sensor or an acceleration sensor may be used as the motion detection sensor. In addition, the sensor unit 165 may measure the current position, the movement, the tilt, the direction of the user terminal 100, the distance to the object to be photographed, the surrounding sound, brightness, and the like.

메모리부(170)는 사용자 단말기(100)의 전반적인 동작을 제어하기 위한 운영체제, 응용 프로그램 및 저장용 데이터(전화번호, SMS 메시지, 압축된 이미지 파일, 동영상 등)를 저장한다. 또한, 메모리부(170)는 촬영되는 대상에 대응되는 증강현실 객체, 증강현실 객체의 속성 정보 및 상태 정보를 저장할 수 있다. 즉, 메모리부(170)는 촬영 대상인 객체와, 객체에 포함된 구성요소에 대한 상태 정보 및 증강 현실 정보를 저장한다. The memory unit 170 stores an operating system, an application program, and storage data (telephone number, SMS message, compressed image file, moving image, etc.) for controlling the overall operation of the user terminal 100. Also, the memory unit 170 may store the augmented reality object corresponding to the object to be imaged, the attribute information of the augmented reality object, and the state information. That is, the memory unit 170 stores the object to be imaged and the state information and the augmented reality information about the components included in the object.

메모리부(170)는 RAM(Random Access Memory) 또는 ROM(Read Only Memory)과 정적 정보 및 명령어들을 저장하는 정적 저장 디바이스를 포함할 수 있다. 메모리부(170)는 휘발성 메모리 유닛 또는 비휘발성 메모리 유닛일 수 있다. 메모리부(170)는 또한 자기 또는 광디스크와 같은 컴퓨터 판독가능 매체의 또 다른 유형일 수 있다.The memory unit 170 may include a random access memory (RAM) or a read only memory (ROM) and a static storage device for storing static information and instructions. The memory unit 170 may be a volatile memory unit or a non-volatile memory unit. The memory portion 170 may also be another type of computer readable medium, such as a magnetic or optical disk.

디스플레이부(180)는 사용자 단말기(100)의 동작 중에 발생되는 상태 정보(또는 인디케이터), 제한된 숫자와 문자들, 동화상(moving picture) 및 정화상(still picture) 등을 표시한다. 또한, 디스플레이부(180)는 카메라부(120)를 통해 수신되는 영상을 표시하고, 촬영되는 객체에 대응되는 증강 현실 인터페이스를 표시할 수 있다. The display unit 180 displays status information (or an indicator) generated during operation of the user terminal 100, limited numbers and characters, a moving picture, and a still picture. Also, the display unit 180 may display an image received through the camera unit 120 and display an augmented reality interface corresponding to the object to be photographed.

인터페이스부(190)는 사용자로부터의 입력을 수신할 수 있다. 인터페이스부(190)는 버튼형 입력부, 터치 스크린, 키보드 또는 마우스 등과 같은 입력장치를 포함할 수 있다. 예를 들어, 터치 스크린은 디스플레이부(180)의 상면에 형성될 수 있고, 사용자의 터치를 통해 입력을 수신할 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다.The interface unit 190 can receive input from the user. The interface unit 190 may include an input device such as a button-type input unit, a touch screen, a keyboard, a mouse, or the like. For example, the touch screen may be formed on the upper surface of the display unit 180 and receive the input through the user's touch. However, the present invention is not limited thereto.

도 3은 본 발명의 일 실시예에 따른 증강 현실 제공 장치의 동작 방법을 설명하기 위한 도면이다.3 is a diagram illustrating an operation method of an augmented reality providing apparatus according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시예에 따른 증강 현실 제공 장치인 사용자 단말기(100)는 대상 기기(200)를 촬영하고, 촬영된 대상 기기(200)의 대체 가능 모델에 대한 증강 현실 인터페이스를 디스플레이부(180) 상에 표시한다.3, the user terminal 100, which is an augmented reality providing apparatus according to an exemplary embodiment of the present invention, photographs the target device 200 and acquires an augmented reality interface On the display unit 180.

여기에서, 대상 기기(200)는 복수의 대상기기(210, 220)를 포함할 수 있다. 예를 들어, 제1 및 제 2 대상 기기(210, 220)는 각각 자동제어기기나 산업용기기 또는 배전반 중 어느 하나가 될 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다. Here, the target device 200 may include a plurality of target devices 210 and 220. For example, the first and second target devices 210 and 220 may be any one of an automatic controller, an industrial device, or an electric switchboard. However, the present invention is not limited thereto.

서버(300)는 대상 기기(200)와 연동되어 대상 기기(200)에 대한 다양한 데이터를 저장한다. 서버(300)는 객체 정보 DB(310), 상태 정보 DB(320), 증강현실 DB(330)를 포함한다. 이하에서, 대상 기기(200)는 촬영 대상인 '객체'라는 용어와 혼용하여 설명하도록 한다.The server 300 interworks with the target device 200 to store various data for the target device 200. [ The server 300 includes an object information DB 310, a state information DB 320, and an augmented reality DB 330. Hereinafter, the target device 200 will be described in combination with the term " object "

객체 정보 DB(310)는 객체에 대한 다양한 정보를 포함한다. 예를 들어, 객체 정보 DB(310)는 객체의 제품 정보(제품명, 제품 번호, 제품 종류, 설치 시기, 관리 방법, 내부 구성요소 등), 객체가 설치된 위치 정보, 객체와 관련된 회로도, 권장사용수명 등의 정보를 포함하는 객체 정보를 저장한다.The object information DB 310 includes various information about the object. For example, the object information DB 310 stores the product information (product name, product number, product type, installation timing, management method, internal components, etc.) of the object, location information where the object is installed, And the like.

상태 정보 DB(320)는 객체의 동작에 관한 상태 정보를 포함한다. 예를 들어, 상태 정보 DB(320)는 각 객체의 전력량 정보, 온도 정보, 전압 정보, 또는 전류 정보를 포함할 수 있다. 각 객체의 상태 정보는 실시간으로 업데이트될 수 있으며, 원격 검침 시스템(AMR)의 일부로 이용될 수 있다.The state information DB 320 includes state information on the operation of the object. For example, the status information DB 320 may include information on the amount of power of each object, temperature information, voltage information, or current information. The status information of each object can be updated in real time and can be used as part of the AMR.

증강현실 DB(330)는 객체를 모델링 및 렌더링 하는데 이용되는 로데이터(raw data)인 증강 현실 정보를 저장한다. 또한, 증강현실 DB(330)는 증강 현실 정보를 기초로 사용자에게 제공되는 증강 현실 인터페이스를 저장한다. 즉, 증강현실 DB(330)는 객체의 모델링 및 렌더링 이전의 증강 현실 정보와, 모델링 및 렌더링 이후의 증강 현실 인터페이스를 모두 저장하고, 사용자 단말기(100)의 요청에 따라 필요한 데이터를 제공할 수 있다. The augmented reality DB 330 stores augmented reality information, which is raw data used for modeling and rendering an object. Also, the augmented reality DB 330 stores the augmented reality interface provided to the user based on the augmented reality information. That is, the augmented reality DB 330 stores both the augmented reality information before modeling and rendering of the object, the augmented reality interface after modeling and rendering, and provides the necessary data according to a request of the user terminal 100 .

사용자 단말기(100)는 촬영되는 영상에 포함된 객체인 대상 기기(200)를 인식하고, 대상 기기(200)에 대한 증강 현실 정보 또는 증강 현실 인터페이스를 서버(300)로부터 수신하여 화면에 표시한다. 이때, 사용자 단말기(100)는 대상 기기(200)의 교체 필요성 여부에 따라, 서로 다른 메뉴의 증강 현실 인터페이스를 디스플레이부(180)에 표시한다. 예를 들어, 대상 기기(200)의 교체 필요성이 있는 경우, 사용자 단말기(100)는 대체 가능 모델에 대한 증강 현실 인터페이스를 디스플레이부(180)에 표시한다.The user terminal 100 recognizes the target device 200 as an object included in the photographed image and receives the augmented reality information or the augmented reality interface for the target device 200 from the server 300 and displays it on the screen. At this time, the user terminal 100 displays different augmented reality interfaces on the display unit 180 depending on whether the target device 200 needs to be replaced or not. For example, when there is a need to replace the target device 200, the user terminal 100 displays the augmented reality interface for the replaceable model on the display unit 180. [

사용자 단말기(100)에서 수행되는 증강 현실 제공 방법에 대한 자세한 설명은 이하에서 후술하도록 한다.A detailed description of the augmented reality providing method performed by the user terminal 100 will be described later.

도 4는 본 발명의 일 실시예에 따른 증강 현실 제공 방법을 나타내는 순서도이다.4 is a flowchart illustrating a method of providing an augmented reality according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 일 실시예에 따른 증강 현실 제공 방법은 우선, 사용자 단말기(100)의 카메라부(120)에서 객체를 포함하는 영상을 촬영한다(S110).Referring to FIG. 4, an augmented reality providing method according to an embodiment of the present invention first captures an image including an object in a camera unit 120 of a user terminal 100 (S110).

이어서, 객체 인식부(130)는 촬영된 영상에 포함된 객체를 인식한다(S120).Then, the object recognition unit 130 recognizes an object included in the photographed image (S120).

이어서, 제어부(110)는 통신부(160)를 통하여 객체에 대한 객체 정보 및 상태 정보를 수신한다(S130). 제어부(110)는 인식된 객체에 대한 객체 정보 및 상태 정보를 서버(300)로부터 수신할 수 있다. 여기에서, 객체 정보는 객체의 제조시기, 설치 시기, 제품명, 제품 번호, 제품 종류, 내부 구성요소, 권장사용수명 등에 대한 정보를 포함할 수 있다. 상태 정보는 객체의 전압, 전류, 전력량, 온도, 객체에 포함된 구성요소의 정상 동작 여부 등을 포함할 수 있다.Then, the control unit 110 receives object information and status information about the object through the communication unit 160 (S130). The control unit 110 may receive the object information and the status information about the recognized object from the server 300. Here, the object information may include information on the manufacturing time of the object, the installation timing, the product name, the product number, the product type, the internal components, the recommended service life, and the like. The state information may include an object's voltage, current, amount of power, temperature, normal operation of the components included in the object, and the like.

이어서, 제어부(110)는 수신된 객체 정보 및 상태 정보를 기초로 객체의 교체 필요성을 판단한다.Then, the control unit 110 determines necessity of object replacement based on the received object information and status information.

우선, 제어부(110)는 객체에 대한 수명 판단 알고리즘을 수행한다(S140). First, the control unit 110 performs a life judgment algorithm for the object (S140).

이때, 수명 판단 알고리즘은 객체의 객체 정보 및 상태 정보를 기초로 객체의 잔여 수명을 계산한다.At this time, the life estimation algorithm calculates the remaining life of the object based on the object information and the state information of the object.

예를 들어, 수명 판단 알고리즘은 객체의 사용기간과 객체의 권장사용수명을 비교하여 잔여 수명을 계산할 수 있다. For example, the life estimation algorithm can calculate the remaining lifetime by comparing the lifetime of the object with the recommended lifetime of the object.

다른 예로, 수명 판단 알고리즘은 객체에 포함된 각 구성요소의 정상 동작 여부를 판단하여 잔여 수명을 계산할 수 있다. 이때, 수명 판단 알고리즘은 객체의 상태 정보를 기초로 각 구성요소의 정상 동작 여부를 판단할 수 있다. 구체적으로, 수명 판단 알고리즘은 객체에 포함된 각 구성요소의 마모 상태(예를 들어, 차단기의 접점에 대한 마모도), 융착 정도(예를 들어, 열에 의해 구성요소가 서로 접하는 면에서의 융착 정도), 퓨즈 상태(예를 들어, 퓨즈의 융해 정도), 바이패스 스위치의 동작 상태와 동작 횟수, 또는 차단기의 동작 상태와 동작 횟수를 고려하여 객체의 잔여 수명을 계산할 수 있다 다만, 이는 하나의 예시에 불과하고, 본 발명이 이에 한정되는 것은 아니다. .As another example, the life estimation algorithm can calculate the remaining service life by determining whether each component included in the object is operating normally. At this time, the life judgment algorithm can determine whether each component is operating normally based on the state information of the object. Specifically, the life judgment algorithm determines the degree of wear (for example, the degree of wear on the surface where the components are brought into contact with each other by heat), the wear state of each component included in the object (for example, The remaining lifetime of the object can be calculated in consideration of the fuse state (for example, the degree of fusion of the fuse), the operation state and number of operations of the bypass switch, or the operation state and number of operations of the circuit breaker. However, the present invention is not limited thereto. .

이어서, 제어부(110)는 객체의 교체 필요성 여부를 판단한다(S150). 구체적으로, 사용자 단말기(100)는 객체의 잔여 수명이 미리 설정된 기준치보다 작은 경우, 객체의 교체 필요성이 있다고 판단한다. 이때, 미리 설정된 기준치는 객체의 교체에 필요한 기간(예를 들어, 공사기간, 부품 주문 기간)이 될 수 있다. 예를 들어, 미리 설정된 기준치가 6개월이고, 객체의 잔여 수명이 4개월인 경우, 사용자 단말기(100)는 객체의 교체 필요성이 있다고 판단할 수 있다.Then, the control unit 110 determines whether the object needs to be replaced (S150). Specifically, if the remaining lifetime of the object is less than a preset reference value, the user terminal 100 determines that there is a need to replace the object. At this time, the predetermined reference value may be a period required for replacing the object (for example, construction period, component order period). For example, if the preset reference value is 6 months and the remaining lifetime of the object is 4 months, the user terminal 100 may determine that there is a need to replace the object.

이어서, 객체의 교체 필요성이 있다고 판단되는 경우, 사용자 단말기(100)는 객체를 대체할 신규 모델에 대한 증강 현실 정보를 서버(300)에 요청한다(S160). 즉, 사용자 단말기(100)는 객체의 대체 가능 모델에 대한 정보를 서버(300)에 요청한다. 여기에서, 객체의 대체 가능 모델은 객체와 동종의 모델 또는 상기 객체와 호환 가능한 모델을 의미한다.Then, if it is determined that there is a need to replace the object, the user terminal 100 requests the server 300 for the augmented reality information for the new model to replace the object (S160). That is, the user terminal 100 requests the server 300 for information on the replaceable model of the object. Here, the replaceable model of the object means a model that is the same type as the object or a model that is compatible with the object.

이어서, 제어부(110)는 수신한 증강 현실 정보를 증강 현실 인터페이스로 변환하여 디스플레이부(180)에 표시한다(S170). 여기에서, 객체의 대체 가능 모델에 대한 증강 현실 인터페이스를 표시하는 것은, 객체와 동종의 모델 또는 객체와 호환 가능한 모델에 대한 증강 현실 이미지를 상기 객체에 오버랩하여 표시하는 것을 포함할 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니며, 제어부(110)는 객체의 대체 가능 모델을 리스트 형태의 증강 현실 메뉴로 표시할 수 있다.Then, the controller 110 converts the received augmented reality information into an augmented reality interface and displays it on the display unit 180 (S170). Here, displaying the augmented reality interface for the replaceable model of the object may include overlapping and displaying an augmented reality image for the model that is compatible with the model or object of the object. However, the present invention is not limited to this, and the controller 110 may display the replaceable model of the object as a list-type augmented reality menu.

구체적으로, 대체 가능 모델이 복수인 경우, 제어부(110)는 객체와의 호환성 또는 제조년월을 기준으로 정렬된 대체 가능 모델에 대한 리스트를 증강 현실 메뉴로 표시할 수 있다. 예를 들어, 제어부(110)는 객체와의 호환성이 높은 순으로, 또는 가장 최근에 제조한 제품 순으로 정렬된 대한 리스트를 증강 현실 인터페이스로 변환하여 디스플레이부(180)에 표시할 수 있다.Specifically, when there are a plurality of replaceable models, the controller 110 may display a list of replaceable models sorted based on the compatibility with the object or the year of manufacture with an augmented reality menu. For example, the control unit 110 may convert the list of the most recently manufactured products into augmented reality interface in the order of high compatibility with the object, and display the converted list on the display unit 180. [

추가적으로, 사용자 단말기(100)의 증강 현실 처리부(150)는 사용자가 미리 설정한 설정값을 반영하여 객체 변형 또는 색상 변화 등과 같은 효과를 증강 현실 인터페이스에 추가적으로 부여할 수 있다.In addition, the augmented reality processing unit 150 of the user terminal 100 may additionally provide the augmented reality interface with effects such as object deformation or color change by reflecting preset values set by the user.

이에 따라, 사용자 단말기(100)는 사용자의 설정값을 반영하여 사용자의 요구에 맞게 변경된 증강 현실 인터페이스를 출력할 수 있다. 즉, 사용자 단말기(100)는 서버(300)에서 제공하는 증강 현실 인터페이스를 이용할 뿐만 아니라, 사용자가 원하는 다양한 표현 효과를 증강 현실 인터페이스 상에 구현할 수 있다. Accordingly, the user terminal 100 can output the changed augmented reality interface according to the user's request by reflecting the set value of the user. That is, the user terminal 100 can use various augmented reality interfaces provided by the server 300 as well as various expression effects desired by the user on the augmented reality interface.

도면에 명확하게 도시하지는 않았으나, 사용자 단말기(100)는 객체의 교체 필요성이 있다고 판단되는 경우, 사용자 단말기(100)는 객체를 대체할 신규 모델에 대한 증강 현실 인터페이스를 직접 서버(300)에 요청한다. 이 경우, 서버(300)는 증강 현실 DB(330)에 저장된 객체의 대체 가능 모델에 대한 증강 현실 인터페이스를 사용자 단말기(100)에 제공한다. 여기에서, 증강 현실 인터페이스는 미리 모델링 및 렌더링된 객체에 대한 2D 또는 3D 이미지를 포함할 수 있다.If it is determined that there is a need to replace an object, the user terminal 100 directly requests the server 300 for an augmented reality interface for a new model to replace the object . In this case, the server 300 provides the augmented reality interface for the replaceable model of the object stored in the augmented reality DB 330 to the user terminal 100. [ Here, the augmented reality interface may include a 2D or 3D image for an object previously modeled and rendered.

이어서, 제어부(110)는 수신한 증강 현실 인터페이스를 디스플레이부(180)에 표시한다. 이때, 사용자 단말기(100)는 서버(300)로부터 수신한 증강 현실 인터페이스를 그대로 디스플레이부(180)로 출력할 수 있다. Then, the control unit 110 displays the received augmented reality interface on the display unit 180. [ At this time, the user terminal 100 can directly output the augmented reality interface received from the server 300 to the display unit 180. [

예를 들어, 서버(300)는 앞에서 설명한 사용자 단말기(100)의 객체 인식부(130)와 증강 현실 처리부(150)의 동작을 수행할 수 있다. 이어서, 사용자 단말기(100)는 서버(300)로부터 수행된 동작의 결과 데이터를 수신하여 이용할 수 있다. 구체적으로, 사용자 단말기(100)는 카메라부(120)에서 촬영된 영상을 서버(300)에 전송하고, 서버(300)는 수신된 영상에 포함된 객체를 인식하며, 인식된 객체에 대한 증강 현실 인터페이스를 생성하여 사용자 단말기(100)에 제공할 수 있다.For example, the server 300 may perform the operations of the object recognition unit 130 and the augmented reality processing unit 150 of the user terminal 100 described above. Then, the user terminal 100 can receive and use the resultant data of the operation performed from the server 300. [ Specifically, the user terminal 100 transmits the image captured by the camera unit 120 to the server 300, the server 300 recognizes the object included in the received image, and the augmented reality An interface can be created and provided to the user terminal 100.

이 경우, 사용자 단말기(100)는 서버(300)로부터 수신한 데이터(즉, 증강 현실 인터페이스)를 바로 디스플레이부(180)로 출력한다. 따라서, 제어부(110)의 연산량이 감소되므로 동작 속도가 증가될 수 있다. In this case, the user terminal 100 directly outputs the data received from the server 300 (i.e., the augmented reality interface) to the display unit 180. [ Therefore, the operation amount of the control unit 110 is reduced, so that the operation speed can be increased.

도 5는 도 4의 수명 판단 알고리즘 동작의 일 예를 설명하기 위한 순서도이다.5 is a flowchart for explaining an example of the operation of the life judgment algorithm of FIG.

도 5를 참조하면, 본 발명의 일 실시예에 따른 증강 현실 제공 방법의 수명 판단 알고리즘은 사용자 단말기(100)의 제어부(110) 또는 서버(300)에서 수행될 수 있다.. 서버(300)에서 수명 판단 알고리즘이 수행되는 경우, 사용자 단말기(100)는 서버(300)로부터 수신한 수명 판단 알고리즘의 결과 데이터를 이용할 수 있다.5, the lifetime determining algorithm of the augmented reality providing method according to an exemplary embodiment of the present invention may be performed in the controller 110 or the server 300 of the user terminal 100. In the server 300, When the life judgment algorithm is performed, the user terminal 100 can use the result data of the life judgment algorithm received from the server 300. [

우선, 수명 판단 알고리즘은 촬영된 객체의 사용기간이 권장사용수명 이내인지 판단한다(S241). 수명 판단 알고리즘은 객체의 제조날짜와 현재날짜를 비교하여 사용기간을 계산하고, 객체와 동종의 제품의 평균사용기간에 대한 통계자료를 기초로 권장사용수명을 계산할 수 있다.First, the life judgment algorithm determines whether the use period of the photographed object is within the recommended use life (S241). The life estimation algorithm can calculate the recommended life span based on statistical data on the average life span of objects and similar products by comparing the manufacture date of the object with the current date to calculate the usage period.

이어서, 수명 판단 알고리즘은 객체의 상태 정보를 기초로 객체의 정상 동작 여부를 판단한다(S243). 구체적으로, 수명 판단 알고리즘은 객체에 포함된 각 구성요소의 동작 상태를 고려하여 객체의 정상 동작 여부를 판단할 수 있다. Then, the life determination algorithm determines whether the object is operating normally based on the state information of the object (S243). Specifically, the life estimation algorithm can determine whether the object is operating normally by considering the operation state of each component included in the object.

이어서, 수명 판단 알고리즘은 객체 정보 및 상태 정보를 기초로, 촬영된 객체의 잔여 수명을 예측한다(S245). Then, the life estimation algorithm predicts the remaining life of the photographed object based on the object information and the state information (S245).

구체적으로, 수명 판단 알고리즘은 객체의 사용기간과 권장사용수명을 비교하여 촬영된 객체의 잔여 수명을 계산할 수 있다. 또한, 수명 판단 알고리즘은 객체에 포함된 각 구성요소의 마모 상태, 융착 정도, 퓨즈 상태, 바이패스 스위치의 동작 상태, 또는 차단기의 동작 상태를 고려하여 객체의 잔여 수명을 계산할 수 있다. Specifically, the lifetime determining algorithm can calculate the remaining lifetime of the photographed object by comparing the lifetime of the object with the recommended lifetime of the object. In addition, the life estimation algorithm can calculate the remaining lifetime of the object by considering the wear state, fusion degree, fuse state, bypass switch operation state, or breaker operation state of each component included in the object.

이어서, 수명 판단 알고리즘은 촬영된 객체의 교체 필요성을 판단한다(S247). Then, the life judgment algorithm judges the necessity of replacing the photographed object (S247).

예를 들어, 촬영된 객체의 사용기간이 권장사용수명을 초과한 경우, 수명 판단 알고리즘은 객체의 교체 필요성이 있음을 판단한다. 또한, 객체의 잔여 수명이 미리 설정된 기준치보다 작은 경우, 상기 객체의 교체 필요성이 있다고 판단할 수 있다. 여기에서, 이때, 미리 설정된 기준치는 객체의 교체에 필요한 기간(예를 들어, 공사기간, 부품 주문 기간)이 될 수 있다. For example, if the lifetime of the photographed object exceeds the recommended lifetime, the lifetime determination algorithm determines that the object needs to be replaced. Also, if the remaining lifetime of the object is smaller than a preset reference value, it can be determined that the object needs to be replaced. Here, the preset reference value may be a period required for replacing the object (for example, construction period, part order period).

이어서, 본 발명의 일 실시예에 따른 증강 현실 제공 방법은 앞에서 설명한 S150 단계 내지 S170 단계를 수행한다. 이하에서 앞에서 설명한 내용과 중복되는 내용은 생략하도록 한다.Then, the augmented reality providing method according to an embodiment of the present invention performs the above-described steps S150 through S170. Hereinafter, the contents overlapping with those described above will be omitted.

도 6 및 도 7은 본 발명의 일 실시예에 따른 증강 현실 제공 방법의 동작의 일 예를 설명하기 위한 도면이다.6 and 7 are views for explaining an example of the operation of the augmented reality providing method according to an embodiment of the present invention.

도 6 및 도 7을 참조하면, 본 발명의 일 실시예에 따른 증강 현실 제공 방법에서, 사용자 단말기(100)는 대상 기기(200)를 촬영하고, 대상 기기(200)는 제1 및 제2 객체(210, 220)를 포함할 수 있다. 사용자 단말기(100)는 제1 및 제2 객체(210, 220)에 대한 교체 필요성에 대한 증강 현실 인터페이스(예를 들어, M11, M41)를 해당 객체에 표시할 수 있다. 6 and 7, in the method of providing an augmented reality according to an embodiment of the present invention, the user terminal 100 photographs the target device 200, and the target device 200 acquires the first and second objects (210, 220). The user terminal 100 may display an augmented reality interface (e.g., M11, M41) for the need for replacement of the first and second objects 210, 220 on the object.

구체적으로, 사용자 단말기(100)는 서버(300)에 제1 및 제2 객체(210, 220)에 대한 객체 정보 및 상태 정보를 요청한다. 이어서, 사용자 단말기(100)의 제어부(110)는 수신한 객체 정보 및 상태 정보를 기초로 수명 판단 알고리즘을 수행한다. 수명 판단 알고리즘에 대한 자세한 설명한 도 5를 참조하여 설명하였으므로 이하에서 자세한 설명은 생략하도록 한다.Specifically, the user terminal 100 requests object information and status information about the first and second objects 210 and 220 to the server 300. Then, the control unit 110 of the user terminal 100 performs a life determination algorithm based on the received object information and state information. Since the lifetime determining algorithm has been described with reference to FIG. 5, detailed description thereof will be omitted.

사용자 단말기(100)는 수명 판단 알고리즘을 통해 제1 및 제2 객체(210, 220)의 정상 동작 여부, 잔여 수명, 교체 필요성을 판단할 수 있다. 이어서, 사용자 단말기(100)는 제1 객체(210)에 대한 교체 필요성에 대한 증강 현실 인터페이스(M11)와 제2 객체(220)에 대한 교체 필요성에 대한 증강 현실 인터페이스(M41)를 화면에 표시한다.The user terminal 100 can determine whether the first and second objects 210 and 220 are in normal operation, remaining life, and necessity of replacement through a life determination algorithm. The user terminal 100 then displays on the screen the augmented reality interface M11 for the need to replace the first object 210 and the augmented reality interface M41 for the need to replace the second object 220 .

이때, 교체 필요성이 있는 객체의 경우, 해당 객체에 대한 상세 정보를 나타내는 증강 현실 인터페이스(M21)를 화면에 표시한다. 예를 들어, 제1 객체(210)에 교체 필요성이 있다고 판단되는 경우, 제1 객체(210)의 옆에는 제조 날짜, 예상 잔여수명, 상태 정보(예를 들어, 차단기 접점 마모도 높음), 대체 가능 모델 정보(M31)를 포함하는 증강 현실 인터페이스(M21)가 표시될 수 있다. 다만, 이는 하나의 예시에 불과할 뿐이어서, 본 발명이 이에 한정되는 것은 아니다. At this time, in the case of an object requiring replacement, an augmented reality interface M21 indicating detailed information about the object is displayed on the screen. For example, if it is determined that there is a need to replace the first object 210, next to the first object 210, a manufacturing date, an expected remaining life, state information (e.g., high breaker contact wear) The augmented reality interface M21 including the model information M31 may be displayed. However, this is merely one example, and the present invention is not limited thereto.

이어서, 도 7을 참조하면, 사용자가 대체 가능 모델 정보(M31)의 메뉴를 선택하는 경우, 사용자 단말기(100)는 대체 가능 모델에 대한 정보를 포함하는 증강 현실 인터페이스(M32)를 화면에 표시할 수 있다.7, when the user selects the menu of the replaceable model information M31, the user terminal 100 displays the augmented reality interface M32 including the information on the replaceable model on the screen .

이때, 대체 가능 모델이 복수인 경우, 사용자 단말기(100)는 객체와의 호환성, 제조날짜, 예상수명, 가격, 또는 상품평 등을기준으로 정렬된 대체 가능 모델에 대한 리스트를 증강 현실 인터페이스(M32)로 표시할 수 있다. 예를 들어, 사용자 단말기(100)는 객체와의 호환성이 높은 순으로, 또는 가장 최근에 제조한 제품 순으로 정렬된 대한 리스트를 증강 현실 인터페이스(M32)로 변환하여 디스플레이부(180)에 표시할 수 있다. 다만, 이러한 정렬 순서는 앞에서 설명한 내용에 한정되는 것은 아니며, 사용자가 미리 설정한 기준을 통해 정렬되어 사용자에게 제공될 수 있다. 또한, 도면에 명확하게 도시하지는 않았으나, 사용자는 증강 현실 인터페이스(M32) 상에서 정렬 순서를 선택할 수 있으며, 증강 현실 인터페이스(M32)는 선택된 정렬 순서에 따라 리스트를 재정렬하여 나타낼 수 있다.At this time, when there are a plurality of replaceable models, the user terminal 100 transmits a list of replaceable models arranged based on compatibility with an object, manufacture date, life expectancy, price, As shown in FIG. For example, the user terminal 100 may convert the list of the most recently manufactured products into the augmented reality interface M32 in order of high compatibility with the objects, and display them on the display unit 180 . However, the sorting order is not limited to the above-described order, and the sorting order may be arranged to be provided to the user through a preset reference. Also, although not explicitly shown in the drawing, the user can select the sort order on the augmented reality interface M32, and the augmented reality interface M32 can rearrange the list according to the selected sort order.

예를 들어, 제1 객체(210)와 호환성이 높은 순서대로 S1 내지 S4의 모델이 증강 현실 인터페이스(M32)에 표시될 수 있다. 만약, 사용자가 S1 모델을 선택하는 경우, S1 모델에 대한 증강 현실 이미지(예를 들어, 'Brand New Model')는 제1 객체(210)에 오버랩되어 표시될 수 있다. 이를 통해, 사용자는 객체의 대체 가능한 모델이 실제로 설치되었을 경우의 모습을 증강 현실을 통해 직관적으로 인식할 수 있다. For example, the models of S1 to S4 may be displayed in the augmented reality interface M32 in the order of high compatibility with the first object 210. [ If the user selects the S1 model, the augmented reality image (for example, 'Brand New Model') for the S1 model may overlap and be displayed on the first object 210. [ Through this, the user can intuitively perceive the state when the substitutable model of the object is actually installed through the augmented reality.

따라서, 본 발명의 증강 현실 제공 시스템 및 방법은 촬영되는 객체와 호환 가능한 기기에 대한 정보를 사용자에게 직관적으로 제공함으로써, 사용자에게 필요한 정보를 쉽게 제공할 수 있다. 또한, 판매자는 증강 현실 제공 방법을 통해 자신의 제품을 마케팅 또는 홍보할 수 있다. 즉, 본 발명의 증강 현실 제공 시스템 및 방법은 사용자의 니즈와 판매자의 니즈를 동시에 충족시킬 수 있다.Therefore, the system and method for providing an augmented reality according to the present invention can provide the user with information necessary for the user by intuitively providing the user with information about the compatible device with the object to be photographed. In addition, the seller can market or promote his or her product through the augmented reality providing method. That is, the system and method for providing an augmented reality of the present invention can satisfy the needs of the user and the needs of the seller at the same time.

또한, 본 발명의 증강 현실 제공 시스템 및 방법은, 촬영되고 있는 기기의 잔여 수명 및 동작 상태에 따라 대체 가능 모델에 대한 정보를 제공함으로써, 사용자가 기기의 교체 필요성을 한눈에 파악할 수 있도록 한다. 이를 통해, 사용자는 기기에 대한 교체 필요성과, 대체 가능 모델에 대한 정보를 직관적이고 쉽게 파악할 수 있다. 이를 통해, 본 발명은 복수의 기기 관리에 소요되는 시간을 단축시켜 사용자의 편의성을 높일 수 있고, 동일한 시간 내에 빠른 작업 처리가 가능해지므로 작업 효율이 향상시킬 수 있다.In addition, the system and method for providing an augmented reality of the present invention provides information on a replaceable model according to the remaining lifetime and operation state of the device being photographed, so that the user can grasp the necessity of replacement of the device at a glance. This allows the user to intuitively and easily grasp the need for replacement of the device and information about the replaceable model. Accordingly, the present invention can shorten the time required for managing a plurality of devices, thereby enhancing the convenience of the user, and enabling quick work processing within the same time, thereby improving work efficiency.

이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

100: 사용자 단말기
200: 대상 기기
300: 서버
100: User terminal
200: Target device
300: server

Claims (16)

사용자 단말기 또는 서버에서 수행되는 증강 현실 제공 방법으로써,
객체를 포함하는 영상을 촬영하는 (a) 단계;
상기 촬영된 영상에 포함된 객체를 인식하는 (b) 단계;
상기 객체에 대한 정보를 수신하는 (c) 단계;
상기 수신된 정보를 기초로 상기 객체의 잔여 수명을 계산하는 (d) 단계;
상기 잔여 수명을 기초로 상기 객체의 교체 필요성을 판단하는 (e) 단계;
상기 객체의 교체 필요성이 있는 경우, 상기 객체의 교체 필요 여부에 대한 증강 현실 인터페이스를 생성하는 (f) 단계; 및
상기 촬영된 영상에 상기 증강 현실 인터페이스를 오버랩하여 화면에 표시하는 (g) 단계를 포함하는
증강 현실 제공 방법.
A method for providing an augmented reality performed by a user terminal or a server,
(A) photographing an image including an object;
(B) recognizing an object included in the photographed image;
(C) receiving information about the object;
(D) calculating a remaining lifetime of the object based on the received information;
(E) determining necessity of replacement of the object based on the remaining service life;
(F) generating an augmented reality interface for whether or not the object needs to be replaced if there is a necessity of replacing the object; And
(G) overlapping the augmented reality interface with the photographed image and displaying it on the screen
Method of providing augmented reality.
제1 항에 있어서,
상기 객체의 잔여 수명을 계산하는 (d) 단계는,
상기 객체의 사용기간과 상기 객체의 권장사용수명을 비교하여 상기 잔여 수명을 계산하는 것을 포함하는 증강 현실 제공 방법.
The method according to claim 1,
(D) calculating a remaining lifetime of the object,
And calculating the remaining lifetime by comparing a use period of the object with a recommended use lifetime of the object.
제1 항에 있어서,
상기 객체의 잔여 수명을 계산하는 (d) 단계는,
상기 객체의 상기 수신된 정보를 기초로, 상기 객체에 포함된 각 구성요소의 정상 동작 여부를 판단하여, 상기 잔여 수명을 계산하는 것을 포함하는 증강 현실 제공 방법.
The method according to claim 1,
(D) calculating a remaining lifetime of the object,
Determining whether each component included in the object is operating normally based on the received information of the object, and calculating the remaining lifetime.
제1 항에 있어서,
상기 객체에 대한 정보는, 상기 객체에 포함된 각 구성요소의 마모 상태, 융착 정도, 퓨즈 상태, 스위치의 동작 상태, 스위치의 동작 횟수, 차단기의 동작 상태, 또는 차단기의 동작 횟수를 포함하는 증강 현실 제공 방법.
The method according to claim 1,
The information on the object may include information on a wear state of the respective components included in the object, a fusion state, a fuse state, an operation state of the switch, an operation count of the switch, an operation state of the breaker, Delivery method.
제4 항에 있어서,
상기 객체의 교체 필요성을 판단하는 (e) 단계는,
상기 잔여 수명이 미리 설정된 기준치보다 작은 경우, 상기 객체의 교체 필요성이 있다고 판단하는 것을 포함하는 증강 현실 제공 방법.
5. The method of claim 4,
(E) determining whether the object needs to be replaced,
And determining that there is a need to replace the object if the remaining lifetime is less than a preset reference value.
제1 항에 있어서,
상기 객체의 대체 가능 모델에 대한 증강 현실 인터페이스를 표시하는 단계를 더 포함하는 증강 현실 제공 방법.
The method according to claim 1,
And displaying an augmented reality interface for a replaceable model of the object.
제6 항에 있어서,
상기 객체의 대체 가능 모델에 대한 증강 현실 인터페이스를 표시하는 단계는, 상기 객체와 동종의 모델 또는 상기 객체와 호환 가능한 모델에 대한 증강 현실 이미지를 상기 객체에 오버랩하여 표시하는 것을 포함하는 증강 현실 제공 방법.
The method according to claim 6,
Wherein the step of displaying the augmented reality interface for the replaceable model of the object includes displaying an augmented reality image for a model of the same type as the object or a model compatible with the object, .
제7 항에 있어서,
상기 객체의 대체 가능 모델에 대한 증강 현실 인터페이스를 표시하는 단계는,
상기 대체 가능 모델이 복수인 경우, 미리 입력되거나, 사용자에 의해 선택된 정렬 기준을 기초로 상기 대체 가능 모델에 대한 리스트를 증강 현실 메뉴로 표시하는 것을 포함하는 증강 현실 제공 방법.
8. The method of claim 7,
Wherein displaying the augmented reality interface for the replaceable model of the object comprises:
And displaying a list of the replaceable models as an augmented reality menu based on an alignment criterion pre-entered or selected by the user when the replaceable model is a plurality.
제8 항에 있어서,
상기 정렬 기준은, 상기 객체와의 호환성, 제조날짜, 예상수명, 가격, 또는 상품평을 포함하는 증강 현실 제공 방법.
9. The method of claim 8,
Wherein the sorting criterion includes compatibility with the object, a manufacturing date, an expected life span, a price, or a product review.
제1 항에 있어서,
상기 촬영된 영상에 포함된 객체를 인식하는 (b) 단계는,
상기 영상이 촬영된 위치 정보, 상기 객체의 마커 또는 상기 객체의 마커리스 정보를 이용하여, 상기 영상에 포함된 상기 객체를 인식하는 것을 포함하는 증강 현실 제공 방법.
The method according to claim 1,
(B) recognizing an object included in the photographed image,
And recognizing the object included in the image by using the position information of the image, the marker of the object, or the markerless information of the object.
제1 항에 있어서,
상기 (b) 또는 (f) 단계는 상기 서버에서 수행되고, 다른 나머지 단계는 상기 사용자 단말기에서 수행되는 증강 현실 제공 방법.
The method according to claim 1,
Wherein the step (b) or (f) is performed in the server, and the remaining steps are performed in the user terminal.
객체를 포함하는 영상을 촬영하는 카메라부;
상기 영상에 포함된 상기 객체를 인식하는 객체 인식부;
상기 객체에 대한 정보와, 상기 객체의 대체 가능 모델에 대한 증강 현실 정보를 수신하는 통신부;
상기 증강 현실 정보를 기초로 증강 현실 인터페이스를 생성하는 증강 현실 처리부;
상기 증강 현실 인터페이스를 상기 촬영된 영상에 오버랩하여 표시하는 디스플레이부; 및
상기 객체에 대한 정보를 기초로 상기 객체의 잔여 수명을 계산하고, 상기 계산된 잔여 수명을 기초로 상기 객체의 교체 필요성을 판단하는 제어부를 포함하는
증강 현실 제공 시스템.
A camera unit for capturing an image including an object;
An object recognition unit for recognizing the object included in the image;
A communication unit for receiving the information about the object and the augmented reality information for the replaceable model of the object;
An augmented reality processing unit for generating an augmented reality interface based on the augmented reality information;
A display unit for overlapping and displaying the augmented reality interface on the photographed image; And
And a controller for calculating a remaining lifetime of the object based on the information about the object and determining necessity of replacing the object based on the calculated remaining lifetime
Augmented reality providing system.
제12 항에 있어서,
상기 제어부는, 상기 객체의 대체 가능 모델에 대한 정보를 서버에 요청하고, 상기 증강 현실 인터페이스를 수신하여 상기 디스플레이부에 표시하는
증강 현실 제공 시스템.
13. The method of claim 12,
Wherein the control unit requests information on the substitutable model of the object from the server and receives the augmented reality interface and displays it on the display unit
Augmented reality providing system.
제13 항에 있어서,
상기 제어부는, 상기 객체의 제조년도와 상기 객체의 평균 수명을 비교하거나, 상기 객체에 대한 정보를 기초로 상기 객체의 각 구성요소에 대한 정상 동작 여부를 판단하여, 상기 잔여 수명을 계산하는 증강 현실 제공 시스템.
14. The method of claim 13,
Wherein the controller compares the year of manufacture of the object with the average lifetime of the object or determines whether the object is normal or not based on information about the object and calculates the remaining lifetime system.
제12 항에 있어서,
상기 제어부는, 상기 객체와 동종의 모델 또는 상기 객체와 호환 가능한 모델에 대한 증강 현실 이미지를 상기 객체에 오버랩되도록 표시하는 증강 현실 제공 시스템.
13. The method of claim 12,
Wherein the control unit displays an augmented reality image for a model of the same type as the object or a model compatible with the object so as to overlap the object.
제12 항에 있어서,
상기 카메라부, 상기 통신부, 상기 디스플레이부 및 상기 제어부를 포함하는 사용자 단말기와,
상기 객체 인식부와 상기 증강 현실 처리부를 포함하는 서버를 포함하는,
증강 현실 제공 시스템.
13. The method of claim 12,
A user terminal including the camera unit, the communication unit, the display unit, and the control unit;
And a server including the object recognition unit and the augmented reality processing unit.
Augmented reality providing system.
KR1020170182587A 2017-12-28 2017-12-28 Device and method for providing augmented reality user interface KR102345333B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170182587A KR102345333B1 (en) 2017-12-28 2017-12-28 Device and method for providing augmented reality user interface

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170182587A KR102345333B1 (en) 2017-12-28 2017-12-28 Device and method for providing augmented reality user interface

Publications (2)

Publication Number Publication Date
KR20190080244A true KR20190080244A (en) 2019-07-08
KR102345333B1 KR102345333B1 (en) 2021-12-29

Family

ID=67256066

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170182587A KR102345333B1 (en) 2017-12-28 2017-12-28 Device and method for providing augmented reality user interface

Country Status (1)

Country Link
KR (1) KR102345333B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102364898B1 (en) * 2020-09-29 2022-02-18 윤원섭 Facility monitoring system using augmented reality
WO2022072497A1 (en) * 2020-09-30 2022-04-07 Snap Inc. Utilizing lifetime values of users to select content for presentation in a messaging system
KR20220114691A (en) * 2021-02-09 2022-08-17 주식회사 큐에스 The method and the system of displaying the object information using machine learning and augmented reality(AR) technology

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140133640A (en) * 2013-05-09 2014-11-20 삼성전자주식회사 Method and apparatus for providing contents including augmented reality information
KR20160016964A (en) * 2013-06-03 2016-02-15 데크리, 엘엘씨 Data manipulation based on real world object manipulation
KR20160121017A (en) * 2015-04-09 2016-10-19 엘지전자 주식회사 Mobile terminal, vehicle and mobile terminal link system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140133640A (en) * 2013-05-09 2014-11-20 삼성전자주식회사 Method and apparatus for providing contents including augmented reality information
KR20160016964A (en) * 2013-06-03 2016-02-15 데크리, 엘엘씨 Data manipulation based on real world object manipulation
KR20160121017A (en) * 2015-04-09 2016-10-19 엘지전자 주식회사 Mobile terminal, vehicle and mobile terminal link system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102364898B1 (en) * 2020-09-29 2022-02-18 윤원섭 Facility monitoring system using augmented reality
WO2022072497A1 (en) * 2020-09-30 2022-04-07 Snap Inc. Utilizing lifetime values of users to select content for presentation in a messaging system
KR20220114691A (en) * 2021-02-09 2022-08-17 주식회사 큐에스 The method and the system of displaying the object information using machine learning and augmented reality(AR) technology

Also Published As

Publication number Publication date
KR102345333B1 (en) 2021-12-29

Similar Documents

Publication Publication Date Title
KR102347586B1 (en) Method for providing augmented reality user interface
EP3660703B1 (en) Method, apparatus, and system for identifying device, storage medium, processor, and terminal
US10755480B2 (en) Displaying content in an augmented reality system
US9639988B2 (en) Information processing apparatus and computer program product for processing a virtual object
KR102345333B1 (en) Device and method for providing augmented reality user interface
JP4681629B2 (en) Display device calibration method and apparatus
EP2458486A1 (en) Information processing device, information processing method, and program
JP2014106681A5 (en)
US11030808B2 (en) Generating time-delayed augmented reality content
KR102264754B1 (en) Device and method for providing augmented reality user interface
KR20180101746A (en) Method, electronic device and system for providing augmented reality contents
CN112070906A (en) Augmented reality system and augmented reality data generation method and device
KR102263468B1 (en) System and method for providing augmented reality user interface
US20160005156A1 (en) Infrared selecting device and method
KR102496334B1 (en) Method and device for detecting body temperature, electronic apparatus and storage medium
JP5685436B2 (en) Augmented reality providing device, augmented reality providing system, augmented reality providing method and program
JP6896364B2 (en) Display management methods and related computer program products and electronic devices
KR102268797B1 (en) Syetem and method for providing augmented reality user interface
CN111384776A (en) VR-based transformer substation three-dimensional panoramic state monitoring method and system
WO2016157938A1 (en) Information processing device, information processing method, and program
KR102364898B1 (en) Facility monitoring system using augmented reality
KR102268798B1 (en) System and method for providing augmented reality user interface
KR102338627B1 (en) System and method for providing augmented reality user interface
CN107102794B (en) Operation processing method and device
JP5266416B1 (en) Test system and test program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant