KR20190056935A - Mobile terminal providing augmented reality based maintenance guidance, remote managing apparatus and method for remote guidance using the same - Google Patents

Mobile terminal providing augmented reality based maintenance guidance, remote managing apparatus and method for remote guidance using the same Download PDF

Info

Publication number
KR20190056935A
KR20190056935A KR1020180013508A KR20180013508A KR20190056935A KR 20190056935 A KR20190056935 A KR 20190056935A KR 1020180013508 A KR1020180013508 A KR 1020180013508A KR 20180013508 A KR20180013508 A KR 20180013508A KR 20190056935 A KR20190056935 A KR 20190056935A
Authority
KR
South Korea
Prior art keywords
augmented reality
work
remote
management apparatus
unit
Prior art date
Application number
KR1020180013508A
Other languages
Korean (ko)
Other versions
KR102031670B1 (en
Inventor
민 장
오주병
김효철
Original Assignee
주식회사 코이노
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 코이노 filed Critical 주식회사 코이노
Publication of KR20190056935A publication Critical patent/KR20190056935A/en
Application granted granted Critical
Publication of KR102031670B1 publication Critical patent/KR102031670B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments

Abstract

Disclosed are a mobile terminal, a remote managing apparatus, and a method for remote guidance based on augmented reality using the mobile terminal and the remote managing apparatus. According to one embodiment of the present invention, the mobile terminal comprises: an image obtaining unit obtaining a real image photographed at the present point of a worker; a processor creating augmented reality content by matching virtual work guidance information to recognize target work in the obtained real image, track the recognized target work, and help work for the target work to the real image including the tracked target work; and an output unit outputting the generated augmented reality content.

Description

휴대단말과 원격관리장치 및 이를 이용한 증강현실 기반 원격 가이던스 방법 {Mobile terminal providing augmented reality based maintenance guidance, remote managing apparatus and method for remote guidance using the same}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a mobile terminal, a remote management apparatus, and an augmented reality-based remote guidance method using the same,

본 발명은 증강현실 기반 영상분석 및 원격제어 기술에 관한 것이다.The present invention relates to augmented reality-based image analysis and remote control techniques.

장비의 유지관리를 하기 위해서는 수년간의 경험이 필요하고, 숙련자라 할지라도 신규 장비 도입시 이를 숙지하는데 오랜 시간이 소요된다. 또한, 아무리 숙련자라 할지라도 모든 정비 절차를 숙지하고 있을 수가 없고, 언제 어떤 정비 요구가 발생할지 예측하기가 어렵다. 이에 따라, 정비사들은 장비 유지 보수를 위한 매뉴얼을 항상 휴대하여, 유지보수 업무를 수행하여 왔다.Maintenance of equipment requires many years of experience, and it takes a long time to master it when new equipment is introduced even by skilled users. Also, no matter how skilled, it is impossible to know all maintenance procedures, and it is difficult to predict when and what maintenance needs will occur. As a result, mechanics have always carried the manual for equipment maintenance and maintenance work.

유지 보수를 위한 매뉴얼은 일반적으로 책으로 제작되어 있거나, 2D 이미지로 제작되어 있다. 책으로 제작된 매뉴얼의 문제점은 1개의 부품이라도 고장 날 경우에 해당 페이지를 일일이 찾아야 하고 매뉴얼이 오래되면 색이 변질되거나 손상이 심해지는 문제점이 있다. 항공기 등과 같이 복잡한 형태의 기계 장비의 경우에는 수십만 가지 상의 매뉴얼이 필요하기 때문에, 그 양이 방대하여 휴대가 불가능하다.Maintenance manuals are usually made in books or 2D images. The problem with the manual made in the book is that if one of the parts fails, the corresponding page must be searched one by one, and if the manual is outdated, the color is damaged or the damage becomes worse. In the case of complex types of mechanical equipment such as airplanes, hundreds of thousands of manuals are required, so the amount is too large to carry.

이러한 유지 보수 등의 문제는 비단 산업현장에만 한정되는 것은 아니다. 예를 들어, 가정집에서 냉장고가 고장난 경우 소비자는 스스로 고칠 수 없는 경우가 대부분이어서, 별도의 전문가를 불러 수리해야 하는 경우가 많다. 이때, 문제 해결까지 시간, 비용 등이 많이 소요되어 비효율적이다.Such maintenance and other problems are not limited to industrial sites. For example, in the case of a refrigerator in a home, consumers often can not fix themselves, so it is often necessary to call a specialist and repair it. In this case, it takes a lot of time and money to solve the problem, which is inefficient.

일 실시 예에 따라, 복잡한 구조의 장비일지라도 또는 숙련된 작업자가 아닐지라도 증강현실에 기반하여 제공되는 순차적인 지시에 따라 쉽고 빠르게 작업할 수 있도록 하는 휴대단말과 원격관리장치 및 이를 이용한 증강현실 기반 원격 가이던스 방법을 제안한다.According to one embodiment, a portable terminal and a remote management apparatus that can easily and quickly work according to a sequential instruction provided on the basis of an augmented reality even if the apparatus is of a complicated structure or is not an experienced operator, and an augmented reality- We propose a guidance method.

일 실시 예에 따른 휴대단말은, 작업자의 현재 시점에서 촬영되는 실제영상을 획득하는 영상 획득부와, 획득된 실제영상에서 작업대상을 인식하고 인식된 작업대상을 트래킹하면서 작업대상에 대한 작업을 돕기 위한 가상의 작업 가이던스 정보를, 트래킹된 작업대상을 포함한 실제영상에 정합하여 증강현실 콘텐츠를 생성하는 프로세서와, 생성된 증강현실 콘텐츠를 출력하는 출력부를 포함한다.The portable terminal according to an embodiment includes an image acquiring unit that acquires an actual image photographed at a current point of time of an operator, and an image acquiring unit that recognizes an image of the object in the acquired real image, A processor for generating augmented reality content by matching the virtual work guidance information for the actual work with the actual image including the tracked work object, and an output unit for outputting the generated augmented reality contents.

프로세서는, 증강현실 기반 영상분석과 기계학습을 이용하여 실제영상에서 객체를 인식하는 객체 인식부와, 인식된 객체의 움직임을 트래킹하는 트래킹부와, 트래킹된 객체를 포함한 실제환경과 가상환경 간의 상호작용을 계산하고 계산결과를 반영하여 실제환경에 가상환경을 결합한 증강현실 콘텐츠를 생성함에 따라 증강현실을 기반으로 작업 가이던스 정보를 제공하는 증강현실 처리부와, 증강현실 처리부를 통해 생성된 증강현실 콘텐츠를 출력부에 제공하는 가시화부를 포함할 수 있다.The processor includes an object recognition unit that recognizes an object in an actual image using augmented reality-based image analysis and machine learning, a tracking unit that tracks the movement of the recognized object, An augmented reality processing unit for providing the operation guidance information based on the augmented reality by generating the augmented reality contents combining the virtual environment with the actual environment by calculating the action and reflecting the calculation result, And a visualization unit provided to the output unit.

휴대단말은, 원격관리장치와 네트워크 연결되어 통신하되, 영상 획득부를 통해 획득된 실제영상을 원격관리장치와 공유하고 휴대단말의 증강현실 기반 영상분석을 통해 인식된 객체정보를 원격관리장치에 전송하며 원격관리장치로부터 기계학습을 통해 인식된 객체정보를 수신하는 통신부를 더 포함하며, 객체 인식부는 증강현실 기반 객체 인식결과에 통신부를 통해 수신된 원격관리장치의 기계학습 기반 객체 인식결과를 반영하여 객체를 인식할 수 있다.The portable terminal communicates with the remote management apparatus via a network to share the actual image acquired through the image acquisition unit with the remote management apparatus and transmits the recognized object information to the remote management apparatus through the augmented reality based image analysis of the portable terminal Wherein the object recognition unit reflects the result of recognition of the object based on the machine learning of the remote management apparatus received through the communication unit to the object recognition result based on the augmented reality, Can be recognized.

증강현실 처리부는, 실제객체와 가상객체와의 상호작용을 계산하고 계산결과를 반영하여 실제영상에 가상객체를 결합한 후 렌더링하거나 가상객체를 렌더링한 후 실제영상에 결합하여 증강현실 콘텐츠를 생성하되, 실제영상에서 작업 가이던스 정보를 표현할 가상객체 위치를 선정하고 선정된 가상객체 위치에 작업순서에 맞게 작업 가이던스 정보를 배치할 수 있다.The augmented reality processing unit calculates the interaction between the actual object and the virtual object, combines the virtual object with the actual image, reflects the calculation result, and renders or renders the virtual object, and then combines the virtual object with the actual image to generate the augmented reality content, It is possible to select a virtual object position to express the work guidance information in the real image and arrange the work guidance information in accordance with the work order at the selected virtual object position.

증강현실 처리부는, 미리 정의된 템플릿에 기초하여 작업 매뉴얼에 따라 동적으로 가공할 수 있는 스크립팅 툴을 통해 미리 제작된 작업 가이던스 정보를 입력받아 이를 증강현실 콘텐츠 생성에 사용할 수 있다.The augmented reality processing unit may receive the work guidance information generated in advance through a scripting tool capable of dynamically processing according to a work manual based on a predefined template, and use the generated work guidance information to generate the augmented reality contents.

프로세서는, 원격관리장치에 원격제어를 요청하고 원격관리장치의 원격제어에 따라 원격으로 휴대단말 화면을 공유하는 원격제어 처리부와, 원격관리장치의 제어요청을 처리하는 디바이스 제어부를 더 포함할 수 있다.The processor may further include a remote control processing unit for requesting the remote management apparatus to perform remote control and sharing the portable terminal screen remotely according to the remote control of the remote management apparatus, and a device control unit for processing the control request of the remote management apparatus .

출력부는, 작업대상을 식별하기 위한 가상객체를 화면에 표시하는 식별자 표시부와, 작업대상의 상태를 알려주는 가상객체를 화면에 표시하는 상태 표시부와, 순차적인 작업순서를 안내하는 가상객체를 화면에 표시하는 작업순서 표시부와, 작업에 필요한 도구를 알려주는 가상객체를 화면에 표시하는 작업도구 표시부를 포함할 수 있다.The output unit includes an identifier display unit for displaying a virtual object for identifying a work object on a screen, a status display unit for displaying a virtual object for notifying the status of the work object on the screen, and a virtual object for guiding a sequential work order to the screen And a work tool display unit for displaying on the screen a virtual object informing the tool necessary for the work.

다른 실시 예에 따른 원격관리장치는, 작업 현장에서 작업자에 의해 촬영된 실제영상에 증강현실 기반 작업 가이던스 정보를 결합하여 제공하는 휴대단말을 관리하는 클라이언트 관리부와, 휴대단말로부터 실제영상을 수신하여 공유하고 휴대단말의 증강현실에 기반한 영상분석을 통해 인식된 객체정보를 수신하며 기계학습 기반 객체 인식결과를 휴대단말에 전송하는 네트워크 연결부와, 수신된 실제영상을 대상으로 기계학습 기반 학습 데이터를 이용하여 객체를 인식하는 데이터 처리부를 포함한다.A remote management apparatus according to another embodiment of the present invention includes a client management unit for managing a mobile terminal that combines augmented reality based job guidance information with actual images captured by an operator at a work site, A network connection unit receiving the recognized object information through image analysis based on the augmented reality of the mobile terminal and transmitting the machine learning based object recognition result to the mobile terminal, And a data processing unit for recognizing the object.

클라이언트 관리부는 작업 현장 내 장비들을 모니터링하여 에러를 사전에 예측하고 에러가 발생하기 이전에, 해당 장비에 대한 에러를 처리하기 위한 작업 명령을 생성하며, 네트워크 연결부는 생성된 작업 명령을 휴대단말에 전송할 수 있다.The client management unit monitors the equipment in the worksite to predict an error in advance and generates a job command for processing an error for the device before an error occurs. The network connection unit transmits the generated job command to the mobile terminal .

원격관리장치는, 휴대단말로부터 원격제어 요청을 수신하고 원격으로 휴대단말의 화면을 공유하며 원격 제어명령을 휴대단말에 전송하여 원격 엔지니어링을 수행하는 원격 제어부를 더 포함할 수 있다.The remote management apparatus may further include a remote control unit that receives a remote control request from the portable terminal, remotely shares a screen of the portable terminal, and transmits a remote control command to the portable terminal to perform remote engineering.

원격관리장치는, 클라우드에 기반하여 동작할 수 있다.The remote management device may operate based on the cloud.

본 발명의 또 다른 실시 예에 따른 휴대단말을 이용한 원격 가이던스 방법은, 휴대단말이 작업자의 현재 시점에서 촬영되는 실제영상을 획득하는 단계와, 획득된 실제영상에서 작업대상을 인식하는 단계와, 인식된 작업대상을 트래킹하는 단계와, 작업대상에 대한 작업을 돕기 위한 가상의 작업 가이던스 정보를, 트래킹된 작업대상을 포함한 실제영상에 정합하여 증강현실 콘텐츠를 생성하는 단계와, 생성된 증강현실 콘텐츠를 출력하는 단계를 포함한다.According to another aspect of the present invention, there is provided a remote guidance method using a mobile terminal, including: obtaining an actual image photographed at a current point of time of a mobile terminal; recognizing an object of operation in the obtained actual image; Generating augmented reality content by matching virtual job guidance information for assisting an operation on an object to be processed with an actual image including a tracked object to be worked on; And outputting.

작업대상을 인식하는 단계는, 촬영된 실제영상을 네트워크 연결된 원격관리장치와 공유하는 단계와, 증강현실 기반 영상분석을 통해 실제영상 내 객체를 1차 인식하는 단계와, 원격관리장치와의 협업을 기초로 하여, 증강현실 기반 영상분석을 통한 객체 인식 결과에, 원격관리장치에서의 기계학습을 통한 객체 인식 결과를 반영하여 객체를 2차 인식하는 단계를 포함한다.The step of recognizing the object of operation includes the steps of: sharing the photographed actual image with a network-connected remote management apparatus; firstly recognizing an actual image object through augmented reality-based image analysis; And secondarily recognizing the object by recognizing the object recognition result through machine learning in the remote management apparatus on the object recognition result through the augmented reality based image analysis.

객체를 2차 인식하는 단계는, 증강현실 기반 영상분석을 통해 인식된 객체정보를 원격관리장치에 전송하는 단계와, 원격관리장치로부터 기계학습을 통해 인식된 객체정보를 수신하는 단계와, 원격관리장치로부터 수신된 객체정보와 휴대단말을 통해 인식된 객체정보를 비교하여, 상이하면 재차 객체인식을 수행할 것을 원격관리장치에 요청하는 단계와, 기계학습 기반 객체인식 수행결과를 원격관리장치로부터 수신하는 단계와, 수신된 객체인식 수행결과를 반영하여 휴대단말의 객체인식 결과를 수정하는 단계를 포함한다.The second recognition of the object includes transmitting the recognized object information to the remote management apparatus through the augmented reality-based image analysis, receiving the object information recognized through the machine learning from the remote management apparatus, Comparing the object information received from the device with the object information recognized by the mobile terminal, and requesting the remote management device to perform object recognition again if the object information is different; receiving a machine learning based object recognition result from the remote management device And modifying the object recognition result of the mobile terminal by reflecting the received object recognition result.

일 실시 예에 따르면, 작업자는 작업 현장에서 휴대단말만 소지하고 있으면, 장비에 대해 숙련된 전문가의 도움 없이도, 작업 매뉴얼을 직접 가지고 있지 않더라도 쉽고 간편하게 작업을 수행할 수 있다. 또한, 스마트 글래스(smart glass)와 같은 기존의 별도의 하드웨어가 필요한 몰입형 디스플레이가 필요없다.According to one embodiment, if a worker has only a portable terminal at a work site, the work can be easily and easily performed without having to have a work manual directly without the help of a skilled expert. It also eliminates the need for immersive displays that require traditional, separate hardware, such as smart glass.

증강현실에 기반하여 원격 엔지니어링을 제공함에 따라, 더 실감나는 화면을 제공할 수 있어서 작업자가 보다 직관적으로 작업을 수행할 수 있다. 나아가, 증강현실 기반 영상분석과 기계학습을 이용하여 영상 내 객체를 인식함에 따라 객체 인식 정확도를 높일 수 있다.By providing remote engineering based on Augmented Reality, more realistic images can be provided, allowing operators to work more intuitively. Furthermore, by using augmented reality - based image analysis and machine learning, it is possible to improve object recognition accuracy by recognizing objects in an image.

또한, 증강현실 기반 작업 가이던스 정보를 제작하고자 하는 사용자를 위해 이를 쉽게 제작하기 위한 스크립팅 툴과 템플릿을 제공하여 추가적인 증강현실 매뉴얼 제작비용 없이도 제작 가능하다.Also, a scripting tool and a template for easily creating augmented reality-based job guidance information can be produced for a user, thereby making it possible to manufacture without additional augmented reality manual production cost.

휴대단말을 이용한 원격 가이던스는 공장이나 빌딩과 같은 산업현장뿐만 아니라, 가정집이나 일반 가전기기 등으로 확장될 수 있다. 또한, 스마트 빌딩, 스마트 팩토리, 스마트 홈 등에서 사용하는 다수의 IoT 기기들뿐만 아니라, IoT 센싱 능력이 없는 IoT 시대 이전에 제작된 레거시 기기(legacy device)까지도 확장될 수 있다.Remote guidance using mobile terminals can be extended not only to industrial sites such as factories and buildings, but also to households and general household appliances. In addition, not only a number of IoT devices used in a smart building, a smart factory, a smart home, etc., but also a legacy device manufactured before the IoT era without IoT sensing capability can be extended.

나아가, 다수의 기기들에 대해 에러(error)를 사전에 예측하고 에러 예측 기반 사전 서비스(before service)를 제공하는 경우, 기기의 에러를 사전에 예측하고 이를 기기 사용자에 알리면, 사용자는 사용자가 소지한 휴대단말을 이용하여 원격 가이던스를 제공받아 쉽게 에러를 사전에 해결할 수 있다.Further, in the case of predicting an error for a plurality of devices and providing an error prediction based prior service, if an error of the device is predicted in advance and informed to the user of the device, It is possible to easily solve the error in advance by receiving the remote guidance using one mobile terminal.

도 1은 본 발명의 일 실시 예에 따른 원격 가이던스 시스템의 구성도,
도 2는 본 발명의 일 실시 예에 따른 원격 가이던스의 개념을 설명하기 위한 원격 가이던스 시스템의 구성도,
도 3은 본 발명의 다른 실시 예에 따른 원격 가이던스의 개념을 설명하기 위한 원격 가이던스 시스템의 구성도,
도 4는 본 발명의 일 실시 예에 따른 휴대단말의 구성도,
도 5는 본 발명의 일 실시 예에 따른 도 4의 프로세서의 세부 구성도,
도 6은 본 발명의 일 실시 예에 따른 도 4의 출력부의 세부 구성도,
도 7은 본 발명의 일 실시 예에 따른 원격관리장치의 구성도,
도 8은 본 발명의 일 실시 예에 따른 원격관리장치와 휴대단말 간의 협업을 통한 객체 인식 프로세스를 도시한 흐름도,
도 9는 본 발명의 일 실시 예에 따른 휴대단말에 작업 가이던스 정보가 표시되는 예를 설명하기 위한 휴대단말 화면이다.
1 is a configuration diagram of a remote guidance system according to an embodiment of the present invention;
2 is a configuration diagram of a remote guidance system for explaining the concept of a remote guidance according to an embodiment of the present invention;
3 is a configuration diagram of a remote guidance system for explaining the concept of remote guidance according to another embodiment of the present invention;
4 is a configuration diagram of a portable terminal according to an embodiment of the present invention;
FIG. 5 is a detailed configuration diagram of the processor of FIG. 4 according to an embodiment of the present invention;
FIG. 6 is a detailed configuration diagram of the output unit of FIG. 4 according to an embodiment of the present invention;
7 is a configuration diagram of a remote management apparatus according to an embodiment of the present invention;
FIG. 8 is a flowchart illustrating an object recognition process through cooperation between a remote management apparatus and a mobile terminal according to an embodiment of the present invention;
FIG. 9 is a portable terminal screen for illustrating an example in which job guidance information is displayed on a portable terminal according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이며, 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS In the following description of the present invention, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. , Which may vary depending on the intention or custom of the user, the operator, and the like. Therefore, the definition should be based on the contents throughout this specification.

첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램인스트럭션들(실행 엔진)에 의해 수행될 수도 있으며, 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다.Each block of the accompanying block diagrams and combinations of steps of the flowcharts may be performed by computer program instructions (execution engines), which may be stored in a general-purpose computer, special purpose computer, or other processor of a programmable data processing apparatus The instructions that are executed through the processor of the computer or other programmable data processing equipment will generate means for performing the functions described in each block or flowchart of the block diagram.

이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.These computer program instructions may also be stored in a computer usable or computer readable memory capable of directing a computer or other programmable data processing apparatus to implement the functionality in a particular manner so that the computer usable or computer readable memory It is also possible for the instructions stored in the block diagram to produce an article of manufacture containing instruction means for performing the functions described in each block or flowchart of the flowchart.

그리고 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명되는 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.And computer program instructions may be loaded onto a computer or other programmable data processing equipment so that a series of operating steps may be performed on a computer or other programmable data processing equipment to create a computer- It is also possible that the instructions that perform the data processing equipment provide the steps for executing the functions described in each block of the block diagram and at each step of the flowchart.

또한, 각 블록 또는 각 단계는 특정된 논리적 기능들을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있으며, 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하며, 또한 그 블록들 또는 단계들이 필요에 따라 해당하는 기능의 역순으로 수행되는 것도 가능하다.Also, each block or step may represent a portion of a module, segment, or code that includes one or more executable instructions for executing the specified logical functions, and in some alternative embodiments, It should be noted that functions may occur out of order. For example, two successive blocks or steps may actually be performed substantially concurrently, and it is also possible that the blocks or steps are performed in the reverse order of the function as needed.

이하, 첨부 도면을 참조하여 본 발명의 실시 예를 상세하게 설명한다. 그러나 다음에 예시하는 본 발명의 실시 예는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 다음에 상술하는 실시 예에 한정되는 것은 아니다. 본 발명의 실시 예는 이 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공된다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the following embodiments of the present invention may be modified into various other forms, and the scope of the present invention is not limited to the embodiments described below. The embodiments of the present invention are provided to enable those skilled in the art to more fully understand the present invention.

도 1은 본 발명의 일 실시 예에 따른 원격 가이던스 시스템의 구성도이다.1 is a configuration diagram of a remote guidance system according to an embodiment of the present invention.

도 1을 참조하면, 원격 가이던스 시스템(1)은 원격관리장치(2)와 휴대단말(3)을 포함한다. 원격 가이던스 시스템(1)은 작업 현장에서 작업이 필요한 장비를 대상으로 작업자가 소지하고 있는 휴대단말(3)을 통해 증강현실 기반으로 작업순서를 안내한다. 따라서, 작업자는 장비에 대해 숙련된 전문가의 도움 없이도, 작업 매뉴얼을 직접 가지고 있지 않더라도 쉽고 간편하게 작업을 수행할 수 있다. 여기서, 장비는 작업 현장에 설치된 기계, 설비, 장치 등을 포함하며, 하나의 장비를 구성하는 부품, 모듈 등을 포함할 수 있다. 작업은 수리, 정비, 유지 보수, 조정, 조작 등을 포함한다. 예를 들어, 작업은 문제가 발생한 장비에 대한 정비나, 문제가 발생할 가능성이 있는 장비에 대해 문제 발생 이전에 이를 조치하는 것일 수 있다.Referring to FIG. 1, a remote guidance system 1 includes a remote management apparatus 2 and a mobile terminal 3. The remote guidance system 1 guides the work order based on the augmented reality through the portable terminal 3 held by the worker on the equipment requiring work at the work site. Thus, the operator can easily and easily carry out the work without having to know the work manual, without the help of skilled experts in the equipment. Here, the equipment includes a machine, a facility, a device, and the like installed at a work site, and may include a component, a module, and the like that constitute one equipment. Tasks include repair, maintenance, maintenance, adjustment, and operation. For example, a job could be maintenance on a problematic device, or troubleshooting a problematic device before the problem occurs.

작업 현장은 공장이나 빌딩과 같은 산업현장이 될 수도 있으며, 가정 집이 될 수도 있다. 산업현장을 예로 들면, 공장 내 에어컨, 환기, 공조기, 팬, 보일러, 냉각탑, 펌프, 온/습도센서, 냉동기, 조명기기, 전력기기, 화재 시스템을 대상으로 원격 가이던스를 제공할 수 있다. 원격관리장치(2)를 통해 건물 전체의 상황을 종합적으로 제어 및 감시하면서 기계설비, 조명, 전력, 출입통제, 방재, 주차관리, 시설관리가 가능하며, 모니터링 중에 작업이 필요한 경우 이를 작업자에게 알리며, 작업자는 휴대단말(3)을 통해 원격 가이던스를 제공받아 전문가의 도움 없이도 원활하게 작업을 수행할 수 있다.The work site may be an industrial site such as a factory or a building, or it may be a home. For example, industrial sites can provide remote guidance for air conditioning, ventilation, air conditioning, fans, boilers, cooling towers, pumps, temperature and humidity sensors, refrigerators, lighting equipment, power equipment and fire systems in factories. Lighting, power, access control, disaster prevention, parking management, and facility management are possible through comprehensive management and monitoring of the entire building through the remote management device (2). , The worker can receive the remote guidance through the mobile terminal 3 and can smoothly perform work without the help of an expert.

다른 실시 예에 따르면, 원격 가이던스 시스템(1)은 가정을 대상으로 운용될 수 있다. 예를 들어, 원격관리장치(1)를 통해 가정 내 TV, 에어컨, 냉장고 같은 가전제품이나 수도, 전기, 냉난방과 같은 에너지 소비장치나, 도어락, 감시 카메라 등과 같은 보안기기나, 고가의 자동차와 전기 자동차 등의 기기를 모니터링 및 제어하면서, 원격으로 조정 가능하다. 또한 해당 가정기기에 문제가 발생한 경우, 소비자가 휴대단말(3)만 가지고 있으면 문제 해결을 위한 원격 가이던스를 제공받을 수 있으므로 쉽게 기기의 문제를 해결할 수 있다. 이 경우, 소비자는 소비자 센터에 연락하여 전문가를 부르거나 출장 비용을 별도로 부담할 필요도 없으며, 시간 낭비도 방지할 수 있다. 또한, 스마트 글래스(smart glass)와 같은 기존의 별도의 하드웨어가 필요한 몰입형 디스플레이가 필요 없다.According to another embodiment, the remote guidance system 1 may be operated on a home basis. For example, the remote management device 1 can be used to control household appliances such as home TVs, air conditioners and refrigerators, energy consumption devices such as water, electricity, and air conditioning, security devices such as door locks and surveillance cameras, And can be remotely adjusted while monitoring and controlling such devices. Also, when a problem occurs in the home appliance, if the customer has only the mobile terminal 3, remote guidance for problem solving can be provided, so that the problem of the appliance can be solved easily. In this case, the consumer does not need to contact the consumer center to call a specialist, or to pay the travel expenses separately, and also to avoid waste of time. It also eliminates the need for immersive displays that require traditional, separate hardware, such as smart glass.

원격 가이던스 시스템(1)은 스마트 기기, 스마트 빌딩, 스마트 팩토리 등에서 사용하는 다수의 IoT 기기들을 대상으로 원격 가이던스를 제공할 수 있다. IoT 기기는 디지털 사이니지(digital signage), 스마트 TV, 스마트 워치, 스마트 CE, 드론(drone) 등일 수 있다. 다른 실시 예에 따른 원격 가이던스 시스템(1)은 IoT 센싱 능력이 없는 IoT 시대 이전에 제작된 레거시 기기(legacy device)를 대상으로 작업 가이던스를 제공할 수도 있다. 예를 들어, 디바이스에 내장 또는 장착되는 IoT 센서가 없어서 디바이스와 그 주변환경의 정보를 센싱할 수 없는 레거시 기기를 대상으로도 휴대단말(3)을 이용한 원격 가이던스를 제공할 수 있다.The remote guidance system 1 can provide remote guidance to a plurality of IoT devices used in a smart device, a smart building, a smart factory, and the like. IoT devices can be digital signage, smart TV, smart watch, smart CE, drone, and so on. The remote guidance system 1 according to another embodiment may provide a working guidance to a legacy device manufactured before the IoT period in which there is no IoT sensing capability. For example, it is possible to provide a remote guidance using a portable terminal 3 for a legacy device which is not equipped with an IoT sensor built in or mounted in the device and can not sense information of the device and its surrounding environment.

일 실시 예에 따른 원격 가이던스 시스템(1)은 다수의 기기들에 대해 에러(error)를 사전에 예측하고 에러 예측 기반 사전 서비스(before service)를 제공한다. 사전 서비스는 기기들을 대상으로 발생 가능한 에러를 사전에 예측하고, 에러가 발생하기 이전에, 에러를 관리 및 처리하는 서비스이다. 예를 들어, 원격관리장치(2)를 통해 기기의 에러를 사전에 예측한 경우, 이를 기기 사용자에 알리면, 사용자는 사용자가 소지한 휴대단말(3)을 이용하여 원격 가이던스를 제공받아 쉽게 에러를 사전에 해결할 수 있게 된다.The remote guidance system 1 according to an embodiment predicts an error for a plurality of devices and provides an error prediction based before service. A dictionary service is a service that predicts possible errors for devices and manages and processes errors before errors occur. For example, if an error of the device is predicted in advance through the remote management apparatus 2 and the device user is notified of the error, the user can easily receive an error by receiving the remote guidance using the portable terminal 3 possessed by the user So that it can be solved in advance.

증강현실 기반 작업 가이던스에 대한 실시 예를 들면, 작업 현장에 위치하는 작업자가 휴대단말(3)의 카메라와 같은 영상 획득부를 통해 작업 현장을 촬영한다. 그러면, 휴대단말(3) 화면의 촬영 영상에, 자동으로 작업순서를 안내하는 가상의 작업 가이던스 정보를 결합하여 보여준다.For example, an operator located at a work site shoots a work site through an image acquisition unit such as a camera of the mobile terminal 3. [ Then, the virtual work guidance information automatically guiding the work order is combined with the photographed image on the screen of the portable terminal 3 and displayed.

휴대단말(3)은 카메라와 같은 영상 획득부와, 화면을 출력할 수 있는 출력부와, 증강현실 기반 영상분석를 위한 증강현실 엔진인 프로세서를 포함한다. 휴대단말(3)은 영상 획득부를 통해 작업 현장 내 실제영상을 획득하며, 획득된 실제영상에 가상의 작업 가이던스 정보를 결합한 증강현실 콘텐츠를 출력부를 통해 표시한다. 화면에 표시되는 가상의 작업 가이던스 정보는 작업대상에 대한 식별자 정보, 위치정보, 상태정보, 작업순서 정보, 작업도구 정보 등을 포함한다. 식별자 정보는 작업대상을 식별하기 위한 가상객체이다. 예를 들어, 작업대상을 점선이나 블록 등과 같은 표시자로 알려준다. 위치정보는 작업대상의 위치를 알려주기 위한 가상객체이다. 예를 들어, 작업이 필요한 장비나 장비 내 부품의 위치를 가상의 손가락 등으로 알려준다. 작업순서 정보는 순차적 작업순서에 따른 안내정보를 알려주기 위한 가상객체이다. 작업도구 정보는 작업에 필요한 도구를 알려주기 위한 가상객체이다. 예를 들어 드라이버, 망치 등과 같이 작업에 필요한 모든 가상도구를 표시한다. 화면에 표시되는 작업 가이던스 정보의 실시 예는 도 2, 도 3 및 도 9를 참조로 하여 후술한다.The portable terminal 3 includes an image acquisition unit such as a camera, an output unit capable of outputting a screen, and a processor, which is an augmented reality engine for augmented reality-based image analysis. The portable terminal 3 acquires an actual image in a job site through an image acquisition unit, and displays an augmented reality content combining an acquired actual image with virtual job guidance information through an output unit. The virtual job guidance information displayed on the screen includes the identifier information, the position information, the status information, the job order information, the job tool information, and the like for the job subject. The identifier information is a virtual object for identifying the work object. For example, it informs the worker of an object such as a dotted line or a block. The position information is a virtual object for informing the position of the work object. For example, a virtual finger or the like informs the position of the equipment or the parts in the equipment that require work. The work order information is a virtual object for informing guide information according to a sequential work order. The work tool information is a virtual object for informing the tool necessary for the work. For example, it displays all the virtual tools needed for a task, such as a driver, a hammer, and so on. An embodiment of the job guidance information displayed on the screen will be described later with reference to Figs. 2, 3 and 9. Fig.

일 실시 예에 따른 휴대단말(3)은 실시간으로 촬영되는 실제영상에 증강현실을 적용하기 위해, 객체 인식→객체 트래킹→객체 렌더링의 순차적인 프로세스를 반복하여 실제영상에 가상객체를 연동시킨다. 예를 들어, 휴대단말(3)은 실제영상에서 실제객체를 인식하고, 인식된 실제객체를 트래킹하며, 트래킹되는 실제객체에 대해 증강현실 기반 작업 가이던스 정보에 해당하는 가상객체를 결합하여 렌더링하거나, 가상객체를 렌더링한 후 이를 실제객체에 결합하여 증강현실 콘텐츠를 생성하는 일련의 프로세스를 반복한다. 카메라를 통해 포착된 실제영상은, 고정된 것이 아니라 작업자의 움직임 등으로 인해 계속 움직이므로, 실제영상 내에서 인식된 객체의 움직임을 계속 따라가는 작업이 필요한데, 이를 "객체 트래킹"이라 한다. "객체 렌더링"은 2차원의 영상에 광원·위치·색상 등 외부의 정보를 고려하여 사실감을 불어넣어 3차원 영상을 만드는 과정이다. 와이어 프레임(wire frame), 레이 트레이싱(ray tracing) 렌더링 방법 등이 있다. 렌더링은 휴대단말(3)에서 이루어질 수 있지만, 분산 환경의 경우, 원격관리장치에서 렌더링이 수행되고 수행결과를 휴대단말(3)에 전송하는 방식으로 이루어질 수도 있다.In order to apply the augmented reality to the actual image photographed in real time, the portable terminal 3 according to an embodiment repeats the sequential processes of object recognition, object tracking, and object rendering to link the virtual objects to the actual image. For example, the mobile terminal 3 recognizes an actual object in an actual image, tracks the recognized actual object, combines and renders a virtual object corresponding to the augmented reality-based operation guidance information on the actual object being tracked, A series of processes of rendering a virtual object and combining it with an actual object to generate an augmented reality content is repeated. Since the actual image captured through the camera is not fixed but moves continuously due to the motion of the operator, it is necessary to follow the motion of the recognized object in the actual image, which is called "object tracking". "Object Rendering" is a process of creating a three-dimensional image by injecting realism into a two-dimensional image in consideration of external information such as light source, position, and color. A wire frame, and a ray tracing rendering method. Rendering may be performed in the portable terminal 3, but in a distributed environment, the rendering may be performed in the remote management device, and the result of the rendering may be transmitted to the portable terminal 3.

일 실시 예에 따른 원격 가이던스 시스템(1)은 객체를 인식할 때, 증강현실 기반 영상분석과 기계학습(machine learning)을 함께 사용한다. 실제영상에서 인식해야 하는 장비의 상태는 정상상태, 일부 녹이 슨 상태, 찌그러진 상태 등 다양할 수 있다. 따라서, 증강현실에서 사용되는 엔진만으로는 인식 정확도가 떨어질 수 있다. 따라서, 이를 기계학습으로 보완하여 객체 인식률을 높인다. 기계학습 기반 객체인식은 원격관리장치(2)에 이루어질 수 있고, 증강현실 기반 객체인식은 휴대단말(3)에서 이루어질 수 있다. 또는 구현 예에 따라 원격관리장치(2)나 휴대단말(3) 내에서 모두 이루어질 수도 있다. 분산된 환경에서는, 원격관리장치(2)에서 기계학습을 통해 인식된 장비의 상태를 휴대단말(3)에서 인식한 장비의 상태와 비교하여 정확도를 높이는 협상(Negotiation) 프로세스를 가질 수 있다. 협상 프로세스에 대한 실시 예는 도 8을 참조로 하여 후술한다.The remote guidance system 1 according to an embodiment uses augmented reality-based image analysis and machine learning together when recognizing an object. The state of the equipment to be recognized in the actual image may be various, such as steady state, some rusted state, and distorted state. Therefore, the recognition accuracy can be lowered only by the engine used in the augmented reality. Therefore, it improves object recognition rate by complementing it with machine learning. Machine learning based object recognition can be performed in the remote management apparatus 2, and augmented reality based object recognition can be performed in the portable terminal 3. Or both in the remote management apparatus 2 and the portable terminal 3 according to the embodiment. In the distributed environment, the remote management apparatus 2 can have a negotiation process for improving the accuracy by comparing the state of the equipment recognized through the machine learning with the state of the equipment recognized by the mobile terminal 3. An embodiment of the negotiation process will be described below with reference to FIG.

일 실시 예에 따른 원격 가이던스 시스템(1)은 증강현실 기반 작업 가이던스 정보를 제작하고자 하는 사용자를 위해, 이를 쉽게 제작하기 위한 스크립팅 툴(scripting tool)을 제공한다. 이에 따라, 추가적인 증강현실 매뉴얼 제작비용 없이도 제작 가능하다. 스크립팅 툴을 제공할 때 분야별로 적용샘플이 될 수 있는 다수의 템플릿(template)을 제공할 수 있다. 제작자는 소규모 사업자 및 장비 공급자들일 수 있다. 예를 들어, 제작자는 사용자 단말, 예를 들어, 데스크톱을 가지고 스크립팅 툴에 기본으로 제공되는 템플릿을 이용하여 증강현실 기반 작업 가이던스 정보를 쉽게 제작한다. 휴대단말(3)은 이런 방식으로 제작된 증강현실 기반 작업 가이던스 정보를 입력받아 이를 증강현실 콘텐츠 생성에 사용할 수 있다.The remote guidance system 1 according to an exemplary embodiment provides a scripting tool for easily creating augmented reality-based job guidance information for a user who wants to produce the augmented reality-based operation guidance information. Therefore, it can be manufactured without the cost of additional augmented reality manual production. When providing a scripting tool, you can provide a number of templates that can be applied samples by field. Manufacturers can be small-scale operators and equipment suppliers. For example, an author can easily create augmented reality-based job guidance information using templates provided with a scripting tool with a user terminal, for example, a desktop. The portable terminal 3 can receive the augmented reality based job guidance information produced in this way and use it for creating the augmented reality contents.

휴대단말(3)은 사용자가 소지한 스마트폰, 태블릿 PC 등 휴대 가능한 모든 사용자 단말을 포함한다. 작업자는 스마트 글래스(smart glass)와 같은 기존의 별도의 하드웨어가 필요한 몰입형 디스플레이가 필요없이 휴대단말(3)을 통해 작업 가이던스를 제공받을 수 있다. 물론, 작업자가 몰입형 디스플레이를 착용한 경우 이를 연동하여 작업도 가능하다.The portable terminal 3 includes all portable user terminals such as a smart phone and a tablet PC carried by the user. The worker can receive work guidance through the portable terminal 3 without the need for an immersive display requiring an existing separate hardware such as a smart glass. Of course, when the operator wears an immersive display, it can work in conjunction with the display.

원격관리장치(2)는 작업 현장에 위치한 장비를 모니터링하며 작업이 필요한 장비를 대상으로 원격 엔지니어링(remote engineering)을 수행한다. 이때, 원격관리장치(2)는 소정의 장비에 에러가 발생하면, 에러 해결을 위해 원격 엔지니어링을 수행할 수 있다. 다른 예로, 작업 현장의 각 장비를 모니터링하여 에러를 사전에 예측하고 에러가 발생하기 이전에, 해당 장비에 대한 에러를 처리하기 위해 원격 엔지니어링을 수행할 수 있다. 원격 엔지니어링의 예로는 영상통화, 채팅, 원격화면 공유, 원격제어 등이 있다. 휴대단말(3)을 통해 제공되는 증강현실 기반 작업 가이던스 정보를 통해 작업자가 문제를 해결하지 못하는 경우, 휴대단말(3)은 원격관리장치(2)와 연결하여, 전문가로부터 원격 제어를 지원받을 수 있다. 원격관리장치(2)는 서버 형태일 수 있으며, 확장성을 고려하여 클라우드 플랫폼을 기반으로 설계될 수 있다.The remote management device (2) monitors equipment located at the work site and performs remote engineering on the equipment that needs work. At this time, if an error occurs in a predetermined device, the remote management apparatus 2 can perform remote engineering to solve the error. As another example, each piece of equipment at the shop floor can be monitored to predict the error in advance and remote engineering can be performed to handle errors for the equipment before the error occurs. Examples of remote engineering include video calls, chat, remote screen sharing, and remote control. When the worker can not solve the problem through the augmented reality-based job guidance information provided through the mobile terminal 3, the portable terminal 3 is connected to the remote management apparatus 2 to receive remote control from the expert have. The remote management apparatus 2 may be in the form of a server and may be designed based on a cloud platform in consideration of scalability.

도 2는 본 발명의 일 실시 예에 따른 원격 가이던스의 개념을 설명하기 위한 원격 가이던스 시스템의 구성도이다.2 is a configuration diagram of a remote guidance system for explaining the concept of remote guidance according to an embodiment of the present invention.

도 2를 참조하면, 원격 가이던스 시스템은 휴대단말(3)의 증강현실 기반 영상분석과 원격관리장치(2)의 기계학습을 이용하여 실제영상 내 작업대상이 되는 객체를 인식한다. 이를 위해, 휴대단말(3)은 촬영된 실제영상을 원격관리장치(2)와 공유한다. 원격관리장치(2)는 사전에 기계학습을 통해 축적된 학습 데이터를 이용하여 실제영상 내 객체를 인식한다. 기계학습 기반 객체 인식결과는 휴대단말(3)에 전송되는데, 인식된 객체 식별자(ID)가 포함될 수 있다. 예를 들어, 원격관리장치(2)는 실제영상에서 기계학습을 통해 인식된 객체 식별자인 ID1: 전력반 커버, ID2: 브레이커, ID3: 파워서플라이를 휴대단말(3)에 전송한다. 휴대단말(3)은 증강현실 기반 영상분석을 통해 실제영상 내에서 객체를 인식하며, 원격관리장치(2)의 기계학습 기반 객체 인식결과를 증강현실 기반 인식결과에 반영하여 객체인식의 정확도를 높인다.Referring to FIG. 2, the remote guidance system recognizes an object to be operated in an actual image by using the augmented reality-based image analysis of the mobile terminal 3 and the machine learning of the remote management apparatus 2. To this end, the portable terminal 3 shares the photographed actual image with the remote management apparatus 2. [ The remote management apparatus 2 recognizes an object in the actual image using the learning data accumulated through machine learning in advance. The machine learning based object recognition result is transmitted to the portable terminal 3, and the recognized object identifier (ID) can be included. For example, the remote management apparatus 2 transmits to the portable terminal 3 an ID1: power half cover, ID2: breaker, and ID3: power supply, which are object identifiers recognized through machine learning in an actual image. The mobile terminal 3 recognizes the object in the actual image through the augmented reality-based image analysis and raises the accuracy of object recognition by reflecting the machine learning based object recognition result of the remote management apparatus 2 to the augmented reality based recognition result .

휴대단말(3)은 인식된 객체를 포함한 실제영상에 작업 가이던스 정보를 결합하여 증강현실 콘텐츠를 화면에 표시한다. 예를 들어, 도 2에 도시된 바와 같이, 전력반 내 파워서플라이의 전력공급에 문제가 발생하면, 휴대단말 화면에는 "전력반의 파워서플라이의 파워가 역치값을 넘었으므로 파워를 줄여야 한다" 라는 경고 메시지와 같은 상태정보(102)가 표시된다. 그리고 문제가 발생한 전력반 커버를 대상으로 블록 형태 등의 식별자와 같은 식별정보(100)를 화면에 표시하여 작업자에게 전력반 커버가 작업대상임을 인식시킨다. 식별정보(100)는 작업순서에 따라 그 대상이 변경될 수 있다.The portable terminal 3 displays the augmented reality contents on the screen by combining the operation guidance information with the actual images including the recognized objects. For example, as shown in FIG. 2, if there is a problem in the power supply of the power supply in the power supply, the display of the portable terminal displays a warning " Power must be reduced because the power of the power supply exceeds the threshold value " Status information 102 such as a message is displayed. Then, identification information 100 such as an identifier such as a block type is displayed on the screen on the power half cover in which the problem occurs, so that the operator can recognize that the power half cover is on the work bench. The identification information 100 can be changed in accordance with the operation order.

또한, 화면에는 작업순서(104)가 함께 표시한다. 예를 들어, "1. 전력반 커버를 연다. 2. 브레이커를 내린다. 3. 파워서플라이를 교체한다. 4. 브레이커를 올린다."와 같이 작업 매뉴얼에 따라 미리 설정된 작업순서가 화면에 표시된다. "1. 전력반 커버를 연다."에서는 실제영상 내 전력반 커버의 손잡이가 점선 등으로 식별 가능하게 표시될 수 있다. "2. 브레이커를 내린다."에서는 실제영상 내 브레이커가 점선 등으로 식별 가능하게 표시될 수 있다. " 3. 파워서플라이를 교체한다."에서는 실제영상 내 파워서플라이가 점선 등으로 식별 가능하게 표시될 수 있다.The work order 104 is also displayed on the screen. For example, a pre-set operation sequence is displayed on the screen according to the operation manual, such as "1. Open the power panel cover 2. Lower the breaker 3. Replace the power supply 4. Raise the breaker". In the "1. Open the power panel cover", the handle of the power panel cover in the actual image can be identified by dotted lines. In "2. Breaking down the breaker", the breaker in the actual image can be displayed discretely by a dotted line or the like. In "3. Replace power supply", the power supply in the actual image can be indicated by dotted lines.

전술한 작업 가이던스 정보는 미리 정의된 템플릿에 기초하여 작업 매뉴얼에 따라 동적으로 편집 가능한 스크립팅 툴(106)을 통해 미리 제작될 수 있다. 작업자가 증강현실 기반 작업 가이던스 정보를 이용하여 문제를 해결하지 못하는 경우, 휴대단말(3)은 원격관리장치(2)와 네트워크 연결되어 전문가로부터 원격관리(108)를 통해 원격 엔지니어링을 지원받을 수 있다. 원격 엔지니어링은 영상통화, 채팅, 원격화면 공유, 원격제어 등을 포함한다.The job guidance information described above can be prepared in advance through the scripting tool 106 dynamically editable according to the job manual based on the predefined template. If the worker can not solve the problem using the augmented reality-based job guidance information, the portable terminal 3 can be connected to the remote management apparatus 2 via a network and receive remote engineering support from the expert through the remote management 108 . Remote engineering includes video call, chat, remote screen sharing, remote control, and so on.

도 3은 본 발명의 다른 실시 예에 따른 원격 가이던스의 개념을 설명하기 위한 원격 가이던스 시스템의 구성도이다.3 is a block diagram of a remote guidance system for explaining the concept of remote guidance according to another embodiment of the present invention.

도 3을 참조하면, 작업 대상이 엔진(engine)인 경우, 원격관리장치(2)는 기계학습 기반 객체 인식결과를 휴대단말(3)에 전송한다. 예를 들어, 원격관리장치(2)는 실제영상에서 기계학습을 통해 인식된 객체 식별자인 ID1: 라디에이터 팬, ID2: 타이밍 벨트, ID3: 점화 플러그를 휴대단말(3)에 전송한다. 휴대단말(3)은 증강현실 기반 영상분석을 통해 실제영상 내에서 객체를 인식하며, 원격관리장치(2)의 기계학습 기반 객체 인식결과를 증강현실 기반 인식결과에 반영하여 객체인식의 정확도를 높인다.Referring to FIG. 3, when the object of operation is an engine, the remote management apparatus 2 transmits a machine learning based object recognition result to the portable terminal 3. For example, the remote management apparatus 2 transmits ID1: radiator fan, ID2: timing belt, and ID3: spark plug, which are object identifiers recognized through machine learning in the actual image, to the portable terminal 3. The mobile terminal 3 recognizes the object in the actual image through the augmented reality-based image analysis and raises the accuracy of object recognition by reflecting the machine learning based object recognition result of the remote management apparatus 2 to the augmented reality based recognition result .

휴대단말(3)은 인식된 객체를 포함한 실제영상에 작업 가이던스 정보를 결합하여 증강현실 콘텐츠를 화면에 표시한다. 예를 들어, 도 3에 도시된 바와 같이, 엔진에 문제가 발생하면, 엔진을 대상으로 점선의 네모 형태 등의 식별자와 같은 식별정보(100)를 화면에 표시하여 작업자에게 엔진이 작업대상임을 인식시킨다. 식별정보(100)는 작업순서에 따라 그 대상이 변경될 수 있다.The portable terminal 3 displays the augmented reality contents on the screen by combining the operation guidance information with the actual images including the recognized objects. For example, as shown in FIG. 3, when a problem occurs in the engine, identification information 100 such as an identifier such as a dotted line in the form of a dotted line is displayed on a screen for an engine so that the operator can recognize . The identification information 100 can be changed in accordance with the operation order.

화면에는 작업순서(104)가 함께 표시한다. 예를 들어, "1. 본넷을 연다. 2. 타이밍 벨트 장력을 확인한다. 3. 라디에이터 팬 회전을 확인한다. 4. 점화 플러그를 확인한다."와 같이 작업 매뉴얼에 따라 미리 설정된 작업순서가 화면에 표시된다. 작업자가 본넷을 연 후에는, 실제영상 내 타이밍 벨트가 점선 등으로 식별 가능하게 표시될 수 있다. 작업자가 타이밍 벨트의 장력을 확인한 후에는, 실제영상 내 라디에이터가 점선 등으로 식별 가능하게 표시될 수 있다. 작업자가 라디에이터 팬 회전을 확인한 후에는, 실제영상 내 점화 플러그가 점선 등으로 식별 가능하게 표시될 수 있다.A work order 104 is displayed on the screen. For example: 1. Open the bonnet 2. Check the timing belt tension 3. Confirm the radiator fan rotation 4. Confirm the spark plug 4. Depending on the operation manual, . After the operator opens the bonnet, the timing belt in the actual image can be displayed in a distinguishable manner with a dotted line or the like. After the worker confirms the tension of the timing belt, the radiator in the actual image can be displayed discretely by a dotted line or the like. After the worker confirms the rotation of the radiator fan, the actual in-image spark plug can be discernibly displayed with a dotted line or the like.

전술한 작업 가이던스 정보는 미리 정의된 템플릿에 기초하여 작업 매뉴얼에 따라 동적으로 편집 가능한 스크립팅 툴(106)을 통해 미리 제작될 수 있다. 예를 들어, 데스크톱과 같은 사용자 단말(4)을 통해 사용자가 스크립팅 툴(106)을 이용하여 작업 매뉴얼에 따라 작업 가이던스 정보를 제작할 수 있다. 스크립팅 툴(106)은 사용자가 증강현실 기반 작업 가이던스 정보를 쉽게 제작하기 위한 도구로서, 추가적인 증강현실 매뉴얼 제작비용 없이도 제작이 가능하도록 한다. 스크립팅 툴(106)을 제공할 때 분야별로 적용샘플이 될 수 있는 다수의 템플릿을 제공할 수 있다. 사용자는 소규모 사업자 및 장비 공급자들일 수 있다. 예를 들어, 사용자는 사용자 단말(4)을 가지고 스크립팅 툴에 기본으로 제공되는 템플릿을 이용하여 증강현실 기반 작업 가이던스 정보를 쉽게 제작한다. 휴대단말(3)은 이런 방식으로 제작된 증강현실 기반 작업 가이던스 정보를 입력받아 이를 증강현실 콘텐츠 생성에 사용할 수 있다. 템플릿에는 가상 제어 영역을 도식화한 템플릿 도면(40)이 제어 화면에 표시될 수 있다. 템플릿 도면에는 가상도구를 나타내는 그래픽 오브젝트가 배치될 수 있다.The job guidance information described above can be prepared in advance through the scripting tool 106 dynamically editable according to the job manual based on the predefined template. For example, a user can use the scripting tool 106 to create job guidance information in accordance with a job manual through a user terminal 4 such as a desktop. The scripting tool 106 enables a user to easily create augmented reality-based job guidance information without a manufacturing cost of an additional augmented reality manual. When providing the scripting tool 106, it is possible to provide a plurality of templates that can be applied samples by field. Users can be small business and equipment suppliers. For example, a user can easily create augmented reality-based job guidance information using a template provided with the scripting tool with the user terminal 4. [ The portable terminal 3 can receive the augmented reality based job guidance information produced in this way and use it for creating the augmented reality contents. The template drawing 40 in which the virtual control area is schematically displayed may be displayed on the control screen. A graphic object representing the virtual tool may be placed in the template drawing.

작업자가 증강현실 기반 작업 가이던스 정보를 이용하여 문제를 해결하지 못하는 경우, 원격관리장치(2)와 네트워크 연결되어 전문가로부터 원격관리(108)를 통해 원격 엔지니어링을 지원받을 수 있다. 원격 엔지니어링은 영상통화, 채팅, 원격화면 공유, 원격제어 등을 포함한다.If the worker can not solve the problem using the augmented reality-based job guidance information, remote engineering can be supported through a remote management 108 from a specialist via a network connection with the remote management apparatus 2. [ Remote engineering includes video call, chat, remote screen sharing, remote control, and so on.

도 4는 본 발명의 일 실시 예에 따른 휴대단말의 구성도이다.4 is a configuration diagram of a portable terminal according to an embodiment of the present invention.

도 4를 참조하면, 휴대단말(3)은 영상 획득부(30), 입력부(31), 프로세서(32), 출력부(33), 통신부(34) 및 메모리(35)를 포함한다.4, the portable terminal 3 includes an image acquisition unit 30, an input unit 31, a processor 32, an output unit 33, a communication unit 34, and a memory 35.

영상 획득부(30)는 작업자의 현재 시점에서 촬영된 실제영상을 실시간으로 획득하여 이를 프로세서(32)에 전달한다. 영상 획득부(30)는 예를 들어, 카메라, 영상센서 등일 수 있다. 이때 추가적으로 사용자의 동작이나 휴대단말(3)의 움직임을 감지하는 센서 등이 추가로 구비될 수 있다.The image acquiring unit 30 acquires an actual image photographed at the current time of the operator in real time and transmits the acquired real image to the processor 32. [ The image acquiring unit 30 may be, for example, a camera, an image sensor, or the like. At this time, a sensor for detecting the movement of the user or the motion of the portable terminal 3 may be additionally provided.

입력부(31)는 사용자의 키(key) 입력에 의해 입력되는 신호를 수신하여 이를 프로세서(32)에 전달한다. 키는 예를 들어, 실제영상을 촬영하기 위한 촬영버튼, 작업 가이던스 정보를 제어하기 위한 메뉴 키, 휴대단말(3)의 전원구동을 위한 전원버튼 등이 있다.The input unit 31 receives a signal input by a key input of the user and transmits the signal to the processor 32. The key includes, for example, a photographing button for photographing the actual image, a menu key for controlling the operation guidance information, and a power button for powering the portable terminal 3.

출력부(33)는 프로세서(32)를 통해 처리된 정보를 출력한다. 일 실시 예에 따른 출력부(33)는 프로세서(32)를 통해 생성된 증강현실 콘텐츠를 출력한다. 출력의 예로는 화면에 영상을 표시할 수 있고, 스피커를 통해 음성을 출력할 수도 있다.The output unit 33 outputs the processed information through the processor 32. [ The output unit 33 according to an embodiment outputs the augmented reality contents generated through the processor 32. [ An example of the output is an image display on the screen, and a voice output through a speaker.

통신부(34)는 원격관리장치와 네트워크 연결되어, 유무선통신을 수행한다. 통신부(34)는 원격관리장치와 상호 작용하여 네트워크의 항상성 유지를 담당한다. 휴대단말(3)은 통신부(34)를 통해 원격관리장치와 전용의 네트워크를 통해 연결되거나 인터넷 등의 범용 네트워크를 통해 연결될 수 있다. 일 실시 예에 따른 통신부(34)는 원격관리장치로부터 작업명령을 수신함에 따라 작업 가이던스를 시작한다. 예를 들어, 원격관리장치가 작업 현장 내 장비들을 모니터링하고 있다가 에러가 발생하거나 에러가 발생할 가능성이 있는 장비를 검출하면 해당 장비에 대한 작업 요청명령을 휴대단말에 전송하여 작업자에게 알린다.The communication unit 34 is connected to the remote management apparatus via a network, and performs wired / wireless communication. The communication unit 34 interacts with the remote management apparatus to maintain the homeostasis of the network. The portable terminal 3 may be connected to the remote management apparatus via a dedicated network through the communication unit 34 or may be connected through a general-purpose network such as the Internet. The communication unit 34 according to the embodiment starts the job guidance upon receiving the job command from the remote management apparatus. For example, when a remote management apparatus monitors equipment in a worksite and detects an error or an equipment that may cause an error, the remote management apparatus transmits a work request command for the equipment to the portable terminal to inform the operator.

일 실시 예에 따른 통신부(34)는 영상 획득부(30)를 통해 획득된 실제영상을 원격관리장치에 전송하여 공유한다. 그리고 휴대단말의 증강현실 기반 영상분석을 통해 인식된 객체정보를 원격관리장치에 전송하며, 원격관리장치로부터 기계학습을 통해 인식된 객체정보를 수신할 수 있다.The communication unit 34 according to the embodiment transmits the actual image acquired through the image acquisition unit 30 to the remote management apparatus and shares the same. Then, the recognized object information is transmitted to the remote management apparatus through the augmented reality-based image analysis of the mobile terminal, and the recognized object information can be received from the remote management apparatus through the machine learning.

메모리(35)는 데이터를 저장한다. 데이터는 작업 현장의 장비들의 고유정보, 위치정보, 장비들의 도면, 작업 가이던스 정보, 장비 내 부품정보, 작업 스케줄 정보 등일 수 있다. 이러한 정보는 원격관리장치로부터 다운로드 받아 저장될 수도 있고, 입력부(31)를 통해 사용자로부터 입력받을 수도 있다. 메모리(35)는 하드디스크(Hard Disk), 플래시 메모리(Flash Memory)와 같은 내장형 메모리뿐만 아니라, CF 카드(Compact Flash Card), SD 카드(Secure Digital Card), SM 카드(Smart Media Card), MMC 카드(Multi-Media Card), 또는 메모리 스틱(Memory Stick) 등과 같은 이동시 메모리로서 휴대단말의 내부에 구현될 수 있고, 별도의 장치에 구비되어 있을 수도 있다.The memory 35 stores data. Data may be unique information of the equipment at the worksite, location information, drawings of the equipment, job guidance information, part information in the equipment, job schedule information, and the like. Such information may be downloaded from the remote management apparatus and received from the user through the input unit 31. [ The memory 35 may be a CF (Compact Flash Card), an SD card (Secure Digital Card), an SM card (Smart Media Card), an MMC Such as a memory card, a multi-media card, or a memory stick, or may be provided in a separate apparatus.

프로세서(32)는 전술한 각 구성의 동작을 제어한다. 일 실시 예에 따른 프로세서(32)는 영상 획득부(30)를 통해 획득된 실제영상을 대상으로 객체 인식, 트래킹 및 렌더링을 반복적으로 수행한다. 예를 들어, 실제영상에서 작업대상을 인식하고 인식된 작업대상을 트래킹하면서 작업대상에 대한 작업을 돕기 위한 가상의 작업 가이던스 정보를 실제영상에 정합한 후 렌더링하거나, 가상의 작업 가이던스 정보를 렌더링한 후 실제영상에 정합하여 증강현실 콘텐츠를 생성한다. 일 실시 예에 따른 프로세서(32)는 원격관리장치의 원격제어를 위한 명령을 처리한다. 예를 들어, 휴대단말 화면을 원격관리장치에 공유한다.The processor 32 controls the operation of each of the above-described configurations. The processor 32 according to an embodiment repeatedly performs object recognition, tracking, and rendering on a real image acquired through the image acquisition unit 30. [ For example, it is possible to recognize a work object in an actual image, to match a virtual work guidance information to assist a work on a work target while tracking a recognized work target, and to render the virtual work guidance information by rendering the virtual work guidance information Then, the augmented reality contents are generated by matching with the actual images. The processor 32 in accordance with one embodiment processes commands for remote control of the remote management device. For example, the portable terminal screen is shared with the remote management apparatus.

일 실시 예에 따른 프로세서(32)는 객체 인식을 위해 증강현실 기반 영상분석과 학습 데이터 기반 기계학습을 이용한다. 영상분석은 획득된 실제영상 내에서 객체를 인식하는 일반적인 알고리즘을 사용할 수 있다. 예를 들어, 영상 내 점 군 정보(Point Cloud), 깊이 정보, 컬러 정보 등을 이용하여 객체를 인식한다. 영상분석 기반 객체 인식은 이미 공지된 기술이므로 상세한 설명은 생략한다. 이때, 영상 처리, 예를 들어, 영상에 대한 이진화, 에지 블랜딩(edge blending), 마스킹(masking) 등을 처리하여 객체 인식률을 높일 수 있다.The processor 32 in accordance with one embodiment uses augmented reality-based image analysis and learning data-based machine learning for object recognition. Image analysis can use a general algorithm to recognize objects in the acquired real image. For example, objects are recognized using point cloud information, depth information, color information, and the like in an image. Since object recognition based on image analysis is a known technique, a detailed description will be omitted. At this time, it is possible to increase the object recognition rate by processing image processing, for example, binarization, edge blending, and masking for the image.

기계학습은 인공지능(Artificial Intelligence)에서 사용되는 방식 중 하나로서, 수많은 데이터를 컴퓨터에 입력하고 비슷한 것끼리 분류하도록 하여 학습시키는 기술이다. 예를 들어, 저장된 개 사진과 비슷한 사진이 입력되면, 이를 개 사진이라고 컴퓨터가 분류하도록 하는 것이다. 기계학습을 통해 축적된 학습 데이터를 이용하여 영상 내 객체를 인식할 수 있다. 프로세서(32)는 이러한 기계학습을 이용한 객체 인식을 증강현실 기반 영상분석의 보조수단으로 활용함에 따라 객체인식의 정확성을 높이고자 한다. 기계학습은 SVM(Support Vector Machines), 딥 러닝(Deep Learning) 기법 등을 이용할 수 있다.Machine learning is one of the methods used in artificial intelligence. It is a technology that learns by inputting a lot of data into a computer and classifying similar things. For example, if a photo similar to a saved dog photo is entered, the computer will classify it as an open photo. The object in the image can be recognized by using the learning data accumulated through the machine learning. The processor 32 uses the object recognition using the machine learning as an auxiliary means of the augmented reality-based image analysis to enhance the accuracy of object recognition. Machine learning can use Support Vector Machines (SVM) and Deep Learning techniques.

휴대단말(3)이 원격관리장치와 연결되는 경우, 휴대단말(3)은 원격관리장치로부터 수신된 제어명령을 수행하는 에이전트(Agent)가 된다. 휴대단말(3)은 원격 가이던스를 위해 애플리케이션을 실행할 수 있다. 이때, 서로 상이한 OS, 예를 들어, 안드로이드, iOS, 윈도우 등 각종 OS를 모두 지원할 수 있는 형태를 가진다.When the portable terminal 3 is connected to the remote management apparatus, the portable terminal 3 becomes an agent that executes a control command received from the remote management apparatus. The mobile terminal 3 can execute the application for remote guidance. At this time, it has a form capable of supporting various OSs such as Android, iOS, and Windows, which are different from each other.

도 5는 본 발명의 일 실시 예에 따른 도 4의 프로세서의 세부 구성도이다.FIG. 5 is a detailed configuration diagram of the processor of FIG. 4 according to an embodiment of the present invention.

도 4 및 도 5를 참조하면, 프로세서(32)는 영상 처리부(320), 원격제어 처리부(324) 및 디바이스 제어부(326)를 포함한다. 영상 처리부(320)는 객체 인식부(3200), 트래킹부(3202), 증강현실 처리부(3204) 및 가시화부(3206)를 포함한다.4 and 5, the processor 32 includes an image processing unit 320, a remote control processing unit 324, and a device control unit 326. [ The image processing unit 320 includes an object recognition unit 3200, a tracking unit 3202, an augmented reality processing unit 3204, and a visualization unit 3206.

객체 인식부(3200)는 실제영상에 대한 증강현실 기반 영상분석과 학습 데이터를 이용한 기계학습을 이용하여 실제영상에서 객체를 인식한다. 일 실시 예에 따른 객체 인식부(3200)는 증강현실 기반 객체 인식결과에 통신부(34)를 통해 수신된 원격관리장치의 기계학습 기반 객체 인식결과를 반영하여 객체를 인식한다.The object recognition unit 3200 recognizes an object in an actual image using an augmented reality-based image analysis on the real image and a machine learning using the learning data. The object recognition unit 3200 according to an embodiment recognizes an object by reflecting the result of recognition of a machine learning based object of the remote management apparatus received through the communication unit 34 on the augmented reality based object recognition result.

트래킹부(3202)는 객체 인식부(3200)에서 인식된 객체의 움직임을 트래킹한다. 카메라를 통해 포착된 실제영상은 고정된 것이 아니라 작업자의 움직임 등으로 인해 계속 움직이므로, 트래킹부(3202)는 실제영상 내에서 인식된 객체의 움직임을 계속 따라가는 작업을 수행한다.The tracking unit 3202 tracks the movement of the object recognized by the object recognition unit 3200. Since the actual image captured through the camera is not fixed but moves continuously due to the motion of the operator, the tracking unit 3202 performs the operation of following the motion of the recognized object in the actual image.

증강현실 처리부(3204)는 실제환경과 가상환경 간의 상호작용을 계산하고 계산결과를 반영하여 증강현실 콘텐츠를 생성한다. 증강현실 콘텐츠는 실제환경에 가상환경이 결합한 것이다. 이에 따라 증강현실을 기반으로 작업 가이던스 정보를 제공할 수 있다. 일 실시 예에 따른 증강현실 처리부(3204)는 실제객체와 가상객체와의 상호작용을 계산하고 계산결과를 반영하여 실제영상에 가상객체를 결합한 후 렌더링하거나, 가상객체를 렌더링한 후 이를 실제영상에 결합하여 증강현실 콘텐츠를 생성한다. 이때, 실제영상에서 작업 가이던스 정보를 표현할 가상객체 위치를 선정하고 선정된 가상객체 위치에 작업순서에 맞게 작업 가이던스 정보를 배치할 수 있다. 일 실시 예에 따른 증강현실 처리부(3204)는 미리 정의된 템플릿에 기초하여 작업 매뉴얼에 따라 동적으로 가공할 수 있는 스크립팅 툴을 통해 미리 제작된 작업 가이던스 정보를 입력받아 이를 증강현실 콘텐츠 생성에 사용한다. 가시화부(3206)는 증강현실 처리부(3204)를 통해 생성된 증강현실 콘텐츠를 출력부(33)에 제공한다.The augmented reality processing unit 3204 calculates the interaction between the real environment and the virtual environment and generates the augmented reality contents by reflecting the calculation result. The augmented reality content is a virtual environment combined with a real environment. Accordingly, the operation guidance information can be provided based on the augmented reality. The augmented reality processing unit 3204 according to an exemplary embodiment calculates an interaction between a real object and a virtual object, reflects the calculation result, combines the virtual object with the actual image and then renders or renders the virtual object, Thereby generating augmented reality contents. At this time, the virtual object position to express the work guidance information in the real image can be selected and the work guidance information can be arranged according to the work order at the selected virtual object position. The augmented reality processing unit 3204 according to an exemplary embodiment receives job guidance information generated in advance through a scripting tool capable of dynamically processing according to a job manual based on a predefined template, and uses the job guidance information to generate augmented reality content . The visualization unit 3206 provides the output unit 33 with the augmented reality contents generated through the augmented reality processing unit 3204.

원격제어 처리부(324)는 원격관리장치에 원격제어를 요청하고 원격관리장치의 제어에 따라 원격으로 화면을 공유한다. 디바이스 제어부(326)는 원격관리장치의 제어요청을 처리한다.The remote control processing unit 324 requests the remote management apparatus for remote control and remotely shares the screen according to the control of the remote management apparatus. The device control unit 326 processes the control request of the remote management apparatus.

도 6은 본 발명의 일 실시 예에 따른 도 4의 출력부의 세부 구성도이다.6 is a detailed configuration diagram of the output unit of FIG. 4 according to an embodiment of the present invention.

도 6을 참조하면, 출력부(33)는 식별자 표시부(330), 상태 표시부(332), 작업순서 표시부(334) 및 작업도구 표시부(336)를 포함한다.6, the output unit 33 includes an identifier display unit 330, a status display unit 332, a work order display unit 334, and a work tool display unit 336. [

식별자 표시부(330)는 작업대상을 식별하기 위한 가상객체를 화면에 표시한다. 예를 들어, 화살표, 선, 블록 등의 식별자를 화면에 표시한다. 이때, 작업대상은 작업순서에 맞게 변경될 수 있다. 실시간으로 촬영되는 실제화면은 계속 움직이므로 식별자 역시 움직이는 작업대상에 맞게 이동한다. 식별자 표시부(330)는 작업대상의 위치를 알려줄 수도 있다. 예를 들어, 손 모양 등으로 작업이 필요한 부품을 가리킨다.The identifier display unit 330 displays a virtual object for identifying a work object on the screen. For example, an identifier such as an arrow, a line, or a block is displayed on the screen. At this time, the work subject can be changed according to the work order. Actual images shot in real-time continue to move, so identifiers also move to the target of moving objects. The identifier display unit 330 may notify the position of the work target. For example, it refers to a part requiring work by hand or the like.

상태 표시부(332)는 작업대상의 제어 상태, 고장 상태, 동작 상태, 시간정보, 장비 내 작업이 필요한 제어 파라미터 등 장비에 관한 각종 상태정보를 표시한다. 이때, 작업대상의 품번, 수명주기, 최근 교체 내역, 고장 내역 등을 포함하는 세부설명이 화면에 표시될 수 있다. 제어 파라미터의 예를 들면, 장비가 공기 조화기인 경우, 제어 파라미터는 목표 온도(또는 설정 온도), 상한 온도, 하한 온도, 풍량, 운전, 정지 여부 등이 될 수 있다. 장비가 조명 설비인 경우, 제어 파라미터는 조명 밝기 등이 될 수 있다. 상태 표시부(332)는 작업이 필요한 장비를 대상으로 자동으로 상태정보를 표시할 수 있지만, 작업자의 요청에 따라 상태정보를 표시할 수도 있다. 예를 들어, 작업자가 화면 내에서 소정의 장비를 선택하면, 선택된 장비에 대한 각종 상태정보를 화면에 표시할 수 있다.The status display unit 332 displays various status information about the equipment such as the control status of the operation target, the failure status, the operation status, the time information, and the control parameters required for operation in the equipment. At this time, a detailed description including the part number of the work subject, the life cycle, the recent replacement history, the failure history, and the like may be displayed on the screen. For example, when the equipment is an air conditioner, the control parameter may be a target temperature (or set temperature), an upper limit temperature, a lower limit temperature, an air flow rate, an operation stoppage, and the like. If the equipment is a lighting fixture, the control parameters may be illumination brightness, and so on. The status display unit 332 can automatically display status information for equipment that requires work, but may also display status information at the request of an operator. For example, when an operator selects a predetermined equipment in the screen, various status information about the selected equipment can be displayed on the screen.

작업순서 표시부(334)는 순차적인 작업순서를 알려주기 위한 가상객체를 화면에 표시한다. 이때, 작업순서에 맞게 작업이 필요한 장비 또는 장비 내 부품을 식별자 표시부(330)를 통해 함께 작업자에 알려줄 수 있다. 작업도구 표시부(336)는 작업에 필요한 도구를 알려주기 위한 가상객체를 화면에 표시한다. 작업도구는 예를 들어, 망치, 드라이버, 손 등이 있다.The work order display unit 334 displays a virtual object for informing a sequential work order on the screen. At this time, it is possible to notify the worker through the identifier display part 330 of the equipment or the parts in the equipment that need work in accordance with the work order. The work tool display unit 336 displays a virtual object for informing a tool necessary for the work on the screen. Work tools include, for example, a hammer, a screwdriver, a hand, and the like.

도 7은 본 발명의 일 실시 예에 따른 원격관리장치의 구성도이다.7 is a configuration diagram of a remote management apparatus according to an embodiment of the present invention.

도 7을 참조하면, 원격관리장치(2)는 인증 관리부(Verification Management Module: VMM)(20), 모니터링부(Monitoring Screen Module: MSM)(21), 네트워크 연결부(Network Handling Module: NHM)(22), 원격 제어부(Remote Access & Control Module: RCM)(23), 데이터 처리부(Data Processing Module: DPM)(24), 클라이언트 관리부(Device & App Monitoring Module: DMM)(25), 프로토콜 처리부(Messaging Protocol Stack: MPS)(26) 및 데이터 분석부(Bigdata Statistics Engine: BSE)(27)를 포함한다. 원격관리장치(2)는 확장성을 고려하여 클라우드 플랫폼 기반으로 설계될 수 있다.7, the remote management apparatus 2 includes a verification management module (VMM) 20, a monitoring screen module (MSM) 21, a network handling module (NHM) 22 A Remote Control & Control Module (RCM) 23, a Data Processing Module (DPM) 24, a Device & App Monitoring Module (DMM) 25, Stack (MPS) 26 and Bigdata Statistics Engine (BSE) 27. The remote management apparatus 2 can be designed on the basis of a cloud platform in consideration of expandability.

인증 관리부(20)는 요청받은 작업자의 사용자 정보의 유효성을 검증하며 필요에 따라 원격관리장치(2)로 수신되는 요구사항의 주체가 누구인지를 인증한다. 모니터링부(21)는 원격에 있는 작업자의 휴대단말 화면을 모니터링한다. 이때, 기술자 및 관리자의 단말을 통해 모니터링하거나 조작을 돕는 기능을 제공한다.The authentication management unit 20 verifies the validity of the user information of the requested worker and authenticates who is the subject of the request received by the remote management apparatus 2 as necessary. The monitoring unit 21 monitors the screen of the portable terminal of the remote worker. At this time, it provides the function to monitor or manipulate through the terminal of the technician and the manager.

네트워크 연결부(22)는 네트워크의 종류와 관계없이 네트워크 연결의 항상성을 유지한다. 네트워크 연결부(22)는 작업자의 휴대단말과 정보를 송수신한다. 예를 들어, 네트워크 연결부(22)는 휴대단말로부터 실제영상을 수신하여 공유하고, 휴대단말의 증강현실에 기반한 영상분석을 통해 인식된 객체정보를 수신하며, 기계학습 기반 객체 인식결과를 휴대단말에 전송한다. 원격 제어부(23)는 휴대단말로부터 원격제어 요청을 수신하면 휴대단말의 화면을 공유하며, 원격 제어명령을 휴대단말에 전송한다. 이때, 필요한 프로세스 조정 기능을 제공한다.The network connection unit 22 maintains the consistency of the network connection irrespective of the type of the network. The network connection unit 22 transmits / receives information to / from the portable terminal of the operator. For example, the network connection unit 22 receives and saves the actual image from the portable terminal, receives the recognized object information through the image analysis based on the augmented reality of the portable terminal, and outputs the machine learning based object recognition result to the portable terminal send. The remote control unit 23, when receiving a remote control request from the portable terminal, shares the screen of the portable terminal and transmits a remote control command to the portable terminal. At this time, it provides necessary process adjustment function.

데이터 처리부(24)는 네트워크 연결부(22)를 통해 휴대단말로부터 수신된 실제영상을 대상으로 학습 데이터에 기반하여 기계학습을 통해 객체를 인식한다. 클라이언트 관리부(25)는 클라이언트의 상태를 확인하고 클라이언트가 정상적으로 작동하는지 작동하지 않으면 어떤 문제가 있는지 파악 후 처리한다. 클라이언트는 작업자가 소지한 휴대단말, 휴대단말에서 실행되는 애플리케이션, 작업 현장 내 각종 장비일 수 있다. 휴대단말은 작업자에 의해 촬영된 실제영상에 증강현실 기반 작업 가이던스 정보를 결합하여 제공한다. 일 실시 예에 따른 클라이언트 관리부(25)는 작업 현장 내 장비들을 모니터링하여 에러를 사전에 예측하고 에러가 발생하기 이전에, 해당 장비에 대한 에러를 처리하기 위한 작업 명령을 생성한다. 생성된 작업 명령은 네트워크 연결부(22)를 통해 작업자의 휴대단말에 전송된다.The data processing unit 24 recognizes the object through machine learning based on the learning data on the actual image received from the portable terminal through the network connection unit 22. [ The client management unit 25 confirms the status of the client, and if the client is operating normally or not, the client management unit 25 detects and identifies a problem. The client may be a mobile terminal carried by an operator, an application executed in a mobile terminal, or various kinds of equipment in a work site. The mobile terminal combines the augment information based on the augmented reality with the actual image taken by the operator. The client management unit 25 according to an embodiment monitors the equipment in the workplace to predict an error in advance and generates a work command for processing an error for the corresponding equipment before an error occurs. The generated work command is transmitted to the portable terminal of the worker through the network connection unit (22).

프로토콜 처리부(26)는 클라이언트의 정상신호를 수신하여 파싱하고 이를 처리하기 위한 통신규약을 구현해주는 소프트웨어 모듈이다. 데이터 분석부(27)는 다수의 클라이언트에 대한 이상징후를 파악하여 안정된 서비스를 할 수 있도록 클라이언트로부터 수신된 데이터를 분석한다. 이때, 분석된 데이터를 미리 설정된 역치값과 비교하여 이상징후를 파악할 수 있다.The protocol processing unit 26 is a software module that implements the communication protocol for receiving and parsing the normal signal of the client and processing the signal. The data analysis unit 27 analyzes the data received from the client so as to obtain a stable service by grasping an abnormal symptom of a plurality of clients. At this time, the analyzed data can be compared with a preset threshold value, and an abnormal symptom can be grasped.

도 8은 본 발명의 일 실시 예에 따른 원격관리장치와 휴대단말 간의 협업을 통한 객체 인식 프로세스를 도시한 흐름도이다.8 is a flowchart illustrating an object recognition process through cooperation between a remote management apparatus and a mobile terminal according to an embodiment of the present invention.

도 8을 참조하면, 휴대단말(3)은 촬영된 실제영상을 원격관리장치(2)와 공유(700)한 후, 증강현실 기반 영상분석을 통해 실제영상 내 객체를 1차 인식한다(710). 그리고 원격관리장치(2)와의 협업을 기초로 하여, 증강현실 기반 영상분석을 통한 객체 인식 결과에, 원격관리장치에서의 기계학습을 통한 객체 인식 결과를 반영하여 객체를 2차 인식한다.Referring to FIG. 8, the portable terminal 3 first shares the photographed actual image with the remote management apparatus 2 (700), and first recognizes the actual image object through the augmented reality-based image analysis (710) . Based on the collaboration with the remote management apparatus 2, the object is secondarily recognized by reflecting the object recognition result through the machine learning in the remote management apparatus to the object recognition result through the augmented reality based image analysis.

원격관리장치(2)와 휴대단말(3)의 협업은, 원격관리장치(2)에서 기계학습을 통해 인식된 장비의 상태와, 휴대단말(3)에서 인식한 장비의 상태와 비교하여 정확도를 높이는 프로세스이다. 이하, 도 8을 참조로 하여 원격관리장치(2)와 휴대단말(3) 간 협상 프로세스를 설명한다.Collaboration between the remote management apparatus 2 and the mobile terminal 3 is performed by comparing the state of the equipment recognized by the machine learning with the state of the equipment recognized by the mobile terminal 3 by the remote management apparatus 2 Height is the process. Hereinafter, a negotiation process between the remote management apparatus 2 and the mobile terminal 3 will be described with reference to FIG.

우선, 휴대단말(3)이 카메라(70)를 통해 실제영상을 촬영하면, 촬영된 실제영상을 원격관리장치(2)와 공유한다(700). 이때, 휴대단말(3)은 영상 처리부에서 증강현실 기반 영상분석을 통해 실제영상 내 객체를 인식한다(710). 원격관리장치(2)는 데이터 처리부에서 기계학습을 통해 학습된 학습 데이터를 이용하여 실제영상 내 객체를 인식한다(720). 휴대단말(3)은 객체 인식(710)과 함께 인식된 객체를 계속해서 트래킹한다(740). 이어서, 가상의 작업 가이던스 정보를 렌더링(750)하여 트래킹된 객체를 포함한 실제환경에 결합하거나, 트래킹된 객체를 포함한 실제환경에 가상의 작업 가이던스 정보를 결합한 후 이를 렌더링(750)하여 증강 콘텐츠를 생성하여 이를 화면에 출력한다. 객체 인식, 트래킹 및 렌더링 작업은 반복 수행될 수 있다.First, when the portable terminal 3 captures an actual image through the camera 70, the captured real image is shared with the remote management apparatus 2 (700). At this time, the portable terminal 3 recognizes the object in the actual image through the augmented reality-based image analysis in the image processing unit 710. The remote management apparatus 2 recognizes the object in the actual image using the learning data learned through the machine learning in the data processing unit (operation 720). The portable terminal 3 continuously tracks the recognized object together with the object recognition 710 (740). Then, the virtual job guidance information is rendered 750 and combined with the actual environment including the tracked object, or the virtual job guidance information is combined with the actual environment including the tracked object and then rendered 750 to generate the augmented content And outputs it to the screen. Object recognition, tracking, and rendering operations can be performed iteratively.

이하, 원격관리장치(2)와의 협업을 통한 객체 인식 프로세스에 대해 설명하면, 휴대단말(3)은 인식된 객체정보를 원격관리장치(2)에 전송한다(730). 예를 들어, 인식된 객체 식별자인 ID: 002를 전송하면서, 객체 인식이 맞는지를 문의한다. 휴대단말(3)로부터 인식된 객체정보를 수신한 원격관리장치(2)는 기계학습을 통해 인식한 객체정보를 휴대단말(3)에 전송한다(732). 예를 들어, 기계학습을 통해 인식된 객체 식별자인 ID: 001을 휴대단말(3)에 전송한다. 객체 식별자 ID: 001를 수신한 휴대단말(3)은 자신이 인식된 객체 식별자와 상이하므로 다시 한 번 객체인식을 수행할 것(Retry)을 원격관리장치(2)에 요청한다(734). 그러면, 원격관리장치(2)는 다시 한 번 기계학습 기반 객체인식을 수행하며, 수행결과에 따라 인식한 객체 식별자인 ID: 001을 휴대단말(3)에 다시 전송한다(736). 객체 식별자 ID: 001을 수신한 휴대단말(3)은 인식 객체 식별자를 ID: 001로 수정하고 원격관리장치(2)에 OK 응답 메시지를 전송한다(738).Hereinafter, the object recognition process through cooperation with the remote management apparatus 2 will be described. The portable terminal 3 transmits the recognized object information to the remote management apparatus 2 (730). For example, it inquires whether the object recognition is correct while transmitting the recognized object identifier ID: 002. The remote management apparatus 2 having received the object information recognized from the portable terminal 3 transmits the recognized object information to the portable terminal 3 through machine learning (732). For example, it transmits ID: 001, which is an object identifier recognized through machine learning, to the portable terminal 3. Since the mobile terminal 3 having received the object identifier ID 001 is different from the recognized object identifier, the remote terminal 2 requests the remote management apparatus 2 to perform object recognition again (734). Then, the remote management apparatus 2 performs the machine learning based object recognition once again, and transmits the recognized object identifier ID: 001 to the portable terminal 3 (736). The mobile terminal 3 having received the object identifier ID: 001 changes the recognized object identifier to ID: 001 and transmits an OK response message to the remote management apparatus 2 (738).

도 9는 본 발명의 일 실시 예에 따른 휴대단말에 작업 가이던스 정보가 표시되는 예를 설명하기 위한 휴대단말 화면이다.FIG. 9 is a portable terminal screen for illustrating an example in which job guidance information is displayed on a portable terminal according to an embodiment of the present invention.

도 9를 참조하면, 휴대단말 화면에는 작업대상을 식별하기 위한 식별자(900)가 표시된다. 이때, 작업대상 내 작업이 필요한 부품을 식별하기 위한 식별자(910)를 더 표시할 수 있다. 이때, 휴대단말 화면에는 작업대상의 상태를 알려주는 상태정보와, 순차적인 작업순서(904)와, 작업에 필요한 작업도구(906) 등이 함께 표시될 수 있다.Referring to FIG. 9, an identifier 900 for identifying a work object is displayed on the portable terminal screen. At this time, it is possible to further display an identifier 910 for identifying a part requiring work in the work subject. At this time, on the portable terminal screen, status information indicating the state of the work subject, a sequential work order 904, a work tool 906 necessary for the work, and the like can be displayed together.

이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.The embodiments of the present invention have been described above. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

1: 원격 가이던스 시스템 2: 원격관리장치
3: 휴대단말 20: 인증 관리부
21: 모니터링부 22: 네트워크 연결부
23: 원격 제어부 24: 데이터 처리부
25: 클라이언트 관리부 26: 프로토콜 처리부
27: 데이터 분석부 30: 영상 획득부
31: 입력부 32: 프로세서
33: 출력부 34: 통신부
35: 메모리 320: 영상 처리부
324: 원격제어 처리부 326: 디바이스 제어부
330: 식별자 표시부 332: 상태 표시부
334: 작업순서 표시부 336: 작업도구 표시부
3200: 객체 인식부 3202: 트래킹부
3204: 증강현실 처리부 3206: 가시화부
1: Remote guidance system 2: Remote management device
3: portable terminal 20: authentication management unit
21: Monitoring section 22: Network connection section
23: remote control unit 24: data processing unit
25: client management unit 26: protocol processing unit
27: Data analysis unit 30: Image acquisition unit
31: input unit 32: processor
33: output unit 34: communication unit
35: memory 320:
324: remote control processing unit 326:
330: identifier display section 332: status display section
334: Operation order display section 336: Operation tool display section
3200: Object recognition unit 3202:
3204: augmented reality processing unit 3206:

Claims (14)

작업자의 현재 시점에서 촬영되는 실제영상을 획득하는 영상 획득부;
획득된 실제영상에서 작업대상을 인식하고 인식된 작업대상을 트래킹하면서 작업대상에 대한 작업을 돕기 위한 가상의 작업 가이던스 정보를, 트래킹된 작업대상을 포함한 실제영상에 정합하여 증강현실 콘텐츠를 생성하는 프로세서; 및
생성된 증강현실 콘텐츠를 출력하는 출력부;
를 포함하는 것을 특징으로 하는 휴대단말.
An image acquiring unit for acquiring an actual image photographed at a current time of the operator;
A processor for recognizing a work object on the acquired actual image and generating virtual reality content by matching virtual work guidance information for assisting work on the work object while tracking the recognized work object to the actual image including the tracked work object, ; And
An output unit for outputting the generated augmented reality contents;
And a portable terminal.
제 1 항에 있어서, 프로세서는
증강현실 기반 영상분석과 기계학습을 이용하여 실제영상에서 객체를 인식하는 객체 인식부;
인식된 객체의 움직임을 트래킹하는 트래킹부;
트래킹된 객체를 포함한 실제환경과 가상환경 간의 상호작용을 계산하고 계산결과를 반영하여 실제환경에 가상환경을 결합한 증강현실 콘텐츠를 생성함에 따라 증강현실을 기반으로 작업 가이던스 정보를 제공하는 증강현실 처리부; 및
증강현실 처리부를 통해 생성된 증강현실 콘텐츠를 출력부에 제공하는 가시화부;
를 포함하는 것을 특징으로 하는 휴대단말.
2. The system of claim 1, wherein the processor
An object recognition unit for recognizing an object in an actual image using augmented reality - based image analysis and machine learning;
A tracking unit for tracking movement of the recognized object;
An augmented reality processing unit for calculating an interaction between a real environment including a tracked object and a virtual environment and reflecting the calculation result to generate augmented reality contents combining a virtual environment with a real environment to provide work guidance information based on the augmented reality; And
A visualization unit for providing the output unit with the augmented reality contents generated through the augmented reality processing unit;
And a portable terminal.
제 2 항에 있어서, 휴대단말은
원격관리장치와 네트워크 연결되어 통신하되, 영상 획득부를 통해 획득된 실제영상을 원격관리장치와 공유하고 휴대단말의 증강현실 기반 영상분석을 통해 인식된 객체정보를 원격관리장치에 전송하며 원격관리장치로부터 기계학습을 통해 인식된 객체정보를 수신하는 통신부; 를 더 포함하며,
객체 인식부는 증강현실 기반 객체 인식결과에 상기 통신부를 통해 수신된 원격관리장치의 기계학습 기반 객체 인식결과를 반영하여 객체를 인식하는 것을 특징으로 하는 휴대단말.
The mobile terminal of claim 2,
The remote management apparatus communicates with the remote management apparatus via a network, and the actual image obtained through the image acquisition unit is shared with the remote management apparatus, and the recognized object information is transmitted to the remote management apparatus through the augmented reality based image analysis of the mobile terminal. A communication unit for receiving object information recognized through machine learning; Further comprising:
Wherein the object recognition unit recognizes the object by reflecting the machine learning based object recognition result of the remote management apparatus received through the communication unit to the augmented reality based object recognition result.
제 2 항에 있어서, 증강현실 처리부는
실제객체와 가상객체와의 상호작용을 계산하고 계산결과를 반영하여 실제영상에 가상객체를 결합한 후 렌더링하거나 가상객체를 렌더링한 후 실제영상에 결합하여 증강현실 콘텐츠를 생성하되, 실제영상에서 작업 가이던스 정보를 표현할 가상객체 위치를 선정하고 선정된 가상객체 위치에 작업순서에 맞게 작업 가이던스 정보를 배치하는 것을 특징으로 하는 휴대단말.
3. The apparatus of claim 2, wherein the augmented reality processing unit
The virtual reality object is generated by combining the virtual object with the actual image after rendering the actual object and the virtual object, calculating the interaction between the actual object and the virtual object, combining the virtual object with the actual image, rendering the virtual object, Selecting a virtual object location to express information, and arranging work guidance information in accordance with a work order at a selected virtual object location.
제 2 항에 있어서, 증강현실 처리부는
미리 정의된 템플릿에 기초하여 작업 매뉴얼에 따라 동적으로 가공할 수 있는 스크립팅 툴을 통해 미리 제작된 작업 가이던스 정보를 입력받아 이를 증강현실 콘텐츠 생성에 사용하는 것을 특징으로 하는 휴대단말.
3. The apparatus of claim 2, wherein the augmented reality processing unit
Wherein the mobile terminal receives input of work guidance information generated in advance through a scripting tool that can be dynamically processed according to a job manual based on a predefined template and uses the job guidance information to generate an augmented reality content.
제 2 항에 있어서, 프로세서는
원격관리장치에 원격제어를 요청하고 원격관리장치의 원격제어에 따라 원격으로 휴대단말 화면을 공유하는 원격제어 처리부; 및
원격관리장치의 제어요청을 처리하는 디바이스 제어부;
를 더 포함하는 것을 특징으로 하는 휴대단말.
3. The system of claim 2, wherein the processor
A remote control processor for requesting a remote control device for remote control and sharing the screen of the portable terminal remotely according to the remote control of the remote control device; And
A device control unit for processing a control request of the remote management apparatus;
Further comprising:
제 1 항에 있어서, 출력부는
작업대상을 식별하기 위한 가상객체를 화면에 표시하는 식별자 표시부;
작업대상의 상태를 알려주는 가상객체를 화면에 표시하는 상태 표시부;
순차적인 작업순서를 안내하는 가상객체를 화면에 표시하는 작업순서 표시부; 및
작업에 필요한 도구를 알려주는 가상객체를 화면에 표시하는 작업도구 표시부;
를 포함하는 것을 특징으로 하는 휴대단말.
2. The apparatus of claim 1, wherein the output
An identifier display unit for displaying a virtual object for identifying a work object on a screen;
A status display unit for displaying a virtual object informing a status of a work subject on a screen;
A work order display unit for displaying a virtual object guiding a sequential work order on a screen; And
A work tool display unit for displaying on the screen a virtual object informing a tool necessary for the work;
And a portable terminal.
작업 현장에서 작업자에 의해 촬영된 실제영상에 증강현실 기반 작업 가이던스 정보를 결합하여 제공하는 휴대단말을 관리하는 클라이언트 관리부;
휴대단말로부터 실제영상을 수신하여 공유하고 휴대단말의 증강현실에 기반한 영상분석을 통해 인식된 객체정보를 수신하며 기계학습 기반 객체 인식결과를 휴대단말에 전송하는 네트워크 연결부; 및
수신된 실제영상을 대상으로 기계학습 기반 학습 데이터를 이용하여 객체를 인식하는 데이터 처리부;
를 포함하는 것을 특징으로 하는 원격관리장치.
A client management unit for managing a mobile terminal that combines augmented reality based job guidance information with an actual image photographed by a worker at a job site;
A network connection unit for receiving and sharing an actual image from a portable terminal, receiving recognized object information through image analysis based on an augmented reality of the portable terminal, and transmitting the machine learning based object recognition result to the portable terminal; And
A data processor for recognizing the object using the machine learning based learning data on the received actual image;
The remote management apparatus comprising:
제 8 항에 있어서,
상기 클라이언트 관리부는 작업 현장 내 장비들을 모니터링하여 에러를 사전에 예측하고 에러가 발생하기 이전에, 해당 장비에 대한 에러를 처리하기 위한 작업 명령을 생성하며,
상기 네트워크 연결부는 생성된 작업 명령을 휴대단말에 전송하는 것을 특징으로 하는 원격관리장치.
9. The method of claim 8,
The client management unit monitors equipment in a worksite to predict an error in advance and generates a work command for processing an error for the equipment before an error occurs,
And the network connection unit transmits the created work command to the mobile terminal.
제 8 항에 있어서, 원격관리장치는
휴대단말로부터 원격제어 요청을 수신하고 원격으로 휴대단말의 화면을 공유하며 원격 제어명령을 휴대단말에 전송하여 원격 엔지니어링을 수행하는 원격 제어부;
를 더 포함하는 것을 특징으로 하는 원격 가이던스 시스템.
9. The system according to claim 8, wherein the remote management apparatus
A remote controller for receiving a remote control request from a portable terminal, remotely sharing a screen of the portable terminal, and transmitting a remote control command to the portable terminal to perform remote engineering;
Wherein the remote guidance system further comprises:
제 8 항에 있어서, 상기 원격관리장치는
클라우드에 기반하여 동작하는 것을 특징으로 하는 원격관리장치.
9. The system according to claim 8, wherein the remote management apparatus
Wherein the remote management device operates based on the cloud.
휴대단말을 이용한 원격 가이던스 방법에 있어서, 휴대단말이:
작업자의 현재 시점에서 촬영되는 실제영상을 획득하는 단계;
획득된 실제영상에서 작업대상을 인식하는 단계;
인식된 작업대상을 트래킹하는 단계;
작업대상에 대한 작업을 돕기 위한 가상의 작업 가이던스 정보를, 트래킹된 작업대상을 포함한 실제영상에 정합하여 증강현실 콘텐츠를 생성하는 단계; 및
생성된 증강현실 콘텐츠를 출력하는 단계;
를 포함하는 것을 특징으로 하는 원격 가이던스 방법.
A remote guidance method using a mobile terminal, the mobile terminal comprising:
Obtaining an actual image photographed at a current time of the operator;
Recognizing a work object from the obtained actual image;
Tracking the recognized work object;
Generating augmented reality contents by matching virtual work guidance information for assisting an operation on a work subject to an actual image including a tracked work object; And
Outputting the generated augmented reality contents;
The remote guidance method comprising:
제 12 항에 있어서, 상기 작업대상을 인식하는 단계는
촬영된 실제영상을, 네트워크 연결된 원격관리장치와 공유하는 단계;
증강현실 기반 영상분석을 통해 실제영상 내 객체를 1차 인식하는 단계;
원격관리장치와의 협업을 기초로 하여, 증강현실 기반 영상분석을 통한 객체 인식 결과에, 원격관리장치에서의 기계학습을 통한 객체 인식 결과를 반영하여 객체를 2차 인식하는 단계;
를 포함하는 것을 특징으로 하는 원격 가이던스 방법.
13. The method of claim 12, wherein recognizing the object comprises:
Sharing a photographed actual image with a network-connected remote management apparatus;
Recognizing an object in a real image through augmented reality-based image analysis;
A second recognition step of recognizing an object based on the collaboration with the remote management apparatus, the object recognition result through the augmented reality based image analysis by reflecting the object recognition result through the machine learning in the remote management apparatus;
The remote guidance method comprising:
제 13 항에 있어서, 상기 객체를 2차 인식하는 단계는
증강현실 기반 영상분석을 통해 인식된 객체정보를 원격관리장치에 전송하는 단계;
원격관리장치로부터 기계학습을 통해 인식된 객체정보를 수신하는 단계;
원격관리장치로부터 수신된 객체정보와 휴대단말을 통해 인식된 객체정보를 비교하여, 상이하면 재차 객체인식을 수행할 것을 원격관리장치에 요청하는 단계;
기계학습 기반 객체인식 수행결과를 원격관리장치로부터 수신하는 단계;
수신된 객체인식 수행결과를 반영하여 휴대단말의 객체인식 결과를 수정하는 단계;
를 포함하는 것을 특징으로 하는 원격 가이던스 방법.
14. The method of claim 13, wherein the secondary recognition of the object
Transmitting the recognized object information to the remote management apparatus through the augmented reality-based image analysis;
Receiving object information recognized through machine learning from a remote management apparatus;
Comparing the object information received from the remote management apparatus with the object information recognized through the mobile terminal, and requesting the remote management apparatus to perform object recognition again if the object information is different;
Receiving a machine learning based object recognition execution result from a remote management apparatus;
Modifying the object recognition result of the mobile terminal by reflecting the received object recognition result;
The remote guidance method comprising:
KR1020180013508A 2017-11-17 2018-02-02 Mobile terminal providing augmented reality based maintenance guidance, remote managing apparatus and method for remote guidance using the same KR102031670B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170154254 2017-11-17
KR20170154254 2017-11-17

Publications (2)

Publication Number Publication Date
KR20190056935A true KR20190056935A (en) 2019-05-27
KR102031670B1 KR102031670B1 (en) 2019-10-14

Family

ID=66679506

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180013508A KR102031670B1 (en) 2017-11-17 2018-02-02 Mobile terminal providing augmented reality based maintenance guidance, remote managing apparatus and method for remote guidance using the same

Country Status (1)

Country Link
KR (1) KR102031670B1 (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102046751B1 (en) * 2019-06-04 2019-11-19 박건형 Playground controlling system and control method thereof
CN110609913A (en) * 2019-09-18 2019-12-24 中国工商银行股份有限公司 Information processing method and device, electronic device and medium
KR102124860B1 (en) * 2019-11-28 2020-07-03 주식회사 메인소프트 Method, apparatus, and computer program for seat placement simulation using augmented reality
CN112017298A (en) * 2019-05-31 2020-12-01 佛山市顺德区美的电热电器制造有限公司 Information processing method, information processing apparatus, storage medium, and server
KR102186821B1 (en) * 2019-06-25 2020-12-04 티팟스튜디오 주식회사 Method for providing ar information based on 3d object recognition using deep learning and system using the same
CN112130666A (en) * 2020-09-16 2020-12-25 博彦科技(上海)有限公司 Data processing method and system
KR102239769B1 (en) * 2019-11-29 2021-04-13 호원대학교산학협력단 Network security method using ship maintenance support network system
KR20210061173A (en) 2019-11-19 2021-05-27 (주)프론티스 Augmented reality remote support system and operating method thereof
KR20210062989A (en) * 2019-11-22 2021-06-01 주식회사 코이노 Augmented reality based remote guidance system using cognitive factors and method thereof
KR20210062988A (en) * 2019-11-22 2021-06-01 주식회사 코이노 Multilateral participation remote collaboration system based on Augmented reality sharing and method thereof
KR102266453B1 (en) * 2020-09-18 2021-06-17 한국광기술원 Apparatus and method for Object tracking in welding process
KR20210086207A (en) * 2019-12-31 2021-07-08 주식회사 버넥트 Method for providng work guide based augmented reality and evaluating work proficiency according to the work guide
KR102290549B1 (en) * 2020-03-05 2021-08-19 주식회사 딥파인 AR Contents Production System
CN113283347A (en) * 2021-05-28 2021-08-20 中德(珠海)人工智能研究院有限公司 Assembly work guidance method, device, system, server and readable storage medium
KR20210121609A (en) * 2020-03-30 2021-10-08 주식회사 코이노 Apparatus for remote guide and method thereof
KR20210131581A (en) * 2020-04-24 2021-11-03 (주)오픈웍스 Workplace Safety Management Apparatus Based on Virtual Reality and Driving Method Thereof
KR102370131B1 (en) * 2021-12-14 2022-03-03 이수행 Artificial intelligence(AI) integrated production management system using inventory detection system and integrated production management method using the same
WO2022155253A1 (en) * 2021-01-14 2022-07-21 Taqtile, Inc. Coordinating operations within an xr environment from remote locations
KR20220114832A (en) * 2021-02-09 2022-08-17 엔컴네트웍스 주식회사 Method for providing maintenance service based on ar and server using the same
WO2024014584A1 (en) * 2022-07-15 2024-01-18 엘지전자 주식회사 Artificial intelligence device, and method for providing target device manual thereof

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220120885A (en) 2021-02-24 2022-08-31 한화디펜스 주식회사 Information providing apparatus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120010041A (en) * 2010-07-23 2012-02-02 세종대학교산학협력단 Method and system for authoring of augmented reality contents on mobile terminal environment
KR101195446B1 (en) * 2012-01-26 2012-12-24 이에스이 주식회사 A portable terminal providing maintenance guide based on augmented reality and the method of providing maintenance guide using the same
KR20130067450A (en) * 2011-12-14 2013-06-24 한국전자통신연구원 Field applied safety helmet apparatus for ar-based of maintenance and method for providing its application service
KR20150105131A (en) * 2014-03-07 2015-09-16 한국전자통신연구원 System and method for augmented reality control

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120010041A (en) * 2010-07-23 2012-02-02 세종대학교산학협력단 Method and system for authoring of augmented reality contents on mobile terminal environment
KR20130067450A (en) * 2011-12-14 2013-06-24 한국전자통신연구원 Field applied safety helmet apparatus for ar-based of maintenance and method for providing its application service
KR101195446B1 (en) * 2012-01-26 2012-12-24 이에스이 주식회사 A portable terminal providing maintenance guide based on augmented reality and the method of providing maintenance guide using the same
KR20150105131A (en) * 2014-03-07 2015-09-16 한국전자통신연구원 System and method for augmented reality control

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112017298A (en) * 2019-05-31 2020-12-01 佛山市顺德区美的电热电器制造有限公司 Information processing method, information processing apparatus, storage medium, and server
KR102046751B1 (en) * 2019-06-04 2019-11-19 박건형 Playground controlling system and control method thereof
KR102186821B1 (en) * 2019-06-25 2020-12-04 티팟스튜디오 주식회사 Method for providing ar information based on 3d object recognition using deep learning and system using the same
CN110609913A (en) * 2019-09-18 2019-12-24 中国工商银行股份有限公司 Information processing method and device, electronic device and medium
KR20210061173A (en) 2019-11-19 2021-05-27 (주)프론티스 Augmented reality remote support system and operating method thereof
KR20210062988A (en) * 2019-11-22 2021-06-01 주식회사 코이노 Multilateral participation remote collaboration system based on Augmented reality sharing and method thereof
KR20210062989A (en) * 2019-11-22 2021-06-01 주식회사 코이노 Augmented reality based remote guidance system using cognitive factors and method thereof
KR102124860B1 (en) * 2019-11-28 2020-07-03 주식회사 메인소프트 Method, apparatus, and computer program for seat placement simulation using augmented reality
KR102239769B1 (en) * 2019-11-29 2021-04-13 호원대학교산학협력단 Network security method using ship maintenance support network system
KR20210086207A (en) * 2019-12-31 2021-07-08 주식회사 버넥트 Method for providng work guide based augmented reality and evaluating work proficiency according to the work guide
KR102290549B1 (en) * 2020-03-05 2021-08-19 주식회사 딥파인 AR Contents Production System
KR20210121609A (en) * 2020-03-30 2021-10-08 주식회사 코이노 Apparatus for remote guide and method thereof
KR20210131581A (en) * 2020-04-24 2021-11-03 (주)오픈웍스 Workplace Safety Management Apparatus Based on Virtual Reality and Driving Method Thereof
CN112130666A (en) * 2020-09-16 2020-12-25 博彦科技(上海)有限公司 Data processing method and system
KR102266453B1 (en) * 2020-09-18 2021-06-17 한국광기술원 Apparatus and method for Object tracking in welding process
WO2022155253A1 (en) * 2021-01-14 2022-07-21 Taqtile, Inc. Coordinating operations within an xr environment from remote locations
KR20220114832A (en) * 2021-02-09 2022-08-17 엔컴네트웍스 주식회사 Method for providing maintenance service based on ar and server using the same
CN113283347A (en) * 2021-05-28 2021-08-20 中德(珠海)人工智能研究院有限公司 Assembly work guidance method, device, system, server and readable storage medium
CN113283347B (en) * 2021-05-28 2024-02-27 中德(珠海)人工智能研究院有限公司 Assembly job guidance method, device, system, server and readable storage medium
KR102370131B1 (en) * 2021-12-14 2022-03-03 이수행 Artificial intelligence(AI) integrated production management system using inventory detection system and integrated production management method using the same
WO2024014584A1 (en) * 2022-07-15 2024-01-18 엘지전자 주식회사 Artificial intelligence device, and method for providing target device manual thereof

Also Published As

Publication number Publication date
KR102031670B1 (en) 2019-10-14

Similar Documents

Publication Publication Date Title
KR102031670B1 (en) Mobile terminal providing augmented reality based maintenance guidance, remote managing apparatus and method for remote guidance using the same
KR102132330B1 (en) Remote guidance apparatus and method capable of handling hyper-motion step based on augmented reality and machine learning
US10445944B2 (en) Augmented reality safety automation zone system and method
US11265513B2 (en) Virtual reality and augmented reality for industrial automation
US10535202B2 (en) Virtual reality and augmented reality for industrial automation
EP2966617B1 (en) System comprising image data generating device and portable terminal device
CN108255127B (en) Industrial field remote monitoring management system and method based on industrial human-computer interface
KR102439337B1 (en) Multilateral participation remote collaboration system based on Augmented reality sharing and method thereof
JP2015204615A (en) Method and system for interacting between equipment and moving device
US20130158678A1 (en) Method of control of technical equipment
KR101874351B1 (en) System and method for management of devices based on internet of things and computer program for the same
US20180299863A1 (en) Combined visualization thin client hmi system and method
KR102371336B1 (en) Smart factory monitoring system using 3 Dimention integrated monitoring and Augmented Reality and Virtual Reality
KR102010030B1 (en) Method and system for providing mixed reality service
KR101780301B1 (en) Unification system of building automation using Virtual Reality
Kim et al. Smart connected worker edge platform for smart manufacturing: Part 1—Architecture and platform design
KR102367965B1 (en) Augmented reality based remote guidance system using cognitive factors and method thereof
WO2022032688A1 (en) Method for remote assistance and device
KR20240039628A (en) Augmented reality-based remote control system and method thereof
KR20230028702A (en) Augmented reality-based remote system for non-face-to-face collaboration between experts
US20140214185A1 (en) Somatosensory Household Electricity Control Equipment and System Thereof
KR101803383B1 (en) Semiconductor Factory Automation Solution System based on SECS Communication Protocol
EP3306894A1 (en) Generation of augmented reality
EP2479734A1 (en) Method for monitoring and controlling of parameters of industrial process

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant