KR102132330B1 - Remote guidance apparatus and method capable of handling hyper-motion step based on augmented reality and machine learning - Google Patents

Remote guidance apparatus and method capable of handling hyper-motion step based on augmented reality and machine learning Download PDF

Info

Publication number
KR102132330B1
KR102132330B1 KR1020180148755A KR20180148755A KR102132330B1 KR 102132330 B1 KR102132330 B1 KR 102132330B1 KR 1020180148755 A KR1020180148755 A KR 1020180148755A KR 20180148755 A KR20180148755 A KR 20180148755A KR 102132330 B1 KR102132330 B1 KR 102132330B1
Authority
KR
South Korea
Prior art keywords
work
work step
augmented reality
manual
user
Prior art date
Application number
KR1020180148755A
Other languages
Korean (ko)
Other versions
KR20200068075A (en
Inventor
민 장
오주병
김효철
Original Assignee
주식회사 코이노
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 코이노 filed Critical 주식회사 코이노
Priority to KR1020180148755A priority Critical patent/KR102132330B1/en
Publication of KR20200068075A publication Critical patent/KR20200068075A/en
Application granted granted Critical
Publication of KR102132330B1 publication Critical patent/KR102132330B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/20Administration of product repair or maintenance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Human Resources & Organizations (AREA)
  • Software Systems (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Manufacturing & Machinery (AREA)
  • Educational Technology (AREA)
  • Artificial Intelligence (AREA)
  • Primary Health Care (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Educational Administration (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

하이퍼모션 단계 처리가 가능한 증강현실 및 기계학습 기반 원격 가이던스 장치 및 그 방법이 개시된다. 일 실시 예에 따른 사용자 단말에 구비되는 원격 가이던스 장치는, 작업자의 현장상황을 촬영한 현재영상을 입력받는 입력부와, 입력부로부터 수신된 현재영상에서 작업대상을 인식하고 인식된 작업대상을 포함한 현재영상에 가상의 작업 매뉴얼을 정합하여 증강현실 매뉴얼을 제공하며, 사용자 조작신호에 따라 증강현실 매뉴얼을 구성하는 다수의 작업 단계 중에서 사용자 조작에 대응되는 작업 단계로 접근하여 해당 작업 단계 화면을 제공하는 제어부와, 증강현실 매뉴얼 화면을 표시하는 출력부를 포함한다.Disclosed is an augmented reality and machine learning based remote guidance device capable of processing hypermotion steps and a method therefor. The remote guidance device provided in the user terminal according to an embodiment of the present invention includes an input unit that receives a current image photographing a field situation of an operator, and recognizes a work object from the current image received from the input unit, and recognizes the current work object. And a control unit that provides a corresponding augmented reality manual by matching a virtual work manual to a work step corresponding to a user manipulation among a plurality of work steps constituting the augmented reality manual according to a user manipulation signal. , An output unit displaying an augmented reality manual screen.

Figure R1020180148755
Figure R1020180148755

Description

하이퍼모션 단계 처리가 가능한 증강현실 및 기계학습 기반 원격 가이던스 장치 및 그 방법 {Remote guidance apparatus and method capable of handling hyper-motion step based on augmented reality and machine learning}Remote guidance apparatus and method capable of handling hyper-motion step based on augmented reality and machine learning}

본 발명은 증강현실 기반 영상분석 및 원격제어 기술에 관한 것이다.The present invention relates to augmented reality based image analysis and remote control technology.

장비의 유지관리를 하기 위해서는 수년간의 경험이 필요하고, 숙련자라 할지라도 신규 장비 도입시 이를 숙지하는데 오랜 시간이 소요된다. 또한, 아무리 숙련자라 할지라도 모든 정비 절차를 숙지하고 있을 수가 없고, 언제 어떤 정비 요구가 발생할지 예측하기가 어렵다. 이에 따라, 정비사들은 장비 유지 보수를 위한 매뉴얼을 항상 휴대하여, 유지보수 업무를 수행하여 왔다.In order to maintain the equipment, many years of experience are required, and even a skilled person takes a long time to understand it when introducing new equipment. Also, no matter how skilled, it is difficult to know all the maintenance procedures, and it is difficult to predict when and what maintenance needs will occur. Accordingly, mechanics have carried out maintenance work by always carrying a manual for equipment maintenance.

유지 보수를 위한 매뉴얼은 일반적으로 책으로 제작되어 있거나, 2D 이미지로 제작되어 있다. 책으로 제작된 매뉴얼의 문제점은 1개의 부품이라도 고장 날 경우에 해당 페이지를 일일이 찾아야 하고 매뉴얼이 오래되면 색이 변질되거나 손상이 심해지는 문제점이 있다. 항공기 등과 같이 복잡한 형태의 기계 장비의 경우에는 수십만 가지 상의 매뉴얼이 필요하기 때문에, 그 양이 방대하여 휴대가 불가능하다.Manuals for maintenance are generally produced in books or 2D images. The problem with manuals made of books is that even if one part fails, the corresponding page must be found individually, and if the manual is old, the color is changed or the damage is severe. In the case of a complex type of mechanical equipment such as an aircraft, hundreds of thousands of manuals are required, so the amount is vast and cannot be carried.

이러한 유지 보수 등의 문제는 비단 산업현장에만 한정되는 것은 아니다. 예를 들어, 가정집에서 냉장고가 고장난 경우 소비자는 스스로 고칠 수 없는 경우가 대부분이어서, 별도의 전문가를 불러 수리해야 하는 경우가 많다. 이때, 문제 해결까지 시간, 비용 등이 많이 소요되어 비효율적이다.Problems such as maintenance are not limited to industrial sites. For example, in the case of a refrigerator failure in a home, the consumer is often unable to fix it himself, and often requires a separate specialist to repair it. At this time, it takes a lot of time and money to solve the problem, which is inefficient.

일 실시 예에 따라, 복잡한 구조의 장비일지라도 또는 숙련된 작업자가 아닐지라도 증강현실에 기반하여 제공되는 순차적인 지시에 따라 쉽고 빠르게 작업할 수 있으며, 다단계 조작이 필요한 경우에도 쉽고 빠르게 조작할 수 있도록 하이퍼모션 단계 처리가 가능한 증강현실 및 기계학습 기반 원격 가이던스 장치 및 그 방법을 제안한다.According to one embodiment, even if it is a complex structured equipment or an unskilled worker, it is possible to work quickly and easily according to the sequential instructions provided based on augmented reality, and it can be operated quickly and easily even when multi-step operation is required. We propose an augmented reality and machine learning-based remote guidance device capable of processing motion steps and a method therefor.

일 실시 예에 따른 사용자 단말에 구비되는 원격 가이던스 장치는, 작업자의 현장상황을 촬영한 현재영상을 입력받는 입력부와, 입력부로부터 수신된 현재영상에서 작업대상을 인식하고 인식된 작업대상을 포함한 현재영상에 가상의 작업 매뉴얼을 정합하여 증강현실 매뉴얼을 제공하며, 사용자 조작신호에 따라 증강현실 매뉴얼을 구성하는 다수의 작업 단계 중에서 사용자 조작에 대응되는 작업 단계로 접근하여 해당 작업 단계 화면을 제공하는 제어부와, 증강현실 매뉴얼 화면을 표시하는 출력부를 포함한다.The remote guidance device provided in the user terminal according to an embodiment of the present invention includes an input unit that receives a current image photographing a field situation of an operator, and recognizes a work object from the current image received from the input unit, and recognizes the current work object. And a control unit that provides a corresponding augmented reality manual by matching a virtual work manual to a work step corresponding to a user manipulation among a plurality of work steps constituting the augmented reality manual according to a user manipulation signal. , An output unit displaying an augmented reality manual screen.

사용자 조작신호는 사용자의 화면 터치 신호, 음성신호, 영상 신호 및 생체 신호 중 적어도 하나를 포함할 수 있다. 사용자 조작에 대응되는 작업 단계로의 접근은, 현재 작업 단계를 기준으로 역방향으로의 작업 단계 이동, 순방향으로의 작업 단계 이동, 현재 작업 단계의 반복, 처음 작업 단계로의 이동 또는 다른 증강현실 매뉴얼로의 이동을 포함할 수 있다.The user manipulation signal may include at least one of a user's screen touch signal, audio signal, image signal, and bio signal. The access to the work step corresponding to the user operation can be performed by moving the work step in the reverse direction based on the current work step, moving the work step in the forward direction, repeating the current work step, moving to the first work step or other augmented reality manual. It may include the movement of.

출력부는 다수의 작업 단계로 구성된 증강현실 매뉴얼을 대상으로 단계 상태를 파악할 수 있는 프로세스 마커를 화면에 표시하고, 프로세스 마커는 증강현실 매뉴얼 별 식별자 정보와, 증강현실 매뉴얼 내 각 작업 단계 별 식별자 정보와, 사용자가 원하는 작업 단계로의 접근을 위해 현재 작업 단계를 기준으로 적어도 하나의 작업 단계 식별자에 할당되는 마커 정보를 포함할 수 있다.The output unit displays a process marker on the screen for augmented reality manual composed of a plurality of work steps to determine the step status, and the process marker includes identifier information for each augmented reality manual and identifier information for each work step in the augmented reality manual. , May include marker information assigned to at least one work step identifier based on the current work step for access to a work step desired by the user.

입력부는 사용자로부터 화면 터치 신호를 입력받는 터치 입력부를 포함하며, 제어부는 화면에 표시된 프로세스 마커를 대상으로 터치 입력부로부터 사용자 터치 신호를 수신하여 사용자 터치를 인식하고 증강현실 매뉴얼을 구성하는 다수의 작업 단계 중에서 인식된 터치에 대응되는 작업 단계로 접근하여 해당 작업 단계 화면을 제공하는 터치 인식부를 포함할 수 있다.The input unit includes a touch input unit that receives a screen touch signal from a user, and the control unit receives a user touch signal from the touch input unit targeting the process marker displayed on the screen, recognizes the user touch, and configures augmented reality manual. It may include a touch recognition unit that accesses to a work step corresponding to the recognized touch and provides a corresponding work step screen.

입력부는 사용자로부터 음성신호를 입력받는 음성 입력부를 포함하며, 제어부는 증강현실 매뉴얼을 구성하는 작업 단계들에 식별자 정보와 위치정보를 가지는 음성인식 부호를 할당하며, 음성 입력부로부터 사용자 음성신호를 수신하여 사용자 음성을 인식하고 다수의 작업 단계 중에서 인식된 음성에 대응되는 음성인식 부호가 할당된 작업 단계로 접근하여 해당 작업 단계 화면을 제공하는 음성 인식부를 포함할 수 있다.The input unit includes a voice input unit that receives a voice signal from a user, and the control unit allocates a voice recognition code having identifier information and location information to work steps constituting the augmented reality manual, and receives a user voice signal from the voice input unit. It may include a voice recognition unit for recognizing a user's voice and accessing a work step to which a voice recognition code corresponding to the recognized voice is assigned among a plurality of work steps to provide a corresponding work step screen.

입력부는 사용자를 대상으로 촬영된 생체 이미지를 입력받는 생체 입력부; 를 포함하며, 제어부는 증강현실 매뉴얼을 구성하는 작업 단계들에 식별자 정보와 위치정보를 가지는 생체인식 부호를 할당하며, 생체 입력부로부터 사용자 생체 이미지를 수신하여 사용자의 얼굴 및 신체를 감지하고 감지된 얼굴 및 신체정보에서 표정 또는 모션을 인식하며 다수의 작업 단계 중에서 인식된 표정 또는 모션에 대응되는 생체인식 부호가 할당된 작업 단계로 접근하여 해당 작업 단계 화면을 제공하는 생체 인식부를 포함할 수 있다.The input unit includes a bio-input unit that receives a bio-image photographed for a user; Including, the control unit assigns a biometric code having identifier information and location information to work steps constituting the augmented reality manual, receives the user's biometric image from the biometric input unit, detects the user's face and body, and detects the detected face And a biometric recognition unit that recognizes an expression or a motion from the body information and accesses a work step to which a biometric code corresponding to the recognized expression or motion is assigned among a plurality of work steps to provide a corresponding work step screen.

입력부는 실시간으로 작업현장을 촬영한 현재상황 영상을 획득하는 영상 입력부를 포함하며, 제어부는 증강현실에 기반하여 현재영상에서 객체를 인식하고, 인식된 객체의 움직임을 트래킹하며, 트래킹되는 실제객체에 대해 증강현실 기반 작업 가이던스 정보에 해당하는 가상객체를 결합하여 렌더링하거나, 가상객체를 렌더링한 후 이를 실제객체에 결합하여 증강현실 매뉴얼을 생성하는 영상 인식부를 포함할 수 있다. 원격 가이던스 장치는 원격 서버와 네트워크 연결되어 입력부를 통해 획득된 현재영상을 원격 서버에 전송하여 공유하고 원격 가이던스 장치의 증강현실 기반 영상분석을 통해 인식된 객체정보를 원격 서버에 전송하며 원격 서버로부터 기계학습을 통해 인식된 객체정보를 수신하는 통신부를 더 포함하며, 영상 인식부는 증강현실 기반 객체의 윤곽선 인식결과에 통신부로부터 수신된 원격 서버의 기계학습 기반 객체 인식결과를 반영하여 증강현실 기반 객체의 윤곽선 인식 시에 파악되지 못한 객체를 인식할 수 있다.The input unit includes an image input unit for acquiring a current situation image of a work site in real time, and the control unit recognizes an object in the current image based on augmented reality, tracks the movement of the recognized object, and tracks the actual object to be tracked. It may include an image recognition unit that combines and renders virtual objects corresponding to augmented reality-based work guidance information, or renders virtual objects and combines them with real objects to generate an augmented reality manual. The remote guidance device is networked with the remote server and transmits and shares the current image acquired through the input unit to the remote server, transmits the object information recognized through the augmented reality based image analysis of the remote guidance device to the remote server, and sends the machine from the remote server. Further comprising a communication unit for receiving the object information recognized through the learning, the image recognition unit reflects the machine learning-based object recognition result of the remote server received from the communication unit in the contour recognition result of the augmented reality-based object, the contour of the augmented reality-based object Objects not recognized at the time of recognition can be recognized.

원격 가이던스 장치는 작업대상에 구비된 프로세스 마커와 근거리 무선통신이 가능한 통신부를 더 포함하며, 제어부는 통신부로부터 수신된 무선신호에 의해 프로세스 마커를 인식하고 인식된 프로세스 마커에 기록된 작업 단계를 파악하며 파악된 작업 단계 중에 사용자 조작에 의해 사용자가 원하는 작업 단계로 접근하여 해당 작업 단계 화면을 제공하는 무선신호 인식부를 포함할 수 있다.The remote guidance device further includes a process marker provided in the work object and a communication unit capable of short-range wireless communication, and the control unit recognizes the process marker by the radio signal received from the communication unit and identifies the work step recorded in the recognized process marker, It may include a wireless signal recognition unit to access the desired work step by the user manipulation during the identified work step to provide a screen of the work step.

다른 실시 예에 따른 사용자 단말에 구비된 원격 가이던스 장치를 이용한 원격 가이던스 방법은, 원격 가이던스 장치가: 작업자의 현장상황을 촬영한 현재영상을 획득하여 현재영상에서 작업대상을 인식하고 인식된 작업대상을 트래킹하는 단계와, 트래킹된 작업대상에 대해 작업자의 작업을 가이드하기 위한 작업 매뉴얼을 획득하는 단계와, 트래킹된 작업대상을 포함한 현재영상에, 수신된 가상의 작업 매뉴얼을 정합하여 증강현실 매뉴얼을 제공하는 단계와, 사용자 조작신호를 수신하여 사용자 조작을 인식하고 증강현실 매뉴얼을 구성하는 다수의 작업 단계 중에서 해당 작업 단계 화면을 제공하는 단계를 포함한다.In a remote guidance method using a remote guidance device provided in a user terminal according to another embodiment, the remote guidance device: acquires a current image of a worker's field situation, recognizes a work object from the current image, and recognizes the recognized work object. Tracking, acquiring a work manual for guiding a worker's work on the tracked work target, and matching the received virtual work manual to the current image including the tracked work target to provide an augmented reality manual And receiving a user operation signal to recognize a user operation and providing a corresponding operation step screen among a plurality of operation steps constituting the augmented reality manual.

원격 가이던스 제공 방법은, 다수의 작업 단계로 구성된 증강현실 매뉴얼을 대상으로 단계 상태를 파악할 수 있는 프로세스 마커를 화면에 표시하는 단계를 더 포함하며, 프로세스 마커는 증강현실 매뉴얼 별 식별자 정보와, 증강현실 매뉴얼 내 각 작업 단계 별 식별자 정보와, 사용자가 원하는 작업 단계로의 접근을 위해 현재 작업 단계를 기준으로 적어도 하나의 작업 단계 식별자에 할당되는 마커 정보를 포함할 수 있다.The method for providing remote guidance further includes displaying a process marker on the screen for augmented reality manual composed of a plurality of work steps to identify a step status, and the process marker includes identifier information for each augmented reality manual and augmented reality It may include identifier information for each work step in the manual, and marker information assigned to at least one work step identifier based on a current work step for access to a work step desired by a user.

해당 작업 단계 화면을 제공하는 단계에서, 화면에 표시된 프로세스 마커를 대상으로 사용자로부터 터치 신호를 입력받아 사용자 터치를 인식하고 증강현실 매뉴얼을 구성하는 다수의 작업 단계 중에서 인식된 터치에 대응되는 작업 단계로 접근하여 해당 작업 단계 화면을 제공할 수 있다.In the step of providing the corresponding work step screen, the process marker displayed on the screen receives a touch signal from the user, recognizes the user touch, and is a work step corresponding to the recognized touch among a plurality of work steps constituting the augmented reality manual. You can access and provide the corresponding work step screen.

원격 가이던스 제공 방법은 증강현실 매뉴얼을 구성하는 작업 단계들에 식별자 정보와 위치정보를 가지는 음성인식 부호를 할당하는 단계를 더 포함하며, 해당 작업 단계 화면을 제공하는 단계에서, 사용자로부터 음성신호를 입력받아 사용자 음성을 인식하고 다수의 작업 단계 중에서 인식된 음성에 대응되는 음성인식 부호가 할당된 작업 단계로 접근하여 해당 작업 단계 화면을 제공할 수 있다.The method for providing remote guidance further includes assigning a voice recognition code having identifier information and location information to work steps constituting the augmented reality manual, and inputting a voice signal from a user in the step of providing a corresponding work step screen. Receiving a user's voice and recognizing a voice recognition code corresponding to the recognized voice among a plurality of work steps may be approached to the assigned work step to provide a corresponding work step screen.

원격 가이던스 제공 방법은, 증강현실 매뉴얼을 구성하는 작업 단계들에 식별자 정보와 위치정보를 가지는 생체인식 부호를 할당하는 단계를 더 포함하며, 해당 작업 단계 화면을 제공하는 단계에서, 사용자를 대상으로 촬영된 생체 이미지를 입력받아 사용자의 얼굴 및 신체를 감지하고 감지된 얼굴 및 신체정보에서 표정 및 모션을 인식하며 다수의 작업 단계 중에서 인식된 표정 또는 모션에 대응되는 생체인식 부호가 할당된 작업 단계로 접근하여 해당 작업 단계 화면을 제공할 수 있다.The method for providing remote guidance further includes assigning a biometric code having identifier information and location information to work steps constituting the augmented reality manual, and in the step of providing a corresponding work step screen, photographing the user Receives the received biometric image, detects the user's face and body, recognizes facial expressions and motions from the detected face and body information, and accesses to a work step in which a biometric code corresponding to the recognized facial expression or motion is assigned among a plurality of work steps Thus, a corresponding work step screen can be provided.

원격 가이던스 제공 방법은, 작업대상에 구비된 프로세스 마커와 근거리 무선통신하는 단계와, 무선통신을 통해 수신된 무선신호에 의해 프로세스 마커를 인식하고 인식된 프로세스 마커에 기록된 작업 단계를 파악하며 파악된 작업 단계 중에 사용자 조작에 의해 사용자가 원하는 작업 단계로 접근하여 해당 작업 단계 화면을 제공하는 단계를 더 포함할 수 있다.The method for providing remote guidance includes the step of short-range wireless communication with a process marker provided on a work target, and recognizes a process marker by a radio signal received through wireless communication, grasps a work step recorded in the recognized process marker, and is identified. During the work step, the user may further include a step of accessing the work step desired by the user and providing a corresponding work step screen.

일 실시 예에 따르면, 작업자는 작업 현장에서 사용자 단말만 소지하고 있으면, 장비에 대해 숙련된 전문가의 도움 없이도, 작업 매뉴얼을 직접 가지고 있지 않더라도 쉽고 간편하게 작업을 수행할 수 있다. 또한, 스마트 글래스(smart glass)와 같은 기존의 별도의 하드웨어가 필요한 몰입형 디스플레이 등의 웨어러블 기기가 없어도 무방하며 결합하여 사용할 수도 있다.According to one embodiment, if the operator has only a user terminal on the job site, it is possible to perform the work easily and conveniently without having the work manual directly, without the help of skilled experts for the equipment. In addition, there is no need for a wearable device such as an immersive display that requires separate hardware such as smart glass, and can be used in combination.

증강현실에 기반하여 원격 엔지니어링을 제공함에 따라, 더 실감나는 화면을 제공할 수 있어서 작업자가 보다 직관적으로 작업을 수행할 수 있다. 나아가, 증강현실 기반 영상분석과 기계학습을 이용하여 영상 내 객체를 인식함에 따라 객체 인식 정확도를 높일 수 있다.By providing remote engineering based on augmented reality, it is possible to provide a more realistic screen, so that a worker can perform work more intuitively. Furthermore, the accuracy of object recognition can be increased by recognizing objects in images using augmented reality-based image analysis and machine learning.

나아가, 다단계 조작이 필요한 경우에도 쉽고 빠르게 조작할 수 있다. 화면 터치, 음성인식, 생체인식 등을 이용하여 사용자가 원하는 작업 단계로 빠르게 접근, 예를 들어 점프할 수 있으므로 실시간 처리가 가능하며 조작의 번거로움을 덜 수 있어 사용의 편의성이 증대된다.Furthermore, it can be easily and quickly operated even when multi-step operation is required. By using screen touch, voice recognition, biometric recognition, etc., the user can quickly access and jump to a desired work step, for example, real-time processing is possible, and ease of operation is increased because of less troublesome operation.

또한, 증강현실 기반 작업 가이던스 정보를 제작하고자 하는 사용자를 위해 이를 쉽게 제작하기 위한 스크립팅 툴과 템플릿을 제공하여 추가적인 AR 매뉴얼 제작비용 없이도 제작 가능하다.In addition, for users who want to produce augmented reality-based work guidance information, scripting tools and templates to easily create it can be provided without additional AR manual production costs.

사용자 단말을 이용한 원격 가이던스는 공장이나 빌딩과 같은 산업현장뿐만 아니라, 가정집이나 일반 가전기기 등으로 확장될 수 있다. 또한, 스마트 빌딩, 스마트 팩토리, 스마트 홈 등에서 사용하는 다수의 IoT 기기들뿐만 아니라, IoT 센싱 능력이 없는 IoT 시대 이전에 제작된 레거시 기기(legacy device)까지도 확장될 수 있다.Remote guidance using a user terminal can be extended not only to industrial sites such as factories or buildings, but also to homes and general home appliances. In addition, it can be extended not only to a number of IoT devices used in smart buildings, smart factories, smart homes, etc., but also to legacy devices manufactured before the IoT era without IoT sensing capability.

나아가, 다수의 기기들에 대해 에러(error)를 사전에 예측하고 에러 예측 기반 사전 서비스(before service)를 제공하는 경우, 기기의 에러를 사전에 예측하고 이를 기기 사용자에 알리면, 사용자는 사용자가 소지한 사용자 단말을 이용하여 원격 가이던스를 제공받아 쉽게 에러를 사전에 해결할 수 있다.Furthermore, when an error is predicted in advance for a plurality of devices and an error prediction-based dictionary service is provided, the error of the device is predicted in advance and the device user is informed, and the user possesses the user. Remote guidance can be easily solved in advance by receiving a remote guidance using one user terminal.

도 1은 본 발명의 일 실시 예에 따른 원격 가이던스 시스템의 구성도,
도 2는 본 발명의 일 실시 예에 따른 원격 가이던스의 개념도,
도 3은 본 발명의 다른 실시 예에 따른 원격 가이던스의 개념도,
도 4는 본 발명의 일 실시 예에 따른 원격 가이던스 장치의 구성도,
도 5는 본 발명의 일 실시 예에 따른 도 4의 제어부의 세부 구성도,
도 6은 본 발명의 일 실시 예에 따른 도 4의 출력부의 세부 구성도,
도 7은 본 발명의 일 실시 예에 따른 원격 서버의 구성도,
도 8은 본 발명의 일 실시 예에 따른 원격 가이던스 방법을 도시한 흐름도,
도 9는 본 발명의 일 실시 예에 따른 원격 가이던스 장치가 원격 서버에 증강현실 매뉴얼을 요청하여 수신하는 프로세스를 도시한 도면,
도 10은 본 발명의 일 실시 예에 따른 음성인식 부호를 이용한 음성인식을 통해 작업단계의 이동을 보여주는 도면이다.
1 is a block diagram of a remote guidance system according to an embodiment of the present invention,
2 is a conceptual diagram of remote guidance according to an embodiment of the present invention,
3 is a conceptual diagram of remote guidance according to another embodiment of the present invention,
4 is a configuration diagram of a remote guidance device according to an embodiment of the present invention,
5 is a detailed configuration diagram of the control unit of FIG. 4 according to an embodiment of the present invention;
6 is a detailed configuration diagram of the output unit of FIG. 4 according to an embodiment of the present invention;
7 is a configuration diagram of a remote server according to an embodiment of the present invention,
8 is a flowchart illustrating a remote guidance method according to an embodiment of the present invention,
9 is a diagram illustrating a process in which a remote guidance device according to an embodiment of the present invention requests and receives an augmented reality manual from a remote server;
10 is a view showing a movement of a work step through voice recognition using a voice recognition code according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and methods for achieving them will be clarified with reference to embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the embodiments allow the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention pertains. It is provided to fully inform the holder of the scope of the invention, and the invention is only defined by the scope of the claims. The same reference numerals refer to the same components throughout the specification.

본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이며, 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In the description of the embodiments of the present invention, when it is determined that a detailed description of known functions or configurations may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted, and terms to be described below are used in the embodiments of the present invention. The terms are defined in consideration of the function of. It can be changed according to the intention or custom of the user or operator. Therefore, the definition should be made based on the contents throughout this specification.

첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램인스트럭션들(실행 엔진)에 의해 수행될 수도 있으며, 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다.Combinations of each block in the accompanying block diagrams and steps of the flow charts may be performed by computer program instructions (execution engines), these computer program instructions being incorporated into a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment. Since it can be mounted, the instructions executed through a processor of a computer or other programmable data processing equipment create a means to perform the functions described in each block of the block diagram or in each step of the flowchart.

이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.These computer program instructions can also be stored in computer readable or computer readable memory that can be oriented to a computer or other programmable data processing equipment to implement a function in a particular way, so that computer readable or computer readable memory The instructions stored in it are also possible to produce an article of manufacture containing instructions means for performing the functions described in each block of the block diagram or in each step of the flowchart.

그리고 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명되는 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.And since computer program instructions may be mounted on a computer or other programmable data processing equipment, a series of operation steps are performed on the computer or other programmable data processing equipment to create a process that is executed by the computer to generate a computer or other programmable It is also possible for instructions to perform data processing equipment to provide steps for executing the functions described in each block of the block diagram and in each step of the flowchart.

또한, 각 블록 또는 각 단계는 특정된 논리적 기능들을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있으며, 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하며, 또한 그 블록들 또는 단계들이 필요에 따라 해당하는 기능의 역순으로 수행되는 것도 가능하다.In addition, each block or each step can represent a module, segment, or portion of code that includes one or more executable instructions for executing specified logical functions, and in some alternative embodiments referred to in blocks or steps It should be noted that it is possible for functions to occur out of sequence. For example, two blocks or steps shown in succession may in fact be executed substantially simultaneously, and it is also possible that the blocks or steps are performed in the reverse order of the corresponding function as necessary.

이하, 첨부 도면을 참조하여 본 발명의 실시 예를 상세하게 설명한다. 그러나 다음에 예시하는 본 발명의 실시 예는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 다음에 상술하는 실시 예에 한정되는 것은 아니다. 본 발명의 실시 예는 이 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공된다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the embodiments of the present invention exemplified below may be modified in various other forms, and the scope of the present invention is not limited to the embodiments described below. Embodiments of the present invention are provided to more fully describe the present invention to those of ordinary skill in the art.

도 1은 본 발명의 일 실시 예에 따른 원격 가이던스 시스템의 구성도이다.1 is a block diagram of a remote guidance system according to an embodiment of the present invention.

도 1을 참조하면, 원격 가이던스 시스템(1)은 원격 서버(2)와 원격 가이던스 장치(3)를 포함한다. 원격 가이던스 장치(3)는 사용자 단말(4)에 하드웨어 또는 소프트웨어 형태로 포함된다.Referring to FIG. 1, the remote guidance system 1 includes a remote server 2 and a remote guidance device 3. The remote guidance device 3 is included in the user terminal 4 in the form of hardware or software.

원격 가이던스 시스템(1)은 작업 현장에서 작업이 필요한 장비를 대상으로 작업자가 소지하고 있는 사용자 단말(4) 내 원격 가이던스 장치(3)를 통해 증강현실(augmented reality) 및 기계학습(machine learning)에 기반하여 증강 콘텐츠 형태의 작업 매뉴얼을 제공한다. 작업자는 장비에 대해 숙련된 전문가의 도움 없이도, 작업 매뉴얼을 직접 가지고 있지 않더라도 쉽고 간편하게 작업을 수행할 수 있다. 장비는 작업 현장에 설치된 기계, 설비, 장치 등을 포함하며, 하나의 장비를 구성하는 부품, 모듈 등을 포함할 수 있다. 작업은 수리, 정비, 유지 보수, 조정, 조작 등을 포함한다. 예를 들어, 작업은 문제가 발생한 장비에 대한 정비나, 문제가 발생할 가능성이 있는 장비에 대해 문제 발생 이전에 이를 조치하는 것일 수 있다.The remote guidance system (1) is used for augmented reality and machine learning through a remote guidance device (3) in a user terminal (4) possessed by an operator targeting equipment requiring work at a work site. Based on the work manual in the form of augmented content. The operator can perform the work easily and simply without the help of a skilled expert on the equipment, even without having a work manual. Equipment includes machines, equipment, and devices installed at a work site, and may include components, modules, and the like constituting one equipment. Work includes repair, maintenance, maintenance, adjustment, manipulation, and the like. For example, the work may be to repair the equipment in question, or to take action on equipment that is likely to cause the problem before the problem occurs.

작업 현장은 공장(스마트 팩토리)이나 빌딩(스마트 빌딩)과 같은 산업현장이 될 수도 있으며, 가정집(스마트 홈)이 될 수도 있다. 산업현장을 예로 들면, 공장 내 에어컨, 환기, 공조기, 팬, 보일러, 냉각탑, 펌프, 온/습도센서, 냉동기, 조명기기, 전력기기, 화재 시스템을 대상으로 원격 가이던스를 제공할 수 있다. 원격 서버(2)를 통해 건물 전체의 상황을 종합적으로 제어 및 감시하면서 기계설비, 조명, 전력, 출입통제, 방재, 주차관리, 시설관리가 가능하며, 모니터링 중에 작업이 필요한 경우 이를 작업자에게 알리며, 작업자는 원격 가이던스 장치(3)를 통해 보이는 원격 가이던스 정보를 이용하여 전문가의 도움 없이도 원활하게 작업을 수행할 수 있다.The work site may be an industrial site such as a factory (smart factory) or a building (smart building), or a home (smart home). For example, an industrial site can provide remote guidance for air conditioners, ventilation, air conditioners, fans, boilers, cooling towers, pumps, temperature/humidity sensors, refrigerators, lighting equipment, power equipment, and fire systems in factories. Through the remote server (2), it is possible to comprehensively control and monitor the entire situation of the building, and it is possible to control machinery, lighting, power, access control, disaster prevention, parking management, and facility management. The operator can use the remote guidance information seen through the remote guidance device 3 to smoothly perform work without the help of experts.

다른 실시 예에 따른 원격 가이던스 시스템(1)은 가정 환경에서 운용된다. 예를 들어, 원격 서버(1)를 통해 가정 내 TV, 에어컨, 냉장고 같은 가전제품이나 수도, 전기, 냉난방과 같은 에너지 소비장치나, 도어락, 감시 카메라 등과 같은 보안기기나, 고가의 자동차와 전기 자동차 등의 기기를 모니터링 및 제어하면서, 원격으로 조정 가능하다. 또한, 해당 가정기기에 문제가 발생한 경우, 소비자가 사용자 단말(4)만 가지고 있으면 문제 해결을 위한 원격 가이던스를 제공받을 수 있으므로 쉽게 기기의 문제를 해결할 수 있다. 이 경우, 소비자는 소비자 센터에 연락하여 전문가를 부르거나 출장 비용을 별도로 부담할 필요도 없으며, 시간 낭비도 방지할 수 있다. 또한, 스마트 글래스(smart glass)와 같은 기존의 별도의 하드웨어가 필요한 몰입형 디스플레이가 없어도 무방하고 결합하여 사용도 가능하다.The remote guidance system 1 according to another embodiment is operated in a home environment. For example, through a remote server 1, home appliances such as TVs, air conditioners and refrigerators, energy-consuming devices such as water, electricity, air-conditioning, security devices such as door locks and surveillance cameras, and expensive automobiles and electric vehicles. It is remotely adjustable while monitoring and controlling the device. In addition, when a problem occurs in the corresponding home device, if the consumer only has the user terminal 4, the remote guidance for solving the problem can be provided, so that the problem of the device can be easily solved. In this case, the consumer does not need to contact a consumer center to call an expert or separately pay for travel expenses, and waste of time can be prevented. In addition, even if there is no immersive display that requires separate hardware such as smart glass, it can be used in combination.

원격 가이던스 시스템(1)은 스마트 기기, 스마트 빌딩, 스마트 팩토리 등에서 사용하는 다수의 IoT 기기들을 대상으로 원격 가이던스를 제공할 수 있다. IoT 기기는 디지털 사이니지(digital signage), 스마트 TV, 스마트 워치, 스마트 CE, 드론(drone) 등일 수 있다. 다른 실시 예에 따른 원격 가이던스 시스템(1)은 IoT 센싱 능력이 없는 IoT 시대 이전에 제작된 레거시 기기(legacy device)를 대상으로 작업 가이던스를 제공할 수도 있다. 예를 들어, 디바이스에 내장 또는 장착되는 IoT 센서가 없어서 디바이스와 그 주변환경의 정보를 센싱할 수 없는 레거시 기기를 대상으로도 사용자 단말(4)을 이용한 원격 가이던스를 제공할 수 있다.The remote guidance system 1 may provide remote guidance for a plurality of IoT devices used in smart devices, smart buildings, and smart factories. The IoT device may be a digital signage, a smart TV, a smart watch, a smart CE, and a drone. The remote guidance system 1 according to another embodiment may provide a work guidance targeting a legacy device manufactured before the IoT era without IoT sensing capability. For example, it is possible to provide remote guidance using the user terminal 4 even for legacy devices that cannot sense information about the device and its surroundings because there is no IoT sensor embedded or mounted on the device.

일 실시 예에 따른 원격 가이던스 시스템(1)은 다수의 기기들에 대해 에러(error)를 사전에 예측하고 에러 예측 기반 사전 서비스(before service)를 제공한다. 사전 서비스는 기기들을 대상으로 발생 가능한 에러를 사전에 예측하고, 에러가 발생하기 이전에, 에러를 관리 및 처리하는 서비스이다. 예를 들어, 원격 서버(2)를 통해 기기의 에러를 사전에 예측한 경우, 이를 기기 사용자에 알리면, 사용자는 사용자가 소지한 사용자 단말(4)을 이용하여 원격 가이던스를 제공 받아 쉽게 에러를 사전에 해결할 수 있게 된다.The remote guidance system 1 according to an embodiment predicts an error in advance for a plurality of devices and provides an error prediction-based before service. The dictionary service is a service that predicts errors that may occur to devices in advance, and manages and processes errors before errors occur. For example, when a device error is predicted in advance through the remote server 2, when the device user is notified, the user is provided with a remote guidance using the user terminal 4 owned by the user to easily advance the error. Can be solved.

증강현실 기반 작업 가이던스에 대한 실시 예를 들면, 작업 현장에 위치하는 작업자가 사용자 단말(4)의 카메라를 통해 작업 현장을 실시간 촬영한다. 그러면, 원격 가이던스 장치(3)는 카메라로부터 실시간 촬영 영상을 입력받아 화면에 출력한다. 이때, 화면 출력 영상에 자동으로 작업 매뉴얼을 안내하는 가상의 작업 매뉴얼을 결합하여 사용자 단말(4)의 디스플레이를 통해 화면에 표시한다.For an embodiment of augmented reality based work guidance, for example, a worker located at the work site photographs the work site in real time through the camera of the user terminal 4. Then, the remote guidance device 3 receives the live image from the camera and outputs it to the screen. At this time, a virtual work manual that automatically guides the work manual is combined with the screen output image and displayed on the screen through the display of the user terminal 4.

원격 가이던스 장치(3)는 작업 현장 내 현재영상을 획득하며, 획득된 현재영상에 가상의 작업 매뉴얼을 결합한 증강현실 매뉴얼(AR 매뉴얼, 이하 'AR 매뉴얼'이라 칭함)을 생성하여 화면에 표시한다. 이때, AR 매뉴얼뿐만 아니라, 작업대상에 대한 식별자 정보, 위치정보, 상태정보, 작업도구 정보 등을 포함하는 가상의 작업 가이던스 정보를 화면에 더 표시할 수 있다. 식별자 정보는 작업대상을 식별하기 위한 가상객체이다. 예를 들어, 작업대상을 점선이나 블록 등과 같은 표시자로 알려준다. 위치정보는 작업대상의 위치를 알려주기 위한 가상객체이다. 예를 들어, 작업이 필요한 장비나 장비 내 부품의 위치를 가상의 손가락 등으로 알려준다. 작업 매뉴얼 정보는 순차적 작업 매뉴얼에 따른 안내정보를 알려주기 위한 가상객체이다. 작업도구 정보는 작업에 필요한 도구를 알려주기 위한 가상객체이다. 예를 들어 드라이버, 망치 등과 같이 작업에 필요한 모든 가상도구를 표시한다. 화면에 표시되는 작업 가이던스 정보의 실시 예는 도 2 및 도 3을 참조로 하여 후술한다.The remote guidance device 3 acquires the current image in the work site, and generates and displays an augmented reality manual (AR manual, hereinafter referred to as the'AR manual') that combines a virtual work manual with the acquired current image. At this time, not only the AR manual, but also virtual operation guidance information including identifier information, location information, status information, work tool information, etc. for the work object may be further displayed on the screen. The identifier information is a virtual object for identifying the work object. For example, it informs the work object with an indicator such as a dotted line or a block. Location information is a virtual object to inform the location of the work object. For example, a virtual finger or the like indicates the location of equipment that needs work or parts of the equipment. The work manual information is a virtual object to inform guide information according to the sequential work manual. The work tool information is a virtual object to inform the tool necessary for the work. For example, it displays all the virtual tools needed for the job, such as a screwdriver and a hammer. An embodiment of the job guidance information displayed on the screen will be described later with reference to FIGS. 2 and 3.

일 실시 예에 따른 원격 가이던스 장치(3)는 실시간으로 촬영되는 현재영상에 증강현실을 적용하기 위해, 객체 인식→객체 트래킹→객체 렌더링의 순차적인 프로세스를 반복하여 현재영상에 가상객체를 연동시킨다. 예를 들어, 원격 가이던스 장치(3)는 현재영상에서 실제객체를 인식하고, 인식된 실제객체를 트래킹하며, 트래킹되는 실제객체에 대해 증강현실 기반 작업 가이던스 정보에 해당하는 가상객체를 결합하여 렌더링하거나, 가상객체를 렌더링한 후 이를 실제객체에 결합하여 AR 매뉴얼을 생성하는 일련의 프로세스를 반복한다.In order to apply augmented reality to a current image photographed in real time, the remote guidance device 3 according to an embodiment repeats a sequential process of object recognition→object tracking→object rendering to link a virtual object to the current image. For example, the remote guidance device 3 recognizes a real object from the current image, tracks the recognized real object, and combines and renders a virtual object corresponding to augmented reality-based work guidance information for the tracked real object, or , After rendering the virtual object and combining it with the real object, it repeats a series of processes to generate the AR manual.

카메라를 통해 포착된 실제영상은, 고정된 것이 아니라 작업자의 움직임 등으로 인해 계속 움직이므로, 실제영상 내에서 인식된 객체의 움직임을 계속 따라가는 작업이 필요한데, 이를 "객체 트래킹"이라 한다. "객체 렌더링"은 2차원의 영상에 광원·위치·색상 등 외부의 정보를 고려하여 사실감을 불어넣어 3차원 영상을 만드는 과정이다. 와이어 프레임(wire frame), 레이 트레이싱(ray tracing) 렌더링 방법 등이 있다. 렌더링은 원격 가이던스 장치(3)에서 이루어질 수 있지만, 분산 환경의 경우, 원격 서버(2)에서 렌더링이 수행되고 수행결과를 원격 가이던스 장치(3)에 전송하는 방식으로 이루어질 수도 있다.Since the actual image captured through the camera is not fixed, but is continuously moved due to the movement of the operator, it is necessary to continuously follow the movement of the recognized object in the actual image, which is called "object tracking". "Object rendering" is a process of creating a 3D image by injecting a sense of realism in consideration of external information such as a light source, location, and color to a 2D image. Wire frame, ray tracing rendering methods, and the like. The rendering may be performed in the remote guidance device 3, but in the case of a distributed environment, rendering may be performed in the remote server 2 and the execution result may be transmitted to the remote guidance device 3.

일 실시 예에 따른 원격 가이던스 시스템(1)은 객체를 인식할 때, 증강현실과 기계학습을 함께 사용한다. 증강현실의 코어 기술은 객체 인식, 트래킹 및 렌더링으로 요약되는데, 이 중 객체 인식은 윤곽선으로 객체를 인지하는 방식이다. 윤곽선을 통해 객체를 인지하므로 복잡한 형태의 Wireframe 상태가 접수되었을 때나 사물의 상태가 녹이 슬거나 일부가 찌그러졌다든지 하는 경우 인지율이 떨어져 인지를 못할 위험이 있다. 따라서, 증강현실만으로는 인식 정확도가 떨어지므로 이를 기계학습으로 보완하여 객체 인식률을 높인다. 기계학습은 다양한 이미지 데이터베이스를 통해 학습된 결과 값을 넘겨줄 수 있기에 윤곽선 인식을 통해 파악되지 못한 사물에 대한 보다 정확한 인식상태를 전달해 줄 수 있고, 이를 증강현실 모듈과 비교하여 처리할 수 있기 때문에 전체 인식율을 향상시킬 수 있는 장점이 있다. 분야의 확장에 따라 기계학습에 시간이 소요될 수 있으므로 우선적으로 증강현실 방식을 통해 원격 가이던스를 먼저 제공하고, 이후에 기계학습과 증강현실을 모두 적용하는 기술적 보완을 통해 분야 확장에 따르는 시간적 제약도 해소할 수 있다. 분산된 환경에서는, 원격 서버(2)에서 기계학습을 통해 인식된 장비의 상태를 원격 가이던스 장치(3)에서 인식한 장비의 상태와 비교하여 정확도를 높이는 협상(Negotiation) 프로세스를 가질 수 있다.The remote guidance system 1 according to an embodiment uses augmented reality and machine learning together when recognizing an object. The core technology of augmented reality is summarized as object recognition, tracking, and rendering, among which object recognition is a method of recognizing an object by an outline. Because the object is recognized through the outline, there is a risk that the recognition rate is lowered when the complex wireframe state is received or when the state of the object is rusted or partially distorted. Therefore, since the recognition accuracy is reduced only by augmented reality, it is complemented by machine learning to increase the object recognition rate. Since machine learning can pass the result values learned through various image databases, it can deliver a more accurate state of recognition for objects that are not identified through contour recognition, and it can be processed by comparing it with the augmented reality module. There is an advantage that can improve the recognition rate. Machine learning may take time depending on the expansion of the field, so first of all, remote guidance is provided through augmented reality method first, and then technical limitations that apply both machine learning and augmented reality are solved, thereby reducing the time constraints of field expansion. can do. In a distributed environment, it is possible to have a negotiation process that increases accuracy by comparing the state of equipment recognized by machine learning in the remote server 2 with the state of equipment recognized by the remote guidance device 3.

증강현실과 기계학습을 기반으로 하는 원격 가이던스 처리를 진행하는 경우 현장의 기계나 부품을 조작하는 절차를 AR 매뉴얼로 제공하고 작업자가 작업에 대한 이해도가 떨어질 경우 이에 대한 전문가의 지원을 실시간 처리하는 형태로 제공된다. 이때 다수의 조작이 필요한 제품의 경우나 단계별 난이도가 높아 처리 및 조작 횟수가 매우 많은 매뉴얼의 단계를 반복하거나 매뉴얼을 반대로 돌려가며 재조작 시도를 해야 하는 경우가 다수 발생한다.In the case of remote guidance processing based on augmented reality and machine learning, AR manual provides procedures for manipulating machines or parts in the field and real-time processing of expert support for workers' understanding of the work. Is provided as. At this time, in the case of a product requiring a large number of manipulations or the difficulty of each step is high, there are many cases in which the steps of a manual with a large number of processing and manipulations are repeated, or a manual operation must be attempted by reversing the manual.

일 실시 예에 따른 원격 가이던스 장치(3)는 다단계 조작이 필요한 경우 단계 상태를 파악할 수 있는 프로세스 마커(Process Marker)를 이용한다. 프로세스 마커는 AR 매뉴얼의 각 작업 단계 식별자가 일렬로 정렬되고 적어도 하나의 작업 단계 식별자에 마커가 기록된 것으로, 화면에 표시된다. AR 매뉴얼이 다수 개인 경우 각 AR 매뉴얼을 일련번호로 구분하여 표시할 수 있다.The remote guidance device 3 according to an embodiment uses a process marker capable of grasping the state of a step when multi-step manipulation is required. The process marker is displayed on the screen as each work step identifier of the AR manual is arranged in a line and a marker is recorded in at least one work step identifier. If there are multiple AR manuals, each AR manual can be displayed separately by serial number.

프로세스 마커를 이용하면 현재 작업 단계를 기준으로 사용자가 원하는 작업 단계로 접근할 수 있다. 사용자 조작에 대응되는 작업 단계로의 접근은, 현재 작업 단계를 기준으로 역방향(backward)으로의 작업 단계 이동, 순방향(forward)으로의 작업 단계 이동, 현재 작업 단계의 반복, 처음 작업 단계로의 이동, 다른 증강현실 매뉴얼로의 이동 등을 포함한다. 예를 들여, 역방향 또는 순방향으로 사용자가 원하는 위치까지 신속하게 이동, 즉 점프(jump) 할 수 있어서 작업을 용이하게 처리할 수 있다. 작업 단계 식별자들에 5개 또는 10개 단위의 규칙적인 마커를 기록하고 사용자가 마커를 이용하여 원하는 작업 단계로 이동하도록 처리할 수 있다.The process marker allows users to access the desired work step based on the current work step. The access to the work step corresponding to the user's operation includes moving the work step in the backward direction based on the current work step, moving the work step in the forward direction, repeating the current work step, and moving to the first work step And moving to other augmented reality manuals. For example, the user can quickly move to the desired position in the reverse direction or forward direction, that is, jump, so that the operation can be easily handled. It is possible to record 5 or 10 regular markers in the work step identifiers and process the user to move to a desired work step using the marker.

AR 매뉴얼은 원격 서버(2)에서 AR 매뉴얼의 순번에 따라 분리되어 원격 가이던스 장치(3)가 필요 시 원격 서버(2)에 요청하여 다운로드 받을 수 있다. AR 매뉴얼이 다수 개이면, 이를 1001, 1002, 1003 등의 일련번호로 구분할 수 있으며, 일련번호 안에 작업 단계가 20단계, 10단계 등으로 구분될 수 있다.The AR manual is separated from the remote server 2 according to the order of the AR manual, and the remote guidance device 3 can request and download the remote server 2 when necessary. If there are multiple AR manuals, they can be classified into serial numbers such as 1001, 1002, 1003, etc., and work steps can be classified into 20 steps, 10 steps, etc. in the serial numbers.

AR 매뉴얼이 표시되는 화면은 사용자의 태블릿 PC, 스마트폰, 화면 디스플레이가 있는 웨어러블 장치와 같은 사용자 단말 화면이다. 이때, 화면 터치가 가능한 태블릿 PC나 스마트 폰의 경우, 역방향이나 순방향으로 작업 단계를 이동하기 위해 현재 표시되고 있는 AR 매뉴얼의 작업 단계 위치를 마킹하여 보여주고, 이전 또는 이후의 중요한 작업 단계에 마커를 할당하여 마커 위치를 보여준다. 이 중 소정의 마커를 손가락 터치를 통해 지정하는 방식으로 지정된 마커 위치의 작업 단계로 접근하여 해당 작업 단계 화면을 제공할 수 있다. 사용자 단말이 웨어러블 장치인 경우에는 미리 지정된 버튼 등을 통해 접근 가능하다.The screen where the AR manual is displayed is a user terminal screen such as a user's tablet PC, a smartphone, and a wearable device having a screen display. At this time, in the case of a tablet PC or a smart phone that can touch the screen, it shows and marks the work step position of the currently displayed AR manual to move the work step in the reverse or forward direction, and displays markers on important work steps before or after. Assign to show the marker location. Among them, a predetermined marker may be designated by a finger touch to approach a work step at a designated marker position to provide a corresponding work step screen. When the user terminal is a wearable device, it is accessible through a predetermined button or the like.

사용자 터치 등을 통해 접근하려면 필연적인 흔들림이 동반되고 마커를 통해 소정의 작업 단계로 점프할 수는 있으나 디스플레이에 포착한 장비나 부속에 대한 트래킹 및 기계학습이 다시 진행되어야 하므로 신속한 처리를 방해한다. 이를 보완하기 위해 중요한 작업 단계에 음성인식 또는 생체인식 부호를 할당하여 작업자의 작업을 보존하며 신속한 반응을 얻을 수 있도록 한다. 음성인식 또는 생체인식 부호는 해당 부호에 식별자 정보 및 위치정보가 할당된다. 음성인식 부호를 이용한 작업 단계 접근의 예를 들면, 인식된 사용자 음성이 "처음부터 다시!"이면, 작업 단계들 중 처음 위치에 해당하는 음성인식 부호가 할당된 처음 작업 단계에 해당하는 작업 단계로 이동하여 제공한다. 수신된 사용자 음성이 "5단계 뒤로!"이면, 현재 작업 단계를 기준으로 5단계 이후 위치에 해당하는 음성인식 부호가 할당된 작업 단계로 이동하여 제공한다. 생체인식 부호를 이용한 작업 단계 접근의 예를 들면, 인식된 사용자 생체신호가 "눈 깜빡임 연속 3회"이면, "처음부터 다시"를 의도하는 것으로, 처음 위치에 해당하는 생체인식 부호가 할당된 작업 단계로 이동하여 제공한다. 인식된 사용자 생체신호가 "고개 끄덕임"이면, "다음"을 의도하는 것으로, 다음 위치에 해당하는 생체인식 부호가 할당된 작업 단계로 이동하여 제공한다.To approach through a user's touch, it is accompanied by inevitable shaking, and it is possible to jump to a predetermined work step through a marker, but it prevents rapid processing because tracking and machine learning of the equipment or parts captured on the display must be performed again. To compensate for this, voice recognition or biometric codes are assigned to important work steps to preserve the work of the operator and to obtain a quick response. In the voice recognition or biometric code, identifier information and location information are assigned to the corresponding code. For example, if the recognized user's voice is "From the beginning again!", for example, the work step approach using the voice recognition code is a work step corresponding to the first work step to which the voice recognition code corresponding to the first position of the work steps is assigned. Provide by moving. If the received user's voice is "5 steps back!", the voice recognition code corresponding to the position after step 5 is moved to the assigned work step based on the current work step. For example, in the case of a work step approach using a biometric code, if the recognized user biometric signal is "3 times in a blink of an eye", it is intended to "restart from the beginning", and the task in which the biometric code corresponding to the initial position is assigned Go to step to provide. If the recognized user biometric signal is "nodding head", "next" is intended, and the biometric code corresponding to the next location is moved to the assigned work step and provided.

일 실시 예에 따른 원격 가이던스 시스템(1)은 증강현실 기반 작업 가이던스 정보를 제작하고자 하는 사용자를 위해, 이를 쉽게 제작하기 위한 스크립팅 툴(scripting tool)을 제공한다. 이에 따라, 추가적인 AR 매뉴얼 제작비용 없이도 제작 가능하다. 스크립팅 툴을 제공할 때 분야별로 적용샘플이 될 수 있는 다수의 템플릿(template)을 제공할 수 있다. 제작자는 소규모 사업자 및 장비 공급자들일 수 있다. 예를 들어, 원격 가이던스 장치(3)는 사용자 단말(4), 예를 들어, 데스크톱을 가지고 스크립팅 툴에 기본으로 제공되는 템플릿을 이용하여 증강현실 기반 작업 가이던스 정보를 쉽게 제작한다. 원격 가이던스 장치(3)는 이런 방식으로 제작된 증강현실 기반 작업 가이던스 정보를 입력받아 이를 AR 매뉴얼 생성에 사용할 수 있다.The remote guidance system 1 according to an embodiment provides a scripting tool for easily manufacturing a user who wants to produce augmented reality based work guidance information. Accordingly, it is possible to manufacture without additional AR manual production cost. When providing a scripting tool, it is possible to provide a number of templates that can be applied samples for each field. Producers can be small businesses and equipment suppliers. For example, the remote guidance device 3 easily generates augmented reality based work guidance information using a user terminal 4, for example, a template provided as a default in a scripting tool with a desktop. The remote guidance device 3 may receive the augmented reality-based work guidance information produced in this way and use it for generating an AR manual.

원격 가이던스 장치(3)가 구비되는 사용자 단말(4)은 사용자가 소지한 스마트폰, 태블릿 PC, 화면 디스플레이가 있는 웨어러블 디바이스 등 휴대 가능한 모든 전자장치를 포함한다. 작업자는 스마트 글래스(smart glass)와 같은 기존의 별도의 하드웨어가 필요한 몰입형 디스플레이가 필요없이 또는 연계하여 원격 가이던스 장치(3)를 통해 작업 가이던스를 제공받을 수 있다. 물론, 작업자가 몰입형 디스플레이를 착용한 경우 이를 연동하여 작업도 가능하다. 사용자 단말(4)은 웨어러블 장비일 수 있다.The user terminal 4 provided with the remote guidance device 3 includes all portable electronic devices such as a smart phone, a tablet PC, and a wearable device having a screen display. The operator may be provided with work guidance through the remote guidance device 3 without or in conjunction with the need for an immersive display that requires separate hardware, such as smart glass. Of course, if the operator wears an immersive display, it is possible to work in conjunction with it. The user terminal 4 may be wearable equipment.

원격 서버(2)는 작업 현장에 위치한 장비를 모니터링하며 작업이 필요한 장비를 대상으로 원격 엔지니어링(remote engineering)을 수행한다. 이때, 원격 서버(2)는 소정의 장비에 에러가 발생하면, 에러 해결을 위해 원격 엔지니어링을 수행할 수 있다. 다른 예로, 작업 현장의 각 장비를 모니터링하여 에러를 사전에 예측하고 에러가 발생하기 이전에, 해당 장비에 대한 에러를 처리하기 위해 원격 엔지니어링을 수행할 수 있다. 원격 엔지니어링의 예로는 영상통화, 채팅, 원격화면 공유, 원격제어 등이 있다. 원격 가이던스 장치(3)를 통해 제공되는 증강현실 기반 작업 가이던스 정보를 통해 작업자가 문제를 해결하지 못하는 경우, 원격 가이던스 장치(3)는 원격 서버(2)와 연결하여, 전문가로부터 원격 제어를 지원받을 수 있다. 원격 서버(2)는 확장성을 고려하여 클라우드 플랫폼을 기반으로 설계될 수 있다.The remote server 2 monitors equipment located at the work site and performs remote engineering on equipment requiring work. At this time, the remote server 2 may perform remote engineering to solve the error when an error occurs in a predetermined device. As another example, remote engineering can be performed to monitor each piece of equipment on the job site to predict errors in advance and to handle errors for the piece of equipment before an error occurs. Examples of remote engineering include video call, chat, remote screen sharing, and remote control. If the worker cannot solve the problem through the augmented reality-based work guidance information provided through the remote guidance device 3, the remote guidance device 3 connects to the remote server 2 to receive remote control from an expert Can. The remote server 2 may be designed based on a cloud platform in consideration of scalability.

도 2는 본 발명의 일 실시 예에 따른 원격 가이던스의 개념도이다.2 is a conceptual diagram of remote guidance according to an embodiment of the present invention.

도 2를 참조하면, 원격 가이던스 시스템은 원격 가이던스 장치(3)의 증강현실 기반 영상분석과 원격 서버(2)의 기계학습을 이용하여 현재영상 내 작업대상이 되는 객체를 인식한다. 이를 위해, 원격 가이던스 장치(3)는 촬영된 현재영상을 원격 서버(2)와 공유한다. 원격 서버(2)는 사전에 기계학습을 통해 축적된 학습 데이터를 이용하여 현재영상 내 객체를 인식한다. 기계학습 기반 객체 인식결과는 원격 가이던스 장치(3)에 전송되는데, 인식된 객체 식별자(ID)가 포함될 수 있다. 예를 들어, 원격 서버(2)는 현재영상에서 기계학습을 통해 인식된 객체 식별자인 ID1: 전력반 커버, ID2: 브레이커, ID3: 파워서플라이를 원격 가이던스 장치(3)에 전송한다. 원격 가이던스 장치(3)는 증강현실 기반 영상분석을 통해 현재영상 내에서 객체의 윤곽선을 인식하며, 원격 서버(2)의 기계학습 기반 객체 인식결과를 증강현실 기반 인식결과에 반영하여 객체인식의 정확도를 높인다.Referring to FIG. 2, the remote guidance system recognizes an object as a work target in the current image using augmented reality based image analysis of the remote guidance device 3 and machine learning of the remote server 2. To this end, the remote guidance device 3 shares the captured current image with the remote server 2. The remote server 2 recognizes an object in the current image using learning data accumulated through machine learning in advance. The machine learning-based object recognition result is transmitted to the remote guidance device 3, and the recognized object identifier (ID) may be included. For example, the remote server 2 transmits ID1: power panel cover, ID2: breaker, ID3: power supply, which are object identifiers recognized through machine learning in the current image, to the remote guidance device 3. The remote guidance device 3 recognizes the outline of the object in the current image through augmented reality-based image analysis, and reflects the machine learning-based object recognition result of the remote server 2 in the augmented reality-based recognition result, thereby recognizing the accuracy of object recognition. To increase.

원격 가이던스 장치(3)는 인식된 객체를 포함한 현재영상에 작업 가이던스 정보를 결합하여 AR 매뉴얼을 화면에 표시한다. 예를 들어, 도 2에 도시된 바와 같이, 전력반 내 파워서플라이의 전력공급에 문제가 발생하면, 원격 가이던스 장치 화면에는 "전력반의 파워서플라이의 파워가 역치값을 넘었으므로 파워를 줄여야 한다" 라는 경고 메시지와 같은 상태정보(102)가 표시된다. 그리고 문제가 발생한 전력반 커버를 대상으로 블록 형태 등의 식별자와 같은 식별정보(100)를 화면에 표시하여 작업자에게 전력반 커버가 작업대상임을 인식시킨다. 식별정보(100)는 작업 매뉴얼에 따라 그 대상이 변경될 수 있다.The remote guidance device 3 displays the AR manual on the screen by combining the work guidance information with the current image including the recognized object. For example, as shown in FIG. 2, when a problem occurs in the power supply of the power supply in the power panel, the remote guidance device screen displays, "The power of the power supply in the power panel has exceeded a threshold value, so the power must be reduced." Status information 102 such as a warning message is displayed. In addition, the identification information 100 such as an identifier such as a block type is displayed on the power panel cover where the problem occurs, so that the power panel cover is recognized by the operator. The target of the identification information 100 may be changed according to the operation manual.

또한, 화면에는 작업 매뉴얼(104)이 함께 표시한다. 예를 들어, "1. 전력반 커버를 연다. 2. 브레이커를 내린다. 3. 파워서플라이를 교체한다. 4. 브레이커를 올린다."와 같이 작업순서에 따라 미리 설정된 작업 매뉴얼이 화면에 표시된다. "1. 전력반 커버를 연다."에서는 현재영상 내 전력반 커버의 손잡이가 점선 등으로 식별 가능하게 표시될 수 있다. "2. 브레이커를 내린다."에서는 현재영상 내 브레이커가 점선 등으로 식별 가능하게 표시될 수 있다. " 3. 파워서플라이를 교체한다."에서는 현재영상 내 파워서플라이가 점선 등으로 식별 가능하게 표시될 수 있다.In addition, the operation manual 104 is also displayed on the screen. For example, a preset work manual is displayed on the screen according to the work order, such as "1. Open the power panel cover. 2. Lower the breaker. 3. Replace the power supply. 4. Raise the breaker." In "1. Open the power panel cover.", the handle of the power panel cover in the current image may be identifiable by a dotted line. In "2. Lower the breaker.", the breaker in the current image may be identifiable by a dotted line or the like. In “3. Replace the power supply.”, the power supply in the current image may be identifiable by a dotted line or the like.

전술한 작업 가이던스 정보는 미리 정의된 템플릿에 기초하여 작업 매뉴얼에 따라 동적으로 편집 가능한 스크립팅 툴(106)을 통해 미리 제작될 수 있다. 작업자가 증강현실 기반 작업 가이던스 정보를 이용하여 문제를 해결하지 못하는 경우, 원격 가이던스 장치(3)는 원격 서버(2)와 네트워크 연결되어 전문가로부터 원격관리(108)를 통해 원격 엔지니어링을 지원받을 수 있다. 원격 엔지니어링은 영상통화, 채팅, 원격화면 공유, 원격제어 등을 포함한다.The above-described operation guidance information may be produced in advance through a scripting tool 106 that is dynamically editable according to the operation manual based on a predefined template. If the worker cannot solve the problem using the augmented reality-based work guidance information, the remote guidance device 3 may be networked with the remote server 2 to receive remote engineering support through the remote management 108 from a specialist. . Remote engineering includes video calls, chat, remote screen sharing, and remote control.

도 3은 본 발명의 다른 실시 예에 따른 원격 가이던스의 개념도이다.3 is a conceptual diagram of remote guidance according to another embodiment of the present invention.

도 3을 참조하면, 작업 대상이 엔진(engine)인 경우, 원격 서버(2)는 기계학습 기반 객체 인식결과를 원격 가이던스 장치(3)에 전송한다. 예를 들어, 원격 서버(2)는 현재영상에서 기계학습을 통해 인식된 객체 식별자인 ID1: 라디에이터 팬, ID2: 타이밍 벨트, ID3: 점화 플러그를 원격 가이던스 장치(3)에 전송한다. 원격 가이던스 장치(3)는 증강현실 기반 영상분석을 통해 현재영상 내에서 객체의 윤곽선을 인식하며, 원격 서버(2)의 기계학습 기반 객체 인식결과를 증강현실 기반 인식결과에 반영하여 객체인식의 정확도를 높인다.Referring to FIG. 3, when the operation target is an engine, the remote server 2 transmits the machine learning-based object recognition result to the remote guidance device 3. For example, the remote server 2 transmits ID1: radiator fan, ID2: timing belt, and ID3: spark plug, which are object identifiers recognized through machine learning in the current image, to the remote guidance device 3. The remote guidance device 3 recognizes the outline of the object in the current image through augmented reality-based image analysis, and reflects the machine learning-based object recognition result of the remote server 2 in the augmented reality-based recognition result, thereby recognizing the accuracy of object recognition. To increase.

원격 가이던스 장치(3)는 인식된 객체를 포함한 현재영상에 작업 가이던스 정보를 결합하여 AR 매뉴얼을 화면에 표시한다. 예를 들어, 도 3에 도시된 바와 같이, 엔진에 문제가 발생하면, 엔진을 대상으로 점선의 네모 형태 등의 식별자와 같은 식별정보(100)를 화면에 표시하여 작업자에게 엔진이 작업대상임을 인식시킨다. 식별정보(100)는 작업 매뉴얼에 따라 그 대상이 변경될 수 있다.The remote guidance device 3 displays the AR manual on the screen by combining the work guidance information with the current image including the recognized object. For example, as illustrated in FIG. 3, when a problem occurs with the engine, the identification information 100, such as an identifier such as a square shape of a dotted line, is displayed on the screen for the engine to recognize to the operator that the engine is a work target. Order. The target of the identification information 100 may be changed according to the operation manual.

화면에는 작업 매뉴얼(104)이 함께 표시한다. 예를 들어, "1. 본넷을 연다. 2. 타이밍 벨트 장력을 확인한다. 3. 라디에이터 팬 회전을 확인한다. 4. 점화 플러그를 확인한다."와 같이 작업순서에 따라 미리 설정된 작업 매뉴얼이 화면에 표시된다. 작업자가 본넷을 연 후에는, 현재영상 내 타이밍 벨트가 점선 등으로 식별 가능하게 표시될 수 있다. 작업자가 타이밍 벨트의 장력을 확인한 후에는, 현재영상 내 라디에이터가 점선 등으로 식별 가능하게 표시될 수 있다. 작업자가 라디에이터 팬 회전을 확인한 후에는, 현재영상 내 점화 플러그가 점선 등으로 식별 가능하게 표시될 수 있다.The operation manual 104 is also displayed on the screen. For example, "1. Open the bonnet. 2. Check the timing belt tension. 3. Check the radiator fan rotation. 4. Check the spark plug." Is displayed on. After the operator opens the bonnet, the timing belt in the current image may be displayed identifiably by a dotted line or the like. After the operator confirms the tension of the timing belt, the radiator in the current image may be displayed identifiably by a dotted line or the like. After the operator confirms the rotation of the radiator fan, the spark plug in the current image may be identifiable by a dotted line or the like.

전술한 작업 가이던스 정보는 미리 정의된 템플릿에 기초하여 작업 매뉴얼에 따라 동적으로 편집 가능한 스크립팅 툴(106)을 통해 미리 제작될 수 있다. 예를 들어, 원격 가이던스 장치(3)는 데스크톱과 같은 사용자 단말(4)을 통해 사용자가 스크립팅 툴(106)을 이용하여 작업 매뉴얼에 따라 작업 가이던스 정보를 제작할 수 있다. 스크립팅 툴(106)은 사용자가 증강현실 기반 작업 가이던스 정보를 쉽게 제작하기 위한 도구로서, 추가적인 AR 매뉴얼 제작비용 없이도 제작이 가능하도록 한다. 스크립팅 툴(106)을 제공할 때 분야별로 적용샘플이 될 수 있는 다수의 템플릿을 제공할 수 있다. 사용자는 소규모 사업자 및 장비 공급자들일 수 있다. 예를 들어, 사용자는 원격 가이던스 장치(3)를 가지고 스크립팅 툴에 기본으로 제공되는 템플릿을 이용하여 증강현실 기반 작업 가이던스 정보를 쉽게 제작한다. 원격 가이던스 장치(3)는 이런 방식으로 제작된 증강현실 기반 작업 가이던스 정보를 입력받아 이를 AR 매뉴얼 생성에 사용할 수 있다. 템플릿에는 가상 제어 영역을 도식화한 템플릿 도면(40)이 제어 화면에 표시될 수 있다. 템플릿 도면에는 가상도구를 나타내는 그래픽 오브젝트가 배치될 수 있다.The above-described operation guidance information may be produced in advance through a scripting tool 106 that is dynamically editable according to the operation manual based on a predefined template. For example, the remote guidance device 3 may allow the user to create work guidance information according to the work manual using the scripting tool 106 through the user terminal 4 such as a desktop. The scripting tool 106 is a tool for the user to easily create augmented reality-based work guidance information, and enables the user to produce it without additional AR manual production cost. When providing the scripting tool 106, it is possible to provide a number of templates that can be applied samples for each field. Users can be small businesses and equipment suppliers. For example, a user can easily create augmented reality-based work guidance information using a template provided as a default in a scripting tool with a remote guidance device 3. The remote guidance device 3 may receive the augmented reality-based work guidance information produced in this way and use it for generating an AR manual. In the template, a template drawing 40 schematically illustrating a virtual control area may be displayed on the control screen. A graphic object representing a virtual tool may be arranged in the template drawing.

작업자가 증강현실 기반 작업 가이던스 정보를 이용하여 문제를 해결하지 못하는 경우, 원격 서버(2)와 네트워크 연결되어 전문가로부터 원격관리(108)를 통해 원격 엔지니어링을 지원받을 수 있다. 원격 엔지니어링은 영상통화, 채팅, 원격화면 공유, 원격제어 등을 포함한다.If the worker cannot solve the problem using the augmented reality-based work guidance information, the remote server 2 may be networked to receive remote engineering support through the remote management 108 from an expert. Remote engineering includes video calls, chat, remote screen sharing, and remote control.

도 4는 본 발명의 일 실시 예에 따른 원격 가이던스 장치의 구성도이다.4 is a configuration diagram of a remote guidance device according to an embodiment of the present invention.

도 1 및 도 4를 참조하면, 원격 가이던스 장치(3)는 입력부(31), 제어부(32), 출력부(33), 통신부(34) 및 메모리(35)를 포함한다.1 and 4, the remote guidance device 3 includes an input unit 31, a control unit 32, an output unit 33, a communication unit 34, and a memory 35.

입력부(31)는 작업자의 현재 시점에서 작업현장을 실시간으로 촬영한 현재영상을 포함하는 영상 데이터를 입력받고, 필요 시 사용자 조작신호를 입력받는다. 사용자 조작신호는 사용자의 화면 터치 신호, 키(key) 입력신호, 음성신호 및 생체 신호 중 적어도 하나를 포함할 수 있다. 입력부(31)는 영상 데이터, 사용자 조작신호를 입력받아 이를 제어부(32)에 전달한다.The input unit 31 receives image data including a current image taken in real time of the work site from the current point of view of the operator, and receives a user manipulation signal if necessary. The user manipulation signal may include at least one of a user's screen touch signal, a key input signal, a voice signal, and a bio signal. The input unit 31 receives image data and a user manipulation signal and transmits it to the control unit 32.

일 실시 예에 따른 입력부(31)는 영상 입력부(310), 터치 입력부(312), 음성 입력부(314) 및 생체 입력부(316)를 포함한다. 영상 입력부(310)는 실시간으로 작업현장을 촬영한 영상을 입력받는다. 터치 입력부(312)는 사용자로부터 화면 터치 신호를 입력받는다. 음성 입력부(314)는 사용자로부터 음성을 입력받는 마이크를 구비하여 음성신호를 입력받는다. 생체 입력부(316)는 사용자를 대상으로 촬영된 생체 이미지를 입력받는다. 영상 입력부(310) 및 생체 입력부(316)는 카메라, 영상센서 등으로부터 영상을 입력받을 수 있다.The input unit 31 according to an embodiment includes an image input unit 310, a touch input unit 312, an audio input unit 314, and a bio-input unit 316. The image input unit 310 receives an image of a work site in real time. The touch input unit 312 receives a screen touch signal from a user. The voice input unit 314 is provided with a microphone that receives voice from a user to receive voice signals. The biometric input unit 316 receives a biometric image photographed for a user. The image input unit 310 and the bio-input unit 316 may receive an image from a camera, an image sensor, or the like.

출력부(33)는 제어부(32)를 통해 처리된 정보를 출력한다. 일 실시 예에 따른 출력부(33)는 제어부(32)를 통해 생성된 AR 매뉴얼을 출력한다. 출력의 예로는 화면에 영상을 표시할 수 있고, 스피커를 통해 음성을 출력할 수도 있다.The output unit 33 outputs information processed through the control unit 32. The output unit 33 according to an embodiment outputs the AR manual generated through the control unit 32. As an example of output, an image may be displayed on a screen, and audio may be output through a speaker.

일 실시 예에 따른 출력부(33)는 프로세스 마커를 화면에 표시한다. 프로세스 마커는, 다수의 작업 단계로 구성된 AR 매뉴얼을 대상으로 각 작업 단계 식별자가 일렬로 정렬되고 적어도 하나의 작업 단계 식별자에 마커가 기록된다. AR 매뉴얼이 다수 개이면, 각 AR 매뉴얼을 일련번호로 구분하여 표시한다. 프로세스 마커의 실시 예는 도 10을 참조로 하여 후술한다.The output unit 33 according to an embodiment displays a process marker on the screen. In the process marker, for each AR manual consisting of a plurality of work steps, each work step identifier is arranged in a line, and a marker is recorded in at least one work step identifier. If there are multiple AR manuals, each AR manual is displayed by serial number. An embodiment of the process marker will be described later with reference to FIG. 10.

통신부(34)는 원격 서버(2)와 네트워크 연결되어, 유무선 통신을 수행한다. 통신부(34)는 원격 서버(2)와 상호 작용하여 네트워크의 항상성 유지를 담당한다. 원격 가이던스 장치(3)는 통신부(34)를 통해 원격 서버(2)와 전용의 네트워크를 통해 연결되거나 인터넷 등의 범용 네트워크를 통해 연결될 수 있다.The communication unit 34 is connected to a network with the remote server 2 to perform wired/wireless communication. The communication unit 34 interacts with the remote server 2 to maintain the homeostasis of the network. The remote guidance device 3 may be connected to the remote server 2 through a dedicated network through the communication unit 34 or through a general-purpose network such as the Internet.

일 실시 예에 따른 통신부(34)는 원격 서버(2)에 작업 매뉴얼을 요청하여 수신한다. 통신부(34)는 원격 서버(2)로부터 작업명령을 수신함에 따라 작업 가이던스를 시작할 수 있다. 예를 들어, 원격 서버(2)가 작업 현장 내 장비들을 모니터링하고 있다가 에러가 발생하거나 에러가 발생할 가능성이 있는 장비를 검출하면 해당 장비에 대한 작업 요청명령을 원격 가이던스 장치(3)에 전송하여 작업자에게 알린다.The communication unit 34 according to an embodiment requests and receives a work manual from the remote server 2. The communication unit 34 may start a work guidance upon receiving a work command from the remote server 2. For example, when the remote server 2 is monitoring equipment in the work site and it detects an error or a possibility of an error, the operation request command for the corresponding equipment is transmitted to the remote guidance device 3 Inform the worker.

일 실시 예에 따른 통신부(34)는 영상 입력부(30)를 통해 획득된 현재영상을 원격 서버(2)에 전송하여 공유한다. 그리고 원격 가이던스 장치(3)의 증강현실 기반 영상분석을 통해 인식된 객체정보를 원격 서버에 전송하며, 원격 서버(2)로부터 기계학습을 통해 인식된 객체정보를 수신할 수 있다.The communication unit 34 according to an embodiment transmits and shares the current image acquired through the image input unit 30 to the remote server 2. Then, the object information recognized through the augmented reality based image analysis of the remote guidance device 3 is transmitted to the remote server, and the object information recognized through machine learning can be received from the remote server 2.

일 실시 예에 따른 통신부(34)는 근거리 무선통신을 지원한다. 예를 들어, 통신부(34)는 근거리 무선통신(Near Field Communication: NFC, 이하 NFC라 칭함), 알에프아이디(radio frequency identification: RFID, 이하 RFID라 칭함), 마그네틱 소스 전송(Magnetic Source Transmission, 이하 MST라 칭함) 등을 지원한다. 통신부(34)는 수~수십 MHz 주파수 대역에서 근거리 무선통신을 수행하여 무선신호를 송수신할 수 있다. 작업대상, 예를 들어 작업장비에 주요 작업단계가 기록된 프로세스 마커가 구비, 예를 들어 부착되어 있는 경우, 통신부(34)는 프로세스 마커와의 근거리 무선통신을 통해 무선신호를 송수신하게 된다.The communication unit 34 according to an embodiment supports short-range wireless communication. For example, the communication unit 34 is short-range wireless communication (Near Field Communication: NFC, hereinafter referred to as NFC), RF ID (radio frequency identification: RFID, hereinafter referred to as RFID), magnetic source transmission (Magnetic Source Transmission, hereinafter MST) Support). The communication unit 34 may transmit and receive radio signals by performing short-range wireless communication in the frequency band of several tens to tens of MHz. When a process marker in which a main work step is recorded is provided on a work object, for example, a work equipment, for example, when attached, the communication unit 34 transmits and receives a radio signal through short-range wireless communication with the process marker.

메모리(35)는 데이터를 저장한다. 데이터는 작업 현장의 장비들의 고유정보, 위치정보, 장비들의 도면, 작업 매뉴얼 정보, 장비 내 부품정보, 작업 스케줄 정보 등일 수 있다. 이러한 정보는 원격 서버(2)로부터 다운로드 받아 저장될 수도 있고, 입력부(31)를 통해 사용자로부터 입력받을 수도 있다. 메모리(35)는 하드디스크(Hard Disk), 플래시 메모리(Flash Memory)와 같은 내장형 메모리뿐만 아니라, CF 카드(Compact Flash Card), SD 카드(Secure Digital Card), SM 카드(Smart Media Card), MMC 카드(Multi-Media Card), 또는 메모리 스틱(Memory Stick) 등과 같은 이동시 메모리로서 원격 가이던스 장치(3)의 내부에 구현될 수 있고, 별도의 장치에 구비되어 있을 수도 있다.The memory 35 stores data. The data may be unique information of the equipment on the job site, location information, drawings of the equipment, work manual information, parts information in the equipment, work schedule information, and the like. This information may be downloaded from the remote server 2 and stored, or may be input from the user through the input unit 31. The memory 35 is a built-in memory such as a hard disk and a flash memory, as well as a CF card (Compact Flash Card), SD card (Secure Digital Card), SM card (Smart Media Card), MMC As a memory when moving, such as a multi-media card or a memory stick, it may be implemented inside the remote guidance device 3 or may be provided in a separate device.

제어부(32)는 전술한 각 구성의 동작을 제어한다. 일 실시 예에 따른 제어부(32)는 영상 입력부(30)를 통해 획득된 현재상황 영상을 대상으로 객체 인식, 트래킹 및 렌더링을 반복적으로 수행한다. 예를 들어, 현재영상에서 작업대상을 인식하고 인식된 작업대상을 트래킹하면서 작업대상에 대한 작업을 돕기 위한 가상의 작업 가이던스 정보를 현재영상에 정합한 후 렌더링하거나, 가상의 작업 가이던스 정보를 렌더링한 후 현재영상에 정합하여 AR 매뉴얼을 생성한다. 일 실시 예에 따른 제어부(32)는 원격 서버(2)의 원격제어를 위한 명령을 처리한다. 예를 들어, 원격 가이던스 장치(3) 화면을 원격 서버(2)에 공유한다.The control unit 32 controls the operation of each configuration described above. The control unit 32 according to an embodiment repeatedly performs object recognition, tracking, and rendering on the current situation image acquired through the image input unit 30. For example, virtual work guidance information to help work on a work target while recognizing the work target in the current image and tracking the recognized work target is matched to the current image and rendered, or virtual work guidance information is rendered. After that, the AR manual is generated by matching the current video. The control unit 32 according to an embodiment processes a command for remote control of the remote server 2. For example, the screen of the remote guidance device 3 is shared with the remote server 2.

일 실시 예에 따른 제어부(32)는 객체 인식을 위해 증강현실 기반 영상분석과 학습 데이터 기반 기계학습을 이용한다. 영상분석은 획득된 현재영상 내에서 객체를 인식하는 일반적인 알고리즘을 사용할 수 있다. 예를 들어, 영상 내 점 군 정보(Point Cloud), 깊이 정보, 컬러 정보 등을 이용하여 객체를 인식한다. 영상분석 기반 객체 인식은 이미 공지된 기술이므로 상세한 설명은 생략한다. 이때, 영상 처리, 예를 들어, 영상에 대한 이진화, 에지 블랜딩(edge blending), 마스킹(masking) 등을 처리하여 객체 인식률을 높일 수 있다.The control unit 32 according to an embodiment uses augmented reality based image analysis and learning data based machine learning for object recognition. The image analysis may use a general algorithm for recognizing objects in the acquired current image. For example, an object is recognized using point cloud information, depth information, and color information in an image. Object analysis-based object recognition is a well-known technique, and thus detailed description is omitted. At this time, an object recognition rate may be increased by processing image processing, for example, binarization of an image, edge blending, and masking.

기계학습은 인공지능(Artificial Intelligence)에서 사용되는 방식 중 하나로서, 수많은 데이터를 컴퓨터에 입력하고 비슷한 것끼리 분류하도록 하여 학습시키는 기술이다. 예를 들어, 저장된 개 사진과 비슷한 사진이 입력되면, 이를 개 사진이라고 컴퓨터가 분류하도록 하는 것이다. 기계학습을 통해 축적된 학습 데이터를 이용하여 영상 내 객체를 인식할 수 있다. 제어부(32)는 이러한 기계학습을 이용한 객체 인식을 증강현실 기반 영상분석의 보조수단으로 활용함에 따라 객체인식의 정확성을 높이고자 한다. 기계학습은 SVM(Support Vector Machines), 딥 러닝(Deep Learning) 기법 등을 이용할 수 있다.Machine learning is one of the methods used in artificial intelligence, and it is a technique of learning by inputting a lot of data into a computer and classifying similar ones. For example, if a picture similar to a stored dog picture is input, the computer classifies it as a dog picture. Objects in the image can be recognized using the learning data accumulated through machine learning. The controller 32 intends to increase the accuracy of object recognition by using object recognition using machine learning as an auxiliary means of augmented reality-based image analysis. Machine learning can use SVM (Support Vector Machines), deep learning techniques, and the like.

일 실시 예에 따른 제어부(32)는 사용자 조작신호에 따라 AR 매뉴얼을 구성하는 다수의 작업 단계 중에서 사용자 조작에 대응되는 작업 단계로 접근하여 해당 작업 단계 화면을 제공한다. 이때, 사용자 조작신호는 사용자의 화면 터치 신호, 음성신호, 영상 신호, 생체 신호 등이 있다. 사용자 조작에 대응되는 작업 단계로의 접근은, 현재 작업 단계를 기준으로 역방향으로의 작업 단계 이동, 순방향으로의 작업 단계 이동, 현재 작업 단계의 반복, 처음 작업 단계로의 이동, 다른 증강현실 매뉴얼로의 이동 등을 포함한다. 제어부(32)의 세부 구성은 도 5를 참조로 하여 후술한다.The control unit 32 according to an embodiment provides a corresponding work step screen by approaching a work step corresponding to a user operation among a plurality of work steps constituting an AR manual according to a user manipulation signal. At this time, the user manipulation signal includes a user's screen touch signal, audio signal, video signal, and bio signal. The access to the work step corresponding to the user's operation can be performed by moving the work step in the reverse direction based on the current work step, moving the work step in the forward direction, repeating the current work step, moving to the first work step, and other augmented reality manuals. And the like. The detailed configuration of the control unit 32 will be described later with reference to FIG. 5.

원격 가이던스 장치(3)가 원격 서버(2)와 연결되는 경우, 원격 가이던스 장치(3)는 원격 서버(2)로부터 수신된 제어명령을 수행하는 에이전트(Agent)가 된다. 원격 가이던스 장치(3)는 원격 가이던스를 위해 애플리케이션(App)을 실행할 수 있다. 이때, 서로 상이한 OS, 예를 들어, 안드로이드, iOS, 윈도우 등 각종 OS를 모두 지원할 수 있는 형태를 가진다.When the remote guidance device 3 is connected to the remote server 2, the remote guidance device 3 becomes an agent that performs control commands received from the remote server 2. The remote guidance device 3 may run an application for remote guidance. At this time, it has a form capable of supporting all different OSs such as different OSs, for example, Android, iOS, and Windows.

도 5는 본 발명의 일 실시 예에 따른 도 4의 제어부의 세부 구성도이다.5 is a detailed configuration diagram of the control unit of FIG. 4 according to an embodiment of the present invention.

도 1, 도 4 및 도 5를 참조하면, 제어부(32)는 신호 처리부(320), 원격제어 처리부(324) 및 디바이스 제어부(326)를 포함한다. 신호 처리부(320)는 영상 인식부(3200), 터치 인식부(3202), 음성 인식부(3204), 생채 인식부(3206) 및 무선신호 인식부(3208)를 포함할 수 있다.1, 4 and 5, the control unit 32 includes a signal processing unit 320, a remote control processing unit 324 and a device control unit 326. The signal processing unit 320 may include an image recognition unit 3200, a touch recognition unit 3202, a voice recognition unit 3204, a raw vegetable recognition unit 3206, and a wireless signal recognition unit 3208.

영상 인식부(3200)는 현재영상에 대한 증강현실 기반 영상분석과 필요 시 학습 데이터를 이용한 기계학습을 이용하여 현재영상에서 객체를 인식한다. 예를 들어, 영상 인식부(3200)는 증강현실 기반 객체 인식결과에 통신부(34)를 통해 수신된 원격 서버(2)의 기계학습 기반 객체 인식결과를 반영하여 객체 인식 정확도를 높인다. 영상 인식부(3200)는 인식된 객체의 움직임을 트래킹한다. 카메라를 통해 포착된 현재영상은 고정된 것이 아니라 작업자의 움직임 등으로 인해 계속 움직이므로, 영상 인식부(3200)는 현재영상 내에서 인식된 객체의 움직임을 계속 따라가는 작업을 수행한다. 이어서, 영상 인식부(3200)는 실제환경과 가상환경 간의 상호작용을 계산하고 계산결과를 반영하여 AR 매뉴얼을 생성한다. AR 매뉴얼은 실제환경에 가상환경이 결합한 것이다.The image recognition unit 3200 recognizes an object in the current image using augmented reality-based image analysis of the current image and machine learning using learning data if necessary. For example, the image recognition unit 3200 increases the object recognition accuracy by reflecting the machine learning-based object recognition result of the remote server 2 received through the communication unit 34 to the augmented reality-based object recognition result. The image recognition unit 3200 tracks the movement of the recognized object. Since the current image captured through the camera is not fixed, but continues to move due to the movement of the operator, the image recognition unit 3200 continues to follow the movement of the recognized object within the current image. Subsequently, the image recognition unit 3200 calculates the interaction between the real environment and the virtual environment and reflects the calculation result to generate an AR manual. The AR manual is a combination of a virtual environment and a real environment.

일 실시 예에 따른 영상 인식부(3200)는 실제객체와 가상객체와의 상호작용을 계산하고 계산결과를 반영하여 현재영상에 가상객체를 결합한 후 렌더링하거나, 가상객체를 렌더링한 후 이를 현재영상에 결합하여 AR 매뉴얼을 생성한다. 이때, 현재영상에서 작업 가이던스 정보를 표현할 가상객체 위치를 선정하고 선정된 가상객체 위치에 작업 매뉴얼에 맞게 작업 가이던스 정보를 배치할 수 있다.The image recognition unit 3200 according to an embodiment calculates the interaction between the real object and the virtual object and reflects the calculation result, combines the virtual object with the current image and renders it, or renders the virtual object and renders it to the current image. Combine to create an AR manual. At this time, the location of the virtual object to represent the operation guidance information in the current image can be selected and the operation guidance information can be arranged according to the operation manual at the selected location of the virtual object.

일 실시 예에 따른 영상 인식부(3200)는 미리 정의된 템플릿에 기초하여 작업 매뉴얼에 따라 동적으로 가공할 수 있는 스크립팅 툴을 통해 미리 제작된 작업 가이던스 정보를 입력받아 이를 AR 매뉴얼 생성에 사용한다. 영상 인식부(3200)를 통해 생성된 AR 매뉴얼은 출력부(33)에 제공된다.The image recognition unit 3200 according to an embodiment receives pre-made work guidance information through a scripting tool that can be dynamically processed according to a work manual based on a predefined template and uses it for generating an AR manual. The AR manual generated through the image recognition unit 3200 is provided to the output unit 33.

터치 인식부(3202), 음성 인식부(3204), 생채 인식부(3206) 및 무선신호 인식부(3208)는 하이퍼모션 단계 처리를 위한 모듈이다.The touch recognition unit 3202, the voice recognition unit 3204, the raw vegetable recognition unit 3206, and the wireless signal recognition unit 3208 are modules for processing a hypermotion step.

터치 입력부(312)가 사용자로부터 화면 터치 신호를 입력받으면, 터치 인식부(3202)는 화면에 표시된 프로세스 마커를 대상으로 터치 입력부로부터 사용자 터치 신호를 수신하여 사용자 터치를 인식하고 AR 매뉴얼을 구성하는 다수의 작업 단계 중에서 인식된 터치에 대응되는 작업 단계로 접근하여 해당 작업 단계 화면을 제공한다.When the touch input unit 312 receives a screen touch signal from a user, the touch recognition unit 3202 receives a user touch signal from the touch input unit for a process marker displayed on the screen, recognizes the user touch, and configures an AR manual The work step corresponding to the recognized touch among the work steps is approached to provide a corresponding work step screen.

음성 인식부(3204)는 AR 매뉴얼을 구성하는 작업 단계들에 식별자 정보와 위치정보를 가지는 음성인식 부호를 할당한다. 음성 입력부(314)가 마이크를 통해 사용자로부터 음성을 입력받으면, 음성 인식부(3204)는 음성 입력부(314)로부터 사용자 음성신호를 수신하여 사용자 음성을 인식하고 다수의 작업 단계 중에서 인식된 음성에 대응되는 음성인식 부호가 할당된 작업 단계로 접근하여 해당 작업 단계 화면을 제공한다.The voice recognition unit 3204 assigns a voice recognition code having identifier information and location information to work steps constituting the AR manual. When the voice input unit 314 receives the voice from the user through the microphone, the voice recognition unit 3204 receives the user voice signal from the voice input unit 314 to recognize the user voice and corresponds to the recognized voice among a plurality of work steps The voice recognition code to be accessed is approached to the assigned work step and a corresponding work step screen is provided.

생체 인식부(3206)는 AR 매뉴얼을 구성하는 작업 단계들에 식별자 정보와 위치정보를 가지는 생체인식 부호를 할당한다. 생체 입력부(316)가 사용자를 대상으로 촬영된 생체 이미지를 입력받으면, 생체 인식부(3206)는 생체 입력부(316)로부터 사용자 생체 이미지를 수신하여 사용자의 얼굴 및 신체를 감지하고 감지된 얼굴 및 신체정보에서 표정 또는 모션을 인식하며 다수의 작업 단계 중에서 인식된 표정 또는 모션에 대응되는 생체인식 부호가 할당된 작업 단계로 접근하여 해당 작업 단계 화면을 제공한다. 사용자의 얼굴 및 신체 감지는 사용자의 눈 깜박임, 홍채, 지문, 손을 흔드는 동작과 같은 손의 움직임, 손가락 두 개를 펴는 동작과 같은 손가락 모양, 고개를 끄덕이는 것과 같은 머리의 움직임 등이 있을 수 있다.The biometric recognition unit 3206 allocates a biometric code having identifier information and location information to work steps constituting the AR manual. When the biometric input unit 316 receives a biometric image photographed for a user, the biometric recognition unit 3206 receives the user biometric image from the biometric input unit 316, detects the user's face and body, and detects the detected face and body The facial expression or motion is recognized from the information, and a biometric code corresponding to the recognized facial expression or motion is accessed from a plurality of work stages, and a corresponding work stage screen is provided. The user's face and body detection may include the user's eye blinks, irises, fingerprints, hand movements such as waving hands, finger shapes such as two fingers spreading, and head movements such as nodding heads. Can.

무선신호 인식부(3208)는 통신부(34)로부터 수신된 무선신호에 의해 작업대상, 예를 들어 작업장비에 구비된 프로세스 마커를 인식한다. 프로세스 마커에는 작업대상에 대한 주요 작업 단계가 기록되어 있으므로, 인식된 프로세스 마커에 기록된 주요 작업 단계를 쉽게 파악할 수 있다. 나아가, 파악된 주요 작업 단계 중에 사용자 조작에 의해 사용자가 원하는 작업 단계로 접근하여 해당 작업 단계 화면을 제공할 수 있다. 무선통신은 NFC, RFID, MST 등을 이용할 수 있다.The wireless signal recognition unit 3208 recognizes a work target, for example, a process marker provided in the work equipment, by the wireless signal received from the communication unit 34. The key markers for the work object are recorded in the process marker, so that the key task steps recorded in the recognized process marker can be easily identified. Further, among the identified major work steps, the user may approach the work step desired by the user and provide a corresponding work step screen. Wireless communication can use NFC, RFID, MST, and the like.

원격제어 처리부(324)는 원격 서버(2)에 원격제어를 요청하고 원격 서버(2)의 제어에 따라 원격으로 화면을 공유한다. 디바이스 제어부(326)는 원격 서버(2)의 제어요청을 처리한다.The remote control processing unit 324 requests remote control from the remote server 2 and remotely shares the screen under the control of the remote server 2. The device control unit 326 processes the control request of the remote server 2.

도 6은 본 발명의 일 실시 예에 따른 도 4의 출력부의 세부 구성도이다.6 is a detailed configuration diagram of an output unit of FIG. 4 according to an embodiment of the present invention.

도 6을 참조하면, 출력부(33)는 식별자 표시부(330), 상태 표시부(332), 작업 매뉴얼 표시부(334), 작업도구 표시부(336) 및 프로세스 마커 표시부(338)를 포함한다.Referring to FIG. 6, the output unit 33 includes an identifier display unit 330, a status display unit 332, a work manual display unit 334, a work tool display unit 336, and a process marker display unit 338.

식별자 표시부(330)는 작업대상을 식별하기 위한 가상객체를 화면에 표시한다. 예를 들어, 화살표, 선, 블록 등의 식별자를 화면에 표시한다. 이때, 작업대상은 작업 매뉴얼에 맞게 변경될 수 있다. 실시간으로 촬영되는 실제화면은 계속 움직이므로 식별자 역시 움직이는 작업대상에 맞게 이동한다. 식별자 표시부(330)는 작업대상의 위치를 알려줄 수도 있다. 예를 들어, 손 모양 등으로 작업이 필요한 부품을 가리킨다.The identifier display unit 330 displays a virtual object for identifying a work object on the screen. For example, identifiers such as arrows, lines, and blocks are displayed on the screen. At this time, the work object may be changed according to the work manual. Since the real screen shot in real time continues to move, the identifier also moves according to the moving work object. The identifier display unit 330 may inform the location of the work object. For example, a hand shape indicates a part that needs work.

상태 표시부(332)는 작업대상의 제어 상태, 고장 상태, 동작 상태, 시간정보, 장비 내 작업이 필요한 제어 파라미터 등 장비에 관한 각종 상태정보를 표시한다. 이때, 작업대상의 품번, 수명주기, 최근 교체 내역, 고장 내역 등을 포함하는 세부설명이 화면에 표시될 수 있다. 제어 파라미터의 예를 들면, 장비가 공기 조화기인 경우, 제어 파라미터는 목표 온도(또는 설정 온도), 상한 온도, 하한 온도, 풍량, 운전, 정지 여부 등이 될 수 있다. 장비가 조명 설비인 경우, 제어 파라미터는 조명 밝기 등이 될 수 있다. 상태 표시부(332)는 작업이 필요한 장비를 대상으로 자동으로 상태정보를 표시할 수 있지만, 작업자의 요청에 따라 상태정보를 표시할 수도 있다. 예를 들어, 작업자가 화면 내에서 소정의 장비를 선택하면, 선택된 장비에 대한 각종 상태정보를 화면에 표시할 수 있다.The status display unit 332 displays various status information about the equipment, such as the control status of the work target, a failure status, an operation status, time information, and control parameters required for work in the equipment. At this time, a detailed description may be displayed on the screen, including the part number of the work object, life cycle, recent replacement history, and failure history. As an example of the control parameter, when the equipment is an air conditioner, the control parameter may be a target temperature (or set temperature), an upper limit temperature, a lower limit temperature, an air volume, operation, stop or the like. If the equipment is a lighting fixture, the control parameter may be lighting brightness or the like. The status display unit 332 may automatically display status information for equipment requiring work, but may also display status information at the request of an operator. For example, when an operator selects a predetermined equipment in the screen, various status information on the selected equipment can be displayed on the screen.

작업 매뉴얼 표시부(334)는 순차적인 작업 매뉴얼을 알려주기 위한 가상객체를 화면에 표시한다. 이때, 작업 매뉴얼에 맞게 작업이 필요한 장비 또는 장비 내 부품을 식별자 표시부(330)를 통해 함께 작업자에 알려줄 수 있다. 작업도구 표시부(336)는 작업에 필요한 도구를 알려주기 위한 가상객체를 화면에 표시한다. 작업도구는 예를 들어, 망치, 드라이버, 손 등이 있다.The work manual display unit 334 displays a virtual object for informing a sequential work manual on the screen. At this time, it is possible to inform the operator of the equipment or parts in the equipment that need work in accordance with the operation manual through the identifier display unit 330. The work tool display unit 336 displays a virtual object for informing a tool necessary for work on the screen. Work tools include, for example, hammers, screwdrivers, and hands.

프로세스 마커 표시부(338)는 다수의 작업 단계로 구성된 AR 매뉴얼을 대상으로 단계 상태를 파악할 수 있도록 는 프로세스 마커를 화면에 표시한다. 프로세스 마커는 AR 매뉴얼 별 식별자 정보와, AR 매뉴얼 내 각 작업 단계 별 식별자 정보와, 사용자가 원하는 작업 단계로의 접근을 위해 현재 작업 단계를 기준으로 적어도 하나의 작업 단계 식별자에 할당되는 마커 정보를 포함한다.The process marker display unit 338 displays a process marker on the screen so as to grasp the state of the step targeting the AR manual composed of a plurality of work steps. The process marker includes identifier information per AR manual, identifier information for each work step in the AR manual, and marker information assigned to at least one work step identifier based on the current work step for access to a work step desired by the user do.

음성인식의 경우, 프로세스 마커 표시부(338)는 AR 매뉴얼을 구성하는 작업 단계들에 식별자 정보와 위치정보를 가지는 음성인식 부호를 할당한다. 생체인식의 경우, 프로세스 마커 표시부(338)는 AR 매뉴얼을 구성하는 작업 단계들에 식별자 정보와 위치정보를 가지는 생체인식 부호를 할당한다.In the case of speech recognition, the process marker display unit 338 assigns speech recognition codes having identifier information and location information to the work steps constituting the AR manual. In the case of biometric recognition, the process marker display unit 338 assigns biometric codes having identifier information and location information to work steps constituting the AR manual.

도 7은 본 발명의 일 실시 예에 따른 원격 서버의 구성도이다.7 is a block diagram of a remote server according to an embodiment of the present invention.

도 1 및 도 7을 참조하면, 원격 서버(2)는 인증 관리부(Verification Management Module: VMM)(20), 모니터링부(Monitoring Screen Module: MSM)(21), 네트워크 연결부(Network Handling Module: NHM)(22), 원격 제어부(Remote Access & Control Module: RCM)(23), 데이터 처리부(Data Processing Module: DPM)(24), 클라이언트 관리부(Device & App Monitoring Module: DMM)(25), 프로토콜 처리부(Messaging Protocol Stack: MPS)(26) 및 데이터 분석부(Bigdata Statistics Engine: BSE)(27)를 포함한다. 원격 서버(2)는 확장성을 고려하여 클라우드 플랫폼 기반으로 설계될 수 있다.1 and 7, the remote server 2 includes an authentication management module (VMM) 20, a monitoring screen module (MSM) 21, and a network handling module (NHM). (22), Remote Control (Remote Access & Control Module: RCM) 23, Data Processing Module (DPM) 24, Client Management (Device & App Monitoring Module: DMM) 25, Protocol Processing ( It includes a Messaging Protocol Stack (MPS) 26 and a Big Data Statistics Engine (BSE) 27. The remote server 2 may be designed based on a cloud platform in consideration of scalability.

인증 관리부(20)는 요청받은 작업자의 사용자 정보의 유효성을 검증하며 필요에 따라 원격 서버(2)로 수신되는 요구사항의 주체가 누구인지를 인증한다. 모니터링부(21)는 원격에 있는 작업자의 원격 가이던스 장치(3) 화면을 모니터링한다. 이때, 기술자 및 관리자의 단말을 통해 모니터링하거나 조작을 돕는 기능을 제공한다.The authentication management unit 20 verifies the validity of user information of the requested worker and authenticates who is the subject of the requirements received by the remote server 2 as necessary. The monitoring unit 21 monitors the screen of the remote guidance device 3 of the remote operator. At this time, it provides functions to monitor or manipulate through the terminals of technicians and managers.

네트워크 연결부(22)는 네트워크의 종류와 관계없이 네트워크 연결의 항상성을 유지한다. 네트워크 연결부(22)는 작업자의 원격 가이던스 장치(3)과 정보를 송수신한다. 예를 들어, 네트워크 연결부(22)는 원격 가이던스 장치(3)로부터 현재영상을 수신하여 공유하고, 원격 가이던스 장치(3)의 증강현실에 기반한 영상분석을 통해 인식된 객체정보를 수신하며, 기계학습 기반 객체 인식결과를 원격 가이던스 장치(3)에 전송한다. 원격 제어부(23)는 원격 가이던스 장치(3)로부터 원격제어 요청을 수신하면 원격 가이던스 장치(3)의 화면을 공유하며, 원격 제어명령을 원격 가이던스 장치(3)에 전송한다. 이때, 필요한 프로세스 조정 기능을 제공한다.The network connection unit 22 maintains the homeostasis of the network connection regardless of the network type. The network connection unit 22 transmits and receives information to and from the operator's remote guidance device 3. For example, the network connection unit 22 receives and shares the current image from the remote guidance device 3, receives object information recognized through image analysis based on augmented reality of the remote guidance device 3, and learns the machine. The base object recognition result is transmitted to the remote guidance device 3. When the remote control unit 23 receives the remote control request from the remote guidance device 3, it shares the screen of the remote guidance device 3 and transmits a remote control command to the remote guidance device 3. At this time, the necessary process adjustment function is provided.

데이터 처리부(24)는 네트워크 연결부(22)를 통해 원격 가이던스 장치(3)로부터 수신된 현재영상을 대상으로 학습 데이터에 기반하여 기계학습을 통해 객체를 인식한다. 클라이언트 관리부(25)는 클라이언트의 상태를 확인하고 클라이언트가 정상적으로 작동하는지 작동하지 않으면 어떤 문제가 있는지 파악 후 처리한다. 클라이언트는 작업자가 소지한 사용자 단말, 원격 가이던스 장치(3)에서 실행되는 애플리케이션, 작업 현장 내 각종 장비일 수 있다. 원격 가이던스 장치(3)는 작업자에 의해 촬영된 현재영상에 증강현실 기반 작업 가이던스 정보를 결합하여 제공한다. 일 실시 예에 따른 클라이언트 관리부(25)는 작업 현장 내 장비들을 모니터링하여 에러를 사전에 예측하고 에러가 발생하기 이전에, 해당 장비에 대한 에러를 처리하기 위한 작업 명령을 생성한다. 생성된 작업 명령은 네트워크 연결부(22)를 통해 작업자의 원격 가이던스 장치(3)에 전송된다.The data processing unit 24 recognizes the object through machine learning based on the learning data on the current image received from the remote guidance device 3 through the network connection unit 22. The client management unit 25 checks the status of the client and, if the client operates normally or not, identifies and processes any problems. The client may be a user terminal carried by an operator, an application executed in the remote guidance device 3, or various types of equipment in a work site. The remote guidance device 3 combines and provides augmented reality-based work guidance information to the current image captured by the operator. The client management unit 25 according to an embodiment monitors equipment in a work site to predict an error in advance and generates a work command for handling an error for the corresponding equipment before an error occurs. The generated work command is transmitted to the remote guidance device 3 of the worker through the network connection 22.

프로토콜 처리부(26)는 클라이언트의 정상신호를 수신하여 파싱하고 이를 처리하기 위한 통신규약을 구현해주는 소프트웨어 모듈이다. 데이터 분석부(27)는 다수의 클라이언트에 대한 이상징후를 파악하여 안정된 서비스를 할 수 있도록 클라이언트로부터 수신된 데이터를 분석한다. 이때, 분석된 데이터를 미리 설정된 역치 값과 비교하여 이상징후를 파악할 수 있다.The protocol processing unit 26 is a software module that receives a client's normal signal, parses it, and implements a communication protocol for processing it. The data analysis unit 27 analyzes the data received from the client so as to grasp the abnormal signs for a plurality of clients and provide a stable service. At this time, anomalies may be identified by comparing the analyzed data with a preset threshold value.

도 8은 본 발명의 일 실시 예에 따른 원격 가이던스 방법을 도시한 흐름도이다.8 is a flowchart illustrating a remote guidance method according to an embodiment of the present invention.

도 8을 참조하면, 원격 가이던스 장치는 작업자의 현재 시점에서 작업현장을 실시간으로 촬영한 현재영상을 획득(800)하여 획득된 현재영상에서 작업대상을 인식하고 인식된 작업대상을 트래킹한다(810). 이어서, 트래킹된 작업대상에 대해 작업자의 작업을 가이드하기 위한 작업 매뉴얼을 획득한다(820). 트래킹된 작업대상을 포함한 현재영상에, 수신된 가상의 작업 매뉴얼을 정합하여 AR 매뉴얼을 사용자에 제공한다(830). 이어서, 사용자 조작신호를 수신하여 사용자 조작을 인식하고 AR 매뉴얼을 구성하는 다수의 작업 단계 중에서 인식된 사용자 조작에 대응되는 작업 단계로 접근하여 해당하는 작업 단계 화면을 제공한다(840).Referring to FIG. 8, the remote guidance device acquires (800) the current image of the work site in real time from the current point of view of the operator, recognizes the work object from the acquired current image, and tracks the recognized work object (810). . Subsequently, an operation manual for guiding the operation of the operator with respect to the tracked work object is acquired (820 ). The AR manual is provided to the user by matching the received virtual work manual to the current image including the tracked work target (830). Subsequently, a user operation signal is received, the user operation is recognized, and a work step screen corresponding to the recognized user operation is approached among a plurality of work steps constituting the AR manual to provide a corresponding work step screen (840 ).

작업 단계 접근 및 제공 단계(840)에서. 일 실시 예에 따른 원격 가이던스 장치는 화면에 표시된 프로세스 마커를 대상으로 사용자로부터 터치 신호를 입력받아 사용자 터치를 인식하고 AR 매뉴얼을 구성하는 다수의 작업 단계 중에서 인식된 터치에 대응되는 작업 단계로 접근하여 해당 작업 단계 화면을 제공한다. AR 매뉴얼을 구성하는 작업 단계들에 식별자 정보와 위치정보를 가지는 음성인식 부호를 할당하는 단계를 더 포함한다. 이 경우, 사용자로부터 음성신호를 입력받아 사용자 음성을 인식하고 다수의 작업 단계 중에서 인식된 음성에 대응되는 음성인식 부호가 할당된 작업 단계로 접근하여 해당 작업 단계 화면을 제공할 수 있다.In the work step access and provision step 840. The remote guidance device according to an embodiment receives a touch signal from a user targeting a process marker displayed on a screen, recognizes a user touch, and approaches a work step corresponding to the recognized touch among a plurality of work steps constituting an AR manual. Provides the corresponding work step screen. Further comprising the step of assigning a voice recognition code having identifier information and location information to the work steps constituting the AR manual. In this case, a user may recognize a user voice by receiving a voice signal from the user, and access to a work step to which a voice recognition code corresponding to the recognized voice is assigned among a plurality of work steps to provide a corresponding work step screen.

작업 단계 접근 및 제공 단계(840)에서, 일 실시 예에 따른 원격 가이던스 장치는 다수의 작업 단계로 구성된 AR 매뉴얼을 대상으로 단계 상태를 파악할 수 있는 프로세스 마커를 화면에 표시한다. 프로세스 마커는 AR 매뉴얼 별 식별자 정보와, AR 매뉴얼 내 각 작업 단계 별 식별자 정보와, 사용자가 원하는 작업 단계로의 접근을 위해 현재 작업 단계를 기준으로 적어도 하나의 작업 단계 식별자에 할당되는 마커 정보를 포함한다.In the operation step approaching and providing step 840, the remote guidance device according to an embodiment displays a process marker on the screen for an AR manual composed of a plurality of operation steps. The process marker includes identifier information per AR manual, identifier information for each work step in the AR manual, and marker information assigned to at least one work step identifier based on the current work step for access to a work step desired by the user do.

작업 단계 접근 및 제공 단계(840)에서, 일 실시 예에 따른 원격 가이던스 장치는 AR 매뉴얼을 구성하는 작업 단계들에 식별자 정보와 위치정보를 가지는 생체인식 부호를 할당한다. 그리고 사용자를 대상으로 촬영된 생체 이미지를 입력받아 사용자의 얼굴 및 신체를 감지하고 감지된 얼굴 및 신체정보에서 표정 및 모션을 인식하며 다수의 작업 단계 중에서 인식된 표정 또는 모션에 대응되는 생체인식 부호가 할당된 작업 단계로 접근하여 해당 작업 단계 화면을 제공할 수 있다.In the operation step access and provision step 840, the remote guidance device according to an embodiment allocates a biometric code having identifier information and location information to the operation steps constituting the AR manual. In addition, a biometric image corresponding to a recognized facial expression or motion among a plurality of work steps is recognized by receiving a biometric image photographed for a user, detecting a user's face and body, and recognizing facial expressions and motions from the detected face and body information. You can access the assigned work step and provide the corresponding work step screen.

일 실시 예에 따른 원격 가이던스 장치는 작업대상에 구비된 프로세스 마커와 근거리 무선통신하여 수신된 무선신호에 의해 프로세스 마커를 인식하고 인식된 프로세스 마커에 기록된 작업 단계를 파악할 수 있다. 나아가, 파악된 주요 작업 단계 중에 사용자 조작에 의해 사용자가 원하는 작업 단계로 접근하여 해당 작업 단계 화면을 제공할 수 있다.The remote guidance device according to an embodiment may recognize the process marker by the received radio signal by performing short-range wireless communication with the process marker provided in the work object and grasp the work step recorded in the recognized process marker. Further, among the identified major work steps, the user may approach the work step desired by the user and provide a corresponding work step screen.

도 9는 본 발명의 일 실시 예에 따른 원격 가이던스 장치가 원격 서버에 AR 매뉴얼을 요청하여 수신하는 프로세스를 도시한 도면이다.9 is a diagram illustrating a process in which a remote guidance device according to an embodiment of the present invention requests and receives an AR manual from a remote server.

도 9를 참조하면, 원격 가이던스 장치(3)는 원격 서버(2)에 AR 매뉴얼을 요청하여 수신한다. AR 매뉴얼은 일련번호로 구분될 수 있다. 예를 들어, 원격 가이던스 장치(3)가 원격 서버(2)로부터 AR 매뉴얼 1001을 다운로드 받아(900) 화면에 AR 매뉴얼 1001을 표시한다. 각 AR 매뉴얼은 다수의 작업 단계로 나눠질 수 있는데, AR 매뉴얼 1001은 10단계로 나누어진다. 이어서, 원격 가이던스 장치(3)는 원격 서버(2)에 AR 매뉴얼 1002를 요청(910)하여 원격 서버(2)로부터 AR 매뉴얼 1002를 다운로드 받고(920) AR 매뉴얼 1001에 이어서 AR 매뉴얼 1002를 화면에 표시한다.Referring to FIG. 9, the remote guidance device 3 requests and receives an AR manual from the remote server 2. AR manuals can be identified by serial number. For example, the remote guidance device 3 downloads the AR manual 1001 from the remote server 2 (900) and displays the AR manual 1001 on the screen. Each AR manual can be divided into multiple work stages, and the AR manual 1001 is divided into 10 stages. Subsequently, the remote guidance device 3 requests the AR manual 1002 from the remote server 2 (910), downloads the AR manual 1002 from the remote server 2 (920), and follows the AR manual 1001 to display the AR manual 1002 on the screen. Display.

도 10은 본 발명의 일 실시 예에 따른 음성인식 부호를 이용한 음성인식을 통해 작업단계의 이동을 보여주는 도면이다.10 is a view showing a movement of a work step through voice recognition using a voice recognition code according to an embodiment of the present invention.

도 10을 참조하면, 일 실시 예에 따른 원격 가이던스 장치(3)는 다단계 조작이 필요한 경우 단계 상태를 파악할 수 있는 프로세스 마커를 이용한다. 프로세스 마커는 AR 매뉴얼의 각 작업 단계 식별자가 일렬로 정렬되고 적어도 하나의 작업 단계 식별자에 마커가 기록된 것으로, 화면에 표시된다. AR 매뉴얼이 다수 개인 경우 각 AR 매뉴얼을 일련번호로 구분하여 표시할 수 있다.Referring to FIG. 10, the remote guidance device 3 according to an embodiment uses a process marker capable of grasping the state of a step when a multi-step operation is required. The process marker is displayed on the screen as each work step identifier of the AR manual is arranged in a line and a marker is recorded in at least one work step identifier. If there are multiple AR manuals, each AR manual can be displayed separately by serial number.

프로세스 마커를 이용하면 현재 작업 단계를 기준으로 역방향(backward) 또는 순방향(forward)으로 사용자가 원하는 위치까지 신속하게 이동할 수 있어서 작업을 용이하게 처리할 수 있다. 예를 들어, 작업 단계 식별자들에 5개 또는 10개 단위의 규칙적인 마커를 기록하고 사용자가 마커를 이용하여 원하는 작업 단계로 이동하도록 처리한다. 원하는 전후 작업 단계로의 이동뿐만 아니라, 현재 작업 단계의 반복 처리도 가능하다.Using the process marker, the user can quickly move to a desired position in a backward or forward direction based on the current work step, thereby facilitating the work. For example, 5 or 10 regular markers are recorded in the work step identifiers, and the user is processed to move to a desired work step using the marker. It is possible not only to move to the desired front-rear work step, but also to repeat the current work step.

AR 매뉴얼은 원격 서버(2)에서 AR 매뉴얼의 순번에 따라 분리되어 원격 가이던스 장치(3)가 필요 시 원격 서버(2)에 요청하여 다운로드 받을 수 있다. AR 매뉴얼이 다수 개이면, 이를 1001, 1002, 1003 등의 일련번호로 구분할 수 있으며, 일련번호 안에 작업 단계가 20단계, 10단계 등으로 구분될 수 있다.The AR manual is separated from the remote server 2 according to the order of the AR manual, and the remote guidance device 3 can request and download the remote server 2 when necessary. If there are multiple AR manuals, they can be classified into serial numbers such as 1001, 1002, 1003, etc., and work steps can be classified into 20 steps, 10 steps, etc. in the serial numbers.

사용자 터치 등을 통해 접근하려면 필연적인 흔들림이 동반되고 마커를 통해 소정의 작업 단계로 점프할 수는 있으나 디스플레이에 포착한 장비나 부속에 대한 트래킹 및 기계학습이 다시 진행되어야 하므로 신속한 처리를 방해한다. 이를 보완하기 위해 중요한 작업 단계에 음성인식 또는 생체인식 부호를 할당하여 작업자의 작업을 보존하며 신속한 반응을 얻을 수 있도록 한다. 음성인식 또는 생체인식 부호는 해당 부호에 식별자 정보 및 위치정보가 할당된다.To approach through a user's touch, it is accompanied by inevitable shaking, and it is possible to jump to a predetermined work step through a marker, but it prevents rapid processing because tracking and machine learning of the equipment or parts captured on the display must be performed again. To compensate for this, voice recognition or biometric codes are assigned to important work steps to preserve the work of the operator and to obtain a quick response. In the voice recognition or biometric code, identifier information and location information are assigned to the corresponding code.

음성인식 부호를 이용한 작업 단계 접근의 예를 들면, 현재 제공 중인 작업단계(Present Marker)와, 현재 작업 단계(Present Marker)를 기준으로 이전 및 이후의 주요 단계(Marker 1, Marker 2, Marker 4)를 마커로 표시한다. 이때, 인식된 사용자 음성이 "1001 다시!"이면, AR 매뉴얼 1001의 마커 1 위치에 해당하는 음성인식 부호가 할당된 처음 작업 단계로 이동하여 제공한다. 수신된 사용자 음성이 "뒤로!"이면, 현재 작업 단계를 기준으로 뒤에 표시된 마커 2 위치에 해당하는 음성인식 부호가 할당된 작업 단계로 이동하여 제공한다. 수신된 사용자 음성이 "앞으로!"이면, 현재 작업 단계를 기준으로 앞에 표시된 마커 4 위치에 해당하는 음성인식 부호가 할당된 작업 단계로 이동하여 제공한다. 수신된 사용자 음성이 "AR 매뉴얼 1001로!"이면, AR 매뉴얼 1001의 마커 1 위치에 해당하는 음성인식 부호가 할당된 작업 단계로 이동하여 제공한다. 수신된 사용자 음성이 "1002 다시!"이면, AR 매뉴얼 1002의 마커 5 위치에 해당하는 음성인식 부호가 할당된 작업 단계로 이동하여 제공한다.For example, a work step approach using voice recognition code, the present work step (Present Marker) and the current work step (Present Marker) based on the previous and subsequent major steps (Marker 1, Marker 2, Marker 4) Is marked with a marker. At this time, if the recognized user voice is "1001 again!", the voice recognition code corresponding to the marker 1 position of the AR manual 1001 is moved to the first assigned operation step and provided. If the received user voice is "back!", the voice recognition code corresponding to the marker 2 position displayed on the basis of the current work step is moved to the assigned work step and provided. If the received user voice is "forward!", the voice recognition code corresponding to the marker 4 position displayed in front of the current work step is moved to the assigned work step and provided. If the received user voice is "AR manual 1001!", the voice recognition code corresponding to the marker 1 position of the AR manual 1001 is moved to the assigned work step and provided. If the received user voice is "1002 again!", the voice recognition code corresponding to the marker 5 position of the AR manual 1002 is moved to the assigned work step and provided.

생체인식 부호를 이용한 작업 단계 접근의 예를 들면, 인식된 사용자 생체신호가 "눈 깜빡임 연속 3회"이면, "처음부터 다시"를 의도하는 것으로, 처음 위치에 해당하는 생체인식 부호가 할당된 작업 단계로 이동하여 제공한다. 인식된 사용자 생체신호가 "고개 끄덕임"이면, "다음"을 의도하는 것으로, 다음 위치에 해당하는 생체인식 부호가 할당된 작업 단계로 이동하여 제공한다.For example, in the case of a work step approach using a biometric code, if the recognized user biometric signal is "3 times in a blink of an eye", it is intended to "restart from the beginning", and the task in which the biometric code corresponding to the initial position is assigned Go to step to provide. If the recognized user biometric signal is "nodding head", "next" is intended, and the biometric code corresponding to the next location is moved to the assigned work step and provided.

이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been focused on the embodiments. Those skilled in the art to which the present invention pertains will understand that the present invention can be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered in terms of explanation, not limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the equivalent range should be interpreted as being included in the present invention.

Claims (16)

몰입형 디스플레이를 착용할 필요가 없는 휴대 가능한 사용자 단말에 구비되는 원격 가이던스 장치에 있어서,
작업자의 현장상황을 촬영한 현재영상을 입력받는 입력부;
입력부로부터 수신된 현재영상에서 작업대상을 인식하고 인식된 작업대상을 포함한 현재영상에 가상의 작업 매뉴얼을 정합하여 증강현실 매뉴얼을 제공하며, 증강현실 매뉴얼을 구성하는 작업 단계들에 식별자 정보와 위치정보를 가지는 음성인식 부호를 할당하며, 사용자 음성신호를 수신하여 소정의 작업 단계로의 접근을 지시하는 사용자 음성을 인식하고 다수의 작업 단계 중에서 인식된 음성에 대응되는 음성인식 부호가 할당된 작업 단계로 접근하여 해당 작업 단계 화면을 제공하는 제어부; 및
증강현실 매뉴얼의 각 작업 단계를 일렬로 정렬하여 표시하고, 사용자가 원하는 작업 단계로의 접근을 위해 현재 작업 단계를 기준으로 적어도 하나의 작업 단계에 프로세스 마커를 표시하는 출력부;
를 포함하는 것을 특징으로 하는 원격 가이던스 장치.
In the remote guidance device provided in a portable user terminal that does not need to wear an immersive display,
An input unit that receives a current image of a worker's field situation;
Recognizes the work object from the current image received from the input unit, matches the virtual work manual to the current image including the recognized work object, provides the augmented reality manual, and provides identifier information and location information in the work steps constituting the augmented reality manual. Assigning a voice recognition code having a, to recognize a user voice instructing access to a predetermined work step by receiving a user voice signal, and a work step in which a voice recognition code corresponding to the recognized voice is assigned among a plurality of work steps. A control unit that accesses and provides a corresponding work step screen; And
An output unit for arranging and displaying each work step of the augmented reality manual in a line, and displaying a process marker on at least one work step based on a current work step for access to a work step desired by a user;
A remote guidance device comprising a.
삭제delete 제 1 항에 있어서,
사용자 음성에 대응되는 작업 단계로의 접근은, 현재 작업 단계를 기준으로 역방향으로의 작업 단계 이동, 순방향으로의 작업 단계 이동, 현재 작업 단계의 반복, 처음 작업 단계로의 이동 또는 다른 증강현실 매뉴얼로의 이동을 포함하는 것을 특징으로 하는 원격 가이던스 장치.
According to claim 1,
The access to the work step corresponding to the user's voice can be performed by moving the work step in the reverse direction based on the current work step, moving the work step in the forward direction, repeating the current work step, moving to the first work step or other augmented reality manual. Remote guidance device comprising a movement of the.
제 1 항에 있어서, 출력부는
다수의 작업 단계로 구성된 증강현실 매뉴얼을 대상으로 단계 상태를 파악할 수 있는 프로세스 마커를 화면에 표시하고,
프로세스 마커는 증강현실 매뉴얼 별 식별자 정보와, 증강현실 매뉴얼 내 각 작업 단계 별 식별자 정보와, 사용자가 원하는 작업 단계로의 접근을 위해 현재 작업 단계를 기준으로 적어도 하나의 작업 단계 식별자에 할당되는 마커 정보를 포함하는 것을 특징으로 하는 원격 가이던스 장치.
According to claim 1, The output unit
A process marker that can identify the status of a step is displayed on the screen targeting the augmented reality manual composed of a number of work steps,
The process marker includes identifier information for each augmented reality manual, identifier information for each work step in the augmented reality manual, and marker information assigned to at least one work step identifier based on the current work step for access to a work step desired by the user A remote guidance device comprising a.
삭제delete 삭제delete 삭제delete 제 1 항에 있어서, 입력부는
실시간으로 작업현장을 촬영한 현재상황 영상을 획득하는 영상 입력부; 를 포함하며,
제어부는
증강현실에 기반하여 현재영상에서 객체를 인식하고, 인식된 객체의 움직임을 트래킹하며, 트래킹되는 실제객체에 대해 증강현실 기반 작업 가이던스 정보에 해당하는 가상객체를 결합하여 렌더링하거나, 가상객체를 렌더링한 후 이를 실제객체에 결합하여 증강현실 매뉴얼을 생성하는 영상 인식부;
를 포함하는 것을 특징으로 하는 원격 가이던스 장치.
The method of claim 1, wherein the input unit
An image input unit for acquiring an image of a current situation photographing a work site in real time; It includes,
The control
Based on augmented reality, it recognizes an object from the current image, tracks the movement of the recognized object, and combines and renders virtual objects corresponding to the augmented reality-based work guidance information for the tracked real objects or renders virtual objects An image recognition unit that combines them with real objects to generate an augmented reality manual;
A remote guidance device comprising a.
제 8 항에 있어서, 원격 가이던스 장치는
원격 서버와 네트워크 연결되어 입력부를 통해 획득된 현재영상을 원격 서버에 전송하여 공유하고 원격 가이던스 장치의 증강현실 기반 영상분석을 통해 인식된 객체정보를 원격 서버에 전송하며 원격 서버로부터 기계학습을 통해 인식된 객체정보를 수신하는 통신부; 를 더 포함하며,
영상 인식부는
증강현실 기반 객체의 윤곽선 인식결과에 통신부로부터 수신된 원격 서버의 기계학습 기반 객체 인식결과를 반영하여 증강현실 기반 객체의 윤곽선 인식 시에 파악되지 못한 객체를 인식하는 것을 특징으로 하는 원격 가이던스 장치.
The method of claim 8, wherein the remote guidance device
It is networked with a remote server and transmits and shares the current image acquired through the input unit to the remote server, transmits the object information recognized through the augmented reality based image analysis of the remote guidance device to the remote server, and recognizes it through machine learning from the remote server Communication unit for receiving the object information; Further comprising,
The image recognition unit
A remote guidance device characterized by recognizing a contour recognition result of an augmented reality based object by recognizing a machine learning based object recognition result of a remote server received from a communication unit, and recognizing an unknown object when recognizing the contour of the augmented reality based object.
제 1 항에 있어서, 원격 가이던스 장치는
작업대상에 구비된 프로세스 마커와 근거리 무선통신이 가능한 통신부; 를 더 포함하며,
제어부는
통신부로부터 수신된 무선신호에 의해 프로세스 마커를 인식하고 인식된 프로세스 마커에 기록된 작업 단계를 파악하며 파악된 작업 단계 중에 사용자 조작에 의해 사용자가 원하는 작업 단계로 접근하여 해당 작업 단계 화면을 제공하는 무선신호 인식부;
를 포함하는 것을 특징으로 하는 원격 가이던스 장치.
The method of claim 1, wherein the remote guidance device
A communication unit capable of short-range wireless communication and a process marker provided on the work object; Further comprising,
The control
A radio that recognizes a process marker by a radio signal received from the communication unit, identifies the work step recorded in the recognized process marker, and provides a corresponding work step screen by accessing the work step desired by the user by user manipulation during the identified work step Signal recognition unit;
A remote guidance device comprising a.
몰입형 디스플레이를 착용할 필요가 없는 휴대 가능한 사용자 단말에 구비된 원격 가이던스 장치를 이용한 원격 가이던스 방법에 있어서, 원격 가이던스 장치가:
작업자의 현장상황을 촬영한 현재영상을 획득하여 현재영상에서 작업대상을 인식하고 인식된 작업대상을 트래킹하는 단계;
트래킹된 작업대상에 대해 작업자의 작업을 가이드하기 위한 작업 매뉴얼을 획득하는 단계;
트래킹된 작업대상을 포함한 현재영상에, 수신된 가상의 작업 매뉴얼을 정합하여 증강현실 매뉴얼을 제공하는 단계;
증강현실 매뉴얼을 구성하는 작업 단계들에 식별자 정보와 위치정보를 가지는 음성인식 부호를 할당하고 각 작업 단계를 일렬로 정렬하여 표시하는 단계;
사용자가 원하는 작업 단계로의 접근을 위해 현재 작업 단계를 기준으로 적어도 하나의 작업 단계에 프로세스 마커를 표시하는 단계; 및
사용자 음성신호를 수신하여 소정의 작업 단계로의 접근을 지시하는 사용자 음성을 인식하고 다수의 작업 단계 중에서 인식된 음성에 대응되는 음성인식 부호가 할당된 작업 단계로 접근하여 해당 작업 단계 화면을 제공하는 단계;
를 포함하는 것을 특징으로 하는 원격 가이던스 제공 방법.
In a remote guidance method using a remote guidance device provided in a portable user terminal that does not need to wear an immersive display, the remote guidance device includes:
Acquiring a current image of a worker's field situation, recognizing a work object from the current image, and tracking the recognized work object;
Obtaining a work manual for guiding a worker's work on the tracked work object;
Providing an augmented reality manual by matching the received virtual work manual to the current image including the tracked work target;
Assigning a voice recognition code having identifier information and location information to work steps constituting the augmented reality manual and arranging and displaying each work step in a line;
Displaying a process marker on at least one work step based on a current work step for access to a work step desired by a user; And
Recognizing a user's voice instructing access to a predetermined work step by receiving a user voice signal, and accessing a work step to which a voice recognition code corresponding to the recognized voice is assigned among a plurality of work steps to provide a corresponding work step screen step;
Remote guidance providing method comprising a.
제 11 항에 있어서,
프로세스 마커는 증강현실 매뉴얼 별 식별자 정보와, 증강현실 매뉴얼 내 각 작업 단계 별 식별자 정보와, 사용자가 원하는 작업 단계로의 접근을 위해 현재 작업 단계를 기준으로 적어도 하나의 작업 단계 식별자에 할당되는 마커 정보를 포함하는 것을 특징으로 하는 원격 가이던스 제공 방법.
The method of claim 11,
The process marker includes identifier information for each augmented reality manual, identifier information for each work step in the augmented reality manual, and marker information assigned to at least one work step identifier based on the current work step for access to a work step desired by the user Remote guidance providing method comprising a.
삭제delete 삭제delete 삭제delete 제 11 항에 있어서, 원격 가이던스 제공 방법은
작업대상에 구비된 프로세스 마커와 근거리 무선통신하는 단계; 및
무선통신을 통해 수신된 무선신호에 의해 프로세스 마커를 인식하고 인식된 프로세스 마커에 기록된 작업 단계를 파악하며 파악된 작업 단계 중에 사용자 조작에 의해 사용자가 원하는 작업 단계로 접근하여 해당 작업 단계 화면을 제공하는 단계;
를 더 포함하는 것을 특징으로 하는 원격 가이던스 제공방법.
The method of claim 11, wherein the method for providing remote guidance
Short-range wireless communication with the process marker provided on the work object; And
The process marker is recognized by the wireless signal received through wireless communication, the work step recorded in the recognized process marker is identified, and the user's operation accesses the work step desired by the user during the identified work step to provide the corresponding work step screen To do;
A method for providing remote guidance, further comprising a.
KR1020180148755A 2018-11-27 2018-11-27 Remote guidance apparatus and method capable of handling hyper-motion step based on augmented reality and machine learning KR102132330B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180148755A KR102132330B1 (en) 2018-11-27 2018-11-27 Remote guidance apparatus and method capable of handling hyper-motion step based on augmented reality and machine learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180148755A KR102132330B1 (en) 2018-11-27 2018-11-27 Remote guidance apparatus and method capable of handling hyper-motion step based on augmented reality and machine learning

Publications (2)

Publication Number Publication Date
KR20200068075A KR20200068075A (en) 2020-06-15
KR102132330B1 true KR102132330B1 (en) 2020-07-09

Family

ID=71081448

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180148755A KR102132330B1 (en) 2018-11-27 2018-11-27 Remote guidance apparatus and method capable of handling hyper-motion step based on augmented reality and machine learning

Country Status (1)

Country Link
KR (1) KR102132330B1 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112529125A (en) * 2020-11-13 2021-03-19 贵州电网有限责任公司 Machine room operation implementation method based on AR
KR102592551B1 (en) * 2020-11-30 2023-10-24 울산과학기술원 Object recognition processing apparatus and method for ar device
KR102605552B1 (en) * 2020-12-29 2023-11-27 주식회사 딥파인 Augmented Reality System
KR102634163B1 (en) * 2020-12-30 2024-02-06 주식회사 스팀도서관 Method for providing smart experiential education space and system using the same
KR102462144B1 (en) * 2021-01-21 2022-11-04 주식회사 증강지능 AI Chatbot System with MR Content for Tutoring
CN113985820B (en) * 2021-08-19 2023-10-20 中核武汉核电运行技术股份有限公司 Nuclear power plant remote guidance system and method based on augmented reality technology
CN114489324A (en) * 2021-12-28 2022-05-13 北京亮亮视野科技有限公司 Information acquisition method and device, electronic equipment and storage medium
CN114385291A (en) * 2021-12-29 2022-04-22 南京财经大学 Standard workflow guiding method and device based on plug-in transparent display screen
CN115064023A (en) * 2022-05-06 2022-09-16 中国人民解放军陆军防化学院 Portable terminal teaching training system based on AR glasses

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100834904B1 (en) * 2006-12-08 2008-06-03 한국전자통신연구원 Development system of augmented reality contents supported user interaction based marker and method thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101087022B1 (en) * 2009-07-17 2011-11-25 (주) 티아이에스 Testing method for failure recognition system
KR20130067450A (en) * 2011-12-14 2013-06-24 한국전자통신연구원 Field applied safety helmet apparatus for ar-based of maintenance and method for providing its application service

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100834904B1 (en) * 2006-12-08 2008-06-03 한국전자통신연구원 Development system of augmented reality contents supported user interaction based marker and method thereof

Also Published As

Publication number Publication date
KR20200068075A (en) 2020-06-15

Similar Documents

Publication Publication Date Title
KR102132330B1 (en) Remote guidance apparatus and method capable of handling hyper-motion step based on augmented reality and machine learning
KR102031670B1 (en) Mobile terminal providing augmented reality based maintenance guidance, remote managing apparatus and method for remote guidance using the same
CN108089696B (en) Virtual reality and augmented reality for industrial automation
KR102439337B1 (en) Multilateral participation remote collaboration system based on Augmented reality sharing and method thereof
US11064009B2 (en) Augmented reality-based wiring, commissioning and monitoring of controllers
EP3111297B1 (en) Tracking objects during processes
US11900708B2 (en) Neural network-based recognition of trade workers present on industrial sites
CN113703569A (en) System and method for virtual reality and augmented reality for industrial automation
JP2015204615A (en) Method and system for interacting between equipment and moving device
CN107290972B (en) Equipment control method and device
US20170277559A1 (en) Classifying work processes
US20170083083A1 (en) Image processing virtual reality controller system and method
CN116243802B (en) Physical and chemical system of virtual world
AU2020222504B2 (en) Situational awareness monitoring
KR20210121609A (en) Apparatus for remote guide and method thereof
KR102367965B1 (en) Augmented reality based remote guidance system using cognitive factors and method thereof
CN111660294B (en) Augmented reality control system of hydraulic heavy-duty mechanical arm
EP3745332B1 (en) Systems, device and method of managing a building automation environment
US20140214185A1 (en) Somatosensory Household Electricity Control Equipment and System Thereof
KR20240039628A (en) Augmented reality-based remote control system and method thereof
KR20230028702A (en) Augmented reality-based remote system for non-face-to-face collaboration between experts
JP2019197165A (en) Work training device, work training method, and program
KR20200032596A (en) Method and terminal unit for providing manufacturing service information in dual reality environment integrated with augmented reality and virtual reality
KR101803383B1 (en) Semiconductor Factory Automation Solution System based on SECS Communication Protocol
WO2022234668A1 (en) Operation management device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right