KR102132330B1 - Remote guidance apparatus and method capable of handling hyper-motion step based on augmented reality and machine learning - Google Patents
Remote guidance apparatus and method capable of handling hyper-motion step based on augmented reality and machine learning Download PDFInfo
- Publication number
- KR102132330B1 KR102132330B1 KR1020180148755A KR20180148755A KR102132330B1 KR 102132330 B1 KR102132330 B1 KR 102132330B1 KR 1020180148755 A KR1020180148755 A KR 1020180148755A KR 20180148755 A KR20180148755 A KR 20180148755A KR 102132330 B1 KR102132330 B1 KR 102132330B1
- Authority
- KR
- South Korea
- Prior art keywords
- work
- work step
- augmented reality
- manual
- user
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 93
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 89
- 238000010801 machine learning Methods 0.000 title claims abstract description 34
- 239000003550 marker Substances 0.000 claims description 77
- 230000008569 process Effects 0.000 claims description 63
- 238000004891 communication Methods 0.000 claims description 36
- 230000033001 locomotion Effects 0.000 claims description 21
- 238000010191 image analysis Methods 0.000 claims description 13
- 230000008685 targeting Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 abstract description 26
- 238000010586 diagram Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 11
- 238000013459 approach Methods 0.000 description 10
- 238000012423 maintenance Methods 0.000 description 8
- 238000009877 rendering Methods 0.000 description 8
- 230000008921 facial expression Effects 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 230000008439 repair process Effects 0.000 description 3
- 239000004984 smart glass Substances 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000013632 homeostatic process Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 235000013311 vegetables Nutrition 0.000 description 2
- 241000167926 Entoprocta Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000000193 eyeblink Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 210000000554 iris Anatomy 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000009423 ventilation Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/20—Administration of product repair or maintenance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/04—Manufacturing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Human Computer Interaction (AREA)
- Human Resources & Organizations (AREA)
- Software Systems (AREA)
- General Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Health & Medical Sciences (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Manufacturing & Machinery (AREA)
- Educational Technology (AREA)
- Artificial Intelligence (AREA)
- Primary Health Care (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Educational Administration (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Entrepreneurship & Innovation (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
하이퍼모션 단계 처리가 가능한 증강현실 및 기계학습 기반 원격 가이던스 장치 및 그 방법이 개시된다. 일 실시 예에 따른 사용자 단말에 구비되는 원격 가이던스 장치는, 작업자의 현장상황을 촬영한 현재영상을 입력받는 입력부와, 입력부로부터 수신된 현재영상에서 작업대상을 인식하고 인식된 작업대상을 포함한 현재영상에 가상의 작업 매뉴얼을 정합하여 증강현실 매뉴얼을 제공하며, 사용자 조작신호에 따라 증강현실 매뉴얼을 구성하는 다수의 작업 단계 중에서 사용자 조작에 대응되는 작업 단계로 접근하여 해당 작업 단계 화면을 제공하는 제어부와, 증강현실 매뉴얼 화면을 표시하는 출력부를 포함한다.Disclosed is an augmented reality and machine learning based remote guidance device capable of processing hypermotion steps and a method therefor. The remote guidance device provided in the user terminal according to an embodiment of the present invention includes an input unit that receives a current image photographing a field situation of an operator, and recognizes a work object from the current image received from the input unit, and recognizes the current work object. And a control unit that provides a corresponding augmented reality manual by matching a virtual work manual to a work step corresponding to a user manipulation among a plurality of work steps constituting the augmented reality manual according to a user manipulation signal. , An output unit displaying an augmented reality manual screen.
Description
본 발명은 증강현실 기반 영상분석 및 원격제어 기술에 관한 것이다.The present invention relates to augmented reality based image analysis and remote control technology.
장비의 유지관리를 하기 위해서는 수년간의 경험이 필요하고, 숙련자라 할지라도 신규 장비 도입시 이를 숙지하는데 오랜 시간이 소요된다. 또한, 아무리 숙련자라 할지라도 모든 정비 절차를 숙지하고 있을 수가 없고, 언제 어떤 정비 요구가 발생할지 예측하기가 어렵다. 이에 따라, 정비사들은 장비 유지 보수를 위한 매뉴얼을 항상 휴대하여, 유지보수 업무를 수행하여 왔다.In order to maintain the equipment, many years of experience are required, and even a skilled person takes a long time to understand it when introducing new equipment. Also, no matter how skilled, it is difficult to know all the maintenance procedures, and it is difficult to predict when and what maintenance needs will occur. Accordingly, mechanics have carried out maintenance work by always carrying a manual for equipment maintenance.
유지 보수를 위한 매뉴얼은 일반적으로 책으로 제작되어 있거나, 2D 이미지로 제작되어 있다. 책으로 제작된 매뉴얼의 문제점은 1개의 부품이라도 고장 날 경우에 해당 페이지를 일일이 찾아야 하고 매뉴얼이 오래되면 색이 변질되거나 손상이 심해지는 문제점이 있다. 항공기 등과 같이 복잡한 형태의 기계 장비의 경우에는 수십만 가지 상의 매뉴얼이 필요하기 때문에, 그 양이 방대하여 휴대가 불가능하다.Manuals for maintenance are generally produced in books or 2D images. The problem with manuals made of books is that even if one part fails, the corresponding page must be found individually, and if the manual is old, the color is changed or the damage is severe. In the case of a complex type of mechanical equipment such as an aircraft, hundreds of thousands of manuals are required, so the amount is vast and cannot be carried.
이러한 유지 보수 등의 문제는 비단 산업현장에만 한정되는 것은 아니다. 예를 들어, 가정집에서 냉장고가 고장난 경우 소비자는 스스로 고칠 수 없는 경우가 대부분이어서, 별도의 전문가를 불러 수리해야 하는 경우가 많다. 이때, 문제 해결까지 시간, 비용 등이 많이 소요되어 비효율적이다.Problems such as maintenance are not limited to industrial sites. For example, in the case of a refrigerator failure in a home, the consumer is often unable to fix it himself, and often requires a separate specialist to repair it. At this time, it takes a lot of time and money to solve the problem, which is inefficient.
일 실시 예에 따라, 복잡한 구조의 장비일지라도 또는 숙련된 작업자가 아닐지라도 증강현실에 기반하여 제공되는 순차적인 지시에 따라 쉽고 빠르게 작업할 수 있으며, 다단계 조작이 필요한 경우에도 쉽고 빠르게 조작할 수 있도록 하이퍼모션 단계 처리가 가능한 증강현실 및 기계학습 기반 원격 가이던스 장치 및 그 방법을 제안한다.According to one embodiment, even if it is a complex structured equipment or an unskilled worker, it is possible to work quickly and easily according to the sequential instructions provided based on augmented reality, and it can be operated quickly and easily even when multi-step operation is required. We propose an augmented reality and machine learning-based remote guidance device capable of processing motion steps and a method therefor.
일 실시 예에 따른 사용자 단말에 구비되는 원격 가이던스 장치는, 작업자의 현장상황을 촬영한 현재영상을 입력받는 입력부와, 입력부로부터 수신된 현재영상에서 작업대상을 인식하고 인식된 작업대상을 포함한 현재영상에 가상의 작업 매뉴얼을 정합하여 증강현실 매뉴얼을 제공하며, 사용자 조작신호에 따라 증강현실 매뉴얼을 구성하는 다수의 작업 단계 중에서 사용자 조작에 대응되는 작업 단계로 접근하여 해당 작업 단계 화면을 제공하는 제어부와, 증강현실 매뉴얼 화면을 표시하는 출력부를 포함한다.The remote guidance device provided in the user terminal according to an embodiment of the present invention includes an input unit that receives a current image photographing a field situation of an operator, and recognizes a work object from the current image received from the input unit, and recognizes the current work object. And a control unit that provides a corresponding augmented reality manual by matching a virtual work manual to a work step corresponding to a user manipulation among a plurality of work steps constituting the augmented reality manual according to a user manipulation signal. , An output unit displaying an augmented reality manual screen.
사용자 조작신호는 사용자의 화면 터치 신호, 음성신호, 영상 신호 및 생체 신호 중 적어도 하나를 포함할 수 있다. 사용자 조작에 대응되는 작업 단계로의 접근은, 현재 작업 단계를 기준으로 역방향으로의 작업 단계 이동, 순방향으로의 작업 단계 이동, 현재 작업 단계의 반복, 처음 작업 단계로의 이동 또는 다른 증강현실 매뉴얼로의 이동을 포함할 수 있다.The user manipulation signal may include at least one of a user's screen touch signal, audio signal, image signal, and bio signal. The access to the work step corresponding to the user operation can be performed by moving the work step in the reverse direction based on the current work step, moving the work step in the forward direction, repeating the current work step, moving to the first work step or other augmented reality manual. It may include the movement of.
출력부는 다수의 작업 단계로 구성된 증강현실 매뉴얼을 대상으로 단계 상태를 파악할 수 있는 프로세스 마커를 화면에 표시하고, 프로세스 마커는 증강현실 매뉴얼 별 식별자 정보와, 증강현실 매뉴얼 내 각 작업 단계 별 식별자 정보와, 사용자가 원하는 작업 단계로의 접근을 위해 현재 작업 단계를 기준으로 적어도 하나의 작업 단계 식별자에 할당되는 마커 정보를 포함할 수 있다.The output unit displays a process marker on the screen for augmented reality manual composed of a plurality of work steps to determine the step status, and the process marker includes identifier information for each augmented reality manual and identifier information for each work step in the augmented reality manual. , May include marker information assigned to at least one work step identifier based on the current work step for access to a work step desired by the user.
입력부는 사용자로부터 화면 터치 신호를 입력받는 터치 입력부를 포함하며, 제어부는 화면에 표시된 프로세스 마커를 대상으로 터치 입력부로부터 사용자 터치 신호를 수신하여 사용자 터치를 인식하고 증강현실 매뉴얼을 구성하는 다수의 작업 단계 중에서 인식된 터치에 대응되는 작업 단계로 접근하여 해당 작업 단계 화면을 제공하는 터치 인식부를 포함할 수 있다.The input unit includes a touch input unit that receives a screen touch signal from a user, and the control unit receives a user touch signal from the touch input unit targeting the process marker displayed on the screen, recognizes the user touch, and configures augmented reality manual. It may include a touch recognition unit that accesses to a work step corresponding to the recognized touch and provides a corresponding work step screen.
입력부는 사용자로부터 음성신호를 입력받는 음성 입력부를 포함하며, 제어부는 증강현실 매뉴얼을 구성하는 작업 단계들에 식별자 정보와 위치정보를 가지는 음성인식 부호를 할당하며, 음성 입력부로부터 사용자 음성신호를 수신하여 사용자 음성을 인식하고 다수의 작업 단계 중에서 인식된 음성에 대응되는 음성인식 부호가 할당된 작업 단계로 접근하여 해당 작업 단계 화면을 제공하는 음성 인식부를 포함할 수 있다.The input unit includes a voice input unit that receives a voice signal from a user, and the control unit allocates a voice recognition code having identifier information and location information to work steps constituting the augmented reality manual, and receives a user voice signal from the voice input unit. It may include a voice recognition unit for recognizing a user's voice and accessing a work step to which a voice recognition code corresponding to the recognized voice is assigned among a plurality of work steps to provide a corresponding work step screen.
입력부는 사용자를 대상으로 촬영된 생체 이미지를 입력받는 생체 입력부; 를 포함하며, 제어부는 증강현실 매뉴얼을 구성하는 작업 단계들에 식별자 정보와 위치정보를 가지는 생체인식 부호를 할당하며, 생체 입력부로부터 사용자 생체 이미지를 수신하여 사용자의 얼굴 및 신체를 감지하고 감지된 얼굴 및 신체정보에서 표정 또는 모션을 인식하며 다수의 작업 단계 중에서 인식된 표정 또는 모션에 대응되는 생체인식 부호가 할당된 작업 단계로 접근하여 해당 작업 단계 화면을 제공하는 생체 인식부를 포함할 수 있다.The input unit includes a bio-input unit that receives a bio-image photographed for a user; Including, the control unit assigns a biometric code having identifier information and location information to work steps constituting the augmented reality manual, receives the user's biometric image from the biometric input unit, detects the user's face and body, and detects the detected face And a biometric recognition unit that recognizes an expression or a motion from the body information and accesses a work step to which a biometric code corresponding to the recognized expression or motion is assigned among a plurality of work steps to provide a corresponding work step screen.
입력부는 실시간으로 작업현장을 촬영한 현재상황 영상을 획득하는 영상 입력부를 포함하며, 제어부는 증강현실에 기반하여 현재영상에서 객체를 인식하고, 인식된 객체의 움직임을 트래킹하며, 트래킹되는 실제객체에 대해 증강현실 기반 작업 가이던스 정보에 해당하는 가상객체를 결합하여 렌더링하거나, 가상객체를 렌더링한 후 이를 실제객체에 결합하여 증강현실 매뉴얼을 생성하는 영상 인식부를 포함할 수 있다. 원격 가이던스 장치는 원격 서버와 네트워크 연결되어 입력부를 통해 획득된 현재영상을 원격 서버에 전송하여 공유하고 원격 가이던스 장치의 증강현실 기반 영상분석을 통해 인식된 객체정보를 원격 서버에 전송하며 원격 서버로부터 기계학습을 통해 인식된 객체정보를 수신하는 통신부를 더 포함하며, 영상 인식부는 증강현실 기반 객체의 윤곽선 인식결과에 통신부로부터 수신된 원격 서버의 기계학습 기반 객체 인식결과를 반영하여 증강현실 기반 객체의 윤곽선 인식 시에 파악되지 못한 객체를 인식할 수 있다.The input unit includes an image input unit for acquiring a current situation image of a work site in real time, and the control unit recognizes an object in the current image based on augmented reality, tracks the movement of the recognized object, and tracks the actual object to be tracked. It may include an image recognition unit that combines and renders virtual objects corresponding to augmented reality-based work guidance information, or renders virtual objects and combines them with real objects to generate an augmented reality manual. The remote guidance device is networked with the remote server and transmits and shares the current image acquired through the input unit to the remote server, transmits the object information recognized through the augmented reality based image analysis of the remote guidance device to the remote server, and sends the machine from the remote server. Further comprising a communication unit for receiving the object information recognized through the learning, the image recognition unit reflects the machine learning-based object recognition result of the remote server received from the communication unit in the contour recognition result of the augmented reality-based object, the contour of the augmented reality-based object Objects not recognized at the time of recognition can be recognized.
원격 가이던스 장치는 작업대상에 구비된 프로세스 마커와 근거리 무선통신이 가능한 통신부를 더 포함하며, 제어부는 통신부로부터 수신된 무선신호에 의해 프로세스 마커를 인식하고 인식된 프로세스 마커에 기록된 작업 단계를 파악하며 파악된 작업 단계 중에 사용자 조작에 의해 사용자가 원하는 작업 단계로 접근하여 해당 작업 단계 화면을 제공하는 무선신호 인식부를 포함할 수 있다.The remote guidance device further includes a process marker provided in the work object and a communication unit capable of short-range wireless communication, and the control unit recognizes the process marker by the radio signal received from the communication unit and identifies the work step recorded in the recognized process marker, It may include a wireless signal recognition unit to access the desired work step by the user manipulation during the identified work step to provide a screen of the work step.
다른 실시 예에 따른 사용자 단말에 구비된 원격 가이던스 장치를 이용한 원격 가이던스 방법은, 원격 가이던스 장치가: 작업자의 현장상황을 촬영한 현재영상을 획득하여 현재영상에서 작업대상을 인식하고 인식된 작업대상을 트래킹하는 단계와, 트래킹된 작업대상에 대해 작업자의 작업을 가이드하기 위한 작업 매뉴얼을 획득하는 단계와, 트래킹된 작업대상을 포함한 현재영상에, 수신된 가상의 작업 매뉴얼을 정합하여 증강현실 매뉴얼을 제공하는 단계와, 사용자 조작신호를 수신하여 사용자 조작을 인식하고 증강현실 매뉴얼을 구성하는 다수의 작업 단계 중에서 해당 작업 단계 화면을 제공하는 단계를 포함한다.In a remote guidance method using a remote guidance device provided in a user terminal according to another embodiment, the remote guidance device: acquires a current image of a worker's field situation, recognizes a work object from the current image, and recognizes the recognized work object. Tracking, acquiring a work manual for guiding a worker's work on the tracked work target, and matching the received virtual work manual to the current image including the tracked work target to provide an augmented reality manual And receiving a user operation signal to recognize a user operation and providing a corresponding operation step screen among a plurality of operation steps constituting the augmented reality manual.
원격 가이던스 제공 방법은, 다수의 작업 단계로 구성된 증강현실 매뉴얼을 대상으로 단계 상태를 파악할 수 있는 프로세스 마커를 화면에 표시하는 단계를 더 포함하며, 프로세스 마커는 증강현실 매뉴얼 별 식별자 정보와, 증강현실 매뉴얼 내 각 작업 단계 별 식별자 정보와, 사용자가 원하는 작업 단계로의 접근을 위해 현재 작업 단계를 기준으로 적어도 하나의 작업 단계 식별자에 할당되는 마커 정보를 포함할 수 있다.The method for providing remote guidance further includes displaying a process marker on the screen for augmented reality manual composed of a plurality of work steps to identify a step status, and the process marker includes identifier information for each augmented reality manual and augmented reality It may include identifier information for each work step in the manual, and marker information assigned to at least one work step identifier based on a current work step for access to a work step desired by a user.
해당 작업 단계 화면을 제공하는 단계에서, 화면에 표시된 프로세스 마커를 대상으로 사용자로부터 터치 신호를 입력받아 사용자 터치를 인식하고 증강현실 매뉴얼을 구성하는 다수의 작업 단계 중에서 인식된 터치에 대응되는 작업 단계로 접근하여 해당 작업 단계 화면을 제공할 수 있다.In the step of providing the corresponding work step screen, the process marker displayed on the screen receives a touch signal from the user, recognizes the user touch, and is a work step corresponding to the recognized touch among a plurality of work steps constituting the augmented reality manual. You can access and provide the corresponding work step screen.
원격 가이던스 제공 방법은 증강현실 매뉴얼을 구성하는 작업 단계들에 식별자 정보와 위치정보를 가지는 음성인식 부호를 할당하는 단계를 더 포함하며, 해당 작업 단계 화면을 제공하는 단계에서, 사용자로부터 음성신호를 입력받아 사용자 음성을 인식하고 다수의 작업 단계 중에서 인식된 음성에 대응되는 음성인식 부호가 할당된 작업 단계로 접근하여 해당 작업 단계 화면을 제공할 수 있다.The method for providing remote guidance further includes assigning a voice recognition code having identifier information and location information to work steps constituting the augmented reality manual, and inputting a voice signal from a user in the step of providing a corresponding work step screen. Receiving a user's voice and recognizing a voice recognition code corresponding to the recognized voice among a plurality of work steps may be approached to the assigned work step to provide a corresponding work step screen.
원격 가이던스 제공 방법은, 증강현실 매뉴얼을 구성하는 작업 단계들에 식별자 정보와 위치정보를 가지는 생체인식 부호를 할당하는 단계를 더 포함하며, 해당 작업 단계 화면을 제공하는 단계에서, 사용자를 대상으로 촬영된 생체 이미지를 입력받아 사용자의 얼굴 및 신체를 감지하고 감지된 얼굴 및 신체정보에서 표정 및 모션을 인식하며 다수의 작업 단계 중에서 인식된 표정 또는 모션에 대응되는 생체인식 부호가 할당된 작업 단계로 접근하여 해당 작업 단계 화면을 제공할 수 있다.The method for providing remote guidance further includes assigning a biometric code having identifier information and location information to work steps constituting the augmented reality manual, and in the step of providing a corresponding work step screen, photographing the user Receives the received biometric image, detects the user's face and body, recognizes facial expressions and motions from the detected face and body information, and accesses to a work step in which a biometric code corresponding to the recognized facial expression or motion is assigned among a plurality of work steps Thus, a corresponding work step screen can be provided.
원격 가이던스 제공 방법은, 작업대상에 구비된 프로세스 마커와 근거리 무선통신하는 단계와, 무선통신을 통해 수신된 무선신호에 의해 프로세스 마커를 인식하고 인식된 프로세스 마커에 기록된 작업 단계를 파악하며 파악된 작업 단계 중에 사용자 조작에 의해 사용자가 원하는 작업 단계로 접근하여 해당 작업 단계 화면을 제공하는 단계를 더 포함할 수 있다.The method for providing remote guidance includes the step of short-range wireless communication with a process marker provided on a work target, and recognizes a process marker by a radio signal received through wireless communication, grasps a work step recorded in the recognized process marker, and is identified. During the work step, the user may further include a step of accessing the work step desired by the user and providing a corresponding work step screen.
일 실시 예에 따르면, 작업자는 작업 현장에서 사용자 단말만 소지하고 있으면, 장비에 대해 숙련된 전문가의 도움 없이도, 작업 매뉴얼을 직접 가지고 있지 않더라도 쉽고 간편하게 작업을 수행할 수 있다. 또한, 스마트 글래스(smart glass)와 같은 기존의 별도의 하드웨어가 필요한 몰입형 디스플레이 등의 웨어러블 기기가 없어도 무방하며 결합하여 사용할 수도 있다.According to one embodiment, if the operator has only a user terminal on the job site, it is possible to perform the work easily and conveniently without having the work manual directly, without the help of skilled experts for the equipment. In addition, there is no need for a wearable device such as an immersive display that requires separate hardware such as smart glass, and can be used in combination.
증강현실에 기반하여 원격 엔지니어링을 제공함에 따라, 더 실감나는 화면을 제공할 수 있어서 작업자가 보다 직관적으로 작업을 수행할 수 있다. 나아가, 증강현실 기반 영상분석과 기계학습을 이용하여 영상 내 객체를 인식함에 따라 객체 인식 정확도를 높일 수 있다.By providing remote engineering based on augmented reality, it is possible to provide a more realistic screen, so that a worker can perform work more intuitively. Furthermore, the accuracy of object recognition can be increased by recognizing objects in images using augmented reality-based image analysis and machine learning.
나아가, 다단계 조작이 필요한 경우에도 쉽고 빠르게 조작할 수 있다. 화면 터치, 음성인식, 생체인식 등을 이용하여 사용자가 원하는 작업 단계로 빠르게 접근, 예를 들어 점프할 수 있으므로 실시간 처리가 가능하며 조작의 번거로움을 덜 수 있어 사용의 편의성이 증대된다.Furthermore, it can be easily and quickly operated even when multi-step operation is required. By using screen touch, voice recognition, biometric recognition, etc., the user can quickly access and jump to a desired work step, for example, real-time processing is possible, and ease of operation is increased because of less troublesome operation.
또한, 증강현실 기반 작업 가이던스 정보를 제작하고자 하는 사용자를 위해 이를 쉽게 제작하기 위한 스크립팅 툴과 템플릿을 제공하여 추가적인 AR 매뉴얼 제작비용 없이도 제작 가능하다.In addition, for users who want to produce augmented reality-based work guidance information, scripting tools and templates to easily create it can be provided without additional AR manual production costs.
사용자 단말을 이용한 원격 가이던스는 공장이나 빌딩과 같은 산업현장뿐만 아니라, 가정집이나 일반 가전기기 등으로 확장될 수 있다. 또한, 스마트 빌딩, 스마트 팩토리, 스마트 홈 등에서 사용하는 다수의 IoT 기기들뿐만 아니라, IoT 센싱 능력이 없는 IoT 시대 이전에 제작된 레거시 기기(legacy device)까지도 확장될 수 있다.Remote guidance using a user terminal can be extended not only to industrial sites such as factories or buildings, but also to homes and general home appliances. In addition, it can be extended not only to a number of IoT devices used in smart buildings, smart factories, smart homes, etc., but also to legacy devices manufactured before the IoT era without IoT sensing capability.
나아가, 다수의 기기들에 대해 에러(error)를 사전에 예측하고 에러 예측 기반 사전 서비스(before service)를 제공하는 경우, 기기의 에러를 사전에 예측하고 이를 기기 사용자에 알리면, 사용자는 사용자가 소지한 사용자 단말을 이용하여 원격 가이던스를 제공받아 쉽게 에러를 사전에 해결할 수 있다.Furthermore, when an error is predicted in advance for a plurality of devices and an error prediction-based dictionary service is provided, the error of the device is predicted in advance and the device user is informed, and the user possesses the user. Remote guidance can be easily solved in advance by receiving a remote guidance using one user terminal.
도 1은 본 발명의 일 실시 예에 따른 원격 가이던스 시스템의 구성도,
도 2는 본 발명의 일 실시 예에 따른 원격 가이던스의 개념도,
도 3은 본 발명의 다른 실시 예에 따른 원격 가이던스의 개념도,
도 4는 본 발명의 일 실시 예에 따른 원격 가이던스 장치의 구성도,
도 5는 본 발명의 일 실시 예에 따른 도 4의 제어부의 세부 구성도,
도 6은 본 발명의 일 실시 예에 따른 도 4의 출력부의 세부 구성도,
도 7은 본 발명의 일 실시 예에 따른 원격 서버의 구성도,
도 8은 본 발명의 일 실시 예에 따른 원격 가이던스 방법을 도시한 흐름도,
도 9는 본 발명의 일 실시 예에 따른 원격 가이던스 장치가 원격 서버에 증강현실 매뉴얼을 요청하여 수신하는 프로세스를 도시한 도면,
도 10은 본 발명의 일 실시 예에 따른 음성인식 부호를 이용한 음성인식을 통해 작업단계의 이동을 보여주는 도면이다.1 is a block diagram of a remote guidance system according to an embodiment of the present invention,
2 is a conceptual diagram of remote guidance according to an embodiment of the present invention,
3 is a conceptual diagram of remote guidance according to another embodiment of the present invention,
4 is a configuration diagram of a remote guidance device according to an embodiment of the present invention,
5 is a detailed configuration diagram of the control unit of FIG. 4 according to an embodiment of the present invention;
6 is a detailed configuration diagram of the output unit of FIG. 4 according to an embodiment of the present invention;
7 is a configuration diagram of a remote server according to an embodiment of the present invention,
8 is a flowchart illustrating a remote guidance method according to an embodiment of the present invention,
9 is a diagram illustrating a process in which a remote guidance device according to an embodiment of the present invention requests and receives an augmented reality manual from a remote server;
10 is a view showing a movement of a work step through voice recognition using a voice recognition code according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and methods for achieving them will be clarified with reference to embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the embodiments allow the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention pertains. It is provided to fully inform the holder of the scope of the invention, and the invention is only defined by the scope of the claims. The same reference numerals refer to the same components throughout the specification.
본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이며, 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In the description of the embodiments of the present invention, when it is determined that a detailed description of known functions or configurations may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted, and terms to be described below are used in the embodiments of the present invention. The terms are defined in consideration of the function of. It can be changed according to the intention or custom of the user or operator. Therefore, the definition should be made based on the contents throughout this specification.
첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램인스트럭션들(실행 엔진)에 의해 수행될 수도 있으며, 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다.Combinations of each block in the accompanying block diagrams and steps of the flow charts may be performed by computer program instructions (execution engines), these computer program instructions being incorporated into a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment. Since it can be mounted, the instructions executed through a processor of a computer or other programmable data processing equipment create a means to perform the functions described in each block of the block diagram or in each step of the flowchart.
이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.These computer program instructions can also be stored in computer readable or computer readable memory that can be oriented to a computer or other programmable data processing equipment to implement a function in a particular way, so that computer readable or computer readable memory The instructions stored in it are also possible to produce an article of manufacture containing instructions means for performing the functions described in each block of the block diagram or in each step of the flowchart.
그리고 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명되는 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.And since computer program instructions may be mounted on a computer or other programmable data processing equipment, a series of operation steps are performed on the computer or other programmable data processing equipment to create a process that is executed by the computer to generate a computer or other programmable It is also possible for instructions to perform data processing equipment to provide steps for executing the functions described in each block of the block diagram and in each step of the flowchart.
또한, 각 블록 또는 각 단계는 특정된 논리적 기능들을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있으며, 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하며, 또한 그 블록들 또는 단계들이 필요에 따라 해당하는 기능의 역순으로 수행되는 것도 가능하다.In addition, each block or each step can represent a module, segment, or portion of code that includes one or more executable instructions for executing specified logical functions, and in some alternative embodiments referred to in blocks or steps It should be noted that it is possible for functions to occur out of sequence. For example, two blocks or steps shown in succession may in fact be executed substantially simultaneously, and it is also possible that the blocks or steps are performed in the reverse order of the corresponding function as necessary.
이하, 첨부 도면을 참조하여 본 발명의 실시 예를 상세하게 설명한다. 그러나 다음에 예시하는 본 발명의 실시 예는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 다음에 상술하는 실시 예에 한정되는 것은 아니다. 본 발명의 실시 예는 이 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공된다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the embodiments of the present invention exemplified below may be modified in various other forms, and the scope of the present invention is not limited to the embodiments described below. Embodiments of the present invention are provided to more fully describe the present invention to those of ordinary skill in the art.
도 1은 본 발명의 일 실시 예에 따른 원격 가이던스 시스템의 구성도이다.1 is a block diagram of a remote guidance system according to an embodiment of the present invention.
도 1을 참조하면, 원격 가이던스 시스템(1)은 원격 서버(2)와 원격 가이던스 장치(3)를 포함한다. 원격 가이던스 장치(3)는 사용자 단말(4)에 하드웨어 또는 소프트웨어 형태로 포함된다.Referring to FIG. 1, the
원격 가이던스 시스템(1)은 작업 현장에서 작업이 필요한 장비를 대상으로 작업자가 소지하고 있는 사용자 단말(4) 내 원격 가이던스 장치(3)를 통해 증강현실(augmented reality) 및 기계학습(machine learning)에 기반하여 증강 콘텐츠 형태의 작업 매뉴얼을 제공한다. 작업자는 장비에 대해 숙련된 전문가의 도움 없이도, 작업 매뉴얼을 직접 가지고 있지 않더라도 쉽고 간편하게 작업을 수행할 수 있다. 장비는 작업 현장에 설치된 기계, 설비, 장치 등을 포함하며, 하나의 장비를 구성하는 부품, 모듈 등을 포함할 수 있다. 작업은 수리, 정비, 유지 보수, 조정, 조작 등을 포함한다. 예를 들어, 작업은 문제가 발생한 장비에 대한 정비나, 문제가 발생할 가능성이 있는 장비에 대해 문제 발생 이전에 이를 조치하는 것일 수 있다.The remote guidance system (1) is used for augmented reality and machine learning through a remote guidance device (3) in a user terminal (4) possessed by an operator targeting equipment requiring work at a work site. Based on the work manual in the form of augmented content. The operator can perform the work easily and simply without the help of a skilled expert on the equipment, even without having a work manual. Equipment includes machines, equipment, and devices installed at a work site, and may include components, modules, and the like constituting one equipment. Work includes repair, maintenance, maintenance, adjustment, manipulation, and the like. For example, the work may be to repair the equipment in question, or to take action on equipment that is likely to cause the problem before the problem occurs.
작업 현장은 공장(스마트 팩토리)이나 빌딩(스마트 빌딩)과 같은 산업현장이 될 수도 있으며, 가정집(스마트 홈)이 될 수도 있다. 산업현장을 예로 들면, 공장 내 에어컨, 환기, 공조기, 팬, 보일러, 냉각탑, 펌프, 온/습도센서, 냉동기, 조명기기, 전력기기, 화재 시스템을 대상으로 원격 가이던스를 제공할 수 있다. 원격 서버(2)를 통해 건물 전체의 상황을 종합적으로 제어 및 감시하면서 기계설비, 조명, 전력, 출입통제, 방재, 주차관리, 시설관리가 가능하며, 모니터링 중에 작업이 필요한 경우 이를 작업자에게 알리며, 작업자는 원격 가이던스 장치(3)를 통해 보이는 원격 가이던스 정보를 이용하여 전문가의 도움 없이도 원활하게 작업을 수행할 수 있다.The work site may be an industrial site such as a factory (smart factory) or a building (smart building), or a home (smart home). For example, an industrial site can provide remote guidance for air conditioners, ventilation, air conditioners, fans, boilers, cooling towers, pumps, temperature/humidity sensors, refrigerators, lighting equipment, power equipment, and fire systems in factories. Through the remote server (2), it is possible to comprehensively control and monitor the entire situation of the building, and it is possible to control machinery, lighting, power, access control, disaster prevention, parking management, and facility management. The operator can use the remote guidance information seen through the
다른 실시 예에 따른 원격 가이던스 시스템(1)은 가정 환경에서 운용된다. 예를 들어, 원격 서버(1)를 통해 가정 내 TV, 에어컨, 냉장고 같은 가전제품이나 수도, 전기, 냉난방과 같은 에너지 소비장치나, 도어락, 감시 카메라 등과 같은 보안기기나, 고가의 자동차와 전기 자동차 등의 기기를 모니터링 및 제어하면서, 원격으로 조정 가능하다. 또한, 해당 가정기기에 문제가 발생한 경우, 소비자가 사용자 단말(4)만 가지고 있으면 문제 해결을 위한 원격 가이던스를 제공받을 수 있으므로 쉽게 기기의 문제를 해결할 수 있다. 이 경우, 소비자는 소비자 센터에 연락하여 전문가를 부르거나 출장 비용을 별도로 부담할 필요도 없으며, 시간 낭비도 방지할 수 있다. 또한, 스마트 글래스(smart glass)와 같은 기존의 별도의 하드웨어가 필요한 몰입형 디스플레이가 없어도 무방하고 결합하여 사용도 가능하다.The
원격 가이던스 시스템(1)은 스마트 기기, 스마트 빌딩, 스마트 팩토리 등에서 사용하는 다수의 IoT 기기들을 대상으로 원격 가이던스를 제공할 수 있다. IoT 기기는 디지털 사이니지(digital signage), 스마트 TV, 스마트 워치, 스마트 CE, 드론(drone) 등일 수 있다. 다른 실시 예에 따른 원격 가이던스 시스템(1)은 IoT 센싱 능력이 없는 IoT 시대 이전에 제작된 레거시 기기(legacy device)를 대상으로 작업 가이던스를 제공할 수도 있다. 예를 들어, 디바이스에 내장 또는 장착되는 IoT 센서가 없어서 디바이스와 그 주변환경의 정보를 센싱할 수 없는 레거시 기기를 대상으로도 사용자 단말(4)을 이용한 원격 가이던스를 제공할 수 있다.The
일 실시 예에 따른 원격 가이던스 시스템(1)은 다수의 기기들에 대해 에러(error)를 사전에 예측하고 에러 예측 기반 사전 서비스(before service)를 제공한다. 사전 서비스는 기기들을 대상으로 발생 가능한 에러를 사전에 예측하고, 에러가 발생하기 이전에, 에러를 관리 및 처리하는 서비스이다. 예를 들어, 원격 서버(2)를 통해 기기의 에러를 사전에 예측한 경우, 이를 기기 사용자에 알리면, 사용자는 사용자가 소지한 사용자 단말(4)을 이용하여 원격 가이던스를 제공 받아 쉽게 에러를 사전에 해결할 수 있게 된다.The
증강현실 기반 작업 가이던스에 대한 실시 예를 들면, 작업 현장에 위치하는 작업자가 사용자 단말(4)의 카메라를 통해 작업 현장을 실시간 촬영한다. 그러면, 원격 가이던스 장치(3)는 카메라로부터 실시간 촬영 영상을 입력받아 화면에 출력한다. 이때, 화면 출력 영상에 자동으로 작업 매뉴얼을 안내하는 가상의 작업 매뉴얼을 결합하여 사용자 단말(4)의 디스플레이를 통해 화면에 표시한다.For an embodiment of augmented reality based work guidance, for example, a worker located at the work site photographs the work site in real time through the camera of the
원격 가이던스 장치(3)는 작업 현장 내 현재영상을 획득하며, 획득된 현재영상에 가상의 작업 매뉴얼을 결합한 증강현실 매뉴얼(AR 매뉴얼, 이하 'AR 매뉴얼'이라 칭함)을 생성하여 화면에 표시한다. 이때, AR 매뉴얼뿐만 아니라, 작업대상에 대한 식별자 정보, 위치정보, 상태정보, 작업도구 정보 등을 포함하는 가상의 작업 가이던스 정보를 화면에 더 표시할 수 있다. 식별자 정보는 작업대상을 식별하기 위한 가상객체이다. 예를 들어, 작업대상을 점선이나 블록 등과 같은 표시자로 알려준다. 위치정보는 작업대상의 위치를 알려주기 위한 가상객체이다. 예를 들어, 작업이 필요한 장비나 장비 내 부품의 위치를 가상의 손가락 등으로 알려준다. 작업 매뉴얼 정보는 순차적 작업 매뉴얼에 따른 안내정보를 알려주기 위한 가상객체이다. 작업도구 정보는 작업에 필요한 도구를 알려주기 위한 가상객체이다. 예를 들어 드라이버, 망치 등과 같이 작업에 필요한 모든 가상도구를 표시한다. 화면에 표시되는 작업 가이던스 정보의 실시 예는 도 2 및 도 3을 참조로 하여 후술한다.The
일 실시 예에 따른 원격 가이던스 장치(3)는 실시간으로 촬영되는 현재영상에 증강현실을 적용하기 위해, 객체 인식→객체 트래킹→객체 렌더링의 순차적인 프로세스를 반복하여 현재영상에 가상객체를 연동시킨다. 예를 들어, 원격 가이던스 장치(3)는 현재영상에서 실제객체를 인식하고, 인식된 실제객체를 트래킹하며, 트래킹되는 실제객체에 대해 증강현실 기반 작업 가이던스 정보에 해당하는 가상객체를 결합하여 렌더링하거나, 가상객체를 렌더링한 후 이를 실제객체에 결합하여 AR 매뉴얼을 생성하는 일련의 프로세스를 반복한다.In order to apply augmented reality to a current image photographed in real time, the
카메라를 통해 포착된 실제영상은, 고정된 것이 아니라 작업자의 움직임 등으로 인해 계속 움직이므로, 실제영상 내에서 인식된 객체의 움직임을 계속 따라가는 작업이 필요한데, 이를 "객체 트래킹"이라 한다. "객체 렌더링"은 2차원의 영상에 광원·위치·색상 등 외부의 정보를 고려하여 사실감을 불어넣어 3차원 영상을 만드는 과정이다. 와이어 프레임(wire frame), 레이 트레이싱(ray tracing) 렌더링 방법 등이 있다. 렌더링은 원격 가이던스 장치(3)에서 이루어질 수 있지만, 분산 환경의 경우, 원격 서버(2)에서 렌더링이 수행되고 수행결과를 원격 가이던스 장치(3)에 전송하는 방식으로 이루어질 수도 있다.Since the actual image captured through the camera is not fixed, but is continuously moved due to the movement of the operator, it is necessary to continuously follow the movement of the recognized object in the actual image, which is called "object tracking". "Object rendering" is a process of creating a 3D image by injecting a sense of realism in consideration of external information such as a light source, location, and color to a 2D image. Wire frame, ray tracing rendering methods, and the like. The rendering may be performed in the
일 실시 예에 따른 원격 가이던스 시스템(1)은 객체를 인식할 때, 증강현실과 기계학습을 함께 사용한다. 증강현실의 코어 기술은 객체 인식, 트래킹 및 렌더링으로 요약되는데, 이 중 객체 인식은 윤곽선으로 객체를 인지하는 방식이다. 윤곽선을 통해 객체를 인지하므로 복잡한 형태의 Wireframe 상태가 접수되었을 때나 사물의 상태가 녹이 슬거나 일부가 찌그러졌다든지 하는 경우 인지율이 떨어져 인지를 못할 위험이 있다. 따라서, 증강현실만으로는 인식 정확도가 떨어지므로 이를 기계학습으로 보완하여 객체 인식률을 높인다. 기계학습은 다양한 이미지 데이터베이스를 통해 학습된 결과 값을 넘겨줄 수 있기에 윤곽선 인식을 통해 파악되지 못한 사물에 대한 보다 정확한 인식상태를 전달해 줄 수 있고, 이를 증강현실 모듈과 비교하여 처리할 수 있기 때문에 전체 인식율을 향상시킬 수 있는 장점이 있다. 분야의 확장에 따라 기계학습에 시간이 소요될 수 있으므로 우선적으로 증강현실 방식을 통해 원격 가이던스를 먼저 제공하고, 이후에 기계학습과 증강현실을 모두 적용하는 기술적 보완을 통해 분야 확장에 따르는 시간적 제약도 해소할 수 있다. 분산된 환경에서는, 원격 서버(2)에서 기계학습을 통해 인식된 장비의 상태를 원격 가이던스 장치(3)에서 인식한 장비의 상태와 비교하여 정확도를 높이는 협상(Negotiation) 프로세스를 가질 수 있다.The
증강현실과 기계학습을 기반으로 하는 원격 가이던스 처리를 진행하는 경우 현장의 기계나 부품을 조작하는 절차를 AR 매뉴얼로 제공하고 작업자가 작업에 대한 이해도가 떨어질 경우 이에 대한 전문가의 지원을 실시간 처리하는 형태로 제공된다. 이때 다수의 조작이 필요한 제품의 경우나 단계별 난이도가 높아 처리 및 조작 횟수가 매우 많은 매뉴얼의 단계를 반복하거나 매뉴얼을 반대로 돌려가며 재조작 시도를 해야 하는 경우가 다수 발생한다.In the case of remote guidance processing based on augmented reality and machine learning, AR manual provides procedures for manipulating machines or parts in the field and real-time processing of expert support for workers' understanding of the work. Is provided as. At this time, in the case of a product requiring a large number of manipulations or the difficulty of each step is high, there are many cases in which the steps of a manual with a large number of processing and manipulations are repeated, or a manual operation must be attempted by reversing the manual.
일 실시 예에 따른 원격 가이던스 장치(3)는 다단계 조작이 필요한 경우 단계 상태를 파악할 수 있는 프로세스 마커(Process Marker)를 이용한다. 프로세스 마커는 AR 매뉴얼의 각 작업 단계 식별자가 일렬로 정렬되고 적어도 하나의 작업 단계 식별자에 마커가 기록된 것으로, 화면에 표시된다. AR 매뉴얼이 다수 개인 경우 각 AR 매뉴얼을 일련번호로 구분하여 표시할 수 있다.The
프로세스 마커를 이용하면 현재 작업 단계를 기준으로 사용자가 원하는 작업 단계로 접근할 수 있다. 사용자 조작에 대응되는 작업 단계로의 접근은, 현재 작업 단계를 기준으로 역방향(backward)으로의 작업 단계 이동, 순방향(forward)으로의 작업 단계 이동, 현재 작업 단계의 반복, 처음 작업 단계로의 이동, 다른 증강현실 매뉴얼로의 이동 등을 포함한다. 예를 들여, 역방향 또는 순방향으로 사용자가 원하는 위치까지 신속하게 이동, 즉 점프(jump) 할 수 있어서 작업을 용이하게 처리할 수 있다. 작업 단계 식별자들에 5개 또는 10개 단위의 규칙적인 마커를 기록하고 사용자가 마커를 이용하여 원하는 작업 단계로 이동하도록 처리할 수 있다.The process marker allows users to access the desired work step based on the current work step. The access to the work step corresponding to the user's operation includes moving the work step in the backward direction based on the current work step, moving the work step in the forward direction, repeating the current work step, and moving to the first work step And moving to other augmented reality manuals. For example, the user can quickly move to the desired position in the reverse direction or forward direction, that is, jump, so that the operation can be easily handled. It is possible to record 5 or 10 regular markers in the work step identifiers and process the user to move to a desired work step using the marker.
AR 매뉴얼은 원격 서버(2)에서 AR 매뉴얼의 순번에 따라 분리되어 원격 가이던스 장치(3)가 필요 시 원격 서버(2)에 요청하여 다운로드 받을 수 있다. AR 매뉴얼이 다수 개이면, 이를 1001, 1002, 1003 등의 일련번호로 구분할 수 있으며, 일련번호 안에 작업 단계가 20단계, 10단계 등으로 구분될 수 있다.The AR manual is separated from the
AR 매뉴얼이 표시되는 화면은 사용자의 태블릿 PC, 스마트폰, 화면 디스플레이가 있는 웨어러블 장치와 같은 사용자 단말 화면이다. 이때, 화면 터치가 가능한 태블릿 PC나 스마트 폰의 경우, 역방향이나 순방향으로 작업 단계를 이동하기 위해 현재 표시되고 있는 AR 매뉴얼의 작업 단계 위치를 마킹하여 보여주고, 이전 또는 이후의 중요한 작업 단계에 마커를 할당하여 마커 위치를 보여준다. 이 중 소정의 마커를 손가락 터치를 통해 지정하는 방식으로 지정된 마커 위치의 작업 단계로 접근하여 해당 작업 단계 화면을 제공할 수 있다. 사용자 단말이 웨어러블 장치인 경우에는 미리 지정된 버튼 등을 통해 접근 가능하다.The screen where the AR manual is displayed is a user terminal screen such as a user's tablet PC, a smartphone, and a wearable device having a screen display. At this time, in the case of a tablet PC or a smart phone that can touch the screen, it shows and marks the work step position of the currently displayed AR manual to move the work step in the reverse or forward direction, and displays markers on important work steps before or after. Assign to show the marker location. Among them, a predetermined marker may be designated by a finger touch to approach a work step at a designated marker position to provide a corresponding work step screen. When the user terminal is a wearable device, it is accessible through a predetermined button or the like.
사용자 터치 등을 통해 접근하려면 필연적인 흔들림이 동반되고 마커를 통해 소정의 작업 단계로 점프할 수는 있으나 디스플레이에 포착한 장비나 부속에 대한 트래킹 및 기계학습이 다시 진행되어야 하므로 신속한 처리를 방해한다. 이를 보완하기 위해 중요한 작업 단계에 음성인식 또는 생체인식 부호를 할당하여 작업자의 작업을 보존하며 신속한 반응을 얻을 수 있도록 한다. 음성인식 또는 생체인식 부호는 해당 부호에 식별자 정보 및 위치정보가 할당된다. 음성인식 부호를 이용한 작업 단계 접근의 예를 들면, 인식된 사용자 음성이 "처음부터 다시!"이면, 작업 단계들 중 처음 위치에 해당하는 음성인식 부호가 할당된 처음 작업 단계에 해당하는 작업 단계로 이동하여 제공한다. 수신된 사용자 음성이 "5단계 뒤로!"이면, 현재 작업 단계를 기준으로 5단계 이후 위치에 해당하는 음성인식 부호가 할당된 작업 단계로 이동하여 제공한다. 생체인식 부호를 이용한 작업 단계 접근의 예를 들면, 인식된 사용자 생체신호가 "눈 깜빡임 연속 3회"이면, "처음부터 다시"를 의도하는 것으로, 처음 위치에 해당하는 생체인식 부호가 할당된 작업 단계로 이동하여 제공한다. 인식된 사용자 생체신호가 "고개 끄덕임"이면, "다음"을 의도하는 것으로, 다음 위치에 해당하는 생체인식 부호가 할당된 작업 단계로 이동하여 제공한다.To approach through a user's touch, it is accompanied by inevitable shaking, and it is possible to jump to a predetermined work step through a marker, but it prevents rapid processing because tracking and machine learning of the equipment or parts captured on the display must be performed again. To compensate for this, voice recognition or biometric codes are assigned to important work steps to preserve the work of the operator and to obtain a quick response. In the voice recognition or biometric code, identifier information and location information are assigned to the corresponding code. For example, if the recognized user's voice is "From the beginning again!", for example, the work step approach using the voice recognition code is a work step corresponding to the first work step to which the voice recognition code corresponding to the first position of the work steps is assigned. Provide by moving. If the received user's voice is "5 steps back!", the voice recognition code corresponding to the position after
일 실시 예에 따른 원격 가이던스 시스템(1)은 증강현실 기반 작업 가이던스 정보를 제작하고자 하는 사용자를 위해, 이를 쉽게 제작하기 위한 스크립팅 툴(scripting tool)을 제공한다. 이에 따라, 추가적인 AR 매뉴얼 제작비용 없이도 제작 가능하다. 스크립팅 툴을 제공할 때 분야별로 적용샘플이 될 수 있는 다수의 템플릿(template)을 제공할 수 있다. 제작자는 소규모 사업자 및 장비 공급자들일 수 있다. 예를 들어, 원격 가이던스 장치(3)는 사용자 단말(4), 예를 들어, 데스크톱을 가지고 스크립팅 툴에 기본으로 제공되는 템플릿을 이용하여 증강현실 기반 작업 가이던스 정보를 쉽게 제작한다. 원격 가이던스 장치(3)는 이런 방식으로 제작된 증강현실 기반 작업 가이던스 정보를 입력받아 이를 AR 매뉴얼 생성에 사용할 수 있다.The
원격 가이던스 장치(3)가 구비되는 사용자 단말(4)은 사용자가 소지한 스마트폰, 태블릿 PC, 화면 디스플레이가 있는 웨어러블 디바이스 등 휴대 가능한 모든 전자장치를 포함한다. 작업자는 스마트 글래스(smart glass)와 같은 기존의 별도의 하드웨어가 필요한 몰입형 디스플레이가 필요없이 또는 연계하여 원격 가이던스 장치(3)를 통해 작업 가이던스를 제공받을 수 있다. 물론, 작업자가 몰입형 디스플레이를 착용한 경우 이를 연동하여 작업도 가능하다. 사용자 단말(4)은 웨어러블 장비일 수 있다.The
원격 서버(2)는 작업 현장에 위치한 장비를 모니터링하며 작업이 필요한 장비를 대상으로 원격 엔지니어링(remote engineering)을 수행한다. 이때, 원격 서버(2)는 소정의 장비에 에러가 발생하면, 에러 해결을 위해 원격 엔지니어링을 수행할 수 있다. 다른 예로, 작업 현장의 각 장비를 모니터링하여 에러를 사전에 예측하고 에러가 발생하기 이전에, 해당 장비에 대한 에러를 처리하기 위해 원격 엔지니어링을 수행할 수 있다. 원격 엔지니어링의 예로는 영상통화, 채팅, 원격화면 공유, 원격제어 등이 있다. 원격 가이던스 장치(3)를 통해 제공되는 증강현실 기반 작업 가이던스 정보를 통해 작업자가 문제를 해결하지 못하는 경우, 원격 가이던스 장치(3)는 원격 서버(2)와 연결하여, 전문가로부터 원격 제어를 지원받을 수 있다. 원격 서버(2)는 확장성을 고려하여 클라우드 플랫폼을 기반으로 설계될 수 있다.The
도 2는 본 발명의 일 실시 예에 따른 원격 가이던스의 개념도이다.2 is a conceptual diagram of remote guidance according to an embodiment of the present invention.
도 2를 참조하면, 원격 가이던스 시스템은 원격 가이던스 장치(3)의 증강현실 기반 영상분석과 원격 서버(2)의 기계학습을 이용하여 현재영상 내 작업대상이 되는 객체를 인식한다. 이를 위해, 원격 가이던스 장치(3)는 촬영된 현재영상을 원격 서버(2)와 공유한다. 원격 서버(2)는 사전에 기계학습을 통해 축적된 학습 데이터를 이용하여 현재영상 내 객체를 인식한다. 기계학습 기반 객체 인식결과는 원격 가이던스 장치(3)에 전송되는데, 인식된 객체 식별자(ID)가 포함될 수 있다. 예를 들어, 원격 서버(2)는 현재영상에서 기계학습을 통해 인식된 객체 식별자인 ID1: 전력반 커버, ID2: 브레이커, ID3: 파워서플라이를 원격 가이던스 장치(3)에 전송한다. 원격 가이던스 장치(3)는 증강현실 기반 영상분석을 통해 현재영상 내에서 객체의 윤곽선을 인식하며, 원격 서버(2)의 기계학습 기반 객체 인식결과를 증강현실 기반 인식결과에 반영하여 객체인식의 정확도를 높인다.Referring to FIG. 2, the remote guidance system recognizes an object as a work target in the current image using augmented reality based image analysis of the
원격 가이던스 장치(3)는 인식된 객체를 포함한 현재영상에 작업 가이던스 정보를 결합하여 AR 매뉴얼을 화면에 표시한다. 예를 들어, 도 2에 도시된 바와 같이, 전력반 내 파워서플라이의 전력공급에 문제가 발생하면, 원격 가이던스 장치 화면에는 "전력반의 파워서플라이의 파워가 역치값을 넘었으므로 파워를 줄여야 한다" 라는 경고 메시지와 같은 상태정보(102)가 표시된다. 그리고 문제가 발생한 전력반 커버를 대상으로 블록 형태 등의 식별자와 같은 식별정보(100)를 화면에 표시하여 작업자에게 전력반 커버가 작업대상임을 인식시킨다. 식별정보(100)는 작업 매뉴얼에 따라 그 대상이 변경될 수 있다.The
또한, 화면에는 작업 매뉴얼(104)이 함께 표시한다. 예를 들어, "1. 전력반 커버를 연다. 2. 브레이커를 내린다. 3. 파워서플라이를 교체한다. 4. 브레이커를 올린다."와 같이 작업순서에 따라 미리 설정된 작업 매뉴얼이 화면에 표시된다. "1. 전력반 커버를 연다."에서는 현재영상 내 전력반 커버의 손잡이가 점선 등으로 식별 가능하게 표시될 수 있다. "2. 브레이커를 내린다."에서는 현재영상 내 브레이커가 점선 등으로 식별 가능하게 표시될 수 있다. " 3. 파워서플라이를 교체한다."에서는 현재영상 내 파워서플라이가 점선 등으로 식별 가능하게 표시될 수 있다.In addition, the
전술한 작업 가이던스 정보는 미리 정의된 템플릿에 기초하여 작업 매뉴얼에 따라 동적으로 편집 가능한 스크립팅 툴(106)을 통해 미리 제작될 수 있다. 작업자가 증강현실 기반 작업 가이던스 정보를 이용하여 문제를 해결하지 못하는 경우, 원격 가이던스 장치(3)는 원격 서버(2)와 네트워크 연결되어 전문가로부터 원격관리(108)를 통해 원격 엔지니어링을 지원받을 수 있다. 원격 엔지니어링은 영상통화, 채팅, 원격화면 공유, 원격제어 등을 포함한다.The above-described operation guidance information may be produced in advance through a
도 3은 본 발명의 다른 실시 예에 따른 원격 가이던스의 개념도이다.3 is a conceptual diagram of remote guidance according to another embodiment of the present invention.
도 3을 참조하면, 작업 대상이 엔진(engine)인 경우, 원격 서버(2)는 기계학습 기반 객체 인식결과를 원격 가이던스 장치(3)에 전송한다. 예를 들어, 원격 서버(2)는 현재영상에서 기계학습을 통해 인식된 객체 식별자인 ID1: 라디에이터 팬, ID2: 타이밍 벨트, ID3: 점화 플러그를 원격 가이던스 장치(3)에 전송한다. 원격 가이던스 장치(3)는 증강현실 기반 영상분석을 통해 현재영상 내에서 객체의 윤곽선을 인식하며, 원격 서버(2)의 기계학습 기반 객체 인식결과를 증강현실 기반 인식결과에 반영하여 객체인식의 정확도를 높인다.Referring to FIG. 3, when the operation target is an engine, the
원격 가이던스 장치(3)는 인식된 객체를 포함한 현재영상에 작업 가이던스 정보를 결합하여 AR 매뉴얼을 화면에 표시한다. 예를 들어, 도 3에 도시된 바와 같이, 엔진에 문제가 발생하면, 엔진을 대상으로 점선의 네모 형태 등의 식별자와 같은 식별정보(100)를 화면에 표시하여 작업자에게 엔진이 작업대상임을 인식시킨다. 식별정보(100)는 작업 매뉴얼에 따라 그 대상이 변경될 수 있다.The
화면에는 작업 매뉴얼(104)이 함께 표시한다. 예를 들어, "1. 본넷을 연다. 2. 타이밍 벨트 장력을 확인한다. 3. 라디에이터 팬 회전을 확인한다. 4. 점화 플러그를 확인한다."와 같이 작업순서에 따라 미리 설정된 작업 매뉴얼이 화면에 표시된다. 작업자가 본넷을 연 후에는, 현재영상 내 타이밍 벨트가 점선 등으로 식별 가능하게 표시될 수 있다. 작업자가 타이밍 벨트의 장력을 확인한 후에는, 현재영상 내 라디에이터가 점선 등으로 식별 가능하게 표시될 수 있다. 작업자가 라디에이터 팬 회전을 확인한 후에는, 현재영상 내 점화 플러그가 점선 등으로 식별 가능하게 표시될 수 있다.The
전술한 작업 가이던스 정보는 미리 정의된 템플릿에 기초하여 작업 매뉴얼에 따라 동적으로 편집 가능한 스크립팅 툴(106)을 통해 미리 제작될 수 있다. 예를 들어, 원격 가이던스 장치(3)는 데스크톱과 같은 사용자 단말(4)을 통해 사용자가 스크립팅 툴(106)을 이용하여 작업 매뉴얼에 따라 작업 가이던스 정보를 제작할 수 있다. 스크립팅 툴(106)은 사용자가 증강현실 기반 작업 가이던스 정보를 쉽게 제작하기 위한 도구로서, 추가적인 AR 매뉴얼 제작비용 없이도 제작이 가능하도록 한다. 스크립팅 툴(106)을 제공할 때 분야별로 적용샘플이 될 수 있는 다수의 템플릿을 제공할 수 있다. 사용자는 소규모 사업자 및 장비 공급자들일 수 있다. 예를 들어, 사용자는 원격 가이던스 장치(3)를 가지고 스크립팅 툴에 기본으로 제공되는 템플릿을 이용하여 증강현실 기반 작업 가이던스 정보를 쉽게 제작한다. 원격 가이던스 장치(3)는 이런 방식으로 제작된 증강현실 기반 작업 가이던스 정보를 입력받아 이를 AR 매뉴얼 생성에 사용할 수 있다. 템플릿에는 가상 제어 영역을 도식화한 템플릿 도면(40)이 제어 화면에 표시될 수 있다. 템플릿 도면에는 가상도구를 나타내는 그래픽 오브젝트가 배치될 수 있다.The above-described operation guidance information may be produced in advance through a
작업자가 증강현실 기반 작업 가이던스 정보를 이용하여 문제를 해결하지 못하는 경우, 원격 서버(2)와 네트워크 연결되어 전문가로부터 원격관리(108)를 통해 원격 엔지니어링을 지원받을 수 있다. 원격 엔지니어링은 영상통화, 채팅, 원격화면 공유, 원격제어 등을 포함한다.If the worker cannot solve the problem using the augmented reality-based work guidance information, the
도 4는 본 발명의 일 실시 예에 따른 원격 가이던스 장치의 구성도이다.4 is a configuration diagram of a remote guidance device according to an embodiment of the present invention.
도 1 및 도 4를 참조하면, 원격 가이던스 장치(3)는 입력부(31), 제어부(32), 출력부(33), 통신부(34) 및 메모리(35)를 포함한다.1 and 4, the
입력부(31)는 작업자의 현재 시점에서 작업현장을 실시간으로 촬영한 현재영상을 포함하는 영상 데이터를 입력받고, 필요 시 사용자 조작신호를 입력받는다. 사용자 조작신호는 사용자의 화면 터치 신호, 키(key) 입력신호, 음성신호 및 생체 신호 중 적어도 하나를 포함할 수 있다. 입력부(31)는 영상 데이터, 사용자 조작신호를 입력받아 이를 제어부(32)에 전달한다.The
일 실시 예에 따른 입력부(31)는 영상 입력부(310), 터치 입력부(312), 음성 입력부(314) 및 생체 입력부(316)를 포함한다. 영상 입력부(310)는 실시간으로 작업현장을 촬영한 영상을 입력받는다. 터치 입력부(312)는 사용자로부터 화면 터치 신호를 입력받는다. 음성 입력부(314)는 사용자로부터 음성을 입력받는 마이크를 구비하여 음성신호를 입력받는다. 생체 입력부(316)는 사용자를 대상으로 촬영된 생체 이미지를 입력받는다. 영상 입력부(310) 및 생체 입력부(316)는 카메라, 영상센서 등으로부터 영상을 입력받을 수 있다.The
출력부(33)는 제어부(32)를 통해 처리된 정보를 출력한다. 일 실시 예에 따른 출력부(33)는 제어부(32)를 통해 생성된 AR 매뉴얼을 출력한다. 출력의 예로는 화면에 영상을 표시할 수 있고, 스피커를 통해 음성을 출력할 수도 있다.The
일 실시 예에 따른 출력부(33)는 프로세스 마커를 화면에 표시한다. 프로세스 마커는, 다수의 작업 단계로 구성된 AR 매뉴얼을 대상으로 각 작업 단계 식별자가 일렬로 정렬되고 적어도 하나의 작업 단계 식별자에 마커가 기록된다. AR 매뉴얼이 다수 개이면, 각 AR 매뉴얼을 일련번호로 구분하여 표시한다. 프로세스 마커의 실시 예는 도 10을 참조로 하여 후술한다.The
통신부(34)는 원격 서버(2)와 네트워크 연결되어, 유무선 통신을 수행한다. 통신부(34)는 원격 서버(2)와 상호 작용하여 네트워크의 항상성 유지를 담당한다. 원격 가이던스 장치(3)는 통신부(34)를 통해 원격 서버(2)와 전용의 네트워크를 통해 연결되거나 인터넷 등의 범용 네트워크를 통해 연결될 수 있다.The
일 실시 예에 따른 통신부(34)는 원격 서버(2)에 작업 매뉴얼을 요청하여 수신한다. 통신부(34)는 원격 서버(2)로부터 작업명령을 수신함에 따라 작업 가이던스를 시작할 수 있다. 예를 들어, 원격 서버(2)가 작업 현장 내 장비들을 모니터링하고 있다가 에러가 발생하거나 에러가 발생할 가능성이 있는 장비를 검출하면 해당 장비에 대한 작업 요청명령을 원격 가이던스 장치(3)에 전송하여 작업자에게 알린다.The
일 실시 예에 따른 통신부(34)는 영상 입력부(30)를 통해 획득된 현재영상을 원격 서버(2)에 전송하여 공유한다. 그리고 원격 가이던스 장치(3)의 증강현실 기반 영상분석을 통해 인식된 객체정보를 원격 서버에 전송하며, 원격 서버(2)로부터 기계학습을 통해 인식된 객체정보를 수신할 수 있다.The
일 실시 예에 따른 통신부(34)는 근거리 무선통신을 지원한다. 예를 들어, 통신부(34)는 근거리 무선통신(Near Field Communication: NFC, 이하 NFC라 칭함), 알에프아이디(radio frequency identification: RFID, 이하 RFID라 칭함), 마그네틱 소스 전송(Magnetic Source Transmission, 이하 MST라 칭함) 등을 지원한다. 통신부(34)는 수~수십 MHz 주파수 대역에서 근거리 무선통신을 수행하여 무선신호를 송수신할 수 있다. 작업대상, 예를 들어 작업장비에 주요 작업단계가 기록된 프로세스 마커가 구비, 예를 들어 부착되어 있는 경우, 통신부(34)는 프로세스 마커와의 근거리 무선통신을 통해 무선신호를 송수신하게 된다.The
메모리(35)는 데이터를 저장한다. 데이터는 작업 현장의 장비들의 고유정보, 위치정보, 장비들의 도면, 작업 매뉴얼 정보, 장비 내 부품정보, 작업 스케줄 정보 등일 수 있다. 이러한 정보는 원격 서버(2)로부터 다운로드 받아 저장될 수도 있고, 입력부(31)를 통해 사용자로부터 입력받을 수도 있다. 메모리(35)는 하드디스크(Hard Disk), 플래시 메모리(Flash Memory)와 같은 내장형 메모리뿐만 아니라, CF 카드(Compact Flash Card), SD 카드(Secure Digital Card), SM 카드(Smart Media Card), MMC 카드(Multi-Media Card), 또는 메모리 스틱(Memory Stick) 등과 같은 이동시 메모리로서 원격 가이던스 장치(3)의 내부에 구현될 수 있고, 별도의 장치에 구비되어 있을 수도 있다.The
제어부(32)는 전술한 각 구성의 동작을 제어한다. 일 실시 예에 따른 제어부(32)는 영상 입력부(30)를 통해 획득된 현재상황 영상을 대상으로 객체 인식, 트래킹 및 렌더링을 반복적으로 수행한다. 예를 들어, 현재영상에서 작업대상을 인식하고 인식된 작업대상을 트래킹하면서 작업대상에 대한 작업을 돕기 위한 가상의 작업 가이던스 정보를 현재영상에 정합한 후 렌더링하거나, 가상의 작업 가이던스 정보를 렌더링한 후 현재영상에 정합하여 AR 매뉴얼을 생성한다. 일 실시 예에 따른 제어부(32)는 원격 서버(2)의 원격제어를 위한 명령을 처리한다. 예를 들어, 원격 가이던스 장치(3) 화면을 원격 서버(2)에 공유한다.The
일 실시 예에 따른 제어부(32)는 객체 인식을 위해 증강현실 기반 영상분석과 학습 데이터 기반 기계학습을 이용한다. 영상분석은 획득된 현재영상 내에서 객체를 인식하는 일반적인 알고리즘을 사용할 수 있다. 예를 들어, 영상 내 점 군 정보(Point Cloud), 깊이 정보, 컬러 정보 등을 이용하여 객체를 인식한다. 영상분석 기반 객체 인식은 이미 공지된 기술이므로 상세한 설명은 생략한다. 이때, 영상 처리, 예를 들어, 영상에 대한 이진화, 에지 블랜딩(edge blending), 마스킹(masking) 등을 처리하여 객체 인식률을 높일 수 있다.The
기계학습은 인공지능(Artificial Intelligence)에서 사용되는 방식 중 하나로서, 수많은 데이터를 컴퓨터에 입력하고 비슷한 것끼리 분류하도록 하여 학습시키는 기술이다. 예를 들어, 저장된 개 사진과 비슷한 사진이 입력되면, 이를 개 사진이라고 컴퓨터가 분류하도록 하는 것이다. 기계학습을 통해 축적된 학습 데이터를 이용하여 영상 내 객체를 인식할 수 있다. 제어부(32)는 이러한 기계학습을 이용한 객체 인식을 증강현실 기반 영상분석의 보조수단으로 활용함에 따라 객체인식의 정확성을 높이고자 한다. 기계학습은 SVM(Support Vector Machines), 딥 러닝(Deep Learning) 기법 등을 이용할 수 있다.Machine learning is one of the methods used in artificial intelligence, and it is a technique of learning by inputting a lot of data into a computer and classifying similar ones. For example, if a picture similar to a stored dog picture is input, the computer classifies it as a dog picture. Objects in the image can be recognized using the learning data accumulated through machine learning. The
일 실시 예에 따른 제어부(32)는 사용자 조작신호에 따라 AR 매뉴얼을 구성하는 다수의 작업 단계 중에서 사용자 조작에 대응되는 작업 단계로 접근하여 해당 작업 단계 화면을 제공한다. 이때, 사용자 조작신호는 사용자의 화면 터치 신호, 음성신호, 영상 신호, 생체 신호 등이 있다. 사용자 조작에 대응되는 작업 단계로의 접근은, 현재 작업 단계를 기준으로 역방향으로의 작업 단계 이동, 순방향으로의 작업 단계 이동, 현재 작업 단계의 반복, 처음 작업 단계로의 이동, 다른 증강현실 매뉴얼로의 이동 등을 포함한다. 제어부(32)의 세부 구성은 도 5를 참조로 하여 후술한다.The
원격 가이던스 장치(3)가 원격 서버(2)와 연결되는 경우, 원격 가이던스 장치(3)는 원격 서버(2)로부터 수신된 제어명령을 수행하는 에이전트(Agent)가 된다. 원격 가이던스 장치(3)는 원격 가이던스를 위해 애플리케이션(App)을 실행할 수 있다. 이때, 서로 상이한 OS, 예를 들어, 안드로이드, iOS, 윈도우 등 각종 OS를 모두 지원할 수 있는 형태를 가진다.When the
도 5는 본 발명의 일 실시 예에 따른 도 4의 제어부의 세부 구성도이다.5 is a detailed configuration diagram of the control unit of FIG. 4 according to an embodiment of the present invention.
도 1, 도 4 및 도 5를 참조하면, 제어부(32)는 신호 처리부(320), 원격제어 처리부(324) 및 디바이스 제어부(326)를 포함한다. 신호 처리부(320)는 영상 인식부(3200), 터치 인식부(3202), 음성 인식부(3204), 생채 인식부(3206) 및 무선신호 인식부(3208)를 포함할 수 있다.1, 4 and 5, the
영상 인식부(3200)는 현재영상에 대한 증강현실 기반 영상분석과 필요 시 학습 데이터를 이용한 기계학습을 이용하여 현재영상에서 객체를 인식한다. 예를 들어, 영상 인식부(3200)는 증강현실 기반 객체 인식결과에 통신부(34)를 통해 수신된 원격 서버(2)의 기계학습 기반 객체 인식결과를 반영하여 객체 인식 정확도를 높인다. 영상 인식부(3200)는 인식된 객체의 움직임을 트래킹한다. 카메라를 통해 포착된 현재영상은 고정된 것이 아니라 작업자의 움직임 등으로 인해 계속 움직이므로, 영상 인식부(3200)는 현재영상 내에서 인식된 객체의 움직임을 계속 따라가는 작업을 수행한다. 이어서, 영상 인식부(3200)는 실제환경과 가상환경 간의 상호작용을 계산하고 계산결과를 반영하여 AR 매뉴얼을 생성한다. AR 매뉴얼은 실제환경에 가상환경이 결합한 것이다.The
일 실시 예에 따른 영상 인식부(3200)는 실제객체와 가상객체와의 상호작용을 계산하고 계산결과를 반영하여 현재영상에 가상객체를 결합한 후 렌더링하거나, 가상객체를 렌더링한 후 이를 현재영상에 결합하여 AR 매뉴얼을 생성한다. 이때, 현재영상에서 작업 가이던스 정보를 표현할 가상객체 위치를 선정하고 선정된 가상객체 위치에 작업 매뉴얼에 맞게 작업 가이던스 정보를 배치할 수 있다.The
일 실시 예에 따른 영상 인식부(3200)는 미리 정의된 템플릿에 기초하여 작업 매뉴얼에 따라 동적으로 가공할 수 있는 스크립팅 툴을 통해 미리 제작된 작업 가이던스 정보를 입력받아 이를 AR 매뉴얼 생성에 사용한다. 영상 인식부(3200)를 통해 생성된 AR 매뉴얼은 출력부(33)에 제공된다.The
터치 인식부(3202), 음성 인식부(3204), 생채 인식부(3206) 및 무선신호 인식부(3208)는 하이퍼모션 단계 처리를 위한 모듈이다.The
터치 입력부(312)가 사용자로부터 화면 터치 신호를 입력받으면, 터치 인식부(3202)는 화면에 표시된 프로세스 마커를 대상으로 터치 입력부로부터 사용자 터치 신호를 수신하여 사용자 터치를 인식하고 AR 매뉴얼을 구성하는 다수의 작업 단계 중에서 인식된 터치에 대응되는 작업 단계로 접근하여 해당 작업 단계 화면을 제공한다.When the
음성 인식부(3204)는 AR 매뉴얼을 구성하는 작업 단계들에 식별자 정보와 위치정보를 가지는 음성인식 부호를 할당한다. 음성 입력부(314)가 마이크를 통해 사용자로부터 음성을 입력받으면, 음성 인식부(3204)는 음성 입력부(314)로부터 사용자 음성신호를 수신하여 사용자 음성을 인식하고 다수의 작업 단계 중에서 인식된 음성에 대응되는 음성인식 부호가 할당된 작업 단계로 접근하여 해당 작업 단계 화면을 제공한다.The
생체 인식부(3206)는 AR 매뉴얼을 구성하는 작업 단계들에 식별자 정보와 위치정보를 가지는 생체인식 부호를 할당한다. 생체 입력부(316)가 사용자를 대상으로 촬영된 생체 이미지를 입력받으면, 생체 인식부(3206)는 생체 입력부(316)로부터 사용자 생체 이미지를 수신하여 사용자의 얼굴 및 신체를 감지하고 감지된 얼굴 및 신체정보에서 표정 또는 모션을 인식하며 다수의 작업 단계 중에서 인식된 표정 또는 모션에 대응되는 생체인식 부호가 할당된 작업 단계로 접근하여 해당 작업 단계 화면을 제공한다. 사용자의 얼굴 및 신체 감지는 사용자의 눈 깜박임, 홍채, 지문, 손을 흔드는 동작과 같은 손의 움직임, 손가락 두 개를 펴는 동작과 같은 손가락 모양, 고개를 끄덕이는 것과 같은 머리의 움직임 등이 있을 수 있다.The
무선신호 인식부(3208)는 통신부(34)로부터 수신된 무선신호에 의해 작업대상, 예를 들어 작업장비에 구비된 프로세스 마커를 인식한다. 프로세스 마커에는 작업대상에 대한 주요 작업 단계가 기록되어 있으므로, 인식된 프로세스 마커에 기록된 주요 작업 단계를 쉽게 파악할 수 있다. 나아가, 파악된 주요 작업 단계 중에 사용자 조작에 의해 사용자가 원하는 작업 단계로 접근하여 해당 작업 단계 화면을 제공할 수 있다. 무선통신은 NFC, RFID, MST 등을 이용할 수 있다.The wireless
원격제어 처리부(324)는 원격 서버(2)에 원격제어를 요청하고 원격 서버(2)의 제어에 따라 원격으로 화면을 공유한다. 디바이스 제어부(326)는 원격 서버(2)의 제어요청을 처리한다.The remote
도 6은 본 발명의 일 실시 예에 따른 도 4의 출력부의 세부 구성도이다.6 is a detailed configuration diagram of an output unit of FIG. 4 according to an embodiment of the present invention.
도 6을 참조하면, 출력부(33)는 식별자 표시부(330), 상태 표시부(332), 작업 매뉴얼 표시부(334), 작업도구 표시부(336) 및 프로세스 마커 표시부(338)를 포함한다.Referring to FIG. 6, the
식별자 표시부(330)는 작업대상을 식별하기 위한 가상객체를 화면에 표시한다. 예를 들어, 화살표, 선, 블록 등의 식별자를 화면에 표시한다. 이때, 작업대상은 작업 매뉴얼에 맞게 변경될 수 있다. 실시간으로 촬영되는 실제화면은 계속 움직이므로 식별자 역시 움직이는 작업대상에 맞게 이동한다. 식별자 표시부(330)는 작업대상의 위치를 알려줄 수도 있다. 예를 들어, 손 모양 등으로 작업이 필요한 부품을 가리킨다.The
상태 표시부(332)는 작업대상의 제어 상태, 고장 상태, 동작 상태, 시간정보, 장비 내 작업이 필요한 제어 파라미터 등 장비에 관한 각종 상태정보를 표시한다. 이때, 작업대상의 품번, 수명주기, 최근 교체 내역, 고장 내역 등을 포함하는 세부설명이 화면에 표시될 수 있다. 제어 파라미터의 예를 들면, 장비가 공기 조화기인 경우, 제어 파라미터는 목표 온도(또는 설정 온도), 상한 온도, 하한 온도, 풍량, 운전, 정지 여부 등이 될 수 있다. 장비가 조명 설비인 경우, 제어 파라미터는 조명 밝기 등이 될 수 있다. 상태 표시부(332)는 작업이 필요한 장비를 대상으로 자동으로 상태정보를 표시할 수 있지만, 작업자의 요청에 따라 상태정보를 표시할 수도 있다. 예를 들어, 작업자가 화면 내에서 소정의 장비를 선택하면, 선택된 장비에 대한 각종 상태정보를 화면에 표시할 수 있다.The
작업 매뉴얼 표시부(334)는 순차적인 작업 매뉴얼을 알려주기 위한 가상객체를 화면에 표시한다. 이때, 작업 매뉴얼에 맞게 작업이 필요한 장비 또는 장비 내 부품을 식별자 표시부(330)를 통해 함께 작업자에 알려줄 수 있다. 작업도구 표시부(336)는 작업에 필요한 도구를 알려주기 위한 가상객체를 화면에 표시한다. 작업도구는 예를 들어, 망치, 드라이버, 손 등이 있다.The work
프로세스 마커 표시부(338)는 다수의 작업 단계로 구성된 AR 매뉴얼을 대상으로 단계 상태를 파악할 수 있도록 는 프로세스 마커를 화면에 표시한다. 프로세스 마커는 AR 매뉴얼 별 식별자 정보와, AR 매뉴얼 내 각 작업 단계 별 식별자 정보와, 사용자가 원하는 작업 단계로의 접근을 위해 현재 작업 단계를 기준으로 적어도 하나의 작업 단계 식별자에 할당되는 마커 정보를 포함한다.The process
음성인식의 경우, 프로세스 마커 표시부(338)는 AR 매뉴얼을 구성하는 작업 단계들에 식별자 정보와 위치정보를 가지는 음성인식 부호를 할당한다. 생체인식의 경우, 프로세스 마커 표시부(338)는 AR 매뉴얼을 구성하는 작업 단계들에 식별자 정보와 위치정보를 가지는 생체인식 부호를 할당한다.In the case of speech recognition, the process
도 7은 본 발명의 일 실시 예에 따른 원격 서버의 구성도이다.7 is a block diagram of a remote server according to an embodiment of the present invention.
도 1 및 도 7을 참조하면, 원격 서버(2)는 인증 관리부(Verification Management Module: VMM)(20), 모니터링부(Monitoring Screen Module: MSM)(21), 네트워크 연결부(Network Handling Module: NHM)(22), 원격 제어부(Remote Access & Control Module: RCM)(23), 데이터 처리부(Data Processing Module: DPM)(24), 클라이언트 관리부(Device & App Monitoring Module: DMM)(25), 프로토콜 처리부(Messaging Protocol Stack: MPS)(26) 및 데이터 분석부(Bigdata Statistics Engine: BSE)(27)를 포함한다. 원격 서버(2)는 확장성을 고려하여 클라우드 플랫폼 기반으로 설계될 수 있다.1 and 7, the
인증 관리부(20)는 요청받은 작업자의 사용자 정보의 유효성을 검증하며 필요에 따라 원격 서버(2)로 수신되는 요구사항의 주체가 누구인지를 인증한다. 모니터링부(21)는 원격에 있는 작업자의 원격 가이던스 장치(3) 화면을 모니터링한다. 이때, 기술자 및 관리자의 단말을 통해 모니터링하거나 조작을 돕는 기능을 제공한다.The
네트워크 연결부(22)는 네트워크의 종류와 관계없이 네트워크 연결의 항상성을 유지한다. 네트워크 연결부(22)는 작업자의 원격 가이던스 장치(3)과 정보를 송수신한다. 예를 들어, 네트워크 연결부(22)는 원격 가이던스 장치(3)로부터 현재영상을 수신하여 공유하고, 원격 가이던스 장치(3)의 증강현실에 기반한 영상분석을 통해 인식된 객체정보를 수신하며, 기계학습 기반 객체 인식결과를 원격 가이던스 장치(3)에 전송한다. 원격 제어부(23)는 원격 가이던스 장치(3)로부터 원격제어 요청을 수신하면 원격 가이던스 장치(3)의 화면을 공유하며, 원격 제어명령을 원격 가이던스 장치(3)에 전송한다. 이때, 필요한 프로세스 조정 기능을 제공한다.The
데이터 처리부(24)는 네트워크 연결부(22)를 통해 원격 가이던스 장치(3)로부터 수신된 현재영상을 대상으로 학습 데이터에 기반하여 기계학습을 통해 객체를 인식한다. 클라이언트 관리부(25)는 클라이언트의 상태를 확인하고 클라이언트가 정상적으로 작동하는지 작동하지 않으면 어떤 문제가 있는지 파악 후 처리한다. 클라이언트는 작업자가 소지한 사용자 단말, 원격 가이던스 장치(3)에서 실행되는 애플리케이션, 작업 현장 내 각종 장비일 수 있다. 원격 가이던스 장치(3)는 작업자에 의해 촬영된 현재영상에 증강현실 기반 작업 가이던스 정보를 결합하여 제공한다. 일 실시 예에 따른 클라이언트 관리부(25)는 작업 현장 내 장비들을 모니터링하여 에러를 사전에 예측하고 에러가 발생하기 이전에, 해당 장비에 대한 에러를 처리하기 위한 작업 명령을 생성한다. 생성된 작업 명령은 네트워크 연결부(22)를 통해 작업자의 원격 가이던스 장치(3)에 전송된다.The
프로토콜 처리부(26)는 클라이언트의 정상신호를 수신하여 파싱하고 이를 처리하기 위한 통신규약을 구현해주는 소프트웨어 모듈이다. 데이터 분석부(27)는 다수의 클라이언트에 대한 이상징후를 파악하여 안정된 서비스를 할 수 있도록 클라이언트로부터 수신된 데이터를 분석한다. 이때, 분석된 데이터를 미리 설정된 역치 값과 비교하여 이상징후를 파악할 수 있다.The
도 8은 본 발명의 일 실시 예에 따른 원격 가이던스 방법을 도시한 흐름도이다.8 is a flowchart illustrating a remote guidance method according to an embodiment of the present invention.
도 8을 참조하면, 원격 가이던스 장치는 작업자의 현재 시점에서 작업현장을 실시간으로 촬영한 현재영상을 획득(800)하여 획득된 현재영상에서 작업대상을 인식하고 인식된 작업대상을 트래킹한다(810). 이어서, 트래킹된 작업대상에 대해 작업자의 작업을 가이드하기 위한 작업 매뉴얼을 획득한다(820). 트래킹된 작업대상을 포함한 현재영상에, 수신된 가상의 작업 매뉴얼을 정합하여 AR 매뉴얼을 사용자에 제공한다(830). 이어서, 사용자 조작신호를 수신하여 사용자 조작을 인식하고 AR 매뉴얼을 구성하는 다수의 작업 단계 중에서 인식된 사용자 조작에 대응되는 작업 단계로 접근하여 해당하는 작업 단계 화면을 제공한다(840).Referring to FIG. 8, the remote guidance device acquires (800) the current image of the work site in real time from the current point of view of the operator, recognizes the work object from the acquired current image, and tracks the recognized work object (810). . Subsequently, an operation manual for guiding the operation of the operator with respect to the tracked work object is acquired (820 ). The AR manual is provided to the user by matching the received virtual work manual to the current image including the tracked work target (830). Subsequently, a user operation signal is received, the user operation is recognized, and a work step screen corresponding to the recognized user operation is approached among a plurality of work steps constituting the AR manual to provide a corresponding work step screen (840 ).
작업 단계 접근 및 제공 단계(840)에서. 일 실시 예에 따른 원격 가이던스 장치는 화면에 표시된 프로세스 마커를 대상으로 사용자로부터 터치 신호를 입력받아 사용자 터치를 인식하고 AR 매뉴얼을 구성하는 다수의 작업 단계 중에서 인식된 터치에 대응되는 작업 단계로 접근하여 해당 작업 단계 화면을 제공한다. AR 매뉴얼을 구성하는 작업 단계들에 식별자 정보와 위치정보를 가지는 음성인식 부호를 할당하는 단계를 더 포함한다. 이 경우, 사용자로부터 음성신호를 입력받아 사용자 음성을 인식하고 다수의 작업 단계 중에서 인식된 음성에 대응되는 음성인식 부호가 할당된 작업 단계로 접근하여 해당 작업 단계 화면을 제공할 수 있다.In the work step access and provision step 840. The remote guidance device according to an embodiment receives a touch signal from a user targeting a process marker displayed on a screen, recognizes a user touch, and approaches a work step corresponding to the recognized touch among a plurality of work steps constituting an AR manual. Provides the corresponding work step screen. Further comprising the step of assigning a voice recognition code having identifier information and location information to the work steps constituting the AR manual. In this case, a user may recognize a user voice by receiving a voice signal from the user, and access to a work step to which a voice recognition code corresponding to the recognized voice is assigned among a plurality of work steps to provide a corresponding work step screen.
작업 단계 접근 및 제공 단계(840)에서, 일 실시 예에 따른 원격 가이던스 장치는 다수의 작업 단계로 구성된 AR 매뉴얼을 대상으로 단계 상태를 파악할 수 있는 프로세스 마커를 화면에 표시한다. 프로세스 마커는 AR 매뉴얼 별 식별자 정보와, AR 매뉴얼 내 각 작업 단계 별 식별자 정보와, 사용자가 원하는 작업 단계로의 접근을 위해 현재 작업 단계를 기준으로 적어도 하나의 작업 단계 식별자에 할당되는 마커 정보를 포함한다.In the operation step approaching and providing step 840, the remote guidance device according to an embodiment displays a process marker on the screen for an AR manual composed of a plurality of operation steps. The process marker includes identifier information per AR manual, identifier information for each work step in the AR manual, and marker information assigned to at least one work step identifier based on the current work step for access to a work step desired by the user do.
작업 단계 접근 및 제공 단계(840)에서, 일 실시 예에 따른 원격 가이던스 장치는 AR 매뉴얼을 구성하는 작업 단계들에 식별자 정보와 위치정보를 가지는 생체인식 부호를 할당한다. 그리고 사용자를 대상으로 촬영된 생체 이미지를 입력받아 사용자의 얼굴 및 신체를 감지하고 감지된 얼굴 및 신체정보에서 표정 및 모션을 인식하며 다수의 작업 단계 중에서 인식된 표정 또는 모션에 대응되는 생체인식 부호가 할당된 작업 단계로 접근하여 해당 작업 단계 화면을 제공할 수 있다.In the operation step access and provision step 840, the remote guidance device according to an embodiment allocates a biometric code having identifier information and location information to the operation steps constituting the AR manual. In addition, a biometric image corresponding to a recognized facial expression or motion among a plurality of work steps is recognized by receiving a biometric image photographed for a user, detecting a user's face and body, and recognizing facial expressions and motions from the detected face and body information. You can access the assigned work step and provide the corresponding work step screen.
일 실시 예에 따른 원격 가이던스 장치는 작업대상에 구비된 프로세스 마커와 근거리 무선통신하여 수신된 무선신호에 의해 프로세스 마커를 인식하고 인식된 프로세스 마커에 기록된 작업 단계를 파악할 수 있다. 나아가, 파악된 주요 작업 단계 중에 사용자 조작에 의해 사용자가 원하는 작업 단계로 접근하여 해당 작업 단계 화면을 제공할 수 있다.The remote guidance device according to an embodiment may recognize the process marker by the received radio signal by performing short-range wireless communication with the process marker provided in the work object and grasp the work step recorded in the recognized process marker. Further, among the identified major work steps, the user may approach the work step desired by the user and provide a corresponding work step screen.
도 9는 본 발명의 일 실시 예에 따른 원격 가이던스 장치가 원격 서버에 AR 매뉴얼을 요청하여 수신하는 프로세스를 도시한 도면이다.9 is a diagram illustrating a process in which a remote guidance device according to an embodiment of the present invention requests and receives an AR manual from a remote server.
도 9를 참조하면, 원격 가이던스 장치(3)는 원격 서버(2)에 AR 매뉴얼을 요청하여 수신한다. AR 매뉴얼은 일련번호로 구분될 수 있다. 예를 들어, 원격 가이던스 장치(3)가 원격 서버(2)로부터 AR 매뉴얼 1001을 다운로드 받아(900) 화면에 AR 매뉴얼 1001을 표시한다. 각 AR 매뉴얼은 다수의 작업 단계로 나눠질 수 있는데, AR 매뉴얼 1001은 10단계로 나누어진다. 이어서, 원격 가이던스 장치(3)는 원격 서버(2)에 AR 매뉴얼 1002를 요청(910)하여 원격 서버(2)로부터 AR 매뉴얼 1002를 다운로드 받고(920) AR 매뉴얼 1001에 이어서 AR 매뉴얼 1002를 화면에 표시한다.Referring to FIG. 9, the
도 10은 본 발명의 일 실시 예에 따른 음성인식 부호를 이용한 음성인식을 통해 작업단계의 이동을 보여주는 도면이다.10 is a view showing a movement of a work step through voice recognition using a voice recognition code according to an embodiment of the present invention.
도 10을 참조하면, 일 실시 예에 따른 원격 가이던스 장치(3)는 다단계 조작이 필요한 경우 단계 상태를 파악할 수 있는 프로세스 마커를 이용한다. 프로세스 마커는 AR 매뉴얼의 각 작업 단계 식별자가 일렬로 정렬되고 적어도 하나의 작업 단계 식별자에 마커가 기록된 것으로, 화면에 표시된다. AR 매뉴얼이 다수 개인 경우 각 AR 매뉴얼을 일련번호로 구분하여 표시할 수 있다.Referring to FIG. 10, the
프로세스 마커를 이용하면 현재 작업 단계를 기준으로 역방향(backward) 또는 순방향(forward)으로 사용자가 원하는 위치까지 신속하게 이동할 수 있어서 작업을 용이하게 처리할 수 있다. 예를 들어, 작업 단계 식별자들에 5개 또는 10개 단위의 규칙적인 마커를 기록하고 사용자가 마커를 이용하여 원하는 작업 단계로 이동하도록 처리한다. 원하는 전후 작업 단계로의 이동뿐만 아니라, 현재 작업 단계의 반복 처리도 가능하다.Using the process marker, the user can quickly move to a desired position in a backward or forward direction based on the current work step, thereby facilitating the work. For example, 5 or 10 regular markers are recorded in the work step identifiers, and the user is processed to move to a desired work step using the marker. It is possible not only to move to the desired front-rear work step, but also to repeat the current work step.
AR 매뉴얼은 원격 서버(2)에서 AR 매뉴얼의 순번에 따라 분리되어 원격 가이던스 장치(3)가 필요 시 원격 서버(2)에 요청하여 다운로드 받을 수 있다. AR 매뉴얼이 다수 개이면, 이를 1001, 1002, 1003 등의 일련번호로 구분할 수 있으며, 일련번호 안에 작업 단계가 20단계, 10단계 등으로 구분될 수 있다.The AR manual is separated from the
사용자 터치 등을 통해 접근하려면 필연적인 흔들림이 동반되고 마커를 통해 소정의 작업 단계로 점프할 수는 있으나 디스플레이에 포착한 장비나 부속에 대한 트래킹 및 기계학습이 다시 진행되어야 하므로 신속한 처리를 방해한다. 이를 보완하기 위해 중요한 작업 단계에 음성인식 또는 생체인식 부호를 할당하여 작업자의 작업을 보존하며 신속한 반응을 얻을 수 있도록 한다. 음성인식 또는 생체인식 부호는 해당 부호에 식별자 정보 및 위치정보가 할당된다.To approach through a user's touch, it is accompanied by inevitable shaking, and it is possible to jump to a predetermined work step through a marker, but it prevents rapid processing because tracking and machine learning of the equipment or parts captured on the display must be performed again. To compensate for this, voice recognition or biometric codes are assigned to important work steps to preserve the work of the operator and to obtain a quick response. In the voice recognition or biometric code, identifier information and location information are assigned to the corresponding code.
음성인식 부호를 이용한 작업 단계 접근의 예를 들면, 현재 제공 중인 작업단계(Present Marker)와, 현재 작업 단계(Present Marker)를 기준으로 이전 및 이후의 주요 단계(Marker 1, Marker 2, Marker 4)를 마커로 표시한다. 이때, 인식된 사용자 음성이 "1001 다시!"이면, AR 매뉴얼 1001의 마커 1 위치에 해당하는 음성인식 부호가 할당된 처음 작업 단계로 이동하여 제공한다. 수신된 사용자 음성이 "뒤로!"이면, 현재 작업 단계를 기준으로 뒤에 표시된 마커 2 위치에 해당하는 음성인식 부호가 할당된 작업 단계로 이동하여 제공한다. 수신된 사용자 음성이 "앞으로!"이면, 현재 작업 단계를 기준으로 앞에 표시된 마커 4 위치에 해당하는 음성인식 부호가 할당된 작업 단계로 이동하여 제공한다. 수신된 사용자 음성이 "AR 매뉴얼 1001로!"이면, AR 매뉴얼 1001의 마커 1 위치에 해당하는 음성인식 부호가 할당된 작업 단계로 이동하여 제공한다. 수신된 사용자 음성이 "1002 다시!"이면, AR 매뉴얼 1002의 마커 5 위치에 해당하는 음성인식 부호가 할당된 작업 단계로 이동하여 제공한다.For example, a work step approach using voice recognition code, the present work step (Present Marker) and the current work step (Present Marker) based on the previous and subsequent major steps (
생체인식 부호를 이용한 작업 단계 접근의 예를 들면, 인식된 사용자 생체신호가 "눈 깜빡임 연속 3회"이면, "처음부터 다시"를 의도하는 것으로, 처음 위치에 해당하는 생체인식 부호가 할당된 작업 단계로 이동하여 제공한다. 인식된 사용자 생체신호가 "고개 끄덕임"이면, "다음"을 의도하는 것으로, 다음 위치에 해당하는 생체인식 부호가 할당된 작업 단계로 이동하여 제공한다.For example, in the case of a work step approach using a biometric code, if the recognized user biometric signal is "3 times in a blink of an eye", it is intended to "restart from the beginning", and the task in which the biometric code corresponding to the initial position is assigned Go to step to provide. If the recognized user biometric signal is "nodding head", "next" is intended, and the biometric code corresponding to the next location is moved to the assigned work step and provided.
이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been focused on the embodiments. Those skilled in the art to which the present invention pertains will understand that the present invention can be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered in terms of explanation, not limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the equivalent range should be interpreted as being included in the present invention.
Claims (16)
작업자의 현장상황을 촬영한 현재영상을 입력받는 입력부;
입력부로부터 수신된 현재영상에서 작업대상을 인식하고 인식된 작업대상을 포함한 현재영상에 가상의 작업 매뉴얼을 정합하여 증강현실 매뉴얼을 제공하며, 증강현실 매뉴얼을 구성하는 작업 단계들에 식별자 정보와 위치정보를 가지는 음성인식 부호를 할당하며, 사용자 음성신호를 수신하여 소정의 작업 단계로의 접근을 지시하는 사용자 음성을 인식하고 다수의 작업 단계 중에서 인식된 음성에 대응되는 음성인식 부호가 할당된 작업 단계로 접근하여 해당 작업 단계 화면을 제공하는 제어부; 및
증강현실 매뉴얼의 각 작업 단계를 일렬로 정렬하여 표시하고, 사용자가 원하는 작업 단계로의 접근을 위해 현재 작업 단계를 기준으로 적어도 하나의 작업 단계에 프로세스 마커를 표시하는 출력부;
를 포함하는 것을 특징으로 하는 원격 가이던스 장치.In the remote guidance device provided in a portable user terminal that does not need to wear an immersive display,
An input unit that receives a current image of a worker's field situation;
Recognizes the work object from the current image received from the input unit, matches the virtual work manual to the current image including the recognized work object, provides the augmented reality manual, and provides identifier information and location information in the work steps constituting the augmented reality manual. Assigning a voice recognition code having a, to recognize a user voice instructing access to a predetermined work step by receiving a user voice signal, and a work step in which a voice recognition code corresponding to the recognized voice is assigned among a plurality of work steps. A control unit that accesses and provides a corresponding work step screen; And
An output unit for arranging and displaying each work step of the augmented reality manual in a line, and displaying a process marker on at least one work step based on a current work step for access to a work step desired by a user;
A remote guidance device comprising a.
사용자 음성에 대응되는 작업 단계로의 접근은, 현재 작업 단계를 기준으로 역방향으로의 작업 단계 이동, 순방향으로의 작업 단계 이동, 현재 작업 단계의 반복, 처음 작업 단계로의 이동 또는 다른 증강현실 매뉴얼로의 이동을 포함하는 것을 특징으로 하는 원격 가이던스 장치.According to claim 1,
The access to the work step corresponding to the user's voice can be performed by moving the work step in the reverse direction based on the current work step, moving the work step in the forward direction, repeating the current work step, moving to the first work step or other augmented reality manual. Remote guidance device comprising a movement of the.
다수의 작업 단계로 구성된 증강현실 매뉴얼을 대상으로 단계 상태를 파악할 수 있는 프로세스 마커를 화면에 표시하고,
프로세스 마커는 증강현실 매뉴얼 별 식별자 정보와, 증강현실 매뉴얼 내 각 작업 단계 별 식별자 정보와, 사용자가 원하는 작업 단계로의 접근을 위해 현재 작업 단계를 기준으로 적어도 하나의 작업 단계 식별자에 할당되는 마커 정보를 포함하는 것을 특징으로 하는 원격 가이던스 장치.According to claim 1, The output unit
A process marker that can identify the status of a step is displayed on the screen targeting the augmented reality manual composed of a number of work steps,
The process marker includes identifier information for each augmented reality manual, identifier information for each work step in the augmented reality manual, and marker information assigned to at least one work step identifier based on the current work step for access to a work step desired by the user A remote guidance device comprising a.
실시간으로 작업현장을 촬영한 현재상황 영상을 획득하는 영상 입력부; 를 포함하며,
제어부는
증강현실에 기반하여 현재영상에서 객체를 인식하고, 인식된 객체의 움직임을 트래킹하며, 트래킹되는 실제객체에 대해 증강현실 기반 작업 가이던스 정보에 해당하는 가상객체를 결합하여 렌더링하거나, 가상객체를 렌더링한 후 이를 실제객체에 결합하여 증강현실 매뉴얼을 생성하는 영상 인식부;
를 포함하는 것을 특징으로 하는 원격 가이던스 장치.The method of claim 1, wherein the input unit
An image input unit for acquiring an image of a current situation photographing a work site in real time; It includes,
The control
Based on augmented reality, it recognizes an object from the current image, tracks the movement of the recognized object, and combines and renders virtual objects corresponding to the augmented reality-based work guidance information for the tracked real objects or renders virtual objects An image recognition unit that combines them with real objects to generate an augmented reality manual;
A remote guidance device comprising a.
원격 서버와 네트워크 연결되어 입력부를 통해 획득된 현재영상을 원격 서버에 전송하여 공유하고 원격 가이던스 장치의 증강현실 기반 영상분석을 통해 인식된 객체정보를 원격 서버에 전송하며 원격 서버로부터 기계학습을 통해 인식된 객체정보를 수신하는 통신부; 를 더 포함하며,
영상 인식부는
증강현실 기반 객체의 윤곽선 인식결과에 통신부로부터 수신된 원격 서버의 기계학습 기반 객체 인식결과를 반영하여 증강현실 기반 객체의 윤곽선 인식 시에 파악되지 못한 객체를 인식하는 것을 특징으로 하는 원격 가이던스 장치.The method of claim 8, wherein the remote guidance device
It is networked with a remote server and transmits and shares the current image acquired through the input unit to the remote server, transmits the object information recognized through the augmented reality based image analysis of the remote guidance device to the remote server, and recognizes it through machine learning from the remote server Communication unit for receiving the object information; Further comprising,
The image recognition unit
A remote guidance device characterized by recognizing a contour recognition result of an augmented reality based object by recognizing a machine learning based object recognition result of a remote server received from a communication unit, and recognizing an unknown object when recognizing the contour of the augmented reality based object.
작업대상에 구비된 프로세스 마커와 근거리 무선통신이 가능한 통신부; 를 더 포함하며,
제어부는
통신부로부터 수신된 무선신호에 의해 프로세스 마커를 인식하고 인식된 프로세스 마커에 기록된 작업 단계를 파악하며 파악된 작업 단계 중에 사용자 조작에 의해 사용자가 원하는 작업 단계로 접근하여 해당 작업 단계 화면을 제공하는 무선신호 인식부;
를 포함하는 것을 특징으로 하는 원격 가이던스 장치.The method of claim 1, wherein the remote guidance device
A communication unit capable of short-range wireless communication and a process marker provided on the work object; Further comprising,
The control
A radio that recognizes a process marker by a radio signal received from the communication unit, identifies the work step recorded in the recognized process marker, and provides a corresponding work step screen by accessing the work step desired by the user by user manipulation during the identified work step Signal recognition unit;
A remote guidance device comprising a.
작업자의 현장상황을 촬영한 현재영상을 획득하여 현재영상에서 작업대상을 인식하고 인식된 작업대상을 트래킹하는 단계;
트래킹된 작업대상에 대해 작업자의 작업을 가이드하기 위한 작업 매뉴얼을 획득하는 단계;
트래킹된 작업대상을 포함한 현재영상에, 수신된 가상의 작업 매뉴얼을 정합하여 증강현실 매뉴얼을 제공하는 단계;
증강현실 매뉴얼을 구성하는 작업 단계들에 식별자 정보와 위치정보를 가지는 음성인식 부호를 할당하고 각 작업 단계를 일렬로 정렬하여 표시하는 단계;
사용자가 원하는 작업 단계로의 접근을 위해 현재 작업 단계를 기준으로 적어도 하나의 작업 단계에 프로세스 마커를 표시하는 단계; 및
사용자 음성신호를 수신하여 소정의 작업 단계로의 접근을 지시하는 사용자 음성을 인식하고 다수의 작업 단계 중에서 인식된 음성에 대응되는 음성인식 부호가 할당된 작업 단계로 접근하여 해당 작업 단계 화면을 제공하는 단계;
를 포함하는 것을 특징으로 하는 원격 가이던스 제공 방법.In a remote guidance method using a remote guidance device provided in a portable user terminal that does not need to wear an immersive display, the remote guidance device includes:
Acquiring a current image of a worker's field situation, recognizing a work object from the current image, and tracking the recognized work object;
Obtaining a work manual for guiding a worker's work on the tracked work object;
Providing an augmented reality manual by matching the received virtual work manual to the current image including the tracked work target;
Assigning a voice recognition code having identifier information and location information to work steps constituting the augmented reality manual and arranging and displaying each work step in a line;
Displaying a process marker on at least one work step based on a current work step for access to a work step desired by a user; And
Recognizing a user's voice instructing access to a predetermined work step by receiving a user voice signal, and accessing a work step to which a voice recognition code corresponding to the recognized voice is assigned among a plurality of work steps to provide a corresponding work step screen step;
Remote guidance providing method comprising a.
프로세스 마커는 증강현실 매뉴얼 별 식별자 정보와, 증강현실 매뉴얼 내 각 작업 단계 별 식별자 정보와, 사용자가 원하는 작업 단계로의 접근을 위해 현재 작업 단계를 기준으로 적어도 하나의 작업 단계 식별자에 할당되는 마커 정보를 포함하는 것을 특징으로 하는 원격 가이던스 제공 방법.The method of claim 11,
The process marker includes identifier information for each augmented reality manual, identifier information for each work step in the augmented reality manual, and marker information assigned to at least one work step identifier based on the current work step for access to a work step desired by the user Remote guidance providing method comprising a.
작업대상에 구비된 프로세스 마커와 근거리 무선통신하는 단계; 및
무선통신을 통해 수신된 무선신호에 의해 프로세스 마커를 인식하고 인식된 프로세스 마커에 기록된 작업 단계를 파악하며 파악된 작업 단계 중에 사용자 조작에 의해 사용자가 원하는 작업 단계로 접근하여 해당 작업 단계 화면을 제공하는 단계;
를 더 포함하는 것을 특징으로 하는 원격 가이던스 제공방법.The method of claim 11, wherein the method for providing remote guidance
Short-range wireless communication with the process marker provided on the work object; And
The process marker is recognized by the wireless signal received through wireless communication, the work step recorded in the recognized process marker is identified, and the user's operation accesses the work step desired by the user during the identified work step to provide the corresponding work step screen To do;
A method for providing remote guidance, further comprising a.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180148755A KR102132330B1 (en) | 2018-11-27 | 2018-11-27 | Remote guidance apparatus and method capable of handling hyper-motion step based on augmented reality and machine learning |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180148755A KR102132330B1 (en) | 2018-11-27 | 2018-11-27 | Remote guidance apparatus and method capable of handling hyper-motion step based on augmented reality and machine learning |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200068075A KR20200068075A (en) | 2020-06-15 |
KR102132330B1 true KR102132330B1 (en) | 2020-07-09 |
Family
ID=71081448
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180148755A KR102132330B1 (en) | 2018-11-27 | 2018-11-27 | Remote guidance apparatus and method capable of handling hyper-motion step based on augmented reality and machine learning |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102132330B1 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112529125A (en) * | 2020-11-13 | 2021-03-19 | 贵州电网有限责任公司 | Machine room operation implementation method based on AR |
KR102592551B1 (en) * | 2020-11-30 | 2023-10-24 | 울산과학기술원 | Object recognition processing apparatus and method for ar device |
KR102605552B1 (en) * | 2020-12-29 | 2023-11-27 | 주식회사 딥파인 | Augmented Reality System |
KR102634163B1 (en) * | 2020-12-30 | 2024-02-06 | 주식회사 스팀도서관 | Method for providing smart experiential education space and system using the same |
KR102462144B1 (en) * | 2021-01-21 | 2022-11-04 | 주식회사 증강지능 | AI Chatbot System with MR Content for Tutoring |
CN113985820B (en) * | 2021-08-19 | 2023-10-20 | 中核武汉核电运行技术股份有限公司 | Nuclear power plant remote guidance system and method based on augmented reality technology |
CN114489324A (en) * | 2021-12-28 | 2022-05-13 | 北京亮亮视野科技有限公司 | Information acquisition method and device, electronic equipment and storage medium |
CN114385291A (en) * | 2021-12-29 | 2022-04-22 | 南京财经大学 | Standard workflow guiding method and device based on plug-in transparent display screen |
CN115064023A (en) * | 2022-05-06 | 2022-09-16 | 中国人民解放军陆军防化学院 | Portable terminal teaching training system based on AR glasses |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100834904B1 (en) * | 2006-12-08 | 2008-06-03 | 한국전자통신연구원 | Development system of augmented reality contents supported user interaction based marker and method thereof |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101087022B1 (en) * | 2009-07-17 | 2011-11-25 | (주) 티아이에스 | Testing method for failure recognition system |
KR20130067450A (en) * | 2011-12-14 | 2013-06-24 | 한국전자통신연구원 | Field applied safety helmet apparatus for ar-based of maintenance and method for providing its application service |
-
2018
- 2018-11-27 KR KR1020180148755A patent/KR102132330B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100834904B1 (en) * | 2006-12-08 | 2008-06-03 | 한국전자통신연구원 | Development system of augmented reality contents supported user interaction based marker and method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR20200068075A (en) | 2020-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102132330B1 (en) | Remote guidance apparatus and method capable of handling hyper-motion step based on augmented reality and machine learning | |
KR102031670B1 (en) | Mobile terminal providing augmented reality based maintenance guidance, remote managing apparatus and method for remote guidance using the same | |
CN108089696B (en) | Virtual reality and augmented reality for industrial automation | |
KR102439337B1 (en) | Multilateral participation remote collaboration system based on Augmented reality sharing and method thereof | |
US11064009B2 (en) | Augmented reality-based wiring, commissioning and monitoring of controllers | |
EP3111297B1 (en) | Tracking objects during processes | |
US11900708B2 (en) | Neural network-based recognition of trade workers present on industrial sites | |
CN113703569A (en) | System and method for virtual reality and augmented reality for industrial automation | |
JP2015204615A (en) | Method and system for interacting between equipment and moving device | |
CN107290972B (en) | Equipment control method and device | |
US20170277559A1 (en) | Classifying work processes | |
US20170083083A1 (en) | Image processing virtual reality controller system and method | |
CN116243802B (en) | Physical and chemical system of virtual world | |
AU2020222504B2 (en) | Situational awareness monitoring | |
KR20210121609A (en) | Apparatus for remote guide and method thereof | |
KR102367965B1 (en) | Augmented reality based remote guidance system using cognitive factors and method thereof | |
CN111660294B (en) | Augmented reality control system of hydraulic heavy-duty mechanical arm | |
EP3745332B1 (en) | Systems, device and method of managing a building automation environment | |
US20140214185A1 (en) | Somatosensory Household Electricity Control Equipment and System Thereof | |
KR20240039628A (en) | Augmented reality-based remote control system and method thereof | |
KR20230028702A (en) | Augmented reality-based remote system for non-face-to-face collaboration between experts | |
JP2019197165A (en) | Work training device, work training method, and program | |
KR20200032596A (en) | Method and terminal unit for providing manufacturing service information in dual reality environment integrated with augmented reality and virtual reality | |
KR101803383B1 (en) | Semiconductor Factory Automation Solution System based on SECS Communication Protocol | |
WO2022234668A1 (en) | Operation management device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right |