KR20220089998A - Collaboration system of smart factory in argumented reality - Google Patents

Collaboration system of smart factory in argumented reality Download PDF

Info

Publication number
KR20220089998A
KR20220089998A KR1020200180732A KR20200180732A KR20220089998A KR 20220089998 A KR20220089998 A KR 20220089998A KR 1020200180732 A KR1020200180732 A KR 1020200180732A KR 20200180732 A KR20200180732 A KR 20200180732A KR 20220089998 A KR20220089998 A KR 20220089998A
Authority
KR
South Korea
Prior art keywords
robot
operator
augmented reality
unit
work
Prior art date
Application number
KR1020200180732A
Other languages
Korean (ko)
Inventor
김남빈
백승배
이대희
조희환
Original Assignee
주식회사 에이스로보테크
조희환
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이스로보테크, 조희환 filed Critical 주식회사 에이스로보테크
Priority to KR1020200180732A priority Critical patent/KR20220089998A/en
Priority to PCT/KR2020/018949 priority patent/WO2022139026A1/en
Publication of KR20220089998A publication Critical patent/KR20220089998A/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM]
    • G05B19/41885Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by modeling, simulation of the manufacturing system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM]
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM]
    • G05B19/41865Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by job scheduling, process planning, material flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06311Scheduling, planning or task assignment for a person or group
    • G06Q10/063114Status monitoring or status determination for a person or group
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0637Strategic management or analysis, e.g. setting a goal or target of an organisation; Planning actions based on goals; Analysis or evaluation of effectiveness of goals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/103Workflow collaboration or project management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Abstract

본 발명은 증강현실을 이용한 스마트 팩토리 협업 시스템에 관한 것으로서, 스마트 팩토리의 로봇 중 선택된 어느 하나 또는 그 이상의 로봇를 증강현실(AR) 화면에 표시하고, 상기 증강현실 화면 내에 표시되는 메뉴 버튼을 작업자가 클릭하면 상기 메뉴 정보를 상기 증강현실 화면으로 확인하도록 하는 작업자 단말기, 상기 작업자가 로봇을 원격으로 조종할 수 있도록 구성되는 인터페이스부, 상기 작업자가 상기 인터페이스부를 조종할 때 상기 작업자가 취한 동작을 인식하도록 상기 인터페이스부와 통신하는 인식부, 상기 인식부와 통신하는 제어부, 상기 제어부와 통신하여 제어되는 로봇의 작동부, 및 스마트 팩토리의 협업을 관리하는 관리서버를 포함하며, 상기 증강현실 화면에는 다수의 작업자 리스트, 작업 공정 솔루션, 상기 로봇의 작업 시연 정보 중 어느 하나 또는 그 이상이 표시되며, 상기 인식부는 다단계 작업의 작업 모델에 기반하여 상기 작업자가 상기 인터페이스부를 조종하는 동안 상기 작업자가 취한 동작을 인식하며, 상기 인식부는 수동 및 자동 동작을 시작과 완료를 인식하며, 상기 인식부는 상기 수동 동작이 완료되면 상기 다단계 작업의 작업 모델에 기반하여 상기 로봇의 작동부가 자동 동작을 수행하도록 상기 제어부에 지시하는 것을 특징으로 한다. The present invention relates to a smart factory collaboration system using augmented reality, wherein any one or more selected robots among robots of the smart factory are displayed on an augmented reality (AR) screen, and a worker clicks a menu button displayed in the augmented reality screen When the operator terminal to check the menu information on the augmented reality screen, an interface unit configured to allow the operator to remotely control the robot, and to recognize the operation taken by the operator when the operator controls the interface unit A recognition unit communicating with the interface unit, a control unit communicating with the recognition unit, an operation unit of a robot controlled by communicating with the control unit, and a management server for managing collaboration of a smart factory, wherein the augmented reality screen includes a plurality of workers Any one or more of a list, a work process solution, and work demonstration information of the robot is displayed, and the recognition unit recognizes an action taken by the operator while the operator manipulates the interface unit based on a work model of a multi-step operation, , The recognition unit recognizes the start and completion of manual and automatic operations, and the recognition unit instructs the control unit to perform an automatic operation by the operation unit of the robot based on the work model of the multi-step operation when the manual operation is completed characterized.

Description

증강현실을 이용한 스마트 팩토리 협업 시스템.{COLLABORATION SYSTEM OF SMART FACTORY IN ARGUMENTED REALITY}A smart factory collaboration system using augmented reality. {COLLABORATION SYSTEM OF SMART FACTORY IN ARGUMENTED REALITY}

본 발명은 증강현실을 이용한 스마트 팩토리 협업 시스템에 관한 것으로서, 다수의 작업자가 증강현실을 통해 스마트 팩토리의 원격 협업이 가능하도록 한 시스템에 관한 것이다.The present invention relates to a smart factory collaboration system using augmented reality, and to a system in which a plurality of workers can remotely collaborate in a smart factory through augmented reality.

스마트 팩토리의 생산현장에서는 인간과 기계의 협업패키지를 사용할 때 효율적인 운영 관리가 가능하다. 이를 위하여 4M1E(Man, Machine, Material, Method, Environment) 분석을 통해 빅데이터를 생성하고, 이를 통해 FOM(Factory Operation Management) 데이터 기반의 정보화와 CPS(Cyber Physical System) 기반 공정 분석을 통한 자동화 및 최적화를 진행하고, FEM(Factory Energy Management) 기반 공정 분석을 통하여 에너지 효율화를 달성할 필요가 있다. 이러한 종합적인 관리를 통해 상기 스마트 팩토리에 포함되는 각 모듈의 융합 관리가 가능하기 때문에 고도화된 MI-NPS(Meta Intelligent-New Production System)형 스마트 팩토리의 운영이 가능하게 된다.In the smart factory production site, efficient operation and management is possible when using a human-machine collaboration package. To this end, big data is generated through 4M1E (Man, Machine, Material, Method, Environment) analysis, and through this, automation and optimization through FOM (Factory Operation Management) data-based informatization and CPS (Cyber Physical System)-based process analysis It is necessary to achieve energy efficiency through FEM (Factory Energy Management)-based process analysis. Through such comprehensive management, it is possible to manage the convergence of each module included in the smart factory, thereby enabling the operation of an advanced MI-NPS (Meta Intelligent-New Production System) type smart factory.

예를 들어, 대한민국 등록특허공보 10-1550740호에는 생산 현장의 개별적인 인력 관리 및 생산실적 관리를 통해 생산성을 향상시키고, 달성률과 점유율을 기준으로 생산실적을 관리하여 4M(Man, Machine, Material, Method)별 관리를 용이하게 수행할 수 있는 관리 시스템이 개시되어 있고, 이러한 시스템에서 디지털 팩토리를 4M 데이터 기반으로 운영하고 있다.For example, in Republic of Korea Patent Publication No. 10-1550740, productivity is improved through individual manpower management and production performance management at the production site, and production performance is managed based on the achievement rate and share to manage 4M (Man, Machine, Material, Method). ), a management system that can easily perform management is disclosed, and a digital factory is operated based on 4M data in this system.

그러나 스마트 팩토리에서 인간-기계 협업 공정 및 제조공정 시뮬레이션 분석 기술로 인간-기계의 협업으로 고도화된 MI-NPS형 스마트 팩토리에 적용하기 위해서는 이러한 데이터가 공정에 실시간으로 적용될 필요가 있다.However, in order to apply to the MI-NPS type smart factory advanced by human-machine collaboration with human-machine collaboration process and manufacturing process simulation analysis technology in the smart factory, these data need to be applied to the process in real time.

최근에는 다수의 작업자가 관여하는 협업 공정에 있어서 이러한 스마트 팩토리의 원활한 운영을 위하여 증강현실(AR)을 활용하는 기술이 개발되고 있다. Recently, in a collaborative process involving a large number of workers, a technology utilizing augmented reality (AR) has been developed for the smooth operation of such a smart factory.

이러한 예로는 대한민국 등록특허공보 10-2086451호에서는 다수의 장비에 관한 전체 메뉴얼 정보와 스마트팩토리 원격협업 CMS 플랫폼을 구비하며, 상기 현장 작업자용 통신 단말기가 상기 고유식별 마크나 실물을 자동 인식함을 파악함에 따라 상기 AR 화면상에 상기 메뉴 버튼이 나타나도록 상기 스마트팩토리 원격협업 CMS 플랫폼을 상기 현장 작업자용 통신 단말기에 실시간으로 제공하고, 상기 고유식별 마크나 실물로부터 인지되는 장비식별 정보와 상기 현장 작업자용 통신 단말기의 고유식별정보 간의 1:1 매칭을 통해 사용 접근에 관한 승인여부를 판단해 상기 현장 작업자용 통신 단말기의 담당 장비에 대한 현장작업 실시를 지원하는 원격협업 CMS 관리 서버를 들 수 있다.As an example of this, Korean Patent No. 10-2086451 has full manual information on a number of equipment and a smart factory remote collaboration CMS platform, and it is understood that the communication terminal for field workers automatically recognizes the unique identification mark or the real thing. Accordingly, the smart factory remote collaboration CMS platform is provided to the communication terminal for field workers in real time so that the menu button appears on the AR screen, and the unique identification mark or equipment identification information recognized from the real thing and the field worker For example, a remote collaboration CMS management server that supports the implementation of field work on equipment in charge of the communication terminal for field workers by determining whether to approve the use access through 1:1 matching between the unique identification information of the communication terminal.

그러나 스마트 팩토리의 전체적인 작업 효율을 향상시키기 위해서는 AR의 더 효율적인 이용이 필요한 실정이다.However, in order to improve the overall work efficiency of the smart factory, more efficient use of AR is required.

본 발명은 상기와 같은 종래기술의 문제점을 감안하여 안출된 것으로서, 증강현실(AR)을 이용하여 스마트 팩토리에서 인간-기계 협업 공정 시 다수의 작업자 간의 협업이 가능하도록 하는 증강현실을 이용한 스마트 팩토리 협업 시스템을 제공하는 것을 그 목적으로 한다.The present invention has been devised in consideration of the problems of the prior art as described above, and smart factory collaboration using augmented reality (AR) enables collaboration between a plurality of workers during a human-machine collaboration process in a smart factory using augmented reality (AR). Its purpose is to provide a system.

상기와 같은 목적을 달성하기 위한 본 발명의 증강현실을 이용한 스마트 팩토리 협업 시스템은 스마트 팩토리의 로봇 중 선택된 어느 하나 또는 그 이상의 로봇를 증강현실(AR) 화면에 표시하고, 상기 증강현실 화면 내에 표시되는 메뉴 버튼을 작업자가 클릭하면 상기 메뉴 정보를 상기 증강현실 화면으로 확인하도록 하는 작업자 단말기, 상기 작업자가 로봇을 원격으로 조종할 수 있도록 구성되는 인터페이스부, 상기 작업자가 상기 인터페이스부를 조종할 때 상기 작업자가 취한 동작을 인식하도록 상기 인터페이스부와 통신하는 인식부, 상기 인식부와 통신하는 제어부, 상기 제어부와 통신하여 제어되는 로봇의 작동부, 및 스마트 팩토리의 협업을 관리하는 관리서버를 포함하며, 상기 증강현실 화면에는 다수의 작업자 리스트, 작업 공정 솔루션, 상기 로봇의 작업 시연 정보 중 어느 하나 또는 그 이상이 표시되며, 상기 인식부는 다단계 작업의 작업 모델에 기반하여 상기 작업자가 상기 인터페이스부를 조종하는 동안 상기 작업자가 취한 동작을 인식하며, 상기 인식부는 수동 및 자동 동작을 시작과 완료를 인식하며, 상기 인식부는 상기 수동 동작이 완료되면 상기 다단계 작업의 작업 모델에 기반하여 상기 로봇의 작동부가 자동 동작을 수행하도록 상기 제어부에 지시하는 것을 특징으로 한다.The smart factory collaboration system using augmented reality of the present invention for achieving the above object displays any one or more robots selected among robots of the smart factory on an augmented reality (AR) screen, and a menu displayed in the augmented reality screen When the operator clicks a button, an operator terminal for checking the menu information on the augmented reality screen, an interface unit configured to allow the operator to remotely control the robot, and an interface that the operator takes when the operator controls the interface unit A recognition unit communicating with the interface unit to recognize a motion, a control unit communicating with the recognition unit, an operation unit of a robot controlled by communication with the control unit, and a management server for managing collaboration of a smart factory, the augmented reality Any one or more of a plurality of operator lists, work process solutions, and work demonstration information of the robot are displayed on the screen, and the recognition unit allows the operator to control the interface unit while the operator controls the interface unit based on the multi-step work model Recognizes the action taken, the recognition unit recognizes the start and completion of manual and automatic operations, and when the manual operation is completed, the operation unit of the robot performs an automatic operation based on the work model of the multi-step operation. It is characterized by instructing the control unit.

이때, 상기 관리서버는 상기 로봇의 매뉴얼 정보, 작업자 리스트, 작업 공정 솔루션, 상기 로봇의 작업 시연 정보를 저장하며, 상기 작업자 단말기가 상기 로봇의 고유 식별 마크 또는 실물을 인식하면 상기 증강현실 화면에 메뉴 버튼이 나타나도록 하며, 상기 로봇의 고유 식별 마크 또는 실물과 상기 작업자 리스트에서 선택된 1인 이상의 작업자를 매칭하고 사용 접근에 관한 승인여부를 판단하여 상기 작업자 단말기에 표시할 수 있다.At this time, the management server stores the robot's manual information, operator list, work process solution, and work demonstration information of the robot, and when the operator terminal recognizes the robot's unique identification mark or the real thing, the menu is displayed on the augmented reality screen. A button may appear, match the robot's unique identification mark or real thing with one or more workers selected from the worker list, and determine whether to approve the use access and display it on the worker terminal.

또한, 상기 인식부는 CPS(Cyber Physical System) 기반 공정 분석을 통한 다단계 작업의 작업 모델을 저장하며, 상기 CPS 기반 공정 분석은 상기 로봇의 작동부에 구비되는 센서로부터 데이터를 수신하며, 상기 인식부는 상기 센서로부터 수신한 데이터를 분석하여 분석 데이터를 만들고, 상기 분석 데이터를 시뮬레이션하여 상기 다단계 작업의 작업 모델을 업데이트할 수 있다.In addition, the recognition unit stores a work model of a multi-step operation through CPS (Cyber Physical System)-based process analysis, and the CPS-based process analysis receives data from a sensor provided in the operation unit of the robot, and the recognition unit It is possible to create analysis data by analyzing the data received from the sensor, and to update the working model of the multi-step task by simulating the analysis data.

본 발명에 따른 스마트 팩토리 협업 시스템은 증강현실(AR)을 이용하여 스마트 팩토리에서 인간-기계 협업 공정 시 다수의 작업자 간의 협업이 가능하도록 하는 효과를 나타낸다.The smart factory collaboration system according to the present invention exhibits the effect of enabling collaboration between a plurality of workers during a human-machine collaboration process in a smart factory using augmented reality (AR).

도 1은 본 발명의 스마트 팩토리 협업 시스템을 도식적으로 나타낸 개념도이다.1 is a conceptual diagram schematically showing a smart factory collaboration system of the present invention.

이하 본 발명을 상세히 설명한다.Hereinafter, the present invention will be described in detail.

스마트 팩토리는 디지털 기술을 제조과정의 생산 시스템에 적용한 것으로서, 정보활용, 자동화, 모니터링, 센싱, 모델링, 네트워킹 분야에 걸친 다양한 첨단 기술들의 활용 가능성을 포함하고 있으며, ICT 기술을 기반으로 제조 및 유통 전 과정에서 모든 사물 및 참가자들을 서로 연결시켜 정보 교환을 가능하게 하는 연결성, 상호 연결된 구성요소들이 정보와 자원을 서로 공유하고, 이를 바탕으로 독립적 의사결정과 협업을 수행하는 협업성이 중요한 요소가 된다.Smart factory is the application of digital technology to the production system of the manufacturing process, and includes the possibility of utilizing various advanced technologies in information utilization, automation, monitoring, sensing, modeling, and networking fields. In the process, connectivity that enables information exchange by connecting all objects and participants to each other, and collaboration between interconnected components sharing information and resources, and performing independent decision-making and collaboration based on this are important factors.

특히, 작업자가 직관적으로 전체 상태를 파악하고 판단할 수 있도록 시각적 정보를 제공하고 이를 통해 각 장치의 제어가 가능하도록 하는 것이 스마트 팩토리의 효율성을 결정하는 요인이 된다.In particular, providing visual information so that the operator can intuitively grasp and judge the overall state and enabling control of each device through this is a factor that determines the efficiency of the smart factory.

스마트 팩토리에서 공정 모델 기술 분야는 응용 애플리케이션 기술, 플랫폼 기술, 디바이스/네트워크 기술, 제조보안 기술 등의 요소기술로 나눌 수 있다.In the smart factory, the process model technology field can be divided into element technologies such as application application technology, platform technology, device/network technology, and manufacturing security technology.

상기 애플리케이션 기술은 스마트공장 ICT 솔루션의 최상위 소프트웨어 시스템으로 MES, ERP, PLM, SCM 등의 플랫폼 상에서 각종 제조 실행을 수행하는 것이며, 상기 플랫폼 기술은 스마트공장 ICT 하위 디바이스에서 입수한 정보를 최상위 애플리케이션에 정보 전달 역할을 하는 중간 소프트웨어 시스템으로 디바이스에 의해 수집된 데이터를 분석하고, 모델링 및 가상 물리 시뮬레이션을 통해 최적화 정보 제공하는 것이다. 또한, 상기 디바이스/네트워크 기술은 스마트공장 ICT 솔루션의 최하위 하드웨어 시스템으로 스마트 센서를 통해 위치, 환경 및 에너지를 감지하고 로봇을 통해 작업자 및 공작물의 위치를 인식하여 데이터를 플랫폼으로 전송할 수 있는 시스템으로 구성되며, 상기 제조보안 기술은 센서부터 애플리케이션까지 전 분야를 대상으로 각종 데이터, 시스템, 제조설비 등을 안전하게 보호할 수 있는 정보보호 및 산업기밀 보호 기술과 대응 방안에 관한 것이다.The application technology is the top-level software system of the smart factory ICT solution, and it performs various manufacturing executions on platforms such as MES, ERP, PLM, and SCM. It is an intermediate software system that plays a role in delivering, analyzing the data collected by the device, and providing optimization information through modeling and virtual physics simulation. In addition, the device/network technology is the lowest hardware system of the smart factory ICT solution. It detects the location, environment and energy through smart sensors and recognizes the positions of workers and workpieces through robots. It consists of a system that can transmit data to the platform. The manufacturing security technology relates to information protection and industrial confidentiality protection technology and countermeasures that can safely protect various data, systems, manufacturing facilities, etc. for all fields from sensors to applications.

본 발명에서는 스마트 팩토리의 플랫폼과 디바이스/네트워크를 개선하여 공장 효율을 향상시킬 수 있도록 증강현실(AR)을 적용하는 스마트 팩토리 협업 시스템에 관한 것으로서 이를 도식적으로 나타내면 도 1에서와 같이 구성된다.The present invention relates to a smart factory collaboration system that applies augmented reality (AR) to improve factory efficiency by improving the platform and device/network of the smart factory, and is schematically configured as shown in FIG.

즉, 본 발명의 스마트 팩토리 협업 시스템은 복수의 작업자가 AR을 통하여 교육, 정보 공유, 시뮬레이션, 공동 작업 등이 가능하도록 구성된 것으로서, That is, the smart factory collaboration system of the present invention is configured so that a plurality of workers can train, share information, simulate, collaborate, etc. through AR,

증강현실과 관련한 시스템과 협동 로봇과 관련한 시스템이 결합하여 구성된다.It is composed by combining a system related to augmented reality and a system related to a collaborative robot.

먼저, 증강현실과 관련한 시스템은 각 작업자가 보유한 작업자 단말기와 상기 협동 로봇 관련 시스템이 유기적으로 결합하여 작동할 수 있도록 하는 관리서버를 포함한다. 또한, 협동 로봇 관련 시스템은 인터페이스부, 인식부, 제어부 및 로봇의 작동부를 포함하여 구성된다. 이를 구체적으로 설명하면, 상기 스마트 팩토리 협업 시스템은 스마트 팩토리의 로봇 중 선택된 어느 하나 또는 그 이상의 로봇를 증강현실(AR) 화면에 표시하고, 상기 증강현실 화면 내에 표시되는 메뉴 버튼을 작업자가 클릭하면 상기 메뉴 정보를 상기 증강현실 화면으로 확인하도록 하는 작업자 단말기, 상기 작업자가 로봇을 원격으로 조종할 수 있도록 구성되는 인터페이스부, 상기 작업자가 상기 인터페이스부를 조종할 때 상기 작업자가 취한 동작을 인식하도록 상기 인터페이스부와 통신하는 인식부, 상기 인식부와 통신하는 제어부, 상기 제어부와 통신하여 제어되는 로봇의 작동부, 및 스마트 팩토리의 협업을 관리하는 관리서버를 포함하며, 상기 증강현실 화면에는 다수의 작업자 리스트, 작업 공정 솔루션, 상기 로봇의 작업 시연 정보 중 어느 하나 또는 그 이상이 표시되며, 상기 인식부는 상기 다단계 작업의 작업 모델에 기반하여 상기 작업자가 상기 인터페이스부를 조종하는 동안 상기 작업자가 취한 동작을 인식하며, 상기 인식부는 수동 및 자동 동작을 시작과 완료를 인식하며, 상기 인식부는 상기 수동 동작이 완료되면 상기 다단계 작업의 작업 모델에 기반하여 상기 로봇의 작동부가 자동 동작을 수행하도록 상기 제어부에 지시하는 것을 특징으로 한다.First, the augmented reality-related system includes a management server that allows the operator terminal owned by each worker and the cooperative robot-related system to be organically combined and operated. In addition, the cooperative robot-related system is configured to include an interface unit, a recognition unit, a control unit, and an operation unit of the robot. Specifically, the smart factory collaboration system displays any one or more selected robots among robots of the smart factory on the augmented reality (AR) screen, and when the operator clicks the menu button displayed in the augmented reality screen, the menu An operator terminal for checking information on the augmented reality screen, an interface unit configured to allow the operator to remotely control the robot, the interface unit to recognize an action taken by the operator when the operator manipulates the interface unit, and A recognition unit communicating with the recognition unit, a control unit communicating with the recognition unit, an operation unit of a robot controlled by communicating with the control unit, and a management server for managing collaboration of a smart factory, the augmented reality screen includes a plurality of worker lists, tasks Any one or more of a process solution and operation demonstration information of the robot are displayed, and the recognition unit recognizes an operation taken by the operator while the operator manipulates the interface unit based on the operation model of the multi-step operation, and the The recognition unit recognizes the start and completion of manual and automatic operations, and the recognition unit instructs the control unit to perform the automatic operation by the operation unit of the robot based on the work model of the multi-step operation when the manual operation is completed. do.

상기 작업자 단말기에는 증강현실로 구현되는 스마트 팩토리의 작업 로봇과 관련한 정보뿐만 아니라 협업을 위한 다른 작업자 정보와 교육과 시뮬레이션을 위한 작업 공정 솔루션, 상기 로봇의 작업 시연 정보 등의 정보가 하나씩 또는 동시에 표시될 수 있도록 구성된다. 또한, 작업자는 상기 작업자 단말기에 접속하여 증강현실을 통해 스마트 팩토리의 작업 로봇을 구동하여 로봇과의 협동 작업이 가능하도록 구성된다.In the worker terminal, information related to the work robot of the smart factory implemented in augmented reality, as well as other worker information for collaboration, work process solutions for education and simulation, and work demonstration information of the robot are displayed one by one or at the same time. configured to be able to In addition, the worker is configured to connect to the worker terminal and drive the work robot of the smart factory through augmented reality to enable cooperative work with the robot.

상기 작업자 단말기는 증강현실을 통한 협업이 가능하도록 개인용 컴퓨터, 테블릿, 스마트폰 등을 이용할 수 있으며, 작업자가 AR 글래스를 착용하고 연동 작업이 가능하도록 구성된다.The worker terminal can use a personal computer, tablet, smart phone, etc. to enable collaboration through augmented reality, and is configured so that the worker wears AR glasses and can work in conjunction.

또한, 증강현실 매뉴얼을 제공함으로써 작업자가 쉽게 증강현실을 조작하고 구현할 수 있도록 할 수 있다. 이를 위하여 스마트 팩토리에서 로봇을 이용한 특정 공정과 관련한 증강현실 매뉴얼, 공정의 동영상 매뉴얼 등을 준비하고 이를 증강현실 화면 내에 표시할 수 있다.In addition, by providing an augmented reality manual, it is possible for workers to easily manipulate and implement augmented reality. To this end, in a smart factory, an augmented reality manual related to a specific process using a robot, a video manual of the process, etc. can be prepared and displayed on the augmented reality screen.

또한, 증강현실을 이용한 시뮬레이션을 위하여 스마트 팩토리와 관련한 전체적인 정보, 각 유닛에 대한 공정의 평균 데이터 등을 상기 증강현실 화면에 표시하여 작업자가 이를 직관적으로 확인할 수 있도록 구성될 수 있다.In addition, for simulation using augmented reality, overall information related to the smart factory, average data of the process for each unit, etc. may be displayed on the augmented reality screen so that the operator can intuitively check it.

또한, 상기 관리서버는 스마트 팩토리의 협업을 전체적으로 관리하기 위한 것으로서, 증강현실을 위한 작업자 단말기와 원격으로 연결되며, 증강현실 솔루션의 관리 및 구축을 할 수 있도록 구성된다. 이러한 솔루션은 웹 베이스로 구축되어 작업자 단말기가 직접 인터넷에 접속하여 정보를 화면에 표시함으로써 작업자가 쉽게 정보를 취득할 수 있도록 구성된다.In addition, the management server is to manage the collaboration of the smart factory as a whole, is connected remotely with a worker terminal for augmented reality, and is configured to manage and build an augmented reality solution. This solution is built on a web-based basis so that the operator's terminal directly accesses the Internet and displays the information on the screen so that the operator can easily acquire information.

즉, 상기 관리서버는 작업용 로봇의 매뉴얼 정보, 작업자 리스트, 작업 공정 솔루션, 상기 로봇의 작업 시연 정보를 저장할 수 있고, 웹 베이스로 저장된 정보를 불러와 상기 작업자 단말기로 전송할 수도 있다.That is, the management server may store the manual information of the robot for work, the operator list, the work process solution, and the work demonstration information of the robot, and may retrieve the information stored in the web base and transmit it to the operator terminal.

또한, 각각의 공정에서 특정 작업자와 특정 작업용 로봇을 매칭할 필요가 있다. 이 경우, 작업자 단말기를 소지한 작업자가 현장에서 특정 작업용 로봇에 접근할 수 있고, 원격으로 특정 작업용 로봇을 지정할 수도 있는데, 이때, 상기 작업자 단말기가 상기 로봇의 고유 식별 마크 또는 실물을 인식하면 상기 증강현실 화면에 메뉴 버튼이 나타나도록 하여 작업자가 이를 조작할 수 있도록 할 수 있다.In addition, in each process, it is necessary to match a specific worker with a specific work robot. In this case, a worker with a worker terminal can access the robot for a specific job at the site, and can also remotely designate a robot for a specific job. By making the menu button appear on the real screen, the operator can operate it.

또한, 각각의 작업용 로봇에는 그 로봇의 고유 식별 마크가 부여될 수 있으며, 상기 고유 식별 마크에 해당하는 작업자 정보는 각 작업자가 작업자 단말기에 로그인할 때 상기 관리서버에 저장된 작업자 정보와 매칭되도록 할 수 있다. 이를 통해 상기 고유 식별 마크 또는 실물과 상기 작업자 리스트에서 선택된 작업자가 매칭되는데, 하나의 작업용 로봇에 복수의 작업자가 매칭될 수도 있으며, 하나의 로봇에 한 명의 작업자만 매칭되도록 할 수도 있다. 이를 위하여 상기 관리서버는 사용 접근에 관한 승인여부를 판단하고, 이를 상기 작업자 단말기에 표시하여 특정 작업자가 특정 작업용 로봇에 접속하여 이를 조작하도록 할 수 있다.In addition, each work robot may be given a unique identification mark of the robot, and the worker information corresponding to the unique identification mark can be matched with the worker information stored in the management server when each worker logs in to the worker terminal. have. Through this, the unique identification mark or real object and the operator selected from the operator list are matched, and a plurality of workers may be matched to one working robot, or only one worker may be matched to one robot. To this end, the management server may determine whether to approve the use access, and display it on the worker terminal so that a specific worker can access the robot for a specific job and operate it.

또한, 상기 스마트 팩토리 협업 시스템에서 협동 로봇과 관련한 시스템은 도 1에 도시한 것과 같이 인터페이스부 및 작업자가 상기 인터페이스부를 조종할 때 상기 작업자가 취한 동작을 인식하도록 상기 인터페이스부와 통신하는 인식부, 상기 인식부와 통신하는 제어부, 및 상기 제어부와 통신하여 제어되는 로봇의 작동부를 포함함으로써 다단계 작업을 수행할 수 있도록 구성된다.In addition, in the smart factory collaboration system, the system related to the cooperative robot includes an interface unit and a recognition unit communicating with the interface unit to recognize the operation taken by the operator when the operator manipulates the interface unit, as shown in FIG. 1, the It is configured to perform a multi-step operation by including a control unit communicating with the recognition unit, and an operation unit of the robot controlled by communication with the control unit.

또한, 상기 협동 로봇과 관련한 일련의 동작과 조작 과정은 상기 작업자 단말기의 화면에 증강현실로 표시될 수 있어 작업자는 증강현실을 통해 로봇과의 협동 작업을 원활히 수행할 수 있게 된다.In addition, a series of operations and manipulation processes related to the cooperative robot may be displayed in augmented reality on the screen of the worker terminal, so that the operator can smoothly perform cooperative work with the robot through the augmented reality.

또한, 상기 인식부는 상기 다단계 작업의 작업 모델에 기반하여 상기 작업자가 상기 인터페이스부를 조종하는 동안 상기 작업자가 취한 동작을 인식하며, 상기 인식부는 수동 및 자동 동작을 시작과 완료를 인식하며, 상기 인식부는 상기 수동 동작이 완료되면 상기 다단계 작업의 작업 모델에 기반하여 상기 로봇의 작동부가 자동 동작을 수행하도록 상기 제어부에 지시하는 것을 특징으로 한다.In addition, the recognition unit recognizes the operation taken by the operator while the operator manipulates the interface unit based on the work model of the multi-step task, the recognition unit recognizes the start and completion of manual and automatic operations, the recognition unit When the manual operation is completed, the operation unit of the robot instructs the control unit to perform an automatic operation based on the work model of the multi-step operation.

상기 인터페이스부는 로봇을 제어할 수 있는 제어 장치를 포함할 수 있으며, 작업자가 로봇의 각 부분을 조정하여 로봇이 특정한 동작을 할 수 있도록 제어할 수 있다. 또한, 상기 인터페이스부에는 디스플레이부가 포함되어 작업자가 로봇의 동작 상태를 관찰하고 이를 통해 변경을 가할 수 있도록 구성될 수 있다.The interface unit may include a control device capable of controlling the robot, and an operator may control each part of the robot to control the robot to perform a specific operation. In addition, the interface unit may be configured to include a display unit so that the operator can observe the operation state of the robot and apply a change through this.

또한, 상기 디스플레이부는 증강현실(AR) 또는 가상현실(VR)을 이용한 시스템을 구성함으로써 작업자가 인터페이스부를 통해 숙련도를 향상시킬 수도 있고 로봇과의 협업을 통한 작업 효율을 높일 수도 있게 된다. 이때, 상기 디스플레이부는 다양한 이미지의 선택, 설정이 가능하고 이미지를 겹치거나 조정할 수도 있다.In addition, by configuring a system using augmented reality (AR) or virtual reality (VR) in the display unit, the operator may improve proficiency through the interface unit and increase work efficiency through collaboration with the robot. In this case, the display unit may select and set various images, and may overlap or adjust images.

또한, 상기 인식부는 컴퓨터, 스마트기기 또는 다른 데이터 처리 및 저장 장치를 이용하는 것일 수 있다. 상기 인식부로 인식 및 그 밖에 다른 절차들을 수행하는 컴퓨터에 저장된 프로그램을 포함할 수 있으며, 스마트폰이나 태블릿 PC에 설치된 어플리케이션을 통해 작동될 수도 있다. 또한, 네트워크를 통하여 연결된 원거리에 위치한 장치를 사용할 수 있으며, 이 경우, 사물 인터넷(IoT) 시스템을 활용하여 상기 인식부를 구동할 수도 있다. 즉, 상기 인터페이스부와 상기 인식부는 통신을 통해 연결되기 때문에 물리적으로 결합될 필요는 없다.In addition, the recognition unit may use a computer, a smart device, or other data processing and storage device. The recognition unit may include a program stored in a computer that performs recognition and other procedures, and may be operated through an application installed in a smartphone or tablet PC. In addition, a device located at a remote location connected through a network may be used, and in this case, the recognition unit may be driven by utilizing an Internet of Things (IoT) system. That is, since the interface unit and the recognition unit are connected through communication, there is no need to be physically coupled.

또한, 상기 인식부는 작업자의 특정한 동작들을 인식할 수 있도록 로봇 운동학(kinematics)을 이용한 장치를 포함할 수 있다. 이 경우, 다단계 작업의 작업 모델에 기반하여 상기 작업자가 상기 인터페이스부를 조종하는 동안 상기 작업자가 취한 동작을 인식할 수 있게 된다. 이러한 인식부의 작동은 다기능 작업을 수행하는 과정에서 상호간의 정보 교환을 통하여 전체 로봇 시스템의 협동 작업을 가능하도록 해 준다.In addition, the recognition unit may include a device using robot kinematics to recognize specific movements of the operator. In this case, it is possible to recognize the operation taken by the operator while the operator manipulates the interface unit based on the multi-step operation model. The operation of this recognition unit enables cooperative work of the entire robot system through mutual information exchange in the process of performing multi-function tasks.

또한, 상기 인터페이스부와 센서를 포함하는 로봇 시스펨은 작업자의 동작과 센서로부터 수신되는 신호를 기반으로 로봇의 움직임, 작업 환경을 실시간으로 관찰하거나 녹화하여 영상 처리를 할 수 있도록 구성될 수 있다. 이 경우에도 AR 또는 VR 시스템을 이용하여 작업자의 정보 취득 및 응답 효율을 향상시키도록 할 수 있다.In addition, the robot system including the interface unit and the sensor may be configured to perform image processing by observing or recording the movement of the robot and the working environment in real time based on the motion of the operator and the signal received from the sensor. Even in this case, it is possible to improve the information acquisition and response efficiency of the operator by using the AR or VR system.

상기 인식부는 수동 및 자동 동작을 시작과 완료를 인식하며, 상기 인식부는 상기 수동 동작이 완료되면 상기 다단계 작업의 작업 모델에 기반하여 상기 로봇의 작동부가 자동 동작을 수행하도록 상기 제어부에 지시하도록 구성된다.The recognition unit recognizes the start and completion of manual and automatic operations, and the recognition unit is configured to instruct the control unit to perform an automatic operation by the operation unit of the robot based on the work model of the multi-step operation when the manual operation is completed. .

즉, 상기 인식부는 제어부의 제어 하에 센서를 포함하는 로봇 시스템에 의해 수동 동작과 자동 동작, 필요에 따라, 반자동 동작을 포함한 동작을 결정하게 된다.That is, the recognition unit determines an operation including a manual operation, an automatic operation, and, if necessary, a semi-automatic operation by the robot system including a sensor under the control of the controller.

상기 수동 동작은 종래의 원격 조종 로봇 시스템에서 수행되는 조종과 유사하거나 동일하게 수행되는 것이다. 또한, 상기 자동 동작은 전적으로 로봇의 제어 하에 수행되며 동작에 대한 작업자의 관여가 없는 것이다.The manual operation is performed similarly or identically to the operation performed in a conventional remote control robot system. In addition, the automatic operation is performed entirely under the control of the robot, and there is no operator's involvement in the operation.

즉, 작업자는 다단계 작업의 각 단계에서 하나의 단계와 그 후의 단계가 수행될 위치로 센서를 포함한 시스템의 일부를 움직일 수 있으며, 이 경우 수동 동작에 의해 로봇 시스템이 구동되는 상태가 된다.That is, the operator can move a part of the system including the sensor to a position where one step and subsequent steps are to be performed in each step of the multi-step operation, and in this case, the robot system is driven by manual operation.

이때, 인식부는 상기 단계가 작업자에 의해 수행되는 수동 동작 상태임을 인식하며, 작업 모델에 기초하여 상기 수동 동작이 종료되는 시점에서 자동 동작의 수행을 지시할 수 있다. 예를 들어, 상기 인식부는 수동 동작으로 로봇 암이 움직인 상태에서 부품을 집어 들고 돌려놓을 수 있는 위치로 다시 이동하기 위한 지시를 통신으로 전송할 수 있다.In this case, the recognition unit may recognize that the step is a manual operation state performed by an operator, and may instruct the automatic operation to be performed at the time when the manual operation is terminated based on the work model. For example, the recognition unit may transmit, through communication, an instruction for moving the robot arm back to a position where it can pick up and return a part in a state where the robot arm is moved by a manual operation.

또한, 상기 인식부는 작업자가 로봇 시스템의 한 부분을 다단계 작업 중 특정 단계를 수행하기 위한 위치로 움직인 것을 인식할 수도 있다. 이 경우 상기 인식부는 작업 모델에 기초하여, 작업자를 보조하기 위하여 다른 단계를 수행하도록 제어부에 지시할 수 있다. 예를 들어, 작업자가 로봇 암의 동작을 지시하기 위하여 하나의 로봇 암을 조작해야 하는 경우가 있는데, 이때, 자동 동작에 의해 작업자를 위하여 대상물을 고정시킨 상태를 유지하도록 할 수 있다.In addition, the recognition unit may recognize that the operator moves a part of the robot system to a position for performing a specific step during a multi-step operation. In this case, the recognition unit may instruct the control unit to perform another step to assist the operator based on the work model. For example, there is a case in which the operator has to operate one robot arm in order to instruct the operation of the robot arm. In this case, it is possible to maintain a state in which the object is fixed for the operator by automatic operation.

상기 작업 모델은 본 발명의 다단계 작업을 수행하기 위한 작업 모델로서 이는 4M1E(Man, Machine, Material, Method, Environment) 분석, ABL(Actual task Based Learning) 기반 분석, FOM(Factory Operation Management) 데이터 기반 분석, CPS(Cyber Physical System) 기반 공정 분석, 및 FEM(Factory Energy Management) 기반 공정 분석의 결과로부터 도출되어 구성된 것이다.The work model is a work model for performing the multi-step task of the present invention, which is 4M1E (Man, Machine, Material, Method, Environment) analysis, ABL (Actual task Based Learning) based analysis, FOM (Factory Operation Management) data based analysis , CPS (Cyber Physical System)-based process analysis, and FEM (Factory Energy Management)-based process analysis results are derived and constructed.

상기 4M1E는 스마트 팩토리의 생산활동과 연관된 자원으로서 4M의 자원인 작업자(Man), 기계설비(Machine), 자재(Material), 제품생산방법(Method)에 더하여 환경(Environment)을 포함하는 것이다. 이러한 4M1E는 데이터베이스화하여 활용할 수 있는데, 이를 이용하여 생산계획을 수립하고 작업 시나리오에 따른 사전 시뮬레이션을 통해 생산 실적을 예측할 수도 있고, 인사, 회계, 자재 및 수주 관리 등의 자원관리, 디지털 팩토리의 작업 상황을 실시간으로 파악하고 자원 별로 작업 실적을 취합하고 관리하는 현장 관리, 현장에서 수집된 각종 데이터를 이용하여 생산현장 데이터베이스를 제조하는 과정을 모두 포함할 수 있다. 따라서 4M1E 분석을 통해 수집되는 데이터는 협동 로봇을 이용한 공정에서 예측되는 다양한 상태들에 대한 모델링이 가능하며, 이를 통하여 작업 모델을 수립할 수 있게 된다.The 4M1E is a resource related to the production activity of the smart factory and includes the environment in addition to the 4M resources, such as a worker (Man), a machine facility (Machine), a material (Material), and a product production method (Method). This 4M1E can be used as a database, and it can be used to establish a production plan and predict production performance through pre-simulation according to work scenarios, resource management such as personnel, accounting, material and order management, and digital factory work. It can include both on-site management, which grasps the situation in real time and collects and manages work performance by resource, and the process of manufacturing a production site database using various data collected from the field. Therefore, the data collected through the 4M1E analysis enables modeling of various states predicted in the process using a collaborative robot, and through this, it is possible to establish a work model.

또한, FOM(Factory Operation Management) 데이터 기반으로 분석하여 작업 모델을 수정 및 관리할 수도 있다. 이를 위하여 상기 협동 로봇 시스템은 FOM 분석부를 별도로 구비할 수 있다. 상기 FOM 분석부는 빅데이터 모듈을 기반으로 핵심성과지표(KPI) 또는 LOB 분석을 포함하는 스마트 팩토리 운영관리 분석결과를 생성하는데, 이는 상기 협동 로봇 시스템의 작업 데이터를 기반으로 수행될 수 있다. 또한, 상기 빅데이터 분석자료와 스마트 팩토리 운영관리 분석결과를 상기 고객업체에 제공할 수도 있으며, 이러한 제공된 결과에 대한 피드백을 반영하여 작업 모델을 수정할 수도 있다.In addition, it is possible to revise and manage the work model by analyzing it based on FOM (Factory Operation Management) data. To this end, the cooperative robot system may separately include a FOM analysis unit. The FOM analysis unit generates a smart factory operation management analysis result including key performance indicator (KPI) or LOB analysis based on the big data module, which may be performed based on the work data of the cooperative robot system. In addition, the big data analysis data and the smart factory operation management analysis result may be provided to the customer company, and the work model may be modified by reflecting the feedback on the provided result.

또한, CPS(Cyber Physical System) 기반 공정 분석은 물리적인 시스템과 가상 시스템을 상호 연결시켜 스마트 팩토리의 공정을 수행하기 위한 시스템이다. 일 실시예에서 상기 CPS는 외부 센서로부터 온도, 습도, 압력, 전압 등의 센서 데이터를 수식하고, 로봇, 액추에이터, 선반, 연마기, 절삭기 등의 다양한 외부 설비로부터 설비 데이터를 수신하여 저장하게 된다. 이를 통해 관리자가 기입력한 제어, 설정, 조회 등을 포함하는 관리 명령과 이를 기반으로 한 작업 모델을 관리할 수 있다. 예를 들어, 관리 명령의 우선순위를 결정할 수 있고, 우선순위에 따라 관리 명령에 상응하는 역할을 수행하도록 작업 모델을 설정할 수 있다.In addition, CPS (Cyber Physical System)-based process analysis is a system for performing smart factory processes by interconnecting physical and virtual systems. In an embodiment, the CPS modifies sensor data such as temperature, humidity, pressure, and voltage from an external sensor, and receives and stores equipment data from various external equipment such as a robot, an actuator, a lathe, a grinder, and a cutting machine. Through this, it is possible to manage management commands including controls, settings, inquiries, etc. entered by the administrator and a work model based on them. For example, the priority of the management command may be determined, and the work model may be set to perform a role corresponding to the management command according to the priority.

이를 위하여 상기 협동 로봇 시스템은 CPS 분석부를 별도로 구비할 수 있다. 상기 CPS 분석부는 스마트 팩토리의 공정 및 속성 정보를 등록, 관리 및 수정하고 데이터를 기반으로 시뮬레이션을 하기 위한 정보를 저장하며, 수득된 데이터의 유효성을 검증하여 기 입력된 관리 명령의 우선순위를 변경하거나 작업 모델을 변경할 수 있다. 또한, 상기 유효성의 검증에는 기준 알고리즘을 바탕으로 기계학습을 통한 딥 러닝 또는 내외부의 인공지능 모듈을 이용할 수도 있다. 또한, 상기 CPS 분석부가 시뮬레이션을 수행할 때 제품의 생산 수량의 변경, 제품 모델의 변경, 특정 공정 장애 시 우회 공정 등을 포함한 시뮬레이션을 할 수도 있다. 이러한 CPS 분석부에서 처리되는 데이터는 가상 데이터일 수 있다.To this end, the cooperative robot system may separately include a CPS analysis unit. The CPS analysis unit registers, manages, and modifies the process and attribute information of the smart factory, stores information for simulation based on data, and verifies the validity of the obtained data to change the priority of previously entered management commands or You can change the working model. In addition, for verification of the validity, deep learning through machine learning or an internal/external artificial intelligence module may be used based on a reference algorithm. In addition, when the CPS analysis unit performs the simulation, a simulation including a change in the production quantity of a product, a change in a product model, a bypass process in case of a specific process failure, etc. may be performed. Data processed by the CPS analyzer may be virtual data.

상기 CPS 분석에 대하여 자동차 배기를 감소시킬 수 있는 외기 흡입 덕트(air intake duct_를 생산하는 공정을 예로 들면 다음과 같다. 먼저, CPS 분석에 필요한 부품을 inventor를 활용하여 3D 모델링을 제작한다. 상기 3D 모델링한 부품을 CPS 프로그램에 적용 가능한 형식의 파일로 변경하고, 이를 이용하여 CPS 제작 프로세스를 수립한다. 다음으로 상기 프로세스에 따라 장비 및 물류를 배치하고 레이아웃을 제작한다. 이와 같은 작업을 통해 시뮬레이션을 하고 상기 시뮬레이션에 따라 로봇의 동작에 필요한 포인트를 학습하는 작업을 수행하게 된다. 이를 토대로 로봇을 가동하면 CPS 기반 공정 분석의 적용 전과 비교하여 진동융착용 로봇과 작업자의 가동 실적이 평균 58.8%에서 89.8%로 크게 향상되는 것으로 나타났다. 또한, 시간당 생산량(UPH)을 분석한 결과에서도 CPS 기반 공정 분석 적용 전과 비교하여 43.3%의 생산성 향상을 나타내는 것을 확인하였다.For the CPS analysis, the process of producing an air intake duct_ capable of reducing automobile exhaust is as follows as an example. First, 3D modeling is produced using Inventor for parts necessary for CPS analysis. Change the 3D modeled parts into a file in a format applicable to the CPS program, and use it to establish the CPS manufacturing process Next, arrange equipment and logistics according to the above process and create a layout. Simulation through these operations In accordance with the above simulation, the operation of the robot is performed, and when the robot is operated based on this, the operation performance of the vibration welding robot and the operator is reduced by 58.8% on average compared to before the application of CPS-based process analysis. It was found to be significantly improved by 89.8% In addition, in the result of analyzing the output per hour (UPH), it was confirmed that the productivity improved by 43.3% compared to before the application of the CPS-based process analysis.

상기 CPS 기반 공정 분석을 수행한 결과는 상기 인식부에 전송되며, 상기 인식부는 상기 CPS 기반 공정 분석을 통해 다단계 작업의 작업 모델을 수정하고 이를 저장할 수 있다. 또한, 상기 CPS 기반 공정 분석은 로봇 시스템에 있어서는 상기 로봇의 작동부에 구비되는 센서로부터 데이터를 수신함으로써 수행되는데, 이외에도 스마트 팩토리에서의 설비 데이터뿐만 아니라 상기 로봇 시스템 외의 외부 센서로부터 수득되는 데이터도 수신하여 이를 취합하여 공정 분석을 수행할 수 있다. 또한, 상기 공정 분석은 상기 인식부가 상기 센서로부터 수신한 데이터, 설비 데이터, 외부 센서로부터 수득된 데이터를 모두 분석하며, 이를 통해 분석 데이터를 만들게 된다. 이러한 분석 데이터는 인식부에서 시뮬레이션 할 수 있으며, 만일 데이터의 크기가 너무 큰 경우에는 상기 분석 데이터를 외부 컴퓨터로 전송하여 상기 외부 컴퓨터에서 분석 데이터의 처리와 시뮬레이션을 수행할 수도 있게 된다. 이러한 시뮬레이션은 기계학습을 통한 딥 러닝 또는 내외부의 인공지능 모듈을 이용하여 수행할 수 있는데, 이러한 기계학습이나 인공지능 모듈의 활용을 통해 상기 다단계 작업의 작업 모델을 자동으로 업데이트할 수 있게 된다. 또한, 상기 업데이트된 작업 모델은 상기 인식부에 추가로 저장될 수 있다.A result of performing the CPS-based process analysis is transmitted to the recognition unit, and the recognition unit may modify the work model of the multi-step job through the CPS-based process analysis and store it. In addition, the CPS-based process analysis is performed by receiving data from a sensor provided in the operating unit of the robot in the robot system. Thus, it is possible to perform process analysis by collecting them. In addition, in the process analysis, the recognition unit analyzes all data received from the sensor, equipment data, and data obtained from an external sensor, thereby creating analysis data. The analysis data may be simulated by the recognition unit, and if the size of the data is too large, the analysis data may be transmitted to an external computer to process and simulate the analysis data in the external computer. Such a simulation can be performed using deep learning through machine learning or an internal or external artificial intelligence module, and the work model of the multi-step task can be automatically updated through the use of such machine learning or artificial intelligence module. In addition, the updated working model may be additionally stored in the recognition unit.

또한, FEM(Factory Energy Management) 기반 공정 분석을 통한 작업 모델의 수정 또는 관리도 가능하다. 상기 FEM은 공장 에너지 관리 체계로서 에너지의 효율적 사용을 관리할 수 있는 것이며, 스마트 팩토리의 생산 효율에 영향을 미치는 인자를 효율적으로 관리할 수 있도록 해 준다. 이를 위하여 상기 협동 로봇 시스템은 FEM 분석부를 별도로 구비할 수 있다. 상기 FEM 분석부는 FOM과 마찬가지로 빅데이터 모듈을 기반으로 스마트 팩토리의 에너지 관리 분석결과를 생성하는데, 이는 상기 협동 로봇 시스템의 작업 데이터를 기반으로 생성될 수 있다. 또한, 상기 빅데이터 분석자료와 에너지 관리 분석결과를 토대로 작업 모델을 수정할 수 있다.In addition, it is possible to modify or manage the work model through FEM (Factory Energy Management)-based process analysis. The FEM is a factory energy management system that can manage the efficient use of energy, and makes it possible to efficiently manage factors affecting the production efficiency of the smart factory. To this end, the cooperative robot system may separately include an FEM analysis unit. The FEM analysis unit generates an energy management analysis result of a smart factory based on a big data module like the FOM, which may be generated based on the work data of the cooperative robot system. In addition, it is possible to modify the work model based on the big data analysis data and energy management analysis results.

또한, 상기 제어부는 상기 인식부와 통신하여 작동되는데, 상기 제어부는 상기 인식부로부터 신호를 수신하여 상기 로봇의 작동부를 제어함으로써 다단계 작업을 수행할 수 있게 된다.In addition, the control unit is operated in communication with the recognition unit, and the control unit receives a signal from the recognition unit and controls the operation unit of the robot to perform a multi-step operation.

이상에서 설명한 본 발명은 전술한 실시예에 의해 한정되는 것은 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능함은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명백한 것이다.The present invention described above is not limited by the above-described embodiments, and various substitutions, modifications, and changes are possible within the scope without departing from the technical spirit of the present invention. it is clear to one

Claims (3)

스마트 팩토리의 로봇 중 선택된 어느 하나 또는 그 이상의 로봇를 증강현실(AR) 화면에 표시하고, 상기 증강현실 화면 내에 표시되는 메뉴 버튼을 작업자가 클릭하면 상기 메뉴 정보를 상기 증강현실 화면으로 확인하도록 하는 작업자 단말기;
상기 작업자가 로봇을 원격으로 조종할 수 있도록 구성되는 인터페이스부;
상기 작업자가 상기 인터페이스부를 조종할 때 상기 작업자가 취한 동작을 인식하도록 상기 인터페이스부와 통신하는 인식부;
상기 인식부와 통신하는 제어부;
상기 제어부와 통신하여 제어되는 로봇의 작동부;
및 스마트 팩토리의 협업을 관리하는 관리서버;
를 포함하며,
상기 증강현실 화면에는 다수의 작업자 리스트, 작업 공정 솔루션, 상기 로봇의 작업 시연 정보 중 어느 하나 또는 그 이상이 표시되며,
상기 인식부는 다단계 작업의 작업 모델에 기반하여 상기 작업자가 상기 인터페이스부를 조종하는 동안 상기 작업자가 취한 동작을 인식하며,
상기 인식부는 수동 및 자동 동작을 시작과 완료를 인식하며,
상기 인식부는 상기 수동 동작이 완료되면 상기 다단계 작업의 작업 모델에 기반하여 상기 로봇의 작동부가 자동 동작을 수행하도록 상기 제어부에 지시하는 것을 특징으로 하는 증강현실을 이용한 스마트 팩토리 협업 시스템.
A worker terminal that displays any one or more selected robots among robots of the smart factory on an augmented reality (AR) screen, and checks the menu information on the augmented reality screen when the operator clicks a menu button displayed in the augmented reality screen ;
an interface unit configured to allow the operator to remotely control the robot;
a recognition unit communicating with the interface unit to recognize the operation taken by the operator when the operator manipulates the interface unit;
a control unit communicating with the recognition unit;
an operation unit of the robot controlled by communication with the control unit;
And a management server for managing collaboration of the smart factory;
includes,
Any one or more of a plurality of worker lists, work process solutions, and work demonstration information of the robot is displayed on the augmented reality screen,
The recognition unit recognizes the action taken by the operator while the operator manipulates the interface unit based on the work model of the multi-step operation,
The recognition unit recognizes the start and completion of manual and automatic operations,
The recognition unit smart factory collaboration system using augmented reality, characterized in that when the manual operation is completed, instructing the control unit to perform an automatic operation of the operation unit of the robot based on the work model of the multi-step task.
청구항 1에 있어서,
상기 관리서버는 상기 로봇의 매뉴얼 정보, 작업자 리스트, 작업 공정 솔루션, 상기 로봇의 작업 시연 정보를 저장하며,
상기 작업자 단말기가 상기 로봇의 고유 식별 마크 또는 실물을 인식하면 상기 증강현실 화면에 메뉴 버튼이 나타나도록 하며,
상기 로봇의 고유 식별 마크 또는 실물과 상기 작업자 리스트에서 선택된 1인 이상의 작업자를 매칭하고 사용 접근에 관한 승인여부를 판단하여 상기 작업자 단말기에 표시하는 것을 특징으로 하는 증강현실을 이용한 스마트 팩토리 협업 시스템.
The method according to claim 1,
The management server stores manual information of the robot, a list of workers, a work process solution, and work demonstration information of the robot,
When the operator terminal recognizes the robot's unique identification mark or real, a menu button appears on the augmented reality screen,
A smart factory collaboration system using augmented reality, characterized in that the robot's unique identification mark or real object is matched with one or more workers selected from the worker list, and whether or not to approve the use access is determined and displayed on the worker terminal.
청구항 1에 있어서,
상기 인식부는 CPS(Cyber Physical System) 기반 공정 분석을 통한 다단계 작업의 작업 모델을 저장하며,
상기 CPS 기반 공정 분석은 상기 로봇의 작동부에 구비되는 센서로부터 데이터를 수신하며,
상기 인식부는 상기 센서로부터 수신한 데이터를 분석하여 분석 데이터를 만들고, 상기 분석 데이터를 시뮬레이션하여 상기 다단계 작업의 작업 모델을 업데이트하는 것을 특징으로 하는 증강현실을 이용한 스마트 팩토리 협업 시스템.
The method according to claim 1,
The recognition unit stores the work model of multi-step work through CPS (Cyber Physical System)-based process analysis,
The CPS-based process analysis receives data from a sensor provided in the operating unit of the robot,
The recognition unit creates analysis data by analyzing the data received from the sensor, and by simulating the analysis data to update the work model of the multi-step work Smart factory collaboration system using augmented reality.
KR1020200180732A 2020-12-22 2020-12-22 Collaboration system of smart factory in argumented reality KR20220089998A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200180732A KR20220089998A (en) 2020-12-22 2020-12-22 Collaboration system of smart factory in argumented reality
PCT/KR2020/018949 WO2022139026A1 (en) 2020-12-22 2020-12-23 Smart factory collaboration system using augmented reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200180732A KR20220089998A (en) 2020-12-22 2020-12-22 Collaboration system of smart factory in argumented reality

Publications (1)

Publication Number Publication Date
KR20220089998A true KR20220089998A (en) 2022-06-29

Family

ID=82159903

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200180732A KR20220089998A (en) 2020-12-22 2020-12-22 Collaboration system of smart factory in argumented reality

Country Status (2)

Country Link
KR (1) KR20220089998A (en)
WO (1) WO2022139026A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190091870A (en) * 2018-01-29 2019-08-07 부산대학교 산학협력단 Robot control system using motion sensor and VR
KR102046351B1 (en) * 2018-03-12 2019-12-02 한국기계연구원 Wearable robot control system using augmented reality and method for controlling wearable robot using the same
JP2020195132A (en) * 2019-05-21 2020-12-03 株式会社別川製作所 Remote control system for device in facility
KR102086451B1 (en) * 2019-09-06 2020-05-29 주식회사 글로벌제조혁신네트웍 Smart Factory remote collaboration CMS system in augmented reality and Drive method of the Same
CN111077861A (en) * 2019-12-17 2020-04-28 昆明联诚科技股份有限公司 Remote operation and maintenance system of intelligent factory

Also Published As

Publication number Publication date
WO2022139026A1 (en) 2022-06-30

Similar Documents

Publication Publication Date Title
US11159771B2 (en) Virtual reality and augmented reality for industrial automation
Xia et al. A digital twin to train deep reinforcement learning agent for smart manufacturing plants: Environment, interfaces and intelligence
US10535202B2 (en) Virtual reality and augmented reality for industrial automation
Li et al. AR-assisted digital twin-enabled robot collaborative manufacturing system with human-in-the-loop
JP7391023B2 (en) Systems and methods for learning industrial tasks by robots based on human demonstrations
EP3002646B1 (en) Virtual design engineering
US11782427B2 (en) Augmented reality human machine interface testing
US11281435B2 (en) Application development environment providing system, application development environment provision method, terminal device, and application display method
Rückert et al. Augmented Reality for teaching collaborative robots based on a physical simulation
CN116523119A (en) Digital twin system and method for personalized product in-process customization production line
Liang et al. Trajectory-based skill learning for overhead construction robots using generalized cylinders with orientation
US11281456B2 (en) Application development environment providing system, application development environment provision method, terminal device, and application display method
Ko et al. A study on manufacturing facility safety system using multimedia tools for cyber physical systems
CN112800606A (en) Digital twin production line construction method and system, electronic device and storage medium
KR20220089998A (en) Collaboration system of smart factory in argumented reality
WO2022139025A1 (en) Collaborative robot system
US20220152816A1 (en) Decentralized robotic operating environment optimization
Ye et al. Research on the monitoring of the industrial robot motion based on digital twins
Alasti et al. Interactive Virtual Reality-Based Simulation Model Equipped with Collision-Preventive Feature in Automated Robotic Sites
Kirkpatrick Digital Twins in Advanced Manufacturing to Enhance Manufacturing Efficiency
Jakhotiya et al. Integrating digital twin and computer vision system for efficient pick-and-place operation using Tecnomatix Process Simulate
Wang Enabling Human-Robot Partnerships in Digitally-Driven Construction Work through Integration of Building Information Models, Interactive Virtual Reality, and Process-Level Digital Twins
Lu et al. A generic and modularized Digital twin enabled human-robot collaboration
Shrestha Documentation and Further Development of a Digital Factory Simulation Game
Xia et al. manufacturing plants: Environment, interfaces and intelligence

Legal Events

Date Code Title Description
E601 Decision to refuse application