KR20220089828A - Cooperation robot system - Google Patents

Cooperation robot system Download PDF

Info

Publication number
KR20220089828A
KR20220089828A KR1020200180386A KR20200180386A KR20220089828A KR 20220089828 A KR20220089828 A KR 20220089828A KR 1020200180386 A KR1020200180386 A KR 1020200180386A KR 20200180386 A KR20200180386 A KR 20200180386A KR 20220089828 A KR20220089828 A KR 20220089828A
Authority
KR
South Korea
Prior art keywords
unit
analysis
recognition unit
user
robot
Prior art date
Application number
KR1020200180386A
Other languages
Korean (ko)
Inventor
김남빈
백승배
Original Assignee
주식회사 에이스로보테크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이스로보테크 filed Critical 주식회사 에이스로보테크
Priority to KR1020200180386A priority Critical patent/KR20220089828A/en
Priority to PCT/KR2020/018948 priority patent/WO2022139025A1/en
Publication of KR20220089828A publication Critical patent/KR20220089828A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management

Abstract

본 발명은 사용자 인터페이스부 및 사용자가 상기 사용자 인터페이스부를 조종할 때 상기 사용자가 취한 동작을 인식하도록 상기 사용자 인터페이스부와 통신하는 인식부, 상기 인식부와 통신하는 제어부, 및 상기 제어부와 통신하여 제어되는 로봇의 작동부를 포함하는 다단계 작업을 수행하는 협동 로봇 시스템에 관한 것으로서, 상기 인식부는 상기 다단계 작업의 작업 모델에 기반하여 상기 사용자가 상기 사용자 인터페이스부를 조종하는 동안 상기 사용자가 취한 동작을 인식하며, 상기 인식부는 수동 및 자동 동작을 시작과 완료를 인식하며, 상기 인식부는 상기 수동 동작이 완료되면 상기 다단계 작업의 작업 모델에 기반하여 상기 로봇의 작동부가 자동 동작을 수행하도록 상기 제어부에 지시하는 것을 특징으로 한다.The present invention provides a user interface unit and a recognition unit communicating with the user interface unit to recognize an action taken by the user when the user manipulates the user interface unit, a control unit communicating with the recognition unit, and a control unit communicating with the control unit. It relates to a cooperative robot system for performing a multi-step task including an operation unit of a robot, wherein the recognition unit recognizes an action taken by the user while the user manipulates the user interface unit based on a work model of the multi-step task, the The recognition unit recognizes the start and completion of manual and automatic operations, and the recognition unit instructs the control unit to perform the automatic operation by the operation unit of the robot based on the work model of the multi-step operation when the manual operation is completed. do.

Description

협동 로봇 시스템.{COOPERATION ROBOT SYSTEM}Cooperative robot system. {COOPERATION ROBOT SYSTEM}

본 발명은 협동 로봇 시스템에 관한 것으로서, 인간과 기계의 협업 패키지를 이용하여 고도화된 스마트 팩토리의 운영 관리가 가능하도록 한 협동 로봇 시스템에 관한 것이다.The present invention relates to a cooperative robot system, and to a cooperative robot system that enables operation and management of an advanced smart factory using a human-machine collaboration package.

스마트 팩토리의 생산현장에서는 인간과 기계의 협업패키지를 사용할 때 효율적인 운영 관리가 가능하다. 이를 위하여 4M1E(Man, Machine, Material, Method, Environment) 분석을 통해 빅데이터를 생성하고, 이를 통해 FOM(Factory Operation Management) 데이터 기반의 정보화와 CPS(Cyber Physical System) 기반 공정 분석을 통한 자동화 및 최적화를 진행하고, FEM(Factory Energy Management) 기반 공정 분석을 통하여 에너지 효율화를 달성할 필요가 있다. 이러한 종합적인 관리를 통해 상기 스마트 팩토리에 포함되는 각 모듈의 융합 관리가 가능하기 때문에 고도화된 MI-NPS(Meta Intelligent-New Production System)형 스마트 팩토리의 운영이 가능하게 된다.In the smart factory production site, efficient operation and management is possible when using a human-machine collaboration package. To this end, big data is generated through 4M1E (Man, Machine, Material, Method, Environment) analysis, and through this, automation and optimization through FOM (Factory Operation Management) data-based informatization and CPS (Cyber Physical System)-based process analysis It is necessary to achieve energy efficiency through FEM (Factory Energy Management)-based process analysis. Through such comprehensive management, it is possible to manage the convergence of each module included in the smart factory, thereby enabling the operation of an advanced MI-NPS (Meta Intelligent-New Production System) type smart factory.

예를 들어, 대한민국 등록특허공보 10-1550740호에는 생산 현장의 개별적인 인력 관리 및 생산실적 관리를 통해 생산성을 향상시키고, 달성률과 점유율을 기준으로 생산실적을 관리하여 4M(Man, Machine, Material, Method)별 관리를 용이하게 수행할 수 있는 관리 시스템이 개시되어 있고, 이러한 시스템에서 디지털 팩토리를 4M 데이터 기반으로 운영하고 있다.For example, in Republic of Korea Patent Publication No. 10-1550740, productivity is improved through individual manpower management and production performance management at the production site, and production performance is managed based on the achievement rate and share to manage 4M (Man, Machine, Material, Method). ), a management system that can easily perform management is disclosed, and a digital factory is operated based on 4M data in this system.

그러나 스마트 팩토리에서 인간-기계 협업 공정 및 제조공정 시뮬레이션 분석 기술로 인간-기계의 협업으로 고도화된 MI-NPS형 스마트 팩토리에 적용하기 위해서는 이러한 데이터가 공정에 실시간으로 적용될 필요가 있다.However, in order to apply to the MI-NPS type smart factory advanced by human-machine collaboration with human-machine collaboration process and manufacturing process simulation analysis technology in the smart factory, these data need to be applied to the process in real time.

본 발명은 상기와 같은 종래기술의 문제점을 감안하여 안출된 것으로서, 인간-기계 협업 공정을 위한 협동 로봇의 효율적인 운전이 가능한 협동 로봇 시스템을 제공하는 것을 그 목적으로 한다.The present invention has been devised in view of the problems of the prior art as described above, and an object of the present invention is to provide a cooperative robot system capable of efficiently operating a cooperative robot for a human-machine cooperative process.

상기와 같은 목적을 달성하기 위한 본 발명의 협동 로봇 시스템은 사용자 인터페이스부 및 사용자가 상기 사용자 인터페이스부를 조종할 때 상기 사용자가 취한 동작을 인식하도록 상기 사용자 인터페이스부와 통신하는 인식부, 상기 인식부와 통신하는 제어부, 및 상기 제어부와 통신하여 제어되는 로봇의 작동부를 포함하여 다단계 작업을 수행하는 협동 로봇 시스템으로서, 상기 인식부는 상기 다단계 작업의 작업 모델에 기반하여 상기 사용자가 상기 사용자 인터페이스부를 조종하는 동안 상기 사용자가 취한 동작을 인식하며, 상기 인식부는 수동 및 자동 동작을 시작과 완료를 인식하며, 상기 인식부는 상기 수동 동작이 완료되면 상기 다단계 작업의 작업 모델에 기반하여 상기 로봇의 작동부가 자동 동작을 수행하도록 상기 제어부에 지시하는 것을 특징으로 한다.The cooperative robot system of the present invention for achieving the above object includes a user interface unit and a recognition unit communicating with the user interface unit to recognize an action taken by the user when the user manipulates the user interface unit, the recognition unit and A cooperative robot system for performing a multi-step operation including a control unit communicating with the control unit, and an operation unit of the robot controlled by communication with the control unit, wherein the recognition unit is based on a work model of the multi-step operation while the user manipulates the user interface unit Recognizes the action taken by the user, the recognition unit recognizes the start and completion of manual and automatic actions, and when the manual operation is completed, the recognition unit automatically operates the robot's operation unit based on the multi-step work model based on the work model. It is characterized in that it instructs the control unit to perform.

이때, 상기 다단계 작업의 작업 모델은 4M1E(Man, Machine, Material, Method, Environment) 분석, FOM(Factory Operation Management) 데이터 기반 분석, CPS(Cyber Physical System) 기반 공정 분석, 및 FEM(Factory Energy Management) 기반 공정 분석의 결과로부터 도출될 수 있다.At this time, the work model of the multi-step operation is 4M1E (Man, Machine, Material, Method, Environment) analysis, FOM (Factory Operation Management) data based analysis, CPS (Cyber Physical System) based process analysis, and FEM (Factory Energy Management) It can be derived from the results of the based process analysis.

또한, 상기 인식부는 CPS(Cyber Physical System) 기반 공정 분석을 통한 다단계 작업의 작업 모델을 저장하며, 상기 CPS 기반 공정 분석은 상기 로봇의 작동부에 구비되는 센서로부터 데이터를 수신하며, 상기 인식부는 상기 센서로부터 수신한 데이터를 분석하여 분석 데이터를 만들고, 상기 분석 데이터를 시뮬레이션하여 상기 다단계 작업의 작업 모델을 업데이트할 수 있다.In addition, the recognition unit stores a work model of a multi-step operation through CPS (Cyber Physical System)-based process analysis, and the CPS-based process analysis receives data from a sensor provided in the operation unit of the robot, and the recognition unit It is possible to create analysis data by analyzing the data received from the sensor, and to update the working model of the multi-step task by simulating the analysis data.

본 발명에 따른 협동 로봇 시스템을 적용하면 스마트 팩토리에서 인간-기계 협업 공정을 위한 협동 로봇의 효율적인 운전이 가능하여 스마트 팩토리의 효율적인 운영이 가능하게 된다.When the cooperative robot system according to the present invention is applied, the efficient operation of the cooperative robot for the human-machine collaboration process is possible in the smart factory, thereby enabling the efficient operation of the smart factory.

도 1은 본 발명의 협동 로봇 시스템을 도식적으로 나타낸 개념도이다.
도 2는 CPS 기반 공정 분석을 적용하기 전(a)과 후(b)의 장비 가동 실적을 분석한 결과이다.
도 3은 CPS 기반 공정 분석을 적용하기 전(a)과 후(b)의 시간당 생산량을 분석한 결과이다.
1 is a conceptual diagram schematically showing a cooperative robot system of the present invention.
2 is a result of analyzing the equipment operation performance before (a) and after (b) applying the CPS-based process analysis.
3 is a result of analyzing the hourly production volume before (a) and after (b) applying the CPS-based process analysis.

이하 본 발명을 상세히 설명한다.Hereinafter, the present invention will be described in detail.

스마트 팩토리는 디지털 기술을 제조과정의 생산 시스템에 적용한 것으로서, 정보활용, 자동화, 모니터링, 센싱, 모델링, 네트워킹 분야에 걸친 다양한 첨단 기술들의 활용 가능성을 포함하고 있으며, ICT 기술을 기반으로 제조 및 유통 전 과정에서 모든 사물 및 참가자들을 서로 연결시켜 정보 교환을 가능하게 하는 연결성, 상호 연결된 구성요소들이 정보와 자원을 서로 공유하고, 이를 바탕으로 독립적 의사결정과 협업을 수행하는 협업성이 중요한 요소가 된다.Smart factory is the application of digital technology to the production system of the manufacturing process, and includes the possibility of utilizing various advanced technologies in information utilization, automation, monitoring, sensing, modeling, and networking fields. In the process, connectivity that enables information exchange by connecting all objects and participants to each other, and collaboration between interconnected components sharing information and resources, and performing independent decision-making and collaboration based on this are important factors.

스마트 팩토리에서 공정 모델 기술 분야는 응용 애플리케이션 기술, 플랫폼 기술, 디바이스/네트워크 기술, 제조보안 기술 등의 요소기술로 나눌 수 있다.In the smart factory, the process model technology field can be divided into element technologies such as application application technology, platform technology, device/network technology, and manufacturing security technology.

상기 애플리케이션 기술은 스마트공장 ICT 솔루션의 최상위 소프트웨어 시스템으로 MES, ERP, PLM, SCM 등의 플랫폼 상에서 각종 제조 실행을 수행하는 것이며, 상기 플랫폼 기술은 스마트공장 ICT 하위 디바이스에서 입수한 정보를 최상위 애플리케이션에 정보 전달 역할을 하는 중간 소프트웨어 시스템으로 디바이스에 의해 수집된 데이터를 분석하고, 모델링 및 가상 물리 시뮬레이션을 통해 최적화 정보 제공하는 것이다. 또한, 상기 디바이스/네트워크 기술은 스마트공장 ICT 솔루션의 최하위 하드웨어 시스템으로 스마트 센서를 통해 위치, 환경 및 에너지를 감지하고 로봇을 통해 작업자 및 공작물의 위치를 인식하여 데이터를 플랫폼으로 전송할 수 있는 시스템으로 구성되며, 상기 제조보안 기술은 센서부터 애플리케이션까지 전 분야를 대상으로 각종 데이터, 시스템, 제조설비 등을 안전하게 보호할 수 있는 정보보호 및 산업기밀 보호 기술과 대응 방안에 관한 것이다.The application technology is the top-level software system of the smart factory ICT solution, and it performs various manufacturing executions on platforms such as MES, ERP, PLM, and SCM. It is an intermediate software system that plays a role in delivering, analyzing the data collected by the device, and providing optimization information through modeling and virtual physics simulation. In addition, the device/network technology is the lowest hardware system of the smart factory ICT solution. It detects the location, environment and energy through smart sensors and recognizes the positions of workers and workpieces through robots. It consists of a system that can transmit data to the platform. The manufacturing security technology relates to information protection and industrial confidentiality protection technology and countermeasures that can safely protect various data, systems, manufacturing facilities, etc. for all fields from sensors to applications.

본 발명에서는 스마트 팩토리의 플랫폼과 디바이스/네트워크를 개선하여 공장 효율을 향상시킬 수 있는 협동 로봇 시스템에 관한 것으로서, 이를 도식적으로 나타내면 도 1에서와 같이 구성된다.The present invention relates to a collaborative robot system capable of improving factory efficiency by improving the platform and device/network of the smart factory, and is schematically configured as shown in FIG. 1 .

즉, 본 발명의 협동 로봇 시스템은 사용자 인터페이스부 및 사용자가 상기 사용자 인터페이스부를 조종할 때 상기 사용자가 취한 동작을 인식하도록 상기 사용자 인터페이스부와 통신하는 인식부, 상기 인식부와 통신하는 제어부, 및 상기 제어부와 통신하여 제어되는 로봇의 작동부를 포함함으로써 다단계 작업을 수행할 수 있도록 구성된다.That is, the cooperative robot system of the present invention includes a user interface unit, a recognition unit communicating with the user interface unit to recognize an action taken by the user when the user manipulates the user interface unit, a control unit communicating with the recognition unit, and the It is configured to be able to perform a multi-step operation by including an operation unit of the robot that is controlled by communication with the control unit.

특히, 상기 인식부는 상기 다단계 작업의 작업 모델에 기반하여 상기 사용자가 상기 사용자 인터페이스부를 조종하는 동안 상기 사용자가 취한 동작을 인식하며, 상기 인식부는 수동 및 자동 동작을 시작과 완료를 인식하며, 상기 인식부는 상기 수동 동작이 완료되면 상기 다단계 작업의 작업 모델에 기반하여 상기 로봇의 작동부가 자동 동작을 수행하도록 상기 제어부에 지시하는 것을 특징으로 한다.In particular, the recognition unit recognizes an action taken by the user while the user manipulates the user interface unit based on the work model of the multi-step task, and the recognition unit recognizes start and completion of manual and automatic operations, the recognition When the manual operation is completed, the unit instructs the control unit to perform an automatic operation by the operation unit of the robot based on the work model of the multi-step operation.

상기 사용자 인터페이스부는 로봇을 제어할 수 있는 제어 장치를 포함할 수 있으며, 사용자가 로봇의 각 부분을 조정하여 로봇이 특정한 동작을 할 수 있도록 제어할 수 있다. 또한, 상기 사용자 인터페이스부에는 디스플레이부가 포함되어 사용자가 로봇의 동작 상태를 관찰하고 이를 통해 변경을 가할 수 있도록 구성될 수 있다.The user interface unit may include a control device capable of controlling the robot, and the user may control each part of the robot to perform a specific operation. In addition, the user interface unit may be configured to include a display unit so that a user can observe the operating state of the robot and apply a change therethrough.

또한, 상기 디스플레이부는 증강현실(AR) 또는 가상현실(VR)을 이용한 시스템을 구성함으로써 사용자가 인터페이스부를 통해 숙련도를 향상시킬 수도 있고 로봇과의 협업을 통한 작업 효율을 높일 수도 있게 된다. 이때, 상기 디스플레이부는 다양한 이미지의 선택, 설정이 가능하고 이미지를 겹치거나 조정할 수도 있다.In addition, by configuring the display unit using a system using augmented reality (AR) or virtual reality (VR), the user may improve proficiency through the interface unit and work efficiency may be increased through collaboration with the robot. In this case, the display unit may select and set various images, and may overlap or adjust images.

또한, 상기 인식부는 컴퓨터, 스마트기기 또는 다른 데이터 처리 및 저장 장치를 이용하는 것일 수 있다. 상기 인식부로 인식 및 그 밖에 다른 절차들을 수행하는 컴퓨터에 저장된 프로그램을 포함할 수 있으며, 스마트폰이나 태블릿 PC에 설치된 어플리케이션을 통해 작동될 수도 있다. 또한, 네트워크를 통하여 연결된 원거리에 위치한 장치를 사용할 수 있으며, 이 경우, 사물 인터넷(IoT) 시스템을 활용하여 상기 인식부를 구동할 수도 있다. 즉, 상기 사용자 인터페이스부와 상기 인식부는 통신을 통해 연결되기 때문에 물리적으로 결합될 필요는 없다.In addition, the recognition unit may use a computer, a smart device, or other data processing and storage device. The recognition unit may include a program stored in a computer that performs recognition and other procedures, and may be operated through an application installed in a smartphone or tablet PC. In addition, a device located at a remote location connected through a network may be used, and in this case, the recognition unit may be driven by utilizing an Internet of Things (IoT) system. That is, since the user interface unit and the recognition unit are connected through communication, there is no need to be physically coupled.

또한, 상기 인식부는 사용자의 특정한 동작들을 인식할 수 있도록 로봇 운동학(kinematics)을 이용한 장치를 포함할 수 있다. 이 경우, 다단계 작업의 작업 모델에 기반하여 상기 사용자가 상기 사용자 인터페이스부를 조종하는 동안 상기 사용자가 취한 동작을 인식할 수 있게 된다. 이러한 인식부의 작동은 다기능 작업을 수행하는 과정에서 상호간의 정보 교환을 통하여 전체 로봇 시스템의 협동 작업을 가능하도록 해 준다.In addition, the recognition unit may include a device using robot kinematics to recognize specific movements of the user. In this case, it is possible to recognize the action taken by the user while the user manipulates the user interface unit based on the multi-step task model. The operation of this recognition unit enables cooperative work of the entire robot system through mutual information exchange in the process of performing multi-function tasks.

또한, 상기 사용자 인터페이스부와 센서를 포함하는 로봇 시스펨은 사용자의 동작과 센서로부터 수신되는 신호를 기반으로 로봇의 움직임, 작업 환경을 실시간으로 관찰하거나 녹화하여 영상 처리를 할 수 있도록 구성될 수 있다. 이 경우에도 AR 또는 VR 시스템을 이용하여 사용자의 정보 취득 및 응답 효율을 향상시키도록 할 수 있다.In addition, the robot system including the user interface unit and the sensor may be configured to perform image processing by observing or recording the robot's movement and work environment in real time based on the user's motion and a signal received from the sensor. . Even in this case, an AR or VR system may be used to improve the user's information acquisition and response efficiency.

상기 인식부는 수동 및 자동 동작을 시작과 완료를 인식하며, 상기 인식부는 상기 수동 동작이 완료되면 상기 다단계 작업의 작업 모델에 기반하여 상기 로봇의 작동부가 자동 동작을 수행하도록 상기 제어부에 지시하도록 구성된다.The recognition unit recognizes the start and completion of manual and automatic operations, and the recognition unit is configured to instruct the control unit to perform an automatic operation by the operation unit of the robot based on the work model of the multi-step operation when the manual operation is completed. .

즉, 상기 인식부는 제어부의 제어 하에 센서를 포함하는 로봇 시스템에 의해 수동 동작과 자동 동작, 필요에 따라, 반자동 동작을 포함한 동작을 결정하게 된다.That is, the recognition unit determines an operation including a manual operation, an automatic operation, and, if necessary, a semi-automatic operation by the robot system including a sensor under the control of the controller.

상기 수동 동작은 종래의 원격 조종 로봇 시스템에서 수행되는 조종과 유사하거나 동일하게 수행되는 것이다. 또한, 상기 자동 동작은 전적으로 로봇의 제어 하에 수행되며 동작에 대한 사용자의 관여가 없는 것이다.The manual operation is performed similarly or identically to the operation performed in a conventional remote control robot system. In addition, the automatic operation is performed entirely under the control of the robot, and there is no user's involvement in the operation.

즉, 사용자는 다단계 작업의 각 단계에서 하나의 단계와 그 후의 단계가 수행될 위치로 센서를 포함한 시스템의 일부를 움직일 수 있으며, 이 경우 수동 동작에 의해 로봇 시스템이 구동되는 상태가 된다.That is, the user can move a part of the system including the sensor to a position where one step and subsequent steps are to be performed in each step of the multi-step operation, and in this case, the robot system is driven by manual operation.

이때, 인식부는 상기 단계가 사용자에 의해 수행되는 수동 동작 상태임을 인식하며, 작업 모델에 기초하여 상기 수동 동작이 종료되는 시점에서 자동 동작의 수행을 지시할 수 있다. 예를 들어, 상기 인식부는 수동 동작으로 로봇 암이 움직인 상태에서 부품을 집어 들고 돌려놓을 수 있는 위치로 다시 이동하기 위한 지시를 통신으로 전송할 수 있다.In this case, the recognition unit may recognize that the step is a manual operation state performed by the user, and may instruct the automatic operation to be performed at the time when the manual operation is terminated based on the work model. For example, the recognition unit may transmit, through communication, an instruction for moving the robot arm back to a position where it can pick up and return a part in a state where the robot arm is moved by a manual operation.

또한, 상기 인식부는 사용자가 로봇 시스템의 한 부분을 다단계 작업 중 특정 단계를 수행하기 위한 위치로 움직인 것을 인식할 수도 있다. 이 경우 상기 인식부는 작업 모델에 기초하여, 사용자를 보조하기 위하여 다른 단계를 수행하도록 제어부에 지시할 수 있다. 예를 들어, 사용자가 로봇 암의 동작을 지시하기 위하여 하나의 로봇 암을 조작해야 하는 경우가 있는데, 이때, 자동 동작에 의해 사용자를 위하여 대상물을 고정시킨 상태를 유지하도록 할 수 있다.In addition, the recognition unit may recognize that the user has moved a part of the robot system to a position for performing a specific step during a multi-step operation. In this case, the recognition unit may instruct the control unit to perform another step to assist the user based on the work model. For example, there is a case in which the user has to operate one robot arm to instruct the operation of the robot arm. In this case, the object may be maintained in a fixed state for the user by automatic operation.

상기 작업 모델은 본 발명의 다단계 작업을 수행하기 위한 작업 모델로서 이는 4M1E(Man, Machine, Material, Method, Environment) 분석, ABL(Actual task Based Learning) 기반 분석, FOM(Factory Operation Management) 데이터 기반 분석, CPS(Cyber Physical System) 기반 공정 분석, 및 FEM(Factory Energy Management) 기반 공정 분석의 결과로부터 도출되어 구성된 것이다.The work model is a work model for performing the multi-step task of the present invention, which is 4M1E (Man, Machine, Material, Method, Environment) analysis, ABL (Actual task Based Learning) based analysis, FOM (Factory Operation Management) data based analysis , CPS (Cyber Physical System)-based process analysis, and FEM (Factory Energy Management)-based process analysis results are derived and constructed.

상기 4M1E는 스마트 팩토리의 생산활동과 연관된 자원으로서 4M의 자원인 작업자(Man), 기계설비(Machine), 자재(Material), 제품생산방법(Method)에 더하여 환경(Environment)을 포함하는 것이다. 이러한 4M1E는 데이터베이스화하여 활용할 수 있는데, 이를 이용하여 생산계획을 수립하고 작업 시나리오에 따른 사전 시뮬레이션을 통해 생산 실적을 예측할 수도 있고, 인사, 회계, 자재 및 수주 관리 등의 자원관리, 디지털 팩토리의 작업 상황을 실시간으로 파악하고 자원 별로 작업 실적을 취합하고 관리하는 현장 관리, 현장에서 수집된 각종 데이터를 이용하여 생산현장 데이터베이스를 제조하는 과정을 모두 포함할 수 있다. 따라서 4M1E 분석을 통해 수집되는 데이터는 협동 로봇을 이용한 공정에서 예측되는 다양한 상태들에 대한 모델링이 가능하며, 이를 통하여 작업 모델을 수립할 수 있게 된다.The 4M1E is a resource related to the production activity of the smart factory and includes the environment in addition to the 4M resources, such as a worker (Man), a machine facility (Machine), a material (Material), and a product production method (Method). This 4M1E can be used as a database, and it can be used to establish a production plan and predict production performance through pre-simulation according to work scenarios, resource management such as personnel, accounting, material and order management, and digital factory work. It can include both on-site management, which grasps the situation in real time and collects and manages work performance by resource, and the process of manufacturing a production site database using various data collected from the field. Therefore, the data collected through the 4M1E analysis enables modeling of various states predicted in the process using a collaborative robot, and through this, it is possible to establish a work model.

또한, FOM(Factory Operation Management) 데이터 기반으로 분석하여 작업 모델을 수정 및 관리할 수도 있다. 이를 위하여 상기 협동 로봇 시스템은 FOM 분석부를 별도로 구비할 수 있다. 상기 FOM 분석부는 빅데이터 모듈을 기반으로 핵심성과지표(KPI) 또는 LOB 분석을 포함하는 스마트 팩토리 운영관리 분석결과를 생성하는데, 이는 상기 협동 로봇 시스템의 작업 데이터를 기반으로 수행될 수 있다. 또한, 상기 빅데이터 분석자료와 스마트 팩토리 운영관리 분석결과를 상기 고객업체에 제공할 수도 있으며, 이러한 제공된 결과에 대한 피드백을 반영하여 작업 모델을 수정할 수도 있다.In addition, it is possible to revise and manage the work model by analyzing it based on FOM (Factory Operation Management) data. To this end, the cooperative robot system may separately include a FOM analysis unit. The FOM analysis unit generates a smart factory operation management analysis result including key performance indicator (KPI) or LOB analysis based on the big data module, which may be performed based on the work data of the cooperative robot system. In addition, the big data analysis data and the smart factory operation management analysis result may be provided to the customer company, and the work model may be modified by reflecting the feedback on the provided result.

또한, CPS(Cyber Physical System) 기반 공정 분석은 물리적인 시스템과 가상 시스템을 상호 연결시켜 스마트 팩토리의 공정을 수행하기 위한 시스템이다. 일 실시예에서 상기 CPS는 외부 센서로부터 온도, 습도, 압력, 전압 등의 센서 데이터를 수식하고, 로봇, 액추에이터, 선반, 연마기, 절삭기 등의 다양한 외부 설비로부터 설비 데이터를 수신하여 저장하게 된다. 이를 통해 관리자가 기입력한 제어, 설정, 조회 등을 포함하는 관리 명령과 이를 기반으로 한 작업 모델을 관리할 수 있다. 예를 들어, 관리 명령의 우선순위를 결정할 수 있고, 우선순위에 따라 관리 명령에 상응하는 역할을 수행하도록 작업 모델을 설정할 수 있다.In addition, CPS (Cyber Physical System)-based process analysis is a system for performing smart factory processes by interconnecting physical and virtual systems. In an embodiment, the CPS modifies sensor data such as temperature, humidity, pressure, and voltage from an external sensor, and receives and stores equipment data from various external equipment such as a robot, an actuator, a lathe, a grinder, and a cutting machine. Through this, it is possible to manage management commands including controls, settings, inquiries, etc. entered by the administrator and a work model based on them. For example, the priority of the management command may be determined, and the work model may be set to perform a role corresponding to the management command according to the priority.

이를 위하여 상기 협동 로봇 시스템은 CPS 분석부를 별도로 구비할 수 있다. 상기 CPS 분석부는 스마트 팩토리의 공정 및 속성 정보를 등록, 관리 및 수정하고 데이터를 기반으로 시뮬레이션을 하기 위한 정보를 저장하며, 수득된 데이터의 유효성을 검증하여 기 입력된 관리 명령의 우선순위를 변경하거나 작업 모델을 변경할 수 있다. 또한, 상기 유효성의 검증에는 기준 알고리즘을 바탕으로 기계학습을 통한 딥 러닝 또는 내외부의 인공지능 모듈을 이용할 수도 있다. 또한, 상기 CPS 분석부가 시뮬레이션을 수행할 때 제품의 생산 수량의 변경, 제품 모델의 변경, 특정 공정 장애 시 우회 공정 등을 포함한 시뮬레이션을 할 수도 있다. 이러한 CPS 분석부에서 처리되는 데이터는 가상 데이터일 수 있다.To this end, the cooperative robot system may separately include a CPS analysis unit. The CPS analysis unit registers, manages, and modifies the process and attribute information of the smart factory, stores information for simulation based on data, and verifies the validity of the obtained data to change the priority of previously entered management commands or You can change the working model. In addition, for verification of the validity, deep learning through machine learning or an internal/external artificial intelligence module may be used based on a reference algorithm. In addition, when the CPS analysis unit performs the simulation, a simulation including a change in the production quantity of a product, a change in a product model, a bypass process in case of a specific process failure, etc. may be performed. Data processed by the CPS analyzer may be virtual data.

상기 CPS 분석에 대하여 자동차 배기를 감소시킬 수 있는 외기 흡입 덕트(air intake duct_를 생산하는 공정을 예로 들면 다음과 같다. 먼저, CPS 분석에 필요한 부품을 inventor를 활용하여 3D 모델링을 제작한다. 상기 3D 모델링한 부품을 CPS 프로그램에 적용 가능한 형식의 파일로 변경하고, 이를 이용하여 CPS 제작 프로세스를 수립한다. 다음으로 상기 프로세스에 따라 장비 및 물류를 배치하고 레이아웃을 제작한다. 이와 같은 작업을 통해 시뮬레이션을 하고 상기 시뮬레이션에 따라 로봇의 동작에 필요한 포인트를 학습하는 작업을 수행하게 된다. 이를 토대로 로봇을 가동하면 도 2에서와 같이 CPS 기반 공정 분석의 적용 전과 비교하여 진동융착용 로봇과 작업자의 가동 실적이 평균 58.8%에서 89.8%로 크게 향상되는 것을 알 수 있다. 또한, 시간당 생산량(UPH)을 분석한 결과 도 3에서와 같이 CPS 기반 공정 분석 적용 전과 비교하여 43.3%의 생산성 향상을 나타내는 것을 확인하였다.For the CPS analysis, the process of producing an air intake duct_ capable of reducing automobile exhaust is as follows as an example. First, 3D modeling is produced using Inventor for parts necessary for CPS analysis. Change the 3D modeled parts into a file in a format applicable to the CPS program, and use it to establish the CPS manufacturing process Next, arrange equipment and logistics according to the above process and create a layout. Simulation through these operations According to the above simulation, the task of learning the points necessary for the operation of the robot is performed.When the robot is operated based on this, the operation performance of the vibration welding robot and the operator compared to before the application of CPS-based process analysis as shown in Fig. 2. It can be seen that this average is significantly improved from 58.8% to 89.8% In addition, as a result of analyzing the output per hour (UPH), it was confirmed that the productivity improved by 43.3% compared to before the application of the CPS-based process analysis as shown in FIG. .

상기 CPS 기반 공정 분석을 수행한 결과는 상기 인식부에 전송되며, 상기 인식부는 상기 CPS 기반 공정 분석을 통해 다단계 작업의 작업 모델을 수정하고 이를 저장할 수 있다. 또한, 상기 CPS 기반 공정 분석은 로봇 시스템에 있어서는 상기 로봇의 작동부에 구비되는 센서로부터 데이터를 수신함으로써 수행되는데, 이외에도 스마트 팩토리에서의 설비 데이터뿐만 아니라 상기 로봇 시스템 외의 외부 센서로부터 수득되는 데이터도 수신하여 이를 취합하여 공정 분석을 수행할 수 있다. 또한, 상기 공정 분석은 상기 인식부가 상기 센서로부터 수신한 데이터, 설비 데이터, 외부 센서로부터 수득된 데이터를 모두 분석하며, 이를 통해 분석 데이터를 만들게 된다. 이러한 분석 데이터는 인식부에서 시뮬레이션 할 수 있으며, 만일 데이터의 크기가 너무 큰 경우에는 상기 분석 데이터를 외부 컴퓨터로 전송하여 상기 외부 컴퓨터에서 분석 데이터의 처리와 시뮬레이션을 수행할 수도 있게 된다. 이러한 시뮬레이션은 기계학습을 통한 딥 러닝 또는 내외부의 인공지능 모듈을 이용하여 수행할 수 있는데, 이러한 기계학습이나 인공지능 모듈의 활용을 통해 상기 다단계 작업의 작업 모델을 자동으로 업데이트할 수 있게 된다. 또한, 상기 업데이트된 작업 모델은 상기 인식부에 추가로 저장될 수 있다.A result of performing the CPS-based process analysis is transmitted to the recognition unit, and the recognition unit may modify the work model of the multi-step job through the CPS-based process analysis and store it. In addition, the CPS-based process analysis is performed by receiving data from a sensor provided in the operating unit of the robot in the robot system. Thus, it is possible to perform process analysis by collecting them. In addition, in the process analysis, the recognition unit analyzes all data received from the sensor, equipment data, and data obtained from an external sensor, thereby creating analysis data. The analysis data may be simulated by the recognition unit, and if the size of the data is too large, the analysis data may be transmitted to an external computer to process and simulate the analysis data in the external computer. Such a simulation can be performed using deep learning through machine learning or an internal or external artificial intelligence module, and the work model of the multi-step task can be automatically updated through the use of such machine learning or artificial intelligence module. In addition, the updated working model may be additionally stored in the recognition unit.

또한, FEM(Factory Energy Management) 기반 공정 분석을 통한 작업 모델의 수정 또는 관리도 가능하다. 상기 FEM은 공장 에너지 관리 체계로서 에너지의 효율적 사용을 관리할 수 있는 것이며, 스마트 팩토리의 생산 효율에 영향을 미치는 인자를 효율적으로 관리할 수 있도록 해 준다. 이를 위하여 상기 협동 로봇 시스템은 FEM 분석부를 별도로 구비할 수 있다. 상기 FEM 분석부는 FOM과 마찬가지로 빅데이터 모듈을 기반으로 스마트 팩토리의 에너지 관리 분석결과를 생성하는데, 이는 상기 협동 로봇 시스템의 작업 데이터를 기반으로 생성될 수 있다. 또한, 상기 빅데이터 분석자료와 에너지 관리 분석결과를 토대로 작업 모델을 수정할 수 있다.In addition, it is possible to modify or manage the work model through FEM (Factory Energy Management)-based process analysis. The FEM is a factory energy management system that can manage the efficient use of energy, and makes it possible to efficiently manage factors affecting the production efficiency of the smart factory. To this end, the cooperative robot system may separately include an FEM analysis unit. The FEM analysis unit generates an energy management analysis result of a smart factory based on a big data module like the FOM, which may be generated based on the work data of the cooperative robot system. In addition, it is possible to modify the work model based on the big data analysis data and energy management analysis results.

또한, 상기 제어부는 상기 인식부와 통신하여 작동되는데, 상기 제어부는 상기 인식부로부터 신호를 수신하여 상기 로봇의 작동부를 제어함으로써 다단계 작업을 수행할 수 있게 된다.In addition, the control unit is operated in communication with the recognition unit, and the control unit receives a signal from the recognition unit and controls the operation unit of the robot to perform a multi-step operation.

이상에서 설명한 본 발명은 전술한 실시예에 의해 한정되는 것은 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능함은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명백한 것이다.The present invention described above is not limited by the above-described embodiments, and various substitutions, modifications, and changes are possible within the scope without departing from the technical spirit of the present invention. it is clear to one

Claims (3)

사용자 인터페이스부 및 사용자가 상기 사용자 인터페이스부를 조종할 때 상기 사용자가 취한 동작을 인식하도록 상기 사용자 인터페이스부와 통신하는 인식부, 상기 인식부와 통신하는 제어부, 및 상기 제어부와 통신하여 제어되는 로봇의 작동부를 포함하는 다단계 작업을 수행하는 협동 로봇 시스템에 있어서,
상기 인식부는 상기 다단계 작업의 작업 모델에 기반하여 상기 사용자가 상기 사용자 인터페이스부를 조종하는 동안 상기 사용자가 취한 동작을 인식하며,
상기 인식부는 수동 및 자동 동작을 시작과 완료를 인식하며,
상기 인식부는 상기 수동 동작이 완료되면 상기 다단계 작업의 작업 모델에 기반하여 상기 로봇의 작동부가 자동 동작을 수행하도록 상기 제어부에 지시하는 것을 특징으로 하는 협동 로봇 시스템.
A user interface unit and a recognition unit communicating with the user interface unit to recognize an action taken by the user when the user manipulates the user interface unit, a control unit communicating with the recognition unit, and operation of a robot controlled by communicating with the control unit A collaborative robot system for performing multi-step tasks including a unit,
The recognition unit recognizes an action taken by the user while the user manipulates the user interface unit based on the task model of the multi-step task,
The recognition unit recognizes the start and completion of manual and automatic operations,
The cooperative robot system, characterized in that the recognition unit instructs the control unit to perform an automatic operation of the operation unit of the robot based on the work model of the multi-step task when the manual operation is completed.
청구항 1에 있어서,
상기 다단계 작업의 작업 모델은 4M1E(Man, Machine, Material, Method, Environment) 분석, FOM(Factory Operation Management) 데이터 기반 분석, CPS(Cyber Physical System) 기반 공정 분석, 및 FEM(Factory Energy Management) 기반 공정 분석의 결과로부터 도출되는 것을 특징으로 하는 협동 로봇 시스템.
The method according to claim 1,
The work model of the multi-step operation is 4M1E (Man, Machine, Material, Method, Environment) analysis, FOM (Factory Operation Management) data based analysis, CPS (Cyber Physical System) based process analysis, and FEM (Factory Energy Management) based process A cooperative robot system, characterized in that it is derived from the results of the analysis.
청구항 1에 있어서,
상기 인식부는 CPS(Cyber Physical System) 기반 공정 분석을 통한 다단계 작업의 작업 모델을 저장하며,
상기 CPS 기반 공정 분석은 상기 로봇의 작동부에 구비되는 센서로부터 데이터를 수신하며,
상기 인식부는 상기 센서로부터 수신한 데이터를 분석하여 분석 데이터를 만들고, 상기 분석 데이터를 시뮬레이션하여 상기 다단계 작업의 작업 모델을 업데이트하는 것을 특징으로 하는 협동 로봇 시스템.
The method according to claim 1,
The recognition unit stores the work model of multi-step work through CPS (Cyber Physical System)-based process analysis,
The CPS-based process analysis receives data from a sensor provided in the operating unit of the robot,
The recognition unit generates analysis data by analyzing the data received from the sensor, and by simulating the analysis data to update the work model of the multi-step task.
KR1020200180386A 2020-12-22 2020-12-22 Cooperation robot system KR20220089828A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200180386A KR20220089828A (en) 2020-12-22 2020-12-22 Cooperation robot system
PCT/KR2020/018948 WO2022139025A1 (en) 2020-12-22 2020-12-23 Collaborative robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200180386A KR20220089828A (en) 2020-12-22 2020-12-22 Cooperation robot system

Publications (1)

Publication Number Publication Date
KR20220089828A true KR20220089828A (en) 2022-06-29

Family

ID=82159939

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200180386A KR20220089828A (en) 2020-12-22 2020-12-22 Cooperation robot system

Country Status (2)

Country Link
KR (1) KR20220089828A (en)
WO (1) WO2022139025A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2637594A4 (en) * 2010-11-11 2015-05-06 Univ Johns Hopkins Human-machine collaborative robotic systems
KR101956703B1 (en) * 2016-09-13 2019-03-13 (주)코에버정보기술 Integrated monitoring system and method thereof
KR101913343B1 (en) * 2017-02-10 2018-10-30 (주)에이시에스 Smart factory mobile application management system using KPI
KR101935652B1 (en) * 2017-03-06 2019-01-04 한밭대학교 산학협력단 System and Method of Smart Factory Operation Management Solution Service Using Big Data Platform
KR102137642B1 (en) * 2018-04-11 2020-07-27 (주) 유비씨 Cps system for smart factories

Also Published As

Publication number Publication date
WO2022139025A1 (en) 2022-06-30

Similar Documents

Publication Publication Date Title
Xu Machine Tool 4.0 for the new era of manufacturing
Li et al. AR-assisted digital twin-enabled robot collaborative manufacturing system with human-in-the-loop
Xia et al. A digital twin to train deep reinforcement learning agent for smart manufacturing plants: Environment, interfaces and intelligence
CN111061232A (en) Production line design and optimization method based on digital twinning
Liu et al. Probing an intelligent predictive maintenance approach with deep learning and augmented reality for machine tools in IoT-enabled manufacturing
CN111857065A (en) Intelligent production system and method based on edge calculation and digital twinning
CN111512254A (en) System and method for robot learning of industrial tasks based on human demonstration
CN107832497A (en) A kind of intelligent workshop fast custom design method and system
EP3819733A1 (en) Creation of a digital twin from a mechanical model
US11782427B2 (en) Augmented reality human machine interface testing
Liu et al. Digital twin-enabled advance execution for human-robot collaborative assembly
CN102317044A (en) Industrial robot system
US20220156433A1 (en) Industrial network communication emulation
CN104049598B (en) The control system and method based on deterministic optimization of linear processes system
US11675936B2 (en) Unifying multiple simulation models
Shi et al. A cognitive digital twins framework for human-robot collaboration
CN116125914A (en) Simulation method, simulation system and simulation software based on real production line
Ko et al. A study on manufacturing facility safety system using multimedia tools for cyber physical systems
Othman et al. An overview on STEP-NC compliant controller development
Hu et al. An IoT-based cyber-physical framework for turbine assembly systems
KR20220089828A (en) Cooperation robot system
KR20220089998A (en) Collaboration system of smart factory in argumented reality
CN108711190B (en) MR/VR-based laser control system implementation method
Protic et al. Development of a novel control approach for collaborative robotics in i4 intelligent flexible assembling cells
Kirkpatrick Digital Twins in Advanced Manufacturing to Enhance Manufacturing Efficiency

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E601 Decision to refuse application