KR20230068530A - cooperative robot monitoring-control system - Google Patents

cooperative robot monitoring-control system Download PDF

Info

Publication number
KR20230068530A
KR20230068530A KR1020210154410A KR20210154410A KR20230068530A KR 20230068530 A KR20230068530 A KR 20230068530A KR 1020210154410 A KR1020210154410 A KR 1020210154410A KR 20210154410 A KR20210154410 A KR 20210154410A KR 20230068530 A KR20230068530 A KR 20230068530A
Authority
KR
South Korea
Prior art keywords
robot
collaborative
information
work
control
Prior art date
Application number
KR1020210154410A
Other languages
Korean (ko)
Inventor
김용호
유경석
Original Assignee
주식회사 소이넷
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 소이넷 filed Critical 주식회사 소이넷
Priority to KR1020210154410A priority Critical patent/KR20230068530A/en
Publication of KR20230068530A publication Critical patent/KR20230068530A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1684Tracking a line or surface by means of sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 협동 로봇 모니터링 제어 시스템에 관한 것으로서, 보다 상세하게는 3D비전(3D센서) 기술, RGB 카메라 영상정보 등을 통해 획득되는 협동 로봇 동작의 시작점, 이동 경로 상의 경유 지점 및 도착점과 작업 환경에 대한 실시간 모니터링이 가능한 동시에, 작업자 등 사용자의 편의성이 개선된 스마트 티칭펜던트(teaching pendent)를 통해 모니터링 및 제어의 대상이 되는 협동 로봇의 관절의 움직임 상태 등에 대한 분석을 기반으로 협동 로봇의 지능제어가 가능한 공정인식 및 자동모션생성 알고리즘을 활용하는 협동 로봇 지능제어를 위한 모니터링 제어 시스템에 관한 것이다.The present invention relates to a collaborative robot monitoring and control system, and more particularly, to a starting point of a cooperative robot operation obtained through 3D vision (3D sensor) technology, RGB camera image information, etc. Intelligent control of collaborative robots is possible based on analysis of the joint movement conditions of collaborative robots that are subject to monitoring and control through a smart teaching pendant that enables real-time monitoring and improves the convenience of users such as workers. It is about a monitoring control system for intelligent control of collaborative robots utilizing process recognition and automatic motion generation algorithms.

Description

협동 로봇 지능제어를 위한 모니터링 제어 시스템 {cooperative robot monitoring-control system}Monitoring and control system for collaborative robot intelligent control {cooperative robot monitoring-control system}

본 발명은 협동 로봇 모니터링 제어 시스템에 관한 것으로서, 보다 상세하게는 3D비전(3D센서) 기술, RGB 카메라 영상정보 등을 통해 획득되는 협동 로봇 동작의 시작점, 이동 경로 상의 경유 지점 및 도착점과 작업 환경에 대한 실시간 모니터링이 가능한 동시에, 작업자 등 사용자의 편의성이 개선된 스마트 티칭펜던트(teaching pendent)를 통해 협동 로봇의 동작 등에 대한 제어나 학습이 가능한 협동 로봇 지능제어를 위한 모니터링 제어 시스템에 관한 것이다.The present invention relates to a collaborative robot monitoring and control system, and more particularly, to a starting point of a cooperative robot operation obtained through 3D vision (3D sensor) technology, RGB camera image information, etc. The present invention relates to a monitoring control system for intelligent control of a collaborative robot capable of real-time monitoring of a cooperative robot and capable of controlling or learning the operation of a cooperative robot through a smart teaching pendant with improved user convenience such as a worker.

또한 본 발명은 제어의 대상이 되는 협동 로봇의 관절의 움직임 상태 등에 대한 분석을 기반으로 협동 로봇의 지능제어가 가능한 공정인식 및 자동모션생성 알고리즘을 활용하는 협동 로봇 지능제어를 위한 모니터링 제어 시스템에 관한 것이기도 하다.In addition, the present invention relates to a monitoring control system for intelligent control of a cooperative robot utilizing a process recognition and automatic motion generation algorithm capable of intelligent control of a cooperative robot based on analysis of the motion state of the joint of the cooperative robot to be controlled. it is also

사람과 근접한 곳에서 작동하는 로봇으로 통상적으로 정의되는 협동 로봇은 IoT와 같은 정보통신기술과 로봇 공학, 인공지능 기술과 센싱 기술 등의 발전에 따라 사람과 같은 공간에서 일할 수 있는 협동 로봇이 산업 전방에 걸쳐 확대되고 있다.Collaborative robots, which are commonly defined as robots that operate in close proximity to humans, are developing collaborative robots that can work in the same space as humans with advances in information and communication technologies such as IoT, robotics, artificial intelligence technologies, and sensing technologies. is expanding across

이러한 협동 로봇은 작업자가 필요에 따라 직접 교시하여 사용할 수 있고, 다양한 작업에 대해 작업자 등을 보조하는 수단으로써 적업 효율을 증대시킬 수 있는 동시에, 장기적으로 고정비를 절감할 수 있는 수단으로써도 최근 주목 받고 있디고 하다.These collaborative robots can be directly taught and used by workers as needed, and as a means of assisting workers, etc. for various tasks, they can increase work efficiency and, at the same time, have recently attracted attention as a means to reduce fixed costs in the long term. have and do

그러나 작업자와 충돌하는 등의 일이 발생할 위험성을 내포하고 있는 바, 충격량이 크지 않은 소형 중심으로 협동 로봇이 개발되어 활용되는 제약 사항(충격량을 줄이기 위한 주된 목적)이 있고, 사전 교시된 위치 기반의 작업만 수행되는 제약 사항 등과 같은 지속적인 한계가 지적되어 왔다.However, there is a risk of colliding with a worker, etc., and there are restrictions (the main purpose of reducing the amount of impact) that a collaborative robot is developed and used with a small center that does not have a large amount of impact. Persistent limitations have been pointed out, such as constraints that only work is performed.

또한 이와 함께 SI(System Integration)에 의존적인 자동화 및 제어 관련 시스템의 한계와 작업 진행을 위해 JIG 등 주변 장치의 설계 및 설치가 사전적으로 요구되는 한계점 역시 지속적으로 개선되어야 할 문제점으로 지적되고 있다.In addition, the limitations of automation and control-related systems dependent on SI (System Integration) and the limitations of requiring design and installation of peripheral devices such as JIG in advance for work progress are also pointed out as problems to be continuously improved.

대한민국 공개특허 제10-2021-0118380호(2021년 9월 30일 공개)Republic of Korea Patent Publication No. 10-2021-0118380 (published on September 30, 2021)

본 발명은, 전술한 문제점 해결을 위해 개발된 기술로, AI(인공지능) 기반 3D 비전 시스템과 로봇제어가 연동되는 자동모션생성 기술을 통합하여 작업을 스스로 인지하고 모션을 생성하는 협동 로봇 기술을 제공함에 있다. The present invention, as a technology developed to solve the above-mentioned problems, integrates an AI (artificial intelligence)-based 3D vision system and automatic motion generation technology in which robot control is interlocked to create a collaborative robot technology that recognizes a task and generates motion by itself. is in providing

전술한 본 발명의 목적 달성을 위해, 협동 로봇에 의해 수행되는 로봇 동작의 시작점, 이동 경로 상의 경유 지점 및 도착점 중 적어도 하나에 관한 정보를 3D 센서;를 통해 실시간 획득하고, 상기 3D 센서를 통해 획득(비전 정보)된 상기 협동 로봇 동작의 시작점, 이동 경로 상의 경유 지점 및 도착점 중 적어도 하나의 유형에 관한 정보에 기초하여 상기 협동 로봇의 위치, 상태 및 동작 중 적어도 하나에 대한 제어가 가능한 컨트롤 박스; 및 상기 컨트롤 박스와 통신 네트워크;를 통해 유선 또는 무선으로 연결되며, 상기 협동 로봇의 위치, 상태 및 동작 중 적어도 하나의 획득된 정보 및 미리 학습된 패턴에 따라 설정된 작업 환경 내에서의 상기 협동 로봇의 위치, 상태 및 동작 중 적어도 하나에 대한 제어를 유지관리할 수 있는 스마트 티칭펜던트;를 포함하여, 3D 비전 일체형 협동 로봇의 모니터링 제어 플랫폼의 구현이 가능하며, 이를 통해 작업자 등과의 충돌 회피 모션을 포함한 작업을 스스로 인지하고 모션을 생성하는 행동지능을 가지는 것을 특징으로 하는 협동 로봇 지능제어를 위한 모니터링 제어 시스템이 제공될 수 있다.In order to achieve the object of the present invention described above, information on at least one of a starting point of a robot operation performed by a collaborative robot, a passing point on a moving path, and a destination point is obtained in real time through a 3D sensor, and obtained through the 3D sensor A control box capable of controlling at least one of a position, state, and operation of the collaborative robot based on (vision information) information about at least one type of a starting point, a passing point, and a destination point on a movement path; and a control box and a communication network; connected by wire or wirelessly, and of the cooperative robot in a work environment set according to at least one of acquired information and a pre-learned pattern among the location, state, and operation of the cooperative robot. It is possible to implement a monitoring and control platform for a 3D vision-integrated collaborative robot, including a smart teaching pendant capable of maintaining control of at least one of position, state, and operation, including collision avoidance motion with a worker, etc. A monitoring control system for intelligent control of a collaborative robot, characterized in that it has behavioral intelligence capable of self-recognizing tasks and generating motions, may be provided.

또한 본 발명에 따른 상기 컨트롤 박스는,상기 3D 센서를 통해 실시간 모니터링되는 협동 로봇의 위치, 상태 및 동작 중 적어도 하나의 정보를 기반으로 미리 설정된 3D 좌표계 상에서의 상기 협동 로봇의 전체 또는 특정 부위의 자세를 추론할 수 있는 비전 프로세스;를 더 포함하는 것을 특징으로 하는 협동 로봇 지능제어를 위한 모니터링 제어 시스템의 형태로도 제공될 수 있다.In addition, the control box according to the present invention determines the posture of the whole or a specific part of the cooperative robot on a preset 3D coordinate system based on at least one information among the position, state, and operation of the cooperative robot monitored in real time through the 3D sensor. It can also be provided in the form of a monitoring control system for intelligent control of collaborative robots, characterized in that it further includes a vision process capable of inferring.

또한 본 발명에 따른 상기 협동 로봇 지능제어를 위한 모니터링 제어 시스템은, 작업자의 직접 교시(teaching) 또는 미리 설정된 워크플로우에 따라 작업을 수행하는 상기 협동 로봇이 설정된 동작을 수행하는 동안, 상기 협동 로봇의 전체 또는 특정 부위의 위치, 자세 및 동작 중 적어도 하나를 실시간 모니터링할 수 있는 RGB 카메라;를 더 포함하되, 상기 컨트롤 박스는, 상기 비전 프로세스를 통해, 상기 RGB카메라를 통해 모니터링 되는 실시간 이미지(동영상) 정보를 3차원 포인트 클라우드 기반을 통해 3차원 모델로 생성할 수 있는 것을 특징으로 하는, 협동 로봇 지능제어를 위한 모니터링 제어 시스템의 형태로도 제공이 가능하다.In addition, in the monitoring and control system for intelligent control of the collaborative robot according to the present invention, while the cooperative robot performing a task according to direct teaching by an operator or a preset workflow performs a set operation, the control of the cooperative robot An RGB camera capable of real-time monitoring of at least one of the position, posture, and motion of the whole or a specific part; wherein the control box further includes, through the vision process, a real-time image (video) monitored through the RGB camera. It can also be provided in the form of a monitoring and control system for intelligent control of collaborative robots, characterized in that information can be generated as a three-dimensional model through a three-dimensional point cloud base.

또한 상기 스마트 티칭펜던트(teaching pendent)는, 상기 협동 로봇의 설정된 단부의 위치 정보(x, y, z 위치와 회전 x, 회전 y, 회전 z)를 미리 지정하는 동시에, 상기 협동 로봇의 설정된 단부가 설정된 워크플로우에 따라 지정된 교시위치에 도달하면 다음 작업으로 진행하기 위한 조건을 비교하고 상기 조건이 만족이 될 시, 작업자가 지정한 다음 작업으로 반복 동작 작업을 수행할 수 있도록 하도록 하되, 작업자가 상기 협동 로봇에 워크플로우 정보를 직접 교시할 수 있는 인터페이스를 가지는 로봇 인터페이스 앱; 및 상기 협동 로봇이 위치한 작업 환경 내에서 획득 가능한 비전 정보와 정합 가능하도록 지원하는 비전 인터페이스 앱;을 포함하는 것을 특징으로 하는 협동 로봇 지능제어를 위한 모니터링 제어 시스템의 구성을 통해서도 전술한 본 발명의 목적 달성이 가능하게 된다.In addition, the smart teaching pendant pre-designates the location information (x, y, z position, rotation x, rotation y, and rotation z) of the set end of the collaborative robot, and at the same time, the set end of the collaborative robot When the specified teaching position is reached according to the set workflow, the conditions for proceeding to the next task are compared, and when the condition is satisfied, the operator performs the repetitive operation task with the next task designated by the operator. A robot interface app having an interface capable of directly teaching the robot workflow information; The purpose of the present invention described above through the configuration of the monitoring control system for intelligent control of collaborative robots, characterized in that it includes; and a vision interface app that supports matching with vision information obtainable within the working environment where the collaborative robot is located. it is possible to achieve

또한 상기 컨트롤 박스는, 상기 협동 로봇을 제어하여 상기 협동 로봇 동작의 작업 유형 및 워크플로우에 따라 상기 협동 로봇 동작이 수행되는 작업 환경에 관한 정보를 획득하는 작업 환경 측정부; 상기 협동 로봇을 제어하여 상기 협동 로봇 동작의 작업 유형 및 워크플로우에 따라 상기 협동 로봇 동작에 관한 작업 정보를 획득하는 작업 정보 수신부; 및 획득한 상기 작업 환경에 관한 정보 및 상기 협동 로봇 동작에 관한 작업 정보에 기초하여 상기 협동 로봇 동작의 작업 유형 및 워크플로우에 따라 상기 협동 로봇이 동작을 수행하도록 상기 로봇을 제어하는 로봇 동작 제어부를 포함하되, 상기 작업 환경 측정부는, 작업자가 상기 협동 로봇을 직접 움직여서 위치와 움직임을 알려주는 직접 교시에 의해 상기 작업 유형 및 워크플로우에 따라 상기 협동 로봇을 동작시키면서 상기 협동 로봇 동작의 시작점, 이동 경로 상의 경유 지점 및 도착점을 포함하는 상기 작업 환경에 관한 정보를 획득하고, 상기 작업 정보 수신부는,작업자가 상기 협동 로봇을 직접 움직여서 위치와 움직임을 알려주는 직접 교시에 의해 상기 작업 유형 및 워크플로우에 따라 상기 로봇을 동작시키면서 상기 협동 로봇의 동작에 기초하여 생성되는 상기 협동 로봇 동작의 특성을 포함하는 상기 협동 로봇 동작에 관한 작업 정보를 획득하는 것을 특징으로 하는, 협동 로봇 지능제어를 위한 모니터링 제어 시스템의 구성을 통한 본 발명의 목적 달성도 고려될 수 있다.In addition, the control box may include: a work environment measurement unit that controls the collaborative robot to obtain information about a working environment in which the cooperative robot operation is performed according to a work type and a workflow of the cooperative robot operation; a work information receiving unit configured to control the collaborative robot to obtain work information related to an operation of the cooperative robot according to a work type and a workflow of the cooperative robot operation; and a robot motion control unit for controlling the robot to perform an operation according to the work type and workflow of the cooperative robot operation based on the obtained information on the working environment and the job information on the operation of the collaborative robot. The working environment measuring unit may operate the cooperative robot according to the work type and workflow by direct teaching in which a worker directly moves the cooperative robot to inform the location and movement of the cooperative robot, and the starting point and movement path of the cooperative robot operation. Obtains information on the work environment including a passing point and a destination on the work, and the work information receiving unit is configured according to the work type and workflow by direct teaching in which a worker directly moves the collaborative robot to inform the location and movement. A monitoring and control system for intelligent control of a collaborative robot, characterized in that, while operating the robot, work information on the operation of the cooperative robot including characteristics of the operation of the cooperative robot generated based on the operation of the cooperative robot is acquired. Achievement of the object of the present invention through configuration may also be considered.

이와 함께 본 발명에 따른 상기 작업 환경 측정부는, 상기 직접 교시에 의해 상기 작업 유형 및 워크플로우에 따라 상기 협동 로봇이 동작을 수행하는 동안, 설정된 3D 센서 또는 RGB 카메라에 의해 상기 작업 환경에 관한 정보를 획득하는 것을 특징으로 하는, 협동 로봇 지능제어를 위한 모니터링 제어 시스템의 형태로도 제공이 가능하게 된다.In addition, the work environment measurement unit according to the present invention obtains information about the work environment by a set 3D sensor or RGB camera while the collaborative robot performs an operation according to the work type and workflow by the direct teaching. It is also possible to provide in the form of a monitoring control system for intelligent control of collaborative robots, characterized in that acquired.

전술한 본 발명의 목적 및 해결 수단에 의할 경우, 3D 비전 일체형 협동 로봇의 모니터링 제어 플랫폼의 구현이 가능하며, 이를 통해 작업자 등과의 충돌 회피 모션을 포함한 작업을 스스로 인지하고 모션을 생성하는 행동지능을 가지는 협동 로봇 기술을 제공할 수 있게 된다.According to the above object and solution of the present invention, it is possible to implement a monitoring and control platform for a 3D vision-integrated collaborative robot, and through this, behavioral intelligence that recognizes tasks by itself and generates motion, including collision avoidance motion with a worker, etc. It is possible to provide a collaborative robot technology having a.

다만, 본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 해석되어야 한다.However, the effect according to the present invention is not limited by the contents exemplified above, and more diverse effects should be included and interpreted within this specification.

도 1은 본 발명의 일 실시예에 따른 딥러닝 기반 3D 작업의 인식이 가능한 협동 로봇 지능제어를 위한 모니터링 제어 시스템의 구성을 개략적으로 표현한 도면이다.
도 2는 본 발명의 일 실시예에 따른 클라우드를 기반으로 적어도 하나 이상의 협동 로봇에 대한 학습 데이터 제공 및 RGB카메라 등을 기반으로 획득되는 작업 정보 등을 기반으로 협업 로봇의 지능제어를 수행하는 모식도를 나타내고 있는 도면이다.
도 3은 본 발명에 일 실시예에 따른 협동 로봇 지능제어를 위한 모니터링 제어 시스템을 통해 복수개의 작업 대상물을 3D 차원에서 추적하여 작업 대응할 수 있는 개념을 나타내고 있는 도면이다.
도 4는 딥러닝 기반의 알고리즘 연산 고속화를 위한 프로세싱 개념도를 나타내고 있다.
1 is a diagram schematically illustrating the configuration of a monitoring control system for intelligent control of a collaborative robot capable of recognizing a deep learning-based 3D task according to an embodiment of the present invention.
2 is a schematic diagram of providing learning data for at least one collaborative robot based on a cloud and performing intelligent control of a collaborative robot based on work information acquired based on an RGB camera, etc., according to an embodiment of the present invention. It is a drawing showing
3 is a diagram showing a concept of responding to a task by tracking a plurality of work objects in 3D dimension through a monitoring control system for intelligent control of a collaborative robot according to an embodiment of the present invention.
4 shows a conceptual diagram of processing for speeding up algorithm operation based on deep learning.

이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, the present invention will be described with reference to the accompanying drawings. However, the present invention may be embodied in many different forms and, therefore, is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉, 결합)"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.Throughout the specification, when a part is said to be "connected (connected, contacted, combined)" with another part, this is not only "directly connected", but also "indirectly connected" with another member in between. "Including cases where In addition, when a part "includes" a certain component, it means that it may further include other components without excluding other components unless otherwise stated.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "include" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

이하에서는 도 1 내지 도 3을 참조하여, 본 발명에 따른 협동 로봇 지능제어를 위한 모니터링 제어 시스템(100)에 대해 기술하기로 한다.Hereinafter, with reference to FIGS. 1 to 3, a monitoring control system 100 for intelligent control of a collaborative robot according to the present invention will be described.

도 1은 본 발명의 일 실시예에 따른 딥러닝 기반 3D 작업의 인식이 가능한 협동 로봇 지능제어를 위한 모니터링 제어 시스템(100)의 구성을 개략적으로 표현한 도면이다. 또한 도 2는 본 발명의 일 실시예에 따른 클라우드를 기반으로 적어도 하나 이상의 협동 로봇에 대한 학습 데이터 제공 및 RGB카메라 등을 기반으로 획득되는 작업 정보 등을 기반으로 협업 로봇의 지능제어를 수행하는 모식도를 나타내고 있는 도면이다. 도 3은 본 발명에 일 실시예에 따른 협동 로봇 지능제어를 위한 모니터링 제어 시스템(100)을 통해 복수개의 작업 대상물을 3D 차원에서 추적하여 작업 대응할 수 있는 개념을 나타내고 있는 도면이다.1 is a diagram schematically illustrating the configuration of a monitoring control system 100 for intelligent control of a collaborative robot capable of recognizing a deep learning-based 3D task according to an embodiment of the present invention. 2 is a schematic diagram of providing learning data for at least one collaborative robot based on a cloud according to an embodiment of the present invention and performing intelligent control of a collaborative robot based on work information acquired based on an RGB camera, etc. It is a drawing showing 3 is a diagram showing the concept of responding to a task by tracking a plurality of work objects in 3D dimension through the monitoring control system 100 for intelligent control of a collaborative robot according to an embodiment of the present invention.

본 발명에 따른 협동 로봇 지능제어를 위한 모니터링 제어 시스템(100)은 내외부 3D센서(비전센서 등) 및/또는 RGB 카메라 등과 연결된 컨트롤 박스(110) 및 스마트 티칭팬던트(130, (teaching pendent))를 포함할 수 있다. 이를 통해 협동 로봇 지능제어를 위한 모니터링 제어 시스템(100)은 3D 비전 일체형 협동 로봇의 모니터링 제어 플랫폼의 구현이 가능하며, 이를 통해 작업자 등과의 충돌 회피 모션을 포함한 작업을 스스로 인지하고 모션을 생성하는 행동지능을 제공할 수 있게 된다. 또한 비전 프로세서(111) 및 로봇 제어기(113)의 동기화(도 3 참조)를 통해 실시간으로 고속으로 이동하는 다양한 3D 형상과 모양을 가지는 작업 대상물을 추적 및 특정할 수 있는 기술적 특징 역시 가지고 있다.The monitoring control system 100 for intelligent control of a collaborative robot according to the present invention includes a control box 110 and a smart teaching pendant 130 connected to an internal and external 3D sensor (vision sensor, etc.) and/or an RGB camera. can include Through this, the monitoring control system 100 for intelligent control of collaborative robots can implement a monitoring and control platform for 3D vision-integrated collaborative robots. intelligence can be provided. In addition, it also has a technical feature capable of tracking and specifying work objects having various 3D shapes and shapes moving at high speed in real time through synchronization of the vision processor 111 and the robot controller 113 (see FIG. 3).

본 발명에 따른 컨트롤 박스(110)는 협동 로봇(1, 2, n)에 의해 수행되는 로봇 동작의 시작점, 이동 경로 상의 경유 지점 및 도착점 중 적어도 하나에 관한 정보를 3D 센서(11) 및/또는 카메라(12, RGB 카메라, 다중 RGB-D 카메라 등이 될 수 있다)를 통해 실시간 획득할 수 있다. 또한 본 발명에 따른 컨트롤 박스(110)는 3D 센서(11) 및/또는 카메라(12)를 통해 획득(비전 정보 등)되는 협동 로봇(1, 2, n) 동작의 시작점, 이동 경로 상의 경유 지점 및 도착점 중 적어도 하나의 유형에 관한 정보에 기초하여 협동 로봇((1, 2, n)의 위치, 상태 및 동작 중 적어도 하나에 대한 실시간 모니터링 및 제어가 가능한 독립된 장치 또는 PC나 서버, 통신 가능한 IT디바이스 내에서 구동되는 모듈이 될 수도 있다(도 2 및 도 3 참조).The control box 110 according to the present invention transmits information about at least one of the starting point of the robot operation performed by the cooperative robots 1, 2, and n, the passing point and the destination point on the movement path to the 3D sensor 11 and/or Real-time acquisition through cameras (can be 12, RGB cameras, multiple RGB-D cameras, etc.). In addition, the control box 110 according to the present invention is the starting point of the operation of the cooperative robots 1, 2, and n obtained through the 3D sensor 11 and/or the camera 12 (vision information, etc.), and the passing point on the movement path. and an independent device or PC or server capable of real-time monitoring and control of at least one of the location, state, and operation of the collaborative robot ((1, 2, n) based on information on the type of at least one of the destination points, or an IT capable of communication. It can also be a module driven in the device (see Figs. 2 and 3).

이를 위해 본 발명에 따른 컨트롤 박스(110)는 3D 센서(11)를 통해 실시간 모니터링되는 협동 로봇(1, 2, n)의 위치, 상태 및 동작 중 적어도 하나의 정보를 기반으로 미리 설정된 3D 좌표계 상에서의 협동 로봇(1, 2, n)의 전체 또는 특정 부위(일 예로 로봇 손가락 등의 단부나 팁, 팔꿈치 등이 될 수 있다)의 자세를 추론할 수 있는 비전 프로세스(111)를 포함할 수 있다.To this end, the control box 110 according to the present invention is based on at least one information of the position, state, and operation of the cooperative robots 1, 2, and n monitored in real time through the 3D sensor 11 on a preset 3D coordinate system. may include a vision process 111 capable of inferring the posture of all or a specific part (eg, an end, tip, elbow, etc. of a robot finger, etc.) of the cooperative robots 1, 2, n of .

본 발명에 따른 비전 프로세스(111)는 3D 센서(11) 및/또는 카메라(12)를 통해 획득된 실시간 이미지의 픽셀을 미리 결정된 좌표 시스템에 매핑하는 기능을 수행할 수 있다. 이 경우 타겟은 특징 패턴에 인레이드된(inlaid) 3D 코드와 같은 좌표 시스템(예를 들어, 일련의 체커보드의 X-Y-Z축 배열)을 정의하는 특징 또는 패턴 좌표 시스템을 정의하는 구별되는 기점(distinctive fiducial)을 포함할 수 있다. 즉 일 예로 본 발명에 따른 비전 프로세스(111)는 협동 로봇(1, 2, n)의 작업 대상이 되는 작업물 또는 작업 환경 등의 특징을 비전 센서나 카메라를 통해 획득하고, 획득된 이미지의 픽셀에 매핑을 통해 시스템이 타겟으로 교정되는 과정을 수행할 수 있다. 이 경우 교정 타겟의 전부 또는 일부의 이미지를 획득하는데 사용되는 적어도 하나의 3D 센서(11) 및/또는 카메라(12)의 경우 타겟의 특징(예를 들어, 타겟의 평면을 따른 x 및 y, z(높이) 및 x-y 평면에서 z축을 중심으로 하는 회전 θ) 또는 다른(예를 들어, 글로벌) 좌표 시스템에 의해 특정될 수 있게 된다.The vision process 111 according to the present invention may perform a function of mapping pixels of a real-time image obtained through the 3D sensor 11 and/or the camera 12 to a predetermined coordinate system. In this case, the target is a feature defining a coordinate system (e.g., the X-Y-Z axis arrangement of a series of checkerboards), such as a 3D code inlaid into a feature pattern, or a distinct fiducial point defining the pattern coordinate system. ) may be included. That is, as an example, the vision process 111 according to the present invention acquires characteristics of a work object or work environment to be operated by the cooperative robots 1, 2, and n through a vision sensor or a camera, and pixels of the acquired image. Through mapping to , the system can be calibrated to the target. In this case at least one 3D sensor 11 and/or camera 12 used to acquire images of all or part of the calibration target, the characteristics of the target (eg x and y, z along the plane of the target) (height) and rotation about the z-axis in the x-y plane θ) or other (eg global) coordinate system.

또한 본 발명에 따른 비전 프로세서(111)는 내장된 교정 애플리케이션을 포함할 수 있으며, 이를 통해 3D 센서(11) 및/또는 별도의 카메라(12)를 통해 획득된 타겟의 이미지로부터 하나 이상의 3D 센서(11) 및/또는 별도의 카메라(12)의 상대 위치를 추론할 수 있으며, 타겟의 기점은 개별 시야 내의 타겟에 대해 3D 센서(11) 및/또는 별도의 카메라(12)를 배향시키는데도 사용될 수 있다.In addition, the vision processor 111 according to the present invention may include a built-in calibration application, through which one or more 3D sensors ( 11) and/or the relative position of the separate camera 12 can be inferred, and the fiducial of the target can also be used to orient the 3D sensor 11 and/or the separate camera 12 relative to the target within the respective field of view. there is.

또한 본 발명에 따른 비전 프로세스(111)는 3D 센서(11) 및/또는 카메라(12)를 통해 촬영되는 깊이 및 RGB 이미지를 이용하여 깊이 카메라의 좌표계를 따르는 포인트 클라우드를 각 3D 센서(11) 및/또는 카메라(12)에서 획득하도록 할 수도 있다.In addition, the vision process 111 according to the present invention uses the depth and RGB images captured through the 3D sensor 11 and/or the camera 12 to create a point cloud following the coordinate system of the depth camera, respectively, by the 3D sensor 11 and the camera 12. / or may be obtained from the camera 12.

본 발명에 따른 카메라(12)는 3D 센서(11)와 일체형 또는 하나의 모듈로써 전술한 기능을 수행할 있으며, 이와 함께 작업자의 직접 교시(teaching) 또는 미리 설정된 워크플로우에 따라 작업을 수행하는 협동 로봇(1)이 설정된 동작을 수행하는 동안, 협동 로봇(1)의 전체 또는 특정 부위의 위치, 자세 및 동작 중 적어도 하나를 실시간 모니터링할 수 있는 RGB 카메라일 수 있다. 이 경우 컨트롤 박스(110)는, 비전 프로세스(111)를 통해, 카메라(12)를 통해 모니터링(획득) 되는 실시간 이미지(동영상, 스틸 이미지 등) 정보를 3차원 포인트 클라우드 기반을 통해 3차원 모델로 생성할 수도 있게 된다.The camera 12 according to the present invention can perform the above-described functions as an integrated unit or a single module with the 3D sensor 11, and together with this, direct teaching of the operator or cooperation to perform tasks according to a preset workflow It may be an RGB camera capable of real-time monitoring at least one of the position, posture, and motion of the whole or a specific part of the collaborative robot 1 while the robot 1 performs the set operation. In this case, the control box 110 transforms real-time image (video, still image, etc.) information monitored (acquired) through the camera 12 through the vision process 111 into a 3D model through a 3D point cloud base. can also be created.

또한 본 발명에 따른 3D 센서 및/또는 카메라(12)는 미리 설정된 협동 로봇(1, 2, n)의 전체 또는 설정된 일부(일 예로 특정한 회전, 굽힘 등의 동작이 가능한 관절이나 단부 등)를 이미지 기반으로 센싱(일종의 키넥티센서)할 수 있으며, 이를 통해 획득된 로봇 관절의 움직임이나 동작 등에 대한 데이터 역시 컨트롤 박스(110)로 전달되어 가공, 처리될 수 있다.In addition, the 3D sensor and/or camera 12 according to the present invention images all or a part of the previously set cooperative robots 1, 2, n (for example, joints or ends capable of specific rotation, bending, etc.) Based on this, it can be sensed (a kind of kinectic sensor), and the data on the movement or operation of the robot joint acquired through this can also be transmitted to the control box 110 and processed.

이에 의해, 본 발명에 따른 협동 로봇 지능제어를 위한 모니터링 제어 시스템(100)은 3D 센서 데이터, RGB 카메라 데이터 및 전술한 로봇 관절 데이터를 활용하여 영상 속 겹쳐진 시편을 Instance Segmentation하여 분할 및 3D 좌표계 상의 자세를 추론할 수 있게 되는 기술적 특징 역시 가지게 된다. 이를 위해 본 발명에 따른 비전 프로세서(111)는 기공지된 적어도 하나 이상 또는 하나 이상의 AI(인공지능) 기반의 추론 모델을 통합하여 3D 작업물의 인식 및 작업모션에 대한 알고리즘에 대한 구현 역시 가능하게 된다(도 4, 딥러닝 알고리즘 연산 프로세싱 개념도 참조).As a result, the monitoring control system 100 for intelligent control of collaborative robots according to the present invention utilizes 3D sensor data, RGB camera data, and the above-described robot joint data to perform instance segmentation of overlapping specimens in the image, segmentation, and posture on the 3D coordinate system It also has a technical feature that enables inference. To this end, the vision processor 111 according to the present invention integrates at least one or more AI (artificial intelligence)-based reasoning models that have been previously known, so that it is also possible to implement an algorithm for recognition of a 3D workpiece and work motion. (See also Fig. 4, deep learning algorithm operation processing concept).

도 4에 도시된 바와 같이, 본 발명에 따른 시스템(100), 보다 구체적으로는 로봇 제어기(130)는 AI(인공지능)을 기반으로 3차원 작업물을 실시간으로 정확하게 인식할 수 있게 되며, 이러한 작업물의 상태 및 정보 등을 기초로 협동 로봇(1)의 자세나 동작, 위치 등에 정보를 자동으로 생성하는 알고리즘 역시 포함할 수 있다.As shown in Figure 4, the system 100 according to the present invention, more specifically, the robot controller 130 can accurately recognize a three-dimensional workpiece in real time based on AI (artificial intelligence), such An algorithm for automatically generating information such as the posture, motion, position, etc. of the collaborative robot 1 based on the state and information of the workpiece may also be included.

또한 도 2에서 도시된 바와 같이, 본 발명에 따른 시스템(100)은 경량화 및 최적화되어 있는 AI(인공지능) 기반의 추론 모델을 통해 복수개의 협동 로봇(1, 2, n)과의 데이터 통신(일 예로 협동 로봇(1) 설정된 내부 또는 외측, 이격된 작업 공간에 설치된 3D 센서(11) 및/또는 카메라(12)를 통해 작업물 등에 대한 영상 이미지를 전달(실시간)받을 수 있는 동시에, 획득된 영상 이미지 정보를 기반으로 분석된 영상 인식 결과 데이터를 협동 로봇(1, 2, n)들에게 실시간 전송함으로써 협동 로봇(1)들의 작업물 특성 및 워크플로우에 따른 작업을 빠르고 정확하게 진행하도록 지원할 수 있게 된다.In addition, as shown in FIG. 2, the system 100 according to the present invention communicates data with a plurality of collaborative robots 1, 2, and n through an AI (artificial intelligence)-based reasoning model that is lightweight and optimized ( For example, the collaborative robot 1 may receive (real-time) a video image of a workpiece or the like through a 3D sensor 11 and/or a camera 12 installed in a set interior or exterior space, and at the same time obtain By transmitting the image recognition result data analyzed based on video image information to the cooperating robots (1, 2, n) in real time, it is possible to support the cobots (1) to quickly and accurately perform tasks according to the workpiece characteristics and workflow. do.

또한 본 발명에 따른 시스템(100)은 별도의 클라우드 학습 서버 등과 연동하여 새로운 작업물 처리나 대응 등이 필요한 상황에 맞춰 학습 데이터를 협동 로봇(1, 2, n)에 전송하거나 컨트롤 박스(110)에 전달하여 협동 로봇의 작업물 대응 능력을 고도화 시킬 수 있게 되며, 이와 동시에 작업자의 개입을 최소화할 수 있게 된다. 이 경우 채택될 수 있는 학습모델의 경우 Detectron2으로 segmentation 된 결과를 MaskRCNN에서 받아 classification 하는 방식 등이 고려될 수 있다. In addition, the system 100 according to the present invention transmits learning data to the cooperative robots 1, 2, n or control box 110 according to a situation in which new work processing or response is required in conjunction with a separate cloud learning server. , it is possible to enhance the ability of the collaborative robot to respond to the workpiece, and at the same time, it is possible to minimize the intervention of the operator. In this case, in the case of a learning model that can be adopted, a method of classification by receiving the result of segmentation with Detectron2 from MaskRCNN can be considered.

또한 전술한 본 발명의 목적 달성을 위해, 본 발명에 따른 시스템(100)은 협동 로봇(1)이 설치 및 운영되는 작업 공간(현장)의 공간 형상 정보, 협동 로봇(1)의 관절 데이터 및 작업물(pick & place 대상물)의 라벨 데이터 정보를 미리 저정하거나 외부의 별도 서버 등을 통해 입력받을 수 있다.In addition, in order to achieve the above object of the present invention, the system 100 according to the present invention provides space shape information of a work space (site) where the collaborative robot 1 is installed and operated, joint data and work of the collaborative robot 1 Label data information of the water (pick & place object) may be stored in advance or may be input through a separate external server.

또한 본 발명에 따른 다른 실시예에 의할 경우, 컨트롤 박스(110)는, 작업 환경 측정부, 작업 정보 수신부 및 로봇 동작 제어부를 포함할 수 있다.Also, according to another embodiment according to the present invention, the control box 110 may include a work environment measuring unit, a work information receiving unit, and a robot operation control unit.

이 경우 상기 작업 환경 측정부는, 협동 로봇(1)을 제어하여 협동 로봇(1) 동작의 작업 유형 및 워크플로우에 따라 협동 로봇(1) 동작이 수행되는 작업 환경에 관한 정보를 획득하는 것을 주요한 기능으로 하는 모듈을 지칭한다. 본 발명에 따른 작업 환경 측정부는, 작업자가 협동 로봇(1)을 직접 움직여서 위치와 움직임을 알려주는 직접 교시에 의해 상기 작업 유형 및 워크플로우에 따라 협동 로봇(1)을 동작시키면서 협동 로봇(1) 동작의 시작점, 이동 경로 상의 경유 지점 및 도착점을 포함하는 상기 작업 환경에 관한 정보를 획득할 수도 있다.In this case, the main function of the work environment measurement unit is to control the cooperating robot 1 to acquire information about the work environment in which the cobot 1 operates according to the work type and workflow of the cooperating robot 1. refers to a module with The working environment measurement unit according to the present invention operates the cooperative robot 1 according to the work type and workflow by direct teaching in which a worker directly moves the cooperative robot 1 to inform the position and movement of the cooperative robot 1. Information about the work environment including the start point of the operation, the passing point and the destination point on the movement route may be obtained.

또한 상기 작업 환경 측정부는, 상기 직접 교시에 의해 상기 작업 유형 및 워크플로우에 따라 상기 협동 로봇이 동작을 수행하는 동안, 설정된 3D 센서(11) 또는 카메라(12)에 의해 상기 작업 환경에 관한 정보를 획득할 수도 있다.In addition, the work environment measurement unit obtains information about the work environment by the set 3D sensor 11 or camera 12 while the collaborative robot performs an operation according to the work type and workflow by the direct teaching. may also be obtained.

상기 작업 정보 수신부는, 협동 로봇(1)을 제어하여 협동 로봇(1) 동작의 작업 유형 및 워크플로우에 따라 협동 로봇(1) 동작에 관한 작업 정보를 획득하는 것을 주요 기능으로 하는 모듈을 지칭한다. 이 경우 작업 정보 수신부는, 작업자가 협동 로봇(1)을 직접 움직여서 위치와 움직임을 알려주는 직접 교시에 의해 상기 작업 유형 및 워크플로우에 따라 협동 로봇(1)을 동작시키면서 협동 로봇의 동작에 기초하여 생성되는 상기 협동 로봇 동작의 특성에 대한 정보를 모니터링하는 기능을 추가적으로 포함할 수 있다.The work information receiving unit refers to a module whose main function is to acquire work information on the operation of the cooperative robot 1 according to the work type and workflow of the operation of the cooperative robot 1 by controlling the cooperative robot 1. . In this case, the work information receiving unit operates the cooperative robot 1 according to the work type and workflow by direct teaching in which the operator directly moves the cooperative robot 1 to inform the location and movement, and based on the operation of the cooperative robot A function of monitoring information about characteristics of the generated collaborative robot motion may be additionally included.

상기 로봇 동작 제어부는, 획득한 상기 작업 환경에 관한 정보 및 협동 로봇(1) 동작에 관한 작업 정보에 기초하여 협동 로봇(1) 동작의 작업 유형 및 워크플로우에 따라 상기 협동 로봇이 동작을 수행하도록 로봇(1)을 제어하는 기능을 수행하는 모듈을 지칭한다.The robot operation control unit causes the collaborative robot to perform an operation according to the work type and workflow of the operation of the cooperative robot 1 based on the acquired information on the working environment and the operation information on the operation of the cooperative robot 1. Refers to a module that performs a function of controlling the robot 1.

본 발명에 따른 스마트 티칭펜던트(130, teaching pendent)는 컨트롤 박스(110)와 통신 네트워크(150)를 통해 유선 및/또는 무선으로 연결되며, 협동 로봇(1)의 위치, 상태 및 동작 중 적어도 하나의 획득된 정보 및 미리 학습된 패턴에 따라 설정된 작업 환경 내에서의 협동 로봇(1)의 위치, 상태 및 동작 중 적어도 하나에 대한 제어를 유지관리할 수 있는 모듈로써, 별도 자체적인 독립 장비로 제공되거나, 디스플레이 화면을 가지는 PC, 태블릿 등 IT디바이스의 내부에서 구동 가능한 모듈(프로그램 내지 알고리즘)의 형태로 제공될 수 있다.The smart teaching pendant 130 according to the present invention is wired and/or wirelessly connected to the control box 110 through the communication network 150, and at least one of the position, state, and operation of the collaborative robot 1 A module capable of maintaining control of at least one of the position, state, and operation of the collaborative robot 1 within the set work environment according to the acquired information and pre-learned patterns of Alternatively, it may be provided in the form of a module (program or algorithm) that can be driven inside an IT device such as a PC or tablet having a display screen.

또한 본 발명에 따른 스마트 티칭펜던트(130)는 적어도 하나의 협동 로봇(1)의 설정된 단부의 위치 정보(x, y, z 위치와 회전 x, 회전 y, 회전 z)를 미리 지정하는 동시에, 협동 로봇(1)의 설정된 단부가 설정된 워크플로우에 따라 지정된 교시위치에 도달하면 다음 작업으로 진행하기 위한 조건을 비교하고 상기 조건이 만족이 될 시, 작업자가 지정한 다음 작업으로 반복 동작 작업을 수행할 수 있도록 모니터링 및 제어가 가능하다. 또한 이와 함께(또는 별도로) 작업자 등은 스마트 티칭펜던트(130)를 통해 협동 로봇(1)에 워크플로우 정보를 직접 교시할 수 있는 인터페이스를 가지는 로봇 인터페이스 앱(App, 설정된 디스플레이 화면을 통해 입출력이 가능)과 협동 로봇(1)이 위치한 작업 환경 내에서 획득 가능한 비전 정보(3D 센서(11) 및/또는 카메라(12)를 통해 획득)와 정합 가능하도록 지원하는 비전 인터페이스 앱(App)을 포함할 수 있다.In addition, the smart teaching pendant 130 according to the present invention designates in advance the location information (x, y, z position and rotation x, rotation y, rotation z) of the set end of at least one collaborative robot 1, and at the same time cooperates When the set end of the robot 1 reaches the designated teaching position according to the set workflow, the condition for proceeding to the next job is compared, and when the condition is satisfied, the operator can perform the repetitive operation with the next job designated by the operator. can be monitored and controlled. In addition, along with (or separately), a robot interface app (App) having an interface capable of directly teaching workflow information to the collaborative robot 1 through the smart teaching pendant 130, input and output is possible through a set display screen. ) and a vision interface app (App) that supports matching with vision information (obtained through the 3D sensor 11 and/or camera 12) obtainable within the work environment where the collaborative robot 1 is located. there is.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustrative purposes, and those skilled in the art can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 발명의 범위는 후술하는 청구범위에 의하여 나타내어지며, 청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts should be interpreted as being included in the scope of the present invention.

1: 협동 로봇(n)
100: 협동 로봇 지능제어를 위한 모니터링 제어 시스템
110: 컨트롤 박스
111: 비전 프로세스
113: 로봇 제어기
130: 스마트 티칭펜던트
150: 유선 및/또는 무선 네트워크
1: Collaborative robot (n)
100: monitoring control system for collaborative robot intelligent control
110: control box
111: vision process
113: robot controller
130: smart teaching pendant
150 wired and/or wireless network

Claims (6)

협동 로봇에 의해 수행되는 로봇 동작의 시작점, 이동 경로 상의 경유 지점 및 도착점 중 적어도 하나에 관한 정보를 3D 센서;를 통해 실시간 획득하고, 상기 3D 센서를 통해 획득(비전 정보)된 상기 협동 로봇 동작의 시작점, 이동 경로 상의 경유 지점 및 도착점 중 적어도 하나의 유형에 관한 정보에 기초하여 상기 협동 로봇의 위치, 상태 및 동작 중 적어도 하나에 대한 제어가 가능한 컨트롤 박스; 및
상기 컨트롤 박스와 통신 네트워크;를 통해 유선 또는 무선으로 연결되며, 상기 협동 로봇의 위치, 상태 및 동작 중 적어도 하나의 획득된 정보 및 미리 학습된 패턴에 따라 설정된 작업 환경 내에서의 상기 협동 로봇의 위치, 상태 및 동작 중 적어도 하나에 대한 제어를 유지관리할 수 있는 스마트 티칭펜던트;를 포함하여,
3D 비전 일체형 협동 로봇의 모니터링 제어 플랫폼의 구현이 가능하며, 이를 통해 작업자 등과의 충돌 회피 모션을 포함한 작업을 스스로 인지하고 모션을 생성하는 행동지능을 가지는 것을 특징으로 하는 협동 로봇 지능제어를 위한 모니터링 제어 시스템.
Information on at least one of a starting point of a robot operation performed by the collaborative robot, a passing point, and a destination point on a movement path is obtained in real time through a 3D sensor; a control box capable of controlling at least one of the position, state, and operation of the collaborative robot based on information about at least one type of a starting point, a passing point, and a destination point on a movement path; and
It is connected to the control box by wire or wirelessly through a communication network, and the position of the cooperative robot in a work environment set according to the pre-learned pattern and at least one information obtained from among the position, state, and operation of the cooperative robot. , a smart teaching pendant capable of maintaining control of at least one of a state and an operation; including,
It is possible to implement a monitoring control platform for 3D vision-integrated collaborative robots, through which it has behavioral intelligence that recognizes tasks, including collision avoidance motions with workers, etc. and generates motions. Monitoring control for intelligent control of collaborative robots. system.
청구항 1에 있어서,
상기 컨트롤 박스는,
상기 3D 센서를 통해 실시간 모니터링되는 협동 로봇의 위치, 상태 및 동작 중 적어도 하나의 정보를 기반으로 미리 설정된 3D 좌표계 상에서의 상기 협동 로봇의 전체 또는 특정 부위의 자세를 추론할 수 있는 비전 프로세스;를 포함하는 것을 특징으로 하는 협동 로봇 지능제어를 위한 모니터링 제어 시스템.
The method of claim 1,
The control box,
A vision process capable of inferring the posture of the whole or a specific part of the collaborative robot on a preset 3D coordinate system based on at least one of the position, state, and motion of the cooperative robot monitored in real time through the 3D sensor. A monitoring control system for intelligent control of collaborative robots.
청구항 2에 있어서,
상기 협동 로봇 지능제어를 위한 모니터링 제어 시스템은,
작업자의 직접 교시(teaching) 또는 미리 설정된 워크플로우에 따라 작업을 수행하는 상기 협동 로봇이 설정된 동작을 수행하는 동안, 상기 협동 로봇의 전체 또는 특정 부위의 위치, 자세 및 동작 중 적어도 하나를 실시간 모니터링할 수 있는 RGB 카메라;를 더 포함하되,
상기 컨트롤 박스는,
상기 비전 프로세스를 통해, 상기 RGB카메라를 통해 모니터링 되는 실시간 이미지(동영상) 정보를 3차원 포인트 클라우드 기반을 통해 3차원 모델로 생성할 수 있는 것을 특징으로 하는,
협동 로봇 지능제어를 위한 모니터링 제어 시스템.
The method of claim 2,
The monitoring control system for intelligent control of the collaborative robot,
At least one of the position, posture, and motion of the whole or a specific part of the collaborative robot is monitored in real time while the collaborative robot performing a task according to a worker's direct teaching or a preset workflow is performing a set operation. An RGB camera that can be further included,
The control box,
Characterized in that, through the vision process, real-time image (video) information monitored through the RGB camera can be generated as a 3D model through a 3D point cloud base.
Monitoring and control system for intelligent control of collaborative robots.
청구항 1에 있어서,
상기 스마트 티칭펜던트(teaching pendent)는,
상기 협동 로봇의 설정된 단부의 위치 정보(x, y, z 위치와 회전 x, 회전 y, 회전 z)를 미리 지정하는 동시에, 상기 협동 로봇의 설정된 단부가 설정된 워크플로우에 따라 지정된 교시위치에 도달하면 다음 작업으로 진행하기 위한 조건을 비교하고 상기 조건이 만족이 될 시, 작업자가 지정한 다음 작업으로 반복 동작 작업을 수행할 수 있도록 하도록 하되,
작업자가 상기 협동 로봇에 워크플로우 정보를 직접 교시할 수 있는 인터페이스를 가지는 로봇 인터페이스 앱; 및
상기 협동 로봇이 위치한 작업 환경 내에서 획득 가능한 비전 정보와 정합 가능하도록 지원하는 비전 인터페이스 앱;을 포함하는 것을 특징으로 하는
협동 로봇 지능제어를 위한 모니터링 제어 시스템.
The method of claim 1,
The smart teaching pendant,
When the position information (x, y, z position, rotation x, rotation y, and z) of the set end of the collaborative robot is designated in advance, and the set end of the collaborative robot reaches the designated teaching position according to the set workflow Compare the conditions for proceeding to the next task, and when the conditions are satisfied, allow the operator to perform the repetitive action task as the next task specified,
A robot interface app having an interface through which a worker can directly teach workflow information to the collaborative robot; and
Characterized in that it includes; a vision interface app that supports matching with vision information obtainable within the work environment where the collaborative robot is located.
Monitoring and control system for intelligent control of collaborative robots.
청구항 1에 있어서,
상기 컨트롤 박스는,
상기 협동 로봇을 제어하여 상기 협동 로봇 동작의 작업 유형 및 워크플로우에 따라 상기 협동 로봇 동작이 수행되는 작업 환경에 관한 정보를 획득하는 작업 환경 측정부;
상기 협동 로봇을 제어하여 상기 협동 로봇 동작의 작업 유형 및 워크플로우에 따라 상기 협동 로봇 동작에 관한 작업 정보를 획득하는 작업 정보 수신부; 및
획득한 상기 작업 환경에 관한 정보 및 상기 협동 로봇 동작에 관한 작업 정보에 기초하여 상기 협동 로봇 동작의 작업 유형 및 워크플로우에 따라 상기 협동 로봇이 동작을 수행하도록 상기 협동 로봇을 제어하는 로봇 동작 제어부;를 포함하되,
상기 작업 환경 측정부는,
작업자가 상기 협동 로봇을 직접 움직여서 위치와 움직임을 알려주는 직접 교시에 의해 상기 작업 유형 및 워크플로우에 따라 상기 협동 로봇을 동작시키면서 상기 협동 로봇 동작의 시작점, 이동 경로 상의 경유 지점 및 도착점을 포함하는 상기 작업 환경에 관한 정보를 획득하고,
상기 작업 정보 수신부는,
작업자가 상기 협동 로봇을 직접 움직여서 위치와 움직임을 알려주는 직접 교시에 의해 상기 작업 유형 및 워크플로우에 따라 상기 로봇을 동작시키면서 상기 협동 로봇의 동작에 기초하여 생성되는 상기 협동 로봇 동작의 특성을 포함하는 상기 협동 로봇 동작에 관한 작업 정보를 획득하는 것을 특징으로 하는,
협동 로봇 지능제어를 위한 모니터링 제어 시스템.
The method of claim 1,
The control box,
a work environment measuring unit controlling the collaborative robot to obtain information about a working environment in which the cooperative robot operation is performed according to a work type and a workflow of the cooperative robot operation;
a work information receiving unit configured to control the collaborative robot to obtain work information related to an operation of the cooperative robot according to a work type and a workflow of the cooperative robot operation; and
a robot operation control unit controlling the collaborative robot to perform an operation according to the work type and workflow of the cooperative robot operation based on the obtained information on the work environment and the job information on the operation of the collaborative robot; Including,
The working environment measurement unit,
The operator directly moves the collaborative robot and operates the cooperative robot according to the work type and workflow by direct teaching to inform the location and movement, and includes a starting point of the cooperative robot operation, a passing point and a destination point on a movement path. obtain information about the work environment;
The work information receiving unit,
Including characteristics of the cooperative robot operation generated based on the operation of the cooperative robot while operating the robot according to the work type and workflow by direct teaching in which the operator directly moves the cooperative robot to inform the position and movement Characterized in that obtaining work information about the cooperative robot operation,
Monitoring and control system for intelligent control of collaborative robots.
청구항 5에 있어서,
상기 작업 환경 측정부는,
상기 직접 교시에 의해 상기 작업 유형 및 워크플로우에 따라 상기 협동 로봇이 동작을 수행하는 동안, 설정된 3D 센서 또는 RGB 카메라에 의해 상기 작업 환경에 관한 정보를 획득하는 것을 특징으로 하는,
협동 로봇 지능제어를 위한 모니터링 제어 시스템.
The method of claim 5,
The working environment measurement unit,
Characterized in that information on the work environment is acquired by a set 3D sensor or RGB camera while the collaborative robot performs an operation according to the work type and workflow by the direct teaching,
Monitoring and control system for intelligent control of collaborative robots.
KR1020210154410A 2021-11-11 2021-11-11 cooperative robot monitoring-control system KR20230068530A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210154410A KR20230068530A (en) 2021-11-11 2021-11-11 cooperative robot monitoring-control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210154410A KR20230068530A (en) 2021-11-11 2021-11-11 cooperative robot monitoring-control system

Publications (1)

Publication Number Publication Date
KR20230068530A true KR20230068530A (en) 2023-05-18

Family

ID=86545639

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210154410A KR20230068530A (en) 2021-11-11 2021-11-11 cooperative robot monitoring-control system

Country Status (1)

Country Link
KR (1) KR20230068530A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210118380A (en) 2018-11-19 2021-09-30 두산로보틱스 주식회사 Method and apparatus for controlling robot

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210118380A (en) 2018-11-19 2021-09-30 두산로보틱스 주식회사 Method and apparatus for controlling robot

Similar Documents

Publication Publication Date Title
US10919152B1 (en) Teleoperating of robots with tasks by mapping to human operator pose
JP7467041B2 (en) Information processing device, information processing method and system
US7353082B2 (en) Method and a system for programming an industrial robot
CN104936748B (en) Free-hand robot path teaching
US10166673B2 (en) Portable apparatus for controlling robot and method thereof
KR102619004B1 (en) Robot control apparatus and method for learning task skill of the robot
JP7154815B2 (en) Information processing device, control method, robot system, computer program, and storage medium
JP4822926B2 (en) Method, program and system for estimating three-dimensional position of radio transmitter
KR101860200B1 (en) Selection of a device or an object by means of a camera
US20190321977A1 (en) Architecture and methods for robotic mobile manipluation system
KR20190044496A (en) Automatic apparatus
JP6816070B2 (en) Interference avoidance device and robot system
KR101615687B1 (en) Collision detection robot remote control system and method thereof
JP7048539B2 (en) Vibration display device, operation program creation device, and system
CN105598987A (en) Determination of object-related gripping regions using robot
CN112894758A (en) Robot cleaning control system, method and device and computer equipment
JP2010094777A (en) Remote control support device
US11478932B2 (en) Handling assembly comprising a handling device for carrying out at least one work step, method, and computer program
KR20230068530A (en) cooperative robot monitoring-control system
JP2021065971A (en) Robot teaching system, image forming method and program
Wu et al. Application of visual servoing for grasping and placing operation in slaughterhouse
CN115916480A (en) Robot teaching method and robot working method
Fiala A robot control and augmented reality interface for multiple robots
Landa-Hurtado et al. Kinect-based trajectory teaching for industrial robots
TWI806762B (en) Mark detection device and robot teaching system

Legal Events

Date Code Title Description
E902 Notification of reason for refusal