KR20230068530A - cooperative robot monitoring-control system - Google Patents
cooperative robot monitoring-control system Download PDFInfo
- Publication number
- KR20230068530A KR20230068530A KR1020210154410A KR20210154410A KR20230068530A KR 20230068530 A KR20230068530 A KR 20230068530A KR 1020210154410 A KR1020210154410 A KR 1020210154410A KR 20210154410 A KR20210154410 A KR 20210154410A KR 20230068530 A KR20230068530 A KR 20230068530A
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- collaborative
- information
- work
- control
- Prior art date
Links
- 238000012544 monitoring process Methods 0.000 claims abstract description 39
- 230000033001 locomotion Effects 0.000 claims abstract description 35
- 238000000034 method Methods 0.000 claims abstract description 18
- 238000005259 measurement Methods 0.000 claims description 7
- 238000004891 communication Methods 0.000 claims description 5
- 230000003542 behavioural effect Effects 0.000 claims description 3
- 230000003252 repetitive effect Effects 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 9
- 238000013473 artificial intelligence Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000005452 bending Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1684—Tracking a line or surface by means of sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
Abstract
본 발명은 협동 로봇 모니터링 제어 시스템에 관한 것으로서, 보다 상세하게는 3D비전(3D센서) 기술, RGB 카메라 영상정보 등을 통해 획득되는 협동 로봇 동작의 시작점, 이동 경로 상의 경유 지점 및 도착점과 작업 환경에 대한 실시간 모니터링이 가능한 동시에, 작업자 등 사용자의 편의성이 개선된 스마트 티칭펜던트(teaching pendent)를 통해 모니터링 및 제어의 대상이 되는 협동 로봇의 관절의 움직임 상태 등에 대한 분석을 기반으로 협동 로봇의 지능제어가 가능한 공정인식 및 자동모션생성 알고리즘을 활용하는 협동 로봇 지능제어를 위한 모니터링 제어 시스템에 관한 것이다.The present invention relates to a collaborative robot monitoring and control system, and more particularly, to a starting point of a cooperative robot operation obtained through 3D vision (3D sensor) technology, RGB camera image information, etc. Intelligent control of collaborative robots is possible based on analysis of the joint movement conditions of collaborative robots that are subject to monitoring and control through a smart teaching pendant that enables real-time monitoring and improves the convenience of users such as workers. It is about a monitoring control system for intelligent control of collaborative robots utilizing process recognition and automatic motion generation algorithms.
Description
본 발명은 협동 로봇 모니터링 제어 시스템에 관한 것으로서, 보다 상세하게는 3D비전(3D센서) 기술, RGB 카메라 영상정보 등을 통해 획득되는 협동 로봇 동작의 시작점, 이동 경로 상의 경유 지점 및 도착점과 작업 환경에 대한 실시간 모니터링이 가능한 동시에, 작업자 등 사용자의 편의성이 개선된 스마트 티칭펜던트(teaching pendent)를 통해 협동 로봇의 동작 등에 대한 제어나 학습이 가능한 협동 로봇 지능제어를 위한 모니터링 제어 시스템에 관한 것이다.The present invention relates to a collaborative robot monitoring and control system, and more particularly, to a starting point of a cooperative robot operation obtained through 3D vision (3D sensor) technology, RGB camera image information, etc. The present invention relates to a monitoring control system for intelligent control of a collaborative robot capable of real-time monitoring of a cooperative robot and capable of controlling or learning the operation of a cooperative robot through a smart teaching pendant with improved user convenience such as a worker.
또한 본 발명은 제어의 대상이 되는 협동 로봇의 관절의 움직임 상태 등에 대한 분석을 기반으로 협동 로봇의 지능제어가 가능한 공정인식 및 자동모션생성 알고리즘을 활용하는 협동 로봇 지능제어를 위한 모니터링 제어 시스템에 관한 것이기도 하다.In addition, the present invention relates to a monitoring control system for intelligent control of a cooperative robot utilizing a process recognition and automatic motion generation algorithm capable of intelligent control of a cooperative robot based on analysis of the motion state of the joint of the cooperative robot to be controlled. it is also
사람과 근접한 곳에서 작동하는 로봇으로 통상적으로 정의되는 협동 로봇은 IoT와 같은 정보통신기술과 로봇 공학, 인공지능 기술과 센싱 기술 등의 발전에 따라 사람과 같은 공간에서 일할 수 있는 협동 로봇이 산업 전방에 걸쳐 확대되고 있다.Collaborative robots, which are commonly defined as robots that operate in close proximity to humans, are developing collaborative robots that can work in the same space as humans with advances in information and communication technologies such as IoT, robotics, artificial intelligence technologies, and sensing technologies. is expanding across
이러한 협동 로봇은 작업자가 필요에 따라 직접 교시하여 사용할 수 있고, 다양한 작업에 대해 작업자 등을 보조하는 수단으로써 적업 효율을 증대시킬 수 있는 동시에, 장기적으로 고정비를 절감할 수 있는 수단으로써도 최근 주목 받고 있디고 하다.These collaborative robots can be directly taught and used by workers as needed, and as a means of assisting workers, etc. for various tasks, they can increase work efficiency and, at the same time, have recently attracted attention as a means to reduce fixed costs in the long term. have and do
그러나 작업자와 충돌하는 등의 일이 발생할 위험성을 내포하고 있는 바, 충격량이 크지 않은 소형 중심으로 협동 로봇이 개발되어 활용되는 제약 사항(충격량을 줄이기 위한 주된 목적)이 있고, 사전 교시된 위치 기반의 작업만 수행되는 제약 사항 등과 같은 지속적인 한계가 지적되어 왔다.However, there is a risk of colliding with a worker, etc., and there are restrictions (the main purpose of reducing the amount of impact) that a collaborative robot is developed and used with a small center that does not have a large amount of impact. Persistent limitations have been pointed out, such as constraints that only work is performed.
또한 이와 함께 SI(System Integration)에 의존적인 자동화 및 제어 관련 시스템의 한계와 작업 진행을 위해 JIG 등 주변 장치의 설계 및 설치가 사전적으로 요구되는 한계점 역시 지속적으로 개선되어야 할 문제점으로 지적되고 있다.In addition, the limitations of automation and control-related systems dependent on SI (System Integration) and the limitations of requiring design and installation of peripheral devices such as JIG in advance for work progress are also pointed out as problems to be continuously improved.
본 발명은, 전술한 문제점 해결을 위해 개발된 기술로, AI(인공지능) 기반 3D 비전 시스템과 로봇제어가 연동되는 자동모션생성 기술을 통합하여 작업을 스스로 인지하고 모션을 생성하는 협동 로봇 기술을 제공함에 있다. The present invention, as a technology developed to solve the above-mentioned problems, integrates an AI (artificial intelligence)-based 3D vision system and automatic motion generation technology in which robot control is interlocked to create a collaborative robot technology that recognizes a task and generates motion by itself. is in providing
전술한 본 발명의 목적 달성을 위해, 협동 로봇에 의해 수행되는 로봇 동작의 시작점, 이동 경로 상의 경유 지점 및 도착점 중 적어도 하나에 관한 정보를 3D 센서;를 통해 실시간 획득하고, 상기 3D 센서를 통해 획득(비전 정보)된 상기 협동 로봇 동작의 시작점, 이동 경로 상의 경유 지점 및 도착점 중 적어도 하나의 유형에 관한 정보에 기초하여 상기 협동 로봇의 위치, 상태 및 동작 중 적어도 하나에 대한 제어가 가능한 컨트롤 박스; 및 상기 컨트롤 박스와 통신 네트워크;를 통해 유선 또는 무선으로 연결되며, 상기 협동 로봇의 위치, 상태 및 동작 중 적어도 하나의 획득된 정보 및 미리 학습된 패턴에 따라 설정된 작업 환경 내에서의 상기 협동 로봇의 위치, 상태 및 동작 중 적어도 하나에 대한 제어를 유지관리할 수 있는 스마트 티칭펜던트;를 포함하여, 3D 비전 일체형 협동 로봇의 모니터링 제어 플랫폼의 구현이 가능하며, 이를 통해 작업자 등과의 충돌 회피 모션을 포함한 작업을 스스로 인지하고 모션을 생성하는 행동지능을 가지는 것을 특징으로 하는 협동 로봇 지능제어를 위한 모니터링 제어 시스템이 제공될 수 있다.In order to achieve the object of the present invention described above, information on at least one of a starting point of a robot operation performed by a collaborative robot, a passing point on a moving path, and a destination point is obtained in real time through a 3D sensor, and obtained through the 3D sensor A control box capable of controlling at least one of a position, state, and operation of the collaborative robot based on (vision information) information about at least one type of a starting point, a passing point, and a destination point on a movement path; and a control box and a communication network; connected by wire or wirelessly, and of the cooperative robot in a work environment set according to at least one of acquired information and a pre-learned pattern among the location, state, and operation of the cooperative robot. It is possible to implement a monitoring and control platform for a 3D vision-integrated collaborative robot, including a smart teaching pendant capable of maintaining control of at least one of position, state, and operation, including collision avoidance motion with a worker, etc. A monitoring control system for intelligent control of a collaborative robot, characterized in that it has behavioral intelligence capable of self-recognizing tasks and generating motions, may be provided.
또한 본 발명에 따른 상기 컨트롤 박스는,상기 3D 센서를 통해 실시간 모니터링되는 협동 로봇의 위치, 상태 및 동작 중 적어도 하나의 정보를 기반으로 미리 설정된 3D 좌표계 상에서의 상기 협동 로봇의 전체 또는 특정 부위의 자세를 추론할 수 있는 비전 프로세스;를 더 포함하는 것을 특징으로 하는 협동 로봇 지능제어를 위한 모니터링 제어 시스템의 형태로도 제공될 수 있다.In addition, the control box according to the present invention determines the posture of the whole or a specific part of the cooperative robot on a preset 3D coordinate system based on at least one information among the position, state, and operation of the cooperative robot monitored in real time through the 3D sensor. It can also be provided in the form of a monitoring control system for intelligent control of collaborative robots, characterized in that it further includes a vision process capable of inferring.
또한 본 발명에 따른 상기 협동 로봇 지능제어를 위한 모니터링 제어 시스템은, 작업자의 직접 교시(teaching) 또는 미리 설정된 워크플로우에 따라 작업을 수행하는 상기 협동 로봇이 설정된 동작을 수행하는 동안, 상기 협동 로봇의 전체 또는 특정 부위의 위치, 자세 및 동작 중 적어도 하나를 실시간 모니터링할 수 있는 RGB 카메라;를 더 포함하되, 상기 컨트롤 박스는, 상기 비전 프로세스를 통해, 상기 RGB카메라를 통해 모니터링 되는 실시간 이미지(동영상) 정보를 3차원 포인트 클라우드 기반을 통해 3차원 모델로 생성할 수 있는 것을 특징으로 하는, 협동 로봇 지능제어를 위한 모니터링 제어 시스템의 형태로도 제공이 가능하다.In addition, in the monitoring and control system for intelligent control of the collaborative robot according to the present invention, while the cooperative robot performing a task according to direct teaching by an operator or a preset workflow performs a set operation, the control of the cooperative robot An RGB camera capable of real-time monitoring of at least one of the position, posture, and motion of the whole or a specific part; wherein the control box further includes, through the vision process, a real-time image (video) monitored through the RGB camera. It can also be provided in the form of a monitoring and control system for intelligent control of collaborative robots, characterized in that information can be generated as a three-dimensional model through a three-dimensional point cloud base.
또한 상기 스마트 티칭펜던트(teaching pendent)는, 상기 협동 로봇의 설정된 단부의 위치 정보(x, y, z 위치와 회전 x, 회전 y, 회전 z)를 미리 지정하는 동시에, 상기 협동 로봇의 설정된 단부가 설정된 워크플로우에 따라 지정된 교시위치에 도달하면 다음 작업으로 진행하기 위한 조건을 비교하고 상기 조건이 만족이 될 시, 작업자가 지정한 다음 작업으로 반복 동작 작업을 수행할 수 있도록 하도록 하되, 작업자가 상기 협동 로봇에 워크플로우 정보를 직접 교시할 수 있는 인터페이스를 가지는 로봇 인터페이스 앱; 및 상기 협동 로봇이 위치한 작업 환경 내에서 획득 가능한 비전 정보와 정합 가능하도록 지원하는 비전 인터페이스 앱;을 포함하는 것을 특징으로 하는 협동 로봇 지능제어를 위한 모니터링 제어 시스템의 구성을 통해서도 전술한 본 발명의 목적 달성이 가능하게 된다.In addition, the smart teaching pendant pre-designates the location information (x, y, z position, rotation x, rotation y, and rotation z) of the set end of the collaborative robot, and at the same time, the set end of the collaborative robot When the specified teaching position is reached according to the set workflow, the conditions for proceeding to the next task are compared, and when the condition is satisfied, the operator performs the repetitive operation task with the next task designated by the operator. A robot interface app having an interface capable of directly teaching the robot workflow information; The purpose of the present invention described above through the configuration of the monitoring control system for intelligent control of collaborative robots, characterized in that it includes; and a vision interface app that supports matching with vision information obtainable within the working environment where the collaborative robot is located. it is possible to achieve
또한 상기 컨트롤 박스는, 상기 협동 로봇을 제어하여 상기 협동 로봇 동작의 작업 유형 및 워크플로우에 따라 상기 협동 로봇 동작이 수행되는 작업 환경에 관한 정보를 획득하는 작업 환경 측정부; 상기 협동 로봇을 제어하여 상기 협동 로봇 동작의 작업 유형 및 워크플로우에 따라 상기 협동 로봇 동작에 관한 작업 정보를 획득하는 작업 정보 수신부; 및 획득한 상기 작업 환경에 관한 정보 및 상기 협동 로봇 동작에 관한 작업 정보에 기초하여 상기 협동 로봇 동작의 작업 유형 및 워크플로우에 따라 상기 협동 로봇이 동작을 수행하도록 상기 로봇을 제어하는 로봇 동작 제어부를 포함하되, 상기 작업 환경 측정부는, 작업자가 상기 협동 로봇을 직접 움직여서 위치와 움직임을 알려주는 직접 교시에 의해 상기 작업 유형 및 워크플로우에 따라 상기 협동 로봇을 동작시키면서 상기 협동 로봇 동작의 시작점, 이동 경로 상의 경유 지점 및 도착점을 포함하는 상기 작업 환경에 관한 정보를 획득하고, 상기 작업 정보 수신부는,작업자가 상기 협동 로봇을 직접 움직여서 위치와 움직임을 알려주는 직접 교시에 의해 상기 작업 유형 및 워크플로우에 따라 상기 로봇을 동작시키면서 상기 협동 로봇의 동작에 기초하여 생성되는 상기 협동 로봇 동작의 특성을 포함하는 상기 협동 로봇 동작에 관한 작업 정보를 획득하는 것을 특징으로 하는, 협동 로봇 지능제어를 위한 모니터링 제어 시스템의 구성을 통한 본 발명의 목적 달성도 고려될 수 있다.In addition, the control box may include: a work environment measurement unit that controls the collaborative robot to obtain information about a working environment in which the cooperative robot operation is performed according to a work type and a workflow of the cooperative robot operation; a work information receiving unit configured to control the collaborative robot to obtain work information related to an operation of the cooperative robot according to a work type and a workflow of the cooperative robot operation; and a robot motion control unit for controlling the robot to perform an operation according to the work type and workflow of the cooperative robot operation based on the obtained information on the working environment and the job information on the operation of the collaborative robot. The working environment measuring unit may operate the cooperative robot according to the work type and workflow by direct teaching in which a worker directly moves the cooperative robot to inform the location and movement of the cooperative robot, and the starting point and movement path of the cooperative robot operation. Obtains information on the work environment including a passing point and a destination on the work, and the work information receiving unit is configured according to the work type and workflow by direct teaching in which a worker directly moves the collaborative robot to inform the location and movement. A monitoring and control system for intelligent control of a collaborative robot, characterized in that, while operating the robot, work information on the operation of the cooperative robot including characteristics of the operation of the cooperative robot generated based on the operation of the cooperative robot is acquired. Achievement of the object of the present invention through configuration may also be considered.
이와 함께 본 발명에 따른 상기 작업 환경 측정부는, 상기 직접 교시에 의해 상기 작업 유형 및 워크플로우에 따라 상기 협동 로봇이 동작을 수행하는 동안, 설정된 3D 센서 또는 RGB 카메라에 의해 상기 작업 환경에 관한 정보를 획득하는 것을 특징으로 하는, 협동 로봇 지능제어를 위한 모니터링 제어 시스템의 형태로도 제공이 가능하게 된다.In addition, the work environment measurement unit according to the present invention obtains information about the work environment by a set 3D sensor or RGB camera while the collaborative robot performs an operation according to the work type and workflow by the direct teaching. It is also possible to provide in the form of a monitoring control system for intelligent control of collaborative robots, characterized in that acquired.
전술한 본 발명의 목적 및 해결 수단에 의할 경우, 3D 비전 일체형 협동 로봇의 모니터링 제어 플랫폼의 구현이 가능하며, 이를 통해 작업자 등과의 충돌 회피 모션을 포함한 작업을 스스로 인지하고 모션을 생성하는 행동지능을 가지는 협동 로봇 기술을 제공할 수 있게 된다.According to the above object and solution of the present invention, it is possible to implement a monitoring and control platform for a 3D vision-integrated collaborative robot, and through this, behavioral intelligence that recognizes tasks by itself and generates motion, including collision avoidance motion with a worker, etc. It is possible to provide a collaborative robot technology having a.
다만, 본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 해석되어야 한다.However, the effect according to the present invention is not limited by the contents exemplified above, and more diverse effects should be included and interpreted within this specification.
도 1은 본 발명의 일 실시예에 따른 딥러닝 기반 3D 작업의 인식이 가능한 협동 로봇 지능제어를 위한 모니터링 제어 시스템의 구성을 개략적으로 표현한 도면이다.
도 2는 본 발명의 일 실시예에 따른 클라우드를 기반으로 적어도 하나 이상의 협동 로봇에 대한 학습 데이터 제공 및 RGB카메라 등을 기반으로 획득되는 작업 정보 등을 기반으로 협업 로봇의 지능제어를 수행하는 모식도를 나타내고 있는 도면이다.
도 3은 본 발명에 일 실시예에 따른 협동 로봇 지능제어를 위한 모니터링 제어 시스템을 통해 복수개의 작업 대상물을 3D 차원에서 추적하여 작업 대응할 수 있는 개념을 나타내고 있는 도면이다.
도 4는 딥러닝 기반의 알고리즘 연산 고속화를 위한 프로세싱 개념도를 나타내고 있다.1 is a diagram schematically illustrating the configuration of a monitoring control system for intelligent control of a collaborative robot capable of recognizing a deep learning-based 3D task according to an embodiment of the present invention.
2 is a schematic diagram of providing learning data for at least one collaborative robot based on a cloud and performing intelligent control of a collaborative robot based on work information acquired based on an RGB camera, etc., according to an embodiment of the present invention. It is a drawing showing
3 is a diagram showing a concept of responding to a task by tracking a plurality of work objects in 3D dimension through a monitoring control system for intelligent control of a collaborative robot according to an embodiment of the present invention.
4 shows a conceptual diagram of processing for speeding up algorithm operation based on deep learning.
이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, the present invention will be described with reference to the accompanying drawings. However, the present invention may be embodied in many different forms and, therefore, is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉, 결합)"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.Throughout the specification, when a part is said to be "connected (connected, contacted, combined)" with another part, this is not only "directly connected", but also "indirectly connected" with another member in between. "Including cases where In addition, when a part "includes" a certain component, it means that it may further include other components without excluding other components unless otherwise stated.
본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "include" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.
이하에서는 도 1 내지 도 3을 참조하여, 본 발명에 따른 협동 로봇 지능제어를 위한 모니터링 제어 시스템(100)에 대해 기술하기로 한다.Hereinafter, with reference to FIGS. 1 to 3, a
도 1은 본 발명의 일 실시예에 따른 딥러닝 기반 3D 작업의 인식이 가능한 협동 로봇 지능제어를 위한 모니터링 제어 시스템(100)의 구성을 개략적으로 표현한 도면이다. 또한 도 2는 본 발명의 일 실시예에 따른 클라우드를 기반으로 적어도 하나 이상의 협동 로봇에 대한 학습 데이터 제공 및 RGB카메라 등을 기반으로 획득되는 작업 정보 등을 기반으로 협업 로봇의 지능제어를 수행하는 모식도를 나타내고 있는 도면이다. 도 3은 본 발명에 일 실시예에 따른 협동 로봇 지능제어를 위한 모니터링 제어 시스템(100)을 통해 복수개의 작업 대상물을 3D 차원에서 추적하여 작업 대응할 수 있는 개념을 나타내고 있는 도면이다.1 is a diagram schematically illustrating the configuration of a
본 발명에 따른 협동 로봇 지능제어를 위한 모니터링 제어 시스템(100)은 내외부 3D센서(비전센서 등) 및/또는 RGB 카메라 등과 연결된 컨트롤 박스(110) 및 스마트 티칭팬던트(130, (teaching pendent))를 포함할 수 있다. 이를 통해 협동 로봇 지능제어를 위한 모니터링 제어 시스템(100)은 3D 비전 일체형 협동 로봇의 모니터링 제어 플랫폼의 구현이 가능하며, 이를 통해 작업자 등과의 충돌 회피 모션을 포함한 작업을 스스로 인지하고 모션을 생성하는 행동지능을 제공할 수 있게 된다. 또한 비전 프로세서(111) 및 로봇 제어기(113)의 동기화(도 3 참조)를 통해 실시간으로 고속으로 이동하는 다양한 3D 형상과 모양을 가지는 작업 대상물을 추적 및 특정할 수 있는 기술적 특징 역시 가지고 있다.The
본 발명에 따른 컨트롤 박스(110)는 협동 로봇(1, 2, n)에 의해 수행되는 로봇 동작의 시작점, 이동 경로 상의 경유 지점 및 도착점 중 적어도 하나에 관한 정보를 3D 센서(11) 및/또는 카메라(12, RGB 카메라, 다중 RGB-D 카메라 등이 될 수 있다)를 통해 실시간 획득할 수 있다. 또한 본 발명에 따른 컨트롤 박스(110)는 3D 센서(11) 및/또는 카메라(12)를 통해 획득(비전 정보 등)되는 협동 로봇(1, 2, n) 동작의 시작점, 이동 경로 상의 경유 지점 및 도착점 중 적어도 하나의 유형에 관한 정보에 기초하여 협동 로봇((1, 2, n)의 위치, 상태 및 동작 중 적어도 하나에 대한 실시간 모니터링 및 제어가 가능한 독립된 장치 또는 PC나 서버, 통신 가능한 IT디바이스 내에서 구동되는 모듈이 될 수도 있다(도 2 및 도 3 참조).The
이를 위해 본 발명에 따른 컨트롤 박스(110)는 3D 센서(11)를 통해 실시간 모니터링되는 협동 로봇(1, 2, n)의 위치, 상태 및 동작 중 적어도 하나의 정보를 기반으로 미리 설정된 3D 좌표계 상에서의 협동 로봇(1, 2, n)의 전체 또는 특정 부위(일 예로 로봇 손가락 등의 단부나 팁, 팔꿈치 등이 될 수 있다)의 자세를 추론할 수 있는 비전 프로세스(111)를 포함할 수 있다.To this end, the
본 발명에 따른 비전 프로세스(111)는 3D 센서(11) 및/또는 카메라(12)를 통해 획득된 실시간 이미지의 픽셀을 미리 결정된 좌표 시스템에 매핑하는 기능을 수행할 수 있다. 이 경우 타겟은 특징 패턴에 인레이드된(inlaid) 3D 코드와 같은 좌표 시스템(예를 들어, 일련의 체커보드의 X-Y-Z축 배열)을 정의하는 특징 또는 패턴 좌표 시스템을 정의하는 구별되는 기점(distinctive fiducial)을 포함할 수 있다. 즉 일 예로 본 발명에 따른 비전 프로세스(111)는 협동 로봇(1, 2, n)의 작업 대상이 되는 작업물 또는 작업 환경 등의 특징을 비전 센서나 카메라를 통해 획득하고, 획득된 이미지의 픽셀에 매핑을 통해 시스템이 타겟으로 교정되는 과정을 수행할 수 있다. 이 경우 교정 타겟의 전부 또는 일부의 이미지를 획득하는데 사용되는 적어도 하나의 3D 센서(11) 및/또는 카메라(12)의 경우 타겟의 특징(예를 들어, 타겟의 평면을 따른 x 및 y, z(높이) 및 x-y 평면에서 z축을 중심으로 하는 회전 θ) 또는 다른(예를 들어, 글로벌) 좌표 시스템에 의해 특정될 수 있게 된다.The
또한 본 발명에 따른 비전 프로세서(111)는 내장된 교정 애플리케이션을 포함할 수 있으며, 이를 통해 3D 센서(11) 및/또는 별도의 카메라(12)를 통해 획득된 타겟의 이미지로부터 하나 이상의 3D 센서(11) 및/또는 별도의 카메라(12)의 상대 위치를 추론할 수 있으며, 타겟의 기점은 개별 시야 내의 타겟에 대해 3D 센서(11) 및/또는 별도의 카메라(12)를 배향시키는데도 사용될 수 있다.In addition, the
또한 본 발명에 따른 비전 프로세스(111)는 3D 센서(11) 및/또는 카메라(12)를 통해 촬영되는 깊이 및 RGB 이미지를 이용하여 깊이 카메라의 좌표계를 따르는 포인트 클라우드를 각 3D 센서(11) 및/또는 카메라(12)에서 획득하도록 할 수도 있다.In addition, the
본 발명에 따른 카메라(12)는 3D 센서(11)와 일체형 또는 하나의 모듈로써 전술한 기능을 수행할 있으며, 이와 함께 작업자의 직접 교시(teaching) 또는 미리 설정된 워크플로우에 따라 작업을 수행하는 협동 로봇(1)이 설정된 동작을 수행하는 동안, 협동 로봇(1)의 전체 또는 특정 부위의 위치, 자세 및 동작 중 적어도 하나를 실시간 모니터링할 수 있는 RGB 카메라일 수 있다. 이 경우 컨트롤 박스(110)는, 비전 프로세스(111)를 통해, 카메라(12)를 통해 모니터링(획득) 되는 실시간 이미지(동영상, 스틸 이미지 등) 정보를 3차원 포인트 클라우드 기반을 통해 3차원 모델로 생성할 수도 있게 된다.The
또한 본 발명에 따른 3D 센서 및/또는 카메라(12)는 미리 설정된 협동 로봇(1, 2, n)의 전체 또는 설정된 일부(일 예로 특정한 회전, 굽힘 등의 동작이 가능한 관절이나 단부 등)를 이미지 기반으로 센싱(일종의 키넥티센서)할 수 있으며, 이를 통해 획득된 로봇 관절의 움직임이나 동작 등에 대한 데이터 역시 컨트롤 박스(110)로 전달되어 가공, 처리될 수 있다.In addition, the 3D sensor and/or
이에 의해, 본 발명에 따른 협동 로봇 지능제어를 위한 모니터링 제어 시스템(100)은 3D 센서 데이터, RGB 카메라 데이터 및 전술한 로봇 관절 데이터를 활용하여 영상 속 겹쳐진 시편을 Instance Segmentation하여 분할 및 3D 좌표계 상의 자세를 추론할 수 있게 되는 기술적 특징 역시 가지게 된다. 이를 위해 본 발명에 따른 비전 프로세서(111)는 기공지된 적어도 하나 이상 또는 하나 이상의 AI(인공지능) 기반의 추론 모델을 통합하여 3D 작업물의 인식 및 작업모션에 대한 알고리즘에 대한 구현 역시 가능하게 된다(도 4, 딥러닝 알고리즘 연산 프로세싱 개념도 참조).As a result, the
도 4에 도시된 바와 같이, 본 발명에 따른 시스템(100), 보다 구체적으로는 로봇 제어기(130)는 AI(인공지능)을 기반으로 3차원 작업물을 실시간으로 정확하게 인식할 수 있게 되며, 이러한 작업물의 상태 및 정보 등을 기초로 협동 로봇(1)의 자세나 동작, 위치 등에 정보를 자동으로 생성하는 알고리즘 역시 포함할 수 있다.As shown in Figure 4, the
또한 도 2에서 도시된 바와 같이, 본 발명에 따른 시스템(100)은 경량화 및 최적화되어 있는 AI(인공지능) 기반의 추론 모델을 통해 복수개의 협동 로봇(1, 2, n)과의 데이터 통신(일 예로 협동 로봇(1) 설정된 내부 또는 외측, 이격된 작업 공간에 설치된 3D 센서(11) 및/또는 카메라(12)를 통해 작업물 등에 대한 영상 이미지를 전달(실시간)받을 수 있는 동시에, 획득된 영상 이미지 정보를 기반으로 분석된 영상 인식 결과 데이터를 협동 로봇(1, 2, n)들에게 실시간 전송함으로써 협동 로봇(1)들의 작업물 특성 및 워크플로우에 따른 작업을 빠르고 정확하게 진행하도록 지원할 수 있게 된다.In addition, as shown in FIG. 2, the
또한 본 발명에 따른 시스템(100)은 별도의 클라우드 학습 서버 등과 연동하여 새로운 작업물 처리나 대응 등이 필요한 상황에 맞춰 학습 데이터를 협동 로봇(1, 2, n)에 전송하거나 컨트롤 박스(110)에 전달하여 협동 로봇의 작업물 대응 능력을 고도화 시킬 수 있게 되며, 이와 동시에 작업자의 개입을 최소화할 수 있게 된다. 이 경우 채택될 수 있는 학습모델의 경우 Detectron2으로 segmentation 된 결과를 MaskRCNN에서 받아 classification 하는 방식 등이 고려될 수 있다.
In addition, the
또한 전술한 본 발명의 목적 달성을 위해, 본 발명에 따른 시스템(100)은 협동 로봇(1)이 설치 및 운영되는 작업 공간(현장)의 공간 형상 정보, 협동 로봇(1)의 관절 데이터 및 작업물(pick & place 대상물)의 라벨 데이터 정보를 미리 저정하거나 외부의 별도 서버 등을 통해 입력받을 수 있다.In addition, in order to achieve the above object of the present invention, the
또한 본 발명에 따른 다른 실시예에 의할 경우, 컨트롤 박스(110)는, 작업 환경 측정부, 작업 정보 수신부 및 로봇 동작 제어부를 포함할 수 있다.Also, according to another embodiment according to the present invention, the
이 경우 상기 작업 환경 측정부는, 협동 로봇(1)을 제어하여 협동 로봇(1) 동작의 작업 유형 및 워크플로우에 따라 협동 로봇(1) 동작이 수행되는 작업 환경에 관한 정보를 획득하는 것을 주요한 기능으로 하는 모듈을 지칭한다. 본 발명에 따른 작업 환경 측정부는, 작업자가 협동 로봇(1)을 직접 움직여서 위치와 움직임을 알려주는 직접 교시에 의해 상기 작업 유형 및 워크플로우에 따라 협동 로봇(1)을 동작시키면서 협동 로봇(1) 동작의 시작점, 이동 경로 상의 경유 지점 및 도착점을 포함하는 상기 작업 환경에 관한 정보를 획득할 수도 있다.In this case, the main function of the work environment measurement unit is to control the cooperating
또한 상기 작업 환경 측정부는, 상기 직접 교시에 의해 상기 작업 유형 및 워크플로우에 따라 상기 협동 로봇이 동작을 수행하는 동안, 설정된 3D 센서(11) 또는 카메라(12)에 의해 상기 작업 환경에 관한 정보를 획득할 수도 있다.In addition, the work environment measurement unit obtains information about the work environment by the
상기 작업 정보 수신부는, 협동 로봇(1)을 제어하여 협동 로봇(1) 동작의 작업 유형 및 워크플로우에 따라 협동 로봇(1) 동작에 관한 작업 정보를 획득하는 것을 주요 기능으로 하는 모듈을 지칭한다. 이 경우 작업 정보 수신부는, 작업자가 협동 로봇(1)을 직접 움직여서 위치와 움직임을 알려주는 직접 교시에 의해 상기 작업 유형 및 워크플로우에 따라 협동 로봇(1)을 동작시키면서 협동 로봇의 동작에 기초하여 생성되는 상기 협동 로봇 동작의 특성에 대한 정보를 모니터링하는 기능을 추가적으로 포함할 수 있다.The work information receiving unit refers to a module whose main function is to acquire work information on the operation of the
상기 로봇 동작 제어부는, 획득한 상기 작업 환경에 관한 정보 및 협동 로봇(1) 동작에 관한 작업 정보에 기초하여 협동 로봇(1) 동작의 작업 유형 및 워크플로우에 따라 상기 협동 로봇이 동작을 수행하도록 로봇(1)을 제어하는 기능을 수행하는 모듈을 지칭한다.The robot operation control unit causes the collaborative robot to perform an operation according to the work type and workflow of the operation of the
본 발명에 따른 스마트 티칭펜던트(130, teaching pendent)는 컨트롤 박스(110)와 통신 네트워크(150)를 통해 유선 및/또는 무선으로 연결되며, 협동 로봇(1)의 위치, 상태 및 동작 중 적어도 하나의 획득된 정보 및 미리 학습된 패턴에 따라 설정된 작업 환경 내에서의 협동 로봇(1)의 위치, 상태 및 동작 중 적어도 하나에 대한 제어를 유지관리할 수 있는 모듈로써, 별도 자체적인 독립 장비로 제공되거나, 디스플레이 화면을 가지는 PC, 태블릿 등 IT디바이스의 내부에서 구동 가능한 모듈(프로그램 내지 알고리즘)의 형태로 제공될 수 있다.The
또한 본 발명에 따른 스마트 티칭펜던트(130)는 적어도 하나의 협동 로봇(1)의 설정된 단부의 위치 정보(x, y, z 위치와 회전 x, 회전 y, 회전 z)를 미리 지정하는 동시에, 협동 로봇(1)의 설정된 단부가 설정된 워크플로우에 따라 지정된 교시위치에 도달하면 다음 작업으로 진행하기 위한 조건을 비교하고 상기 조건이 만족이 될 시, 작업자가 지정한 다음 작업으로 반복 동작 작업을 수행할 수 있도록 모니터링 및 제어가 가능하다. 또한 이와 함께(또는 별도로) 작업자 등은 스마트 티칭펜던트(130)를 통해 협동 로봇(1)에 워크플로우 정보를 직접 교시할 수 있는 인터페이스를 가지는 로봇 인터페이스 앱(App, 설정된 디스플레이 화면을 통해 입출력이 가능)과 협동 로봇(1)이 위치한 작업 환경 내에서 획득 가능한 비전 정보(3D 센서(11) 및/또는 카메라(12)를 통해 획득)와 정합 가능하도록 지원하는 비전 인터페이스 앱(App)을 포함할 수 있다.In addition, the
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustrative purposes, and those skilled in the art can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.
본 발명의 범위는 후술하는 청구범위에 의하여 나타내어지며, 청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts should be interpreted as being included in the scope of the present invention.
1: 협동 로봇(n)
100: 협동 로봇 지능제어를 위한 모니터링 제어 시스템
110: 컨트롤 박스
111: 비전 프로세스
113: 로봇 제어기
130: 스마트 티칭펜던트
150: 유선 및/또는 무선 네트워크1: Collaborative robot (n)
100: monitoring control system for collaborative robot intelligent control
110: control box
111: vision process
113: robot controller
130: smart teaching pendant
150 wired and/or wireless network
Claims (6)
상기 컨트롤 박스와 통신 네트워크;를 통해 유선 또는 무선으로 연결되며, 상기 협동 로봇의 위치, 상태 및 동작 중 적어도 하나의 획득된 정보 및 미리 학습된 패턴에 따라 설정된 작업 환경 내에서의 상기 협동 로봇의 위치, 상태 및 동작 중 적어도 하나에 대한 제어를 유지관리할 수 있는 스마트 티칭펜던트;를 포함하여,
3D 비전 일체형 협동 로봇의 모니터링 제어 플랫폼의 구현이 가능하며, 이를 통해 작업자 등과의 충돌 회피 모션을 포함한 작업을 스스로 인지하고 모션을 생성하는 행동지능을 가지는 것을 특징으로 하는 협동 로봇 지능제어를 위한 모니터링 제어 시스템.
Information on at least one of a starting point of a robot operation performed by the collaborative robot, a passing point, and a destination point on a movement path is obtained in real time through a 3D sensor; a control box capable of controlling at least one of the position, state, and operation of the collaborative robot based on information about at least one type of a starting point, a passing point, and a destination point on a movement path; and
It is connected to the control box by wire or wirelessly through a communication network, and the position of the cooperative robot in a work environment set according to the pre-learned pattern and at least one information obtained from among the position, state, and operation of the cooperative robot. , a smart teaching pendant capable of maintaining control of at least one of a state and an operation; including,
It is possible to implement a monitoring control platform for 3D vision-integrated collaborative robots, through which it has behavioral intelligence that recognizes tasks, including collision avoidance motions with workers, etc. and generates motions. Monitoring control for intelligent control of collaborative robots. system.
상기 컨트롤 박스는,
상기 3D 센서를 통해 실시간 모니터링되는 협동 로봇의 위치, 상태 및 동작 중 적어도 하나의 정보를 기반으로 미리 설정된 3D 좌표계 상에서의 상기 협동 로봇의 전체 또는 특정 부위의 자세를 추론할 수 있는 비전 프로세스;를 포함하는 것을 특징으로 하는 협동 로봇 지능제어를 위한 모니터링 제어 시스템.
The method of claim 1,
The control box,
A vision process capable of inferring the posture of the whole or a specific part of the collaborative robot on a preset 3D coordinate system based on at least one of the position, state, and motion of the cooperative robot monitored in real time through the 3D sensor. A monitoring control system for intelligent control of collaborative robots.
상기 협동 로봇 지능제어를 위한 모니터링 제어 시스템은,
작업자의 직접 교시(teaching) 또는 미리 설정된 워크플로우에 따라 작업을 수행하는 상기 협동 로봇이 설정된 동작을 수행하는 동안, 상기 협동 로봇의 전체 또는 특정 부위의 위치, 자세 및 동작 중 적어도 하나를 실시간 모니터링할 수 있는 RGB 카메라;를 더 포함하되,
상기 컨트롤 박스는,
상기 비전 프로세스를 통해, 상기 RGB카메라를 통해 모니터링 되는 실시간 이미지(동영상) 정보를 3차원 포인트 클라우드 기반을 통해 3차원 모델로 생성할 수 있는 것을 특징으로 하는,
협동 로봇 지능제어를 위한 모니터링 제어 시스템.
The method of claim 2,
The monitoring control system for intelligent control of the collaborative robot,
At least one of the position, posture, and motion of the whole or a specific part of the collaborative robot is monitored in real time while the collaborative robot performing a task according to a worker's direct teaching or a preset workflow is performing a set operation. An RGB camera that can be further included,
The control box,
Characterized in that, through the vision process, real-time image (video) information monitored through the RGB camera can be generated as a 3D model through a 3D point cloud base.
Monitoring and control system for intelligent control of collaborative robots.
상기 스마트 티칭펜던트(teaching pendent)는,
상기 협동 로봇의 설정된 단부의 위치 정보(x, y, z 위치와 회전 x, 회전 y, 회전 z)를 미리 지정하는 동시에, 상기 협동 로봇의 설정된 단부가 설정된 워크플로우에 따라 지정된 교시위치에 도달하면 다음 작업으로 진행하기 위한 조건을 비교하고 상기 조건이 만족이 될 시, 작업자가 지정한 다음 작업으로 반복 동작 작업을 수행할 수 있도록 하도록 하되,
작업자가 상기 협동 로봇에 워크플로우 정보를 직접 교시할 수 있는 인터페이스를 가지는 로봇 인터페이스 앱; 및
상기 협동 로봇이 위치한 작업 환경 내에서 획득 가능한 비전 정보와 정합 가능하도록 지원하는 비전 인터페이스 앱;을 포함하는 것을 특징으로 하는
협동 로봇 지능제어를 위한 모니터링 제어 시스템.
The method of claim 1,
The smart teaching pendant,
When the position information (x, y, z position, rotation x, rotation y, and z) of the set end of the collaborative robot is designated in advance, and the set end of the collaborative robot reaches the designated teaching position according to the set workflow Compare the conditions for proceeding to the next task, and when the conditions are satisfied, allow the operator to perform the repetitive action task as the next task specified,
A robot interface app having an interface through which a worker can directly teach workflow information to the collaborative robot; and
Characterized in that it includes; a vision interface app that supports matching with vision information obtainable within the work environment where the collaborative robot is located.
Monitoring and control system for intelligent control of collaborative robots.
상기 컨트롤 박스는,
상기 협동 로봇을 제어하여 상기 협동 로봇 동작의 작업 유형 및 워크플로우에 따라 상기 협동 로봇 동작이 수행되는 작업 환경에 관한 정보를 획득하는 작업 환경 측정부;
상기 협동 로봇을 제어하여 상기 협동 로봇 동작의 작업 유형 및 워크플로우에 따라 상기 협동 로봇 동작에 관한 작업 정보를 획득하는 작업 정보 수신부; 및
획득한 상기 작업 환경에 관한 정보 및 상기 협동 로봇 동작에 관한 작업 정보에 기초하여 상기 협동 로봇 동작의 작업 유형 및 워크플로우에 따라 상기 협동 로봇이 동작을 수행하도록 상기 협동 로봇을 제어하는 로봇 동작 제어부;를 포함하되,
상기 작업 환경 측정부는,
작업자가 상기 협동 로봇을 직접 움직여서 위치와 움직임을 알려주는 직접 교시에 의해 상기 작업 유형 및 워크플로우에 따라 상기 협동 로봇을 동작시키면서 상기 협동 로봇 동작의 시작점, 이동 경로 상의 경유 지점 및 도착점을 포함하는 상기 작업 환경에 관한 정보를 획득하고,
상기 작업 정보 수신부는,
작업자가 상기 협동 로봇을 직접 움직여서 위치와 움직임을 알려주는 직접 교시에 의해 상기 작업 유형 및 워크플로우에 따라 상기 로봇을 동작시키면서 상기 협동 로봇의 동작에 기초하여 생성되는 상기 협동 로봇 동작의 특성을 포함하는 상기 협동 로봇 동작에 관한 작업 정보를 획득하는 것을 특징으로 하는,
협동 로봇 지능제어를 위한 모니터링 제어 시스템.
The method of claim 1,
The control box,
a work environment measuring unit controlling the collaborative robot to obtain information about a working environment in which the cooperative robot operation is performed according to a work type and a workflow of the cooperative robot operation;
a work information receiving unit configured to control the collaborative robot to obtain work information related to an operation of the cooperative robot according to a work type and a workflow of the cooperative robot operation; and
a robot operation control unit controlling the collaborative robot to perform an operation according to the work type and workflow of the cooperative robot operation based on the obtained information on the work environment and the job information on the operation of the collaborative robot; Including,
The working environment measurement unit,
The operator directly moves the collaborative robot and operates the cooperative robot according to the work type and workflow by direct teaching to inform the location and movement, and includes a starting point of the cooperative robot operation, a passing point and a destination point on a movement path. obtain information about the work environment;
The work information receiving unit,
Including characteristics of the cooperative robot operation generated based on the operation of the cooperative robot while operating the robot according to the work type and workflow by direct teaching in which the operator directly moves the cooperative robot to inform the position and movement Characterized in that obtaining work information about the cooperative robot operation,
Monitoring and control system for intelligent control of collaborative robots.
상기 작업 환경 측정부는,
상기 직접 교시에 의해 상기 작업 유형 및 워크플로우에 따라 상기 협동 로봇이 동작을 수행하는 동안, 설정된 3D 센서 또는 RGB 카메라에 의해 상기 작업 환경에 관한 정보를 획득하는 것을 특징으로 하는,
협동 로봇 지능제어를 위한 모니터링 제어 시스템.The method of claim 5,
The working environment measurement unit,
Characterized in that information on the work environment is acquired by a set 3D sensor or RGB camera while the collaborative robot performs an operation according to the work type and workflow by the direct teaching,
Monitoring and control system for intelligent control of collaborative robots.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210154410A KR20230068530A (en) | 2021-11-11 | 2021-11-11 | cooperative robot monitoring-control system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210154410A KR20230068530A (en) | 2021-11-11 | 2021-11-11 | cooperative robot monitoring-control system |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230068530A true KR20230068530A (en) | 2023-05-18 |
Family
ID=86545639
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210154410A KR20230068530A (en) | 2021-11-11 | 2021-11-11 | cooperative robot monitoring-control system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230068530A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210118380A (en) | 2018-11-19 | 2021-09-30 | 두산로보틱스 주식회사 | Method and apparatus for controlling robot |
-
2021
- 2021-11-11 KR KR1020210154410A patent/KR20230068530A/en not_active Application Discontinuation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210118380A (en) | 2018-11-19 | 2021-09-30 | 두산로보틱스 주식회사 | Method and apparatus for controlling robot |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10919152B1 (en) | Teleoperating of robots with tasks by mapping to human operator pose | |
JP7467041B2 (en) | Information processing device, information processing method and system | |
US7353082B2 (en) | Method and a system for programming an industrial robot | |
CN104936748B (en) | Free-hand robot path teaching | |
US10166673B2 (en) | Portable apparatus for controlling robot and method thereof | |
KR102619004B1 (en) | Robot control apparatus and method for learning task skill of the robot | |
JP7154815B2 (en) | Information processing device, control method, robot system, computer program, and storage medium | |
JP4822926B2 (en) | Method, program and system for estimating three-dimensional position of radio transmitter | |
KR101860200B1 (en) | Selection of a device or an object by means of a camera | |
US20190321977A1 (en) | Architecture and methods for robotic mobile manipluation system | |
KR20190044496A (en) | Automatic apparatus | |
JP6816070B2 (en) | Interference avoidance device and robot system | |
KR101615687B1 (en) | Collision detection robot remote control system and method thereof | |
JP7048539B2 (en) | Vibration display device, operation program creation device, and system | |
CN105598987A (en) | Determination of object-related gripping regions using robot | |
CN112894758A (en) | Robot cleaning control system, method and device and computer equipment | |
JP2010094777A (en) | Remote control support device | |
US11478932B2 (en) | Handling assembly comprising a handling device for carrying out at least one work step, method, and computer program | |
KR20230068530A (en) | cooperative robot monitoring-control system | |
JP2021065971A (en) | Robot teaching system, image forming method and program | |
Wu et al. | Application of visual servoing for grasping and placing operation in slaughterhouse | |
CN115916480A (en) | Robot teaching method and robot working method | |
Fiala | A robot control and augmented reality interface for multiple robots | |
Landa-Hurtado et al. | Kinect-based trajectory teaching for industrial robots | |
TWI806762B (en) | Mark detection device and robot teaching system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal |