KR102477585B1 - 로봇 시스템 및 로봇 제어방법 - Google Patents

로봇 시스템 및 로봇 제어방법 Download PDF

Info

Publication number
KR102477585B1
KR102477585B1 KR1020207030644A KR20207030644A KR102477585B1 KR 102477585 B1 KR102477585 B1 KR 102477585B1 KR 1020207030644 A KR1020207030644 A KR 1020207030644A KR 20207030644 A KR20207030644 A KR 20207030644A KR 102477585 B1 KR102477585 B1 KR 102477585B1
Authority
KR
South Korea
Prior art keywords
force
operator
robot
unit
manipulation
Prior art date
Application number
KR1020207030644A
Other languages
English (en)
Other versions
KR20200127040A (ko
Inventor
히토시 하스누마
준 후지모리
히로키 키노시타
타케시 야마모토
히로키 타카하시
카즈키 쿠라시마
Original Assignee
카와사키 주코교 카부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 카와사키 주코교 카부시키가이샤 filed Critical 카와사키 주코교 카부시키가이샤
Publication of KR20200127040A publication Critical patent/KR20200127040A/ko
Application granted granted Critical
Publication of KR102477585B1 publication Critical patent/KR102477585B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/04Foot-operated control means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1633Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/427Teaching successive positions by tracking the position of a joystick or handle to control the positioning servo of the tool head, master-slave control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36455Sensor, tactile feedback, operator feels forces of tool on workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36489Position and force
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39529Force, torque sensor in wrist, end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40144Force sensation feedback from slave
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40153Teleassistance, operator assists, controls autonomous robot
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40391Human to robot skill transfer
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40599Force, torque sensor integrated in joint

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)

Abstract

로봇 시스템(1)은 로봇(10), 동작 센서(11), 주위 환경 센서(12, 13), 조작장치(21), 학습 제어부(41), 중계 장치(30)를 포함한다. 로봇(10)은 동작지령에 기초하여 작업을 수행한다. 조작장치(21)는 작업자가 가한 조작력인 작업자 조작력을 검출하여 출력한다. 학습 제어부(41)는 연산 조작력을 출력한다. 중계 장치(30)는 작업자 조작력 및 연산 조작력에 기초하여 동작지령을 출력한다. 학습 제어부(41)는 작업자 조작력, 주위 환경 데이터, 동작 데이터 및 동작지령을 기계학습함으로써 구축된 모델에 의해 센서(11~13)가 출력한 동작 데이터 및 주위 환경 데이터와, 중계 장치(30)가 출력한 동작지령에 기초하여 연산 조작력을 추정하여 출력한다.

Description

로봇 시스템 및 로봇 제어방법
본 발명은 주로 기계학습에 의해 구축된 모델에 기초하여 로봇에 작업을 수행시키는 로봇 시스템에 관한 것이다.
종래에는 미리 작성된 프로그램에 의해 로봇 및 플랜트 등의 제어대상물을 제어하여 원하는 동작을 수행하도록 하였다. 예를 들면, 특허문헌 1에는 로봇의 제어부가 CPU, 로봇을 제어하기 위한 프로그램이 저장된 ROM, 로봇이 작업을 실행하기 위한 로봇 언어로 작성된 프로그램이 저장된 RAM을 포함하는 구성이 개시된다.
일본공개특허 특개평 7-134605호 공보
종래의 구성에서, 로봇 등을 동작시키기 위한 프로그램은 인간이 작업을 이해하고, 동작 방법을 프로그램함으로써 실현되었다. 그러나, 이러한 방법은 프로그램의 작성 및 그 조정에 시간을 요구하는 경우가 많았다.
그 때문에, 최근에는 프로그램의 작성시간의 저감이나, 다양한 상황에 로봇을 유연하게 대응하도록 하는 것 등을 목적으로 하여, 기계학습을 이용한 로봇 동작 제어방법이 제안되고 있다. 이러한 로봇 동작 제어방법은 로봇의 동작 데이터를 기계학습함으로써 모델을 구축하고, 그 모델에 기초하여 로봇을 동작시키는 것이다.
여기서, 작업자가 조작하는 조작장치로 로봇을 동작시키는 것이 가능한 로봇 시스템이 알려져 있다. 이러한 종류의 로봇 시스템에 상기한 로봇 동작 제어방법을 수행하는 제어부를 갖도록 하는 경우에 있어서 최적의 모델은 알려져 있지 않다.
본 발명은 이상의 사정을 감안하여 안출된 것으로서, 그 주요한 목적은 제어부 및 조작장치에 따라 로봇을 동작시키는 로봇 시스템에 있어서, 최적의 모델을 포함하는 구성을 제공하는 것이다.
본 발명이 하결하려는 과제는 이상과 같으며, 다음으로 이 과제를 해결하기 위한 수단과 그 결과를 설명한다.
본 발명의 제1관점에 의하면, 이하의 구성의 로봇 시스템이 제공된다. 즉, 이 로봇 시스템은, 로봇, 동작 센서, 주위 환경 센서, 조작장치, 학습 제어부, 중계 장치를 포함한다. 상기 로봇은 동작지령에 기초하여 작업을 수행한다. 상기 동작 센서는 상기 로봇의 동작을 나타내는 동작 데이터를 검출한다. 상기 주위 환경 센서는 상기 로봇의 주위의 환경의 상태를 나타내는 주위 환경 데이터를 검출한다. 상기 조작장치는 작업자가 조작하는 장치로서, 작업자가 가한 조작력인 작업자 조작력을 검출하여 출력한다. 상기 학습 제어부는 연산 조작력을 출력한다. 상기 중계장치는 상기 작업자 조작력 및 상기 연산 조작력에 기초하여 상기 동작지령을 출력한다. 상기 학습 제어부는 상기 작업자 조작력, 상기 주위 환경 데이터, 상기 동작 데이터 및 상기 동작지령을 기계학습함으로써 구축된 모델에 의해, 상기 동작 센서가 출력한 상기 동작 데이터 및 상기 주위 환경 센서가 출력한 상기 주위 환경 데이터와, 상기 중계장치가 출력한 상기 동작지령에 기초하여 상기 연산 조작력을 추정하여 출력한다.
본 발명의 제2관점에 의하면, 이하의 로봇 제어방법이 제공된다. 즉, 이 로봇 제어방법은, 동작지령에 기초하여 작업을 수행하는 로봇을 제어한다. 이 로봇 제어방법은, 동작 검출 공정, 환경 검출 공정, 작업자 조작력 검출 공정, 연산 조작력 출력 공정, 동작지령 출력 공정을 포함한다. 상기 동작 검출 공정에서는 상기 로봇의 동작을 나타내는 동작 데이터를 검출한다. 상기 환경 검출 공정에서는 상기 로봇의 주위의 환경의 상태를 나타내는 주위 환경 데이터를 검출한다. 상기 연산 조작력 출력 공정에서는 상기 연산 조작력을 출력한다. 동작지령 출력 공정에서는 상기 작업자 조작력 및 상기 연산 조작력에 기초하여, 상기 동작지령을 출력한다. 상기 연산 조작력 출력 공정은 상기 작업자 조작력, 상기 주위 환경 데이터, 상기 동작 데이터 및 상기 동작지령을 기계학습함으로써 구축된 모델에 의해, 검출된 산기 동작 데이터 및 상기 주위 환경 데이터와, 출력된 상기 동작지령에 기초하여 상기 연산 조작력을 추정하여 출력하는 것을 포함한다.
이로써, 학습 제어부의 출력과 조작장치의 출력이 조작력이라는 공통의 형식을 갖도록 모델을 구성한다. 이로써, 작업자 조작력, 연산 조작력을 로봇으로의 동작지령으로 변환하는 처리를 공통화할 수 있다.
본 발명에 의하면, 제어부 및 조작장치에 따라 로봇을 동작시키는 로봇 시스템에 있어서 최적의 모델을 포함하는 구성을 실현할 수 있다.
도 1은 본 발명의 일 실시형태에 따른 로봇 시스템의 구성을 나타낸 블록도이다.
도 2는 기계학습에 의해 구축된 모델을 이용하여 학습 제어부가 수행하는 처리를 나타낸 플로우 차트이다.
도 3은 중계장치에 의해 수행되는 규제 제어 및 변환 제어를 나타내는 플로우 차트이다.
도 4는 제어부에 의한 로봇의 제어를 작업자가 보조할 때 수행하는 추가학습의 플로우 차트이다.
도 5는 제어부가 조작장치를 동작시켜 작업자에게 조작장치의 조작방법을 체험시키는 처리를 나타낸 플로우 차트이다.
도 6은 제어부가 조작장치를 동작시킴으로써 작업자의 조작을 보조하는 처리를 나타낸 플로우 차트이다.
도 7은 제어부에 의한 조작장치의 동작을 작업자에게 체험시킴과 함께, 작업자가 조작장치를 동작시킨 경우에, 그 동작을 추가학습하는 처리를 나타내는 플로우 차트이다.
다음, 도면을 참조하여 본 발명의 실시형태를 설명한다. 먼저, 도 1을 참조하여 본 실시형태의 로봇 시스템(1)에 대하여 설명한다. 도 1은 로봇 시스템(1)의 구성을 나타내는 블록도이다.
로봇 시스템(1)은 로봇(10)에 작업을 수행시키기 위한 시스템이다. 로봇(10)에 수행시키는 작업은 다양하나, 예를 들면, 조립, 가공, 도장, 세정 등이 있다. 로봇(10)은 작업에 관한 동작 데이터를 기계학습함으로써 구축된 모델을 이용하여 제어된다. 그 때문에, 로봇 시스템(1)에서는 기본적으로는 작업자의 보조를 필요로 하지 않고, 로봇(10)이 작업을 자율적으로 수행할 수 있다. 이와 같이 로봇(10)이 작업을 자율적으로 수행하는 것을 "자율운전"이라 칭할 수 있다. 또한, 로봇(10)이 자율적으로 작업을 수행할 뿐 아니라, 작업자의 조작에 따라 로봇(10)을 동작시켜 작업을 수행할 수도 있다. 그리고, 본 실시형태의 로봇 시스템(1)은 작업자의 조작과 시스템 측의 제어를 협동시켜 작업을 수행할 수도 있다.
도 1에 나타낸 바와 같이, 로봇 시스템(1)은, 로봇(10), 작업자 장치(20), 중계 장치(30), 제어부(40)를 포함한다. 각각의 장치는 유선 또는 무선 네트워크를 통하여 서로 접속된다.
로봇(10)은 받침대에 설치된 암(arm)부를 포함한다. 암부는 복수의 관절을 가지며, 각 관절에는 액추에이터가 구비된다. 로봇(10)은 외부로부터 입력된 동작지령에 따라 액추에이터을 동작시킴으로써 암부를 동작시킨다. 이 동작지령은 직선상의 속도 지령과 각속도 지령을 포함한다. 암부의 선단에는 작업내용에 따른 엔드 이펙터가 설치된다. 로봇(10)은 외부로부터 입력된 동작지령에 따라 엔드 이펙터를 동작시킴으로써 작업을 수행한다.
또한, 로봇(10) 또는 그 주위에는 로봇(10)의 종작 및 주위환경 등을 검출하기 위한 센서가 설치된다. 본 실시형태에서는 동작 센서(11), 힘 센서(12), 카메라(13)가 로봇(10)에 설치된다. 동작 센서(11)는 로봇(10)의 암부의 관절마다 설치되어, 각 관절의 회전각도 및 각속도를 검출한다(동작 검출 공정). 힘 센서(12)는 로봇(10)의 동작시에 로봇(10)이 받은 힘을 검출한다(환경 검출 공정). 힘 센서(12)는 엔드 이펙터가 받은 힘을 검출하는 구성일 수 있고, 암부의 각 관절이 받은 힘을 검출하는 구성일 수도 있다. 또한, 힘 센서(12)는 힘 대신에, 또는 추가로 모멘트를 검출하는 구성일 수도 있다. 카메라(13)는 작업대상인 워크의 영상(워크의 작업 진행상황)을 검출한다(환경 검출 공정). 카메라(13) 대신에, 또는 추가로 소리 또는 진동을 검출하는 센서를 설치하여, 이들 센서의 검출결과에 기초하여 워크의 작업 진행상황을 검출할 수도 있다. 동작 센서(11)가 검출하는 데이터는 로봇(10)의 동작을 나타내는 동작 데이터이며, 힘 센서(12) 및 카메라(13)가 검출하는 데이터는 로봇(10)의 주위환경의 상황을 나타내는 주위환경 데이터이다. 이하의 설명에서는 동작 센서(11), 힘 센서(12) 및 카메라(13)을 아울러 "센서(11~13)"라 칭할 수 있다. 또한, 이하의 설명에서는 이들 센서(11~13)가 검출한 데이터를 특히 "센서 정보"라 칭할 수 있다.
작업자 장치(20)는 조작장치(21), 구동부(22)를 포함한다. 조작장치(21)는 로봇(10)을 동작시키기 위하여 작업자가 조작하는 부재이다. 조작장치(21)는 작업내용에 따라서 다르나, 예를 들면, 작업자가 손으로 조작하는 레버 또는 발로 조작하는 페달이다. 조작장치(21)는 미도시의 조작력 검출 센서를 구비한다. 조작력 검출 센서는 작업자가 조작장치(21)에 가한 조작력을 검출한다(조작력 검출 공정). 조작장치(21)가 여러 방향으로 움직일 수 있도록 구성되는 경우, 조작력은 힘의 방향 및 크기를 포함하는 값, 예를 들면, 벡터일 수 있다. 또한, 조작력은 작업자가 가한 힘(N)뿐만이 아니라, 힘에 연동하는 값인 가속도(즉, 작업자가 가한 힘을 조작장치(21)의 질량으로 나눈 값)일 수도 있다. 이하의 설명에서는 작업자가 조작장치(21)에 가한 조작력을 특히 "작업자 조작력"이라 칭할 수 있다. 조작장치(21)가 검출하여 출력한 작업자 조작력은 후술하는 바와 같이 중계 장치(30)에서 동작지령으로 변환된 후에 로봇(10)으로 출력된다. 구동부(22)는 미도시의 액추에이터를 구비한다. 액추에이터는 입력되는 제어신호에 기초하여, 조작장치(21)에 외부로부터 힘을 가함으로써, 조작장치(21)의 동작을 자유롭게 수행할 수 있도록 구성된다. 특히, 후술하는 제어부(40)(조작 재현부(44))로부터 액추에이터는 조작장치(21)에 힘을 가하는 제어신호를 받는다. 또한, 구동부(22)는 작업자 장치(20)의 외부에 구비될 수도 있다.
또한, 로봇 시스템(1)은 복수대의 작업자 장치(20)로 1대의 로봇(10)을 동작시킬 수 있는 구성일 수 있다. 이 경우, 예를 들면, 어느 작업자 장치(20)가 암부를 동작시키고, 다른 작업자 장치(20)가 엔드 이펙터를 동작시키는 등과 같이, 조작대상이 다른 경우를 고려할 수 있다. 또한 1대의 작업자 장치(20)로 복수대의 로봇(10)을 동작시키는 구성일 수도 있다. 이 경우, 작업자 장치(20)는 동작대상인 로봇(10)을 선택하기 위한 선택수단, 예를 들면 미도시의 키를 구비하는 것이 바람직하다.
제어부(40)는 공지의 컴퓨터에 의해 구성되며, 연산장치(CPU 등)와 기억부(예를 들면, ROM, RAM, HDD 등)를 구비한다. 기억부에 기억된 프로그램을 연산장치가 읽어내서 실행함으로써, 제어부(40)는 다양한 수단으로써 기능할 수 있다. 기능마다 명칭을 붙이면, 제어부(40)는 학습 제어부(41), 추가 학습부(42), 산출부(43), 조작 재현부(44), 통신부(45)를 구비한다. 통신부(45)는 커넥터 또는 안테나를 구비하여, 제어부(40)의 외부로부터의 입력을 제어부(40) 내의 각 부분(41~44)으로 출력하도록 구성된다. 통신부(45)는 제어부(40) 내의 각 부분(41~44)에 의한 출력을 제어부(40)의 외부로 출력하도록 구성된다. 예를 들면, 통신부(45)가 받은 제어부(40)의 외부로부터의 입력으로서는, 작업자 장치(20)가 출력하는 작업자 조작력, 센서(11~13)가 출력하는 센서 정보, 후술하는 중계 장치(30)가 출력하는 동작지령이 있다. 또한, 예를 들면, 통신부(45)가 출력하는 제어부(40)의 외부로의 출력으로서는, 후술하는 중계 장치(30)로 출력하는 연산 조작력, 후술하는 작업자 장치(20)로 출력하는 조작 동작지령, 추가 동작지령이 있다. 이하, 제어부(40) 내의 각 부분(41~44)에 의한 제어부(40)의 외부와의 입출력에 대하여는 통신부(45)를 통하는 것을 특히 언급하지 않는 경우가 있다.
학습 제어부(41)는 기계학습에 의해 구축된 모델을 이용하여, 추측에 의해 구한 조작력을 출력한다. 이하, 이 모델의 구축방법에 대하여 설명한다. 작업자가 작업자 장치(20)(조작장치(21))를 조작하여 로봇(10)에 작업을 수행하도록 할 때 취득된 데이터를 기계학습시킴으로써, 이 모델이 구축된다. 구체적으로는, 이 데이터로서는, 도 1에 나타낸 작업자 조작력, 동작지령 및 센서 정보가 있다. 학습 제어부(41)는 작업자 조작력, 동작지령 및 센서 정보(특히, 주위환경 데이터)에 기초하여, 이들 데이터의 대응관계를 기계학습하여 상기와 같이 학습 제어부(41)의 모델이 구축된다. 또한, 이 모델은 작업자 조작력 이외의 데이터인 동작지령 및 센서 정보에 기초하여, 다음 출력해야 할 조작력을 추측하여 출력한다. 이하에서는, 학습 제어부(41)가 추측하여 출력하는 조작력을 특히 연산 조작력이라 칭한다. 이로써, 학습 제어부(41)는 로봇(10)에 작업을 적절하게 수행시키도록 하는 조작력을 출력할 수 있다. 또한, 추가 학습부(42), 산출부(43) 및 조작 재현부(44)의 기능에 대하여는 후술한다.
중계 장치(30)에는 작업자 장치(20)(조작장치(21))가 출력한 작업자 조작력, 제어부(40)가 연산하여 출력한 연산 조작력이 입력된다. 중계 장치(30)는 로봇(10)을 동작시키기 위한 동작지령을 로봇(10) 및 제어부(40)(통신부(45))로 출력한다. 중계 장치(30)는 연산장치 및 기억부를 구비하는 공지의 컴퓨터 및 센서를 구비한다. 기억부에 기억된 프로그램을 연산장치가 읽어내어 실행함으로써, 중계 장치(30)는 다양한 수단으로서 기능할 수 있다. 기능마다 명칭을 붙이면, 중계 장치(30)는 전환부(31), 변환부(32), 규제부(33)를 구비한다.
전환부(31)는 입력된 작업자 조작력 및 연산 조작력으로부터, 작업자 조작력과 연산 조작력의 어느 하나 또는 작업자 조작력과 연산 조작력 모두를 변환부(32)로 출력하도록 구성된다. 이로써, 작업자만이 로봇(10)을 동작시키는 상태와, 제어부(40)만이 로봇(10)을 동작시키는 상태와, 작업자 및 제어부(40)가 협동하여 로봇(10)을 동작시키는 상태를 전환할 수 있다. 예를 들면, 전환부(31)는 한 쪽 조작력의 크기가 0인 것을 센서에 의해 검지한 때, 다른 쪽의 조작력만을 출력하도록 구성될 수 있다. 또한, 예를 들면, 상기 상태를 작업자가 전환하기 위한 상태전환 스위치를 작업자 장치(20)에 설치하고, 중계 장치(30)(전환부(31))는 상태전환 스위치의 상태를 검지하여 전환부(31)의 출력을 변경하도록 구성될 수 있다.
변환부(32)는 전환부(31)로부터 입력된 조작력(작업자 조작력과 연산 조작력의 어느 하나, 작업자 조작력 및 연산 조작력 모두)을, 로봇(10)을 동작시키기 위한 동작지령으로 변환하여 출력한다. 학습 제어부(41)는 출력된 동작지령을 다음의 연산 조작력의 추정 등에 사용한다.
규제부(33)는 로봇(10)이 받은 힘(힘 센서(12)의 출력) 및 조작력에 기초하여, 미리 정해진 동작 규제 조건을 만족하는지 여부를 판정한다. 규제부(33)는 동작 규제 조건을 만족하였다고 판정한 경우 로봇(10)의 동작을 정지시키는 제어를 수행한다. 예를 들면, 규제부(33)는 힘 센서(12)의 출력 및 변환부(32)로의 입력인 조작력이 동작 규제 조건을 만족하였다고 판정한 경우 변환부(32)가 동작지령을 출력하는 것을 정지하도록 제어함으로써, 로봇(10)의 동작을 정지시킨다. 또한, 동작 규제 조건의 상세는 후술한다.
다음, 도 2를 참조하여, 로봇 시스템(1)이 자율적인 작업을 수행할 때의 처리에 대하여 설면한다. 도 2는 기계학습에 의해 구축된 모델을 이용하여 학습 제어부(41)가 수행하는 처리를 나타내는 플로우 차트이다.
학습 제어부(41)는 동작 센서(11), 힘 센서(12), 및 카메라(13)가 검출한 센서 정보와, 중계 장치(30)(변환부(32))가 출력한 동작지령을 취득한다(S101). 학습 제어부(41)는 상기와 같이 구축된 모델에 센서 정보 및 동작지령을 입력하고, 다음으로 출력되어야 할 연산 조작력을 추측한다(S102). 그리고, 학습 제어부(41)는 추측한 연산 조작력을 중계 장치(30)(변환부(32))로 출력한다(S103, 연산 조작력 출력 공정). 중계 장치(30)(변환부(32))는 연산 조작력을 동작지령으로 변환하여 로봇(10)에 출력하여 로봇(10)을 동작시킨다. 이로써, 학습 제어부(41)가 출력한 연산 조작력에 따라서 로봇(10)이 동작한다.
그리고, 학습 제어부(41)는 작업이 완료되었는지 여부를 판정하고(S104), 작업이 완료되지 않은 경우에는 새롭게 취득한 센서 정보 및 동작지령에 기초하여 스텝 S102 및 S103의 처리를 수행한다. 또한, 학습 제어부(41)는 작업이 완료되었다고 판정한 경우(S104), 일련의 작업에 대한 제어를 종료하고, 다음 작업을 위하여 필요한 처리를 수행한다. 예를 들면, 학습 제어부(41)는 스텝 S101 내지 S103의 처리를 소정 횟수 반복한 결과, 어느 처리에서도 출력하는 연산 조작력의 크기가 O인 것을 검출한 때, 작업이 완료되었다고 판정하도록 할 수 있다.
이와 같이, 학습 제어부(41)의 출력으로서 조작력을 채용한 경우에도, 로봇 시스템(1)에 자율적으로 작업을 수행하도록 할 수 있다.
다음으로, 도 3을 참조하여, 중계 장치(30)가 수행하는 제어에 대하여 설명한다. 도 3은, 중계 장치(30)의 규제부(33)에 의해 수행되는 규제 제어와, 변환부(32)에 의해 수행되는 변환 제어를 나타내는 플로우 차트이다.
중계 장치(30)는 힘 센서(12)의 검출값과, 작업자 장치(20)(조작장치(21))가 출력한 작업자 조작력과, 제어부(40)(학습 제어부(41))가 출력한 연산 조작력을 취득한다(S201). 작업자 장치(20)(조작장치(21))와 제어부(40)(학습 제어부(41)) 중 어느 한 쪽만이 조작력을 출력하는 경우, 예를 들면, 다른 한 쪽이 출력하는 조작력의 크기가 0인 것을 중계 장치(30)가 검지한 경우에, 중계 장치(30)는 당해 한 쪽만의 조작력을 취득한다. 또한, 조작력의 크기에 관계없이 중계 장치(30)는 양쪽의 조작력을 취득할 수도 있다.
다음, 중계 장치(30)(규제부(33))는 힘 센서(12)의 검출값과 취득한 조작력에 기초하여 동작 규제 조건을 만족하는지 여부를 판정한다(S202). 동작 규제 조건이란 로봇(10) 또는 주위환경이 상정 외의 상황에 빠졌는지 여부 등을 판정하기 위한 조건이다. 예를 들면, 힘 센서(12)의 검출값이 역치 이상인 것, 작업자 조작력 또는 연산 조작력이 역치 이상인 것, 혹은, 힘 센서(12)의 검출값이 계속 상승함에도 불구하고 같은 방향으로 로봇(10)을 동작시키는 지시(조작력)가 계속 입력되는 것 등을 동작 규제 조건의 예로 들 수 있다. 여기서 예로 든 동작 규제 조건은 일 예로서, 다른 조건이 설정될 수도 있다. 또한, 상기 설명한 이외의 데이터를 이용하여, 이 판정을 수행할 수도 있다. 예를 들면, 소리를 검출하는 소리 센서를 사용하여 역치 이상의 음량이 검출된 경우에 동작 규제 조건을 만족하였다고 판정할 수도 있다.
규제부(33)는 동작 규제 조건을 만족하였다도 판정한 경우, 로봇(10)의 동작을 정지시킨다(S203). 예를 들면, 규제부(33)는 동작 규제 조건을 만족하였다고 판정한 경우, 변환부(32)가 동작지령을 출력하는 것을 정지시키도록 제어함으로써 로봇(10)의 동작을 정지시킨다. 또한, 동작 규제 조건을 만족한 경우에, 별도의 처리를 수행하는 구성일 수 있다. 예를 들면, 소정 방향으로의 로봇(10)의 동작을 금지하도록 하는 동작지령을 출력하도록 변환부(32)를 제어하는 처리, 변환된 동작지령을 저감하여 출력하도록 변환부(32)를 제어하는 처리 등을 수행할 수 있다.
한편, 규제부(33)가 동작 규제 조건을 만족하지 않았다고 판정한 경우, 규제부(33)는 변환부(32)를 제어하여 조작력을 동작지령으로 변환시킨다. 변환부(32)는 작업자 조작력과 연산 조작력과의 합력을 구하고, 이 합력을 로봇(10)의 동작지령으로 변환하여(S204), 변환한 동작지령을 로봇(10) 및 제어부(40)로 출력한다(S205, 동작 지령 출력 공정). 또한, 작업자 조작력과 연산 조작력 중 한 쪽만의 조작력이 변환부(32)에 입력되는 경우, 예를 들면, 다른 쪽의 조작력의 크기가 0인 것을 변환부(32)가 검지한 경우에는, 변환부(32)는 당해 한 쪽의 조작력을 동작지령으로 변환하여 출력할 수 있다.
여기서, 만약 제어부(40)(학습 제어부(41))의 출력이 로봇(10)의 위치 또는 속도 등인 경우, 작업자 장치(20)(조작장치(21))의 출력은 작업자 조작력이고, 제어부(40)의 출력 형식, 즉 출력의 차원이 서로 다르기 때문에, 양 출력을 단순히 가산 또는 감산할 수 없다. 이러한 점에서, 본 실시형태에서는 작업자 장치(20)의 출력(작업자 조작력)과 제어부(40)의 출력(연산 조작력)은 출력의 형식, 즉, 출력의 차원이 같다. 이 때문에, 양 출력의 가산 또는 감산을 간편하고 단시간에 수행할 수 있다. 작업자 장치(20)의 출력과 제어부(40)의 출력 양 쪽을 모두 이용하여 로봇(10)을 동작시키는 경우, 짧은 타임 랙으로 2개의 출력을 합산하는 것이 바람직하므로, 간편하고 단시간에 합산을 할 수 있는 것은 로봇 시스템(1)에 있어서 큰 이점이 된다.
또한, 본 실시형태에서는 작업자 장치(20)가 로봇(10)을 동작시킬지, 제어부(40)가 로봇(10)을 동작시킬지를 작업자가 전환하면서 작업을 수행하는 경우에도, 작업자 장치(20) 및 제어부(40)의 출력 차원이 같기 때문에 변환부(32)는 동작 지령으로의 변환처리의 내용을 같게 할 수 있다, 즉, 로봇(10)의 동작주체(즉, 작업자 장치(20) 또는 제어부(40))를 전환하여도 변환부(32)의 변환 처리 내용은 상기 전환에 영향을 받지 않는다. 이로써, 로봇(10)의 동작주체를 스무스하게 전환할 수 있다.
다음, 도 4를 참조하여 작업자의 보조작업에 의해 추가 학습을 리얼타임으로 수행하는 처리에 대하여 설명한다. 도 4는, 상기 처리를 나타내는 플로우 차트이다.
작업자는 제어부(40)에 의한 로봇(10)의 동작을 확인하면서, 개선되는 쪽이 좋은 부분을 발견한 경우, 작업자 장치(20)(조작장치(21))를 조작한다. 작업자 장치(20)는 작업자 조작력을 중계 장치(30) 및 제어부(40)로 출력한다. 중계 장치(30)는 제어부(40)(학습 제어부(41))로부터 연산 조작력을 받아서, 연산 조작력과 작업자 조작력을 합산한 조작력을 동작지령으로 변환하여 로봇(10)(및 제어부(40))으로 출력한다. 이로써, 제어부(40)에 의한 로봇(10)의 조작을 작업자가 보조할 수 있다.
또한, 상기 작업자에 의한 보조작업은 모델을 개선하기 위하여도 유용하기 때문에, 제어부(40)는 작업자의 보조작업에 기초하여 추가학습을 수행한다. 구체적으로 설명하면, 제어부(40)는 센서 정보, 동작 정보, 작업자 장치(20)가 출력한 작업자 조작력을 취득한다(S301).
다음, 추가 학습부(42)는 중계 장치(30)에 출력한 연산 조작력을 학습 제어부(41)로부터 취득한다(S302). 그 후, 추가 학습부(42)는 작업자 조작력이 있는지 여부(즉, 작업자의 보조작업이 수행되고 있는지의 여부)를 판단한다(S303). 추가 학습부(42)는 작업자 조작력이 있는 경우, 예를 들면, 작업자 조작력의 크기가 0을 초과한 것을 검지한 경우에는, 작업자 조작력과 연산 조작력의 합력이 보다 적절한 조작력인것으로 하여, 당해 합력, 동작지령 및 센서 정보에 기초하여 추가학습을 수행하여 모델의 갱신을 수행한다(S304). 즉, 스텝 S301에서 취득한 센서 정보가 나타내는 상황에서, 추가 학습부(42)는 연산 조작력보다는 "작업자 조작력과 연산 조작력의 합력" 쪽이 평가치가 높게 되도록 모델을 갱신하는 추가 학습을 수행한다. 또한, 추가 학습부(42)는 작업자에 의해 보조작업이 수행될 때 마다 이와 같은 추가학습을 수행한다.
이상의 처리를 반복함으로써, 보다 적절한 모델을 구축할 수 있다. 이로써, 학습 제어부(41)는 보다 적절한 작업을 로봇(10)에 수행시킬 수 있다.
또한, 도 4의 처리 대신에, 예를 들면, 스텝 S302에서 작업자 조작력이 검출된 경우에, 작업자 장치(20)(조작장치(21))만의 출력에 기초하여 로봇(10)이 동작할 수 있도록 할 수 있다. 예를 들면, 스텝 S302에서 작업자 조작력의 크기가 0을 초과한 것을 검지한 경우, 추가 학습부(42)는 연산 조작력을 학습 제어부(41)로부터 취득하지 않도록 할 수 있다. 이 경우, 스텝 S303에서는 "작업자 조작력과 연산 조작력의 합력"이 아니라 "작업자 조작력"의 평가치가 높아지도록 모델을 갱신하는 추가학습을 수행한다.
또한, 상기 추가학습은 로봇 시스템(1)을 실제의 생산현장에 설치한 후에 수행될 수 있다. 또한 로봇 시스템(1)을 생산현장에 설치하기 전의 학습단계에서 수행될 수도 있다. 그리고, 가상공간 상에서 로봇(10)을 동작시키는 시뮬레이션 단계에서도 수행될 수 있다.
다음, 도 5 및 도 6을 참조하여, 제어부(40)가 작업자에게 작업자 장치(20)의 조작방법을 교육하는 처리에 대하여 설명한다.
작업자 장치(20)(조작장치(21))의 조작경험이 없는 작업자에게 작업자 장치(20)의 적절한 조작을 체험시키는 것은 유용하다. 본 실시형태에서는 제어부(40)가 작업자 장치(20)(조작장치(21))의 적절한 조작을 재현하여 작업자에게 체험시킨다. 이하, 이러한 종류의 교육을 수행하는 경우의 처리 흐름을 설명한다.
제어부(40)는 스템 S101 및 S102와 마찬가지로, 필요한 정보인 센서 정보와 동작 정보를 취득하고(S401), 모델에 센서 정보 및 동작 정보를 입력하여 연산 조작력을 추측한다(S402).
다음, 제어부(40)(산출부(43))는 구동부(22)가 조작장치(21)에 외부에서 가하는 힘을 추측한 연산 조작력과 같은 힘으로 하기 위하여, 구동부(22)의 동작을 나타내는 조작동작을 산출한다(S403). 환언하면, 작업자 장치(20)(조작장치(21))를 어떻게 조작하면 제어부(40)와 마찬가지로 로봇(10)을 동작시킬 수 있는지를 산출한다. 여기서, 주지의 기계 제어 기술을 이용함으로써, 작업자가 조작장치(21)에 가하는 힘(작업자 조작력)과 같은 힘으로 구동부(22)가 조작장치(21)에 힘을 가하는 것을 실현할 수 있다.
다음, 제어부(40)(조작 재현부(44))는 산출부(43)가 산출한 조작동작에 따라 구동부(22)를 움직이게 하기 위한 제어신호인 조작 동작 지령을 출력한다(S404).
이로써, 작업자는 작업자 장치(20)(조작장치(21))를 손으로 잡거나 하는 것만으로, 작업자 장치(20)를 어떻게 조작하여야 좋을지를 체험할 수 있다. 환언하면, 제어부(40)가 기계학습에 의해 습득한 기능을 작업자에게 전달할 수 있다.
또한 작업자 장치(20)(조작장치(21))의 조작경험이 있는 작업자에게 작업자 장치(20) 조작의 개선되어야 할 조작을 지적하거나, 개선 후의 동작을 체험시키거나 하는 것은 유용하다. 이하, 이러한 종류의 교육을 수행하는 경우의 처리 흐름을 설명한다.
제어부(40)는 스텝 S101 및 S102와 마찬가지로, 필요한 정보인 센서 정보와 동작지령을 취득하고(S501), 모델에 센서 정보 및 동작지령을 입력하여 연산 조작력을 추측한다(S502). 단, 작업자에 의한 작업자 장치(20)의 조작을 확인하기 위하여, 스텝 S501에서는 추가로 작업자 조작력도 취득한다.
다음, 제어부(40)(산출부(43))는 연산 조작력과 작업자 조작력의 차분(差分)을 검출하고, 구동부(22)가 조작장치(21)에 외부에서 가하는 힘을 상기 차분으로 하기 위하여, 구동부(22)의 동작을 나타내는 추가동작을 산출한다(S503). 환언하면, 작업자에 의한 조작장치(21)의 조작을 어떻게 수정하면 제어부(40)와 마찬가지로 로봇(10)을 동작시킬 수 있을지를 산출한다. 여기서, 주지의 기계 제어 기술을 이용함으로써, 구동부(22)가 조작장치(21)에 힘(차분)을 가하는 것을 실현할 수 있다. 즉, 주지의 기계 제어 기술을 이용함으로써, 작업자 및 구동부(22)가 조작장치(21)에 가하는 힘을 연산 조작력과 같은 힘으로 실현 가능하다.
다음, 제어부(40)(조작 재현부(44))는 산출부(43)가 산출한 추가동작에 따라 구동부(22)를 동작시키기 위한 제어신호인 추가동작지령을 출력한다(S504). 이로써, 작업자는 자신의 조작을 확인하면서, 어떻게 개선하면 좋을지를 체험할 수 있다.
도 5 및 도 6을 참조하여 설명한 작업자의 교육은 로봇 시스템(1)을 실제 생산현장에 설치한 후에 실시될 수 있다. 또한, 로봇 시스템(1)을 생산현장에 설치하기 전의 학습단계에서 실시될 수 있다. 또한, 가상공간 상에서 로봇(10)을 동작시키는 시뮬레이션을 이용하여 실시될 수도 있다.
작업자 장치(20)(조작장치(21))의 조작 경험이 풍부한 작업자가 로봇 시스템(1)의 자율 운전시에 있어서 작업자 장치(20)의 가상조작을 체험하는 것, 즉, 제어부(40)가 학습한 로봇(10)의 현재의 동작은 작업자 장치(20)를 어떻게 조작하면 실현할 수 있을지를 작업자 장치(20)의 실제 움직임에 의해 체험하는 것은 유용하다. 또한, 상기 경험이 풍부한 작업자가 작업자 장치(20)의 가상조작을 체험하면서 자율 운전에 있어서 로봇(10)의 현재의 동작에 개선이 필요하다고 판단한 때, 작업자가 작업자 장치(20)에 전달하는 촉각, 힘 감각 등을 느끼면서 로봇(10)의 보다 적절한 동작을 작업자 장치(20)의 조작에 의해 제어부(40)에 추가학습시키는 것은 한층 더 유용하다. 이하, 이러한 종류의 가상 조작 체험 및 추가학습을 수행하는 처리를 도 7을 참조하여 설명한다.
제어부(40)는 센서 정보와 동작지령을 취득하여 이들을 기억하고(S601), 모델에 센서 정보 및 동작지령을 입력하여, 연산 조작력을 추측하고 이를 기억한다(S602).
다음, 제어부(40)(산출부(43))는 구동부(22)가 조작장치(21)에 외부에서 가하는 힘을 추측한 연산 조작력과 같은 힘으로 하기 위하여, 구동부(22)의 동작을 나타내는 조작동작을 산출한다(S603). 환언하면, 작업자 장치(20)(조작장치(21))를 어떻게 조작하면 제어부(40)와 마찬가지로 로봇(10)을 동작시킬 수 있는지를 산출한다. 여기서, 주지의 기계 제어 기술을 이용함으로써, 작업자가 조작장치(21)에 가하는 힘과 같은 힘으로 구동부(22)가 조작장치(21)에 가하는 힘을 실현할 수 있다.
다음, 제어부(40)(조작 재현부(44))는 산출부(43)가 산출한 조작동작에 따라 구동부(22)를 움직이게 하기 위한 제어신호인 조작 동작 지령을 출력한다(S604). 이로써, 작업자는 작업자 장치(20)의 가상조작을 체험할 수 있다.
작업자는 작업자 장치(20)의 가상조작을 체험하면서, 자율 운전시에 있어서 로봇(10)의 현재의 동작에 개선이 필요하다고 판단한 때, 작업자 장치(20)(조작장치(21))를 조작한다. 제어부(40)는 작업자 장치(20)(조작장치(21))가 출력한 작업자 조작력을 취득한다(S605). 또한 로봇(10)의 동작을 개선하기 위하여 제어부(40)에 추가학습시키는 조작력은 구동부(22)가 조작장치(21)에 가한 힘(연산 조작력)과 작업자가 조작장치(21) 그 자체에 가한 힘(작업자 조작력)과의 합력이다.
다음, 추가 학습부(42)는 작업자 장치(20)로부터 출력된 작업자 조작력이 있는지 여부(즉, 작업자가 작업자 장치(20)를 조작하였는지 여부)를 판단한다(S606). 예를 들면, 작업자 조작력의 크기가 0을 초과하였는지 여부를 검지함으로써 판단할 수 있다. 작업자 조작력이 있다고 판단한 경우, 추가 학습부(42)는 상기 작업자 조작력과, 스텝 S602에서 기억한 연산 조작력의 합력을 산출하고(S607), 이 합력과, 스텝 S601에서 기억한 센서 정보 및 동작지령에 기초하여 추가학습을 수행하여 모델을 갱신한다(S608). 또한, 작업자 조작력이 없는 경우에 추가 학습부(42)는 추가학습을 수행하지 않고, 스텝 S601로 돌아간다. 또한, 스텝 S606, S607 대신에 추가 학습부(42)는 작업자 조작력과 기억한 연산 조작력의 합력을 먼저 산출하고 나서, 이 합력이 작업자 조작력과 서로 다른지 여부(즉, 합력과 작업자 조작력의 차이가 0인지 여부)에 따라 작업자 조작력의 유무를 판단할 수도 있다.
이로써, 작업자는 로봇 시스템(1)의 자율 운전시에 있어서 작업자 장치(20)의 가상조작을 체험할 수 있다. 또한, 작업자는 자율 운전시에 있어서, 로봇(10)의 현재의 동작에 개선이 필요하다고 판단한 때에, 작업자 장치(20)에 전달되는 촉각, 힘 감각 등을 느끼면서, 로봇(10)의 보다 적절한 동작을 작업자 장치(20)의 조작에 의해 제어부(40)에 추가학습 시킬 수 있다. 환언하면, 작업자는 제어부(40)가 습득한 기능을 실체험하면서, 이 기능을 더욱 숙달시키도록 제어부(40)를 추가학습시키는 것을 용이하게 수행할 수 있다. 그 결과, 경험이 풍부한 작업자가 갖는 숙달된 기능을 제어부(40)를 통하여 다른 작업자에게 전승하는 것이 용이하게 된다.
도 7을 참조하여 설명한 작업자의 가상 조작 체험 및 추가학습은 로봇 시스템(1)을 실제 생산현장에 설치한 후에 실시될 수 있다. 또한, 로봇 시스템(1)을 생산현장에 설치하기 전의 학습단계에서 실시될 수 있다, 또한, 가상공간 상에서 로봇(10)을 동작시키는 시뮬레이션을 이용하여 실시될 수도 있다.
또한, 도 2 내지 도 7의 처리를 리얼타임(즉, 매우 고속이며, 타임 랙이 무시될 수 있는)으로 수행하는 것이 가능하도록 로봇 시스템(1)이 구성되는 경우도 고려할 수 있다. 이러한 구성의 경우, 통상의 로봇(10)의 용도로는 도 7의 처리를 수회 반복하여도, 스텝 S601, S602에서 취득하는 센서 정보, 동작지령 및 연산 조작력의 경시적 변화는 작다. 따라서, 제어부(40)(추가 학습부(42))는 스텝 S601, S602에서 센서 정보, 동작지령, 연산 조작력을 기억하지 않는 대신에, 스텝 S607, S608의 실행 시에 센서 정보, 동작지령, 연산 조작력을 통신부(45)나 학습 제어부(41)로부터 취득하도록 할 수 있다.
추가로, 상술한 경우에 있어서는 중계 장치(30)가 작업자 장치(20) 및 제어부(40)로부터 작업자 조작력 및 연산 조작력을 수시로 취득하여 동작지령을 출력하도록 할 수 있다. 이로써, 로봇 시스템(1)은 개선 후 로봇(10)의 동작을 추가학습시키면서, 그 동작을 로봇(10)의 실제 동작으로서 반영하는 것을 리얼타임으로 수행할 수 있다. 환언하면, 작업자는 개선 후 로봇(10)의 동작을 실제로 보면서 로봇(10) 동작의 개선작업을 수행할 수 있다.
이상 설명한 바와 같이, 본 로봇 시스템(1)은 로봇(10), 동작 센서(11), 주위 환경 센서(힘 센서(12), 카메라(13)), 조작장치(21), 학습 제어부(41), 중계 장치(30)를 포함한다. 로봇(10)은 동작지령에 기초하여 작업을 수행한다. 동작 센서(11)는 로봇(10)의 동작을 나타내는 동작 데이터를 검출한다. 주위 환경 센서(힘 센서(12), 카메라(13))는 로봇(10) 주위 환경의 상태를 나타내는 주위 환경 데이터를 검출한다. 조작장치(21)는 작업자가 조작하는 장치로서, 작업자가 가한 조작력인 작업자 조작력을 검출하여 출력한다. 학습 제어부(41)는 연산 조작력을 출력한다. 중계 장치(30)는 작업자 조작력 및 연산 조작력에 기초하여 동작지령을 출력한다. 학습 제어부(41)는 작업자 조작력, 주위 환경 데이터, 동작 데이터, 및 동작지령을 기계학습함으로써 구축된 모델에 의해, 센서(11~13)가 출력한 동작 데이터 및 주위 환경 데이터와 중계 장치(30)가 출력한 동작지령에 기초하여 연산 조작력을 추정하여 출력한다.
이로써, 학습 제어부(41)의 출력과, 작업자 장치(20)의 출력이 조작력이라는 공통의 형식을 갖도록 모델을 구성한다, 이로써, 작업자 조작력, 연산 조작력을 로봇으로의 동작지령으로 변환하는 처리를 공통화할 수 있다.
또한, 본 실시형태의 로봇 시스템(1)에 있어서, 중계 장치(30)는 작업자 조작력 및 연산 조작력의 합력을 구하고, 당해 합력을 동작지령으로 변환하여 출력한다.
이로써, 로봇(10)의 작업을 작업자가 보조하거나, 작업자의 작업을 로봇(10)이 보조하는 시스템의 구축이 가능해진다.
또한, 본 실시형태의 로봇 시스템(1)은 추가 학습부(42)를 포함한다. 추가 학습부(42)는 작업자 조작력 및 연산 조작력의 합력, 주위 환경 데이터, 동작 데이터, 및 동작지령에 기초하여 추가학습을 수행하여 모델을 갱신한다.
또한, 본 실시형태의 로봇 시스템(1)은 추가 학습부(42)를 포함한다. 추가 학습부(42)는 작업자 조작력, 주위 환경 데이터, 동작 데이터, 및 동작지령에 기초하여 추가학습을 수행하여 모델을 갱신한다.
이로써, 조작장치(21)를 이용하여 작업자가 로봇(10)의 동작을 수정하고, 이 수정된 동작을 추가학습할 수 있다.
또한, 본 실시형태의 로봇 시스템(1)은 구동부(22), 산출부(43), 조작 재현부(44)를 포함한다. 구동부(22)는 제어신호에 기초하여 조작장치(21)에 힘을 가한다. 산출부(43)는 구동부(22)가 조작장치(21)에 가하는 힘을 연산 조작력과 같은 힘으로 하기 위하여, 구동부(22)의 동작을 나타내는 조작동작을 산출한다. 조작 재현부(44)는 조작동작에 기초하여 제어신호를 출력한다.
이로써, 로봇(10)이 적절한 동작을 하도록 하는 법을 작업자에게 전승할 수 있다.
또한, 본 실시형태의 로봇 시스템(1)은 구동부(22), 산출부(43), 조작 재현부(44)를 포함한다. 구동부(22)는 제어신호에 기초하여 조작장치(21)에 힘을 가한다. 산출부(43)는 구동부(22)가 조작장치(21)에 가하는 힘을 연산 조작력과 작업자 조작력의 차분으로 하기 위하여, 구동부(22)의 동작을 나타내는 추가동작을 산출한다. 조작 재현부(44)는 추가동작에 기초하여 제어신호를 출력한다.
이로써, 작업자는 자신의 로봇(10) 조작의 개선점을 체험할 수 있다.
또한, 본 실시형태의 로봇 시스템(1)은 구동부(22), 산출부(43), 조작 재현부(44)를 포함한다. 구동부(22)는 제어신호에 기초하여 조작장치(21)에 힘을 가한다. 산출부(43)는 구동부(22)가 조작장치(21)에 가하는 힘을 연산 조작력과 같은 힘으로 하기 위하여, 구동부의 동작을 나타내는 조작동작을 산출한다. 조작 재현부(44)는 조작동작에 기초하여 제어신호를 출력한다. 추가 학습부(42)는 작업자 조작력의 크기가 0이 아닐 때, 작업자 조작력 및 연산 조작력의 합력, 주위 환경 데이터, 동작 데이터, 및 동작지령에 기초하여 추가학습을 수행하여 모델을 갱신한다.
이로써, 작업자는 로봇(10)의 학습동작을 체험하면서 로봇(10)의 보다 적절한 동작을 추가학습시킬 수 있다.
또한, 본 실시형태의 로봇 시스템(1)에 있어서, 주위 환경 센서는 주위 환경 데이터로서 로봇(10)이 받은 힘을 검출하는 힘 센서(12)를 포함한다.
이로써, 예를 들면 워크로부터 받은 힘을 고려하여 로봇(10)을 동작시키는 것이 가능해진다.
또한, 본 실시형태의 로봇 시스템(1)에 있어서, 중계 장치(30)는 힘 센서(12)의 검출값과 조작력에 기초하여 미리 정해진 조건(동작 규제 조건)을 만족하는 경우에 로봇(10)의 동작을 규제하는 동작지령을 출력한다.
이로써, 상정되지 않은 상황이 된 경우에 로봇(10)의 동작을 규제할 수 있다.
이상, 본 발명의 바람직한 실시형태를 설명하였으나, 상기 구성은 예를 들면, 이하와 같이 변경할 수 있다.
도 2부터 도 7의 플로우 차트의 내용은 일례로서, 처리의 추가, 처리의 생략, 처리의 순서 변경 등이 이루어질 수 있다.
모델을 구축하기 위하여 입력하는 데이터 및 조작력을 추측하기 위하여 입력하는 데이터로서 상기 실시형태에서 든 데이터는 일례로서 다른 데이터를 입력할 수 있다.
상기 실시형태에서 나타낸 바와 같이 작업자 장치(20)가 복수 대인 경우, 예를 들면, 추가학습시에 있어서, 어떤 작업자 장치(20)가 암부에 대하여 보조작업을 수행하고, 다른 작업자 장치(20)가 엔드 이펙터에 대하여 보조작업을 수행하는 등과 같이, 보조작업을 분담하도록 구성될 수 있다. 또한, 도 5에 나타낸 방법으로 작업자를 교육하는 경우, 제어부(40)로부터 복수 대의 작업자 장치(20)(구동부(22))에 동일한 조작 동작지령을 출력함으로써, 복수의 작업자가 작업자 장치(20)의 적절한 조작을 체험할 수 있도록 할 수 있다.
상기 실시형태에서는 로봇 시스템(1)을 구성하는 각 장치가 같은 작업현장에 배치되는 것을 상정하고 있으나, 네트워크로 정보를 주고받을 수 있는 것이라면, 적어도 1개의 장치(예를 들면, 작업자 장치(20))가 원격지에 배치될 수 있다. 또한, 중계 장치(30)가 갖는 기능의 적어도 일부가 제어부(40)에서 수행되는 구성일 수도 있다. 반대로, 제어부(40)가 갖는 기능의 적어도 일부가 중계 장치(30)에서 수행되는 구성일 수도 있다. 추가로, 중계 장치(30) 및 제어부(40) 이외에도 별도의 하드웨어를 포함하는 구성일 수도 있다.
상기 실시형태에서는 로봇(10)은 받침대에 설치되나, 자율적으로 주행가능한 구성일 수 있다. 또한, 로봇(10)은 암부 이외의 부재로 작업을 수행하는 구성일 수도 있다.
1: 로봇 시스템
10: 로봇
11: 동작 센서
12: 힘 센서
13: 카메라
20: 작업자 장치
30: 중계 장치
40: 제어부
41: 학습 제어부
42: 추가 학습부
43: 산출부
44: 조작 재현부

Claims (10)

  1. 동작지령에 기초하여 작업을 수행하는 로봇;
    상기 로봇의 동작을 나타내는 동작 데이터를 검출하는 동작 센서;
    상기 로봇의 주위 환경의 상태를 나타내는 주위 환경 데이터를 검출하는 주위 환경 센서;
    작업자가 조작하는 장치로서, 작업자가 가한 조작력인 작업자 조작력을 검출하여 출력하는 조작장치;
    연산 조작력을 출력하는 학습 제어부; 및
    상기 작업자 조작력 및 상기 연산 조작력에 기초하여, 상기 동작지령을 출력하는 중계 장치;를 포함하는 로봇 시스템으로서,
    상기 학습 제어부는 상기 작업자 조작력, 상기 주위 환경 데이터, 상기 동작 데이터 및 상기 동작지령을 기계학습함으로써 구축된 모델에 의해, 상기 동작 센서가 검출한 상기 동작 데이터 및 상기 주위 환경 센서가 검출한 상기 주위 환경 데이터와, 상기 중계 장치가 출력한 상기 동작지령에 기초하여, 상기 연산 조작력을 추정하여 출력하는 것을 특징으로 하는,
    로봇 시스템.
  2. 제 1 항에 있어서,
    상기 중계 장치는 상기 작업자 조작력 및 상기 연산 조작력의 합력을 구하고, 당해 합력을 상기 동작지령으로 변환하여 출력하는 것을 특징으로 하는,
    로봇 시스템.
  3. 제 1 항 또는 제 2 항에 있어서,
    상기 작업자 조작력 및 상기 연산 조작력의 합력, 상기 주위 환경 데이터, 상기 동작 데이터 및 상기 동작지령에 기초하여 추가학습을 수행하여 상기 모델을 갱신하는 추가 학습부를 포함하는 것을 특징으로 하는,
    로봇 시스템.
  4. 제 1 항 또는 제 2 항에 있어서,
    상기 작업자 조작력, 상기 주위 환경 데이터, 상기 동작 데이터 및 상기 동작지령에 기초하여 추가 학습을 수행하여 상기 모델을 갱신하는 추가 학습부를 포함하는 것을 특징으로 하는,
    로봇 시스템.
  5. 제 1 항 또는 제 2 항에 있어서,
    제어신호에 기초하여 상기 조작장치에 힘을 가하는 구동부;
    상기 구동부가 상기 조작장치에 가하는 힘을 상기 연산 조작력과 같은 힘으로 하기 위하여, 상기 구동부의 동작을 나타내는 조작동작을 산출하는 산출부; 및
    상기 조작동작에 기초하여 상기 제어신호를 출력하는 조작 재현부;를 포함하는 것을 특징으로 하는,
    로봇 시스템.
  6. 제 1 항 또는 제 2 항에 있어서,
    제어신호에 기초하여 상기 조작장치에 힘을 가하는 구동부;
    상기 구동부가 상기 조작장치에 가하는 힘을 상기 연산 조작력과 상기 작업자 조작력과의 차분(差分)으로 하기 위하여, 상기 구동부의 동작을 나타내는 조작동작을 산출하는 산출부; 및
    상기 조작동작에 기초하여 상기 제어신호를 출력하는 조작 재현부;를 포함하는 것을 특징으로 하는,
    로봇 시스템.
  7. 제 3 항에 있어서,
    제어신호에 기초하여 상기 조작장치에 힘을 가하는 구동부;
    상기 구동부가 상기 조작장치에 가하는 힘을 상기 연산 조작력과 같은 힘으로 하기 위하여, 상기 구동부의 동작을 나타내는 조작동작을 산출하는 산출부; 및
    상기 조작동작에 기초하여 상기 제어신호를 출력하는 조작 재현부;를 포함하며,
    상기 추가 학습부는 상기 작업자 조작력의 크기가 0이 아닐 때, 상기 작업자 조작력 및 상기 연산 조작력의 합력, 상기 주위 환경 데이터, 상기 동작 데이터 및 상기 동작지령에 기초하여 추가학습을 수행하여 상기 모델을 갱신하는 것을 특징으로 하는,
    로봇 시스템.
  8. 제 1 항 또는 제 2 항에 있어서,
    상기 주위 환경 센서는, 상기 주위 환경 데이터로서 상기 로봇이 받은 힘을 검출하는 힘 센서를 포함하는 것을 특징으로 하는,
    로봇 시스템.
  9. 제 8 항에 있어서,
    상기 중계 장치는 상기 힘 센서의 검출값과 상기 조작력에 기초하여, 미리 정해진 조건을 만족한 경우에 상기 로봇의 동작을 규제하는 상기 동작지령을 출력하는 것을 특징으로 하는,
    로봇 시스템.
  10. 동작지령에 기초하여 작업을 수행하는 로봇의 제어방법으로서,
    상기 로봇의 동작을 나타내는 동작 데이터를 검출하는 동작 검출 공정;
    상기 로봇의 주위의 환경의 상태를 나타내는 주위 환경 데이터를 검출하는 환경 검출 공정;
    작업자가 조작장치에 가한 조작력인 작업자 조작력을 검출하는 작업자 조작력 검출 공정;
    연산 조작력을 출력하는 연산 조작력 출력 공정; 및
    상기 작업자 조작력 및 상기 연산 조작력에 기초하여, 상기 동작지령을 출력하는 동작지령 출력 공정;을 포함하며,
    상기 연산 조작력 출력 공정은, 상기 작업자 조작력, 상기 주위 환경 데이터, 상기 동작 데이터 및 상기 동작지령을 기계학습함으로써 구축된 모델에 의해, 검출된 상기 동작 데이터 및 상기 주위 환경 데이터와, 출력된 상기 동작지령에 기초하여, 상기 연산 조작력을 추정하여 출력하는 것을 포함하는 것을 특징으로 하는,
    로봇 제어방법.
KR1020207030644A 2018-05-25 2019-05-24 로봇 시스템 및 로봇 제어방법 KR102477585B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2018-100523 2018-05-25
JP2018100523A JP7039389B2 (ja) 2018-05-25 2018-05-25 ロボットシステム及びロボット制御方法
PCT/JP2019/020698 WO2019225747A1 (ja) 2018-05-25 2019-05-24 ロボットシステム及びロボット制御方法

Publications (2)

Publication Number Publication Date
KR20200127040A KR20200127040A (ko) 2020-11-09
KR102477585B1 true KR102477585B1 (ko) 2022-12-14

Family

ID=68615557

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207030644A KR102477585B1 (ko) 2018-05-25 2019-05-24 로봇 시스템 및 로봇 제어방법

Country Status (6)

Country Link
US (1) US11919164B2 (ko)
EP (1) EP3804919A4 (ko)
JP (1) JP7039389B2 (ko)
KR (1) KR102477585B1 (ko)
CN (1) CN112203811B (ko)
WO (1) WO2019225747A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7117237B2 (ja) * 2018-12-27 2022-08-12 川崎重工業株式会社 ロボット制御装置、ロボットシステム及びロボット制御方法
JP7336463B2 (ja) * 2018-12-27 2023-08-31 川崎重工業株式会社 ロボット制御装置、ロボットシステム及びロボット制御方法
JP7460366B2 (ja) * 2019-12-27 2024-04-02 川崎重工業株式会社 訓練データ選別装置、ロボットシステム及び訓練データ選別方法
WO2021157104A1 (ja) * 2020-02-03 2021-08-12 国立大学法人東京工業大学 ロボット制御システム、ロボットシステム、操作システム、ロボット制御方法、およびロボット制御プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014128857A (ja) * 2012-12-28 2014-07-10 Yaskawa Electric Corp ロボット教示システムおよびロボット教示方法
JP2016159407A (ja) * 2015-03-03 2016-09-05 キヤノン株式会社 ロボット制御装置およびロボット制御方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT1144707B (it) * 1981-05-15 1986-10-29 Dea Spa Unita a braccio operativo controllata da un sistema a calcolatore
JPH07134605A (ja) 1993-11-11 1995-05-23 Mitsubishi Electric Corp 産業用ロボットの制御装置
JP2006293442A (ja) 2005-04-05 2006-10-26 Sony Corp 情報処理装置および方法、並びにプログラム
JP5137537B2 (ja) 2007-11-28 2013-02-06 三菱電機株式会社 ロボットの作業動作最適化装置
CN102581852B (zh) * 2012-01-20 2015-01-14 上海交通大学 用于机器人重载装配和搬运作业的位姿调整系统
US10625416B2 (en) * 2015-05-28 2020-04-21 Hitachi, Ltd. Robot operation device and program
JP6522488B2 (ja) * 2015-07-31 2019-05-29 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法
JP6240689B2 (ja) * 2015-07-31 2017-11-29 ファナック株式会社 人の行動パターンを学習する機械学習装置、ロボット制御装置、ロボットシステム、および機械学習方法
EP3342556A4 (en) * 2015-08-25 2019-05-29 Kawasaki Jukogyo Kabushiki Kaisha ROBOTIC SYSTEM
JP6567998B2 (ja) 2016-03-23 2019-08-28 国立大学法人 東京大学 制御方法
JP6457421B2 (ja) 2016-04-04 2019-01-23 ファナック株式会社 シミュレーション結果を利用して学習を行う機械学習装置,機械システム,製造システムおよび機械学習方法
US10500726B2 (en) * 2016-04-25 2019-12-10 Kindred Systems Inc. Facilitating device control
US9751212B1 (en) 2016-05-05 2017-09-05 Toyota Jidosha Kabushiki Kaisha Adapting object handover from robot to human using perceptual affordances
JP6431017B2 (ja) * 2016-10-19 2018-11-28 ファナック株式会社 機械学習により外力の検出精度を向上させた人協調ロボットシステム
JP6392825B2 (ja) * 2016-11-01 2018-09-19 ファナック株式会社 学習制御機能を備えたロボット制御装置
US10493624B1 (en) * 2016-12-23 2019-12-03 X Development Llc Mobile robot
CN106938470B (zh) * 2017-03-22 2017-10-31 华中科技大学 一种机器人力控示教模仿学习的装置及方法
US11977365B2 (en) * 2017-11-28 2024-05-07 Kawasaki Jukogyo Kabushiki Kaisha Skill transfer mechanical apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014128857A (ja) * 2012-12-28 2014-07-10 Yaskawa Electric Corp ロボット教示システムおよびロボット教示方法
JP2016159407A (ja) * 2015-03-03 2016-09-05 キヤノン株式会社 ロボット制御装置およびロボット制御方法

Also Published As

Publication number Publication date
EP3804919A4 (en) 2022-04-06
US20210220990A1 (en) 2021-07-22
KR20200127040A (ko) 2020-11-09
US11919164B2 (en) 2024-03-05
JP7039389B2 (ja) 2022-03-22
JP2019202404A (ja) 2019-11-28
EP3804919A1 (en) 2021-04-14
CN112203811B (zh) 2023-05-09
CN112203811A (zh) 2021-01-08
WO2019225747A1 (ja) 2019-11-28

Similar Documents

Publication Publication Date Title
KR102477585B1 (ko) 로봇 시스템 및 로봇 제어방법
US10932874B2 (en) Remote control robot system
CN108883533B (zh) 机器人控制
US10751874B2 (en) Method of teaching robot and robotic arm control device
US11977365B2 (en) Skill transfer mechanical apparatus
JP7068059B2 (ja) 遠隔操作方法及び遠隔操作システム
JP5191738B2 (ja) マニピュレータの制御方法および制御システム
US11478919B2 (en) Robot system and method of controlling the robot system
JP6959762B2 (ja) 遠隔操作ロボットシステム
KR20210006431A (ko) 로봇 시스템 및 추가 학습 방법
US20220063091A1 (en) Robot control device, robot system and robot control method
Katayama et al. Whole-body model predictive control with rigid contacts via online switching time optimization
Bjerkeng et al. Active camera control with obstacle avoidance for remote operations with industrial manipulators: Implementation and experimental results
US20210154833A1 (en) Intuitive Control of Lifting Equipment
JP2008217260A (ja) 力覚提示装置
Sun et al. Lever control for position control of a typical excavator in joint space using a time delay control method
KR20180097532A (ko) 위치 및/또는 자세를 불연속으로 수동 입력하기 위한 제어 시스템이 구비된 로봇
Cheung et al. Cooperative control of a multi-arm system using semi-autonomous telemanipulation and adaptive impedance
Lee et al. Data-Driven Actuator Model-Based Teleoperation Assistance System
JPH06206185A (ja) ロボット制御装置
KR102260304B1 (ko) 무인 이동체의 원격 조종기 조종 시스템 및 조종 로봇
Lee et al. A probabilistic motion control approach for teleoperated construction machinery
CN117359623A (zh) 机械臂的受迫运动控制方法和系统
Antonelli et al. A modular control law for underwater vehicle-manipulator systems adapting on a minimun set of parameters

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right