CN112203811A - 机器人系统及机器人控制方法 - Google Patents
机器人系统及机器人控制方法 Download PDFInfo
- Publication number
- CN112203811A CN112203811A CN201980035180.8A CN201980035180A CN112203811A CN 112203811 A CN112203811 A CN 112203811A CN 201980035180 A CN201980035180 A CN 201980035180A CN 112203811 A CN112203811 A CN 112203811A
- Authority
- CN
- China
- Prior art keywords
- force
- operator
- robot
- unit
- command
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000004364 calculation method Methods 0.000 claims abstract description 41
- 238000010801 machine learning Methods 0.000 claims abstract description 16
- 238000001514 detection method Methods 0.000 claims description 21
- 230000008569 process Effects 0.000 description 20
- 238000006243 chemical reaction Methods 0.000 description 17
- 238000012545 processing Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000004519 manufacturing process Methods 0.000 description 6
- 238000004088 simulation Methods 0.000 description 6
- 239000012636 effector Substances 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/02—Hand grip control means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/04—Foot-operated control means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/085—Force or torque sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1633—Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/42—Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
- G05B19/427—Teaching successive positions by tracking the position of a joystick or handle to control the positioning servo of the tool head, master-slave control
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/36—Nc in input of data, input key till input tape
- G05B2219/36455—Sensor, tactile feedback, operator feels forces of tool on workpiece
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/36—Nc in input of data, input key till input tape
- G05B2219/36489—Position and force
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39529—Force, torque sensor in wrist, end effector
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40144—Force sensation feedback from slave
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40153—Teleassistance, operator assists, controls autonomous robot
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40391—Human to robot skill transfer
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40599—Force, torque sensor integrated in joint
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Manipulator (AREA)
Abstract
一种机器人系统及机器人控制方法。机器人系统(1)具备机器人(10)、动作传感器(11)、周围环境传感器(12、13)、操作装置(21)、学习控制部(41)、及中转装置(30)。机器人(10)根据动作指令进行作业。操作装置(21)检测并输出作为作业者所施加的操作力的作业者操作力。学习控制部(41)输出运算操作力。中转装置(30)根据作业者操作力和运算操作力输出动作指令。学习控制部(41)利用通过对作业者操作力、周围环境数据、动作数据、及动作指令进行机器学习而建立的模型,根据传感器(11~13)所输出的动作数据和周围环境数据、及中转装置(30)所输出的动作指令,来推测并输出运算操作力。
Description
技术领域
本发明主要涉及一种基于通过机器学习而建立的模型使机器人进行作业的机器人系统。
背景技术
现有技术中,通常是利用预先制作的程序来控制机器人和工厂等控制对象物,以使其进行所希望的动作。例如,专利文献1中公开了一种机器人的结构,该机器人的控制部具备CPU、储存有控制机器人用的程序的ROM、以及储存有机器人执行作业用的用机器语言编写的程序的RAM。
现有技术的结构中,用于使机器人等动作的程序是通过人理解作业后将动作方法编程而实现的。然而,采用这样的手法,程序的编制及其调制较为费时的情况较多。
因此,近年来,出于减少程序编制时间、使机器人灵活地对应各种各样的状况等的目的,采用机器学习的机器人动作控制方法得到提案。该机器人动作控制方法是,通过对机器人的动作数据进行机器学习来建立模型,并基于该模型使机器人动作。
在此,已知有一种能用作业者所操作的操作装置使机器人动作的机器人系统。但使这种机器人系统具备进行上述机器人动作控制的控制部的情况下的合适的模型尚未得知。
【专利文献】
【专利文献1】:日本特开平7-134605号公报
发明内容
鉴于上述情况,本发明的主要目的在于,在使机器人相应于控制部和操作装置动作的机器人系统中,提供包含有合适的模型的结构。
本发明所要解决的技术问题如上所述,下面对用于解决该技术问题的技术方案及其效果进行说明。
基于本发明的第一个观点,提供具有以下结构的机器人系统。即,该机器人系统具备机器人、动作传感器、周围环境传感器、操作装置、学习控制部、及中转装置。所述机器人根据动作指令进行作业。所述动作传感器检测表示所述机器人的动作的动作数据。所述周围环境传感器检测表示所述机器人的周围环境的状态的周围环境数据。所述操作装置是作业者操作的装置,检测并输出作为作业者所施加的操作力的作业者操作力。所述学习控制部输出运算操作力。所述中转装置根据所述作业者操作力和所述运算操作力,输出所述动作指令。所述学习控制部利用通过对所述作业者操作力、所述周围环境数据、所述动作数据、和所述动作指令进行机器学习而建立的模型,根据所述动作传感器所输出的所述动作数据、所述周围环境传感器所输出的所述周围环境数据、及所述中转装置所输出的所述动作指令,来推测并输出所述运算操作力。
基于本发明的第二个观点,提供以下的机器人的控制方法。即,该机器人的控制方法用于控制根据动作指令进行作业的机器人。该机器人控制方法包括动作检测工序、环境检测工序、作业者操作力检测工序、运算操作力输出工序、及动作指令输出工序。所述动作检测工序中,检测表示所述机器人的动作的动作数据。所述环境检测工序中,检测表示所述机器人的周围环境的状态的周围环境数据。所述运算操作力输出工序中,输出所述运算操作力。所述动作指令输出工序中,根据所述作业者操作力和所述运算操作力输出所述动作指令。所述运算操作力输出工序包括,利用通过对所述作业者操作力、所述周围环境数据、所述动作数据、和所述动作指令进行机器学习而建立的模型,根据所检测到的所述动作数据和所述周围环境数据、及所输出的所述动作指令来推测并输出所述运算操作力。
由此,学习控制部的输出和操作装置的输出以具有操作力这一共同的形式的方式构成模型。从而,将作业者操作力、运算操作力转换为向机器人发出的动作指令的处理能够成为共同的处理。
【发明的效果】
基于本发明,能够在使机器人相应于控制部和操作装置动作的机器人系统中,实现包含合适的模型的结构。
附图说明
图1是表示本发明的一种实施方式所涉及的机器人系统的结构的方框图。
图2是表示学习控制部使用通过机器学习而建立的模型进行的处理的流程图。
图3是表示中转装置所进行的限制控制和转换控制的流程图。
图4是表示作业者对控制部所实施的机器人的控制进行辅助时所实施的追加学习的流程图。
图5是表示控制部使操作装置动作以使作业者体验操作装置的操作方法的处理的流程图。
图6是表示控制部使操作装置动作来辅助作业者的操作的处理的流程图。
图7是表示让作业者体验控制部所实施的操作装置的动作且在作业者使操作装置动作的情况下对该动作进行追加学习的处理的流程图。
具体实施方式
下面,参照附图对本发明的实施方式进行说明。首先,参照图1,对本实施方式的机器人系统1进行说明。图1是表示机器人系统1的结构的方框图。
机器人系统1是用于使机器人10进行作业的系统。使机器人10进行的作业有各种各样,例如有组装、加工、涂装、洗涤等。采用通过对与作业有关的动作数据进行机器学习而建立的模型来控制机器人10。因此,在机器人系统1中,基本上不需要作业者的辅助,机器人10能够自律性地进行作业。这种机器人10自律性地进行作业有时被称为“自律运行”。另外,机器人10不仅自律性地进行作业,而且还能使机器人10相应于作业者的操作而动作来进行作业。进一步,本实施方式的机器人系统1还能使作业者的操作与系统侧的控制协作地进行作业。
如图1所示那样,机器人系统1具备机器人10、作业者装置20、中转装置30、及控制部40。各个装置通过有线或无线的网络相互连接。
机器人10具备安装在基座上的臂部。臂部具有多个关节,各关节具备执行机构。机器人10通过相应于从外部输入的动作指令使执行机构动作而使臂部动作。该动作指令包含直线状的速度的指令、和角速度的指令。在臂部的前端,安装有与作业内容相对应的末端执行器。机器人10通过相应于从外部输入的动作指令使末端执行器动作而进行作业。
另外,在机器人10上或其周围,安装有用于检测机器人10的动作及周围环境等的传感器。本实施方式中,在机器人10上安装有动作传感器11、力传感器12、及摄像机13。动作传感器11设置在机器人10的臂部的每个关节上,对各关节的转动角度或角速度进行检测(动作检测工序)。力传感器12检测机器人10动作时机器人10所受的力(环境检测工序)。可以构成为,力传感器12检测末端执行器所受的力;也可构成为,力传感器12检测臂部的各关节所受的力。另外,也可构成为,力传感器12检测力矩以取代检测力、或既检测力又检测力矩。摄像机13检测作为作业对象的工件的视频(对工件进行的作业的进展状况)(环境检测工序)。也可以取代摄像机13或与摄像机13一同设置检测声音或振动的传感器,根据这些传感器的检测结果,来检测对工件进行的作业的进展状况。动作传感器11所检测的数据是表示机器人10的动作的动作数据,力传感器12和摄像机13所检测的数据是表示机器人10的周围环境的状态的周围环境数据。以下的说明中,有时将动作传感器11、力传感器12、和摄像机13总称为“传感器11~13”。另外,以下的说明中,有时也将这些传感器11~13所检测到的数据特别称为“传感器信息”。
作业者装置20具备操作装置21和驱动部22。操作装置21是作业者为了使机器人10动作而操作的构件。操作装置21因作业内容而异,例如是作业者用手操作的拉杆或用脚操作的踏板。操作装置21具备省略图示的操作力检测传感器。操作力检测传感器检测作业者施加于操作装置21的操作力(操作力检测工序)。操作装置21被构成为能向各个方向移动的情况下,操作力可以是包含力的方向和大小的值,例如可以是向量。另外,操作力不只是作业者所施加的力(N),也可以是与力联动的值,即,加速度(即,用操作装置21的质量除作业者所施加的力后得到的除算值)。以下的说明中,有时也将作业者施加于操作装置21的操作力特别称为“作业者操作力”。操作装置21检测并输出的作业者操作力如后述那样,在中转装置30中被转换成动作指令后被输出给机器人10。驱动部22具备省略图示的执行机构。执行机构被构成为,根据输入的控制信号从外部对操作装置21施力,从而使操作装置21自由自在地动作。特别是,执行机构从后述的控制部40(操作再现部44)接收对操作装置21施力的控制信号。另外,也可以在作业者装置20的外部具备驱动部22。
另外,机器人系统1也可以被构成为,可用多台作业者装置20使一台机器人10动作。在此情况下,例如可以考虑采用某一个作业者装置20使臂部动作,另外的作业者装置20使末端执行器动作等这样的各自操作对象不同的方式。另外,也可以构成为,用一台作业者装置20使多台机器人10动作。在此情况下,较佳为,作业者装置20具有用于选择动作对象的机器人10的选择机构,例如省略图示的按键。
控制部40由公知的计算机构成,具备运算装置(CPU等)和存储部(例如ROM、RAM、HDD等)。运算装置将存储部中存储的程序读出并执行,从而使控制部40作为各种机构发挥功能。若按功能取名,则控制部40具备学习控制部41、追加学习部42、计算部43、操作再现部44、及通信部45。通信部45被构成为,具备连接器或天线,将来自控制部40的外部的输入输出给控制部40内的各个部41~44。通信部45被构成为,对控制部40的外部输出控制部40内的各部41~44所产生的输出。作为通信部45所接收的来自控制部40的外部的输入,例如有作业者装置20所输出的作业者操作力、传感器11~13所输出的传感器信息、后述的中转装置30所输出的动作指令。另外,作为通信部45所输出的对控制部40的外部的输出,例如有对后述的中转装置30输出的运算操作力、对后述的作业者装置20输出的操作动作指令及追加动作指令。以下,控制部40内的各部41~44所进行的与控制部40的外部之间的输入和输出经由通信部45,但有时对此不进行特别说明。
学习控制部41使用通过机器学习而建立的模型,输出通过推测而求出的操作力。以下,对该模型的建立方法进行说明。作业者对作业者装置20(操作装置21)进行操作,通过对使机器人10进行作业时获取的数据进行机器学习,而建立该模型。具体而言,作为该数据,有图1所示的作业者操作力、动作指令、和传感器信息。学习控制部41根据作业者操作力、动作指令、和传感器信息(特别是周围环境数据),如上所述那样对这些数据的对应关系进行机器学习而建立学习控制部41的模型。另外,该模型根据作业者操作力以外的数据,即,动作指令和传感器信息,来推测并输出下面应输出的操作力。以下,将学习控制部41所推测并输出的操作力特别称为运算操作力。由此,学习控制部41能输出可使机器人10恰当地进行作业的操作力。另外,追加学习部42、计算部43、和操作再现部44的功能将于后述。
作业者装置20(操作装置21)所输出的作业者操作力、及控制部40所计算并输出的运算操作力被输入到中转装置30中。中转装置30将用于使机器人10动作的动作指令输出给机器人10和控制部40(通信部45)。中转装置30具备具有运算装置和存储部的公知的计算机、及传感器。运算装置将存储部中存储的程序读出并执行,从而中转装置30能作为各种机构发挥功能。若按功能取名,则中转装置30具备切换部31、转换部32、和限制部33。
切换部31被构成为,从所输入的作业者操作力和运算操作力中,只将作业者操作力或运算操作力、或作业者操作力和运算操作力的两方输出到转换部32。由此,能实现只由作业者使机器人10动作的状态、只由控制部40使机器人10动作的状态、及由作业者和控制部40协作使机器人10动作的状态之间的切换。例如,切换部31可被构成为,当传感器检测到一方的操作力的大小为0时,只输出另一方的操作力。另外,例如也可以构成为,在作业者装置20中设置供作业者切换上述状态用的状态切换开关,中转装置30(切换部31)检测状态切换开关的状态,并变更切换部31的输出。
转换部32将从切换部31输入的操作力(只是作业者操作力;只是运算操作力;作业者操作力和运算操作力的两方)转换成用于使机器人10动作的动作指令并将其输出。学习控制部41将所输出的动作指令用于下次的运算操作力的推测等。
限制部33根据机器人10所受的力(力传感器12的输出)和操作力,判定预先规定的动作限制条件是否得到满足。限制部33在判定为动作限制条件已得到满足的情况下,进行使机器人10的动作停止的控制。例如,限制部33在判定为作为力传感器12的输出和对转换部32的输入的操作力已满足动作限制条件的情况下,进行控制以使转换部32停止输出动作指令,从而使机器人10的动作停止。另外,动作限制条件的详细内容将于后述。
下面,参照图2,对机器人系统1自律性地进行作业时的处理进行说明。图2是表示学习控制部41使用通过机器学习而建立的模型进行的处理的流程图。
学习控制部41获取动作传感器11、力传感器12、和摄像机13所检测到的传感器信息、及中转装置30(转换部32)所输出的动作指令(S101)。学习控制部41将传感器信息和动作指令输入到如上所述那样建立的模型中,从而推测下次应输出的运算操作力(S102)。然后,学习控制部41将所推测的运算操作力输出给中转装置30(转换部32)(S103,运算操作力输出工序)。中转装置30(转换部32)将运算操作力转换成动作指令并将其输出给机器人10,使机器人10动作。由此,机器人10相应于学习控制部41所输出的运算操作力来动作。
然后,学习控制部41判定作业是否已完成(S104),在作业未完成的情况下,根据新获得的传感器信息和动作指令进行步骤S102和S103的处理。另外,学习控制部41在判定为作业已完成的情况下(S104),结束有关一系列的作业的控制,进行下次的作业所需的处理。例如可以是,学习控制部41反复进行了规定次数的步骤S101至S103的处理,结果检测出在任何一个处理中都是所输出的运算操作力的大小为0,则判定为作业已完成。
如此,即便是在采用操作力作为学习控制部41的输出的情况下,也可以使机器人系统1自律性地进行作业。
下面,参照图3,对中转装置30所实施的控制进行说明。图3是表示中转装置30的限制部33所进行的限制控制及转换部32所进行的转换控制的流程图。
中转装置30获取力传感器12的检测值、作业者装置20(操作装置21)所输出的作业者操作力、及控制部40(学习控制部41)所输出的运算操作力(S201)。在作业者装置20(操作装置21)和控制部40(学习控制部41)中只有一方输出操作力的情况下,例如,在中转装置30检测到另一方所输出的操作力的大小为0的情况下,中转装置30只获取该一方的操作力。另外,也可以是,无论操作力的大小如何,中转装置30获取双方的操作力。
其次,中转装置30(限制部33)根据力传感器12的检测值、及所获取的操作力,判定是否满足动作限制条件(S202)。动作限制条件是指,用于判定机器人10或周围环境是否陷入了预想外的状况的条件。作为动作限制条件的例子,例如可列举:力传感器12的检测值在阈值以上;作业者操作力或运算操作力在阈值以上;或尽管力传感器12的检测值持续上升仍然继续输入使机器人10向相同方向动作的指示(操作力)等。在此列举的动作限制条件仅为一例,也可以设定其它的条件。另外,也可以使用上述说明过的数据以外的数据来进行判定。例如,可以使用检测声音的声音传感器,在检测到阈值以上的音量的情况下判定为满足动作限制条件。
限制部33在判定为满足动作限制条件的情况下,使机器人10停止动作(S203)。例如,限制部33在判定为满足动作限制条件的情况下,进行控制以使转换部32停止输出动作指令,从而使机器人10停止动作。另外,也可以构成为,在满足动作限制条件的情况下,进行其它的处理。例如,也可以进行以下处理,即,对转换部32进行控制,以输出禁止机器人10向规定方向动作这样的动作指令;对转换部32进行控制,以将转换后的动作指令降低后输出。
相反,限制部33在判定为不满足动作限制条件的情况下,限制部33控制转换部32,使操作力转换成动作指令。转换部32求出作业者操作力与运算操作力的合力,将该合力转换成机器人10的动作指令(S204),并将所转换的动作指令输出给机器人10和控制部40(S205,动作指令输出工序)。另外,在作业者操作力和运算操作力中只有一方的操作力被输入到转换部32的情况下,例如在转换部32检测到另一方的操作力的大小为0的情况时,转换部32也可以将该一方的操作力转换成动作指令并将其输出。
在此,假设在控制部40(学习控制部41)的输出为机器人10的位置或速度等情况下,作业者装置20(操作装置21)的输出为作业者操作力,由于控制部40的输出的形式,即,输出的维数不一样,所以无法对两个输出单纯地进行加算或减算。对此,本实施方式中,作业者装置20的输出(作业者操作力)与控制部40的输出(运算操作力)形式相同,即,输出的维数相同。因此,能简便地并以短时间对两个输出进行加算和减算。在使用作业者装置20的输出和控制部40的输出这两者使机器人10动作的情况下,较佳为以较短的时差求出两个输出的合计,因而,对于机器人系统1而言,能简便地并以短时间求出两个输出的合计是较大的优势。
另外,本实施方式中,即便在作业者一边作业一边切换是由作业者装置20使机器人10动作还是由控制部40使机器人10动作的情况下,由于作业者装置20与控制部40输出维数相同,所以转换部32能将向动作指令转换的转换处理的内容作为相同内容。即,虽然对机器人10的动作主体(即,作业者装置20或控制部40)进行切换,但转换部32的转换处理的内容不受该切换影响。由此,能顺利地对机器人10的动作主体进行切换。
下面,参照图4,对通过作业者的辅助作业而实时地进行追加学习的处理进行说明。图4是表示该处理的流程图。
作业者在确认基于控制部40的机器人10的动作的同时,发现有需要改善的部分时,对作业者装置20(操作装置21)进行操作。作业者装置20将作业者操作力输出给中转装置30和控制部40。中转装置30从控制部40(学习控制部41)接收运算操作力,并将运算操作力与作业者操作力合计后的操作力转换成动作指令输出给机器人10(和控制部40)。由此,作业者能够辅助控制部40对机器人10进行的操作。
另外,该作业者所进行的辅助作业有助于改善模型,因而,控制部40根据作业者的辅助作业而进行追加学习。具体而言,控制部40获取传感器信息、动作指令、及作业者装置20所输出的作业者操作力(S301)。
其次,追加学习部42从学习控制部41获取对中转装置30输出的运算操作力(S302)。其后,追加学习部42判断是否有作业者操作力(即,作业者的辅助作业是否已进行)(S303)。在有作业者操作力的情况下,追加学习部42例如在检测到作业者操作力的大小超过0的情况时,将作业者操作力与运算操作力的合力作为更恰当的操作力,而根据该合力、动作指令、及传感器信息进行追加学习,来进行模型的更新(S304)。即,在步骤S301获取的传感器信息所示的状况下,追加学习部42进行更新模型的追加学习,以使“作业者操作力与运算操作力的合力”的评价值高于运算操作力的评价值。另外,每当作业者进行辅助作业,追加学习部42便进行这样的追加学习。
通过反复进行以上的处理,能够建立更好的模型。由此,学习控制部41能使机器人10进行更恰当的作业。
另外,可以是,取代图4的处理,例如在步骤S302中作业者操作力被检测出的情况下,使机器人10能够只根据作业者装置20(操作装置21)的输出来动作。例如,也可以是,在步骤S302中检测出作业者操作力的大小超过0的情况时,追加学习部42不从学习控制部41获取运算操作力。在此情况下,步骤S303中,不是使“作业者操作力与运算操作力的合力”而是使“作业者操作力”的评价值变高地进行更新模型的追加学习。
另外,该追加学习可以在将机器人系统1设置在实际的生产现场之后进行。或者,也可以在将机器人系统1设置在生产现场之前的学习阶段进行。进一步,还可以在使机器人10在虚拟空间中动作的仿真阶段进行。
下面,参照图5和图6,对控制部40对作业者进行作业者装置20的操作方法的教育的处理进行说明。
让没有作业者装置20(操作装置21)的操作经验的作业者体验作业者装置20的正确操作,是有用的。本实施方式中,控制部40再现作业者装置20(操作装置21)的正确操作,使作业者体验。以下,对进行这种教育时的处理流程进行说明。
与步骤S101和S102一样,控制部40获取作为必要信息的传感器信息及动作指令(S401),并将传感器信息和动作指令输入到模型中,以推测运算操作力(S402)。
其次,控制部40(计算部43)计算表示驱动部22的动作的操作动作(S403),其中,该驱动部22的动作用于使驱动部22从外部对操作装置21施加的力与所推测的运算操作力相同。换言之,计算如何操作作业者装置20(操作装置21)才能与控制部40同样地使机器人10动作。在此,通过使用周知的机械控制技术,能够使驱动部22用与作业者施加于操作装置21的力(作业者操作力)相同的力,来对操作装置21施力。
其次,控制部40(操作再现部44)按照计算部43算出的操作动作,输出用于使驱动部22工作的控制信号,即,操作动作指令(S404)。
由此,作业者只需要用手握住作业者装置20(操作装置21)等,便能体验怎样对作业者装置20进行操作。换言之,能将控制部40通过机器学习而学到的技能传达给作业者。
另外,对于有作业者装置20(操作装置21)的操作经验的作业者,指出作业者装置20的操作中的应改善的操作、或使其体验该改善后的动作,是有用的。以下,对进行这种教育的情况下的处理流程进行说明。
与步骤S101和S102一样,控制部40获取作为必要信息的传感器信息和动作指令(S501),并将传感器信息和动作指令输入到模型中,以推测运算操作力(S502)。但是,为了确认作业者对作业者装置20进行的操作,在步骤S501中还进一步获取作业者操作力。
其次,控制部40(计算部43)检测运算操作力与作业者操作力之间的差值,并算出表示驱动部22的动作的追加动作(S503),其中,该驱动部22的动作用于使驱动部22从外部施加于操作装置21的力为上述差值。换言之,算出如何修正作业者对操作装置21进行的操作才能与控制部40同样地使机器人10动作。在此,通过使用周知的机械控制技术,能够实现驱动部22对操作装置21施力(差值)。即,通过使用周知的机械控制技术,能够使作业者和驱动部22对操作装置21所施加的力为与运算操作力相同的力。
其次,控制部40(操作再现部44)按照计算部43算出的追加动作,输出用于使驱动部22工作的控制信号,即,追加动作指令(S504)。由此,作业者能够在确认自身的操作的同时,体验应如何改善。
参照图5和图6说明过的作业者的教育可以在将机器人系统1设置在实际的生产现场之后实施。另外,也可以在将机器人系统1设置在生产现场之前的学习阶段实施。另外,还可以使用使机器人10在虚拟空间中动作的仿真来实施。
作业者装置20(操作装置21)的操作经验丰富的作业者体验机器人系统1自律运行时作业者装置20的虚拟操作,即,通过作业者装置20的实际的动作来体验如何对作业者装置20进行操作才能实现控制部40所学习到的机器人10的现在的动作,是有用的。进一步,该经验丰富的作业者在体验作业者装置20的虚拟操作的同时,若判断为自律运行时机器人10的现在的动作需要改善,则作业者一边感受向作业者装置20传递的触觉·力觉等,一边通过作业者装置20的操作使控制部40追加学习机器人10的更加正确的动作,是更为有用的。以下,参照图7,对进行这种虚拟操作体验和追加学习的处理进行说明。
控制部40获取传感器信息和动作指令并将它们储存起来(S601),将传感器信息和动作指令输入到模型中,以推测运算操作力并将其储存起来(S602)。
其次,控制部40(计算部43)算出表示驱动部22的动作的操作动作(S603),其中,该驱动部22的动作用于使驱动部22从外部对操作装置21施加的力为与所推测的运算操作力相同的力。换言之,算出如何对作业者装置20(操作装置21)进行操作,才能与控制部40同样地使机器人10动作。在此,通过使用周知的机械控制技术,能够实现驱动部22将与作业者施加于操作装置21的力相同的力施加于操作装置21。
其次,控制部40(操作再现部44)按照计算部43算出的操作动作,输出用于使驱动部22工作的控制信号,即,操作动作指令(S604)。由此,作业者能够体验作业者装置20的虚拟操作。
作业者在体验作业者装置20的虚拟操作的同时,判断为自律运行时的机器人10的现在的动作需要改善时,操作作业者装置20(操作装置21)。控制部40获取作业者装置20(操作装置21)所输出的作业者操作力(S605)。另外,为了改善机器人10的动作而使控制部40进行追加学习的操作力为,驱动部22对操作装置21施加的力(运算操作力)与作业者对操作装置21本身施加的力(作业者操作力)的合力。
其次,追加学习部42判断是否有从作业者装置20输出的作业者操作力(即,作业者是否操作了作业者装置20)(S606)。例如,可以通过检测作业者操作力的大小是否超过0来进行判断。在判断为有作业者操作力的情况下,追加学习部42算出该作业者操作力与在步骤S602储存的运算操作力的合力(S607),并根据该合力和在步骤S601储存的传感器信息和动作指令来进行追加学习,并更新模型(S608)。另外,在没有作业者操作力的情况下,追加学习部42不进行追加学习,而返回到步骤S601。另外,也可以为,取代步骤S606、S607,追加学习部42先算出作业者操作力与所储存的运算操作力的合力,然后根据该合力是否与作业者操作力不同(即,合力与作业者操作力之差是否为0)来判断有无作业者操作力。
由此,作业者能够体验机器人系统1自律运行时作业者装置20的虚拟操作。进一步,作业者判断为自律运行时机器人10的现在的动作需要改善时,可一边感受对作业者装置20传递的触觉·力觉等,一边通过作业者装置20的操作使控制部40追加学习机器人10的更加正确的动作。换言之,作业者能容易地在实际体验控制部40所学到的技能的同时,使控制部40追加学习以使该技能更加熟练。其结果,能够通过控制部40容易地将经验丰富的作业者所具有的熟练技能传承给其它的作业者。
参照图7说明过的作业者的虚拟操作体验及追加学习可以在将机器人系统1设置在实际的生产现场后实施。另外,也可以在将机器人系统1设置在生产现场之前的学习阶段实施。另外,还可以使用在虚拟空间上使机器人10动作的仿真来实施。
另外,考虑机器人系统1被构成为能够实时(即,极其高速且能够忽略时差)地进行图2至图7的处理的情况。在该结构的情况下,一般的机器人10的用途中,即便是数次反复进行图7的处理,在步骤S601、S602获取的传感器信息、动作指令、和运算操作力的经时变化也较小。因而,控制部40(追加学习部42)也可以不在步骤S601、S602储存传感器信息、动作指令、运算操作力,而是在执行步骤S607、S608时从通信部45或学习控制部41获取传感器信息、动作指令、运算操作力。
进一步,也可以为,在上述情况下,中转装置30从作业者装置20和控制部40随时获取作业者操作力和运算操作力,并输出动作指令。由此,机器人系统1能够一边追加学习改善后的机器人10的动作,一边实时地将该动作作为机器人10的实际动作反映出。换言之,作业者能够一边实际观察改善后的机器人10的动作,一边进行机器人10的动作的改善作业。
如以上说明过那样,该机器人系统1具备机器人10、动作传感器11、周围环境传感器(力传感器12、摄像机13)、操作装置21、学习控制部41、及中转装置30。机器人10根据动作指令进行作业。动作传感器11检测表示机器人10的动作的动作数据。周围环境传感器(力传感器12、摄像机13)检测表示机器人10的周围环境的状态的周围环境数据。操作装置21是作业者所操作的装置,检测并输出作为作业者所施加的操作力的作业者操作力。学习控制部41输出运算操作力。中转装置30根据作业者操作力和运算操作力,输出动作指令。学习控制部41利用通过对作业者操作力、周围环境数据、动作数据、及动作指令进行机器学习而建立的模型,根据传感器11~13所输出的动作数据和周围环境数据、及中转装置30所输出的动作指令,推测并输出运算操作力。
由此,以使学习控制部41的输出和作业者装置20的输出具有操作力这一共同形式的方式来构成模型。从而,能够使将作业者操作力、运算操作力转换成对机器人的动作指令的处理实现共同化。
另外,本实施方式的机器人系统1中,中转装置30求出作业者操作力和运算操作力的合力,将该合力转换成动作指令后输出。
由此,能够建立一种作业者对机器人10的作业进行辅助、机器人10对作业者的作业进行辅助的系统。
另外,本实施方式的机器人系统1具备追加学习部42。追加学习部42根据作业者操作力和运算操作力的合力、周围环境数据、动作数据、及动作指令进行追加学习,并对模型进行更新。
另外,本实施方式的机器人系统1具备追加学习部42。追加学习部42根据作业者操作力、周围环境数据、动作数据、及动作指令进行追加学习,并对模型进行更新。
由此,作业者能够使用操作装置21对机器人10的动作进行修正,并对该修正后的动作进行追加学习。
另外,本实施方式的机器人系统1具备驱动部22、计算部43、及操作再现部44。驱动部22根据控制信号对操作装置21施力。计算部43算出表示驱动部22的动作的操作动作,其中,该驱动部22的动作用于使驱动部22对操作装置21施加的力为与运算操作力相同的力。操作再现部44根据操作动作,输出控制信号。
由此,能够将使机器人10正确地动作的方法传达给作业者。
另外,本实施方式的机器人系统1具备驱动部22、计算部43、及操作再现部44。驱动部22根据控制信号对操作装置21施力。计算部43算出表示驱动部22的动作的追加动作,其中,该驱动部22的动作用于使驱动部22施加于操作装置21的力为运算操作力与作业者操作力之间的差值。操作再现部44根据追加动作,输出控制信号。
由此,作业者能够体验自身对机器人10的操作实施的改善点。
另外,本实施方式的机器人系统1具备驱动部22、计算部43、及操作再现部44。驱动部22根据控制信号对操作装置21施力。计算部43算出表示驱动部22的动作的操作动作,其中,该驱动部22的动作用于使驱动部22施加于操作装置21的力为与运算操作力相同的力。操作再现部44根据操作动作,输出控制信号。当作业者操作力的大小不为0时,追加学习部42根据作业者操作力和运算操作力的合力、周围环境数据、动作数据、及动作指令,进行追加学习并对模型进行更新。
由此,作业者能够在体验机器人10的学习动作的同时,使其追加学习机器人10的更加正确的动作。
另外,本实施方式的机器人系统1中,周围环境传感器具备力传感器12,该力传感器12检测作为周围环境数据的、机器人10所受的力。
由此,能够考虑例如从工件受到的力地使机器人10动作。
另外,本实施方式的机器人系统1中,中转装置30根据力传感器12的检测值和操作力,在满足预先规定的条件(动作限制条件)的情况下,输出限制机器人10的动作的动作指令。
由此,能够在出现没有预料到的状况的情况下,限制机器人10的动作。
以上,对本发明的较佳的实施方式进行了说明,但例如可如下所述那样对上述结构进行变更。
图2至图7的流程图的内容仅为一例,也可以进行处理的追加、处理的省略、处理的顺序变更等。
作为为建立模型而输入的数据及为推测操作力而输入的数据,上述实施方式中列举的数据仅为一例,也可以输入不同的数据。
如上述实施方式中所示那样作业者装置20为多台的情况下,也可以构成为,例如在追加学习中,以使某个作业者装置20对臂部进行辅助作业,其它的作业者装置20对末端执行器进行辅助作业等的方式,进行辅助作业分担。另外,用图5所示的方法教育作业者的情况下,也可以构成为,通过从控制部40对多台作业者装置20(驱动部22)输出同一操作动作指令,而使多个作业者体验作业者装置20的妥当的操作。
上述实施方式中,假定构成机器人系统1的各装置配置在相同的作业现场,但若能够通过网络进行信息交换,至少一个装置(例如作业者装置20)可配置在远隔地。另外,可以构成为,中转装置30所具有的功能的至少一部分可由控制部40实现。相反,也可以构成为,控制部40所具有的功能的至少一部分由中转装置30实现。进一步,还可以构成为,除了中转装置30和控制部40以外,还具备其它的硬件。
上述实施方式中,机器人10被安装在基座部上,但也可以被构成为能够自律性地移动。另外,机器人10也可被构成为,用臂部以外的构件进行作业。
附图标记说明
1 机器人系统
10 机器人
11 动作传感器
12 力传感器
13 摄像机
20 作业者装置
30 中转装置
40 控制部
41 学习控制部
42 追加学习部
43 计算部
44 操作再现部
Claims (10)
1.一种机器人系统,具备根据动作指令进行作业的机器人、检测表示所述机器人的动作的动作数据的动作传感器、检测表示所述机器人的周围环境的状态的周围环境数据的周围环境传感器、作为供作业者操作的装置并检测和输出作为作业者所施加的操作力的作业者操作力的操作装置、输出运算操作力的学习控制部、及根据所述作业者操作力和所述运算操作力输出所述动作指令的中转装置,其特征在于:
所述学习控制部利用通过对所述作业者操作力、所述周围环境数据、所述动作数据、及所述动作指令进行机器学习而建立的模型,根据所述动作传感器所检测到的所述动作数据、所述周围环境传感器所检测到的所述周围环境数据、及所述中转装置所输出的所述动作指令,来推测并输出所述运算操作力。
2.如权利要求1所述的机器人系统,其特征在于:
所述中转装置求出所述作业者操作力和所述运算操作力的合力,将该合力转换成所述动作指令后输出。
3.如权利要求1或2所述的机器人系统,其特征在于:
具备根据所述作业者操作力和所述运算操作力的合力、所述周围环境数据、所述动作数据、及所述动作指令进行追加学习,并对所述模型进行更新的追加学习部。
4.如权利要求1或2所述的机器人系统,其特征在于:
具备根据所述作业者操作力、所述周围环境数据、所述动作数据、及所述动作指令进行追加学习,并对所述模型进行更新的追加学习部。
5.如权利要求1至4中任一项所述的机器人系统,其特征在于:
具备根据控制信号对所述操作装置施力的驱动部、计算表示所述驱动部的动作的操作动作的计算部、及根据所述操作动作而输出所述控制信号的操作再现部,
其中,所述驱动部的动作用于使所述驱动部施加于所述操作装置的力为与所述运算操作力相同的力。
6.如权利要求1至4中任一项所述的机器人系统,其特征在于:
具备根据控制信号对所述操作装置施力的驱动部、计算表示所述驱动部的动作的追加动作的计算部、及根据所述追加动作来输出所述控制信号的操作再现部,
其中,所述驱动部的动作用于使所述驱动部施加于所述操作装置的力为所述运算操作力与所述作业者操作力之差。
7.如权利要求3所述的机器人系统,其特征在于:
具备
根据控制信号对所述操作装置施力的驱动部;
计算表示所述驱动部的动作的操作动作的计算部;及
根据所述操作动作而输出所述控制信号的操作再现部,
其中,所述驱动部的动作用于使所述驱动部施加于所述操作装置的力为与所述运算操作力相同的力,
所述追加学习部在所述作业者操作力的大小不为0时,根据所述作业者操作力和所述运算操作力的合力、所述周围环境数据、所述动作数据、及所述动作指令而进行追加学习,并更新所述模型。
8.如权利要求1至7中任一项所述的机器人系统,其特征在于:
所述周围环境传感器具备力传感器,该力传感器检测作为所述周围环境数据的所述机器人所承受的力。
9.如权利要求8所述的机器人系统,其特征在于:
所述中转装置根据所述力传感器的检测值和所述操作力,在满足预先规定的条件的情况下,输出限制所述机器人的动作的所述动作指令。
10.一种机器人的控制方法,用于控制根据动作指令进行作业的机器人,其特征在于:
包括
动作检测工序,检测表示所述机器人的动作的动作数据;
环境检测工序,检测表示所述机器人的周围环境的状态的周围环境数据;
作业者操作力检测工序,检测作为作业者施加于操作装置的操作力的作业者操作力;
运算操作力输出工序,输出运算操作力;及
动作指令输出工序,根据所述作业者操作力和所述运算操作力输出所述动作指令,
所述运算操作力输出工序中包括,利用通过对所述作业者操作力、所述周围环境数据、所述动作数据、及所述动作指令进行机器学习而建立的模型,根据所检测到的所述动作数据和所述周围环境数据、及所输出的所述动作指令来推测并输出所述运算操作力。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018-100523 | 2018-05-25 | ||
JP2018100523A JP7039389B2 (ja) | 2018-05-25 | 2018-05-25 | ロボットシステム及びロボット制御方法 |
PCT/JP2019/020698 WO2019225747A1 (ja) | 2018-05-25 | 2019-05-24 | ロボットシステム及びロボット制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112203811A true CN112203811A (zh) | 2021-01-08 |
CN112203811B CN112203811B (zh) | 2023-05-09 |
Family
ID=68615557
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980035180.8A Active CN112203811B (zh) | 2018-05-25 | 2019-05-24 | 机器人系统及机器人控制方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11919164B2 (zh) |
EP (1) | EP3804919A4 (zh) |
JP (1) | JP7039389B2 (zh) |
KR (1) | KR102477585B1 (zh) |
CN (1) | CN112203811B (zh) |
WO (1) | WO2019225747A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7336463B2 (ja) * | 2018-12-27 | 2023-08-31 | 川崎重工業株式会社 | ロボット制御装置、ロボットシステム及びロボット制御方法 |
JP7117237B2 (ja) * | 2018-12-27 | 2022-08-12 | 川崎重工業株式会社 | ロボット制御装置、ロボットシステム及びロボット制御方法 |
JP7460366B2 (ja) * | 2019-12-27 | 2024-04-02 | 川崎重工業株式会社 | 訓練データ選別装置、ロボットシステム及び訓練データ選別方法 |
JP7555076B2 (ja) * | 2020-02-03 | 2024-09-24 | 国立大学法人東京工業大学 | ロボット制御システム、ロボットシステム、操作システム、ロボット制御方法、およびロボット制御プログラム |
CN115225682B (zh) * | 2021-04-15 | 2024-01-19 | 本田技研工业株式会社 | 管理服务器、远程操作系统、远程操作方法以及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4534006A (en) * | 1981-05-15 | 1985-08-06 | D.E.A. Digital Electronic Automation S.P.A. | Operating arm unit controlled by a computer system |
CN102581852A (zh) * | 2012-01-20 | 2012-07-18 | 上海交通大学 | 用于机器人重载装配和搬运作业的位姿调整系统 |
CN106393102A (zh) * | 2015-07-31 | 2017-02-15 | 发那科株式会社 | 机械学习装置、机器人系统及机械学习方法 |
CN106938470A (zh) * | 2017-03-22 | 2017-07-11 | 华中科技大学 | 一种机器人力控示教模仿学习的装置及方法 |
US20170305014A1 (en) * | 2016-04-25 | 2017-10-26 | Kindred Systems Inc. | Facilitating device control |
US20180099407A1 (en) * | 2015-05-28 | 2018-04-12 | Hitachi, Ltd. | Robot Operation Device and Program |
CN107921638A (zh) * | 2015-08-25 | 2018-04-17 | 川崎重工业株式会社 | 机械臂系统 |
CN107962558A (zh) * | 2016-10-19 | 2018-04-27 | 发那科株式会社 | 通过机器学习提高了外力的检测精度的人协作机器人系统 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07134605A (ja) | 1993-11-11 | 1995-05-23 | Mitsubishi Electric Corp | 産業用ロボットの制御装置 |
JP2006293442A (ja) | 2005-04-05 | 2006-10-26 | Sony Corp | 情報処理装置および方法、並びにプログラム |
JP5137537B2 (ja) | 2007-11-28 | 2013-02-06 | 三菱電機株式会社 | ロボットの作業動作最適化装置 |
JP2014128857A (ja) * | 2012-12-28 | 2014-07-10 | Yaskawa Electric Corp | ロボット教示システムおよびロボット教示方法 |
JP6494331B2 (ja) | 2015-03-03 | 2019-04-03 | キヤノン株式会社 | ロボット制御装置およびロボット制御方法 |
JP6240689B2 (ja) * | 2015-07-31 | 2017-11-29 | ファナック株式会社 | 人の行動パターンを学習する機械学習装置、ロボット制御装置、ロボットシステム、および機械学習方法 |
JP6567998B2 (ja) | 2016-03-23 | 2019-08-28 | 国立大学法人 東京大学 | 制御方法 |
JP6457421B2 (ja) | 2016-04-04 | 2019-01-23 | ファナック株式会社 | シミュレーション結果を利用して学習を行う機械学習装置,機械システム,製造システムおよび機械学習方法 |
US9751212B1 (en) | 2016-05-05 | 2017-09-05 | Toyota Jidosha Kabushiki Kaisha | Adapting object handover from robot to human using perceptual affordances |
JP6392825B2 (ja) * | 2016-11-01 | 2018-09-19 | ファナック株式会社 | 学習制御機能を備えたロボット制御装置 |
US10493624B1 (en) * | 2016-12-23 | 2019-12-03 | X Development Llc | Mobile robot |
WO2019107454A1 (ja) * | 2017-11-28 | 2019-06-06 | 川崎重工業株式会社 | 技能伝承機械装置 |
-
2018
- 2018-05-25 JP JP2018100523A patent/JP7039389B2/ja active Active
-
2019
- 2019-05-24 KR KR1020207030644A patent/KR102477585B1/ko active IP Right Grant
- 2019-05-24 WO PCT/JP2019/020698 patent/WO2019225747A1/ja unknown
- 2019-05-24 CN CN201980035180.8A patent/CN112203811B/zh active Active
- 2019-05-24 US US17/059,099 patent/US11919164B2/en active Active
- 2019-05-24 EP EP19808013.7A patent/EP3804919A4/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4534006A (en) * | 1981-05-15 | 1985-08-06 | D.E.A. Digital Electronic Automation S.P.A. | Operating arm unit controlled by a computer system |
CN102581852A (zh) * | 2012-01-20 | 2012-07-18 | 上海交通大学 | 用于机器人重载装配和搬运作业的位姿调整系统 |
US20180099407A1 (en) * | 2015-05-28 | 2018-04-12 | Hitachi, Ltd. | Robot Operation Device and Program |
CN106393102A (zh) * | 2015-07-31 | 2017-02-15 | 发那科株式会社 | 机械学习装置、机器人系统及机械学习方法 |
CN107921638A (zh) * | 2015-08-25 | 2018-04-17 | 川崎重工业株式会社 | 机械臂系统 |
US20170305014A1 (en) * | 2016-04-25 | 2017-10-26 | Kindred Systems Inc. | Facilitating device control |
CN107962558A (zh) * | 2016-10-19 | 2018-04-27 | 发那科株式会社 | 通过机器学习提高了外力的检测精度的人协作机器人系统 |
CN106938470A (zh) * | 2017-03-22 | 2017-07-11 | 华中科技大学 | 一种机器人力控示教模仿学习的装置及方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3804919A4 (en) | 2022-04-06 |
US20210220990A1 (en) | 2021-07-22 |
KR102477585B1 (ko) | 2022-12-14 |
JP7039389B2 (ja) | 2022-03-22 |
EP3804919A1 (en) | 2021-04-14 |
JP2019202404A (ja) | 2019-11-28 |
KR20200127040A (ko) | 2020-11-09 |
US11919164B2 (en) | 2024-03-05 |
WO2019225747A1 (ja) | 2019-11-28 |
CN112203811B (zh) | 2023-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112203811B (zh) | 机器人系统及机器人控制方法 | |
JP7068059B2 (ja) | 遠隔操作方法及び遠隔操作システム | |
US10932874B2 (en) | Remote control robot system | |
US10300600B2 (en) | Control system having learning control function and control method | |
US10751874B2 (en) | Method of teaching robot and robotic arm control device | |
JP5338297B2 (ja) | ロボットの制御装置 | |
US9421687B2 (en) | Robot control apparatus and robot control method | |
JP6484265B2 (ja) | 学習制御機能を備えたロボットシステム及び学習制御方法 | |
JP2018202564A (ja) | 制御装置及び機械学習装置 | |
CN110997249B (zh) | 作业机器人和作业机器人的控制方法 | |
CN110465935B (zh) | 用于机器人编程的方法、设备和系统 | |
KR20210006431A (ko) | 로봇 시스템 및 추가 학습 방법 | |
EP3654119A1 (en) | Force control device, force control method, and force control program | |
JP6044511B2 (ja) | ロボットの制御方法及びロボットシステム | |
WO2020138446A1 (ja) | ロボット制御装置、ロボットシステム及びロボット制御方法 | |
JP7481097B2 (ja) | ロボット制御装置 | |
JP2018206162A (ja) | 制御装置及び機械学習装置 | |
Katayama et al. | Whole-body model predictive control with rigid contacts via online switching time optimization | |
WO2016162066A1 (en) | An industrial robot and a method for lead-through programming of an industrial robot | |
JP2008217260A (ja) | 力覚提示装置 | |
Sun et al. | Lever control for position control of a typical excavator in joint space using a time delay control method | |
CN116728397A (zh) | 机器人系统、机器人控制方法和计算机可读存储介质 | |
WO2018153474A1 (en) | Robot system, method for programming a robot manipulator and control system | |
JP7141847B2 (ja) | 撓み量推定装置、ロボット制御装置、及び撓み量推定方法 | |
JPH10202558A (ja) | マスタスレーブ装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |