CN112109077A - 学习工具状态的机器学习装置、机器人系统以及机器学习方法 - Google Patents
学习工具状态的机器学习装置、机器人系统以及机器学习方法 Download PDFInfo
- Publication number
- CN112109077A CN112109077A CN202010555681.3A CN202010555681A CN112109077A CN 112109077 A CN112109077 A CN 112109077A CN 202010555681 A CN202010555681 A CN 202010555681A CN 112109077 A CN112109077 A CN 112109077A
- Authority
- CN
- China
- Prior art keywords
- tool
- learning
- force
- robot
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 45
- 238000001228 spectrum Methods 0.000 claims description 4
- 239000003082 abrasive agent Substances 0.000 claims 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 32
- 239000012636 effector Substances 0.000 description 26
- 230000002159 abnormal effect Effects 0.000 description 23
- 230000036544 posture Effects 0.000 description 15
- 210000000707 wrist Anatomy 0.000 description 14
- 230000006870 function Effects 0.000 description 13
- 210000002569 neuron Anatomy 0.000 description 11
- 238000003860 storage Methods 0.000 description 11
- 239000013598 vector Substances 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 8
- 230000005856 abnormality Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000005520 cutting process Methods 0.000 description 5
- 238000000034 method Methods 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 3
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 2
- MCMNRKCIXSYSNV-UHFFFAOYSA-N Zirconium dioxide Chemical compound O=[Zr]=O MCMNRKCIXSYSNV-UHFFFAOYSA-N 0.000 description 2
- 238000005336 cracking Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000003466 welding Methods 0.000 description 2
- 229910000831 Steel Inorganic materials 0.000 description 1
- 239000006061 abrasive grain Substances 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000919 ceramic Substances 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 229910052742 iron Inorganic materials 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000005498 polishing Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/005—Manipulators for mechanical processing tasks
- B25J11/0065—Polishing or grinding
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/085—Force or torque sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1633—Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37234—Monitor tool before, after and during machining
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39529—Force, torque sensor in wrist, end effector
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Abstract
本发明提供一种学习工具状态的机器学习装置、机器人系统以及机器学习方法。机器学习装置能够根据机器人使用工具进行作业时从工具施加给机器人的力来判定工具的状态。机器学习装置对机器人在作业中使用的工具的状态进行学习,其具有:学习数据取得部,其取得在机器人正在使工具进行预定的动作的期间从工具向机器人施加的力的数据、以及表示正在进行预定的动作时的工具的状态的数据,来作为学习数据集;以及学习部,其使用学习数据集生成表示力与工具的状态之间的相关性的学习模型。
Description
技术领域
本发明涉及对机器人在作业中使用的工具的状态进行学习的机器学习装置、机器人系统以及机器学习方法。
背景技术
已知对通过工具加工工件时的声音或振动的特征进行学习,判定工具的恶化度的技术(日本特开2018-156340号公报)。
在机器人的领域,在机器人使用工具来进行作业时,检测从工具向机器人施加的力。谋求根据这样检测出的力来判定工具的状态的技术。
发明内容
在本公开的一个方式中,对机器人在作业中使用的工具的状态进行学习的机器学习装置具有:学习数据取得部,其取得在机器人正在使工具进行预定的动作的期间从工具向机器人施加的力的数据、以及表示正在进行预定的动作时的工具的状态的数据,来作为学习数据集;以及学习部,其使用学习数据集生成表示力与工具的状态之间的相关性的学习模型。
在本公开的另一个方式中,在对机器人在作业中使用的工具的状态进行学习的机器学习方法中,处理器取得在机器人正在使工具进行预定的动作的期间从工具向机器人施加的力的数据、以及表示正在进行预定的动作时的工具的状态的数据,来作为学习数据集,使用学习数据集生成表示力与工具的状态之间的相关性的学习模型。
根据本公开,能够自动且正确地求出模型,该模型定量地表示机器人使工具正在进行预定的动作时从该工具向机器人施加的力与该工具的状态之间的相关性。
附图说明
图1是一实施方式的学习装置的框图。
图2表示向一实施方式的机器人安装了末端执行器的状态。
图3表示向图2所示的机器人安装了其他末端执行器的状态。
图4表示向图2所示的机器人安装了另一末端执行器的状态。
图5表示向图2所示的机器人安装了另一末端执行器的状态。
图6表示将图5所示的机器人抓持的工具已嵌入到孔中的状态。
图7是表示图1所示的机器学习装置进行的学习循环的一例的流程图。
图8示意性地表示神经元的模型。
图9示意性地表示多层神经网络的模型。
图10是一实施方式的机器人系统的框图。
图11是表示图10所示的机器人系统的动作流程的一例的流程图。
具体实施方式
以下,根据附图对本公开的实施方式进行详细说明。另外,在以下说明的各种实施方式中,对同样的要素标注相同的符号,并省略重复的说明。参照图1,对一实施方式的机器学习装置10进行说明。机器学习装置10可由具有处理器(CPU、GPU等)、存储部(ROM、RAM等)以及输入装置(键盘、鼠标、触摸面板等)等的计算机或者学习算法等软件构成。
机器学习装置10对后述的机器人20在作业中使用的工具的状态(正常状态、异常状态等)进行学习。图2~图7表示机器人20、安装在该机器人20的各种末端执行器。如图2所示,机器人20是垂直多关节机器人,其具有:基部22、旋转体24、下臂部26、上臂部28以及手腕部30。
基部22被固定在作业单元的地板上。旋转体24以能够绕竖直轴转动的方式设置在基部22上。下臂部26以能够绕水平轴转动的方式设置在旋转体24。上臂部28可转动地设置在下臂部26的前端部。手腕部30能够转动地设置在上臂部28的前端部。
在图2所示的例子中,在手腕部30的前端部可装卸地安装有用于研磨工件的末端执行器40。手腕部30以能够使末端执行器40转动的方式对其进行支承。机器人20内置有多个伺服电动机(未图示),这些伺服电动机驱动机器人20的可动要素(即,旋转体24、下臂部26、上臂部28、手腕部30),从而将末端执行器40配置成任意的位置以及姿势。
末端执行器40具有:基部42、能够绕轴线A1旋转地设置在基部42的工具44、以及对该工具44进行旋转驱动的驱动部46。基部42与手腕部30的前端部连结。工具44例如是包含研磨颗粒(陶瓷、氧化锆、金刚石等)的大致圆柱状的研磨材料,通过旋转动作来研磨工件。驱动部46例如是伺服电动机,使工具44绕轴线A1旋转。
在手腕部30与末端执行器40之间插入了力传感器32。力传感器32例如是具有多个应变计的6轴力觉传感器,检测作用于该力传感器32的力。更具体来说,力传感器32从各个应变计输出与该力传感器32产生的应变对应的输出信号SO。
根据这些输出信号SO,能够检测力传感器坐标系CF的x轴方向的力Fx、y轴方向的力Fy、以及z轴方向的力Fz、围绕该x轴的力矩Mx、围绕该y轴的力矩My、围绕该z轴的力矩Mz的总共6个方向的力Fx、Fy、Fz、Mx、My以及Mz。
并且,根据这6个方向的力Fx、Fy、Fz、Mx、My、Mz,能够检测对末端执行器40(例如,工具44)施加的力FE的大小以及方向。例如,以将原点配置在力传感器32的预定位置(例如,中心),z轴方向与力传感器32的中心轴线平行的方式对该力传感器32设定力传感器坐标系CF。
另一方面,在图3所示的示例中,在机器人20的手腕部30安装有用于研磨工件的其他末端执行器50。末端执行器50具有:基部52、能够绕轴线A2旋转地设置在基部52的工具44、以及对该工具44进行旋转驱动的驱动部54。
将基部52经由力传感器32安装在手腕部30的前端部。驱动部54例如是伺服电动机,使工具44绕轴线A2旋转。在图2以及图3所示的示例中,机器人20进行使用工具44研磨工件的作业。
在图4所示的示例中,在机器人20的手腕部30可装卸地安装有用于对工件W1进行切削加工(例如,去毛边)的末端执行器60。具体来说,末端执行器60具有:基部62、能够绕轴线A3旋转地设置在基部62的工具64、以及对该工具64进行旋转驱动的驱动部66。将基部62经由力传感器32安装在手腕部30的前端部。
工具64是由钢铁等构成的前端部大致为圆锥状的切削工具,通过旋转动作来对工件W1进行切削加工。驱动部66例如是通过电动机或压缩气体而产生动力的装置,内置在基部62中,使工具64绕轴线A3旋转。机器人20进行使用工具64对工件进行切削加工(去毛边等)的作业。
在图5所示的示例中,在机器人20的手腕部30可装卸地安装有末端执行器70。末端执行器70是操纵工具74的机械手,其具有:基部72、可开闭地设置在该基部72的多个手指部76、以及驱动该手指部76的驱动部78。
将基部72经由力传感器32安装在手腕部30的前端部。手指部76以能够向相互接近以及离开的方向移动的方式设置在基部72,用于抓持或释放工具74。驱动部78例如是伺服电动机或者缸体,内置在基部72中。
工具74是圆筒状或者多楞柱状的部件(汽车用气缸等)。机器人20进行如下作业:通过末端执行器70抓持工具74,如图6所示,将抓持的工具74嵌入到在成为作业对象的工件W2形成的孔H中,从而将该工具74组装到该工件W2。
再次参照图1,机器学习装置10具有学习数据取得部12以及学习部14。学习数据取得部12取得在机器人20使工具44、64或74正在进行预定的动作的期间从该工具44、64或74向机器人20施加的力F的数据、表示正在进行该预定的动作时的该工具44、64或74的状态S的数据,来作为学习数据集。
例如,在图2~图4所示的示例中,“预定的动作”是指机器人20使工具44或者64不与工件接触地进行旋转的动作。作为替代,“预定的动作”是指机器人20使工具44或者64与工件接触地进行旋转的动作。这里,机器人20在作为预定的动作进行使工具44或者64与工件接触地进行旋转的动作时,可以执行将从该工具44或者64向机器人20施加的力F(换言之,从工具44或者64向工件施加的力)控制为预定的目标值的力控制。
此外,在图5所示的示例中,“预定的动作”是指机器人20将工具74嵌入到孔H中的动作。这里,机器人20在作为预定的动作进行将工具74嵌入到孔H中的动作时,可以执行将从工具74向机器人20施加的力F(换言之,从工具74向工件W2施加的力)控制为预定的目标值的力控制。
如此,根据作业在机器人20的手腕部30安装各种末端执行器40、50、60或者70,机器人20使工具44、64或者74进行预定的动作。力传感器32在机器人20正在使工具44、64或者74执行预定的动作时,检测从该工具44、64或者74向机器人20施加的力F,将力F的数据提供给学习数据取得部12。
例如,在图2~图4所示的示例中,在机器人20作为预定的动作进行使工具44或64不与工件接触(或者与工件接触)地进行旋转的动作时,通过工具44或64的旋转而向力传感器32施加力。力传感器32检测这样的力来作为在预定的动作时从工具44或64向机器人20施加的力F。
此外,在图5所示的示例中,在机器人20作为预定的动作,进行将工具74嵌入到孔H中的动作时,向力传感器32施加由于将工具74嵌入到孔H中的动作而产生的力。力传感器32检测这样的力,来作为预定的动作时从工具74向机器人20施加的力F。学习数据取得部12从力传感器32取得该力传感器32检测出的力F的数据。力F的数据包含上述的输出信号SO、力Fx、Fy、Fz、Mx、My以及Mz、以及对末端执行器40施加的力FE中的至少1个。
此外,力F的数据也可以包含数据SO、Fx、Fy、Fz、Mx、My、Mz、FE的时间变化特性CT、振幅值AP(正或负的峰值、峰峰值等)、以及频谱FS中的至少1个。此外,时间变化特性CT或频谱FS可以是预定的时间τ内检测出的数据。此外,振幅值AP可以是预定的时间τ的平均值或最大值。此外,预定的时间τ可以是机器人20进行的“预定的动作”的开始到结束为止的时间,或者可以是“预定的动作”中的任意的时间(例如,1秒)。
另一方面,表示工具44、64或74的状态S的数据例如包含“正常状态”、“异常状态”等标签信息。在此,所谓异常状态例如是在工具44、64或74产生了缺口、破裂或者龟裂等损伤的状态。另一方面,所谓正常状态是工具44、64或者74没有产生损伤的状态。
另外,作为“正常状态”的标签信息,可以设定“新品状态”、“半新状态”这样的多个标签信息。此外,作为“异常状态”的标签信息,可以如“异常状态等级1”、“异常状态等级2”、“异常状态等级3”这样的方式,设定与异常状态的程度对应的多个标签信息。
表示工具44、64或74的状态S的数据由操作员决定。例如,操作员通过目视等确认工具44、64或74的状态(正常状态、异常状态),将表示该工具44、64或74的状态S的数据输入到学习数据取得部12。
作为替代,操作员可以预先准备学习模型LM2,该学习模型LM2表示工具44、64或74的图像数据与该工具44、64或74的状态S之间的相关性,将拍摄工具44、64或74所得到的图像数据输入到该学习模型LM2来判定工具44、64或74的状态S。学习数据取得部12取得从力传感器32取得的力F的数据、由操作员(或者通过学习模型LM2)决定的表示状态S的数据,来作为学习数据集DS。
在此,机器人20正在使工具44、64或74执行预定的动作时从工具44、64或74向机器人20施加的力F与工具44、64或74的状态S(正常状态、异常状态等)之间存在相关性。例如,在图2~图4所示的示例中,设为在工具44或64产生了损伤。
在该情况下,当机器人20进行使工具44或64旋转的预定动作时,由于损伤使得工具44或者64的旋转产生偏心,结果,从工具44或64向机器人20施加的力F可能与没有损伤的工具44或64旋转时不同。
此外,在图5以及图6所示的示例中,设为工具74产生了损伤。在该情况下,当机器人20进行将工具74嵌入到孔H中的预定的动作时,由于在工具74的损伤部位与孔H的壁面之间产生的摩擦等,从工具74向机器人20施加的力F可能与将没有损伤的工具74嵌入到孔H时不同。
学习部14使用力F以及状态S的学习数据集DS,生成表示力F与状态S之间的相关性的学习模型(函数)LM。例如,学习部14通过执行监督学习,生成学习模型LM。在该情况下,在每次将新的工具44、64或74装配到机器人20时,使机器人20重复试行预定的动作。并且,学习数据取得部12在每次机器人20执行预定的动作时,重复取得学习数据集DS来作为训练数据。
学习部14通过识别特征来对学习模型LM进行学习,该特征暗示作为训练数据而取得的力F的数据(时间变化特性、频谱等)与表示状态S的数据(正常状态、异常状态等标签信息)之间的相关性。作为这样的监督学习,例如能够使用支持向量机(SVM),或者混合高斯模型(GMM)这样的算法。
以下,参照图7对机器学习装置10进行的学习循环的流程进行说明。在步骤S1中,操作员将工具44、64或74(即,末端执行器40、50、60或70)安装到机器人20,通过机器人20使工具44、64或74进行预定的动作。
在步骤S2中,学习数据取得部12取得学习数据集DS。具体来说,学习数据取得部12从力传感器32取得在步骤S1中机器人20正在使工具44、64或74进行预定的动作的期间该力传感器32检测出的力F的数据。
此外,学习数据取得部12取得正常状态的标签信息或异常状态的标签信息,来作为表示在步骤S1中旋转的工具44、64或74的状态S的数据。作为一例,操作员通过在步骤S1进行预定的动作之前目视工具44、64或74,确认该工具44、64或74是正常状态还是异常状态。
作为其他的示例,操作员确认在步骤S1中正在进行预定的动作的期间力传感器32检测出的力F的数据,由此确认该工具44是正常状态还是异常状态。操作员对机器学习装置10的输入装置进行操作,输入正常状态的标签信息或异常状态的标签信息,来作为表示在步骤S1中安装的工具44、64或者74的状态S的数据。
作为另一示例,在步骤S1中执行预定的动作之前,或者执行了预定的动作之后,通过照相机(未图示)拍摄工具44、64或74。并且,将拍摄到的图像数据输入到上述的学习模型LM2。学习模型LM2将正常状态的标签信息或异常状态的标签信息输出给学习数据取得部12。
学习数据取得部12取得所输入的正常状态的标签信息或异常状态的标签信息。这样,学习数据取得部12取得力F的数据以及表示状态S的数据的学习数据集DS,并相互关联起来存储在存储部中。
步骤S3中,学习部14使用在步骤S2取得的学习数据集DS,生成表示力F与状态S之间的相关性的学习模型LM。具体来说,学习部14通过执行监督学习的算法(SVM、GMM等)对学习模型LM进行学习。
然后,返回到步骤S1,操作员将新的工具44、64或74(即,末端执行器40、50、60或70)安装到机器人20,机器人20通过该新的工具44、64或74进行预定的动作。然后,在步骤S2中,学习数据取得部12对于该新的工具44、64或74取得学习数据集DS,在步骤S3中,学习部14使用新取得的学习数据集DS来更新学习模型LM。
通过执行这样的学习循环,学习模型LM的学习得以进行,将学习模型LM引导至最佳解。对于工具44、64以及74中的各个工具执行这样的学习循环,由此能够针对工具44、64以及74中的各个工具取得表示工具44、64、74的状态S与力F之间的相关性的学习模型LM。
根据本实施方式,能够自动且正确地求出模型,该模型定量地表示力F与工具的状态S之间的相关性。另外,不限于图7所示的学习循环的流程,例如,可以在重复执行步骤S1以及S2的循环而取得了多个学习数据集DS后执行步骤S3,学习部14使用该多个学习数据集DS来执行学习模型LM的学习。
另外,作为机器学习装置10的另一功能,在步骤S2中,学习数据取得部12可以进一步取得在步骤S1中机器人20正在进行预定的动作时的工具44、64或74的位置以及姿势的数据,来作为学习数据集DS。具体来说,在步骤S1中机器人20在将工具44、64或74配置为预定的位置以及姿势的状态下,使该工具44、64或74执行预定的动作。
并且,在步骤S2中,当在步骤S1中将工具44、64或74配置为预定的位置以及姿势时,学习数据取得部12从用于检测机器人20的各伺服电动机的旋转角度θ的编码器(未图示)取得旋转角度θ。能够根据这些旋转角度θ,计算工具44、64或74(或者末端执行器40、50、60或70)的位置以及姿势。
在该步骤S2中,学习数据取得部12除了取得力F的数据以及表示状态S的数据之外,还取得工具44、64或74的位置以及姿势的数据,来作为学习数据集DS。另外,学习数据取得部12也可以取得旋转角度θ来作为位置以及姿势的数据。然后,在步骤S3中,学习部14使用力F的数据、状态S的数据、位置以及姿势的数据的学习数据集DS来生成学习模型LM。
以下说明作为学习数据集DS取得位置以及姿势的数据的意义。在机器人20正在执行预定的动作时由力传感器32检测的力F根据工具44、64或74的位置以及姿势进行变化。因此,考虑工具44、64或74的位置以及姿势与力F之间的关联性来生成学习模型LM,由此能够取得表示将工具44、64或74配置为各种位置以及姿势来执行预定的动作时的力F与状态S之间的相关性的学习模型LM。
作为机器学习装置10的又另一功能,例如在使用工具44或64时,在步骤S2中,学习数据取得部12可以进一步取得在步骤S1中机器人20正在进行预定的动作时的工具44或64的转速的数据,来作为学习数据集DS。
具体来说,当在步骤S1中机器人20正在进行使工具44或64旋转的预定的动作时,学习数据取得部12从用于检测工具44或64的转速的速度传感器(未图示)取得转速V的数据。
作为替代,学习数据取得部12还可以取得在步骤S1中机器人20使工具44或64进行预定的动作时发送给该工具44或64的速度指令CR的数据。速度指令CR是对进行预定的动作时的工具44或64的转速进行规定的指令。
另一方面,在使用工具74时,在步骤S2中,学习数据取得部12可以进一步取得在步骤S1中机器人20正在进行预定的动作时的工具74的动作速度(即,工具74向孔H移动的速度)的数据,来作为学习数据集DS。具体来说,当在步骤S1中机器人20正在进行将工具74嵌入到孔H中的预定的动作时,学习数据取得部12从用于检测该工具74的动作速度的速度传感器(未图示)取得动作速度V。
作为替代,学习数据取得部12可以取得在步骤S1中机器人20使工具74进行预定的动作时发送给该工具74的速度指令CR的数据。速度指令CR是对进行预定的动作时的工具74的动作速度进行规定的指令。
这样,在步骤S2中,学习数据取得部12除了取得力F的数据以及表示状态S的数据之外,还取得工具44、64或74的速度V(或速度指令CR)的数据,来作为学习数据集DS。然后,在步骤S3中,学习部14使用力F的数据、状态S的数据以及速度V(或速度指令CR)的学习数据集DS,来生成学习模型LM。
在此,在机器人20正在执行预定的动作时由力传感器32检测出的力F根据工具44、64或74的速度V进行变化。因此,通过考虑工具44、64或74的速度V(或速度指令CR)与力F之间的关联性来生成学习模型LM,能够取得与速度V对应的学习模型LM。
作为机器学习装置10的又另一功能,在步骤S2中,学习数据取得部12可以进一步取得工具44、64或74的重量WG的数据来作为学习数据集DS。具体来说,在步骤S1中执行预定的动作之前或者执行了预定的动作之后,学习数据取得部12从检测工具44、64或74的重量的重量传感器(未图示)取得重量WG的数据。
这样,在步骤S2中,学习数据取得部12除了取得力F的数据以及表示状态S的数据之外,还取得工具44、64或74的重量WG的数据,来作为学习数据集DS。然后,在步骤S3中,学习部14使用力F的数据、状态S的数据、以及重量WG的数据的学习数据集DS,生成学习模型LM。
这里,在机器人20执行预定的动作时由力传感器32检测出的力F根据工具44、64或74的重量WG进行变化。因此,通过考虑工具44、64或74的重量WG与力F之间的关联性来生成学习模型LM,能够取得与重量WG对应的学习模型LM。
作为机器学习装置10的又另一功能,在步骤S2中,学习数据取得部12可以进一步取得成为工具44、64或74的作业对象的工件W的种类的数据,来作为学习数据集DS。工件W的种类的数据包含工件W的材料、粗糙度、或刚性模量等与工件W的规格相关的信息、或者用于识别工件W的种类的信息等。
与工件W的规格相关的信息可以包含字符(“铁”、“铝”、“SUS3044”等)或数值。此外,用于识别工件W的种类的信息可以是“工件类型A”、“工件类型B”这样的字符信息,或者可以是操作员对每个工件W标注的识别编号。
例如,操作员在步骤S2中,操作机器学习装置10的输入装置来输入工件W的种类的数据。这样,在步骤S2中,学习数据取得部12除了取得力F的数据以及表示状态S的数据之外,还取得工件W的种类的数据,来作为学习数据集DS。然后,在步骤S3中,学习部14使用力F的数据、状态S的数据、以及工件W的种类的数据的学习数据集DS来生成学习模型LM。
这里,在机器人20执行预定的动作时由力传感器32检测出的力F根据工件W的种类的数据进行变化。例如,当在步骤S1中机器人20进行使工具44或64与工件W接触地进行旋转的预定动作时,或者在机器人20进行将工具74嵌入到孔H中的预定动作时,从工件W向工具44或64施加的力可能因工件W的材料、粗糙度、或刚性模量等进行变动。
因此,通过考虑工件W的种类与力F之间的关联性来生成学习模型LM,能够取得与工件W的种类对应的学习模型LM。另外,学习数据取得部12可以进一步取得工具44、64或74的种类的数据(识别工具的种类的字符信息等)来作为学习数据集DS。
另外,工具44、64或74具有状态S随时间经过而变化的已知的使用期限T。该使用期限例如像1个月或1年那样,可作为工具44、64或74的规格而预先决定。在具有这样的使用期限时,学习部14可以针对使用期限T中包含的多个小期间分别生成学习模型LM。
例如,将使用期限T划分为工具44、64或74从新品的时间点t0到工具44、64或74被使用了预定时间后的时间点t1为止的小期间T1、从时间点t1到工具44、64或74进一步被使用了预定时间后的时间点t2为止的小期间T2、…、从时间点tn-1到工具44、64或74进一步被使用了预定时间后的时间点tn为止的小期间Tn。
在该情况下,学习部14可以在各个小期间Tn(n=1、2、3、…n)执行图7所示的学习循环,针对每个小期间Tn生成学习模型LMn。根据该结构,能够生成与工具44、64、74的使用期间对应的学习模型LM。
另外,学习部14执行的学习算法不限定于监督学习,例如可采用无监督学习、强化学习、神经网络等作为机器学习而公知的学习算法。作为一例,图8示意性地表示神经元的模型。图9示意性地表示将图8所示的神经元进行组合而构成的三层的神经网络的模型。另外,在图8中作为一例示出了输入x为3个的情况,但是输入x的数量也可以是n(n是2或4以上的正数)。此外,在图9中作为一例示出了三层的神经网络的模型,但是也可以使用n层(n是2或4以上的正数)的神经网络。神经网络例如由模拟神经元模型的运算装置、存储装置等构成。
图8所示的神经元针对多个输入x(图中作为示例为输入x1~x3)输出结果y。对各输入x(x1、x2、x3)分别乘以权重w(w1、w2、w3)。输入x与结果y的关系可通过下述的式1来表示。另外,输入x、结果y以及权重w都是向量。此外,在式1中θ是偏置,fk是激活函数。
图9所示的三层的神经网络从左侧输入多个输入x(在图中作为示例为输入x1~输入x3),从右侧输出结果y(在图中作为示例为结果y1~结果y3)。在图示的示例中,对输入x1、x2、x3分别乘以对应的权重(统一由W1表示),将各输入x1、x2、x3全都输入给3个神经元N11、N12、N13。
在图9中统一由Z1来表示神经元N11~N13各自的输出。Z1可视为提取出输入向量的特征量而得到的特征向量。在图示的示例,对特征向量Z1分别乘以对应的权重(统一由W2表示),将各个特征向量Z1全都输入给2个神经元N21、N22。特征向量Z1表示权重W1与权重W2之间的特征。
在图9中统一由Z2来表示神经元N21~N22各自的输出。Z2可视为提取出特征向量Z1的特征量而得到的特征向量。在图示的示例中,对特征向量Z2分别乘以对应的权重(统一由W3表示),将各个特征向量Z2全都输入给3个神经元N31、N32、N33。
特征向量Z2表示权重W2与权重W3之间的特征。最后,神经元N31~N33分别输出结果y1~y3。机器学习装置10以学习数据集DS为输入,通过进行遵照上述神经网络的多层结构的运算,可对学习模型LM进行学习。
上述机器学习装置10的结构可记述为计算机的处理器执行的机器学习方法(或者软件)。在该机器学习方法中,取得在机器人20正在使工具44、64或74进行预定的动作的期间从该工具44、64或74向机器人20施加的力F的数据、以及表示正在进行该预定的动作时的工具44、64或74的状态S的数据,来作为学习数据集DS,使用学习数据集DS生成表示力F与工具的状态S之间的相关性的学习模型LM。
接下来,参照图10对一实施方式的机器人系统100进行说明。机器人系统100具有:机器人20、力传感器32以及控制装置102。控制装置102具有处理器104以及存储部106。处理器104与存储部106经由总线108可相互通信地连接,处理器104包含CPU或GPU等,在与存储部106进行通信的同时执行各种运算。
在本实施方式中,机器学习装置10作为硬件或软件安装在控制装置102中,处理器104执行实现机器学习装置10的功能的各种运算。即,在本实施方式中,处理器104作为学习数据取得部12以及学习部14发挥功能。存储部106包含ROM以及RAM等,预先存储了机器学习装置10学习到的学习模型LM。
接下来,参照图11对机器人系统100的动作进行说明。在处理器104从操作员、上位控制器或作业程序接受了作业开始指令时,开始图11所示的流程。在步骤S11中,处理器104开始机器人20的动作。在该步骤S11中,处理器104使机器人20执行与在学习模型LM的学习阶段执行的“预定的动作”相同的动作。
例如,在图2~图4所示的示例的情况下,处理器104使机器人20进行使工具44或64不与工件接触(或与工件接触)地进行旋转的动作。此外,在图5以及图6所示的示例的情况下,处理器104使机器人20进行将末端执行器70抓持的工具74嵌入到孔H中的动作。在进行使工具44或64与工件接触地进行旋转的动作、或者将工具74嵌入到孔H中的动作时,处理器104可以执行上述的力控制。
另外,在该步骤S11中执行的所谓的“相同的动作”,不限于与在学习模型LM的学习阶段执行的“预定的动作”完全相同的条件(工具的种类、工件的种类、机器人20的种类、机器人20的位置以及姿势、机器人20的移动路径等)下的动作,也可以包含条件中的至少1个条件与“预定的动作”不同的动作。
在步骤S12中,处理器104开始取得力F的数据。具体来说,处理器104开始如下动作:从力传感器32取得在正在执行步骤S11的动作的期间由该力传感器32检测出的力F的数据。在此,处理器104可以在正在执行步骤S11的动作的期间的预定的时间τ内,取得力F的数据。
该预定的时间τ可以是在步骤S11中机器人20进行的动作的开始到结束的时间,或者可以是该动作中的任意的时间(例如,1秒)。此外,当在图7所示的学习循环中进一步取得工具44、64或74的位置以及姿势的数据进行了学习模型LM的学习时,处理器104可以在该步骤S12中,取得力传感器32检测出力F时的工具44、64或74的位置以及姿势的数据,并与取得的力F的数据关联起来存储在存储部106中。
此外,当在图7所示的学习循环中进一步取得工具44、64或74的速度V的数据进行了学习模型LM的学习时,速度传感器在步骤S11的执行过程中检测工具44、64或74的速度V(或速度指令CR),处理器104在该步骤S12中从该速度传感器取得速度V的数据。
此外,当在图7所示的学习循环中进一步取得工具44、64或74的重量WG的数据进行了学习模型LM的学习时,处理器104从重量传感器取得工具44、64或74的重量WG的数据。此外,当在图7所示的学习循环中进一步取得工件(或工具)的种类的数据进行了学习模型LM的学习时,处理器104从操作员通过输入装置取得工件(或工具)的种类的数据。
在步骤S13中,处理器104根据学习模型LM来判定工具44、64或74的状态S。具体来说,处理器104将在步骤S12中取得的力F的数据输入到在存储部106中存储的学习模型LM。于是,学习模型LM推定并输出与所输入的力F的数据具有相关性的状态S的数据(“正常状态”、“异常状态”等标签信息)。这样,处理器104可根据取得的力F的数据来判定工具44、64、74的状态S。
另外,在作为学习数据集DS使用工具44、64或74的位置以及姿势的数据生成了学习模型LM时,处理器104可以将步骤S12中取得的工具44、64或74的位置以及姿势的数据与力F的数据一起输入到学习模型LM。此时,学习模型LM推定并输出与工具44、64或74的位置以及姿势所对应的力F的数据具有相关性的状态S的数据。
此外,在作为学习数据集DS使用工具44、64或74的速度V(或速度指令CR)、重量WG、或工件(或工具)的种类的数据生成了学习模型LM时,处理器104可以将速度V(或速度指令CR)、重量WG或者种类的数据与力F的数据一起输入到学习模型LM。此时,学习模型LM根据力F的数据以及速度V(或速度指令CR)、重量WG或者种类的数据来推定状态S的数据并输出。
如此,除了力F的数据之外使用更多的数据来生成学习模型LM,由此能够在图11所示的流程中判定工具44、64或74的异常的阶段,根据更多的条件(位置以及姿势、速度V、重量WG、工件或工具的种类)来判定工具44、64或74的异常。
处理器104在工具44、64或74的状态S并非异常状态(或者是正常状态)时判定为否,完成在步骤S11开始的动作,结束图11所示的流程。另一方面,处理器104在工具44、64或74的状态S是异常状态(或者并非正常状态)时判定为是,向步骤S15前进。这样,在本实施方式中,处理器104作为用于判定工具44、64或74的状态S的状态判定部110(图10)发挥功能。
在步骤S15中,处理器104检查力传感器32有无故障。在此,在假设力传感器32发生了故障时,无法向处理器104提供恰当的力的数据F,由此,不论工具44、64或74的状态S是否是正常状态,在步骤S13中可能判定为状态S是异常状态(即为是)。
为了识别状态S的判定的正确与否,在本实施方式中,处理器104执行该步骤S15。具体来说,处理器104停止在步骤S11中开始的动作,将工具44、64或74(即,末端执行器40、50、60或70)配置成预先决定的位置以及姿势。
然后,处理器104从力传感器32取得此时该力传感器32检测出的力F0。然后,处理器104判定所取得的力F0是否与预先决定的基准值Fa不同。在此,在将静止状态的工具44、64或74配置成预先决定的位置以及姿势时从该工具44、64或74向机器人20施加的力,可通过测量或模拟等进行推定。因此,可将这样推定出的力作为基准值Fa预先存储在存储部106中。
处理器104在判定为取得的力F0与基准值Fa不同(即为是)时,向步骤S17前进,另一方面在判定为取得的力F0与基准值Fa实质相同(即为否)时,向步骤S16前进。例如,处理器104在该步骤S15中,在力F0与基准值Fa之差(=|F0-Fa|)比预先决定的阈值大时,可以判定为是。这样,在本实施方式中,处理器104作为检查力传感器32有无故障的故障检查部112(图10)发挥功能。
另外,操作员也可以预先准备学习模型LM3,该学习模型LM3表示工具44、64或74的位置以及姿势与力传感器32检测出的力F的状态(正常值、异常值)之间的相关性。并且,处理器104在该步骤S15中可以将工具44、64或74成为预先决定的位置以及姿势时的该工具44、64或74的位置以及姿势的数据、以及此时力传感器32检测出的力F0输入到该学习模型LM3,从而检测力传感器32有无故障。
此外,例如在使用工具44或64时,力传感器32可以在进行使工具44或64不与工件接触地进行旋转的动作时检测力F0’。使工具44或64不与工件接触地进行旋转时从该工具44、64或74向机器人20施加的力也可以通过测量或模拟等进行推定。因此,处理器104可以将这样推定出的力设为基准值Fa’,在该步骤S15中判定由力传感器32检测出的力F0’是否与基准值Fa’不同。
在步骤S16中,处理器104生成第1警告信号。例如,处理器104生成“工有可能发生了异常”这样的语音或图像的信号,并通过设置在控制装置102的扬声器或显示器(未图示)进行输出。并且,处理器104结束图11所示的流程。
在步骤S17中,处理器104生成第2警告信号。例如,处理器104生成“力传感器有可能发生了异常”这样的语音或图像的信号,并通过设置在控制装置102的扬声器或显示器进行输出。并且,处理器104结束图11所示的流程。
如上所述,在本实施方式中,处理器104在机器人20使用工具44、64或74进行作业时,根据机器学习装置10学习到的学习模型LM来判定工具44、64或74的状态S。根据该结构,能够根据在作业中取得的力F的数据自动且高精度地判定工具44、64或74是否发生了异常。
此外,在本实施方式中,处理器104在判定为工具44、64或74的状态S是异常状态时,检查力传感器32有无故障。根据该结构,能够防止操作员错误识别工具44、64或74的状态S,并且能够确定力传感器32的故障。
另外,可从机器人系统100中删除故障检查部112的功能。在该情况下,从图11所示的流程中删除步骤S15以及S17,处理器104在步骤S13中判定为是时,向步骤S16前进。此外,机器人系统100的存储部106可以设置为与控制装置102分开的装置(外设存储器、外部服务器、云端等)。
此外,在上述实施方式中,对于处理器104在步骤S13中判定为是的情况下,执行用于判定力传感器32有无故障的步骤(步骤S15)的情况进行了叙述,但是也可以在步骤S13中判定为否的情况下,执行用于判定力传感器32有无故障的步骤,在判定为该力传感器32存在故障时向步骤S17前进。
此外,力传感器32可以设置在机器人20的任何位置。例如,力传感器32可以设置在机器人的基部22。此外,力传感器32不限于6轴力觉传感器,例如也可以由分别设置在多个伺服电动机的多个转矩传感器构成,该多个伺服电动机内置在机器人20中。在该情况下,转矩传感器检测向对应的伺服电动机施加的转矩来作为力F,将力F的数据提供给学习数据取得部12。
此外,在上述实施方式中,对研磨作业、切削加工以及嵌入作业用的工具44、64以及74(末端执行器40、50、60以及70)进行了叙述,但是也可以对机器人20安装用于进行其他任何作业(例如,点焊)的工具(电焊枪)。此外,机器人不限于垂直多关节型机器人,也可以是水平多关节机器人或平行连杆机器人等任何类型的机器人。此外,机器人也可以是吊顶类型或挂壁类型的机器人。
此外,在图10所示的实施方式中,对于控制装置102的处理器104作为学习数据取得部12以及学习部14发挥功能的情况进行了叙述。但是,不限于此,例如,学习部14也可以安装在与控制装置102不同的计算机中。
在该情况下,该不同的计算机与控制装置102可通信地连接,控制装置102的处理器104将作为学习数据取得部12取得的学习数据集DS发送给该不同的计算机,学习部14使用从控制装置102取得的学习数据集DS生成学习模型LM。或者,具有学习数据取得部12以及学习部14的机器学习装置10也可以安装在该不同的计算机中。在该情况下,该不同的计算机作为学习数据取得部12发挥功能,从力传感器32取得力F的数据。
以上通过实施方式对本公开进行了说明,但是上述实施方式并非限定与保护范围有关的发明。
Claims (10)
1.一种机器学习装置,其对机器人在作业中使用的工具的状态进行学习,其特征在于,
所述机器学习装置具有:
学习数据取得部,其取得在所述机器人正在使所述工具进行预定的动作的期间从所述工具向所述机器人施加的力的数据、以及表示正在进行所述预定的动作时的所述工具的状态的数据,来作为学习数据集;以及
学习部,其使用所述学习数据集生成表示所述力与所述工具的状态之间的相关性的学习模型。
2.根据权利要求1所述的机器学习装置,其特征在于,
所述学习数据取得部还取得正在进行所述预定的动作时的所述工具的位置以及姿势的数据来作为所述学习数据集,
所述学习部对于所述相关性考虑所述力与所述位置以及姿势之间的关联性来生成所述学习模型。
3.根据权利要求1或2所述的机器学习装置,其特征在于,
所述工具是通过旋转动作来研磨工件的研磨材料,
所述预定的动作是使所述研磨材料不与工件接触地进行旋转的动作或者使所述研磨材料与工件接触地进行旋转的动作。
4.根据权利要求1~3中的任意一项所述的机器学习装置,其特征在于,
所述工具具有所述状态随时间经过而变化的已知的使用期限,
所述学习部针对所述使用期限包含的多个小期间中的各个小期间生成所述学习模型。
5.根据权利要求1或2所述的机器学习装置,其特征在于,
所述工具是所述机器人操纵的工件,
所述预定的动作是将所述工件嵌入到孔中的动作。
6.根据权利要求1~5中的任意一项所述的机器学习装置,其特征在于,
所述学习数据取得部取得所述机器人正在执行对所述力进行控制的力控制的期间的所述力的数据。
7.根据权利要求1~6中的任意一项所述的机器学习装置,其特征在于,
所述力的数据包含该力的时间变化特性、该力的振幅值以及该力的频谱中的至少1个。
8.一种机器人系统,其特征在于,具有:
机器人,其使用工具来进行作业;
权利要求1~7中的任意一项所述的机器学习装置;
力传感器,其检测所述力,作为所述力的数据提供给所述学习数据取得部;以及
状态判定部,其根据所述学习部生成的所述学习模型,判定所述机器人在所述作业时正在进行所述预定的动作时的所述工具的状态。
9.根据权利要求8所述的机器人系统,其特征在于,
所述机器人系统还具有故障检查部,该故障检查部检查所述力传感器有无故障。
10.一种机器学习方法,其对机器人在作业中使用的工具的状态进行学习,其特征在于,
处理器取得在所述机器人正在使所述工具进行预定的动作的期间从所述工具向所述机器人施加的力的数据、以及表示正在进行所述预定的动作时的所述工具的状态的数据,来作为学习数据集,使用所述学习数据集生成表示所述力与所述工具的状态之间的相关性的学习模型。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019-115371 | 2019-06-21 | ||
JP2019115371A JP7401207B2 (ja) | 2019-06-21 | 2019-06-21 | ツールの状態を学習する機械学習装置、ロボットシステム、及び機械学習方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112109077A true CN112109077A (zh) | 2020-12-22 |
Family
ID=73654377
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010555681.3A Pending CN112109077A (zh) | 2019-06-21 | 2020-06-17 | 学习工具状态的机器学习装置、机器人系统以及机器学习方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11712801B2 (zh) |
JP (1) | JP7401207B2 (zh) |
CN (1) | CN112109077A (zh) |
DE (1) | DE102020115631A1 (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6898506B1 (ja) * | 2020-07-01 | 2021-07-07 | 株式会社安川電機 | 制御システム、ロボットシステム及び制御方法 |
DE102021109333B4 (de) | 2021-04-14 | 2023-07-06 | Robert Bosch Gesellschaft mit beschränkter Haftung | Vorrichtung und Verfahren zum Trainieren eines Neuronalen Netzes zum Steuern eines Roboters für eine Einsetzaufgabe |
DE102021109332B4 (de) | 2021-04-14 | 2023-07-06 | Robert Bosch Gesellschaft mit beschränkter Haftung | Vorrichtung und Verfahren zum Steuern eines Roboters zum Einsetzen eines Objekts in eine Einsetzstelle |
DE102021109336B4 (de) | 2021-04-14 | 2023-06-01 | Robert Bosch Gesellschaft mit beschränkter Haftung | Vorrichtung und Verfahren zum Trainieren eines Neuronalen Netzes zum Steuern eines Roboters für eine Einsetzaufgabe |
DE102021109334B4 (de) | 2021-04-14 | 2023-05-25 | Robert Bosch Gesellschaft mit beschränkter Haftung | Vorrichtung und Verfahren zum Trainieren eines Neuronalen Netzes zum Steuern eines Roboters für eine Einsetzaufgabe |
DE102021209867A1 (de) | 2021-09-07 | 2023-03-09 | Kuka Deutschland Gmbh | Bewerten und/oder Steuern eines Roboterarbeitsprozesses |
US11898996B2 (en) * | 2022-01-03 | 2024-02-13 | Teng-Jen Yang | Test system with detection feedback |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002355782A (ja) * | 2001-05-31 | 2002-12-10 | Yaskawa Electric Corp | ロボット先端の作用力推定装置および作用力推定方法 |
JP2008304970A (ja) * | 2007-06-05 | 2008-12-18 | Sony Corp | 制御装置および方法、並びにプログラム |
JP2014061556A (ja) * | 2012-09-20 | 2014-04-10 | Ihi Corp | ロボットシステム並びにセンサ検査装置及び方法 |
CN108115682A (zh) * | 2016-11-29 | 2018-06-05 | 发那科株式会社 | 机械学习装置、机器人系统以及机械学习方法 |
CN108393889A (zh) * | 2017-02-06 | 2018-08-14 | 精工爱普生株式会社 | 控制装置、机器人以及机器人系统 |
CN109129462A (zh) * | 2017-06-15 | 2019-01-04 | 发那科株式会社 | 学习装置、控制装置以及控制系统 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59142048A (ja) * | 1983-01-26 | 1984-08-15 | Mitsubishi Electric Corp | 工具異常検出装置 |
JP3076548B2 (ja) * | 1998-03-20 | 2000-08-14 | 川崎重工業株式会社 | 工具摩耗検知装置および方法 |
JP2003011080A (ja) * | 2001-06-29 | 2003-01-15 | Toyota Motor Corp | 搬送作業補助装置 |
JP2003019643A (ja) * | 2001-07-06 | 2003-01-21 | Mitsubishi Materials Corp | 加工状態検出装置および加工状態検出方法および記録媒体およびプログラム |
US20050159840A1 (en) * | 2004-01-16 | 2005-07-21 | Wen-Jong Lin | System for surface finishing a workpiece |
CN101612712B (zh) | 2009-07-10 | 2011-03-09 | 同济大学 | 旋转式动态铣削扭矩测量仪 |
JP5616478B1 (ja) * | 2013-04-18 | 2014-10-29 | ファナック株式会社 | ワークを搬送するロボットを備えるロボットシステム |
US9403273B2 (en) * | 2014-05-23 | 2016-08-02 | GM Global Technology Operations LLC | Rapid robotic imitation learning of force-torque tasks |
JP6148316B2 (ja) * | 2015-07-31 | 2017-06-14 | ファナック株式会社 | 故障条件を学習する機械学習方法及び機械学習装置、並びに該機械学習装置を備えた故障予知装置及び故障予知システム |
JP6426667B2 (ja) | 2016-08-10 | 2018-11-21 | 三菱重工工作機械株式会社 | 工作機械の工具の異常検知装置及び方法 |
JP6487475B2 (ja) * | 2017-02-24 | 2019-03-20 | ファナック株式会社 | 工具状態推定装置及び工作機械 |
JP6822242B2 (ja) | 2017-03-16 | 2021-01-27 | 株式会社リコー | 診断装置、診断システム、診断方法およびプログラム |
JP7069747B2 (ja) * | 2018-01-26 | 2022-05-18 | セイコーエプソン株式会社 | ロボット制御装置及びロボットシステム |
JP6836577B2 (ja) * | 2018-02-06 | 2021-03-03 | ファナック株式会社 | 研磨工具摩耗量予測装置、機械学習装置及びシステム |
US11642183B2 (en) * | 2018-06-06 | 2023-05-09 | Verily Life Sciences Llc | Systems and methods for fleet management of robotic surgical systems |
JP7305945B2 (ja) | 2018-10-31 | 2023-07-11 | 株式会社ジェイテクト | 工作機械 |
JP7342444B2 (ja) * | 2019-06-18 | 2023-09-12 | 株式会社ジェイテクト | 加工工具の異常検知装置 |
-
2019
- 2019-06-21 JP JP2019115371A patent/JP7401207B2/ja active Active
-
2020
- 2020-06-12 DE DE102020115631.6A patent/DE102020115631A1/de active Pending
- 2020-06-17 CN CN202010555681.3A patent/CN112109077A/zh active Pending
- 2020-06-17 US US16/903,381 patent/US11712801B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002355782A (ja) * | 2001-05-31 | 2002-12-10 | Yaskawa Electric Corp | ロボット先端の作用力推定装置および作用力推定方法 |
JP2008304970A (ja) * | 2007-06-05 | 2008-12-18 | Sony Corp | 制御装置および方法、並びにプログラム |
JP2014061556A (ja) * | 2012-09-20 | 2014-04-10 | Ihi Corp | ロボットシステム並びにセンサ検査装置及び方法 |
CN108115682A (zh) * | 2016-11-29 | 2018-06-05 | 发那科株式会社 | 机械学习装置、机器人系统以及机械学习方法 |
CN108393889A (zh) * | 2017-02-06 | 2018-08-14 | 精工爱普生株式会社 | 控制装置、机器人以及机器人系统 |
CN109129462A (zh) * | 2017-06-15 | 2019-01-04 | 发那科株式会社 | 学习装置、控制装置以及控制系统 |
Also Published As
Publication number | Publication date |
---|---|
US11712801B2 (en) | 2023-08-01 |
JP7401207B2 (ja) | 2023-12-19 |
US20200398424A1 (en) | 2020-12-24 |
DE102020115631A1 (de) | 2020-12-24 |
JP2021000692A (ja) | 2021-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112109077A (zh) | 学习工具状态的机器学习装置、机器人系统以及机器学习方法 | |
CN105583826B (zh) | 工业机器人和用于控制工业机器人的方法 | |
JP6572265B2 (ja) | 制御装置及び機械学習装置 | |
US20160214143A1 (en) | Scraping device and scraping method using robot | |
US10960549B2 (en) | Vibration analyzer and vibration analysis method | |
JP6629815B2 (ja) | 寿命推定装置及び機械学習装置 | |
WO2006117022A1 (en) | A method for control of an industrial robot | |
JP7173916B2 (ja) | 機械学習装置および機械学習方法 | |
CN110997248B (zh) | 用于物品抓握的系统和用于物品抓握的系统操作的方法 | |
US10962957B2 (en) | Collision position estimation device and machine learning device | |
US20150120049A1 (en) | Robot, control device, and robot system | |
US11331810B2 (en) | Device, method and program for estimating weight and position of gravity center of load by using robot | |
CN112109080A (zh) | 调整辅助装置 | |
CN112405566A (zh) | 机器人控制装置 | |
CN110405729B (zh) | 机器人控制装置 | |
JP6319128B2 (ja) | 把持ロボット及び把持ロボットの制御方法 | |
EP2907599B1 (en) | Peening device and peening method | |
JP4054984B2 (ja) | ロボットの制御装置および制御方法 | |
US11951625B2 (en) | Control method for robot and robot system | |
JP2019188514A (ja) | ロボットを用いた負荷の重量及び重心位置を推定するための装置、方法及びプログラム | |
US20230032334A1 (en) | Robot simulation device | |
JP7448327B2 (ja) | 作業員の作業を補助するロボットシステム、制御方法、機械学習装置、及び機械学習方法 | |
JP7260402B2 (ja) | ケーブルの状態を学習する機械学習装置、ロボットシステム、及び機械学習方法 | |
JP2006315128A (ja) | ロボットハンドの持ち替え把持制御方法。 | |
JP4300309B2 (ja) | シミュレーションにおける干渉確認方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |