JP2019038089A - ロボットシステム - Google Patents

ロボットシステム Download PDF

Info

Publication number
JP2019038089A
JP2019038089A JP2017164063A JP2017164063A JP2019038089A JP 2019038089 A JP2019038089 A JP 2019038089A JP 2017164063 A JP2017164063 A JP 2017164063A JP 2017164063 A JP2017164063 A JP 2017164063A JP 2019038089 A JP2019038089 A JP 2019038089A
Authority
JP
Japan
Prior art keywords
robot
correction amount
operation command
learned
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017164063A
Other languages
English (en)
Other versions
JP6564433B2 (ja
Inventor
稲垣 聡
Satoshi Inagaki
聡 稲垣
文杰 陳
Wenjie Chen
文杰 陳
凱濛 王
Kaimeng Wang
凱濛 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2017164063A priority Critical patent/JP6564433B2/ja
Priority to US16/054,180 priority patent/US10507581B2/en
Priority to DE102018214272.6A priority patent/DE102018214272B4/de
Priority to CN201810982755.4A priority patent/CN109421049B/zh
Publication of JP2019038089A publication Critical patent/JP2019038089A/ja
Application granted granted Critical
Publication of JP6564433B2 publication Critical patent/JP6564433B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/005Manipulators for mechanical processing tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39178Compensation inertia arms
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39295Learn position correction values to be added to reference values
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39298Trajectory learning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40043Move object without swinging, no pendulum or swing motion at stop point

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

【課題】ロボット機構部の位置制御の補正のための学習補正量を算出する学習回数を低減するロボットシステムを提供する。【解決手段】ロボットシステム1は、動作指令に基づく位置制御の学習補正量の学習が未学習である少なくとも1つの未学習ロボット102と、動作指令に基づく位置制御の学習補正量の学習が学習済である少なくとも1つの学習済ロボット101,103,104と、学習済ロボット101,103,104の動作指令1,3,4及び学習補正量1,3,4を保存する記憶装置210とを含み、未学習ロボット102は、記憶装置210に保存された学習済ロボット103の動作指令3と自ロボットの動作指令2との差異に基づいて、記憶装置210に保存された学習済ロボット103の学習補正量3を補正し、補正した学習補正量3を自ロボットの学習補正量2として推定する補正量推定部を備える。【選択図】図1

Description

本発明は、ロボット機構部の位置制御の補正のための学習補正量を算出する学習制御を行う複数のロボットを備えるロボットシステムに関する。
ロボット機構部のアーム先端部(位置制御の対象部位)の位置を制御することにより、レーザ加工、シーリング、アーク溶接等を行う例えば産業用ロボットが知られている。このようなロボットでは、動作を高速化することによって、タクトタイムを短縮することができ、生産効率を向上することができる。しかしながら、ロボットの動作を高速化すると、減速機、ロボット機構部のアームの剛性不足等の要因によって、ロボット機構部のアーム先端部に振動が発生することがあり、これにより、加工対象物の品質が悪化する場合がある。
特許文献1及び2には、このような問題点を解決するロボットが記載されている。これらのロボットは、ロボット機構部のアーム先端部にセンサを備え、センサにより、動作プログラムに基づくロボット機構部の動作中のロボット機構部のアーム先端部の振動を計測する。ロボットは、計測した振動を低減する学習補正量を算出する学習制御を繰り返し行う。
ロボットは、学習補正量を用いて、ロボット機構部のアーム先端部(位置制御の対象部位)の位置制御の補正を行い、ロボット機構部のアーム先端部の振動を低減する。
特開2011−167817号公報 特開2012−240142号公報
ロボット機構部のアーム先端部の振動特性は、ロボット機構部の姿勢によって大きく変動する。そのため、学習制御を行う際にはロバスト性を大きくとる必要があり、学習の繰り返し回数は多くなる。また、動作プログラムを修正した場合には、一から学習し直さなければならず、非常に手間が掛かるという問題がある。
本発明は、ロボット機構部の位置制御の補正のための学習補正量を算出する学習回数を低減するロボットシステムを提供することを目的とする。
(1) 本発明に係るロボットシステム(例えば、後述のロボットシステム1)は、動作指令に基づく位置制御の学習補正量の学習が未学習である少なくとも1つの未学習ロボット(例えば、後述のロボット102)と、動作指令に基づく位置制御の学習補正量の学習が学習済である少なくとも1つの学習済ロボット(例えば、後述のロボット103)と、前記学習済ロボットの動作指令及び学習補正量を保存する記憶装置(例えば、後述の記憶装置210)とを含み、前記未学習ロボットは、前記記憶装置に保存された前記学習済ロボットの動作指令と自ロボットの動作指令との差異に基づいて、前記記憶装置に保存された前記学習済ロボットの学習補正量を補正し、補正した学習補正量を自ロボットの学習補正量として推定する補正量推定部(例えば、後述の補正量推定部33)を備える。
(2) (1)に記載のロボットシステムにおいて、前記補正量推定部は、前記学習済ロボットの動作指令と自ロボットの動作指令との大きさの比及び時間長の比に基づいて、前記学習済ロボットの学習補正量を補正してもよい。
(3) (2)に記載のロボットシステムにおいて、前記補正量推定部は、前記学習済ロボットの動作指令及び学習補正量と自ロボットの動作指令とを、同一の時間長にスケーリングし、スケーリングした前記学習済ロボットの動作指令とスケーリングした自ロボットの動作指令との大きさの比に基づいて、スケーリングした前記学習済ロボットの学習補正量の大きさを補正し、補正した前記学習済ロボットの学習補正量を、自ロボットの動作指令の時間長にスケーリングすることにより、前記学習済ロボットの学習補正量を補正してもよい。
(4) (1)に記載のロボットシステムにおいて、前記補正量推定部は、前記学習済ロボットの動作指令から自ロボットの動作指令への関数に基づいて、前記学習済ロボットの学習補正量を補正してもよい。
(5) (4)に記載のロボットシステムにおいて、前記補正量推定部は、前記学習済ロボットの動作指令から自ロボットの動作指令への伝達関数を求め、求めた伝達関数を前記学習済ロボットの学習補正量に適用して、前記学習済ロボットの学習補正量を補正してもよい。
(6) (1)から(5)のいずれかに記載のロボットシステムにおいて、前記未学習ロボットは、前記記憶装置に保存された前記学習済ロボットの動作指令と自ロボットの動作指令とを比較する比較部(例えば、後述の比較部35)を更に備え、前記補正量推定部は、前記比較部による比較の結果、前記学習済ロボットの動作指令と自ロボットの動作指令との相関が閾値以上である場合に、前記学習済ロボットの学習補正量を補正し、補正した学習補正量を自ロボットの学習補正量として推定してもよい。
(7) (6)に記載のロボットシステムにおいて、前記比較部は、前記学習済ロボットの動作指令と自ロボットの動作指令とを、同一の時間長にスケーリングし、スケーリングした前記学習済ロボットの動作指令とスケーリングした自ロボットの動作指令とを比較してもよい。
(8) (6)又は(7)に記載のロボットシステムにおいて、前記補正量推定部は、前記比較部による比較の結果、前記学習済ロボットの動作指令と自ロボットの動作指令とが同一である場合には、前記学習済ロボットの学習補正量をそのまま自ロボットの学習補正量として推定してもよい。
(9) (1)から(8)のいずれかに記載のロボットシステムは、ネットワークを介して前記未学習ロボット及び前記学習済ロボットに接続され、前記記憶装置を備えるサーバ装置(例えば、後述のサーバ装置200)を更に含んでもよい。
本発明によれば、ロボット機構部の位置制御の補正のための学習補正量を算出する学習回数を低減するロボットシステムを提供することができる。
本実施形態に係るロボットシステムの構成を示す図である。 図1のロボットシステムにおけるロボットの構成を示す図である。 第1実施形態のロボットシステムにおける未学習のロボットのロボット制御部による学習補正量の推定動作を示すフローチャートである。 図2のロボットのロボット制御部における比較部による動作指令の時間長のスケーリングを説明するための図である。 図2のロボットのロボット制御部における補正量推定部による学習補正量の推定の一例を説明するための図である。 図2のロボットのロボット制御部における補正量推定部による動作指令の大きさの比の一例を説明するための図である。 第2実施形態のロボットシステムにおける未学習ロボットのロボット制御部による学習補正量の推定動作を示すフローチャートである。 図2のロボットのロボット制御部における補正量推定部による動作指令の伝達関数の求め方の一例を説明するための図である。 図2のロボットのロボット制御部における補正量推定部による学習補正量の推定の他の一例を説明するための図である。
以下、添付の図面を参照して本発明の実施形態の一例について説明する。なお、各図面において同一又は相当の部分に対しては同一の符号を附すこととする。
(第1実施形態)
図1は、本実施形態に係るロボットシステムの構成を示す図である。図1に示すロボットシステム1は、4つのロボット101,102,103,104と、これらのロボット101,102,103,104がネットワーク5を介して接続されているサーバ装置200とを備える。
ロボット101,102,103,104は、レーザ加工、シーリング、又は、アーク溶接等を行う例えば産業用ロボットである。以下、ロボット101,102,103,104を代表してロボット102について説明するが、ロボット101,103,104もロボット102と同様である。
ロボット102は、動作指令(動作プログラム)に基づいて、ロボット機構部のツール先端部(位置制御の対象部位)の位置制御を行う。また、ロボット102は、例えば初期設定において、ロボット機構部のツール先端部の位置制御の補正を行う。ロボット102は、この補正のための補正量を生成する機能として、従来の学習制御の機能と、新たな学習制御の機能との2つの機能を有する。
従来の学習制御の機能では、ロボット102は、単独で、前回生成した学習補正量を適用して動作指令に基づくロボット機構部の動作を繰り返す学習制御を行うことにより、ツール先端部の振動を低減する学習補正量を算出する学習を行う(例えば、特許文献1及び2)。
新たな学習制御の機能では、ロボット102は、サーバ装置200に保存された学習済のロボットの学習データ(動作指令及び学習補正量)を利用して、ツール先端部の振動を低減する学習補正量を推定する。ロボット102の詳細は後述する。
本実施形態では、ロボット102は、動作指令に基づく位置制御の補正のための学習補正量の学習が未学習である。一方、ロボット101,103,104は、動作指令に基づく位置制御の補正のための学習補正量の学習が学習済である。ロボット101,103,104は、学習した学習補正量と動作指令とを関連付けて学習データとして、ネットワーク5を介してサーバ装置200に送信する。
サーバ装置200は、例えばクラウドサーバであり、記憶装置210を備えている。記憶装置210は、学習済のロボット101から受信した学習データ1(動作指令1及び学習補正量1)、学習済のロボット103から受信した学習データ3(動作指令3及び学習補正量3)、及び、学習済のロボット104から受信した学習データ4(動作指令4及び学習補正量4)を保存している。記憶装置210は、例えばHDD(Hard Disk Drive)、SDD(Solid State Drive)等の書き換え可能なメモリである。
次に、ロボット102の構成について詳細に説明する。図2は、ロボット102の構成を示す図である。ロボット102は、ロボット機構部10と、センサ20と、ロボット制御部30とを備える。
ロボット機構部10としては、公知のロボットマニピュレータを用いることができる。図2には、ロボット機構部10として、6つの関節軸を有するマニピュレータが例示されている。ロボット機構部10の先端部には、ツール12が設けられている。このロボット機構部10では、ツール12の先端部が位置制御の対象部位である。
センサ20は、ロボット機構部10のツール12の先端部に設けられている。センサ20は、ロボット機構部10のツール12の先端部の位置に関する位置情報を、ロボット制御部30に提供する。センサ20としては、ビジョンセンサ、加速度センサ、ジャイロセンサ、慣性センサ、及び歪ゲージが挙げられる。
ロボット制御部30は、ロボット機構部10の動作を制御する。ロボット制御部30は、動作制御部31と、位置偏差推定部32と、補正量推定部33と、取得部34と、比較部35と、記憶部36とを備える。
動作制御部31、位置偏差推定部32、及び補正量推定部33は、センサ20からのロボット機構部10のツール12の先端部の位置情報に基づいて、単独で、ツール12の先端部の振動を低減する学習補正量を算出する従来の学習制御を提供する。
また、取得部34、比較部35、及び補正量推定部33は、サーバ装置200の記憶装置210に保存された学習済のロボットの学習データ(動作指令及び学習補正量)を利用して、ツール12の先端部の振動を低減する学習補正量を推定する新たな学習制御を提供する。
動作制御部31は、例えば数値制御装置(図示せず)から、ロボット機構部10の動作指令2に基づくロボット機構部10のモータ(図示せず)の位置指令であって、ロボット機構部10のツール12の先端部(位置制御の対象部位)の目標位置に関する位置指令を取得する。また、動作制御部31は、ロボット機構部10のモータに取り付けられたエンコーダ(図示せず)から、モータの位置(回転位置)に応じた位置フィードバック(位置FB)を取得する。また、動作制御部31は、補正量推定部33から、ロボット機構部10のツール12の先端部の学習補正量2を取得する。動作制御部31は、取得した動作指令2に基づく位置指令と位置フィードバックとの位置偏差と、学習補正量2とに基づいて、ロボット機構部10のモータの駆動電流を生成し、ロボット機構部10のツール12の先端部の位置制御を行う。
位置偏差推定部32は、動作指令2に基づくロボット機構部10の動作中に、制御周期ごとに、動作指令2に基づく位置指令を取得し、記憶部36に一旦記憶する。また、位置偏差推定部32は、動作指令2に基づくロボット機構部10の動作中に、センサ20からロボット機構部10のツール12の先端部の位置情報を取得し、記憶部36に一旦記憶する。位置偏差推定部32は、制御周期ごとに、位置指令(すなわち、ロボット機構部10のツール12の先端部の目標位置)に対するツール12の先端部の位置の位置偏差を推定する。この位置偏差は、ロボット機構部10のツール12の先端部の振動による位置ずれを含む。
補正量推定部33は、典型的な学習制御部として機能し、位置偏差推定部32で推定された位置偏差に基づいて、制御周期ごとに学習補正量を生成し、記憶部36に記憶する。また、動作制御部31に前回生成された学習補正量を適用して、動作指令2に基づくロボット機構部10の動作を繰り返す学習制御を行う際、補正量推定部33は、今回生成された学習補正量と前回生成された学習補正量とに基づいて、位置偏差推定部32で推定された位置偏差をより低減する学習補正量を算出する学習を行い、記憶部36に記憶された学習補正量2を更新する。
取得部34は、通信インタフェース回路から構成される。取得部34は、サーバ装置200の記憶装置210からネットワーク5を介して、学習済のロボット101,103,104の学習データ1(動作指令1及び学習補正量1)、学習データ3(動作指令3及び学習補正量3)、及び、学習データ4(動作指令4及び学習補正量4)を取得する。
比較部35は、自ロボットの動作指令2と、取得部34で取得された学習済のロボット101,103,104の動作指令1、動作指令3及び動作指令4の各々とを比較する。
この比較において、比較部35は、動作指令1、動作指令2及び動作指令3の中に、自ロボットの動作指令2と同一の動作指令があるか否かを判定する。
また、動作指令1、動作指令2及び動作指令3の何れもが、自ロボットの動作指令2と同一でない場合、比較部35は、自ロボットの動作指令2と、動作指令1、動作指令2及び動作指令3の各々との相関が閾値以上か否かを判定する。
例えば、比較部35は、自ロボットの動作指令2と、動作指令1、動作指令3及び動作指令4とを、同一の時間長にスケーリング(縮小又は拡大)し、スケーリングした自ロボットの動作指令2と、スケーリングした動作指令1、動作指令3及び動作指令4の各々との相関が閾値以上か否かを判定する。比較部35の詳細は後述する。
相関とは、類似度を表す値であり、例えば0〜1の任意の値で表され、1に近いほど類似度が高い。動作指令の類似性は、動作指令の開始点がどの程度異なるのか、及び、同一の時間長にスケーリングした動作指令の相関等によって判定される。
補正量推定部33は、比較部35による比較の結果、自ロボットの動作指令2に対して最も相関(類似度)が高い動作指令、及びこの動作指令に対応する学習補正量に基づいて、自ロボットの学習補正量2を推定する。
以下では、自ロボットの動作指令2に対して最も相関(類似度)が高い動作指令、及びこの動作指令に対応する学習補正量を、動作指令3及び学習補正量3と仮定して説明する。
(1)動作指令2と動作指令3とが同一である場合(相関が1である場合)
比較部35による比較の結果、自ロボットの動作指令2と学習済のロボット103の動作指令3とが同一である場合、補正量推定部33は、動作指令3に対応する学習補正量3をそのまま自ロボットの学習補正量2として推定し、記憶部36に記憶する。
(2)動作指令2と動作指令3との相関が閾値以上である場合(相関が1に近い場合)
比較部35による比較の結果、自ロボットの動作指令2と学習済のロボット103の動作指令3との相関が1未満閾値以上である場合、補正量推定部33は、動作指令2と動作指令3との差異(大きさの比及び時間長の比)に基づいて、学習補正量3を補正し、補正した学習補正量3を自ロボットの学習補正量2として推定し、記憶部36に記憶する。
例えば、補正量推定部33は、動作指令2と動作指令3及び学習補正量3とを、同一の時間長にスケーリングし、スケーリングした動作指令2とスケーリングした動作指令3との大きさの比に基づいて、スケーリングした学習補正量3の大きさを補正し、補正した学習補正量3を動作指令2の時間長にスケーリングする。補正量推定部33の詳細は後述する。
ロボット102は、補正量推定部33で推定された学習補正量2をそのまま学習補正量としてもよいし、更に、この学習補正量2を初期値として適用し、上述したように動作制御部31、位置偏差推定部32及び補正量推定部33により、ロボット機構部10のツール12の先端部の振動をより低減する学習補正量を算出する従来の学習制御を行ってもよい。
なお、比較部35による比較の結果、自ロボットの動作指令2と学習済のロボット103の動作指令3との相関が閾値未満である場合、補正量推定部33は、上述したように、位置偏差推定部32で推定された位置偏差に基づいて、従来の学習制御を行う。
補正量推定部33は、実際の動作指令2に基づく動作時に、記憶部36に記憶された学習補正量を動作制御部31に供給する。
記憶部36は、補正量推定部33で推定された学習補正量を記憶する。記憶部36は、例えばEEPROM等の書き換え可能なメモリである。
上述したロボット制御部30における動作制御部31、位置偏差推定部32、補正量推定部33、比較部35は、例えば、DSP(Digital Signal Processor)、FPGA(Field−Programmable Gate Array)等の演算プロセッサで構成される。ロボット制御部30の各種機能は、例えば記憶部に格納された所定のソフトウェア(プログラム、アプリケーション)を実行することで実現される。ロボット制御部30の各種機能は、ハードウェアとソフトウェアとの協働で実現されてもよいし、ハードウェア(電子回路)のみで実現されてもよい。
次に、図3〜図5Bを参照して、第1実施形態のロボットシステム1における未学習のロボット102のロボット制御部30による学習補正量の推定動作について説明する。図3は、第1実施形態のロボットシステム1における未学習のロボット102のロボット制御部30による学習補正量の推定動作を示すフローチャートである。図4は、ロボット102のロボット制御部30における比較部35による動作指令2及び動作指令3の時間長のスケーリングを説明するための図である。図5Aは、ロボット102のロボット制御部30における補正量推定部33による学習補正量の推定の一例を説明するための図である。図5Bは、ロボット102のロボット制御部30における補正量推定部33による動作指令2と動作指令3との大きさの比の一例を説明するための図である。
まず、ロボット101,103,104は、動作指令に基づく位置制御の補正のための学習補正量の学習が学習済であり、これらの学習データ(動作指令及び学習補正量)は、サーバ装置200の記憶装置210に保存されている。
例えば、ロボット101は、動作制御部31、位置偏差推定部32、及び補正量推定部33によって、センサ20からのロボット機構部10のツール12の先端部の位置情報に基づいて、単独で、ツール12の先端部の振動を低減する学習補正量1を算出する従来の学習制御を行う。具体的には、ロボット101は、前回生成された学習補正量を適用して、動作指令1に基づくロボット機構部10の動作を繰り返す学習制御を行うことにより、ツール12の先端部の振動を低減する学習補正量1を算出する学習を行う。ロボット101は、学習した学習補正量1と動作指令1とを関連付けて学習データ1として、ネットワーク5を介してサーバ装置200に送信する。
同様に、ロボット103は、動作制御部31、位置偏差推定部32、及び補正量推定部33による従来の学習制御によって学習した学習補正量3と動作指令3とを関連付けて学習データ3として、ネットワーク5を介してサーバ装置200に送信する。
同様に、ロボット104は、動作制御部31、位置偏差推定部32、及び補正量推定部33による従来の学習制御によって学習した学習補正量4と動作指令4とを関連付けて学習データ4として、ネットワーク5を介してサーバ装置200に送信する。
サーバ装置200は、学習済のロボット101から受信した学習データ1(動作指令1及び学習補正量1)、学習済のロボット103から受信した学習データ3(動作指令3及び学習補正量3)、及び、学習済のロボット104から受信した学習データ4(動作指令4及び学習補正量4)を、記憶装置210に保存する。
次に、未学習のロボット102では、取得部34は、サーバ装置200の記憶装置210からネットワーク5を介して、学習済のロボット101,103,104の学習データ1(動作指令1及び学習補正量1)、学習データ3(動作指令3及び学習補正量3)、及び学習データ4(動作指令4及び学習補正量4)を取得する(S11)。
次に、比較部35は、自ロボットの動作指令2と、取得部34で取得された学習済のロボット101,103,104の動作指令1、動作指令2及び動作指令3の各々とを比較する。この比較において、比較部35は、動作指令1、動作指令2及び動作指令3の中に、自ロボットの動作指令2と同一の動作指令があるか否かを判定する(S12)。動作指令1、動作指令2及び動作指令3の中に、自ロボットの動作指令2と同一の動作指令3がある場合、後述するステップS14に進む。
一方、動作指令1、動作指令2及び動作指令3の何れもが、自ロボットの動作指令2と同一でない場合、比較部35は、自ロボットの動作指令2と、動作指令1、動作指令2及び動作指令3の各々との相関(類似度)が閾値以上か否かを判定する(S13)。
例えば、図4に示すように、比較部35は、時間長T1の動作指令3を時間長1(t=t/T1)にスケーリングし、また、時間長T2の動作指令2を時間長1(t=t/T2)にスケーリングする。比較部35は、スケーリング後の動作指令3とスケーリング後の動作指令2との相関(類似度)を求める。
求めた相関が1未満閾値以上である場合、後述するステップS15に進む。一方、求めた相関が閾値未満である場合、後述するステップS16に進む。
(1)動作指令2と動作指令3とが同一である場合(相関が1である場合)
ステップS12において、比較部35による比較の結果、自ロボットの動作指令2と学習済のロボット103の動作指令3とが同一である場合、補正量推定部33は、動作指令3に対応する学習補正量3をそのまま自ロボットの学習補正量2として推定し、記憶部36に記憶する(S14)。
これにより、実際の動作指令2による動作時、動作制御部31は、補正量推定部33で推定された学習補正量2をそのまま適用し、ロボット機構部10のツール12の先端部の振動を低減することができる。
(2)動作指令2と動作指令3との相関が閾値以上である場合(相間が1に近い場合)
例えば、学習済のロボット103の動作指令3が、1秒で最高速度まで加速し、最高速で3秒間移動後に1秒かけて減速し停止する動作指令であり、未学習のロボット102の動作指令2が、1秒で最高速度まで加速し、最高速で1秒間移動後に1秒かけて減速し停止する動作指令であるとする。この場合、動作指令3と動作指令2との動作時間が違うため、学習済のロボット103の学習補正量3をそのまま未学習のロボット102の学習補正量2として適用することはできない。しかし、動作指令3と動作指令2とは類似であるため、各々の動作に対する学習補正量も類似になるものと考えられる。
そこで、ステップS13において、比較部35による比較の結果、自ロボットの動作指令2と学習済のロボット103の動作指令3との相関が1未満閾値以上である場合、補正量推定部33は、動作指令2と動作指令3との差異(大きさの比及び時間長の比)に基づいて、学習補正量3を補正し、補正した学習補正量3を自ロボットの学習補正量2として推定し、記憶部36に記憶する(S15)。
例えば、補正量推定部33は、図5Aに示すように、時間長T1の学習補正量3を時間長1(t=t/T1)にスケーリングする。また、補正量推定部33は、図4に示すように、時間長T1の動作指令3を時間長1(t=t/T1)にスケーリングし、時間長T2の動作指令2を時間長1(t=t/T2)にスケーリングする。
次に、補正量推定部33は、図5Bに示すように、所定時間間隔で、スケーリング後の動作指令2とスケーリング後の動作指令3との大きさの比を求める。次に、補正量推定部33は、図5Aに示すように、所定時間間隔で、スケーリング後の動作指令2とスケーリング後の動作指令3との大きさの比に基づいて、スケーリング後の学習補正量3の大きさを補正する。
次に、補正量推定部33は、補正した学習補正量3を、自ロボットの動作指令2の時間長T2(t=T2t)にスケーリングして、自ロボットの学習補正量2として推定する。
なお、補正量推定部33は、2回の時間長のスケーリングによりt=t/T1×T2t=T2/T1のスケーリングを行うことから、動作指令2と動作指令3との時間長の比に基づいて学習補正量3を補正することとなる。
これにより、実際の動作指令2による動作時、動作制御部31は、補正量推定部33で推定された学習補正量2をそのまま適用し、ロボット機構部10のツール12の先端部の振動を低減することができる。
或いは、補正量推定部33で推定された学習補正量2を初期値として適用して、動作制御部31、位置偏差推定部32及び補正量推定部33により、動作指令2に基づくロボット機構部10の動作を繰り返す学習制御を行い、ツール12の先端部の振動をより低減する学習補正量を算出する学習を行ってもよい。これにより、実際の動作指令2による動作時、動作制御部31は、補正量推定部33で学習された学習補正量2を適用し、ロボット機構部10のツール12の先端部の振動をより低減することができる。
(3)動作指令2と動作指令3との相関が閾値未満である場合
一方、ステップS13において、比較部35による比較の結果、自ロボットの動作指令2と学習済のロボット103の動作指令3との相関が閾値未満である場合、学習済のロボット103の学習補正量3を利用することなく、単独で、動作制御部31、位置偏差推定部32、及び補正量推定部33によって、センサ20からのロボット機構部10のツール12の先端部の位置情報に基づいて、ツール12の先端部の振動を低減する学習補正量2を算出する従来の学習制御を行う。具体的には、ロボット102は、前回生成された学習補正量を適用して、動作指令2に基づくロボット機構部10の動作を繰り返す学習制御を行うことにより、ツール12の先端部の振動を低減する学習補正量2を算出する学習を行う(S16)。
これにより、実際の動作指令2による動作時、動作制御部31は、補正量推定部33で学習された学習補正量2を適用し、ロボット機構部10のツール12の先端部の振動を低減することができる。
以上説明したように、本実施形態のロボットシステム1によれば、学習済ロボット101,103,104は、学習データ1(動作指令1及び学習補正量1)、学習データ3(動作指令3及び学習補正量3)、及び、学習データ4(動作指令4及び学習補正量4)をサーバ装置200の記憶装置210に保存し、これらの学習済ロボット101,103,104及び未学習ロボット102は、サーバ装置200の記憶装置210に保存されているこれらの学習データ(動作指令及び学習補正量)を共有する。
未学習ロボット102における補正量推定部33は、例えば、記憶装置210に保存されている動作指令1,3,4のうちの自ロボットの動作指令2と最も相関(類似度)が高い動作指令3と、自ロボットの動作指令2との差異(大きさの比及び時間長の比)に基づいて、動作指令3に対応する学習補正量3を補正し、補正した学習補正量3を自ロボットの学習補正量2として推定する。
これにより、未学習ロボット102の学習回数を削減することができる。また、ロボットシステム1におけるロボット101,102,103,104の総学習回数を削減することができる。
また、同一動作を行うロボットが複数台存在する場合には、それらのどれか1台でのみ学習を行えば他のロボットは学習を行う必要がない。そのため、総学習回数を大きく低減することができる。
(第2実施形態)
第1実施形態のロボットシステム1では、未学習ロボット102は、自ロボットの動作指令2と学習済ロボット103の動作指令3との差異(大きさの比及び時間長の比)に基づいて学習済ロボット103の学習補正量3を補正し、自ロボットの学習補正量2として推定した。
第2実施形態に係るロボットシステム1では、未学習ロボット102は、学習済ロボット103の動作指令3から自ロボットの動作指令2への伝達関数に基づいて学習済ロボット103の学習補正量3を補正し、自ロボットの学習補正量2として推定する。
第2実施形態に係るロボットシステム1の構成は、図1に示す第1実施形態のロボットシステム1の構成と同一であり、第2実施形態に係るロボット102(及び、101,103,104)の構成は、図2に示す第1実施形態のロボット102(及び、101,103,104)の構成と同一である。なお、第2実施形態に係るロボット102(及び、101,103,104)では、補正量推定部33の機能及び動作が第1実施形態のロボット102(及び、101,103,104)と異なる。
(1)動作指令2と動作指令3とが同一である場合(相関が1である場合)
比較部35による比較の結果、自ロボットの動作指令2と学習済のロボット103の動作指令3とが同一である場合、補正量推定部33は、上述したように、動作指令3に対応する学習補正量3をそのまま自ロボットの学習補正量2として推定し、記憶部36に記憶する。
(2)動作指令2と動作指令3との相関が閾値以上である場合(相間が1に近い場合)
比較部35による比較の結果、自ロボットの動作指令2と学習済のロボット103の動作指令3との相関が1未満閾値以上である場合、補正量推定部33は、動作指令3から動作指令2への伝達関数に基づいて、学習補正量3を補正し、補正した学習補正量3を自ロボットの学習補正量2として推定し、記憶部36に記憶する。
例えば、補正量推定部33は、動作指令3から動作指令2への伝達関数を求め、求めた伝達関数を学習補正量3に適用して、学習補正量3を補正する。
次に、図6〜図7Bを参照して、第2実施形態のロボットシステム1における未学習ロボット102による学習補正量の推定動作について説明する。図6は、第2実施形態のロボットシステム1における未学習ロボット102による学習補正量の推定動作を示すフローチャートである。図7Aは、ロボット102のロボット制御部30における補正量推定部33による動作指令3から動作指令2への伝達関数の求め方の一例を説明するための図である。図7Bは、ロボット102のロボット制御部30における補正量推定部33による学習補正量の推定の一例を説明するための図である。
図6に示すように、上述したステップS11〜S13の動作が行われ、比較部35は、自ロボットの動作指令2と、サーバ装置200の記憶装置210に保存された学習済のロボット101,103,104の動作指令1、動作指令2及び動作指令3の各々とを比較する。
(1)動作指令2と動作指令3とが同一である場合(相関が1である場合)
ステップS12において、比較部35による比較の結果、自ロボットの動作指令2と学習済のロボット103の動作指令3とが同一である場合、上述したステップS14の動作が行われ、補正量推定部33は、動作指令3に対応する学習補正量3をそのまま自ロボットの学習補正量2として推定し、記憶部36に記憶する(S14)。
(2)動作指令2と動作指令3との相関が閾値以上である場合(相間が1に近い場合)
ステップS13において、比較部35による比較の結果、自ロボットの動作指令2と学習済のロボット103の動作指令3との相関が1未満閾値以上である場合、補正量推定部33は、補正量推定部33は、動作指令3から動作指令2までの伝達関数に基づいて、学習補正量3を補正し、補正した学習補正量3を自ロボットの学習補正量2として推定し、記憶部36に記憶する(S25)。
例えば、補正量推定部33は、図7Aに示すように、動作指令3から動作指令2までの伝達関数Gを求める。次に、補正量推定部33は、図7Bに示すように、求めた伝達関数Gを学習補正量3に適用して、学習補正量3を補正し、自ロボットの学習補正量2として推定する。
(3)動作指令2と動作指令3との相関が閾値未満である場合
一方、ステップS13において、比較部35による比較の結果、自ロボットの動作指令2と学習済のロボット103の動作指令3との相関が閾値未満である場合、上述したステップS16の動作が行われ、動作制御部31、位置偏差推定部32、及び補正量推定部33によって、従来の学習制御を行う(S16)。
この第2実施形態のロボットシステム1でも、第1実施形態のロボットシステム1と同様の利点を得ることができる。
以上、本発明の実施形態について説明したが、本発明は前述した実施形態に限るものではない。また、本実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本実施形態に記載されたものに限定されるものではない。
例えば、上述した実施形態は、適宜変更されてもよいし、組み合わされて実施されてもよい。例えば、第1実施形態と第2実施形態とを組み合わせ、自ロボットの動作指令と学習済ロボットの動作指令との相関(類似度)が第1閾値以上である場合には、第1実施形態のように、自ロボットの動作指令と学習済ロボットの動作指令との差異(大きさの比及び時間長の比)に基づいて学習済ロボットの学習補正量の補正を行い、自ロボットの学習補正量を推定し、第1閾値未満第2閾値以上(第1閾値>第2閾値)である場合には、第2実施形態のように、学習済ロボットの動作指令から自ロボットの動作指令への伝達関数に基づいて学習済ロボットの学習補正量の補正を行い、自ロボットの学習補正量を推定してもよい。
また、上述した第2実施形態では、学習済ロボットの動作指令から自ロボットの動作指令への伝達関数を例示したが、伝達関数に限定されることなく、種々の関数が適用されてもよい。
また、上述した実施形態では、学習済ロボットは、学習データ(動作指令及び学習補正量)を、ネットワークを介してサーバ装置の記憶装置に記憶して、複数のロボット間で共有したが、これに限定されない。例えば、学習済ロボットは、学習データ(動作指令及び学習補正量)を自ロボットの記憶部に記憶し、ネットワークを介して接続された複数のロボット間で共有してもよい。或いは、複数のロボットにおけるマスターロボットの記憶部に記憶し、複数のロボット間で共有してもよい。
また、上述した実施形態では、4つのロボットを備えるロボットシステムを例示したが、少なくとも1つの未学習ロボットと少なくとも1つの学習済ロボットとを備えるロボットシステムに適用可能である。
また、上述した実施形態では、ロボットとして産業用ロボットを例示したが、これに限定されない。本発明の特徴は、学習制御を行う種々のロボットの学習回数の低減に適用可能である。
1 ロボットシステム
5 ネットワーク
10 ロボット機構部
12 ツール
20 センサ
30 ロボット制御部
31 動作制御部
32 位置偏差推定部
33 補正量推定部(学習制御部)
34 取得部
35 比較部
36 記憶部
101,102,103,104 ロボット
200 サーバ装置(クラウド)
210 記憶装置

Claims (9)

  1. 動作指令に基づく位置制御の学習補正量の学習が未学習である少なくとも1つの未学習ロボットと、
    動作指令に基づく位置制御の学習補正量の学習が学習済である少なくとも1つの学習済ロボットと、
    前記学習済ロボットの動作指令及び学習補正量を保存する記憶装置と、
    を含み、
    前記未学習ロボットは、前記記憶装置に保存された前記学習済ロボットの動作指令と自ロボットの動作指令との差異に基づいて、前記記憶装置に保存された前記学習済ロボットの学習補正量を補正し、補正した学習補正量を自ロボットの学習補正量として推定する補正量推定部を備える、ロボットシステム。
  2. 前記補正量推定部は、前記学習済ロボットの動作指令と自ロボットの動作指令との大きさの比及び時間長の比に基づいて、前記学習済ロボットの学習補正量を補正する、請求項1に記載のロボットシステム。
  3. 前記補正量推定部は、
    前記学習済ロボットの動作指令及び学習補正量と自ロボットの動作指令とを、同一の時間長にスケーリングし、
    スケーリングした前記学習済ロボットの動作指令とスケーリングした自ロボットの動作指令との大きさの比に基づいて、スケーリングした前記学習済ロボットの学習補正量の大きさを補正し、
    補正した前記学習済ロボットの学習補正量を、自ロボットの動作指令の時間長にスケーリングすることにより、前記学習済ロボットの学習補正量を補正する、
    請求項2に記載のロボットシステム。
  4. 前記補正量推定部は、前記学習済ロボットの動作指令から自ロボットの動作指令への関数に基づいて、前記学習済ロボットの学習補正量を補正する、請求項1に記載のロボットシステム。
  5. 前記補正量推定部は、
    前記学習済ロボットの動作指令から自ロボットの動作指令への伝達関数を求め、
    求めた伝達関数を前記学習済ロボットの学習補正量に適用して、前記学習済ロボットの学習補正量を補正する、
    請求項4に記載のロボットシステム。
  6. 前記未学習ロボットは、前記記憶装置に保存された前記学習済ロボットの動作指令と自ロボットの動作指令とを比較する比較部を更に備え、
    前記補正量推定部は、前記比較部による比較の結果、前記学習済ロボットの動作指令と自ロボットの動作指令との相関が閾値以上である場合に、前記学習済ロボットの学習補正量を補正し、補正した学習補正量を自ロボットの学習補正量として推定する、
    請求項1〜5の何れか1項に記載のロボットシステム。
  7. 前記比較部は、
    前記学習済ロボットの動作指令と自ロボットの動作指令とを、同一の時間長にスケーリングし、
    スケーリングした前記学習済ロボットの動作指令とスケーリングした自ロボットの動作指令とを比較する、
    請求項6に記載のロボットシステム。
  8. 前記補正量推定部は、前記比較部による比較の結果、前記学習済ロボットの動作指令と自ロボットの動作指令とが同一である場合には、前記学習済ロボットの学習補正量をそのまま自ロボットの学習補正量として推定する、請求項6又は7に記載のロボットシステム。
  9. ネットワークを介して前記未学習ロボット及び前記学習済ロボットに接続され、前記記憶装置を備えるサーバ装置を更に含む、請求項1〜8の何れか1項に記載のロボットシステム。
JP2017164063A 2017-08-29 2017-08-29 ロボットシステム Active JP6564433B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017164063A JP6564433B2 (ja) 2017-08-29 2017-08-29 ロボットシステム
US16/054,180 US10507581B2 (en) 2017-08-29 2018-08-03 Robot system
DE102018214272.6A DE102018214272B4 (de) 2017-08-29 2018-08-23 Robotersystem
CN201810982755.4A CN109421049B (zh) 2017-08-29 2018-08-27 机器人系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017164063A JP6564433B2 (ja) 2017-08-29 2017-08-29 ロボットシステム

Publications (2)

Publication Number Publication Date
JP2019038089A true JP2019038089A (ja) 2019-03-14
JP6564433B2 JP6564433B2 (ja) 2019-08-21

Family

ID=65321912

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017164063A Active JP6564433B2 (ja) 2017-08-29 2017-08-29 ロボットシステム

Country Status (4)

Country Link
US (1) US10507581B2 (ja)
JP (1) JP6564433B2 (ja)
CN (1) CN109421049B (ja)
DE (1) DE102018214272B4 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020044590A (ja) * 2018-09-14 2020-03-26 ファナック株式会社 ロボット装置
WO2020071039A1 (ja) * 2018-10-01 2020-04-09 三菱電機株式会社 劣化検知システム
JPWO2020208826A1 (ja) * 2019-04-12 2020-10-15

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6484265B2 (ja) * 2017-02-15 2019-03-13 ファナック株式会社 学習制御機能を備えたロボットシステム及び学習制御方法
JP6669713B2 (ja) * 2017-11-28 2020-03-18 ファナック株式会社 ロボットおよびロボットシステム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09319420A (ja) * 1996-05-31 1997-12-12 Ricoh Co Ltd 組立ロボット
JP2014014897A (ja) * 2012-07-09 2014-01-30 Fanuc Ltd 制振制御ロボットシステム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4122652B2 (ja) * 1999-09-27 2008-07-23 松下電器産業株式会社 ロボットの制御装置
JP2007506397A (ja) * 2003-09-15 2007-03-15 シーメンス アクチエンゲゼルシヤフト 電動機の制御方法及び装置
WO2006093652A2 (en) * 2005-02-25 2006-09-08 Abb Research Ltd. Method of and apparatus for automated path learning
CN102152313B (zh) * 2008-02-28 2012-12-12 松下电器产业株式会社 机器人手臂的控制装置及控制方法、机器人、机器人手臂的控制程序、及机器人手臂控制用集成电子电路
JP4850956B2 (ja) 2010-02-19 2012-01-11 ファナック株式会社 学習制御機能を備えたロボット
JP5480198B2 (ja) 2011-05-17 2014-04-23 ファナック株式会社 学習制御機能を備えたスポット溶接ロボット
JP6333795B2 (ja) * 2015-11-24 2018-05-30 ファナック株式会社 学習による教示作業の簡易化及び動作性能向上機能を備えたロボットシステム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09319420A (ja) * 1996-05-31 1997-12-12 Ricoh Co Ltd 組立ロボット
JP2014014897A (ja) * 2012-07-09 2014-01-30 Fanuc Ltd 制振制御ロボットシステム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020044590A (ja) * 2018-09-14 2020-03-26 ファナック株式会社 ロボット装置
JP7164368B2 (ja) 2018-09-14 2022-11-01 ファナック株式会社 ロボット装置
WO2020071039A1 (ja) * 2018-10-01 2020-04-09 三菱電機株式会社 劣化検知システム
JPWO2020208826A1 (ja) * 2019-04-12 2020-10-15
WO2020208826A1 (ja) * 2019-04-12 2020-10-15 株式会社ニコン ロボットシステム、エンドエフェクタシステム、エンドエフェクタユニット、及びアダプタ
JP7327469B2 (ja) 2019-04-12 2023-08-16 株式会社ニコン 駆動システム、エンドエフェクタシステム、エンドエフェクタユニット、及びアダプタ

Also Published As

Publication number Publication date
JP6564433B2 (ja) 2019-08-21
CN109421049B (zh) 2020-04-10
US10507581B2 (en) 2019-12-17
US20190061149A1 (en) 2019-02-28
DE102018214272A1 (de) 2019-02-28
DE102018214272B4 (de) 2020-11-05
CN109421049A (zh) 2019-03-05

Similar Documents

Publication Publication Date Title
JP6564433B2 (ja) ロボットシステム
US9463573B2 (en) Robot control system, robot system, and sensor information processing apparatus
US10300600B2 (en) Control system having learning control function and control method
US10618164B2 (en) Robot system having learning control function and learning control method
JP6333795B2 (ja) 学習による教示作業の簡易化及び動作性能向上機能を備えたロボットシステム
JP6717768B2 (ja) 生産ラインにおける運用を考慮した学習制御を行うロボット及びその制御方法
JP6392825B2 (ja) 学習制御機能を備えたロボット制御装置
CN109202894B (zh) 进行学习控制的机器人及其控制方法
US8543239B2 (en) Robot control apparatus
JP6622765B2 (ja) ロボットシステム
JP2019181610A (ja) モータエンコーダ及びセンサを用いて学習制御を行うロボットシステム
JP2017127964A (ja) 学習機能を備えたロボット装置
JP2018196266A (ja) モータ制御システム、モータ制御システムの制御方法、及びロボットシステム
US10684594B2 (en) Machine learning device, servo motor controller, servo motor control system, and machine learning method
JP2014117787A (ja) 制御装置
CN116909263A (zh) 路径生成方法以及机器人控制系统
JP2017035756A (ja) 走行軸付きロボットにおけるツール先端の振れを抑制するロボット制御装置
JP7227018B2 (ja) 学習制御装置、ロボット制御装置およびロボット
JP6814441B2 (ja) 駆動機械の学習制御装置及び学習制御方法
JP2020001107A (ja) 学習制御を行うロボットシステム
WO2022158079A1 (ja) 制御装置及び自動作業方法
JP7225946B2 (ja) ロボットシステム、ロボットの制御装置
JP7160737B2 (ja) 機械の制御装置
JP2011159210A (ja) パラレルリンク機構の制御装置および制御方法
JPH11296205A (ja) モータ制御装置

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190121

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190315

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190620

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190726

R150 Certificate of patent or registration of utility model

Ref document number: 6564433

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150