JP2023072601A - ロボット制御装置、ロボットシステム及びロボット制御方法 - Google Patents

ロボット制御装置、ロボットシステム及びロボット制御方法 Download PDF

Info

Publication number
JP2023072601A
JP2023072601A JP2021185278A JP2021185278A JP2023072601A JP 2023072601 A JP2023072601 A JP 2023072601A JP 2021185278 A JP2021185278 A JP 2021185278A JP 2021185278 A JP2021185278 A JP 2021185278A JP 2023072601 A JP2023072601 A JP 2023072601A
Authority
JP
Japan
Prior art keywords
robot
progress
output
data
input data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021185278A
Other languages
English (en)
Inventor
仁志 蓮沼
Hitoshi Hasunuma
武司 山本
Takeshi Yamamoto
一輝 倉島
Kazuki Kurashima
歩 岸田
Ayumi Kishida
雅幸 掃部
Masayuki Kamon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Heavy Industries Ltd
Original Assignee
Kawasaki Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Heavy Industries Ltd filed Critical Kawasaki Heavy Industries Ltd
Priority to JP2021185278A priority Critical patent/JP2023072601A/ja
Priority to PCT/JP2022/040044 priority patent/WO2023085100A1/ja
Publication of JP2023072601A publication Critical patent/JP2023072601A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM]

Abstract

【課題】ロボットの動作の進捗を細かく把握可能にする。【解決手段】ロボット制御装置は、学習済モデルと、進行度取得部と、を備える。学習済モデルは、ロボットに一連の作業を行わせる場合の入力データと出力データを学習する。学習済モデルは、当該一連の作業を分割したものに相当する複数の工程動作の何れに入力データが分類されるかを求める。学習済モデルにおいて、それぞれの分類に関連付けて、当該工程動作を実現するための出力の時間的推移である出力推移が定められる。進行度取得部は、入力データの入力に応じて学習済モデルが出力した出力データが、一連の作業のうちどの進捗度合いに相当するかを示す進行度を取得する。進行度は、学習済モデルが入力データを分類した結果である工程動作に対応して定められた進行度範囲の中で、前記工程動作に関連付けられた出力推移において入力データに対応している出力が何番目であるかに応じて変化する。【選択図】図8

Description

本開示は、機械学習によるロボットの制御に関する。
従来から、ロボットの作業動作に関するモデルを構築することができる機械学習装置を備えたロボット制御装置が知られている。特許文献1は、この種のロボット制御装置を開示する。
特許文献1のロボット制御装置は、作業データを学習して構築された学習済モデルを備える。学習済モデルの出力に基づいてロボットの制御が行われる。
作業データは入力データと出力データの組である。入力データは、人間がロボットを操作して一連の作業を行わせる場合の、当該ロボット及びその周辺の状態である。出力データは、それに応じた人間の操作又は当該操作による当該ロボットの動作である。
特許文献1においては、複数の単純な動作毎に作業データを学習することにより、ベース学習済モデルが構築される。ベース学習済モデルには動作ラベルが対応付けられる。学習済モデルとそれぞれのベース学習済モデルとの間の類似度に基づいて、学習済モデルを複数のベース学習済モデルで表現する場合の組合せが取得される。学習済モデルを表現するベース学習済モデルのそれぞれに対応する動作ラベルが出力される。
特許文献1において、推論フェーズで動作する学習済モデルは、入力データが入力されると出力データを出力する。このとき、学習済モデルは、出力データが、一連の作業のうちどの進捗度合いに相当するかを示す進行度を出力可能である。一連の作業を学習した学習済モデルは、前述のとおり、複数のベース学習済モデルで表現される。このとき、複数のベース学習済モデルの時系列での関係を進行度に基づいて得ることができる。
特開2020-104215公報
上記特許文献1の構成においては、進行度は、ベース学習済モデルを単位として変化する。従って、進行度の細かい把握に適しているとは必ずしも言えず、この点で改善の余地があった。
本開示は以上の事情に鑑みてされたものであり、その目的は、動作の細かい進捗を把握することが可能なロボット制御装置等を提供することにある。
本開示の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段とその効果を説明する。
本開示の第1の観点によれば、以下の構成のロボット制御装置が提供される。即ち、このロボット制御装置は、学習済モデルと、制御データ取得部と、進行度取得部と、情報出力部と、を備える。前記学習済モデルは、人間がロボットを操作して一連の作業を行わせる場合の、当該ロボット及びその周辺の状態を入力データとし、それに応じた人間の操作又は当該操作による当該ロボットの動作を出力データとする作業データを学習することにより構築される。前記制御データ取得部は、ロボット及びその周辺の状態に関する入力データが前記学習済モデルに入力された場合に、それに応じて推定される人間の操作又はロボットの動作に関する出力データを前記学習済モデルから得ることにより、前記作業を行わせるためのロボットの制御データを得る。前記進行度取得部は、前記入力データが前記学習済モデルに入力された場合に、それに応じて出力される前記出力データが、前記一連の作業のうちどの進捗度合いに相当するかを示す進行度を取得する。前記情報出力部は、前記進行度を出力可能である。前記学習済モデルは、前記一連の作業を分割したものに相当する複数の工程動作の何れに前記入力データが分類されるかを求めることが可能である。前記学習済モデルにおいて、それぞれの分類に関連付けて、当該工程動作を実現するための前記人間の操作又は当該操作による当該ロボットの動作の時間的推移である出力推移が定められている。前記学習済モデルは、前記入力データの分類結果に関連付けられた前記出力推移の中から、当該入力データに対応する出力を求めて前記出力データとする。前記進行度の変化範囲は、複数の前記工程動作に対応するように、複数の進行度範囲に分割される。前記複数の進行度範囲の順番は、前記一連の作業における複数の前記工程動作の順番に対応している。前記進行度取得部が取得する進行度は、前記学習済モデルが行った前記入力データの分類結果である前記工程動作に対応する前記進行度範囲の中で、前記工程動作に関連付けられた前記出力推移において前記入力データに対応している出力が何番目であるかに応じて変化する。
本開示の第2の観点によれば、以下のロボット制御方法が提供される。即ち、このロボット制御方法においては、人間がロボットを操作して一連の作業を行わせる場合の、当該ロボット及びその周辺の状態を入力データとし、それに応じた人間の操作又は当該操作による当該ロボットの動作を出力データとする作業データを学習することにより学習済モデルを構築する。ロボット及びその周辺の状態に関する入力データが前記学習済モデルに入力された場合に、それに応じて推定される人間の操作又はロボットの動作に関する出力データを前記学習済モデルから得ることにより、前記作業を行わせるためのロボットの制御データを取得する。前記入力データが前記学習済モデルに入力された場合に、それに応じて出力される前記出力データが、前記一連の作業のうちどの進捗度合いに相当するかを示す進行度を取得する。前記進行度を出力する。前記学習済モデルは、前記一連の作業を分割したものに相当する複数の工程動作の何れに前記入力データが分類されるかを求めることが可能である。前記学習済モデルにおいて、それぞれの分類に関連付けて、当該工程動作を実現するための前記人間の操作又は当該操作による当該ロボットの動作の時間的推移である出力推移が定められている。前記学習済モデルは、前記入力データの分類結果に関連付けられた前記出力推移の中から、当該入力データに対応する出力を求めて前記出力データとする。前記進行度の変化範囲は、複数の前記工程動作に対応するように、複数の進行度範囲に分割されている。前記複数の進行度範囲の順番は、前記一連の作業における複数の前記工程動作の順番に対応している。前記進行度は、前記学習済モデルが行った前記入力データの分類の結果である前記工程動作に対応する前記進行度範囲の中で、前記工程動作に関連付けられた前記出力推移において前記入力データに対応している出力が何番目であるかに応じて変化する。
これにより、一連の作業の進捗を表す進行度を、1つの工程動作の中での細かい進捗を反映した形で得ることができる。
本開示によれば、学習済モデルの予測に基づいてロボットが一連の動作を行う場合に、細かい動作の進捗をユーザが把握することができる。
本開示の一実施形態に係るロボットシステムの電気的構成を示すブロック図。 ロボットに行わせる一連の作業と、それを構成する工程動作と、について説明する模式図。 作業データを構成する状態値及びユーザ操作力が反復して取得される様子を示す模式図。 工程動作データについて説明する図。 学習済モデルの構築のために行われるクラスタリングを説明する図。 学習済モデルが行う推論について説明する図。 工程動作を単位として進行度が変化する比較例を示すグラフ。 ロボットの自律運転時における進行度の変化の例を示すグラフ。 自律運転時にロボットの動作が途中で停滞する場合の進行度の変化の例を示すグラフ。 自律運転時にロボットが迷いのような動作を行った場合の進行度の変化の例を示すグラフ。 工程動作データの変形例について説明する図。 複数の作業データを時刻基準で学習する場合と進行度基準で学習する場合を比較して説明する概念図。
次に、図面を参照して、開示される実施の形態を説明する。図1は、本開示の一実施形態に係るロボットシステム1の電気的構成を示すブロック図である。
図1に示すロボットシステム1は、ロボット10を用いて作業を行うシステムである。ロボット10に行わせる作業としては様々であるが、例えば、組立て、加工、塗装、洗浄等がある。
詳細は後述するが、ロボット10は、データを機械学習することで構築されたモデル(学習済モデル43)を用いて制御される。そのため、ロボットシステム1は、基本的にはユーザの補助を必要とせず、作業を自律的に行うことができる。また、ロボット10は、自律的に作業を行うだけでなく、ユーザの操作に応じて作業を行うこともできる。以下の説明では、ロボット10が作業を自律的に行うことを「自律運転」と呼び、ユーザの操作に応じてロボット10が作業を行うことを「手動運転」と呼ぶことがある。
図1に示すように、ロボットシステム1は、ロボット10と、ロボット制御装置15と、を備える。ロボット10とロボット制御装置15は有線又は無線により互いに接続されており、信号のやり取りを行うことができる。
ロボット10は、台座に取り付けられたアーム部を備える。アーム部は、複数の関節を有しており、各関節にはアクチュエータが備えられている。ロボット10は、外部から入力された動作指令に応じてアクチュエータを動作させることでアーム部を動作させる。
アーム部の先端には、作業内容に応じて選択されたエンドエフェクタが取り付けられている。ロボット10は、外部から入力された動作指令に応じてエンドエフェクタを動作させることができる。
ロボット10には、ロボット10の動作及び周囲環境等を検出するためのセンサが取り付けられている。本実施形態では、動作センサ11と、力センサ12と、カメラ13と、がロボット10に取り付けられている。
動作センサ11は、ロボット10のアーム部の関節毎に設けられており、各関節の回転角度又は角速度を検出する。力センサ12は、ロボット10の動作時に、ロボット10が受けた力を検出する。力センサ12はエンドエフェクタに掛かる力を検出する構成であっても良いし、アーム部の各関節に掛かる力を検出する構成であっても良い。また、力センサ12は、力に代えて又は加えてモーメントを検出する構成であっても良い。カメラ13は、作業対象であるワークの映像(ワークに対する作業の進行状況)を検出する。
動作センサ11が検出するデータは、ロボット10の動作を示す動作データである。力センサ12及びカメラ13が検出するデータは、ロボット10の周囲の環境を示す周囲環境データである。あるタイミングで取得された動作データの値と周囲環境データの値の集合を、以下の説明で状態値と呼ぶことがある。状態値は、ロボット10及びその周辺の状態を示すものである。
以下の説明では、ロボット10に設けられた動作センサ11、力センサ12、及びカメラ13をまとめて「状態検出センサ11~13」と称することがある。あるタイミングで状態検出センサ11~13が検出した値の集合が、状態値に相当する。状態検出センサ11~13は、ロボット10に取り付ける代わりに、ロボット10の周囲に設けても良い。
ロボット制御装置15は、ユーザインタフェース部20と、動作切替部(制御データ取得部)30と、AI部40と、動作ラベル記憶部50と、を備える。
具体的には、ロボット制御装置15は、CPU、ROM、RAM、及びHDDを備えるコンピュータである。コンピュータは、ユーザが操作するためのマウス等の装置を備える。コンピュータはGPUを備えると、後述の機械学習を短時間で行うことができる場合があり、好ましい。HDDには、ロボット制御装置15を動作させるためのプログラムが記憶される。上記のハードウェアとソフトウェアとの協働により、ロボット制御装置15を、ユーザインタフェース部20、動作切替部30、AI部40、及び動作ラベル記憶部50として機能させることができる。
ユーザインタフェース部20は、ロボット制御装置15のユーザインタフェース機能を実現するものである。ユーザインタフェース部20は、操作部21と、表示部(情報出力部)22と、を備える。
操作部21は、ロボット10を手動で操作するために用いる装置である。操作部21は、例えばレバー、ペダル等を備える構成とすることができる。
図示しないが、操作部21は、公知の操作力検出センサを備える。操作力検出センサは、ユーザが操作部21に加えた力(操作力)を検出する。
操作部21が様々な方向に動かすことができるように構成されている場合、操作力は力の向き及び大きさを含む値、例えばベクトルであっても良い。また、操作力は、ユーザが加えた力(N)だけでなく、力に連動する値である加速度(即ち、ユーザが加えた力を操作部21の質量で除算した値)の形で検出されても良い。
以下の説明では、ユーザが操作部21に加えた操作力を、特に「ユーザ操作力」と称することがある。ユーザが操作部21を操作することで出力されたユーザ操作力は、後述するように動作切替部30で動作指令に変換される。
表示部22は、ユーザの指示に応じて、様々な情報を表示することができる。表示部22は、例えば液晶ディスプレイとすることができる。表示部22は、操作部21の近傍に配置されている。操作部21がロボット10から離れて配置されている場合、表示部22に、ロボット10及びその周辺の映像を表示させても良い。
動作切替部30には、ロボット10、操作部21、及びAI部40が接続されている。動作切替部30には、操作部21が出力したユーザ操作力と、AI部40が出力した後述の推定操作力と、が入力される。
動作切替部30は、ロボット10を動作させるための動作指令をロボット10へ出力する。動作切替部30は、切替部31と、変換部32と、を備える。
切替部31は、入力されたユーザ操作力及び推定操作力のうち一方を変換部32へ出力するように構成されている。切替部31は、ユーザ操作力及び推定操作力のうち何れを変換するかを示す選択信号に基づいて、ユーザ操作力又は推定操作力を変換部32へ出力する。選択信号は、ユーザがユーザインタフェース部20を適宜操作することにより、ユーザインタフェース部20から動作切替部30に出力される。
これにより、ユーザがロボット10を動作させる状態(手動運転)と、ロボットシステム1がロボット10に自律的に作業を行わせる状態(自律運転)と、を切り替えることができる。手動運転の場合、ロボット10は、操作部21が出力したユーザ操作力に基づいて動作する。自律運転の場合、ロボット10は、AI部40が出力した推定操作力に基づいて動作する。
変換部32は、切替部31から入力されたユーザ操作力又は推定操作力の何れかを、ロボット10を動作させるための動作指令に変換して、ロボット10に出力する。動作指令は、ロボット10を制御するための制御データと言い換えることもできる。
AI部40は、学習済モデル43と、データ入力部41と、推定データ出力部42と、進行度計算部(進行度取得部)46と、を備える。
学習済モデル43は、ロボット10の自律動作により一連の作業を行わせるために構築される。AI部40で用いられる学習済モデル43の形式は任意であり、例えば、クラスタリングによるモデルを用いることができる。学習済モデル43の構築は、ロボット制御装置15において行われても良いし、他のコンピュータで行われても良い。
データ入力部41は、AI部40の入力側のインタフェースとして機能する。データ入力部41には、状態検出センサ11~13から出力されるセンサ情報が入力される。
推定データ出力部42は、AI部40の出力側のインタフェースとして機能する。推定データ出力部42は、学習済モデル43が出力したデータを出力することができる。
進行度計算部46は、学習済モデル43の出力が、一連の作業のうちどの程度の進捗に相当するかを計算する。進行度計算部46が行う処理の詳細は後述する。
本実施形態では、AI部40は、ユーザが操作部21によって行うロボット10の操作を学習して、学習済モデル43を構築する。具体的には、AI部40には、状態検出センサ11~13により得られる状態値と、操作力検出センサにより得られたユーザ操作力と、が入力される。
ここで、ロボット10の自律運転により行わせる一連の作業について、図2を参照して説明する。
図2に示すように、ワーク81を凹部82に入れる一連の作業をロボット10に行わせる場合を考える。この一連の作業が開始してから終了するまで、空中、接触、挿入、及び完了の4つの作業状態が現れると考えることができる。
作業状態1(空中)は、ロボット10がワーク81を保持して凹部82の上部に位置させている状態である。作業状態2(接触)は、ロボット10が保持したワーク81を、凹部82が形成されている面に接触させている状態である。作業状態3(挿入)は、ロボット10が保持したワーク81を凹部82に少し挿入している状態である。作業状態4(完了)は、ロボット10が保持したワーク81が凹部82に完全に挿入された状態である。
4つの作業状態は、ロボット10による一連の作業の開始状態、途中状態、及び終了状態のうち何れかに相当する。ロボット10による一連の作業は、作業状態を境界として、複数の工程に分割される。それぞれの工程に対応する動作をロボット10が行うことにより、作業状態は、作業状態1(空中)、作業状態2(接触)、作業状態3(挿入)、作業状態4(完了)の順に遷移する。
以下、一連の作業が作業状態を境界として分割されたそれぞれの工程に対応する動作を、工程動作と呼ぶことがある。工程動作は、図2の例においては、動作1(下降動作)、動作2(擦り動作)、及び動作3(穴内下降動作)である。工程動作を繰り返すことで、自然と次の作業へ遷移するような動作が呼び出される。例えば、作業状態1(空中)において動作1(下降動作)が行われると、作業状態2(接触)に遷移する。動作2及び動作3についても同様である。
4つの作業状態は、一連の作業をAI部40において学習させる場合に、ユーザによって予めAI部40に対して登録される。
このとき、ユーザは、各作業状態に対し、進行度の数値を設定する。進行度とは、進行度は、学習済モデル43の出力に基づいてロボット10が行う動作が、一連の作業のうちでどの進捗度合いに相当するかについて評価するために用いるパラメータである。本実施形態では、進行度は0から1までの範囲の値をとり、1に近い程、一連の作業が進行していることを示す。進行度が変化する範囲は任意であり、例えば0から100までの範囲となるように定めることもできる。
進行度の値は、現れる作業状態の順番に従って単調増加するように、それぞれの作業状態に対して予め定められる。進行度の値は、ユーザが定めても良いし、AI部40が自動的に定めても良い。
以下では、進行度が、作業状態1(空中)に対して0、作業状態2(接触)に対して0.5、作業状態3(挿入)に対して0.8、作業状態4(完了)に対して1となるようにそれぞれ定められたとして説明する。これにより、必然的に、動作1(下降動作)に対して0から0.5の進行度範囲、動作2(擦り動作)に対して0.5から0.8の進行度範囲、動作3(穴内下降動作)に対して0.8から1の進行度範囲がそれぞれ割り当てられたことになる。
機械学習のためデータは、ユーザが操作部21を実際に操作してロボット10に一連の作業を行わせることにより、取得することができる。以下、図2に示す一連の作業をロボット10に1回行わせることにより得られるデータを作業データと呼ぶことがある。
ユーザは、操作部21を操作して一連の作業をロボット10に行わせる途中で、それぞれの作業状態に到達したタイミングで、作業状態が変化したことをAI部40にリアルタイムで指示する。指示は、例えばユーザが特定の言葉をマイクに向かって発声することで行うことができる。作業状態の変化がユーザによって指示されたタイミングの間の動作が、1つの工程動作として取り扱われる。
指示はリアルタイムで行われなくても良い。例えば、作業データが得られた後に、どのタイミングで作業状態が切り換わったかを、ユーザがデータを閲覧しながら事後的に指定することができる。
一連の動作の間で作業状態の切り替わりがユーザによって指示された複数のタイミングの間が、1つの工程動作に相当する。従って、それぞれの工程動作は、ユーザの手動操作によって実質的に指定されている(手動指定モード)。ただし、一連の動作を構成する工程動作を自動認識することもできる(自動指定モード)。
一般的には、工程動作の切り替わりに伴って、ユーザが操作部21に対して力を加える態様が異なる。例えばAI部40は、この力の加え方の変化に基づいて、工程動作の切り替わりが生じたことを検出する。これにより、自動指定モードを実現することができる。工程動作の切り替わりを、公知の機械学習(例えば、教師あり学習)を用いて検出することもできる。
図3には、ユーザがロボット10を操作して一連の作業を行う場合に、学習のための作業データが各種のセンサから取得される様子が模式的に示されている。データは、状態検出センサ11~13及び操作力検出センサから、適宜の時間間隔で反復して取得される。本実施形態では、データ取得周期は1秒に定められているが、適宜変更することができる。
あるタイミングにおいて取得された状態値及びユーザ操作力から、データ組が構成される。図3には、操作力検出センサのデータ取得の時間間隔はデータ取得周期と等しい一方、状態検出センサ11~13のデータ取得の時間間隔はデータ取得周期より短い例が示されている。状態値に関して、図3の例では、1つのデータ組に、1回前のデータ取得タイミングから今回のデータ取得タイミングまでの短い期間での推移が含まれている。このように、1つのデータ組に、状態値及びユーザ操作力のうち少なくとも何れかの時間推移が含まれても良い。
データ組は、ロボット10が何れかの作業状態にある場合、ロボット10が何れかの工程動作を行っている場合、の両方において取得される。作業データには、複数のデータ組が、当該データ組が取得された時刻に関連付けた形で含まれている。
次に、作業データを分割した工程動作データについて説明する。図4には、学習済モデル43を構築するためのデータの一例が示されている。
図4のデータは、一連の作業の開始からk秒が経過した時点で、作業状態が作業状態2(接触)であり、状態値がS21,kであったが、ロボット10がn秒間動作した結果、作業状態が作業状態3(挿入)に遷移し、状態値がS31,k+nになったことを示している。ただし、nは1以上の整数である。図4のデータは、上記の一連の作業の一部である工程動作、具体的には上述の動作2(擦り動作)に相当する。以下、1回の工程動作に相当するデータを工程動作データと呼ぶことがある。
AI部40において、機械学習モデルは、図4に示す工程動作データを単位として学習する。1つの工程動作データは、以下の[1]~[4]の集合である。
[1]遷移前の作業状態が作業状態2(接触)であることを示すデータ。
[2]遷移先の作業状態が作業状態3(挿入)であることを示すデータ。
[3]作業状態が遷移する過程における、一連の作業の開始からm秒後の状態値S21,mとユーザ操作力I21,mのデータ。ただし、一連の作業の開始から当該工程動作の開始までの時間をk秒とした場合、mは、k≦m<k+nを満たす整数である。このデータは、状態値S21とユーザ操作力の値I21からなるデータ組を、それぞれmの値に関連付けながら複数並べたものに相当する。
[4]作業状態の遷移が完了した結果としての、遷移開始からn秒後の状態値S31,k+nのデータ。
上記の[1]~[4]の集合は、AI部40において、一連の作業に相当する作業データから一部を切り出す処理を行うことにより得ることができる。
ユーザの操作及び状況にはバラツキがあるため、工程動作としての動作2(擦り動作)には様々なバリエーションが存在する。例えば、現在の作業状態が作業状態2(接触)であり、現在の状態値がS22,kであって、作業状態3(挿入)に遷移させた場合に状態値がS32,k+nになった場合が考えられる。機械学習モデルは、この工程動作データも上述と同様に学習する。
一連の作業には、作業状態2(接触)から作業状態3(挿入)への遷移だけでなく、例えば作業状態1(空中)から作業状態2(接触)への遷移等、他の作業状態間の遷移も含まれる。言い換えれば、一連の作業には、動作2(擦り動作)だけでなく他の工程動作も含まれる。機械学習モデルは、それらの遷移に相当する工程動作に関しても、上記と同様に学習を行う。
ユーザは、操作部21の操作を繰り返して、同一の一連の作業を反復してロボット10に行わせる。これにより複数の作業データが得られ、機械学習モデルは、それぞれの工程動作についてバリエーションを学習することができる。
本実施形態においては、クラスタリングによる機械学習モデルが採用されている。機械学習モデルが1つの工程動作データを学習することは、図4を参照して説明した、上記の[1]~[4]の集合に相当する1つの特徴ベクトルを学習することを意味する。本実施形態の機械学習モデルにおいては、多次元の特徴空間によるマップが定義されている。AI部40は、1つの工程動作を学習する毎に、1つの特徴ベクトルを、機械学習モデルの特徴空間にプロットする。図5の上側には、工程動作データに相当する特徴ベクトルが特徴空間にプロットされた様子が概念的に示されている。
学習対象の全ての特徴ベクトルがAI部40に入力された後、特徴空間に複数プロットされた特徴ベクトルを対象として、クラスタリングが行われる。
クラスタリングとは、多数のデータから分布の法則を学習して、互いに特徴が似ているデータのまとまりである複数のクラスタを取得する手法である。ここでは、データは特徴ベクトルを意味する。クラスタリングの方法としては、例えば、公知の非階層クラスタリング手法を適宜用いることができる。この結果、互いに類似した特徴ベクトルをまとめた複数のクラスタが得られる。クラスタリングにおけるクラスタ数は、適宜定めることができる。ある時点での作業状態と、遷移先の作業状態と、の組合せが異なる2つの特徴ベクトルがある場合、クラスタリングは、2つの特徴ベクトルが、互いに異なるクラスタにそれぞれ属するように行われることが好ましい。
AI部40は、続いて、それぞれのクラスタにおいて、当該クラスタを代表する特徴ベクトル(言い換えれば、工程動作データ)を計算により求める。以下、この代表となる特徴ベクトルをノードと呼ぶことがある。ノードの求め方は様々であるが、例えば、それぞれのクラスタの重心に相当するデータとすることができる。ノードは、図5の下側においてX印で示されている。
以上により、訓練フェーズが完了し、学習済モデル43を構築することができる。AI部40が構築した学習済モデル43は、実質的には、図6に模式的に示すように、多次元の特徴空間におけるノードの分布である。
次に、学習済モデル43に基づくAI部40からの出力について説明する。
推論フェーズにおいては、現在において状態検出センサ11~13により得られた状態値と、現在の作業状態と、を含む特徴ベクトルがAI部40において生成される。この1つの特徴ベクトルが、学習済モデル43に入力される。以下、この特徴ベクトルを入力特徴ベクトルと呼ぶことがある。入力特徴ベクトルに、状態値に関する直近の過去の推移、及び、ユーザ操作力に関する直近の過去の推移が、更に含められても良い。
学習済モデル43は、入力特徴ベクトルに類似する1又は複数のノードを求める。現在の操作力は推論の対象であるため、入力特徴ベクトルには、現在の操作力に関する情報は含まれていない。従って、入力特徴ベクトルとノードの類似度を計算するとき、現在の操作力に関する次元は無視される。類似度は、公知の計算式(例えば、ユークリッド距離)により求めることができる。以下、求められたノードを出力対象ノードと呼ぶことがある。出力対象ノードを得る求めることは、入力特徴ベクトルが何れのクラスタについてクラスタリングの分類されるか分類結果を得ることと同義である。
出力対象ノードが求められると、学習済モデル43は更に、入力特徴ベクトルに含まれる現在の状態値が、出力対象ノードに含まれている上記の[3]の推移のうちどの時刻の状態値に最も類似するかを求める。類似度は、上記と同様に、公知の方法(例えば、ユークリッド距離)により求めることができる。このとき、状態値の類似だけでなく、時刻の類似が考慮される。
図6の例では、5秒目の状態値S2X,5が、入力特徴ベクトルの状態値に最も類似していた場合が示されている。最も類似する状態値が求められると、学習済モデル43は、上記の[3]の推移の中で、当該状態値と同一のデータ組に属するユーザ操作力を、上述の推定操作力として出力する。図6の例では、状態値S2X,5に対応付けられているユーザ操作力I2X,5が、推定操作力として出力される。
出力対象ノードにおいて、推定操作力が[3]の推移のうち最後のユーザ操作力に相当する場合、AI部40は、現在の作業状態を遷移先の作業状態に更新する。
上記の処理を例えば1秒毎に反復し、推定操作力に基づいてロボット10を動作させることにより、ロボット10の自律動作を実現することができる。
次に、上述の進行度計算部46の処理について説明する。
進行度計算部46は、学習済モデル43が出力する推定操作力が、一連の作業のうちどの進捗度合いに相当するかを示す進行度を計算により取得することができる。この進行度は、出力対象ノードが示す遷移前の作業状態に対応する進行度の値、遷移後の作業状態に対応する進行度の値、及び、出力対象ノードにおける推定操作力の時系列順の情報に基づいて、計算することができる。
以下、具体的に説明する。AI部40に入力された特徴ベクトルに類似するとして学習済モデル43が求めた出力対象ノードは、上記の[1]~[4]を情報として含んでいる。今回の例では、図6の下側に示すように、出力対象ノードが、遷移前の作業状態が作業状態2(接触)であること、遷移先の作業状態が作業状態3(挿入)であること、作業状態間の遷移のための15秒間の状態値S2X,k~S2X,k+14、及び、15秒間のユーザ操作力I2X,k~I2X,k+14を有していたとする。更に、入力特徴ベクトルが有する現在の状態値に対して、当該ノードの5秒目の状態値S2X,k+5が最も類似していたとする。この場合、AI部40は、ユーザ操作力I2X,k+5を推定操作力として出力する。遷移前の作業状態及び遷移先の作業状態に関する条件を省略して、現在の状態値に対して最も類似するノードを全体のノードから選択して推定操作力として出力することもできる。
上述のとおり、作業状態2(接触)に対しては進行度として0.5が定義され、作業状態3(挿入)に対しては進行度として0.8が定義されている。上記のノードにおいて、工程動作の開始から5秒目の状態は、時間で考えると、0.5から0.8までの進行度区間のうち5/15を消化した状態であるので、進行度として0.6に相当すると計算することができる。進行度計算部46は、このように、時刻を進行度に変換する計算を行う。AI部40は、得られた進行度の値である0.6をディスプレイ等に出力する。上記の計算を予め行って変換テーブルを作成しておき、このテーブルを用いて時刻から進行度への変換を行う構成とすることもできる。
仮に、進行度を作業状態の順番だけに従って定める場合を考える。この場合、図7の比較例のグラフで示すように、作業状態1(空中)からの一連の作業をロボット10が開始しても、進行度は、作業状態2(接触)への遷移が完了する直前まで0を維持する。進行度は、作業状態2(接触)への遷移が完了したタイミングで、非連続的に0.5に変化する。その後、進行度は、作業状態3(挿入)への遷移が完了する直前まで0.5を維持する。進行度は、作業状態3(挿入)への遷移が完了したタイミングで、非連続的に0.8に変化する。その後、進行度は、作業状態4(完了)への遷移が完了する直前まで0.8を維持する。進行度は、作業状態4(完了)への遷移が完了したタイミングで、非連続的に1.0となる。
このように、作業状態の単位(言い換えれば、クラスタ単位)で進行度を変化させる場合、進行度の変化が粗い。従って、大きな粒度での進捗の把握は問題ないものの、細かい進捗がわかりにくい。
特に、ロボット10の先端にワークを保持した状態で空中を移動させ続ける作業、保持したワークを別の部材に押し当て続ける作業等、類似する状態が比較的長時間継続する状況が工程動作に含まれる場合がある。この場合は、進行度の推移が、作業がずっと停滞しているのと変わらないことがあった。
この点、本実施形態では、進行度が、作業状態の変化を反映するだけでなく、出力対象ノードにおけるユーザ操作力の時系列的な呼出しにおいて推定操作力がどの順番に相当するかを反映した形で求められる。従って、進行度が、図8に示すように、一連の作業の進行に伴って比較的滑らかな形で増加するので、ユーザは作業の細かい進捗を容易に理解することができる。
ロボット10が自律動作する場合、進行度は、例えば、リアルタイムで表示部22に表示される。進行度は、例えば、図8のようにグラフの形で表示すると、ユーザが直感的に理解できるため、好ましい。推論フェーズの学習済モデル43による自律動作が問題なく行われていれば、進行度は0から1まで細かい階段状に変化する。進行度が変化する単位は、前述のデータ取得周期である1秒分に相当する進行度となる。データ取得周期は、推定操作力の出力周期と言い換えることもできる。
何れかの工程動作の途中でロボット10が停止した場合は、進行度の値も、図9に示すように、その工程動作の途中に相当する値(例えば0.6)から増加しなくなる。また、ロボット10の自律動作に何らかの迷い又は試行錯誤に似た動作が生じた場合は、進行度の値が、図10に示すように、例えば概ね0.55と0.7の間で上下動を繰り返したりする。このように、細かく変動する進行度を監視することで、ロボット10の自律動作において想定外の状況が生じていることを容易に把握することができる。
図8から図10までに示すように、グラフに加えて、前述の動作ラベル記憶部50が記憶されている動作ラベルが、表示部22により表示されても良い。これにより、ユーザは、どの工程動作が行われているかを直感的に理解することができる。
一般的に機械学習モデルの動作は外部から把握できず、その動作は、工程動作のうち何れの動作を想定しているのかが不明であった。従って、機械学習モデルが勘違いせず正しい順番で動作を行っているのか、又は、失敗した場合にどの動作で失敗したかの評価が困難であった。しかし、本実施形態では、図8から図10までに示すように、一連の作業において行われる動作の細かい順序が可視化されている。従って、構築された学習済モデル43の性能等を正しく評価することが容易になり、更に、モデルの改善の手掛かりを容易に得ることができる。
次に、図11を参照して、工程動作データの変形例について説明する。
上記の実施形態の工程動作データにおいては、図4に示すように、状態値S21及びユーザ操作力I21からなるデータ組が、一連の作業を開始したタイミングを基準とする時刻mに対応付けられている。その代わりに、本変形例では、図11に示すように、データ組が進行度に対応付けられている。
進行度は一連の作業の進捗を比率で表したものであるので、時刻の代わりに進行度を用いることで、作業データの長さのバラツキの影響を抑制することができる。
例えば、学習済モデル43を構築するために、図12の上側に示す3つの作業データを機械学習モデルに学習させる場合を考える。ユーザの操作及び状況にはバラツキがあるため、それぞれの工程動作に相当するデータが現れる時刻、及び当該データの時系列的な長さにバラツキが生じる。従って、図4のように一連の作業の開始からの時刻を工程動作データにそのまま用いた場合、クラスタリングに大きな影響が生じることがある。動作の時間的なバラツキは後の工程へ累積していくため、後の動作工程になるほど特に影響を受け易くなる。
この点、本変形例では、時刻の代わりに進行度を用いている。進行度基準とすることで、作業データに対して時間軸方向の拡大又は縮小を行い、図12の下側に示すように時系列な長さを揃えた形で、工程動作データの機械学習を行うことができる。これにより、機械学習のクラスタリングにおいて、互いに類似した工程動作を示す工程動作データが同一のクラスタを形成し易くなる。従って、学習済モデル43がより適切な推論を行うことが期待できる。
一連の作業に含まれる作業工程の時間的長短のバラツキの影響を受けないように進行度を定めることもできる。具体的に説明すると、作業工程の中には、例えばワークを他の部材に押し付ける作業等、状況によっては長時間を要するものがある。完了するための時間にバラツキが大きく生じ易い作業工程が一連の作業に複数含まれている場合、単純に一連の作業の全体に対して0から1までの進行度を割り当てると、同一の一連の作業を行っても、作業データの進行度同士が一致しにくいことがある。
この状況を解決するために、以下のようにすることもできる。即ち、一連の作業に含まれることが想定される作業工程を大まかに事前に分類し、それぞれの分類について作業順に従って例えば0,1,2,・・・というようにラベルを付与する。上記の事前の分類は、作業状態に基づいて行われても良いし、クラスタリング等の機械学習により行われても良い。1のラベルが付された作業においては進行度が0.0から1.0まで、2のラベルが付された作業においては進行度が1.0から2.0まで、・・・というように割り当てられる。これにより、作業工程の時間的な長さのバラツキが大きいデータ同士の進捗を比較する場合においても、同じ作業工程は似た進行度を示すことになる。従って、学習済モデル43が適切な推論を行い易くなる。
以上に説明したように、本実施形態のロボット制御装置15は、学習済モデル43と、動作切替部30と、進行度計算部46と、表示部22と、を備える。学習済モデル43は、人間がロボット10を操作して一連の作業を行わせる場合の、状態値を入力データとし、それに応じたユーザ操作力を出力データとする作業データを学習することにより構築される。動作切替部30は、状態値が学習済モデル43に入力された場合に、それに応じて推定されるユーザ操作力を学習済モデル43から得ることにより、作業を行わせるためのロボット10の制御データを得る。進行度計算部46は、入力データが学習済モデル43に入力された場合に、それに応じて出力される出力データが、一連の作業のうちどの進捗度合いに相当するかを示す進行度を取得する。表示部22は、進行度を出力可能である。学習済モデル43は、一連の作業を分割したものに相当する複数の工程動作の何れに入力データが分類されるかを求めることが可能である。学習済モデル43において、それぞれの分類を代表するノードには関連付けて、工程動作を実現するためのユーザ操作力の時間的推移である出力推移が定められている。学習済モデル43は、入力データの分類結果に関連付けられたノードの出力推移の中から、入力データの状態値に対応するユーザ操作力を求めて出力データとする。進行度の変化範囲(0から1まで)は、複数の工程動作に対応するように、複数の進行度範囲に分割される。複数の進行度範囲の順番は、一連の作業における複数の工程動作の順番に対応している。進行度計算部46が取得する進行度は、学習済モデル43が行った入力データの分類結果である工程動作に対応する進行度範囲の中で、工程動作に関連付けられた出力推移において状態値に対応しているユーザ操作力が何番目であるかに応じて変化する。
これにより、一連の作業の進捗を表す進行度を、1つの工程動作の中での細かい進捗を反映した形で得ることができる。従って、ユーザは、進行度を参照して、自律運転の状況をより適切に把握することができる。
本実施形態のロボット制御装置15は、動作ラベル記憶部50を備える。工程動作の内容を表現する情報を含む動作ラベルを、工程動作に対応付けて記憶する。表示部22は、動作ラベルを出力可能である。
これにより、ユーザは、自律運転の状況をより直感的に理解することができる。
図11の例では、作業データのうち出力データには、ユーザ操作力が、進行度に関連付けられて含まれる。
これにより、作業データの時間的な長さのバラツキが機械学習におけるノイズとなるのを抑制することができる。従って、学習済モデル43がより適切な推論を行うことができる。
本実施形態のロボット制御装置15において、作業データは、1つの工程動作に相当する工程動作データに分割される。学習済モデル43は、それぞれの工程動作データを対象とするクラスタリングにより構築される。
これにより、様々な状況に柔軟に対応可能な学習済モデル43を構築することができる。
本実施形態のロボットシステム1は、ロボット制御装置15と、ロボット10と、を備える。
これにより、ユーザは、ロボット10が自律運転を行う場合の動作の進捗を、より細かい状況を反映した形で把握することができる。
以上に本開示の好適な実施の形態を説明したが、上記の構成は例えば以下のように変更することができる。
上記の実施形態では、学習済モデル43は、状態値と、ユーザ操作力と、の関係を学習している。これに代えて、学習済モデル43が、状態値と、ロボット10への動作指令と、の関係を学習するように構成しても良い。
作業データの工程動作データへの分割は、複数のベース学習済モデルを利用して自動的に行われても良い。具体的に説明すると、それぞれのベース学習済モデルは、標準的な工程動作毎に予め構築されている。標準的な工程動作とは、一連の動作よりも単純な動作であり、上述の下降動作、擦り動作、及び穴内下降動作を含んで多数考えられる。それぞれのベース学習済モデルは、ユーザが操作部21を操作して標準的な工程動作をロボット10に行わせたときの、状態値とユーザ操作力の時系列的な順番を学習している。作業データが得られると、作業データに含まれる状態値がそれぞれのベース学習済モデルに入力され、ベース学習済モデルが出力するユーザ操作力が、作業データのユーザ操作力と比較される。作業データの入力と出力の時系列に、ベース学習済モデルの入力と出力の時系列に類似している区間があれば、その部分が当該工程動作であると判定することができる。
進行度は、図8のようにグラフ形式で表示することに代えて、例えば数値で表示する構成とすることもできる。
ロボット制御装置15は、情報出力部として、表示部22に代えて又は加えて音声出力部を備えても良い。この場合、進行度を音声により出力することができる。例えば、ロボット制御装置15は、音声合成によって進行度の数値を読み上げる構成とすることができる。同様に、動作ラベルが音声により出力されても良い。
動作ラベルは、動作の内容を特定可能な目印であれば良い。動作ラベルは、「引抜き」等のような文字列とすることに代えて、例えばアイコン等の画像とすることもできる。
学習済モデル43として、クラスタリングによる機械学習モデルに代えて、他の形式、例えばニューラルネットワークによる機械学習モデルを用いることができる。
ロボット10及びその周辺の状態を取得するためのセンサ(状態センサ)として、動作センサ11、力センサ12及びカメラ13以外のセンサが用いられても良い。
操作部21に、操作力検出センサに代えて、又はそれに加えて、操作位置検出センサを設けても良い。操作位置検出センサも操作力検出センサと同様に、人間の操作を検出するセンサということができる。
操作部21が遠隔操作に用いるマスターアームであり、かつ、ロボット10がスレーブアームであるロボットシステム1であっても良い。この場合、AI部40は、ユーザによるマスターアームの操作に基づいて学習した学習済モデル43を構築することができる。
1 ロボットシステム
10 ロボット
15 ロボット制御装置
22 表示部(情報出力部)
30 動作切替部(制御データ取得部)
43 学習済モデル
46 進行度計算部(進行度取得部)
50 動作ラベル記憶部
81 ワーク(状態)
82 凹部(状態)

Claims (6)

  1. 人間がロボットを操作して一連の作業を行わせる場合の、当該ロボット及びその周辺の状態を入力データとし、それに応じた人間の操作又は当該操作による当該ロボットの動作を出力データとする作業データを学習することにより構築された学習済モデルと、
    ロボット及びその周辺の状態に関する入力データが前記学習済モデルに入力された場合に、それに応じて推定される人間の操作又はロボットの動作に関する出力データを前記学習済モデルから得ることにより、前記作業を行わせるためのロボットの制御データを得る制御データ取得部と、
    前記入力データが前記学習済モデルに入力された場合に、それに応じて出力される前記出力データが、前記一連の作業のうちどの進捗度合いに相当するかを示す進行度を取得する進行度取得部と、
    前記進行度を出力可能な情報出力部と、
    を備え、
    前記学習済モデルは、前記一連の作業を分割したものに相当する複数の工程動作の何れに前記入力データが分類されるかを求めることが可能であり、
    前記学習済モデルにおいて、それぞれの分類に関連付けて、当該工程動作を実現するための前記人間の操作又は当該操作による当該ロボットの動作の時間的推移である出力推移が定められており、
    前記学習済モデルは、前記入力データの分類結果に関連付けられた前記出力推移の中から、当該入力データに対応する出力を求めて前記出力データとし、
    前記進行度の変化範囲は、複数の前記工程動作に対応するように、複数の進行度範囲に分割され、
    前記複数の進行度範囲の順番は、前記一連の作業における複数の前記工程動作の順番に対応しており、
    前記進行度取得部が取得する進行度は、前記学習済モデルが行った前記入力データの分類結果である前記工程動作に対応する前記進行度範囲の中で、前記工程動作に関連付けられた前記出力推移において前記入力データに対応している出力が何番目であるかに応じて変化することを特徴とするロボット制御装置。
  2. 請求項1に記載のロボット制御装置であって、
    前記工程動作の内容を表現する情報を含む動作ラベルを、前記工程動作に対応付けて記憶する動作ラベル記憶部を備え、
    前記情報出力部は、前記動作ラベルを出力可能であることを特徴とするロボット制御装置。
  3. 請求項1又は2に記載のロボット制御装置であって、
    前記作業データのうち前記出力データには、前記人間の操作又は当該操作による当該ロボットの動作が、前記進行度に関連付けられて含まれることを特徴とするロボット制御装置。
  4. 請求項1から3までの何れか一項に記載のロボット制御装置であって、
    前記作業データは、1つの前記工程動作に相当する工程動作データに分割され、
    前記学習済モデルは、それぞれの前記工程動作データを対象とするクラスタリングにより構築されることを特徴とするロボット制御装置。
  5. 請求項1から4までの何れか一項に記載のロボット制御装置と、
    前記ロボットと、
    を備えることを特徴とするロボットシステム。
  6. 人間がロボットを操作して一連の作業を行わせる場合の、当該ロボット及びその周辺の状態を入力データとし、それに応じた人間の操作又は当該操作による当該ロボットの動作を出力データとする作業データを学習することにより学習済モデルを構築し、
    ロボット及びその周辺の状態に関する入力データが前記学習済モデルに入力された場合に、それに応じて推定される人間の操作又はロボットの動作に関する出力データを前記学習済モデルから得ることにより、前記作業を行わせるためのロボットの制御データを取得し、
    前記入力データが前記学習済モデルに入力された場合に、それに応じて出力される前記出力データが、前記一連の作業のうちどの進捗度合いに相当するかを示す進行度を取得し、
    前記進行度を出力し、
    前記学習済モデルは、前記一連の作業を分割したものに相当する複数の工程動作の何れに前記入力データが分類されるかを求めることが可能であり、
    前記学習済モデルにおいて、それぞれの分類に関連付けて、当該工程動作を実現するための前記人間の操作又は当該操作による当該ロボットの動作の時間的推移である出力推移が定められており、
    前記学習済モデルは、前記入力データの分類結果に関連付けられた前記出力推移の中から、当該入力データに対応する出力を求めて前記出力データとし、
    前記進行度の変化範囲は、複数の前記工程動作に対応するように、複数の進行度範囲に分割されており、
    前記複数の進行度範囲の順番は、前記一連の作業における複数の前記工程動作の順番に対応しており、
    前記進行度は、前記学習済モデルが行った前記入力データの分類の結果である前記工程動作に対応する前記進行度範囲の中で、前記工程動作に関連付けられた前記出力推移において前記入力データに対応している出力が何番目であるかに応じて変化することを特徴とするロボット制御方法。
JP2021185278A 2021-11-12 2021-11-12 ロボット制御装置、ロボットシステム及びロボット制御方法 Pending JP2023072601A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021185278A JP2023072601A (ja) 2021-11-12 2021-11-12 ロボット制御装置、ロボットシステム及びロボット制御方法
PCT/JP2022/040044 WO2023085100A1 (ja) 2021-11-12 2022-10-26 ロボット制御装置、ロボットシステム及びロボット制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021185278A JP2023072601A (ja) 2021-11-12 2021-11-12 ロボット制御装置、ロボットシステム及びロボット制御方法

Publications (1)

Publication Number Publication Date
JP2023072601A true JP2023072601A (ja) 2023-05-24

Family

ID=86335715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021185278A Pending JP2023072601A (ja) 2021-11-12 2021-11-12 ロボット制御装置、ロボットシステム及びロボット制御方法

Country Status (2)

Country Link
JP (1) JP2023072601A (ja)
WO (1) WO2023085100A1 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5401270B2 (ja) * 2009-11-13 2014-01-29 株式会社日立製作所 Id媒体及びセンサを利用した作業進捗推定装置及び方法
JP2018163556A (ja) * 2017-03-27 2018-10-18 三菱重工業株式会社 作業管理装置、作業管理方法およびプログラム
EP3804918A4 (en) * 2018-05-25 2022-03-30 Kawasaki Jukogyo Kabushiki Kaisha ROBOT SYSTEM AND ADDITIONAL LEARNING METHOD
JP7128736B2 (ja) * 2018-12-27 2022-08-31 川崎重工業株式会社 ロボット制御装置、ロボットシステム及びロボット制御方法

Also Published As

Publication number Publication date
WO2023085100A1 (ja) 2023-05-19

Similar Documents

Publication Publication Date Title
TWI707280B (zh) 動作預測系統以及動作預測方法
JP5361756B2 (ja) 模倣学習のためのタスク固有の表現の自動選択を備えたロボット
US9387589B2 (en) Visual debugging of robotic tasks
JP7167141B2 (ja) ロボットシステム及び追加学習方法
JP7128736B2 (ja) ロボット制御装置、ロボットシステム及びロボット制御方法
WO2017159562A1 (ja) 動作情報生成装置
JP7460366B2 (ja) 訓練データ選別装置、ロボットシステム及び訓練データ選別方法
WO2020138446A1 (ja) ロボット制御装置、ロボットシステム及びロボット制御方法
WO2020241037A1 (ja) 学習装置、学習方法、学習プログラム、自動制御装置、自動制御方法および自動制御プログラム
CN108326877A (zh) 机器人控制设备、系统和控制方法及制品装配制造方法
CN112638596A (zh) 自主学习型机器人装置以及自主学习型机器人装置的动作生成方法
KR101826268B1 (ko) 동작 예측 방법 및 시스템
JP6567998B2 (ja) 制御方法
WO2023085100A1 (ja) ロボット制御装置、ロボットシステム及びロボット制御方法
Maderna et al. Real-time monitoring of human task advancement
EP3904017A1 (en) Robot control device, robot system, and robot control method
Rozo et al. Robot learning from demonstration in the force domain
WO2022239310A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
WO2023033179A1 (ja) 学習済モデルの構築方法
CN113195177B (zh) 机器人控制装置、机器人系统以及机器人控制方法
CN114571463B (zh) 动作检测方法、装置、可读存储介质及电子设备
WO2023243412A1 (ja) 処理装置、ロボット制御システム及び機械学習方法
TWI781708B (zh) 學習裝置、學習方法、學習程式、控制裝置、控制方法及控制程式
da Rosa et al. Design and Implementation of a Platform for Controlling the Mentor Robotic Arm
JP2024028024A (ja) 強化学習補助装置、強化学習補助システム、及び強化学習補助方法