JP2020194242A - 学習装置、学習方法、学習プログラム、自動制御装置、自動制御方法および自動制御プログラム - Google Patents

学習装置、学習方法、学習プログラム、自動制御装置、自動制御方法および自動制御プログラム Download PDF

Info

Publication number
JP2020194242A
JP2020194242A JP2019098109A JP2019098109A JP2020194242A JP 2020194242 A JP2020194242 A JP 2020194242A JP 2019098109 A JP2019098109 A JP 2019098109A JP 2019098109 A JP2019098109 A JP 2019098109A JP 2020194242 A JP2020194242 A JP 2020194242A
Authority
JP
Japan
Prior art keywords
learning
state value
target device
value
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019098109A
Other languages
English (en)
Other versions
JP6811465B2 (ja
Inventor
学嗣 浅谷
Satotsugu Asatani
学嗣 浅谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exa Wizards Inc
Original Assignee
Exa Wizards Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exa Wizards Inc filed Critical Exa Wizards Inc
Priority to JP2019098109A priority Critical patent/JP6811465B2/ja
Priority to PCT/JP2020/014981 priority patent/WO2020241037A1/ja
Publication of JP2020194242A publication Critical patent/JP2020194242A/ja
Application granted granted Critical
Publication of JP6811465B2 publication Critical patent/JP6811465B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4155Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by programme execution, i.e. part programme or machine function execution, e.g. selection of a programme
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Abstract

【課題】高い精度で対象機器の動作の学習を行うこと。【解決手段】学習装置(100)は、動作中のマニピュレータ(10)の状態値および当該動作の計測値を経時的に取得して蓄積する蓄積部(103)と、動作中のマニピュレータ(10)の状態値および動作の計測値が少なくとも入力され、マニピュレータ(10)の未来の状態値を予測する第1の学習モデル(101)に、教師データを学習させる学習部(105)と、を備え、教師データは、蓄積部(103)に蓄積された状態値および計測値の時系列データを含む。【選択図】図1

Description

本発明は、対象機器の制御のための学習モデルに学習させる学習装置、学習方法および学習プログラムならびに当該学習モデルを用いた自動制御装置、自動制御方法および自動制御プログラムに関する。
本発明者らは、ディープラーニングを用いて、対象機器(例えばロボット)の動作の学習(自己組織化)を行うことを検討している。非特許文献1には、ロボットを直接教示して物体操作タスクを行わせ、画像、音声信号、モータの各モーダリティーを複数のDeep Autoencoderによって統合して学習させることで、運動パターンを自己組織化できたことが記載されている。
尾形、「ロボティクスと深層学習」、人工知能31巻2号、210−215頁、2016年3月
本発明者らは、より高い精度で対象機器の動作の学習を行うことを検討している。本発明の一態様は、高い精度で対象機器の動作の学習を行うことができる学習装置、学習方法および学習プログラムを実現することを目的とする。
上記の課題を解決するために、本発明の一態様に係る学習装置は、動作中の対象機器の状態値および当該動作の計測値を経時的に取得して蓄積する蓄積部と、動作中の対象機器の状態値および当該動作の計測値が少なくとも入力され、当該対象機器の未来の状態値を予測する第1の学習モデルに、教師データを学習させる学習部と、を備え、前記教師データは、前記蓄積部に蓄積された前記状態値および前記計測値の時系列データを含む。
本発明の一態様に係る学習方法は、動作中の対象機器の状態値および当該動作の計測値を経時的に取得して蓄積する蓄積工程と、動作中の対象機器の状態値および当該動作の計測値が少なくとも入力され、当該対象機器の未来の状態値を予測する第1の学習モデルに、教師データを学習させる学習工程と、を含み、前記教師データは、前記蓄積工程で蓄積された前記状態値および前記計測値の時系列データを含む。
本発明の一態様に係る自動制御装置は、動作中の対象機器の状態値および当該動作の計測値が少なくとも入力され、当該対象機器の未来の状態値を予測する第1の学習モデルと、少なくとも動作中の前記対象機器の状態値および当該動作の計測値を前記第1の学習モデルに入力し、前記第1の学習モデルが予測した前記未来の状態値に前記対象機器の状態値を近づけるように前記対象機器を制御する自動制御部と、を備え、前記第1の学習モデルは、過去の前記対象機器の前記状態値および前記計測値の時系列データを含む教師データを学習している。
本発明の一態様に係る自動制御方法は、動作中の対象機器の状態値および当該動作の計測値が少なくとも入力され、当該対象機器の未来の状態値を予測する第1の学習モデルに、少なくとも動作中の前記対象機器の状態値および当該動作の計測値を入力し、前記第1の学習モデルが予測した前記未来の状態値に前記対象機器の状態値を近づけるように前記対象機器を制御する自動制御工程を含み、前記第1の学習モデルは、過去の前記対象機器の前記状態値および前記計測値の時系列データを含む教師データを学習している。
本発明の一態様によれば、高い精度で対象機器の動作の学習を行うことができる。
本発明の一実施形態に係る学習システムの概略構成を示すブロック図である。 本発明の一実施形態に係る学習システムの外観を模式的に示す図である。 本発明の一実施形態に係る学習装置による対象機器の自動制御の流れの一例を示すフローチャートである。 本発明の一実施形態に係る第1の学習モデルの入力パラメータおよび出力パラメータを説明する図である。 本発明の一実施形態に係る表示部の表示内容の一例を示す図である。 本発明の一実施形態に係る学習装置による手動学習の流れの一例を示すフローチャートである。 本発明の一実施形態に係る学習装置による自動学習の流れの一例を示すフローチャートである。 本発明の一実施形態に係る学習装置として利用可能なコンピュータの構成を例示したブロック図である。
以下、本発明の一実施形態について、詳細に説明する。
図1は、本発明の一実施形態に係る学習システム1の概略構成を示すブロック図である。学習システム1は、図1に示すように、マニピュレータ(対象機器)10、カメラ13、計測装置14、入力デバイス15、ディスプレイ(表示部)16、および、学習装置(自動制御装置)100を備えている。
図2は、学習システム1の外観を模式的に示す図である。本実施形態において、マニピュレータ10には、エンドエフェクタとしてスプーン17が装着されており、塩2を秤量する動作を行う。例えば、容器3内の塩2を、設定された量だけ、容器4に移す動作を行う。なお、マニピュレータ10の動作は塩の秤量に限定されず、他の物体(粉体、液体)の秤量を行うようになっていてもよいし、エンドエフェクタを交換することによって他の動作が可能になるように構成されていてもよい。エンドエフェクタは、スプーン、ハンド(グリッパ)、吸着ハンド、スプレーガン、又は溶接トーチであるが、これに限られない。
マニピュレータ10は、1以上の関節11を備えており、各関節11が駆動されることによって動作する。関節11は、アームの関節であってもよいし、エンドエフェクタの関節であってもよい。マニピュレータ10はまた、1以上のセンサ12を備えており、各センサ12には、例えば、各関節11の状態値(例えば、ジョイント角度、指角度)を検知する角度センサ、マニピュレータ10の特定の箇所における力覚(モーメント)を検知する力覚センサなどが含まれ得る。
カメラ13は、マニピュレータ10の動作(塩の秤量)の目的物(塩2、容器3、容器4)を撮像して撮像画像を取得する。
計測装置14は、重量計であり、マニピュレータ10の動作(塩の秤量)の計測値(容器3から容器4に移された塩2の量)を計測する。計測装置14は、重量計に限られず、対象機器の動作による変化量(例えば、塩の量)を計測可能な任意の装置であり得る。
入力デバイス15は、マニピュレータ10を手動で操作するための入力デバイスである。本実施形態において、入力デバイス15は、図2に示すような、マニピュレータ10と同じ形状を有し、各関節のジョイント角度を検知するセンサを備え、手で掴んで動かすことにより、マニピュレータ10を直感的に操作することができるマスタスレーブ方式の入力デバイスであるが、これに限定されず、入力デバイス15は、ロボットコントローラ、ティーチペンダント、キーボード、レバー、ボタン、スイッチ、タッチパッド等から構成されていてもよい。
ディスプレイ16は、各種情報を表示するための表示装置であり、例えば、LCDディスプレイなどであり得る。
(学習装置)
学習装置100は、図1に示すように、第1の学習モデル101、第2の学習モデル102、蓄積部103、取得部104、学習部105、手動制御部106、自動制御部107および表示制御部108を備えている。
第1の学習モデル101は、動作中のマニピュレータ10の状態値および当該動作の計測値が少なくとも入力され、マニピュレータ10の未来の状態値および計測値を予測する学習モデルであり、時系列データを学習可能な学習モデルであり得る。一態様において、第1の学習モデル101は、MTRNN(Multi Timescale RNN)、LSTM(Long Short Term Memory)等のRNN(Recurrent Neural Network)であるが、これに限定されず、ARIMA(AutoRegressive, Integrated and Moving Average)モデル、1次元CNN(Convolutional Neural Network)等であってもよい。
第2の学習モデル102は、画像を圧縮および復元可能な学習モデルであり得る。一態様において、第2の学習モデル102は、CAE(Convolutional Auto Encoder)であるが、これに限定されず、オートエンコーダ(Autoencoder)、RBM(Restricted Boltzmann Machine)、主成分分析(Principal Component Analysis)モデル等であってもよい。
蓄積部103は、動作中のマニピュレータ10の状態値を経時的に取得して蓄積する。一態様において、蓄積部103は、センサ12からマニピュレータ10の各関節11のジョイント角度(状態値)および力覚(状態値)を取得し、図示しない記憶部に記憶する。
蓄積部103はまた、マニピュレータ10の動作の目的物の撮像画像、および、当該撮像画像の特徴量の少なくとも一方を経時的に取得して蓄積する。一態様において、蓄積部103は、カメラ13が撮像した目的物(塩2、容器3、容器4)の撮像画像を図示しない記憶部に記憶する。また、一態様において、蓄積部103は、カメラ13が撮像した目的物の撮像画像を第2の学習モデル102によって圧縮し、圧縮したデータを撮像画像の特徴量として取得し、図示しない記憶部に記憶する。
蓄積部103はまた、マニピュレータ10の動作の計測値を経時的に取得して蓄積する。一態様において、蓄積部103は、取得部104が取得した計測値を、図示しない記憶部に記憶する。
一態様において、第2の学習モデル102は、CAE、オートエンコーダのような、入力画像と出力画像とが一致するように深層学習される学習モデルである。学習部105は、蓄積部103が取得したカメラ13の撮像画像の時系列データ(マニピュレータ10の動作の動画データ)を、第2の学習モデル102に学習させる。これにより、蓄積部103は、撮像画像を入力した第2の学習モデル102の中間層から当該撮像画像の特徴量を取得することができる。すなわち、入力画像と出力画像とが一致するように深層学習された学習モデルの中間層は、入力画像の次元よりも少ない次元で、入力画像の情報量を落とさずに表現したものと言えるため、目的物の撮像画像の特徴を示す特徴量として好適に用いることができる。
取得部104は、マニピュレータ10の動作(塩の秤量)の計測値(容器4に移動した塩2の量)を取得する。一態様において、取得部104は、容器4を計量する計測装置14から有線または無線により計測値を取得してもよいし、カメラ13が計測装置14のディスプレイを撮像するようになっており、カメラ13の撮像画像を画像解析することにより、計測値を取得してもよい。取得部104はまた、マニピュレータ10の動作が完了したときの計測値を結果値として取得する。
学習部105は、第1の学習モデル101に教師データを学習させる。教師データの詳細については後述する。
学習部105はまた、蓄積部103に蓄積されたカメラ13の撮像画像の時系列データを、第2の学習モデル102に学習させる。
手動制御部106は、入力デバイス15(外部)からの指示に応じてマニピュレータ10を制御する。
自動制御部107は、設定された目標値(塩2を容器4に移動させる量)、マニピュレータ10の状態値、撮像画像の特徴量、および、マニピュレータ10の動作の計測値を、第1の学習モデル101に入力し、第1の学習モデル101が予測した未来の状態値にマニピュレータ10の状態値を近づけるようにマニピュレータ10を制御する。詳細については後述する。
表示制御部108は、各種情報をディスプレイ16に表示させる。表示内容としては、特に限定されないが、カメラ13の撮像画像、未来の撮像画像の予測画像(詳細については後述する)、マニピュレータ10のモデリング画像、設定された目標値、計測された計測値等があり得る。
(自動制御)
図3は、学習装置100によるマニピュレータ10の自動制御の流れの一例を示すフローチャートである。なお、一部のステップは並行して、または、順序を替えて実行してもよい。事前(過去)に後述する手動学習または自動学習がなされた学習装置100は、マニピュレータ10(対象機器)を自動制御することができる。
ステップS1において、自動制御部107は、マニピュレータ10の動作の目標値を設定する。例えば、自動制御部107は、図示しない入力部を介して入力された値を目標値として設定してもよい。
ステップS2において、自動制御部107は、センサ12からマニピュレータ10の状態値(各関節11のジョイント角、所定位置における力覚等)を取得する。

ステップS3において、自動制御部107は、第2の学習モデル102から、カメラ13が撮像した撮像画像の特徴量を取得する。
ステップS4において、自動制御部107は、取得部104から、マニピュレータ10の動作の計測値を取得する。
ステップS5において、自動制御部107は、第1の学習モデル101に入力する入力パラメータを生成する。図4は、第1の学習モデル101の入力パラメータおよび出力パラメータを説明する図である。図4に示すように、入力パラメータの各次元には、取得した状態値、特徴量および計測値ならびに設定した目標値が割り振られている。状態値、特徴量、計測値および目標値は、複数次元に割り当てられていてもよい。また、状態値、特徴量、計測値および目標値は、各次元に対応する正規化項によって正規化される。
ステップS6において、自動制御部107は、第1の学習モデル101に入力パラメータを入力し、出力パラメータを取得する。第1の学習モデル101は、入力パラメータが入力されたとき、未来に入力される入力パラメータを予測するように学習されており、例えば、時刻tの入力パラメータを入力したときに、第1の学習モデル101は、時刻t+1の入力パラメータの予測値を出力するように学習されている。換言すれば、第1の学習モデル101は、1フレーム先の入力パラメータを予測する。なお、目標値は固定値である。
ステップS7において、自動制御部107は、第1の学習モデル101が予測した未来の状態値にマニピュレータ10の状態値を近づけるようにマニピュレータ10を制御する。一態様において、自動制御部107は、第1の学習モデル101が出力した出力パラメータのうち、各関節11のジョイント角を示すパラメータを参照し、マニピュレータ10の各関節11のジョイント角が、予測されたジョイント角に近づくように、各関節11を制御してもよい。
ステップS8において、自動制御部107は、第1の学習モデル101が出力した出力パラメータのうち、未来の撮像画像の特徴量を示すパラメータを表示制御部108に出力する。表示制御部108は、第2の学習モデル102を用いて、未来の撮像画像の特徴量を示すパラメータから、未来の撮像画像を復元する。そして、表示制御部108は、カメラ13が撮像した撮像画像と、復元した未来の撮像画像とをディスプレイ16に表示させる。
図5は、ステップS8におけるディスプレイ16の表示内容の一例を示す図である。表示制御部108は、ディスプレイ16に、カメラ13が撮像した現在の撮像画像200と、復元した未来の撮像画像201とを表示させる。そして、自動制御部107は、結果的に、現在の撮像画像200が未来の撮像画像201の状態になるように、マニピュレータ10を制御する。なお、ステップS8では、表示制御部108は、カメラ13が撮像した現在の撮像画像200のみをディスプレイ16に表示させてもよい。
ステップS9において、自動制御部107は、マニピュレータ10の動作が完了したか否かを判定し、完了していなかった場合は(ステップS9のNO)、ステップS2に戻って処理を継続し、完了していた場合は(ステップS9のYES)、処理を終了する。自動制御部107は、取得部104が取得した計測値が目標値以上となった場合、または、取得部104が取得した計測値と目標値との差が予め設定された閾値以下となった場合に、動作が完了したと判定すればよい。なお、一態様において、第1の学習モデル101は、マニピュレータ10の動作が完了している場合には、当該動作が完了したことを示す特定のパラメータを出力するように学習されており、自動制御部107は、第1の学習モデル101から、当該特定のパラメータが出力された場合に、マニピュレータ10の動作が完了したと判定してもよい。
(手動学習)
図6は、学習装置100による手動学習の流れの一例を示すフローチャートである。なお、一部のステップは並行して、または、順序を替えて実行してもよい。
ステップS11において、ユーザは、入力デバイス15を操作して、マニピュレータ10の動作を入力する。一態様において、入力デバイス15は、図2に示すような、マニピュレータ10と同じ形状を有し、各関節のジョイント角度を検知するセンサを備えるものであり、入力デバイス15から手動制御部106に入力デバイス15の各関節のジョイント角を示す指示信号が送信される。
ステップS12において、手動制御部106は、入力デバイス15(外部)からの指示を取得し、マニピュレータ10を制御する。一態様において、手動制御部106は、入力デバイス15からの指示信号を参照して、マニピュレータ10の各関節11のジョイント角が、入力デバイス15の各関節のジョイント角と同じになるように各関節を制御する。
ステップS13において、蓄積部103は、センサ12からマニピュレータ10の状態値(各関節11のジョイント角、所定位置における力覚等)を取得し、時系列に沿って蓄積する。
ステップS14において、蓄積部103は、カメラ13が撮像した撮像画像を取得し、時系列に沿って蓄積する。
ステップS15において、蓄積部103は、取得部104が計測装置14から取得した計測値を取得し、時系列に沿って蓄積する。
ステップS16において、手動制御部106は、マニピュレータ10の動作が完了したか否かを判定し、完了していなかった場合は(ステップS16のNO)、ステップS11に戻って処理を継続し、完了していた場合は(ステップS16のYES)、ステップS17に進む。一態様において、ユーザは入力デバイス15の操作により、動作の完了を指定することができる。
ステップS17において、取得部104は、完了した動作の結果値を取得する。取得部104は、マニピュレータ10の動作の結果値(容器4に移動した塩2の量)を、計測装置14から有線または無線を介して受信することにより、または、カメラ13の撮像画像を画像解析することにより取得する。
なお、ステップS11〜ステップS17は、十分な教師データを得るために複数回繰り返してもよい。
ステップS18において、学習部105は、第2の学習モデル102が撮像画像を圧縮および復元できるようになるように、蓄積部103に蓄積された撮像画像の時系列データを、第2の学習モデル102に学習させる。
ステップS19において、学習部105は、手動制御部106による制御の結果として、マニピュレータ10の動作毎に、蓄積部103に蓄積された状態値、撮像画像および計測値の時系列データと取得部104が取得した結果値とを用いて教師データを生成する。まず、学習部105は、撮像画像の時系列データを第2の学習モデル102に入力し、特徴量の時系列データを取得する。そして、学習部105は、状態値、特徴量および計測値の時系列データならびに結果値を含む教師データを生成する。そして、ステップS20において、学習部105は、生成した教師データを第1の学習モデル101に学習させる。その後、手動制御部106は、処理を終了する。
(教師データの詳細)
教師データは、状態値、特徴量および計測値の時系列データと、目標値に代えて、結果値と、を含む。すなわち、一態様において、教師データは、図4に示す入力パラメータの時系列データであって、設定された目標値が割り当てられていたパラメータの代わりに、取得部104が取得した結果値が固定値として入力されたデータである。
一態様において、学習部105は、教師データに含まれる状態値、特徴量および計測値の時系列データを結果値(固定値)とともに順次入力し、次の時点の状態値、特徴量および計測値ならびに結果値(固定値)を正解データとして用いて、第1の学習モデル101の学習を行う。
以上のように、本実施形態では、学習装置100は、対象機器の動作を学習するとき、状態値や撮像画像の特徴量の時系列データに加えて、対象機器の動作の計測値(例えば、塩の秤量の場合の塩の移動量など)の時系列データを学習することにより、強化学習とは異なるアルゴリズムにより、計測値を反映させた学習を行うことができ、高い精度で対象機器の動作の学習を行うことができる。
また、学習装置100は、対象機器の動作を学習するとき、当該動作の結果値を取得した後に、当該動作は当該結果値を目標値とした動作であったものとみなして学習を行う。換言すれば、学習装置100は、当該動作に係る状態値、特徴量、計測値等を蓄積しておき、当該動作の結果値を取得した後、蓄積しておいた状態値、特徴量、計測値等を、当該結果値を得るための動作の教師データとして用いて学習モデルを学習させる。これにより、強化学習とは異なるアルゴリズムにより、結果値を反映させた学習を行うことができ、高い精度で対象機器の動作の学習を行うことができる。
なお、教師データに含まれる、複数次元のパラメータの時系列データは、パラメータの次元毎に正規化項を設け、正規化することが好ましい。すなわち、一態様において、学習部105は、教師データにおける各次元の平均および分散を算出して、各次元のパラメータが平均0、分散1になるように正規化項を算出し、教師データを正規化した後に、第1の学習モデルに学習させる。これにより、オーダーが異なるマルチモーダルなパラメータの平均および分散を合わせ、高い精度で対象機器の動作の学習を行うことができる。
この場合、第1の学習モデル101の学習に用いる損失関数に、次元差を埋める制約をつけることが好ましい。すなわち、損失関数を最小化する場合に次元数が大きいものを最小化する方向のみへ学習が進まないように、次元数が小さい値の損失関数への寄与度を大きくすることが好ましい。例えば、以下の式(1)に示す損失関数を用いることができる。Dimは、総次元数を表す。Miは、各モダリティ(例えば、ジョイント角度(状態値)、力覚(状態値)、特徴量および計測値)の次元数を表す。tは、正解データを表す。yは、予測データを表す。Nはデータ数を表す。
Figure 2020194242
(自動学習)
学習装置100は、図2に示す自動制御部107による制御の結果として蓄積部103に蓄積された状態値および特徴量の時系列データと、取得部104が取得した計測値および結果値とを用いて教師データを生成し、学習を行うことができる。これにより、動作精度を自動的に向上させることができる。つまり、学習装置100は、人の手を介さずに、学習モデルを自習することができる。したがって、手動学習の回数が少なく、手動学習により得られた対象機器の動作精度が所望の動作精度より低い場合であっても、自動学習により、対象機器の動作精度を所望の動作精度まで向上させることができる。言い換えると、少ない手動学習により、高い動作精度を得ることができる。結果として、手動学習を行う作業者の手間を減らすと共に、学習に要する時間を短くすることができる。
図7は、学習装置100による自動学習の流れの一例を示すフローチャートである。なお、一部のステップは並行して、または、順序を替えて実行してもよい。
図7に示すフローチャートは、図3に示すフローチャートの一部を改変することによって実行される。まず、ステップS1を行った後、S2〜S4に代えてステップS21〜S23を行う。
ステップS21において、自動制御部107は、センサ12からマニピュレータ10の状態値(各関節11のジョイント角、所定位置における力覚等)を取得し、蓄積する。
ステップS22において、自動制御部107は、第2の学習モデル102から、カメラ13が撮像した撮像画像の特徴量を取得し、蓄積する。
ステップS23において、自動制御部107は、取得部104から、マニピュレータ10の動作の計測値を取得し、蓄積する。
続いて、ステップS5〜S9を行い、ステップS9がYESであった場合に、ステップS24〜S26を行う。
ステップS24において、取得部104は、完了した動作の結果値を計測装置14から取得する。
ステップS25において、学習部105は、自動制御部107による制御の結果として、マニピュレータ10の動作毎に、蓄積部103に蓄積された状態値、特徴量および計測値の時系列データと取得部104が取得した結果値と含む教師データを生成する。そして、ステップS26において、学習部105は、生成した教師データを第1の学習モデル101に学習させる。その後、自動制御部107は、処理を終了する。
また、一態様において、学習部105は、マニピュレータ10の動作を完了させるまでに掛かった時間に基づいて、ステップS25〜S26を行うか否かを判定してもよい。すなわち、学習装置100は、自動制御の結果得られた時系列データのうち、動作速度が速いもの(動作を完了させるまでにかかった時間が閾値より短いもの)のみを教師データとして第1の学習モデル101に学習させることにより、自動制御時の動作を高速化することができる。一態様において、学習装置100は、結果値を所定の段階に分け、各段階の結果値が得られた動作の時系列データのうち、動作速度が速いものの時系列データのみを教師データとして第1の学習モデル101に学習させてもよい。
(サンプリングレートについて)
蓄積部103が状態値、特徴量および計測値を取得する間隔は、マニピュレータ10の制御に要する時間に近いことが好ましい。換言すれば、教師データに用いる状態値、特徴量および計測値のサンプリングレートは、マニピュレータ10の制御の処理レートに近いことが好ましい。
そこで、一態様において、自動制御部107は、あらかじめ用意した擬似的な第1の学習モデル101を用いて自動制御を行い、自動制御部107が状態値、特徴量および計測値の少なくとも一つを取得してからマニピュレータ10を制御するまでに掛かった時間を測定する。そして、当該時間に基づいて、蓄積部103が、状態値、特徴量および計測値の少なくとも一つを取得する間隔を、当該時間に近づくように調整する。これにより、より高い精度で対象機器の動作の学習を行うことができる。
(変形例)
上記実施形態では、入力パラメータとして、撮像画像の特徴量が含まれているが、当該特徴量は含めなくともよい。また、入力パラメータとして、目標値(結果値)が含まれているが、目標値(結果値)は含めなくともよい。
また、マニピュレータ10の動作は、物体の秤量の他、物体の移動動作、塗装動作、溶接動作等であってもよい。また、計測値は、物体の量(重さ)の他、物体の移動距離、塗装色または範囲、温度等であってもよい。また、計測装置14は、重量計の他、測距装置、カメラ、温度計等であってもよい。計測装置14がカメラである場合、カメラ13を計測装置14として利用することも可能である。
また、マニピュレータ10に替えて、その他制御可能な対象機器(例えば、工作機械、3Dプリンタ、建設機械、医療機器など)に対して本発明を適用することも可能である。
〔ソフトウェアによる実現例〕
学習装置100の制御ブロック(特に、蓄積部103、取得部104、学習部105、手動制御部106、自動制御部107および表示制御部108)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
後者の場合、学習装置100を、図8に示すようなコンピュータ(電子計算機)を用いて構成することができる。図8は、学習装置100として利用可能なコンピュータ910の構成を例示したブロック図である。コンピュータ910は、バス911を介して互いに接続された演算装置912と、主記憶装置913と、補助記憶装置914と、入出力インターフェース915と、通信インターフェース916とを備えている。演算装置912、主記憶装置913、および補助記憶装置914は、それぞれ、例えばプロセッサ、RAM(random access memory)、ハードディスクドライブであってもよい。上記プロセッサとしては、例えばCPU(Central Processing Unit)およびGPU(Graphics Processing Unit)を用いることができる。第1の学習モデル101および第2の学習モデル102の学習は、GPUにより実行されるのが好ましい。入出力インターフェース915には、ユーザがコンピュータ910に各種情報を入力するための入力装置920、および、コンピュータ910がユーザに各種情報を出力するための出力装置930が接続される。入力装置920および出力装置930は、コンピュータ910に内蔵されたものであってもよいし、コンピュータ910に接続された(外付けされた)ものであってもよい。例えば、入力装置920は、キーボード、マウス、タッチセンサなどであってもよく、出力装置930は、ディスプレイ、プリンタ、スピーカなどであってもよい。また、タッチセンサとディスプレイとが一体化されたタッチパネルのような、入力装置920および出力装置930の双方の機能を有する装置を適用してもよい。そして、通信インターフェース916は、コンピュータ910が外部の装置と通信するためのインターフェースである。
補助記憶装置914には、コンピュータ910を学習装置100として動作させるための各種のプログラムが格納されている。そして、演算装置912は、補助記憶装置914に格納された上記プログラムを主記憶装置913上に展開して該プログラムに含まれる命令を実行することによって、コンピュータ910を、学習装置100が備える各部として機能させる。なお、補助記憶装置914が備える、プログラム等の情報を記録する記録媒体は、コンピュータ読み取り可能な「一時的でない有形の媒体」であればよく、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブル論理回路などであってもよい。また、記録媒体に記録されているプログラムを、主記憶装置913上に展開することなく実行可能なコンピュータであれば、主記憶装置913を省略してもよい。なお、上記各装置(演算装置912、主記憶装置913、補助記憶装置914、入出力インターフェース915、通信インターフェース916、入力装置920、および出力装置930)は、それぞれ1つであってもよいし、複数であってもよい。
また、上記プログラムは、コンピュータ910の外部から取得してもよく、この場合、任意の伝送媒体(通信ネットワークや放送波等)を介して取得してもよい。そして、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
(まとめ)
本発明の態様1に係る学習装置は、動作中の対象機器の状態値および当該動作の計測値を経時的に取得して蓄積する蓄積部と、動作中の対象機器の状態値および当該動作の計測値が少なくとも入力され、当該対象機器の未来の状態値を予測する第1の学習モデルに、教師データを学習させる学習部と、を備え、前記教師データは、前記蓄積部に蓄積された前記状態値および前記計測値の時系列データを含む。
本発明の態様2に係る学習装置は、前記態様1において、前記動作が完了したときの計測値である結果値を取得する取得部をさらに備え、前記第1の学習モデルの入力データは、前記対象機器の動作の目標値をさらに含み、前記教師データは、さらに、前記目標値に代えて、前記取得部が取得した前記結果値を含むものとしてもよい。
本発明の態様3に係る学習装置は、前記態様1または2において、外部からの指示に応じて前記対象機器を制御する手動制御部をさらに備え、前記学習部は、前記手動制御部による制御の結果として前記蓄積部に蓄積された前記状態値および前記計測値の時系列データを少なくとも用いて学習を行うこととしてもよい。
本発明の態様4に係る学習装置は、前記態様1〜3において、動作中の前記対象機器の状態値および前記動作の計測値を前記第1の学習モデルに入力し、前記第1の学習モデルが予測した前記未来の状態値に前記対象機器の状態値を近づけるように前記対象機器を制御する自動制御部をさらに備えていることとしてもよい。
本発明の態様5に係る学習装置は、前記態様4において、前記学習部が、前記自動制御部による制御の結果として前記蓄積部に蓄積された前記状態値および前記計測値の時系列データを少なくとも用いて、学習を行うこととしてもよい。
本発明の態様6に係る学習装置は、前記態様5において、前記自動制御部は、前記動作を完了させるまでに掛かった時間に基づいて、当該動作の結果として前記蓄積部に蓄積された前記状態値および前記計測値の時系列データを少なくとも用いた学習を前記学習部に行わせるか否かを判定することとしてもよい。
本発明の態様7に係る学習装置は、前記態様4〜6において、前記自動制御部は、前記状態値または前記計測値を取得してから前記対象機器を制御するまでに掛かった時間を測定し、当該時間に基づいて、前記蓄積部が、前記状態値または前記計測値を取得する間隔を調整することとしてもよい。
本発明の態様8に係る学習装置は、前記態様1〜7において、前記蓄積部は、さらに、前記対象機器の動作の目的物を撮像した撮像画像の特徴量を経時的に取得して蓄積し、前記第1の学習モデルには、さらに、前記撮像画像の特徴量が入力され、前記教師データは、さらに、前記蓄積部に蓄積された前記特徴量の時系列データを含むこととしてもよい。
本発明の態様9に係る学習装置は、前記態様8において、前記蓄積部は、さらに、前記撮像画像を蓄積し、前記学習部は、入力画像と出力画像とが一致するように深層学習される第2の学習モデルに、前記蓄積部に蓄積された前記撮像画像を学習させ、前記撮像画像の特徴量は、当該撮像画像が入力された前記第2の学習モデルから得られることとしてもよい。
本発明の態様10に係る学習装置は、前記態様8または9において、前記第1の学習モデルは、さらに、未来の撮像画像の特徴量を予測し、前記第1の学習モデルが予測した前記未来の撮像画像の特徴量から復元した前記未来の撮像画像と、前記目的物を撮像した撮像画像とを表示部に表示させる表示制御部をさらに備えていることとしてもよい。
本発明の態様11に係る学習装置は、前記態様1〜10において、複数次元のパラメータの時系列データを含み、次元毎に前記パラメータが正規化されていることとしてもよい。
本発明の態様12に係る学習装置は、前記態様1〜11において、前記第1の学習モデルが、RNNであることとしてもよい。
本発明の態様13に係る学習装置は、前記態様1〜12において、前記対象機器が、関節を有するマニピュレータであり、前記状態値が、前記関節の状態値であることとしてもよい。
本発明の態様14に係る学習方法は、動作中の対象機器の状態値および当該動作の計測値を経時的に取得して蓄積する蓄積工程と、動作中の対象機器の状態値および当該動作の計測値が少なくとも入力され、当該対象機器の未来の状態値を予測する第1の学習モデルに、教師データを学習させる学習工程と、を含み、前記教師データは、前記蓄積工程で蓄積された前記状態値および前記計測値の時系列データを含む。
本発明の態様15に係る自動制御装置は、動作中の対象機器の状態値および当該動作の計測値が少なくとも入力され、当該対象機器の未来の状態値を予測する第1の学習モデルと、少なくとも動作中の前記対象機器の状態値および当該動作の計測値を前記第1の学習モデルに入力し、前記第1の学習モデルが予測した前記未来の状態値に前記対象機器の状態値を近づけるように前記対象機器を制御する自動制御部と、を備え、前記第1の学習モデルは、過去の前記対象機器の前記状態値および前記計測値の時系列データを含む教師データを学習している。
本発明の態様16に係る自動制御方法は、動作中の対象機器の状態値および当該動作の計測値が少なくとも入力され、当該対象機器の未来の状態値を予測する第1の学習モデルに、少なくとも動作中の前記対象機器の状態値および当該動作の計測値を入力し、前記第1の学習モデルが予測した前記未来の状態値に前記対象機器の状態値を近づけるように前記対象機器を制御する自動制御工程を含み、前記第1の学習モデルは、過去の前記対象機器の前記状態値および前記計測値の時系列データを含む教師データを学習している。
本発明の各態様に係る学習装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記学習装置が備える各部(ソフトウェア要素)として動作させることにより上記学習装置をコンピュータにて実現させる学習装置の学習プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
1 学習システム
2 塩
10 マニピュレータ(対象機器)
11 関節
12 センサ
13 カメラ
14 計測装置
15 入力デバイス
16 ディスプレイ(表示部)
100 学習装置
101 第1の学習モデル
102 第2の学習モデル
103 蓄積部
104 取得部
105 学習部
106 手動制御部
107 自動制御部
108 表示制御部
200 現在の撮像画像
201 未来の撮像画像

Claims (20)

  1. 動作中の対象機器の状態値および当該動作の計測値を経時的に取得して蓄積する蓄積部と、
    動作中の対象機器の状態値および当該動作の計測値が少なくとも入力され、当該対象機器の未来の状態値を予測する第1の学習モデルに、教師データを学習させる学習部と、を備え、
    前記教師データは、前記蓄積部に蓄積された前記状態値および前記計測値の時系列データを含むことを特徴とする学習装置。
  2. 前記動作が完了したときの計測値である結果値を取得する取得部をさらに備え、
    前記第1の学習モデルの入力データは、前記対象機器の動作の目標値をさらに含み、
    前記教師データは、さらに、前記目標値に代えて、前記取得部が取得した前記結果値を含むことを特徴とする請求項1に記載の学習装置。
  3. 外部からの指示に応じて前記対象機器を制御する手動制御部をさらに備え、
    前記学習部は、前記手動制御部による制御の結果として前記蓄積部に蓄積された前記状態値および前記計測値の時系列データを少なくとも用いて学習を行うことを特徴とする請求項1または2に記載の学習装置。
  4. 動作中の前記対象機器の状態値および前記動作の計測値を前記第1の学習モデルに入力し、前記第1の学習モデルが予測した前記未来の状態値に前記対象機器の状態値を近づけるように前記対象機器を制御する自動制御部をさらに備えていることを特徴とする請求項1〜3のいずれか一項に記載の学習装置。
  5. 前記学習部は、前記自動制御部による制御の結果として前記蓄積部に蓄積された前記状態値および前記計測値の時系列データを少なくとも用いて、学習を行うことを特徴とする請求項4に記載の学習装置。
  6. 前記自動制御部は、前記動作を完了させるまでに掛かった時間に基づいて、当該動作の結果として前記蓄積部に蓄積された前記状態値および前記計測値の時系列データを少なくとも用いた学習を前記学習部に行わせるか否かを判定することを特徴とする請求項5に記載の学習装置。
  7. 前記自動制御部は、前記状態値または前記計測値を取得してから前記対象機器を制御するまでに掛かった時間を測定し、当該時間に基づいて、前記蓄積部が、前記状態値または前記計測値を取得する間隔を調整することを特徴とする請求項4〜6のいずれか一項に記載の学習装置。
  8. 前記蓄積部は、さらに、前記対象機器の動作の目的物を撮像した撮像画像の特徴量を経時的に取得して蓄積し、
    前記第1の学習モデルには、さらに、前記撮像画像の特徴量が入力され、
    前記教師データは、さらに、前記蓄積部に蓄積された前記特徴量の時系列データを含むことを特徴とする請求項1〜7のいずれか一項に記載の学習装置。
  9. 前記蓄積部は、さらに、前記撮像画像を蓄積し、
    前記学習部は、入力画像と出力画像とが一致するように深層学習される第2の学習モデルに、前記蓄積部に蓄積された前記撮像画像を学習させ、
    前記撮像画像の特徴量は、当該撮像画像が入力された前記第2の学習モデルから得られることを特徴とする請求項8に記載の学習装置。
  10. 前記第1の学習モデルは、さらに、未来の撮像画像の特徴量を予測し、
    前記第1の学習モデルが予測した前記未来の撮像画像の特徴量から復元した前記未来の撮像画像と、前記目的物を撮像した撮像画像とを表示部に表示させる表示制御部をさらに備えていることを特徴とする請求項8または9に記載の学習装置。
  11. 前記教師データは、複数次元のパラメータの時系列データを含み、次元毎に前記パラメータが正規化されていることを特徴とする請求項1〜10のいずれか一項に記載の学習装置。
  12. 前記第1の学習モデルは、RNNであることを特徴とする請求項1〜11のいずれか一項に記載の学習装置。
  13. 前記対象機器は、関節を有するマニピュレータであり、
    前記状態値は、前記関節の状態値を含むことを特徴とする請求項1〜12のいずれか一項に記載の学習装置。
  14. 動作中の対象機器の状態値および当該動作の計測値を経時的に取得して蓄積する蓄積工程と、
    動作中の対象機器の状態値および当該動作の計測値が少なくとも入力され、当該対象機器の未来の状態値を予測する第1の学習モデルに、教師データを学習させる学習工程と、を含み、
    前記教師データは、前記蓄積工程で蓄積された前記状態値および前記計測値の時系列データを含むことを特徴とする学習方法。
  15. 請求項1に記載の学習装置としてコンピュータを機能させるための学習プログラム。
  16. 請求項15に記載の学習プログラムを記録したコンピュータ読み取り可能な記録媒体。
  17. 動作中の対象機器の状態値および当該動作の計測値が少なくとも入力され、当該対象機器の未来の状態値を予測する第1の学習モデルと、
    少なくとも動作中の前記対象機器の状態値および当該動作の計測値を前記第1の学習モデルに入力し、前記第1の学習モデルが予測した前記未来の状態値に前記対象機器の状態値を近づけるように前記対象機器を制御する自動制御部と、を備え、
    前記第1の学習モデルは、過去の前記対象機器の前記状態値および前記計測値の時系列データを含む教師データを学習していることを特徴とする自動制御装置。
  18. 動作中の対象機器の状態値および当該動作の計測値が少なくとも入力され、当該対象機器の未来の状態値を予測する第1の学習モデルに、少なくとも動作中の前記対象機器の状態値および当該動作の計測値を入力し、前記第1の学習モデルが予測した前記未来の状態値に前記対象機器の状態値を近づけるように前記対象機器を制御する自動制御工程を含み、
    前記第1の学習モデルは、過去の前記対象機器の前記状態値および前記計測値の時系列データを含む教師データを学習していることを特徴とする自動制御方法。
  19. 請求項17に記載の自動制御装置としてコンピュータを機能させるための自動制御プログラム。
  20. 請求項19に記載の自動制御プログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2019098109A 2019-05-24 2019-05-24 学習装置、学習方法、学習プログラム、自動制御装置、自動制御方法および自動制御プログラム Active JP6811465B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019098109A JP6811465B2 (ja) 2019-05-24 2019-05-24 学習装置、学習方法、学習プログラム、自動制御装置、自動制御方法および自動制御プログラム
PCT/JP2020/014981 WO2020241037A1 (ja) 2019-05-24 2020-04-01 学習装置、学習方法、学習プログラム、自動制御装置、自動制御方法および自動制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019098109A JP6811465B2 (ja) 2019-05-24 2019-05-24 学習装置、学習方法、学習プログラム、自動制御装置、自動制御方法および自動制御プログラム

Publications (2)

Publication Number Publication Date
JP2020194242A true JP2020194242A (ja) 2020-12-03
JP6811465B2 JP6811465B2 (ja) 2021-01-13

Family

ID=73547509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019098109A Active JP6811465B2 (ja) 2019-05-24 2019-05-24 学習装置、学習方法、学習プログラム、自動制御装置、自動制御方法および自動制御プログラム

Country Status (2)

Country Link
JP (1) JP6811465B2 (ja)
WO (1) WO2020241037A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022145213A1 (ja) * 2020-12-28 2022-07-07 ソニーグループ株式会社 制御装置、制御システム及び制御方法
WO2022145150A1 (ja) * 2020-12-28 2022-07-07 ソニーグループ株式会社 制御システム及び制御方法
JP2023095698A (ja) * 2021-12-24 2023-07-06 知能技術株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
US20230271319A1 (en) * 2022-02-28 2023-08-31 Denso Wave Incorporated Method of generating a learning model for transferring fluid from one container to another by controlling robot arm based on a machine-learned learning model, and a method and system for weighing the fluid

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6955733B1 (ja) * 2021-02-17 2021-10-27 株式会社エクサウィザーズ 情報処理装置、情報処理方法、及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272305A (ja) * 1998-03-23 1999-10-08 Toshiba Corp プラント制御装置
JP2018100896A (ja) * 2016-12-20 2018-06-28 ヤフー株式会社 選択装置、選択方法及び選択プログラム
JP2018206286A (ja) * 2017-06-09 2018-12-27 川崎重工業株式会社 動作予測システム及び動作予測方法
JP2019032649A (ja) * 2017-08-07 2019-02-28 ファナック株式会社 制御装置及び機械学習装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272305A (ja) * 1998-03-23 1999-10-08 Toshiba Corp プラント制御装置
JP2018100896A (ja) * 2016-12-20 2018-06-28 ヤフー株式会社 選択装置、選択方法及び選択プログラム
JP2018206286A (ja) * 2017-06-09 2018-12-27 川崎重工業株式会社 動作予測システム及び動作予測方法
JP2019032649A (ja) * 2017-08-07 2019-02-28 ファナック株式会社 制御装置及び機械学習装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"エクサウィザーズと大成建設、力触覚伝達型遠隔操作システムとAIを連携", 株式会社エクサウィザーズ ニュースリリース [ONLINE], JPN6020033037, 20 February 2019 (2019-02-20), ISSN: 0004339711 *
"マルチモーダルAIロボットをGTC Japan 2018で展示します(前編)", エクサウィザーズ ENGINEER BLOG[ONLINE], JPN6020024175, 11 September 2018 (2018-09-11), ISSN: 0004300750 *
湯川鶴章: "マルチモーダルAIロボットは匠の技を再現できるか インターフェックス大阪で見た世界最先端", エクサコミュニティ[ONLINE], JPN6020024173, 4 March 2019 (2019-03-04), ISSN: 0004300749 *
鈴木彼方ほか: "深層学習を用いた多自由度ロボットによる柔軟物の折り畳み動作生成", 情報処理学会第78回(平成28年)全国大会講演論文集(2) 人工知能と認知科学, JPN6020024176, 10 March 2016 (2016-03-10), JP, pages 319 - 2, ISSN: 0004339710 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022145213A1 (ja) * 2020-12-28 2022-07-07 ソニーグループ株式会社 制御装置、制御システム及び制御方法
WO2022145150A1 (ja) * 2020-12-28 2022-07-07 ソニーグループ株式会社 制御システム及び制御方法
JP2023095698A (ja) * 2021-12-24 2023-07-06 知能技術株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
US20230271319A1 (en) * 2022-02-28 2023-08-31 Denso Wave Incorporated Method of generating a learning model for transferring fluid from one container to another by controlling robot arm based on a machine-learned learning model, and a method and system for weighing the fluid

Also Published As

Publication number Publication date
JP6811465B2 (ja) 2021-01-13
WO2020241037A1 (ja) 2020-12-03

Similar Documents

Publication Publication Date Title
JP6811465B2 (ja) 学習装置、学習方法、学習プログラム、自動制御装置、自動制御方法および自動制御プログラム
JP6810087B2 (ja) 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法
JP6676030B2 (ja) 把持システム、学習装置、把持方法、及び、モデルの製造方法
EP1864764B1 (en) Robot simulation apparatus
JP6680750B2 (ja) 制御装置及び機械学習装置
CN109397285B (zh) 一种装配方法、装配装置及装配设备
WO2011065034A1 (ja) ロボットの動作を制御する方法およびロボットシステム
JP2019166626A (ja) 制御装置及び機械学習装置
JP2018202550A (ja) 機械学習装置、機械学習方法、および機械学習プログラム
JP7458741B2 (ja) ロボット制御装置及びその制御方法及びプログラム
JP2019084601A (ja) 情報処理装置、把持システムおよび情報処理方法
CN112638596B (zh) 自主学习型机器人装置以及自主学习型机器人装置的动作生成方法
JP7128736B2 (ja) ロボット制御装置、ロボットシステム及びロボット制御方法
CN113412178B (zh) 机器人控制装置、机器人系统以及机器人控制方法
JP2022543926A (ja) ロボットシステムのためのデリバティブフリーモデル学習のシステムおよび設計
US20190009407A1 (en) Component supply device and machine learning device
JP2021501433A (ja) ターゲットシステム用制御システムの生成
Campbell et al. Learning whole-body human-robot haptic interaction in social contexts
JP2018122376A (ja) 画像処理装置、ロボット制御装置、及びロボット
US11059180B2 (en) Control device and machine learning device
CN114417738B (zh) 稀疏imu实时人体动作捕捉及关节受力预测方法及系统
CN114454176B (zh) 机器人的控制方法、控制装置、机器人和存储介质
JP7376318B2 (ja) アノテーション装置
Thompson et al. Identification of unknown object properties based on tactile motion sequence using 2-finger gripper robot
JP2021084188A (ja) 制御システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200107

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200107

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201207

R150 Certificate of patent or registration of utility model

Ref document number: 6811465

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250