JP2021030433A - ロボット制御装置 - Google Patents

ロボット制御装置 Download PDF

Info

Publication number
JP2021030433A
JP2021030433A JP2020124276A JP2020124276A JP2021030433A JP 2021030433 A JP2021030433 A JP 2021030433A JP 2020124276 A JP2020124276 A JP 2020124276A JP 2020124276 A JP2020124276 A JP 2020124276A JP 2021030433 A JP2021030433 A JP 2021030433A
Authority
JP
Japan
Prior art keywords
control
situation
motion
robot
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020124276A
Other languages
English (en)
Other versions
JP6792898B1 (ja
Inventor
神谷 保徳
Yasunori Kamiya
保徳 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daily Color Inc
Original Assignee
Daily Color Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2020124276A priority Critical patent/JP6792898B1/ja
Application filed by Daily Color Inc filed Critical Daily Color Inc
Priority to DE112020004135.2T priority patent/DE112020004135T5/de
Priority to EP20859507.4A priority patent/EP3998140A4/en
Priority to CN202080058088.6A priority patent/CN114269524B/zh
Priority to PCT/JP2020/032686 priority patent/WO2021039995A1/ja
Priority to GB2200845.2A priority patent/GB2600843B/en
Application granted granted Critical
Publication of JP6792898B1 publication Critical patent/JP6792898B1/ja
Publication of JP2021030433A publication Critical patent/JP2021030433A/ja
Priority to US17/674,467 priority patent/US11511414B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

【課題】幅広い環境、状況に応じた柔軟な制御を実現しつつ、各環境・状況に応じた動作の制御を、それぞれ個別に管理、修正できるようにする。【解決手段】動作を実行する各制御ルーチン(以降、動作制御、と呼ぶ)が動作目的を達成する制御が可能な環境・状況の範囲を、機械学習モデルで記述、モデル出力(例えば範囲内か否か)により、現在の状況における適切な動作制御を選択、実行する。【選択図】図1

Description

本発明は、何らかのセンサを持ち、センサにより周囲の物体をセンシングし、他の物体(「環境」とも言える物体も含む。例、壁、床)とのインタラクションを伴うロボットの制御に関する。本発明はまた、ロボットの動作制御の管理、評価検証、改善のための制御プログラムの構成に関する。
他の物体とのインタラクションを伴う動作を、環境やタスクが固定されない自由度のある環境(オープンな環境)で行うロボット(例、自律制御された家事ロボット、介護ロボット、など)は置かれた環境・状況に応じて柔軟に動作する必要がある。また、行うべき動作もタスクに応じて様々である。
一見似ているが、工場内作業場内のロボットアームは、単一の物体を対象に単一のパス(経路)を移動するのみでよく(環境・状況・タスクが固定されている)、ロボットに求められる要件は異なる。また、実用化を考えた際、評価検証、改善といった面が出てくる。
動作の例として、様々な場所に置かれた物体を、別の様々な場所に移動させる、ものを横から掴み、掴んだまま移動し、別の場所に置く、掴んだ後、向きを変える、ものが持っている穴に備え付けの棒を通す、掴んだものを、ものとものの隙間に差し込む、ものを積み上げる、などがある。
また、動作を実行する環境・状況の例として、物体が置かれる様々な場所、周囲にどの様な物体が存在しているか、物体が別の物体に物理的に干渉しているか、などがある。
周囲の物体を考慮する例として、周囲の物体の存在(どの空間を物体が占めているか)を確認し、ロボットが物理的に干渉するかどうかを確認するシステムが提案されている(例えば特許文献1参照)。
また、センサ情報を機械学習モデルに入力し、機械学習モデルの出力によって対象機器を制御し、柔軟な制御を実現するシステムが提案されている(例えば特許文献2参照)。
特開2005−81445号公報 特開2017−64910号公報
前述した特許文献1に開示される従来のシステムは、周囲の物体がその空間を占めるかどうかを判断し他の物体が存在しない領域で動作を行う。そのため、例えば、他の物体を押しのけて物体をその場所に置くといった、物理的相互作用を伴う動作や、物体の種類に応じた動作の変更などは考慮されておらず、そのような動作が含まれる制御への対応はできない。
また、特許文献2に開示されているシステムは、機械学習モデルを用いた制御により、幅広い状況において柔軟な制御が可能ではあるが、個別の状況ごとの、動作制御の、管理、評価検証、修正などは困難である。
また、上記従来の技術では、ある状況における動作ミスに関しての動作制御の修正において、その修正による別の状況における動作制御の動作への影響については考慮されていない。修正によって、別の状況における動作制御の動作に影響が出る可能性がある。もともと動作が成立していた状況(目的を達成する動作を実現できていた状況)において、その修正によって動作が変更し、動作が成立しなくなる可能性がある。そのため、再度全ての状況で、動作が成立するかどうか、評価検証を行わないといけなくなる。
本発明の目的は、幅広い環境、状況に応じた柔軟な制御を実現しつつ、各状況に応じた動作の制御を、それぞれ個別に管理、修正できるロボット制御装置を提供することにある。
上記目的を達成するために、請求項1に記載の発明は、周囲の物体また対象のロボット自身、の物理構造・形状を含む物理特性、時間で変化可能な特性の現在の状態(位置、姿勢、や、温度)、それらの相対関係、組み合わせ、の情報(状況情報)のうち、任意の状況情報を入力とし、与えられた動作制御の、入力した状況における動作成立の有無か度合い(2値もしくは連続値もしくは多次元ベクトル値)を示す出力値を出力する機械学習モデルと、動作目的及び状況情報が入力されると、前記機械学習モデルに対して、前記状況情報を与えることで、前記動作目的に対応する動作制御のそれぞれに対する前記出力値を取得し、取得した前記出力値に基づいて前記動作目的に対応する動作制御の中から実行すべき動作制御を選択する動作制御選択部と、前記動作制御選択部が選択した前記動作制御を実行する動作制御実行部とを、具備し、前記動作制御とは、センサにより周囲の物体をセンシングし、他の物体とのインタラクションを伴って、動作目的を達成するための制御ルーチンであることを特徴とする。
ここで、本願発明は、動作目的ごとに、当該動作目的に対応する動作制御の個数分存在し、周囲の物体また対象のロボット自身、の物理構造・形状を含む物理特性、時間で変化可能な特性の現在の状態(位置、姿勢、や、温度)、それらの相対関係、組み合わせ、の情報(状況情報)のうち、任意の状況情報を入力とし、与えられた動作制御の、入力した状況における動作成立の有無か度合い(2値もしくは連続値もしくは多次元ベクトル値)を示す出力値を出力する機械学習モデルと、動作目的及び状況情報が入力されると、前記動作目的に対応する動作制御の個数分の前記機械学習モデルに対して、前記状況情報を与えることで、前記動作目的に対応する動作制御のそれぞれに対する前記出力値を取得し、取得した前記出力値に基づいて前記動作目的に対応する動作制御の中から実行すべき動作制御を選択する動作制御選択部と、前記動作制御選択部が選択した前記動作制御を実行する動作制御実行部とを、具備し、前記動作制御とは、センサにより周囲の物体をセンシングし、他の物体とのインタラクションを伴って、動作目的を達成するための制御ルーチンであることを特徴としてもよい。
請求項1の別態様の発明は、前記機械学習モデルは、与えられた動作制御ごとに、個別にそれぞれ構築されるか、単一モデルの構成であっても、学習対象の動作制御以外の動作制御における前記出力値の出力に影響を与えない方法で、対象の動作制御のモデルの学習が可能なモデルを用いて、そのような学習を行うことを特徴としてもよい。
請求項2に記載の発明は、前記状況情報には、少なくとも、物体の位置(絶対位置、相対位置)、姿勢、形状、種類のいずれかが含まれることを特徴とする。
請求項3に記載の発明は、動作制御の設計仕様値、実機での動作結果、人の経験則、又は、物理シミュレータ内での動作結果から生成する、状況データ−成立可否データペアを、前記機械学習モデルの学習データとして生成する学習データ生成部をさらに備えることを特徴とする。
請求項4に記載の発明は、前記学習データ生成部は、前記物理シミュレータを用いて生成する場合、動作制御に加え、その動作制御においてどういう状態がその動作制御における動作成立である状態かを定義する条件を与え、物理シミュレータ内で環境(状況情報)を様々変化させ与えられた動作制御を実行し、動作成立するかどうかをテストし、その結果を、前記状況データ−成立可否データペアとして生成することを特徴とする。
請求項5に記載の発明は、前記物理シミュレータで動作成立をテストする際に、与えた動作制御が動作成立する環境(状況情報)を、少なくとも1つは与え、その点を起点として、テストする環境(状況情報)の走査を行うことを特徴とする。
本発明により、幅広い環境、状況に応じた柔軟な制御を実現しつつ、各状況に応じた動作の制御を、それぞれ個別に管理、修正できるロボット制御装置が提供される。
より詳しくは、請求項1に記載の発明によれば、動作制御の動作が成立する状況を柔軟に判断して、適切に動作実行することができる。言い換えるならば、多種多様で多量な情報による高次元で非常に複雑な、人がイメージすることや、人手で記述する事が困難な、動作制御の動作が成立する状況の範囲の境界も、機械学習モデルを用いることで、容易に記述可能になる。
請求項1の別態様の発明によれば、状況判断を行う機械学習モデルにおいて、新規の動作制御に関する状況判断の追加や既存の動作制御に関する状況判断の修正が、他の動作制御の状況判断への影響なく行うことができる。
請求項2に記載の発明によれば、請求項1に記載の発明と同等の作用効果が奏される。
請求項3に記載の発明によれば、請求項1に記載の発明と同等の作用効果が奏される。
請求項4に記載の発明によれば、自動で、状況判断のモデルの構築や修正(学習や再学習)ができる。
請求項5に記載の発明によれば、自動で、状況判断のモデルの構築や修正(学習や再学習)を行う際、与えられた状況情報を、テストする状況を走査する際の起点とすることで、成立する状況の範囲のテストを効率的に行うことができる。
図1は、本発明の基本概念を説明する図である。 図2は、本発明の基本概念の詳細を示す図である。 図3は、実施の形態に係るロボット制御装置の構成を示すブロック図である。 図4は、実施の形態に係るロボット制御装置による事前処理を説明する図である。 図5は、実施の形態に係るロボット制御装置の動作(動作制御)を説明する図である。 図6は、実施の形態に係るロボット制御装置のメンテナンス/評価検証時の処理を説明する図である。 図7は、実施の形態に係るロボット制御装置が備える機械学習モデルの具体例を示す図である。
以下、本発明の実施の形態について、図面を用いて詳細に説明する。
図1は、本発明の基本概念を説明する図である。ここでは、対象物体をロボットアームで処理する際の「環境・状況の範囲」が例示されている。本図において、「NG」は、ロボットアームによる動作が不可能な「環境・状況の範囲」を例示している。
本図に示されるように、本発明は、「失敗しない、動作可能な環境・状況の範囲」という概念を用いる。つまり、動作目的および動作制御ごとに、「失敗しない、動作可能な環境・状況の範囲」を自動算出し、また各動作制御を個別に管理する。
ここで、環境・状況とは、対象物体やその周囲の物体の種類、置かれ方を意味する。様々な物体の種類、位置関係、状況からなるため、概念的に多次元な空間となる。また、動作によっては、ロボット自身の形状や姿勢も、環境・状況、に含まれる。また、複数のロボットの協調動作を考えた場合、それぞれのロボットの位置関係・姿勢関係も、環境・状況、に含まれる。
なお、本実施の形態では、ロボットアームを例として説明するが、本発明は、ロボットの形状および構造に寄らず、あらゆる種類のロボットに適用可能である。
図2は、本発明の基本概念の詳細を示す図である。本図に示されるように、本発明では、動作目的ごとに複数の動作制御を組み合わせることで動作目的を実現する。各動作制御は、個別に管理され、独立している。
図2の(a)は、動作目的A(例えば、ものを移動)についての環境・状況の概念空間を例示している。この例では、動作可能な環境・状況範囲A1では、動作制御A1が可能である。動作可能な環境・状況範囲A2では、動作制御A2が可能である。動作可能な環境・状況範囲A3では、動作制御A3が可能である。
図2の(b)は、動作目的B(例えば、ものの姿勢を変更)についての環境・状況の概念空間を例示している。この例では、動作可能な環境・状況範囲B1では、動作制御B1が可能である。動作可能な環境・状況範囲B2では、動作制御B2が可能である。動作可能な環境・状況範囲B3では、動作制御B3が可能である。
本発明では、図2に示されるように、失敗しない範囲を考慮して一つ以上の動作制御を組み合わせることで、一つの動作目的を実現する。
図3は、実施の形態に係るロボット制御装置10の構成を示すブロック図である。ロボット制御装置10は、目的動作入力部12、現在の状況の検知部14、動作制御選択部16、動作制御実行部18、各目的動作の動作制御の動作可能状況範囲を記述したML(機械学習)モデル20、動作制御の集合22、目的動作・動作制御の設計仕様値・実機動作値・経験則・動作制御・成立判断基準・動作基本状況等の各種情報入力部24、状況データ・成立可否データペアの生成部26、動作の物理シミュレーション部28、および、動作可能状況の範囲の確認部30で構成される。ロボット制御装置10は、動作制御ごとの動作可能状況範囲を記述したモデル(MLモデル20)を持ち、そのモデルを学習するデータサンプルを、動作制御の設計仕様値、実機動作値、経験則や物理シミュレータ(動作の物理シミュレーション部28)などから得る。この処理を、動作制御の内容によらず、自動で行う。
なお、MLモデル20は、各種情報入力部24で与える動作制御における制御用に、機械学習モデルを使っていた場合、その中に、統合する形としても良い。例えば、動作制御用の機械学習モデルの入力の種類と、MLモデル20の入力の種類が共通で、動作制御用の出力とは別に、成立可否用の出力が設けてある形の、1つの機械学習モデルへの統合などである。
また、動作制御ごとの個別の機械学習モデルの場合、各機械学習モデルの入力や出力はそれぞれ同一の形式でなくてもよい。
また、動作制御ごとの個別の機械学習モデルではなく、単一モデルの構成における、動作の追加や修正における、モデル出力の対応に関して、次の2つのことがいえる。
(1)「モデル構成は固定で出力値のみ変更する形で、動作制御の追加や状況範囲の修正の対応を行うモデルで、学習対象の動作制御以外の動作制御に関する出力値に影響を与えないか少ししか影響を与えない方法で、対象の動作制御に関するモデルの学習が可能なモデルを用いる」場合、モデルの出力は、例えば、多次元ベクトルとなっており、動作制御の追加は、新しいパターンの出力値を出力させる形に学習を行う。
(2)「モデル構成の変更拡張と出力値の変更による形で、動作制御の追加や状況範囲の修正の対応を行うモデルで、学習対象の動作制御以外の動作制御に関する出力値に影響を与えないか少ししか影響を与えない方法で、対象の動作制御に関するモデルの学習が可能なモデルを用いる」場合、例えば、モデル構成として新たな動作制御用の出力算出部を追加するなど、出力値の算出構造を変化させたりして、新しい動作制御追加を行う。
なお、以下では、説明の簡単化のため、動作制御ごとの個別の機械学習モデルを想定して述べる。
図4は、実施の形態に係るロボット制御装置10による事前処理を説明する図である。ここでは、図3に示されるブロック図のうち、事前処理に関連するブロックだけが示されている。
使用する動作制御における、MLモデル20の学習のため、状況データ・成立可否データペアの生成部26において、学習用のデータである、状況データ・成立可否データペアが多量に生成される。生成は、その動作制御の設計仕様値や実機での動作値、動作制御作成者の経験則などから、どの様な状況において動作が成立するか否かを表す、状況データ−成立可否データペアを様々な状況において生成するか、動作制御および動作が成立したかどうかの判断基準、また、動作させる際の基本的な(代表的な)状況を、動作の物理シミュレーション部28に入れ、動作制御を様々な状況において動作させた結果を基に生成する。
図5は、実施の形態に係るロボット制御装置10の動作(動作制御)を説明する図である。ここでは、図3に示されるブロック図のうち、ロボット制御装置10の動作(動作制御)に関連するブロックだけが示されている。
動作制御選択部16は、目的動作入力部12から入力された目的動作に対応する、状況範囲の抽象モデル(目的動作に対応する動作制御の個数分存在するMLモデル20)に、現在の状況の検知部14から得られた、現在の状況データを入れ、各MLモデル20の出力を確認する(MLモデル20からは、対応する動作制御が可能か否かの推論値が出力される)。
動作制御選択部16は、MLモデル20の出力値から、現在の状況では、どの動作制御だと動作可能かを判断(なお、複数の動作制御が動作可能という場合も存在する。範囲の重複時)し、動作制御の集合22から、動作制御を選択する。そして、動作制御実行部18は、選択された動作制御を実行する。つまり、今の状況を、MLモデル20に入れ、失敗しないかどうかを推論させ、失敗しないと出た動作制御を採用し実行する。
図6は、実施の形態に係るロボット制御装置10のメンテナンス/評価検証時の処理を説明する図である。ここでは、図3に示されるブロック図のうち、メンテナンス/評価検証に関連するブロックだけが示されている。
動作可能状況の範囲の確認部30は、各動作制御のMLモデル20(事前処理において学習済み)を調べ、ある目的動作ある状況において、どの様な動作制御が対応付けられているか、また、どんな動作制御も対応付けられていないかを、調べ、必要ならば新たに動作制御を作成し、「事前処理」の手順にて対応付けを行う。
また、ある目的動作ある状況における動作制御を改善したい場合、動作可能状況の範囲の確認部30は、その状況に対応付けられている、動作制御を判定し(調べ)、その動作制御に対し、修正を行う。動作制御は、可能状況範囲に応じて完全に分離されている(つまり各動作制御は独立)ため、修正は、他の動作制御には影響を与えない。
このように、ある状況で適切に動作するか否か確認する場合には(チェック1)、動作可能状況の範囲の確認部30により、MLモデル20の出力の確認で可能である。また、ある状況での制御を改善したい場合には(チェック2)、動作可能状況の範囲の確認部30により、MLモデル20を見て、対応づいている動作制御を修正すればよい。
図7は、実施の形態に係るロボット制御装置10が備えるMLモデル20の具体例を示す図である。本実施の形態では、MLモデル20は、Three Dimensional Convolutional Neural Networkと呼ばれるDNN(Deep Neural Network)が用いられる。DNNは、空間中の各位置における物体の有無、物体の種類などを入力とし、動作可能かどうか(OK/NG)を出力する。
以上のように、本実施の形態に係るロボット制御装置10は、ロボット制御を実現するための以下の4つの必要要件1〜4をすべて満たしている。
・必要要件1:幅広い環境、状況に合わせた柔軟な制御が可能であること。
これについては、本実施の形態に係るロボット制御装置10によれば、複数の動作制御を組み合わせられ、また制御手法の種類に制約は無いため、可能である。
・必要要件2:物理的な現象を考慮(対象物体の他物体への干渉。例、押す、摩擦、沿わせる、重心バランス、など)した制御が可能であること。
これについては、本実施の形態に係るロボット制御装置10によれば、物理シミュレーションにより判定させるので可能である。
・必要要件3:動作を実行する各制御ルーチン(以降、動作制御、と呼ぶ)が成立する(つまり、目的を達成するように動作する)環境・状況の範囲の明確化が可能であること。
これについては、本実施の形態に係るロボット制御装置10によれば、動作可能状況範囲をモデル化するため可能である。
・必要要件4:それぞれの動作制御を個別にチューニング可能であること。
これについては、本実施の形態に係るロボット制御装置10によれば、可能状況範囲ごとに個別に動作制御を扱うため、可能である。
本発明は、ロボット制御装置として、特に、幅広い環境、状況に応じた柔軟な制御を実現しつつ、各状況に応じた動作の制御を、それぞれ個別に管理、修正できるロボット制御装置として、利用できる。
10 ロボット制御装置
12 目的動作入力部
14 現在の状況の検知部
16 動作制御選択部
18 動作制御実行部
20 ML(機械学習)モデル
22 動作制御の集合
24 各種情報入力部
26 状況データ・成立可否データペアの生成部
28 動作の物理シミュレーション部
30 動作可能状況の範囲の確認部

Claims (5)

  1. 周囲の物体また対象のロボット自身、の物理構造・形状を含む物理特性、時間で変化可能な特性の現在の状態(位置、姿勢、や、温度)、それらの相対関係、組み合わせ、の情報(状況情報)のうち、任意の状況情報を入力とし、与えられた動作制御の、入力した状況における動作成立の有無か度合い(2値もしくは連続値もしくは多次元ベクトル値)を示す出力値を出力する機械学習モデルと、
    動作目的及び状況情報が入力されると、前記機械学習モデルに対して、前記状況情報を与えることで、前記動作目的に対応する動作制御のそれぞれに対する前記出力値を取得し、取得した前記出力値に基づいて前記動作目的に対応する動作制御の中から実行すべき動作制御を選択する動作制御選択部と、
    前記動作制御選択部が選択した前記動作制御を実行する動作制御実行部とを、具備し、
    前記動作制御とは、センサにより周囲の物体をセンシングし、他の物体とのインタラクションを伴って、動作目的を達成するための制御ルーチンである
    ことを特徴とする、ロボット制御装置。
  2. 前記状況情報には、少なくとも、物体の位置(絶対位置、相対位置)、姿勢、形状、種類のいずれかが含まれる、請求項1記載のロボット制御装置。
  3. 動作制御の設計仕様値、実機での動作結果、人の経験則、又は、物理シミュレータ内での動作結果から生成する、状況データ−成立可否データペアを、前記機械学習モデルの学習データとして生成する学習データ生成部をさらに備える、請求項1または2記載のロボット制御装置。
  4. 前記学習データ生成部は、前記物理シミュレータを用いて生成する場合、動作制御に加え、その動作制御においてどういう状態がその動作制御における動作成立である状態かを定義する条件を与え、物理シミュレータ内で環境(状況情報)を様々変化させ与えられた動作制御を実行し、動作成立するかどうかをテストし、その結果を、前記状況データ−成立可否データペアとして生成する、請求項3記載のロボット制御装置。
  5. 前記物理シミュレータで動作成立をテストする際に、与えた動作制御が動作成立する環境(状況情報)を、少なくとも1つは与え、その点を起点として、テストする環境(状況情報)の走査を行う請求項4記載のロボット制御装置。
JP2020124276A 2019-08-28 2020-07-21 ロボット制御装置 Active JP6792898B1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2020124276A JP6792898B1 (ja) 2020-07-21 2020-07-21 ロボット制御装置
EP20859507.4A EP3998140A4 (en) 2019-08-28 2020-08-28 ROBOT CONTROL DEVICE
CN202080058088.6A CN114269524B (zh) 2019-08-28 2020-08-28 机器人控制装置
PCT/JP2020/032686 WO2021039995A1 (ja) 2019-08-28 2020-08-28 ロボット制御装置
DE112020004135.2T DE112020004135T5 (de) 2019-08-28 2020-08-28 Robotersteuerungsvorrichtung
GB2200845.2A GB2600843B (en) 2019-08-28 2020-08-28 Robot control device
US17/674,467 US11511414B2 (en) 2019-08-28 2022-02-17 Robot control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020124276A JP6792898B1 (ja) 2020-07-21 2020-07-21 ロボット制御装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019155446A Division JP6742040B1 (ja) 2019-08-28 2019-08-28 ロボット制御装置

Publications (2)

Publication Number Publication Date
JP6792898B1 JP6792898B1 (ja) 2020-12-02
JP2021030433A true JP2021030433A (ja) 2021-03-01

Family

ID=73544646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020124276A Active JP6792898B1 (ja) 2019-08-28 2020-07-21 ロボット制御装置

Country Status (1)

Country Link
JP (1) JP6792898B1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005199403A (ja) * 2004-01-16 2005-07-28 Sony Corp 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置
JP2006285898A (ja) * 2005-04-05 2006-10-19 Sony Corp 制御装置および方法、並びにプログラム
JP2010179454A (ja) * 2009-02-06 2010-08-19 Honda Research Inst Europe Gmbh ロボット装置におけるスキーマの学習と使用
US20110035053A1 (en) * 2009-08-10 2011-02-10 Samsung Electronics Co., Ltd. Path planning apparatus and method of Robot
WO2018017612A1 (en) * 2016-07-18 2018-01-25 Lael Odhner Training robotic manipulators
JP2018190241A (ja) * 2017-05-09 2018-11-29 オムロン株式会社 タスク実行システム、タスク実行方法、並びにその学習装置及び学習方法
JP2019503875A (ja) * 2015-12-16 2019-02-14 エムビーエル リミテッド ロボットと、ストレージ配置と、そのための容器とを含むロボットキッチン
US20190084151A1 (en) * 2017-09-15 2019-03-21 X Development Llc Machine learning methods and apparatus for robotic manipulation and that utilize multi-task domain adaptation

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005199403A (ja) * 2004-01-16 2005-07-28 Sony Corp 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置
JP2006285898A (ja) * 2005-04-05 2006-10-19 Sony Corp 制御装置および方法、並びにプログラム
JP2010179454A (ja) * 2009-02-06 2010-08-19 Honda Research Inst Europe Gmbh ロボット装置におけるスキーマの学習と使用
US20110035053A1 (en) * 2009-08-10 2011-02-10 Samsung Electronics Co., Ltd. Path planning apparatus and method of Robot
JP2019503875A (ja) * 2015-12-16 2019-02-14 エムビーエル リミテッド ロボットと、ストレージ配置と、そのための容器とを含むロボットキッチン
WO2018017612A1 (en) * 2016-07-18 2018-01-25 Lael Odhner Training robotic manipulators
JP2018190241A (ja) * 2017-05-09 2018-11-29 オムロン株式会社 タスク実行システム、タスク実行方法、並びにその学習装置及び学習方法
US20190084151A1 (en) * 2017-09-15 2019-03-21 X Development Llc Machine learning methods and apparatus for robotic manipulation and that utilize multi-task domain adaptation

Also Published As

Publication number Publication date
JP6792898B1 (ja) 2020-12-02

Similar Documents

Publication Publication Date Title
WO2021039995A1 (ja) ロボット制御装置
Catterall et al. Self-organization in ad hoc sensor networks: An empirical study
Villarreal-Cervantes et al. Off-line PID control tuning for a planar parallel robot using DE variants
WO2019131527A1 (ja) 汎用学習済モデルの生成方法
Rahimi et al. Neural impedance adaption for assistive human–robot interaction
Mayr et al. Skill-based multi-objective reinforcement learning of industrial robot tasks with planning and knowledge integration
WO2019172101A1 (ja) 情報処理装置、情報処理方法、及びプログラム
Sanfilippo et al. A universal control architecture for maritime cranes and robots using genetic algorithms as a possible mapping approach
JP6792898B1 (ja) ロボット制御装置
KR102346900B1 (ko) 픽 앤 플레이스 시스템을 위한 심층 강화학습 장치 및 방법
Kozek Transfer Learning algorithm in image analysis with Augmented Reality headset for Industry 4.0 technology
JP6742040B1 (ja) ロボット制御装置
Sanfilippo et al. A mapping approach for controlling different maritime cranes and robots using ANN
Mather et al. Synthesis and analysis of distributed ensemble control strategies for allocation to multiple tasks
Klingbeil et al. Experimental analysis of human control strategies in contact manipulation tasks
Krupitzer et al. Using spreadsheet-defined rules for reasoning in self-adaptive systems
Tantau et al. Structure and parameter identification of process models with hard non-linearities for industrial drive trains by means of degenerate genetic programming
US20210122038A1 (en) Method and device for ascertaining control parameters in a computer-assisted manner for a favorable action of a technical system
Santo et al. Collaborative control of mobile manipulator robots through the hardware-in-the-loop technique
JP2013163247A (ja) ロボットシステム、ロボット、ロボット制御装置およびロボット制御方法
Ma et al. Shape control of elastic objects based on implicit sensorimotor models and data-driven geometric features
WO2023068351A1 (ja) ロボットデータ処理サーバ及び軌跡データ算出方法
KR101956504B1 (ko) 로봇 시뮬레이터를 제공하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
Ismail Intelligent model-based control of complex multi-link mechanisms
Ribeiro Modeling and Realistic Simulation of a Dexterous Robotic Manipulator

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200721

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200721

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201030

R150 Certificate of patent or registration of utility model

Ref document number: 6792898

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250