JP7480670B2 - 動作計画装置、動作計画方法、及び動作計画プログラム - Google Patents
動作計画装置、動作計画方法、及び動作計画プログラム Download PDFInfo
- Publication number
- JP7480670B2 JP7480670B2 JP2020175670A JP2020175670A JP7480670B2 JP 7480670 B2 JP7480670 B2 JP 7480670B2 JP 2020175670 A JP2020175670 A JP 2020175670A JP 2020175670 A JP2020175670 A JP 2020175670A JP 7480670 B2 JP7480670 B2 JP 7480670B2
- Authority
- JP
- Japan
- Prior art keywords
- abstract
- motion
- action
- sequence
- planner
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 title claims description 404
- 238000000034 method Methods 0.000 title claims description 82
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 230000009471 action Effects 0.000 claims description 347
- 238000012545 processing Methods 0.000 claims description 70
- 230000006399 behavior Effects 0.000 claims description 68
- 238000012549 training Methods 0.000 claims description 54
- 238000010801 machine learning Methods 0.000 claims description 40
- 230000008859 change Effects 0.000 claims description 14
- 230000004044 response Effects 0.000 claims description 8
- 230000000704 physical effect Effects 0.000 claims description 7
- 230000008569 process Effects 0.000 description 48
- 230000000875 corresponding effect Effects 0.000 description 34
- 210000002569 neuron Anatomy 0.000 description 19
- 238000011156 evaluation Methods 0.000 description 17
- 238000004364 calculation method Methods 0.000 description 14
- 238000013528 artificial neural network Methods 0.000 description 12
- 230000007704 transition Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000010365 information processing Effects 0.000 description 6
- 230000001276 controlling effect Effects 0.000 description 5
- 230000010391 action planning Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 4
- 239000012636 effector Substances 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000011960 computer-aided design Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000008707 rearrangement Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39298—Trajectory learning
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Description
図1は、本発明を適用した場面の一例を模式的に例示する。本実施形態に係る動作計画装置1は、ロボット装置Rにタスクを遂行させるための動作計画を生成するように構成されたコンピュータである。
[ハードウェア構成]
図2は、本実施形態に係る動作計画装置1のハードウェア構成の一例を模式的に例示する。図2に示されるとおり、本実施形態に係る動作計画装置1は、制御部11、記憶部12、外部インタフェース13、入力装置14、出力装置15、及びドライブ16が電気的に接続されたコンピュータである。なお、図2では、外部インタフェースを「外部I/F」と記載している。
図3は、本実施形態に係る動作計画装置1のソフトウェア構成の一例を模式的に例示する。動作計画装置1の制御部11は、記憶部12に記憶された動作計画プログラム81をRAMに展開する。そして、制御部11は、RAMに展開された動作計画プログラム81に含まれる命令をCPUにより解釈及び実行して、各構成要素を制御する。これにより、本実施形態に係る動作計画装置1は、情報取得部111、行動生成部112、動作生成部113、出力部114、データ取得部115、学習処理部116、及びインタフェース処理部117をソフトウェアモジュールとして備えるコンピュータとして動作する。すなわち、本実施形態では、動作計画装置1の各ソフトウェアモジュールは、制御部11(CPU)により実現される。
コスト推定モデル4は、機械学習により調整可能な演算パラメータを有する機械学習モデルにより適宜構成されてよい。機械学習モデルの構成及び種類はそれぞれ、実施の形態に応じて適宜選択されてよい。
動作計画装置1の各ソフトウェアモジュールに関しては後述する動作例で詳細に説明する。なお、本実施形態では、動作計画装置1の各ソフトウェアモジュールがいずれも汎用のCPUによって実現される例について説明している。しかしながら、上記ソフトウェアモジュールの一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。上記各モジュールは、ハードウェアモジュールとして実現されてもよい。また、動作計画装置1のソフトウェア構成に関して、実施形態に応じて、適宜、ソフトウェアモジュールの省略、置換及び追加が行われてもよい。
(1)動作計画
図5は、本実施形態に係る動作計画装置1による動作計画に関する処理手順の一例を示すフローチャートである。以下で説明する動作計画に関する処理手順は、動作計画方法の一例である。ただし、以下で説明する動作計画に関する処理手順は一例に過ぎず、各ステップは可能な限り変更されてよい。また、以下の動作計画に関する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が行われてよい。
ステップS101では、制御部11は、情報取得部111として動作し、ロボット装置Rに与えるタスクの開始状態及び目標状態に関する情報を含むタスク情報121を取得する。
ステップS102では、制御部11は、行動生成部112として動作し、タスク情報121を参照すると共に、シンボリックプランナ3を使用して、開始状態から目標状態に到達するように抽象的な行動のプランニングを行う。これにより、制御部11は、タスク情報121に基づいて、開始状態から目標状態に到達するように実行順に並べられた1つ以上の抽象的な行動を含む抽象的行動系列を生成する。
図5に基づいて、ステップS103では、制御部11は、インタフェース処理部117として動作し、シンボリックプランナ3を使用して生成された抽象的行動系列に含まれる抽象的な行動の一覧をユーザに対して出力する。そして、ステップS104では、制御部11は、出力された抽象的な行動の一覧に対する当該ユーザのフィードバックを受け付ける。一覧の出力先、出力形式、及びフィードバックの形式は、実施の形態に応じて適宜選択されてよい。
図5に戻り、ステップS105では、制御部11は、ステップS104におけるユーザのフィードバックに応じて、処理の分岐先を決定する。ユーザのフィードバックにおいて、抽象的行動系列を再計画することが選択された(例えば、上記第1ボタン153が操作された)場合、制御部11は、ステップS102まで処理を戻して、ステップS102から処理を再度実行する。これにより、制御部11は、抽象的行動系列を再計画する。なお、シンボリックプランナ3は、再計画の際に、例えば、異なる抽象的な行動を採用する等の方法により、再計画前に生成された抽象的行動系列と少なくとも部分的に異なる抽象的行動系列を生成するように適宜構成されてよい。一方、ユーザのフィードバックにおいて、抽象的行動系列を再計画することが選択されなかった場合、制御部11は、次のステップS106に処理を進める。
ステップS106では、制御部11は、動作生成部113として動作し、抽象的行動系列に含まれる抽象的な行動のうち、対応する動作系列が生成されておらず、かつ実行順序の最も早い抽象的な行動を特定する。そして、制御部11は、モーションプランナ5を使用して、特定された対象の抽象的な行動を動作系列に変換する。動作系列は、対象の抽象的な行動を達成可能に1つ以上の物理的な動作を含むよう適宜構成されてよい。ステップS107では、制御部11は、生成された動作系列がロボット装置Rにより実環境において物理的に実行可能か否かを判定する。
図5に戻り、ステップS108では、制御部11は、ステップS107の判定結果に応じて、処理の分岐先を決定する。生成された動作系列が物理的に実行不能である(複数の候補が存在する場合には、全ての候補が実行不能である)と判定された場合、制御部11は、物理的に実行不能と判定された動作系列に対応する抽象的な行動以降の抽象的行動系列を破棄する。そして、制御部11は、ステップS102まで処理を戻して、ステップS102から処理を再度実行する。これにより、制御部11は、物理的に実行不能と判定された動作系列に対応する抽象的な行動以降について新たな抽象的行動系列を生成する。すなわち、動作層にて実行可能な動作系列が得られない場合、制御部11は、抽象層に戻って抽象的行動系列を再計画する。なお、実行不能と判定された動作系列に対応する対象の抽象的な行動を含んでいれば、破棄する範囲は、対象の抽象的な行動以降のみに限られなくてよい。他の一例として、制御部11は、対象の抽象的な行動よりも実行順が前の抽象的な行動まで遡って破棄し、ステップS102から処理を再度実行することで、破棄した範囲について新たな抽象的行動系列を生成してもよい。一方、生成された動作系列が物理的に実行可能であると判定された場合、制御部11は、次のステップS109に処理を進める。
ステップS109では、制御部11は、シンボリックプランナ3により生成された抽象的行動系列に含まれる全ての抽象的な行動について実環境で実行可能な動作系列の生成が成功したか否かを判定する。生成された抽象的行動系列に含まれる全ての抽象的な行動について実環境で実行可能な動作系列の生成が成功したことは、動作計画の生成が完了したことに相当する。
ステップS110では、制御部11は、出力部114として動作し、モーションプランナ5を使用して生成された動作群(動作計画)を出力する。
図9は、本実施形態に係る動作計画装置1によるコスト推定モデル4の機械学習に関する処理手順の一例を示すフローチャートである。ただし、以下で説明する機械学習に関する処理手順は一例に過ぎず、各ステップは可能な限り変更されてよい。また、以下の機械学習に関する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が行われてよい。
ステップS201では、制御部11は、データ取得部115として動作し、訓練サンプル61及び正解ラベル62の組み合わせによりそれぞれ構成される複数の学習データセット60を取得する。
ステップS202では、制御部11は、学習処理部116として動作し、取得された複数の学習データセット60を使用して、コスト推定モデル4の機械学習を実施する。
ステップS203では、制御部11は、生成された訓練済みのコスト推定モデル4に関する情報を学習結果データ125として生成する。そして、制御部11は、生成された学習結果データ125を所定の記憶領域に保存する。
以上のとおり、本実施形態に係る動作計画装置1は、ロボット装置Rの動作計画を生成する過程を、シンボリックプランナ3を使用する抽象段階(ステップS102)及びモーションプランナ5を使用する物理段階(ステップS106及びステップS107)の2つの段階に分け、2つのプランナ(3、5)間でやり取りしながら動作計画を生成する。ステップS102の処理では、抽象的なレベルにタスクの環境及び条件を単純化して、タスクを遂行するための行動計画を生成することができる。そのため、複雑なタスクであっても、比較的にメモリの負荷が軽量でかつ高速に抽象的な行動計画(抽象的行動系列)を生成することができる。また、ステップS106及びステップS107の処理では、実環境での実行可能性を保証しながら、シンボリックプランナ3の行動計画の範囲内に絞って効率的に動作計画を生成することができる。したがって、本実施形態によれば、実環境での実行可能性を保証しながら、複雑なタスクであっても、比較的にメモリの負荷が軽量でかつ高速にロボット装置Rの動作計画を生成することができる。
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良又は変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
上記実施形態では、コスト推定モデル4により得られるコストの推定値は、採用する抽象的な行動を複数の候補から決定する指標として利用される。すなわち、コストの推定値は、抽象層のグラフ探索において、あるノードから次のノードに遷移することを推奨する程度を評価する指標として取り扱われる。上記実施形態では、コスト推定モデル4により得られるコストの推定値は、次のノードを選択する際に参照されている。しかしながら、コストの推定値を参照するタイミングは、このような例に限定されなくてよい。他の一例として、制御部11は、目標ノードに到達した後にコストの推定値を参照し、得られた経路を採用するか否かを判定してもよい。
上記実施形態では、動作計画装置1は、シンボリックプランナ3により抽象的な行動系列の生成が完了した後に、モーションプランナ5の処理を実行することで、動作計画を生成している。しかしながら、シンボリックプランナ3及びモーションプランナ5の間でデータをやり取りするタイミング(ステップS102、ステップS106、及びステップS107の処理順序)は、このような例に限定されなくてよい。その他の一例では、動作計画装置1は、シンボリックプランナ3により抽象的行動系列の一部を生成した段階で、モーションプランナ5の処理を実行し、その一部について動作計画を生成してもよい。
上記実施形態では、コスト推定モデル4は、全結合型ニューラルネットワークにより構成されている。しかしながら、コスト推定モデル4を構成するニューラルネットワークの構成は、このような例に限定されなくてよく、実施の形態に応じて適宜選択されてよい。他の一例として、各ニューロンは、隣接する層の特定のニューロンと接続されたり、隣接する層以外の層のニューロンと接続されたりしてもよい。各ニューロンの結合関係は、実施の形態に応じて適宜決定されてよい。コスト推定モデル4を構成するニューラルネットワークは、例えば、畳み込み層、プーリング層、正規化層、ドロップアウト層等の他の種類の層を含んでもよい。コスト推定モデル4は、例えば、畳み込みニューラルネットワーク、再帰型ニューラルネットワーク、グラフニューラルネットワーク等の他の形式のニューラルネットワークにより構成されてよい。
上記実施形態において、ユーザのフィードバックを他の方法で獲得する場合、又はコストの評価指標としてユーザのフィードバックを採用しない場合、ステップS103~ステップS105の処理は、動作計画装置1の処理手順から省略されてよい。ステップS103~ステップS105の処理を省略する場合、インタフェース処理部117は、動作計画装置1のソフトウェア構成から省略されてよい。
11…制御部、12…記憶部、13…外部インタフェース、
14…入力装置、15…出力装置、16…ドライブ、
81…動作計画プログラム、91…記憶媒体、
111…情報取得部、112…行動生成部、
113…動作生成部、114…出力部、
115…データ取得部、116…学習処理部、
117…インタフェース処理部、
121…タスク情報、
125…学習結果データ、
3…シンボリックプランナ、
4…コスト推定モデル、
41…入力層、43…中間(隠れ)層、45…出力層、
5…モーションプランナ、
60…学習データセット、
61…訓練サンプル、62…正解ラベル、
R…ロボット装置
Claims (12)
- ロボット装置に与えられたタスクの開始状態及び目標状態に関する情報を含むタスク情報を取得するように構成された情報取得部と、
シンボリックプランナを使用して、前記タスク情報に基づき、前記開始状態から前記目標状態に到達するよう実行順に並べられた1つ以上の抽象的な行動を含む抽象的行動系列を生成するように構成された行動生成部と、
モーションプランナを使用して、前記実行順に、前記抽象的行動系列に含まれる前記抽象的な行動を遂行するための、1つ以上の物理的な動作を含む動作系列を生成すると共に、生成された前記動作系列が前記ロボット装置により実環境において物理的に実行可能か否かを判定するように構成された動作生成部と、
前記モーションプランナを使用して生成された1つ以上の動作系列を含む動作群であって、含まれる全ての動作系列が物理的に実行可能と判定された動作群を出力するように構成された出力部と、
を備え、
前記動作生成部において、前記動作系列が物理的に実行不能であると判定された場合、物理的に実行不能と判定された動作系列に対応する抽象的な行動以降の抽象的行動系列を破棄し、前記行動生成部において、前記シンボリックプランナを使用して、当該行動以降の新たな抽象的行動系列を生成するように構成された、
動作計画装置。 - 前記シンボリックプランナは、抽象的な行動のコストを推定するように機械学習により訓練されたコスト推定モデルを含み、
前記行動生成部は、前記シンボリックプランナを使用して、前記コスト推定モデルにより推定されるコストが最適化されるよう前記抽象的行動系列を生成するように更に構成される、
請求項1に記載の動作計画装置。 - 訓練用の抽象的な行動を示す訓練サンプル及び前記訓練用の抽象的な行動のコストの真値を示す正解ラベルの組み合わせによりそれぞれ構成される複数の学習データセットを取得するように構成されたデータ取得部と、
取得された複数の学習データセットを使用して、前記コスト推定モデルの機械学習を実施するように構成された学習処理部であって、前記機械学習は、各学習データセットについて、前記訓練サンプルにより示される前記訓練用の抽象的な行動に対するコストの推定値が前記正解ラベルにより示される真値に適合するものとなるように前記コスト推定モデルを訓練することにより構成される、学習処理部と、
を更に備える、
請求項2に記載の動作計画装置。 - 前記正解ラベルは、前記訓練用の抽象的な行動に対して前記モーションプランナにより生成される動作系列の実行にかかる時間、及び当該動作系列の実行における前記ロボット装置の駆動量の少なくともいずれかに応じて算出されたコストの真値を示すように構成される、
請求項3に記載の動作計画装置。 - 前記正解ラベルは、前記訓練用の抽象的な行動に対して前記モーションプランナにより生成される動作系列が物理的に実行不能と判定される確率に応じて算出されたコストの真値を示すように構成される、
請求項3又は4に記載の動作計画装置。 - 前記正解ラベルは、前記訓練用の抽象的な行動に対するユーザのフィードバックに応じて算出されたコストの真値を示すように構成される、
請求項3から5のいずれか1項に記載の動作計画装置。 - 前記動作計画装置は、シンボリックプランナを使用して生成された抽象的行動系列に含まれる抽象的な行動の一覧を前記ユーザに対して出力し、出力された前記抽象的な行動の一覧に対する前記ユーザのフィードバックを受け付けるように構成されたインタフェース処理部を更に備え、
前記データ取得部は、前記抽象的な行動の一覧に対する前記ユーザのフィードバックの結果から前記学習データセットを取得するように更に構成される、
請求項6に記載の動作計画装置。 - 抽象的な行動に対応するエッジ及び抽象的な行動の実行により変更される対象となる抽象的属性に対応するノードを備えるグラフにより前記タスクの状態空間が表現され、
前記シンボリックプランナは、開始状態に対応する開始ノードから目標状態に対応する目標ノードまでの経路を前記グラフ内で探索することで、前記抽象的行動系列を生成するように構成される、
請求項1から7のいずれか1項に記載の動作計画装置。 - 前記動作群を出力することは、前記動作群を示す指令を前記ロボット装置に与えることで、前記ロボット装置の動作を制御することを含む、
請求項1から8のいずれか1項に記載の動作計画装置。 - 前記ロボット装置は、1つ以上のロボットハンドを備え、
前記タスクは、1つ以上の部品により構成される製品の組み立て作業である、
請求項1から9のいずれか1項に記載の動作計画装置。 - コンピュータが、
ロボット装置に与えられたタスクの開始状態及び目標状態に関する情報を含むタスク情報を取得するステップと、
シンボリックプランナを使用して、前記タスク情報に基づき、前記開始状態から前記目標状態に到達するよう実行順に並べられた1つ以上の抽象的な行動を含む抽象的行動系列を生成するステップと、
モーションプランナを使用して、前記実行順に、前記抽象的行動系列に含まれる前記抽象的な行動を遂行するための、1つ以上の物理的な動作を含む動作系列を生成するステップと、
生成された前記動作系列が前記ロボット装置により実環境において物理的に実行可能か否かを判定するステップと、
前記モーションプランナを使用して生成された1つ以上の動作系列を含む動作群であって、含まれる全ての動作系列が物理的に実行可能と判定された動作群を出力するステップと、
を実行する動作計画方法であって、
前記判定するステップにおいて、前記動作系列が物理的に実行不能であると判定された場合、前記コンピュータは、物理的に実行不能と判定された動作系列に対応する抽象的な行動以降の抽象的行動系列を破棄し、前記抽象的行動系列を生成するステップに戻って、前記シンボリックプランナを使用して、当該行動以降の新たな抽象的行動系列を生成する、
動作計画方法。 - コンピュータに、
ロボット装置に与えられたタスクの開始状態及び目標状態に関する情報を含むタスク情報を取得するステップと、
シンボリックプランナを使用して、前記タスク情報に基づき、前記開始状態から前記目標状態に到達するよう実行順に並べられた1つ以上の抽象的な行動を含む抽象的行動系列を生成するステップと、
モーションプランナを使用して、前記実行順に、前記抽象的行動系列に含まれる前記抽象的な行動を遂行するための、1つ以上の物理的な動作を含む動作系列を生成するステップと、
生成された前記動作系列が前記ロボット装置により実環境において物理的に実行可能か否かを判定するステップと、
前記モーションプランナを使用して生成された1つ以上の動作系列を含む動作群であって、含まれる全ての動作系列が物理的に実行可能と判定された動作群を出力するステップと、
を実行させるための動作計画プログラムであって、
前記判定するステップにおいて、前記動作系列が物理的に実行不能であると判定された場合、前記コンピュータに、物理的に実行不能と判定された動作系列に対応する抽象的な行動以降の抽象的行動系列を破棄させ、前記抽象的行動系列を生成するステップに戻って、前記シンボリックプランナを使用して、当該行動以降の新たな抽象的行動系列を生成させる、
動作計画プログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020175670A JP7480670B2 (ja) | 2020-10-19 | 2020-10-19 | 動作計画装置、動作計画方法、及び動作計画プログラム |
US18/026,825 US20230330854A1 (en) | 2020-10-19 | 2021-09-14 | Movement planning device, movement planning method, and non-transitory computer readable medium |
PCT/JP2021/033717 WO2022085339A1 (ja) | 2020-10-19 | 2021-09-14 | 動作計画装置、動作計画方法、及び動作計画プログラム |
EP21882480.3A EP4230360A1 (en) | 2020-10-19 | 2021-09-14 | Movement planning device, movement planning method, and movement planning program |
CN202180066146.4A CN116261503A (zh) | 2020-10-19 | 2021-09-14 | 动作规划装置、动作规划方法以及动作规划程序 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020175670A JP7480670B2 (ja) | 2020-10-19 | 2020-10-19 | 動作計画装置、動作計画方法、及び動作計画プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022067006A JP2022067006A (ja) | 2022-05-02 |
JP7480670B2 true JP7480670B2 (ja) | 2024-05-10 |
Family
ID=81291253
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020175670A Active JP7480670B2 (ja) | 2020-10-19 | 2020-10-19 | 動作計画装置、動作計画方法、及び動作計画プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230330854A1 (ja) |
EP (1) | EP4230360A1 (ja) |
JP (1) | JP7480670B2 (ja) |
CN (1) | CN116261503A (ja) |
WO (1) | WO2022085339A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008204188A (ja) | 2007-02-20 | 2008-09-04 | Nagoya Institute Of Technology | モーションコントローラおよびモーションプランナおよび多軸サーボシステムおよびサーボアンプ |
JP2016196079A (ja) | 2015-04-02 | 2016-11-24 | ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH | ロボットの動作を改善する方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6970078B2 (ja) * | 2018-11-28 | 2021-11-24 | 株式会社東芝 | ロボット動作計画装置、ロボットシステム、および方法 |
-
2020
- 2020-10-19 JP JP2020175670A patent/JP7480670B2/ja active Active
-
2021
- 2021-09-14 CN CN202180066146.4A patent/CN116261503A/zh active Pending
- 2021-09-14 EP EP21882480.3A patent/EP4230360A1/en active Pending
- 2021-09-14 US US18/026,825 patent/US20230330854A1/en active Pending
- 2021-09-14 WO PCT/JP2021/033717 patent/WO2022085339A1/ja unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008204188A (ja) | 2007-02-20 | 2008-09-04 | Nagoya Institute Of Technology | モーションコントローラおよびモーションプランナおよび多軸サーボシステムおよびサーボアンプ |
JP2016196079A (ja) | 2015-04-02 | 2016-11-24 | ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH | ロボットの動作を改善する方法 |
Also Published As
Publication number | Publication date |
---|---|
EP4230360A1 (en) | 2023-08-23 |
JP2022067006A (ja) | 2022-05-02 |
US20230330854A1 (en) | 2023-10-19 |
CN116261503A (zh) | 2023-06-13 |
WO2022085339A1 (ja) | 2022-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Xia et al. | A digital twin to train deep reinforcement learning agent for smart manufacturing plants: Environment, interfaces and intelligence | |
Paxton et al. | Visual robot task planning | |
Jeerige et al. | Comparison of deep reinforcement learning approaches for intelligent game playing | |
CN113826051A (zh) | 生成实体系统零件之间的交互的数字孪生 | |
JPWO2017159614A1 (ja) | 学習サービス提供装置 | |
EP3696745A1 (en) | Intelligent workflow advisor for part design, simulation and manufacture | |
EP3975050A1 (en) | Method and system for evaluating consistency of an engineered system | |
EP3884345A1 (en) | Method and system for predicting motion-outcome data of a robot moving between a given pair of robotic locations | |
KR20230171962A (ko) | 로봇 자율성 개발을 위한 시스템, 장치 및 방법 | |
JP2020110894A (ja) | 学習済モデル生成装置、ロボット制御装置、及び、プログラム | |
Remman et al. | Robotic lever manipulation using hindsight experience replay and shapley additive explanations | |
JP4900642B2 (ja) | 学習制御装置、学習制御方法、およびプログラム | |
Hafez et al. | Efficient intrinsically motivated robotic grasping with learning-adaptive imagination in latent space | |
CN114047745A (zh) | 机器人运动控制方法、机器人、计算机装置和存储介质 | |
JP7480670B2 (ja) | 動作計画装置、動作計画方法、及び動作計画プログラム | |
Baldassarre | Planning with neural networks and reinforcement learning | |
Ma et al. | Exploiting bias for cooperative planning in multi-agent tree search | |
Le et al. | Model-based Q-learning for humanoid robots | |
JP2020113262A (ja) | 学習済モデル生成装置、ロボット制御装置、及び、プログラム | |
Ma et al. | A learning from demonstration framework for adaptive task and motion planning in varying package-to-order scenarios | |
Stulp et al. | Combining declarative, procedural, and predictive knowledge to generate, execute, and optimize robot plans | |
Danielsen | Vision-based robotic grasping in simulation using deep reinforcement learning | |
Liu et al. | KG-Planner: Knowledge-Informed Graph Neural Planning for Collaborative Manipulators | |
US20230102324A1 (en) | Non-transitory computer-readable storage medium for storing model training program, model training method, and information processing device | |
Ruud | Reinforcement learning with the TIAGo research robot: manipulator arm control with actor-critic reinforcement learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210407 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20210407 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230808 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240326 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240408 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7480670 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |