JP7487341B2 - ロボット実証学習のためのスキルテンプレート配布 - Google Patents
ロボット実証学習のためのスキルテンプレート配布 Download PDFInfo
- Publication number
- JP7487341B2 JP7487341B2 JP2022570258A JP2022570258A JP7487341B2 JP 7487341 B2 JP7487341 B2 JP 7487341B2 JP 2022570258 A JP2022570258 A JP 2022570258A JP 2022570258 A JP2022570258 A JP 2022570258A JP 7487341 B2 JP7487341 B2 JP 7487341B2
- Authority
- JP
- Japan
- Prior art keywords
- skill
- robot
- template
- subtask
- skill template
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000009826 distribution Methods 0.000 title claims description 54
- 238000000034 method Methods 0.000 claims description 114
- 238000012549 training Methods 0.000 claims description 97
- 238000010200 validation analysis Methods 0.000 claims description 55
- 238000010801 machine learning Methods 0.000 claims description 30
- 238000004590 computer program Methods 0.000 claims description 13
- 238000003860 storage Methods 0.000 claims description 13
- 230000004044 response Effects 0.000 claims description 9
- 230000008520 organization Effects 0.000 claims description 7
- 230000008569 process Effects 0.000 description 57
- 230000009471 action Effects 0.000 description 40
- 230000007704 transition Effects 0.000 description 39
- 230000033001 locomotion Effects 0.000 description 38
- 230000002787 reinforcement Effects 0.000 description 36
- 230000006399 behavior Effects 0.000 description 33
- 238000003780 insertion Methods 0.000 description 31
- 230000037431 insertion Effects 0.000 description 31
- 238000012545 processing Methods 0.000 description 16
- 238000013528 artificial neural network Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 12
- 238000004422 calculation algorithm Methods 0.000 description 10
- 230000004438 eyesight Effects 0.000 description 8
- 230000001960 triggered effect Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 238000012937 correction Methods 0.000 description 6
- 230000001953 sensory effect Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000001419 dependent effect Effects 0.000 description 5
- 230000008447 perception Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000005498 polishing Methods 0.000 description 3
- 238000007670 refining Methods 0.000 description 3
- 238000003466 welding Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 239000000853 adhesive Substances 0.000 description 2
- 230000001070 adhesive effect Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 229910052751 metal Inorganic materials 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 229910000831 Steel Inorganic materials 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- -1 e.g. Inorganic materials 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 239000011152 fibreglass Substances 0.000 description 1
- 230000008014 freezing Effects 0.000 description 1
- 238000007710 freezing Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000000272 proprioceptive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0081—Programme-controlled manipulators with master teach-in means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/42—Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
- G05B19/423—Teaching successive positions by walk-through, i.e. the tool head or end effector being grasped and guided directly, with or without servo-assistance, to follow a path
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/36—Nc in input of data, input key till input tape
- G05B2219/36442—Automatically teaching, teach by showing
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39546—Map human grasps to manipulator grasps
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40116—Learn by operator observation, symbiosis, show, watch
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40391—Human to robot skill transfer
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Fuzzy Systems (AREA)
- Manipulator (AREA)
Description
スキルテンプレート配布システムによってユーザデバイスから、利用可能なスキルテンプレートの選択を受信することと、
スキルテンプレート配布システムによって、スキルテンプレートを提供することであって、スキルテンプレートは、1つ以上のタスクの状態機械を表現する情報を含み、スキルテンプレートは、1つ以上のタスクのうちのどれがローカル実証データを必要とする実証サブタスクであるかを指定する、提供することと、
スキルテンプレート配布システムによって、スキルテンプレートの実証サブタスクのためのローカル実証データを受信することと、
学習されたパラメータ値を生成するために、ローカル実証データを使用して実証サブタスクのための機械学習モデルを訓練することと、
ユーザデバイスに、学習されたパラメータ値及び実証サブタスクのためのベース制御ポリシーを提供することと、を含む、方法である。
スキルテンプレート配布システムによってユーザデバイスから、複数のタスクを有するスキルをロボットに実行させるように訓練されるべき利用可能なスキルテンプレートの要求を受信することと、
要求に応答して、1つ以上の利用可能なスキルテンプレートを記述する情報をユーザデバイスに提供することと、を更に含む、方法である。
スキルテンプレート開発者から、スキルテンプレート開発者によって生成された新しいスキルテンプレートを受信することと、
新しいスキルテンプレートを、利用可能なスキルの収集物に追加することと、を更に含み、
利用可能なスキルテンプレートの選択が、スキルテンプレート開発者によって生成された新しいスキルテンプレートの選択を含む、方法である。
Claims (20)
- 1つ以上のコンピュータによって実行される方法であって、前記方法が、
スキルテンプレート配布システムによってユーザデバイスから、利用可能なスキルテンプレートの選択を受信することと、
前記スキルテンプレート配布システムによって、スキルテンプレートを提供することであって、前記スキルテンプレートは、1つ以上のタスクの状態機械を表現する情報を含み、前記スキルテンプレートは、前記1つ以上のタスクのうちのどれがローカル実証データを必要とする実証サブタスクであるかを指定する、前記スキルテンプレートを提供することと、
前記スキルテンプレート配布システムによって、前記スキルテンプレートの実証サブタスクのためのローカル実証データを受信することと、
学習されたパラメータ値を生成するために、前記ローカル実証データを使用して前記実証サブタスクのための機械学習モデルを訓練することと、
前記ユーザデバイスに、前記学習されたパラメータ値及び前記実証サブタスクのためのベース制御ポリシーを提供することと、を含む、方法。 - スキルテンプレート配布システムによってユーザデバイスから、複数のタスクを有するスキルをロボットに実行させるように訓練されるべき利用可能なスキルテンプレートの要求を受信することと、
前記要求に応答して、1つ以上の利用可能なスキルテンプレートを記述する情報を前記ユーザデバイスに提供することと、を更に含む、請求項1に記載の方法。 - 前記要求が、特定のロボットタイプ又はモデルを指定し、前記1つ以上の利用可能なスキルテンプレートを記述する前記情報を提供することが、前記特定のロボットタイプ又はモデルと互換性のある1つ以上のスキルテンプレートを提供することを含む、請求項2に記載の方法。
- スキルテンプレート開発者から、前記スキルテンプレート開発者によって生成された新しいスキルテンプレートを受信することと、
前記新しいスキルテンプレートを、利用可能なスキルの収集物に追加することと、を更に含み、
前記利用可能なスキルテンプレートの前記選択が、前記スキルテンプレート開発者によって生成された前記新しいスキルテンプレートの選択を含む、請求項1に記載の方法。 - 前記スキルテンプレート開発者が、前記スキルテンプレート配布システムと提携していないエンティティ、又は前記ユーザデバイスを所有する組織である、請求項4に記載の方法。
- 前記ユーザデバイスが、ロボットを有する施設内に位置し、前記ローカル実証データが、前記選択されたスキルテンプレートの実証サブタスクをどのように実行するかを前記ロボットに実証することによって捕捉されたデータである、請求項1に記載の方法。
- 前記機械学習モデルを訓練することが、前記ロボットを有する前記施設と提携していない訓練システムにおいて実行される、請求項6に記載の方法。
- 前記ベース制御ポリシーが、前記ロボットを有する前記施設と提携していない前記訓練システムによって生成される、請求項7に記載の方法。
- 1つ以上のコンピュータと、
前記1つ以上のコンピュータによって実行されると、前記1つ以上のコンピュータに、
スキルテンプレート配布システムによってユーザデバイスから、利用可能なスキルテンプレートの選択を受信することと、
前記スキルテンプレート配布システムによって、スキルテンプレートを提供することであって、前記スキルテンプレートは、1つ以上のタスクの状態機械を表現する情報を含み、前記スキルテンプレートは、前記1つ以上のタスクのうちのどれがローカル実証データを必要とする実証サブタスクであるかを指定する、前記スキルテンプレートを提供することと、
前記スキルテンプレート配布システムによって、前記スキルテンプレートの実証サブタスクのためのローカル実証データを受信することと、
学習されたパラメータ値を生成するために、前記ローカル実証データを使用して前記実証サブタスクのための機械学習モデルを訓練することと、
前記ユーザデバイスに、前記学習されたパラメータ値及び前記実証サブタスクのためのベース制御ポリシーを提供することと、
を含む、動作を実行させるように動作可能である命令を記憶する1つ以上の記憶デバイスと、
を備える、システム。 - 前記動作が、
スキルテンプレート配布システムによってユーザデバイスから、複数のタスクを有するスキルをロボットに実行させるように訓練されるべき利用可能なスキルテンプレートの要求を受信することと、
前記要求に応答して、1つ以上の利用可能なスキルテンプレートを記述する情報を前記ユーザデバイスに提供することと、を更に含む、請求項9に記載のシステム。 - 前記要求が、特定のロボットタイプ又はモデルを指定し、前記1つ以上の利用可能なスキルテンプレートを記述する前記情報を提供することが、前記特定のロボットタイプ又はモデルと互換性のある1つ以上のスキルテンプレートを提供することを含む、請求項10に記載のシステム。
- 前記動作が、
スキルテンプレート開発者から、前記スキルテンプレート開発者によって生成された新しいスキルテンプレートを受信することと、
前記新しいスキルテンプレートを、利用可能なスキルの収集物に追加することと、を更に含み、
前記利用可能なスキルテンプレートの前記選択が、前記スキルテンプレート開発者によって生成された前記新しいスキルテンプレートの選択を含む、請求項9に記載のシステム。 - 前記スキルテンプレート開発者が、前記スキルテンプレート配布システムと提携していないエンティティ、又は前記ユーザデバイスを所有する組織である、請求項12に記載のシステム。
- 前記ユーザデバイスが、ロボットを有する施設内に位置し、前記ローカル実証データが、前記選択されたスキルテンプレートの実証サブタスクをどのように実行するかを前記ロボットに実証することによって捕捉されたデータである、請求項9に記載のシステム。
- 前記機械学習モデルを訓練することが、前記ロボットを有する前記施設と提携していない訓練システムにおいて実行される、請求項14に記載のシステム。
- 前記ベース制御ポリシーが、前記ロボットを有する前記施設と提携していない前記訓練システムによって生成される、請求項15に記載のシステム。
- コンピュータプログラム命令で符号化された1つ以上の非一時的コンピュータ記憶媒体であって、前記コンピュータプログラム命令が、1つ以上のコンピュータによって実行されると、前記1つ以上のコンピュータに、
スキルテンプレート配布システムによってユーザデバイスから、利用可能なスキルテンプレートの選択を受信することと、
前記スキルテンプレート配布システムによって、スキルテンプレートを提供することであって、前記スキルテンプレートは、1つ以上のタスクの状態機械を表現する情報を含み、前記スキルテンプレートは、前記1つ以上のタスクのうちのどれがローカル実証データを必要とする実証サブタスクであるかを指定する、前記スキルテンプレートを提供することと、
前記スキルテンプレート配布システムによって、前記スキルテンプレートの実証サブタスクのためのローカル実証データを受信することと、
学習されたパラメータ値を生成するために、前記ローカル実証データを使用して前記実証サブタスクのための機械学習モデルを訓練することと、
前記ユーザデバイスに、前記学習されたパラメータ値及び前記実証サブタスクのためのベース制御ポリシーを提供することと、を含む動作を実行させる、1つ以上の非一時的コンピュータ記憶媒体。 - 前記動作が、
スキルテンプレート配布システムによってユーザデバイスから、複数のタスクを有するスキルをロボットに実行させるように訓練されるべき利用可能なスキルテンプレートの要求を受信することと、
前記要求に応答して、1つ以上の利用可能なスキルテンプレートを記述する情報を前記ユーザデバイスに提供することと、を更に含む、請求項17に記載の1つ以上の非一時的コンピュータ記憶媒体。 - 前記要求が、特定のロボットタイプ又はモデルを指定し、前記1つ以上の利用可能なスキルテンプレートを記述する前記情報を提供することが、前記特定のロボットタイプ又はモデルと互換性のある1つ以上のスキルテンプレートを提供することを含む、請求項18に記載の1つ以上の非一時的コンピュータ記憶媒体。
- 前記動作が、
スキルテンプレート開発者から、前記スキルテンプレート開発者によって生成された新しいスキルテンプレートを受信することと、
前記新しいスキルテンプレートを、利用可能なスキルの収集物に追加することと、を更に含み、
前記利用可能なスキルテンプレートの前記選択が、前記スキルテンプレート開発者によって生成された前記新しいスキルテンプレートの選択を含む、請求項17に記載の1つ以上の非一時的コンピュータ記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/880,860 | 2020-05-21 | ||
US16/880,860 US11685047B2 (en) | 2020-05-21 | 2020-05-21 | Skill template distribution for robotic demonstration learning |
PCT/US2021/032736 WO2021236504A1 (en) | 2020-05-21 | 2021-05-17 | Skill template distribution for robotic demonstration learning |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023528249A JP2023528249A (ja) | 2023-07-04 |
JP7487341B2 true JP7487341B2 (ja) | 2024-05-20 |
Family
ID=76306046
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022570258A Active JP7487341B2 (ja) | 2020-05-21 | 2021-05-17 | ロボット実証学習のためのスキルテンプレート配布 |
Country Status (6)
Country | Link |
---|---|
US (2) | US11685047B2 (ja) |
EP (1) | EP4135939A1 (ja) |
JP (1) | JP7487341B2 (ja) |
KR (1) | KR20230002942A (ja) |
CN (1) | CN115916477A (ja) |
WO (1) | WO2021236504A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11679497B2 (en) | 2020-05-21 | 2023-06-20 | Intrinsic Innovation Llc | Distributed robotic demonstration learning |
US11685047B2 (en) * | 2020-05-21 | 2023-06-27 | Intrinsic Innovation Llc | Skill template distribution for robotic demonstration learning |
US11654566B2 (en) * | 2020-08-12 | 2023-05-23 | General Electric Company | Robotic activity decomposition |
US20220105626A1 (en) * | 2020-10-05 | 2022-04-07 | Autodesk, Inc. | Techniques for force and torque-guided robotic assembly |
US20220234208A1 (en) * | 2021-01-27 | 2022-07-28 | The Boeing Company | Image-Based Guidance for Robotic Wire Pickup |
SE545819C2 (en) * | 2021-12-17 | 2024-02-13 | Rebl Ind Ab | System and method of automating a process |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009509787A (ja) | 2005-09-29 | 2009-03-12 | 本田技研工業株式会社 | 人型ロボットのための拡張可能なタスクエンジンフレームワーク |
US20130151442A1 (en) | 2011-12-13 | 2013-06-13 | Iucf-Hyu (Industry-University Cooperation Foundation Hanyang University) | Method for learning task skill and robot using thereof |
JP2016159407A (ja) | 2015-03-03 | 2016-09-05 | キヤノン株式会社 | ロボット制御装置およびロボット制御方法 |
JP2019079227A (ja) | 2017-10-24 | 2019-05-23 | 日本電信電話株式会社 | 状態遷移規則獲得装置、行動選択学習装置、行動選択装置、状態遷移規則獲得方法、行動選択方法、およびプログラム |
US20190262990A1 (en) | 2018-02-28 | 2019-08-29 | Misty Robotics, Inc. | Robot skill management |
WO2020047120A1 (en) | 2018-08-28 | 2020-03-05 | Diligent Robotics, Inc. | Systems, apparatus, and methods for robotic learning and execution of skills |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9008840B1 (en) | 2013-04-19 | 2015-04-14 | Brain Corporation | Apparatus and methods for reinforcement-guided supervised learning |
US9314924B1 (en) | 2013-06-14 | 2016-04-19 | Brain Corporation | Predictive robotic controller apparatus and methods |
US9384443B2 (en) | 2013-06-14 | 2016-07-05 | Brain Corporation | Robotic training apparatus and methods |
DE102015204641B4 (de) | 2014-06-03 | 2021-03-25 | ArtiMinds Robotics GmbH | Verfahren und System zur Programmierung eines Roboters |
US9272418B1 (en) | 2014-09-02 | 2016-03-01 | The Johns Hopkins University | System and method for flexible human-machine collaboration |
JP6240689B2 (ja) | 2015-07-31 | 2017-11-29 | ファナック株式会社 | 人の行動パターンを学習する機械学習装置、ロボット制御装置、ロボットシステム、および機械学習方法 |
US11148288B2 (en) * | 2017-02-25 | 2021-10-19 | Diligent Robotics, Inc. | Systems, apparatus, and methods for robotic learning and execution of skills |
US11833684B2 (en) * | 2017-02-25 | 2023-12-05 | Diligent Robotics, Inc. | Systems, apparatus, and methods for robotic learning and execution of skills |
US10919152B1 (en) * | 2017-05-30 | 2021-02-16 | Nimble Robotics, Inc. | Teleoperating of robots with tasks by mapping to human operator pose |
JP6542839B2 (ja) | 2017-06-07 | 2019-07-10 | ファナック株式会社 | 制御装置及び機械学習装置 |
US10913154B2 (en) | 2018-01-02 | 2021-02-09 | General Electric Company | Systems and method for robotic learning of industrial tasks based on human demonstration |
US11568236B2 (en) | 2018-01-25 | 2023-01-31 | The Research Foundation For The State University Of New York | Framework and methods of diverse exploration for fast and safe policy improvement |
US11847822B2 (en) * | 2018-05-09 | 2023-12-19 | Sony Corporation | Information processing device and information processing method |
US11052541B1 (en) | 2018-12-05 | 2021-07-06 | Facebook, Inc. | Autonomous robot telerobotic interface |
US20220187847A1 (en) * | 2019-11-05 | 2022-06-16 | Strong Force Vcn Portfolio 2019, Llc | Robot Fleet Management for Value Chain Networks |
US11741336B2 (en) | 2019-12-19 | 2023-08-29 | Google Llc | Generating and/or using training instances that include previously captured robot vision data and drivability labels |
US11893457B2 (en) * | 2020-01-15 | 2024-02-06 | International Business Machines Corporation | Integrating simulated and real-world data to improve machine learning models |
KR20210096523A (ko) | 2020-01-28 | 2021-08-05 | 엘지전자 주식회사 | 로봇의 위치 인식 |
WO2021161374A1 (ja) * | 2020-02-10 | 2021-08-19 | 三菱電機株式会社 | 制御装置及び学習装置 |
US11685047B2 (en) * | 2020-05-21 | 2023-06-27 | Intrinsic Innovation Llc | Skill template distribution for robotic demonstration learning |
US11679497B2 (en) * | 2020-05-21 | 2023-06-20 | Intrinsic Innovation Llc | Distributed robotic demonstration learning |
US11986958B2 (en) * | 2020-05-21 | 2024-05-21 | Intrinsic Innovation Llc | Skill templates for robotic demonstration learning |
-
2020
- 2020-05-21 US US16/880,860 patent/US11685047B2/en active Active
-
2021
- 2021-05-17 JP JP2022570258A patent/JP7487341B2/ja active Active
- 2021-05-17 KR KR1020227040723A patent/KR20230002942A/ko unknown
- 2021-05-17 WO PCT/US2021/032736 patent/WO2021236504A1/en unknown
- 2021-05-17 CN CN202180044473.XA patent/CN115916477A/zh active Pending
- 2021-05-17 EP EP21730765.1A patent/EP4135939A1/en active Pending
-
2023
- 2023-06-26 US US18/340,968 patent/US20230356393A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009509787A (ja) | 2005-09-29 | 2009-03-12 | 本田技研工業株式会社 | 人型ロボットのための拡張可能なタスクエンジンフレームワーク |
US20130151442A1 (en) | 2011-12-13 | 2013-06-13 | Iucf-Hyu (Industry-University Cooperation Foundation Hanyang University) | Method for learning task skill and robot using thereof |
JP2016159407A (ja) | 2015-03-03 | 2016-09-05 | キヤノン株式会社 | ロボット制御装置およびロボット制御方法 |
JP2019079227A (ja) | 2017-10-24 | 2019-05-23 | 日本電信電話株式会社 | 状態遷移規則獲得装置、行動選択学習装置、行動選択装置、状態遷移規則獲得方法、行動選択方法、およびプログラム |
US20190262990A1 (en) | 2018-02-28 | 2019-08-29 | Misty Robotics, Inc. | Robot skill management |
WO2020047120A1 (en) | 2018-08-28 | 2020-03-05 | Diligent Robotics, Inc. | Systems, apparatus, and methods for robotic learning and execution of skills |
Also Published As
Publication number | Publication date |
---|---|
EP4135939A1 (en) | 2023-02-22 |
KR20230002942A (ko) | 2023-01-05 |
WO2021236504A1 (en) | 2021-11-25 |
US20230356393A1 (en) | 2023-11-09 |
US11685047B2 (en) | 2023-06-27 |
JP2023528249A (ja) | 2023-07-04 |
US20210362330A1 (en) | 2021-11-25 |
CN115916477A (zh) | 2023-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7487341B2 (ja) | ロボット実証学習のためのスキルテンプレート配布 | |
JP7427113B2 (ja) | ロボットデモンストレーション学習用スキルテンプレート | |
Xia et al. | A digital twin to train deep reinforcement learning agent for smart manufacturing plants: Environment, interfaces and intelligence | |
US11780086B2 (en) | Robotic demonstration learning device | |
JP7487338B2 (ja) | 分散型ロボット実証学習 | |
US11820014B2 (en) | Simulated local demonstration data for robotic demonstration learning | |
US11534913B2 (en) | Integrating sensor streams for robotic demonstration learning | |
Sanfilippo et al. | Controlling Kuka industrial robots: Flexible communication interface JOpenShowVar | |
US20210349444A1 (en) | Accelerating robotic planning for operating on deformable objects | |
WO2018176025A1 (en) | System and method for engineering autonomous systems | |
US11524402B2 (en) | User feedback for robotic demonstration learning | |
CN116829314A (zh) | 生成机器人控制规划 | |
Solberg et al. | Utilizing Reinforcement Learning and Computer Vision in a Pick-And-Place Operation for Sorting Objects in Motion | |
Ionescu | Web-based simulation and motion planning for human-robot and multi-robot applications | |
Asif et al. | Rapid and automated configuration of robot manufacturing cells | |
Cheng | Safe and Efficient Human-Robot Collaboration | |
Pachidis et al. | HumanPT: An open-source, HumanPT architecture-based, robotic application for low cost robotic tasks | |
Marvel | Autonomous learning for robotic assembly applications | |
Xia et al. | manufacturing plants: Environment, interfaces and intelligence |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240402 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240415 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240508 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7487341 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |