JP7364032B2 - 制御装置、制御方法及びプログラム - Google Patents
制御装置、制御方法及びプログラム Download PDFInfo
- Publication number
- JP7364032B2 JP7364032B2 JP2022502363A JP2022502363A JP7364032B2 JP 7364032 B2 JP7364032 B2 JP 7364032B2 JP 2022502363 A JP2022502363 A JP 2022502363A JP 2022502363 A JP2022502363 A JP 2022502363A JP 7364032 B2 JP7364032 B2 JP 7364032B2
- Authority
- JP
- Japan
- Prior art keywords
- work
- motion
- robot
- work body
- control device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 37
- 230000033001 locomotion Effects 0.000 claims description 257
- 230000006870 function Effects 0.000 claims description 73
- 238000001514 detection method Methods 0.000 claims description 64
- 238000013461 design Methods 0.000 claims description 22
- 238000012545 processing Methods 0.000 description 27
- 230000008569 process Effects 0.000 description 22
- 230000015654 memory Effects 0.000 description 18
- 239000013598 vector Substances 0.000 description 15
- 230000009471 action Effects 0.000 description 14
- 239000003550 marker Substances 0.000 description 11
- 230000002123 temporal effect Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 239000004615 ingredient Substances 0.000 description 7
- 238000005457 optimization Methods 0.000 description 7
- 230000014509 gene expression Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000036544 posture Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 235000013305 food Nutrition 0.000 description 2
- 238000012856 packing Methods 0.000 description 2
- 230000008929 regeneration Effects 0.000 description 2
- 238000011069 regeneration method Methods 0.000 description 2
- 230000003578 releasing effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000012938 design process Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39091—Avoid collision with moving obstacles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40108—Generating possible sequence of steps as function of timing and conflicts
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40202—Human robot coexistence
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40336—Optimize multiple constraints or subtasks
Description
(1)システム構成
図1は、第1実施形態に係るロボット制御システム100の構成を示す。ロボット制御システム100は、主に、制御装置1と、入力装置2と、表示装置3と、記憶装置4と、ロボット5と、検出装置7と、を備える。
図2は、制御装置1のハードウェア構成を示す。制御装置1は、ハードウェアとして、プロセッサ11と、メモリ12と、インターフェース13とを含む。プロセッサ11、メモリ12及びインターフェース13は、データバス19を介して接続されている。
次に、アプリケーション情報記憶部41が記憶するアプリケーション情報のデータ構造について説明する。
図4は、制御装置1の処理の概要を示す機能ブロックの一例である。制御装置1のプロセッサ11は、機能的には、認識部15と、学習部16と、動作シーケンス生成部17とを有する。なお、図4では、各ブロック間で授受が行われるデータの一例が示されているが、これに限定されない。後述する他の機能ブロックの図においても同様である。
図5は、認識部15の機能的な構成を示すブロック図である。認識部15は、機能的には、物体識別部21と、状態認識部22と、動作認識部23と、動作予測部24と、作業効率認識部25とを有する。
次に、動作シーケンス生成部17の詳細な処理について説明する。
図6は、動作シーケンス生成部17の機能的な構成を示す機能ブロックの一例である。動作シーケンス生成部17は、機能的には、抽象状態設定部31と、目標論理式生成部32と、タイムステップ論理式生成部33と、他作業体抽象モデル決定部34と、全体抽象モデル生成部35と、効用関数設計部36と、制御入力生成部37と、サブタスクシーケンス生成部38とを有する。
抽象状態設定部31は、認識部15から供給される物体識別結果R0及び状態認識結果R1と、アプリケーション情報記憶部41から取得した抽象状態指定情報I1とに基づき、作業空間6内の抽象状態を設定する。この場合、まず、抽象状態設定部31は、抽象状態指定情報I1を参照し、作業空間6内において設定すべき抽象状態を認識する。なお、作業空間6内において設定すべき抽象状態は、目的タスクの種類によって異なる。よって、目的タスクの種類毎に設定すべき抽象状態が抽象状態指定情報I1に規定されている場合には、抽象状態設定部31は、入力信号S1により指定された目的タスクに対応する抽象状態指定情報I1を参照し、設定すべき抽象状態を認識する。
まず、目標論理式生成部32は、入力信号S1により指定された目的タスクを、時相論理を用いた論理式に変換する。なお、自然言語で表されたタスクを論理式に変換する方法は、種々の技術が存在する。例えば、図7の例において、「最終的に対象物(i=2)が領域Gに存在する」という目的タスクが与えられたとする。この場合、目標論理式生成部32は、目的タスクを線形論理式(LTL:Linear Temporal Logic)の「eventually」に相当する演算子「◇」と、抽象状態設定部31により定義された命題「gi」と用いて、論理式「◇g2」を生成する。なお、目標論理式生成部32は、演算子「◇」以外の任意の時相論理の演算子(論理積「∧」、論理和「∨」、否定「¬」、論理包含「⇒」、always「□」、next「○」、until「U」等)を用いて論理式を表現してもよい。また、線形時相論理に限らず、MTL(Metric Temporal Logic)やSTL(Signal Temporal Logic)などの任意の時相論理を用いて論理式を表現してもよい。
□¬h
∧i□¬oi
(◇g2)∧(□¬h)∧(∧i□¬oi)
タイムステップ論理式生成部33は、目的タスクを完了するタイムステップ数(「目標タイムステップ数」とも呼ぶ。)を定め、目標タイムステップ数で目標論理式Ltagを満たすような各タイムステップでの状態を表す命題の組み合わせを定める。この組み合わせは、通常複数存在するため、タイムステップ論理式生成部33は、これらの組み合わせを論理和により結合した論理式を、タイムステップ論理式Ltsとして生成する。上述の組み合わせは、ロボット5に命令する動作のシーケンスを表す論理式の候補となり、以後では「候補φ」とも呼ぶ。
(◇g2,3)∧(∧k=1,2,3□¬hk)∧(∧i,k=1,2,3□¬oi)
全体抽象モデル生成部35は、他作業体抽象モデルMo2と、抽象モデル情報I5と、物体識別結果R0と、状態認識結果R1とに基づき、全体抽象モデルΣを生成する。ここで、抽象モデル情報I5には、目的タスクの種類毎に、全体抽象モデルΣの生成に必要な情報が記録されている。例えば、目的タスクがピックアンドプレイスの場合には、対象物の位置や数、対象物を置く領域の位置、ロボット5の台数(又はロボットアーム52の数)等を特定しない汎用的な形式の抽象モデルが抽象モデル情報I5に記録されている。そして、全体抽象モデル生成部35は、抽象モデル情報I5に記録された、ロボット5のダイナミクスを含む汎用的な形式の抽象モデルに対し、物体識別結果R0、状態認識結果R1及び他作業体抽象モデルMo2を反映することで、全体抽象モデルΣを生成する。これにより、全体抽象モデルΣは、作業空間6内の物体の状態と、ロボット5のダイナミクスと、他作業体8のダイナミクスとが抽象的に表されたモデルとなる。なお、作業空間6内の物体の状態は、ピックアンドプレイスの場合には、対象物の位置及び数、対象物を置く領域の位置、ロボット5の台数等を示す。
δ=1 ⇔ h(x)≧0
この式では、対象物を掴める程度に対象物の近傍にロボットハンドが存在する場合には、ロボットハンドが対象物を掴んでいるとみなし、論理変数δを1に設定している。
制御入力生成部37は、タイムステップ論理式生成部33から供給されるタイムステップ論理式Ltsと、全体抽象モデル生成部35から供給される全体抽象モデルΣと、効用関数設計部36から供給される効用関数とに基づき、最適となるタイムステップ毎のロボット5に対するタイムステップ毎の制御入力を決定する。この場合、制御入力生成部37は、全体抽象モデルΣ及びタイムステップ論理式Ltsを制約条件として、効用関数設計部36が設計した効用関数を最小化する最適化問題を解く。
サブタスクシーケンス生成部38は、制御入力生成部37から供給される制御入力情報Icと、アプリケーション情報記憶部41が記憶するサブタスク情報I4とに基づき、サブタスクシーケンスを生成する。この場合、サブタスクシーケンス生成部38は、サブタスク情報I4を参照することで、ロボット5が受け付け可能なサブタスクを認識し、制御入力情報Icが示すタイムステップ毎の制御入力をサブタスクに変換する。
図8は、第1実施形態において制御装置1が実行するロボット制御処理の概要を示すフローチャートの一例である。
次に、第1実施形態の応用例(第1応用例~第3応用例)について説明する。
動作予測部24による他作業体8の動作予測処理、作業効率認識部25による作業効率の認識処理及び作業効率に基づく効用関数設計部36の効用関数の設計処理、及び、学習部16による学習処理は、必須の処理ではない。よって、制御装置1は、これらの処理の少なくともいずれかを実行しなくともよい。
図11は、第2実施形態における制御装置1Aの概略構成図である。図11に示すように、制御装置1Aは、主に、動作シーケンス生成手段17Aを有する。
タスクを実行するロボットと他作業体とが協働作業を行う作業空間内の物体の種類及び状態に関する認識結果に基づき、前記ロボットに実行させる動作シーケンスを生成する動作シーケンス生成手段を有する制御装置。
前記動作シーケンス生成手段は、
前記他作業体の動作に関する認識結果に基づき、前記他作業体のダイナミクスを抽象化した他作業体抽象モデルを決定し、
当該他作業体抽象モデルと、前記物体の種類及び状態に関する認識結果とに基づき、前記動作シーケンスを生成する、付記1に記載の制御装置。
前記動作シーケンス生成手段は、前記他作業体のダイナミクスを動作毎に抽象化したモデルに関する他作業体動作モデル情報に基づき、前記他作業体抽象モデルを決定する、付記2に記載の制御装置。
前記他作業体の動作に関する認識結果に基づき、前記他作業体抽象モデルのパラメータを学習する学習手段をさらに有する、付記2または3に記載の制御装置。
前記他作業体の動作に関する認識結果には、前記他作業体が実行中の動作及び予測される動作に関する認識結果が含まれ、
前記動作シーケンス生成手段は、前記他作業体が実行中の動作及び予測される動作に関する認識結果に基づき、前記動作シーケンスを生成する、付記2~4のいずれか一項に記載の制御装置。
前記動作シーケンス生成手段は、複数存在する前記他作業体の各々の作業効率に基づき、前記動作シーケンスを生成する、付記1~5のいずれか一項に記載の制御装置。
前記動作シーケンス生成手段は、前記他作業体の各々の作業効率に基づき前記他作業体の各々の作業に対する効用を重み付けした効用関数を設計し、当該効用関数を最適化することで、前記動作シーケンスを生成する、付記6に記載の制御装置。
前記作業空間を検出対象範囲とする検出装置が出力する検出信号に基づき、前記物体の種類及び状態の認識を行う認識手段をさらに有し、
前記動作シーケンス生成手段は、前記認識手段の認識結果に基づき、前記動作シーケンスを生成する、付記1~7のいずれか一項に記載の制御装置。
[付記9]
前記動作シーケンス生成手段は、
前記ロボットに作業させるタスクである目的タスクを時相論理に基づく論理式に変換する論理式変換手段と、
前記論理式から、前記目的タスクを実行するためタイムステップ毎の状態を表す論理式であるタイムステップ論理式を生成するタイムステップ論理式生成手段と、
前記タイムステップ論理式に基づき、前記ロボットに実行させるサブタスクのシーケンスを、前記動作シーケンスとして生成するサブタスクシーケンス生成手段と、
を有する、付記1~8のいずれか一項に記載の制御装置。
前記動作シーケンス生成手段は、
前記作業空間におけるダイナミクスを抽象化した抽象モデルを生成する抽象モデル生成手段と、
前記目的タスクに対する効用関数を設計する効用関数設計手段と、
前記抽象モデルと、前記タイムステップ論理式と、前記効用関数とに基づき、前記ロボットを制御するためのタイムステップ毎の制御入力を決定する制御入力生成手段と、をさらに有し、
前記サブタスクシーケンス生成手段は、前記制御入力に基づき、前記サブタスクのシーケンスを生成する、付記9に記載の制御装置。
前記動作シーケンス生成手段は、
前記認識結果に基づき、前記作業空間における物体の抽象的な状態である抽象状態を、前記論理式において使用する命題として定める抽象状態設定手段をさらに有する、付記9または10に記載の制御装置。
コンピュータにより、
タスクを実行するロボットと他作業体とが協働作業を行う作業空間内の物体の種類及び状態に関する認識結果に基づき、前記ロボットに実行させる動作シーケンスを生成する、制御方法。
タスクを実行するロボットと他作業体とが協働作業を行う作業空間内の物体の種類及び状態に関する認識結果に基づき、前記ロボットに実行させる動作シーケンスを生成する動作シーケンス生成手段
としてコンピュータを機能させるプログラムが格納された記録媒体。
2 入力装置
3 表示装置
4 記憶装置
5 ロボット
6 作業空間
7 検出装置
8、8A~8C 他作業体
41 アプリケーション情報記憶部
100 ロボット制御システム
Claims (10)
- タスクを実行するロボットと他作業体とが協働作業を行う作業空間内の状態を検出する検出装置が出力する検出信号を取得する取得手段と、
前記検出信号に基づき認識された前記作業空間内の物体の種類及び状態に関する認識結果に基づき、前記ロボットに実行させる動作シーケンスを生成する動作シーケンス生成手段と、
を有し、
前記物体には、前記他作業体と、前記ロボットの作業対象となる対象物とが含まれ、
前記動作シーケンス生成手段は、前記他作業体の状態と、前記対象物の状態とに関する前記認識結果に基づき、前記動作シーケンスを生成する、
制御装置。 - 前記動作シーケンス生成手段は、
前記他作業体の動作に関する認識結果に基づき、前記他作業体のダイナミクスを抽象化した他作業体抽象モデルを決定し、
当該他作業体抽象モデルと、前記物体の種類及び状態に関する認識結果とに基づき、前記動作シーケンスを生成する、請求項1に記載の制御装置。 - 前記動作シーケンス生成手段は、前記他作業体のダイナミクスを動作毎に抽象化したモデルに関する他作業体動作モデル情報に基づき、前記他作業体抽象モデルを決定する、請求項2に記載の制御装置。
- 前記他作業体の動作に関する認識結果に基づき、前記他作業体抽象モデルのパラメータを学習する学習手段をさらに有する、請求項2または3に記載の制御装置。
- 前記他作業体の動作に関する認識結果には、前記他作業体が実行中の動作及び予測される動作に関する認識結果が含まれ、
前記動作シーケンス生成手段は、前記他作業体が実行中の動作及び予測される動作に関する認識結果に基づき、前記動作シーケンスを生成する、請求項2~4のいずれか一項に記載の制御装置。 - 前記動作シーケンス生成手段は、複数存在する前記他作業体の各々の作業効率に基づき、前記動作シーケンスを生成する、請求項1~5のいずれか一項に記載の制御装置。
- 前記動作シーケンス生成手段は、前記他作業体の各々の作業効率に基づき前記他作業体の各々の作業に対する効用を重み付けした効用関数を設計し、当該効用関数を最適化することで、前記動作シーケンスを生成する、請求項6に記載の制御装置。
- 前記検出信号に基づき、前記物体の種類及び状態の認識を行う認識手段をさらに有し、
前記動作シーケンス生成手段は、前記認識手段の認識結果に基づき、前記動作シーケンスを生成する、請求項1~7のいずれか一項に記載の制御装置。 - コンピュータにより、
タスクを実行するロボットと他作業体とが協働作業を行う作業空間内の状態を検出する検出装置が出力する検出信号を取得し、
前記検出信号に基づき認識された前記作業空間内の物体の種類及び状態に関する認識結果に基づき、前記ロボットに実行させる動作シーケンスを生成し、
前記物体には、前記他作業体と、前記ロボットの作業対象となる対象物とが含まれ、
前記他作業体の状態と、前記対象物の状態とに関する前記認識結果に基づき、前記動作シーケンスを生成する、
制御方法。 - タスクを実行するロボットと他作業体とが協働作業を行う作業空間内の状態を検出する検出装置が出力する検出信号を取得する取得手段と、
前記検出信号に基づき認識された前記作業空間内の物体の種類及び状態に関する認識結果に基づき、前記ロボットに実行させる動作シーケンスを生成する動作シーケンス生成手段
としてコンピュータを機能させ、
前記物体には、前記他作業体と、前記ロボットの作業対象となる対象物とが含まれ、
前記動作シーケンス生成手段は、前記他作業体の状態と、前記対象物の状態とに関する前記認識結果に基づき、前記動作シーケンスを生成するプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/007448 WO2021171358A1 (ja) | 2020-02-25 | 2020-02-25 | 制御装置、制御方法及び記録媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021171358A1 JPWO2021171358A1 (ja) | 2021-09-02 |
JPWO2021171358A5 JPWO2021171358A5 (ja) | 2022-11-09 |
JP7364032B2 true JP7364032B2 (ja) | 2023-10-18 |
Family
ID=77490796
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022502363A Active JP7364032B2 (ja) | 2020-02-25 | 2020-02-25 | 制御装置、制御方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230104802A1 (ja) |
JP (1) | JP7364032B2 (ja) |
WO (1) | WO2021171358A1 (ja) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004017256A (ja) | 2002-06-19 | 2004-01-22 | Toyota Motor Corp | 人間と共存するロボットの制御装置と制御方法 |
JP2010120139A (ja) | 2008-11-21 | 2010-06-03 | New Industry Research Organization | 産業用ロボットの安全制御装置 |
JP2010188515A (ja) | 2009-01-26 | 2010-09-02 | Fanuc Ltd | 人間とロボットとの協調動作領域を有する生産システム |
JP2014094436A (ja) | 2012-11-12 | 2014-05-22 | Yaskawa Electric Corp | ロボットシステム |
JP2016104074A (ja) | 2014-12-01 | 2016-06-09 | 富士ゼロックス株式会社 | 姿勢判定装置、姿勢判定システム及びプログラム |
JP2017039170A (ja) | 2015-08-17 | 2017-02-23 | ライフロボティクス株式会社 | ロボット装置 |
WO2017141569A1 (ja) | 2016-02-15 | 2017-08-24 | オムロン株式会社 | 制御装置、制御システム、制御方法およびプログラム |
JP2017221985A (ja) | 2016-06-13 | 2017-12-21 | ファナック株式会社 | ロボットシステム |
JP2018030185A (ja) | 2016-08-23 | 2018-03-01 | ファナック株式会社 | 人とロボットが協働して作業を行うロボットの動作を学習する機械学習器、ロボットシステムおよび機械学習方法 |
-
2020
- 2020-02-25 JP JP2022502363A patent/JP7364032B2/ja active Active
- 2020-02-25 US US17/799,711 patent/US20230104802A1/en active Pending
- 2020-02-25 WO PCT/JP2020/007448 patent/WO2021171358A1/ja active Application Filing
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004017256A (ja) | 2002-06-19 | 2004-01-22 | Toyota Motor Corp | 人間と共存するロボットの制御装置と制御方法 |
JP2010120139A (ja) | 2008-11-21 | 2010-06-03 | New Industry Research Organization | 産業用ロボットの安全制御装置 |
JP2010188515A (ja) | 2009-01-26 | 2010-09-02 | Fanuc Ltd | 人間とロボットとの協調動作領域を有する生産システム |
JP2014094436A (ja) | 2012-11-12 | 2014-05-22 | Yaskawa Electric Corp | ロボットシステム |
JP2016104074A (ja) | 2014-12-01 | 2016-06-09 | 富士ゼロックス株式会社 | 姿勢判定装置、姿勢判定システム及びプログラム |
JP2017039170A (ja) | 2015-08-17 | 2017-02-23 | ライフロボティクス株式会社 | ロボット装置 |
WO2017141569A1 (ja) | 2016-02-15 | 2017-08-24 | オムロン株式会社 | 制御装置、制御システム、制御方法およびプログラム |
JP2017144490A (ja) | 2016-02-15 | 2017-08-24 | オムロン株式会社 | 制御装置、制御システム、制御方法およびプログラム |
JP2017221985A (ja) | 2016-06-13 | 2017-12-21 | ファナック株式会社 | ロボットシステム |
JP2018030185A (ja) | 2016-08-23 | 2018-03-01 | ファナック株式会社 | 人とロボットが協働して作業を行うロボットの動作を学習する機械学習器、ロボットシステムおよび機械学習方法 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2021171358A1 (ja) | 2021-09-02 |
WO2021171358A1 (ja) | 2021-09-02 |
US20230104802A1 (en) | 2023-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109483534B (zh) | 一种物体抓取方法、装置和系统 | |
JP2015520040A (ja) | 産業用ロボットを訓練および動作させること | |
JP7264253B2 (ja) | 情報処理装置、制御方法及びプログラム | |
CN114516060A (zh) | 用于控制机器人装置的设备和方法 | |
JP7452619B2 (ja) | 制御装置、制御方法及びプログラム | |
WO2022074823A1 (ja) | 制御装置、制御方法及び記憶媒体 | |
Nguyen et al. | Merging physical and social interaction for effective human-robot collaboration | |
JP7364032B2 (ja) | 制御装置、制御方法及びプログラム | |
JP7416197B2 (ja) | 制御装置、制御方法及びプログラム | |
Wei | A comprehensive approach to the generation of human-like arm movements on robot NAO | |
JP7448024B2 (ja) | 制御装置、制御方法及びプログラム | |
Yao et al. | Virtual data generation for human intention prediction based on digital modeling of human-robot collaboration | |
JP7416199B2 (ja) | 制御装置、制御方法及びプログラム | |
JP7276466B2 (ja) | 情報処理装置、制御方法及びプログラム | |
JP7468694B2 (ja) | 情報収集装置、情報収集方法及びプログラム | |
WO2022244060A1 (ja) | 動作計画装置、動作計画方法及び記憶媒体 | |
JP7456552B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP7323045B2 (ja) | 制御装置、制御方法及びプログラム | |
WO2022074827A1 (ja) | 命題設定装置、命題設定方法及び記憶媒体 | |
WO2022049756A1 (ja) | 判定装置、判定方法及び記憶媒体 | |
JP7435814B2 (ja) | 時相論理式生成装置、時相論理式生成方法及びプログラム | |
JP7435815B2 (ja) | 動作指令生成装置、動作指令生成方法及びプログラム | |
Padois | Control and design of robots with tasks and constraints in mind | |
JP7409474B2 (ja) | 制御装置、制御方法及びプログラム | |
Nambiar et al. | Automation of unstructured production environment by applying reinforcement learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220812 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220812 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230410 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230804 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230918 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7364032 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |