JP7492440B2 - ロボット制御システム、ロボット制御方法及びプログラム - Google Patents
ロボット制御システム、ロボット制御方法及びプログラム Download PDFInfo
- Publication number
- JP7492440B2 JP7492440B2 JP2020186988A JP2020186988A JP7492440B2 JP 7492440 B2 JP7492440 B2 JP 7492440B2 JP 2020186988 A JP2020186988 A JP 2020186988A JP 2020186988 A JP2020186988 A JP 2020186988A JP 7492440 B2 JP7492440 B2 JP 7492440B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- learning
- output
- environmental sensor
- environmental
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 59
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 230000007613 environmental effect Effects 0.000 claims description 271
- 238000004364 calculation method Methods 0.000 claims description 72
- 238000010801 machine learning Methods 0.000 claims description 55
- 230000002093 peripheral effect Effects 0.000 claims description 25
- 230000007246 mechanism Effects 0.000 claims description 24
- 230000006870 function Effects 0.000 claims description 16
- 238000012549 training Methods 0.000 claims description 11
- 230000003287 optical effect Effects 0.000 claims description 7
- 230000033001 locomotion Effects 0.000 description 45
- 238000012545 processing Methods 0.000 description 39
- 238000005286 illumination Methods 0.000 description 35
- 230000008859 change Effects 0.000 description 27
- 238000004891 communication Methods 0.000 description 24
- 238000013480 data collection Methods 0.000 description 24
- 230000004907 flux Effects 0.000 description 22
- 230000008569 process Effects 0.000 description 20
- 238000013528 artificial neural network Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 14
- 239000012636 effector Substances 0.000 description 11
- 210000002569 neuron Anatomy 0.000 description 8
- 230000036544 posture Effects 0.000 description 8
- 230000004044 response Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 230000032258 transport Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37555—Camera detects orientation, position workpiece, points of workpiece
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40053—Pick 3-D object from pile of objects
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Description
上記制御装置は、環境センサの現在の出力に基づいて、学習済みモデルがロボット装置の動作指令を機械学習した時のロボット装置の環境条件と、ロボット装置の現在の環境条件との一致度を演算する環境条件一致度演算部と、当該環境条件一致度演算部の演算結果に基づいて、ロボット装置の動作指令の内容、及び/又は環境センサの設定を調整する調整部と、を備える。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
まず、本発明の第1の実施形態に係るロボット装置の構成、及びロボット装置を制御するロボット制御システムの構成について、図1及び図2を参照して説明する。
図1は、第1の実施形態に係るロボット制御システムの全体構成の例を示す概略図である。ロボット制御システム100において、ロボット装置1の各部と接続したロボット制御装置5が、インターネット又はLAN等のネットワーク3を介して学習型制御装置2と通信可能に接続されている。なお、ロボット装置1はロボット制御システム100の制御対象であり、ロボット制御システム100がロボット装置1を含まない構成としてもよい。
学習型制御装置2は、エンドエフェクタ12が所望の位置に移動するように、作業用ロボット6の各関節の目標関節角度を動作指令としてロボット制御装置5へ出力する。ロボット制御装置5は、学習型制御装置2から受信した目標関節角度に対して、作業用ロボット6から受信した角度計11の角度情報に基づいて、各関節の角度が目標関節角度と一致するように、作業用ロボット6のモータ電流を制御指令として出力する。
図2は、ロボット制御システム100のソフトウェアを実行するためのハードウェア構成の例を示す概略図である。なお、図2ではインタフェースを「I/F」と記載している。
ロボット制御装置5は、システムバスを介して、制御装置51、通信インタフェース52、制御インタフェース53、及び記憶装置54が相互に電気的に接続されたコンピューターである。制御装置51は、CPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)等を含み、本実施形態に係る機能を実現するプログラム及び各種データに基づいて、情報処理を実行するように構成される。CPUに代えて、MPU(Micro Processing Unit)等の他の処理装置を用いてもよい。
学習型制御装置2は、システムバスを介して、制御装置21、通信インタフェース22、入力装置23、及び記憶装置24が相互に電気的に接続されたコンピューターである。制御装置21は、CPU、RAM、及びROM等を含み、本実施形態に係る機能を実現するプログラム及び各種データに基づいて情報処理を実行するように構成される。
図3は、ロボット装置1によって実行される作業の一例を示す外観図である。図3を用いてロボット装置1の作業例を説明する。
次に、学習型制御装置2がロボット装置1の動作指令を学習する方法について図4~図6を用いて説明する。
図5は、学習プログラム251が学習用データ252を収集する手順の例を示すフローチャートである。
図6は、学習プログラム251が学習器256を機械学習させる手順の例を示すフローチャートである。
続いて、図4に戻り学習プログラム251の学習処理部255が、データ収集部253により収集された複数の作業場面における学習用データ252を用いて、学習器256に機械学習させる方法について説明する。
学習器256は、学習用データ252のカメラ画像とロボット関節角度を入力すると、学習時のカメラ画像を再現(ノイズ除去等の処理を実施)した推定画像と、作業用ロボット6の目標関節角度である推定動作指令とを出力する。推定画像は、環境センサの出力に基づいて生成される再現信号の一例である。例えば、学習器256には、複数の層で構成されるニューラルネットワークを適用できる。ニューラルネットワークを構成する各ニューロンには、重みとバイアスが設定されている。複数のニューロンで一つの層が形成され、入力層と出力層との間には、中間層が設定される。
はじめに、学習処理部255は、学習器256の重みを初期化する(S11)。続いて、学習処理部255は、重み更新量演算部257により学習器256の出力と教師データとの誤差を演算する(S12)。具体的には、重み更新量演算部257は、学習器256が出力する推定画像と学習用データのカメラ画像との誤差、及び、学習器256が出力する推定動作指令と学習用データの動作指令との誤差を演算し、処理をステップS13に進める。
次に、学習型制御装置2がロボット装置1の動作指令を生成する方法について図7~図9を用いて説明する。
図8は、ロボット制御システム100において、学習器演算プログラム261がロボット装置1の環境条件の一致度を演算して制御量を調整する方法(演算工程、調整工程)の手順例を示すフローチャートである。
図9は、ロボット制御システム100において、環境条件一致度演算部265がロボット装置1の環境条件の一致度を演算する方法を示す概略図である。図9には、搬入トレイ32にバラ積みされた作業対象物4の画像が記載されている。
上記制御装置は、環境センサの現在の出力に基づいて、学習済みモデルがロボット装置の動作指令を機械学習した時のロボット装置の環境条件と、ロボット装置の現在の環境条件との一致度を演算する環境条件一致度演算部(環境条件一致度演算部265)と、環境条件一致度演算部の演算結果に基づいて、ロボット装置の動作指令の内容、及び/又は環境センサの設定を調整する調整部(制御量調整部266)と、を備えて構成される。
そして、環境条件一致度演算部(環境条件一致度演算部265)は、学習済みモデルが出力する学習時の環境センサの出力の再現信号と、環境センサの現在の出力との差分を、環境条件の一致度として演算する。
また、調整部(制御量調整部266)は、学習済みモデルが出力する学習時の環境センサの出力の再現信号と、環境センサの現在の出力との差分が予め定められた所定値以下になるように、ロボット装置の動作指令の内容、及び/又は環境センサの設定を調整する。
そして、環境条件一致度演算部(環境条件一致度演算部265)は、学習時の環境センサの出力の再現信号として学習済みモデル(学習器264)が学習時の複数の画像信号から推定した推定画像と、環境センサの現在の出力としての撮影画像(カメラ画像)とを比較し、推定画像と撮影画像との明度、彩度、又は撮影画像に写る作業対象物の大きさの差分を演算する。
また、調整部(制御量調整部266)は、推定画像と撮影画像との明度、彩度、又は撮影画像に写る作業対象物の大きさの差分が所定値以下となるように、周辺機器に対する動作指令の内容、及び/又は環境センサの設定を調整する。
そして、環境条件一致度演算部(環境条件一致度演算部265)は、学習時の環境センサの出力の再現信号として学習済みモデル(学習器264)が学習時の複数の画像信号(学習用データ252)から推定した推定画像と、環境センサの現在の出力として画像信号に基づく撮影画像(カメラ画像)とを比較し、推定画像と撮影画像との明度若しくは彩度の差分、又は作業対象物とロボット装置との位置関係の差分を演算する。
また、調整部(制御量調整部266)は、推定画像と撮影画像との明度若しくは彩度の差分、又は作業対象物とロボット装置との位置関係の差分が所定値以下となるように、周辺機器に対する動作指令の内容を調整する。
本発明の第2の実施形態として、現在の環境条件と学習時の環境条件の一致度に応じて、ロボット制御システムが制御内容を調整する方法について、図10及び図11を用いて説明する。
次に、第2の実施形態に係るロボット制御システム100において、学習型制御装置2が機械学習した複数の学習器から一つの学習器を選択して切り替える方法について図10及び図11を用いて説明する。
図11は、機械学習した複数の学習器から学習器演算プログラムが一つの学習器を選択する方法の手順例を示すフローチャートである。
そして、環境条件一致度演算部(環境条件一致度演算部265)は、学習時の環境センサの出力に基づく複数の学習済みモデルの出力と、環境センサの現在の出力とを比較し、複数の学習済みモデルが機械学習を行った時のロボット装置の環境条件と、ロボット装置の現在の環境条件との一致度を演算する。
また、調整部(制御量調整部266)は、環境条件一致度演算部の演算結果に基づいて、複数の学習済みモデルの中から、環境条件の一致度が最も高い学習済みモデルから出力される動作指令がロボット装置へ送信されるように制御する。
本発明の第3の実施形態として、過去に機械学習した複数の学習器に対して、新たに取得する学習用データの環境条件を自動で分類する方法について、図12を参照して説明する。
Claims (9)
- ロボット装置と、
前記ロボット装置の環境条件を取得する環境センサと、
前記環境センサの出力に対応する前記ロボット装置の動作指令と前記環境センサの出力の再現信号とを生成するように機械学習を行った、学習済みモデルに前記環境センサの現在の出力を入力して、前記学習済みモデルから出力される前記環境センサの現在の出力に対応した前記ロボット装置の動作指令と、学習時の前記環境センサの出力の再現信号とを生成し、前記ロボット装置の動作を制御する制御装置と、
を備えるロボット制御システムであって、
前記制御装置は、
前記学習済みモデルが出力する学習時の前記環境センサの出力の前記再現信号と、前記環境センサの現在の出力との差分を、前記学習済みモデルが機械学習した時の前記ロボット装置の環境条件と、前記ロボット装置の現在の環境条件との一致度として演算する環境条件一致度演算部と、
前記環境条件一致度演算部の演算結果に基づいて、前記ロボット装置の動作指令の内容、及び/又は前記環境センサの設定を調整する調整部と、を備える
ロボット制御システム。 - 前記調整部は、前記学習済みモデルが出力する学習時の前記環境センサの出力の前記再現信号と、前記環境センサの現在の出力との差分が予め定められた所定値以下になるように、前記ロボット装置の動作指令の内容、及び/又は前記環境センサの設定を調整する
請求項1に記載のロボット制御システム。 - 前記ロボット装置は、ロボット本体と、前記ロボット本体又はその周辺に配置された周辺機器と、を有し、
前記周辺機器は、前記ロボット装置内部又は当該ロボット装置周辺の照度を変更する機器であり、
前記環境センサは、前記ロボット装置が扱う作業対象物を含む光学像の画像信号を得る機能と、前記画像信号に基づく撮影画像の明度若しくは彩度、又は前記撮影画像に写る前記作業対象物の大きさを変更する機能と、を有し、
前記環境条件一致度演算部は、学習時の前記環境センサの出力の前記再現信号として前記学習済みモデルが学習時の複数の前記画像信号から推定した推定画像と、前記環境センサの現在の出力としての前記撮影画像とを比較し、前記推定画像と前記撮影画像との明度、彩度、又は前記撮影画像に写る前記作業対象物の大きさの差分を演算し、
前記調整部は、前記推定画像と前記撮影画像との明度、彩度、又は前記撮影画像に写る前記作業対象物の大きさの差分が所定値以下となるように、前記周辺機器に対する動作指令の内容、及び/又は前記環境センサの設定を調整する
請求項2に記載のロボット制御システム。 - 前記ロボット装置は、ロボット本体と、前記ロボット本体又はその周辺に配置された周辺機器と、を有し、
前記周辺機器は、前記ロボット装置内部又は当該ロボット装置周辺の照度を変更する機器の位置を変更する第1の移動機構、又は、前記環境センサの位置を変更する第2の移動機構であり、
前記環境センサは、前記ロボット装置が扱う作業対象物を含む光学像の画像信号を得る機能を有し、
前記環境条件一致度演算部は、学習時の前記環境センサの出力の前記再現信号として前記学習済みモデルが学習時の複数の前記画像信号から推定した推定画像と、前記環境センサの現在の出力として前記画像信号に基づく撮影画像とを比較し、前記推定画像と前記撮影画像との明度若しくは彩度の差分、又は前記作業対象物と前記ロボット装置との位置関係の差分を演算し、
前記調整部は、前記推定画像と前記撮影画像との明度若しくは彩度の差分、又は前記作業対象物と前記ロボット装置との位置関係の差分が所定値以下となるように、前記周辺機器に対する動作指令の内容を調整する
請求項2に記載のロボット制御システム。 - 前記制御装置は、
異なる環境条件ごとに複数の前記学習済みモデルを備え、
前記環境条件一致度演算部は、複数の前記学習済みモデルが出力する学習時の前記環境センサの出力の前記再現信号と、前記環境センサの現在の出力とを比較し、複数の前記学習済みモデルが機械学習を行った時の前記ロボット装置の環境条件と、前記ロボット装置の現在の環境条件との一致度を演算し、
前記調整部は、前記環境条件一致度演算部の演算結果に基づいて、複数の前記学習済みモデルの中から、前記環境条件の一致度が最も高い学習済みモデルから出力される動作指令が前記ロボット装置へ送信されるように制御する
請求項1に記載のロボット制御システム。 - ロボット装置の環境条件を取得する環境センサの出力に対応する前記ロボット装置の動作指令と前記環境センサの出力の再現信号とを生成するように機械学習を行った、学習済みモデルに前記環境センサの現在の出力を入力して、当該学習済みモデルから出力される前記環境センサの現在の出力に対応した前記ロボット装置の動作指令と、学習時の前記環境センサの出力の再現信号とを生成し、前記ロボット装置の動作を制御する制御装置、を備えるロボット制御システムであって、
前記制御装置は、
前記学習済みモデルが出力する学習時の前記環境センサの出力の前記再現信号と、前記環境センサの現在の出力との差分を、前記学習済みモデルが機械学習した時の前記ロボット装置の環境条件と、前記ロボット装置の現在の環境条件との一致度として演算する環境条件一致度演算部と、
前記環境条件一致度演算部の演算結果に基づいて、前記ロボット装置の動作指令の内容、及び/又は前記環境センサの設定を調整する調整部と、を備える
ロボット制御システム。 - ロボット装置と、
前記ロボット装置の環境条件を取得する環境センサと、
前記環境センサの出力に対応する前記ロボット装置の動作指令と前記環境センサの出力の再現信号とを生成するように機械学習を行った、学習済みモデルに前記環境センサの現在の出力を入力して、当該学習済みモデルから出力される前記環境センサの現在の出力に対応した前記ロボット装置の動作指令と、学習時の前記環境センサの出力の再現信号とを生成し、前記ロボット装置の動作を制御する制御装置と、
を備えるロボット制御システムのロボット制御方法であって、
前記制御装置が、前記学習済みモデルが出力する学習時の前記環境センサの出力の前記再現信号と、前記環境センサの現在の出力との差分を、前記学習済みモデルが機械学習した時の前記ロボット装置の環境条件と、前記ロボット装置の現在の環境条件との一致度として演算する演算工程と、
前記制御装置が、前記環境条件の一致度の演算結果に基づいて、前記ロボット装置の動作指令の内容、及び/又は前記環境センサの設定を調整する調整工程と、
前記制御装置が、前記調整工程で調整された前記ロボット装置の動作指令、及び/又は前記環境センサの設定に基づいて、前記ロボット装置を動作させる動作工程と、を含む
ロボット制御方法。 - ロボット装置の環境条件を取得する環境センサの出力に対応する、前記ロボット装置の動作指令と前記環境センサの出力の再現信号とを生成するように機械学習を行った、学習済みモデルに前記環境センサの現在の出力を入力して、当該学習済みモデルから出力される前記環境センサの現在の出力に対応した前記ロボット装置の動作指令と、学習時の前記環境センサの出力の再現信号とを生成し、前記ロボット装置の動作を制御する制御装置、を備えるロボット制御システムのロボット制御方法であって、
前記制御装置が、前記学習済みモデルが出力する学習時の前記環境センサの出力の前記再現信号と、前記環境センサの現在の出力との差分を、前記学習済みモデルが機械学習した時の前記ロボット装置の環境条件と、前記ロボット装置の現在の環境条件との一致度として演算する演算工程と、
前記制御装置が、前記環境条件の一致度の演算結果に基づいて、前記ロボット装置の動作指令の内容、及び/又は前記環境センサの設定を調整する調整工程と、を含む
ロボット制御方法。 - ロボット装置の環境条件を取得する環境センサの出力に対応する、前記ロボット装置の動作指令と前記環境センサの出力の再現信号とを生成するように機械学習を行った、学習済みモデルに前記環境センサの現在の出力を入力して、当該学習済みモデルから出力される前記環境センサの現在の出力に対応した前記ロボット装置の動作指令と、学習時の前記環境センサの出力の再現信号とを生成し、前記ロボット装置の動作を制御する制御装置が備えるコンピューターに、
前記学習済みモデルが出力する学習時の前記環境センサの出力の前記再現信号と、前記環境センサの現在の出力との差分を、前記学習済みモデルが機械学習した時の前記ロボット装置の環境条件と、前記ロボット装置の現在の環境条件との一致度として演算する手順と、
前記環境条件の一致度の演算結果に基づいて、前記ロボット装置の動作指令の内容、及び/又は前記環境センサの設定を調整する手順と、
を実行させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020186988A JP7492440B2 (ja) | 2020-11-10 | 2020-11-10 | ロボット制御システム、ロボット制御方法及びプログラム |
PCT/JP2021/031322 WO2022102207A1 (ja) | 2020-11-10 | 2021-08-26 | ロボット制御システム、ロボット制御方法及びプログラム |
US18/033,814 US20230390935A1 (en) | 2020-11-10 | 2021-08-26 | Robot control system, robot control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020186988A JP7492440B2 (ja) | 2020-11-10 | 2020-11-10 | ロボット制御システム、ロボット制御方法及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022076572A JP2022076572A (ja) | 2022-05-20 |
JP2022076572A5 JP2022076572A5 (ja) | 2023-06-14 |
JP7492440B2 true JP7492440B2 (ja) | 2024-05-29 |
Family
ID=81601054
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020186988A Active JP7492440B2 (ja) | 2020-11-10 | 2020-11-10 | ロボット制御システム、ロボット制御方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230390935A1 (ja) |
JP (1) | JP7492440B2 (ja) |
WO (1) | WO2022102207A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024111303A1 (ja) * | 2022-11-22 | 2024-05-30 | パナソニックIpマネジメント株式会社 | 学習システム、学習方法およびプログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006320997A (ja) | 2005-05-18 | 2006-11-30 | Nippon Telegr & Teleph Corp <Ntt> | ロボット行動選択装置及びロボット行動選択方法 |
JP2018136211A (ja) | 2017-02-22 | 2018-08-30 | オムロン株式会社 | 環境認識システム及び学習装置 |
JP2019136807A (ja) | 2018-02-08 | 2019-08-22 | ファナック株式会社 | 制御装置及び機械学習装置 |
JP2020110894A (ja) | 2019-01-16 | 2020-07-27 | 株式会社エクサウィザーズ | 学習済モデル生成装置、ロボット制御装置、及び、プログラム |
-
2020
- 2020-11-10 JP JP2020186988A patent/JP7492440B2/ja active Active
-
2021
- 2021-08-26 WO PCT/JP2021/031322 patent/WO2022102207A1/ja active Application Filing
- 2021-08-26 US US18/033,814 patent/US20230390935A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006320997A (ja) | 2005-05-18 | 2006-11-30 | Nippon Telegr & Teleph Corp <Ntt> | ロボット行動選択装置及びロボット行動選択方法 |
JP2018136211A (ja) | 2017-02-22 | 2018-08-30 | オムロン株式会社 | 環境認識システム及び学習装置 |
JP2019136807A (ja) | 2018-02-08 | 2019-08-22 | ファナック株式会社 | 制御装置及び機械学習装置 |
JP2020110894A (ja) | 2019-01-16 | 2020-07-27 | 株式会社エクサウィザーズ | 学習済モデル生成装置、ロボット制御装置、及び、プログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2022102207A1 (ja) | 2022-05-19 |
JP2022076572A (ja) | 2022-05-20 |
US20230390935A1 (en) | 2023-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10293483B2 (en) | Apparatus and methods for training path navigation by robots | |
Zhang et al. | Towards vision-based deep reinforcement learning for robotic motion control | |
US11691274B2 (en) | Software compensated robotics | |
JP3855812B2 (ja) | 距離計測方法、その装置、そのプログラム、その記録媒体及び距離計測装置搭載型ロボット装置 | |
JP5806301B2 (ja) | ロボットシステムにおける物理的な物体の選択のための方法 | |
CN114080583B (zh) | 视觉教导和重复移动操纵系统 | |
CN110480637B (zh) | 一种基于Kinect传感器的机械臂零件图像识别抓取方法 | |
JP7458741B2 (ja) | ロボット制御装置及びその制御方法及びプログラム | |
CN113172629B (zh) | 一种基于时序触觉数据处理的物体抓取方法 | |
WO2020241037A1 (ja) | 学習装置、学習方法、学習プログラム、自動制御装置、自動制御方法および自動制御プログラム | |
CN111319039B (zh) | 机器人 | |
JP2020104216A (ja) | ロボット制御装置、ロボットシステム及びロボット制御方法 | |
WO2020071174A1 (ja) | 学習装置、制御装置、学習方法、及び学習プログラム | |
US11679496B2 (en) | Robot controller that controls robot, learned model, method of controlling robot, and storage medium | |
JP7492440B2 (ja) | ロボット制御システム、ロボット制御方法及びプログラム | |
JP2021010970A (ja) | ロボットシステム及びロボット制御方法 | |
KR102332314B1 (ko) | 로봇과 카메라 간 좌표값 보정 장치 및 보정 방법 | |
CN116529033A (zh) | 细粒度工业机器人组件 | |
Maeda et al. | View-based teaching/playback for industrial manipulators | |
CN115890744A (zh) | 一种基于td3的机械手臂6-dof物体操纵训练方法及系统 | |
JPH06106490A (ja) | 制御装置 | |
KR102432370B1 (ko) | 피킹 로봇을 위한 비젼 분석 장치 | |
JP2022076572A5 (ja) | ||
JP4193098B2 (ja) | トラッキング装置、トラッキング装置のトラッキング方法及びロボット装置 | |
Maeda et al. | Lighting-and occlusion-robust view-based teaching/playback for model-free robot programming |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230606 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230606 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240322 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240514 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240517 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7492440 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |