JP2023023193A - 制御システム及び制御方法 - Google Patents
制御システム及び制御方法 Download PDFInfo
- Publication number
- JP2023023193A JP2023023193A JP2021128477A JP2021128477A JP2023023193A JP 2023023193 A JP2023023193 A JP 2023023193A JP 2021128477 A JP2021128477 A JP 2021128477A JP 2021128477 A JP2021128477 A JP 2021128477A JP 2023023193 A JP2023023193 A JP 2023023193A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- robot device
- conversion
- control
- environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 38
- 238000006243 chemical reaction Methods 0.000 claims abstract description 103
- 230000033001 locomotion Effects 0.000 claims description 61
- 230000007613 environmental effect Effects 0.000 claims description 18
- 239000012636 effector Substances 0.000 claims description 14
- 230000009466 transformation Effects 0.000 claims description 14
- 230000005540 biological transmission Effects 0.000 claims description 6
- 230000001131 transforming effect Effects 0.000 claims 1
- 238000004891 communication Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 14
- 230000008859 change Effects 0.000 description 12
- 238000010801 machine learning Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 8
- 238000013480 data collection Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 108010074864 Factor XI Proteins 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
Images
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
【課題】環境センサとロボットと作業対象物のお互いの位置関係が変わる作業環境に適切に対応し、ロボット装置の動作の教示に関する作業を軽減することが可能なロボット装置の制御システムを提供する。【解決手段】制御システム100は、環境センサ12の出力に基づいて、動作パターン生成部864の入出力データが、動作パターン生成部864が学習したときと同様なデータになる変換内容を判定し出力するデータ変換調整部865とを備える。さらに、制御システム100は、環境情報およびロボット装置1の状態の入力を、データ変換調整部865が判定した変換内容に基づいて変換し、動作パターン生成部864へ出力する環境情報変換部866と、動作パターン生成部864の出力内容を、データ変換調整部865が判定した変換内容に基づいて変換し、ロボット装置1へ出力する制御信号変換部867と、を備える。【選択図】図5
Description
本発明は、作業を実行するロボット装置の制御システムに関する。
産業用ロボットに代表されるロボット装置は、主に記憶された位置のみに対して動作を繰り返し行うため、ロボット装置に作業を実行させるためには作業内容に則した位置を指定するプログラミングが必要である。このため、作業対象物の位置ずれや作業内容の変更に対して柔軟に対応できない場合があった。
そこで、ニューラルネットワークを含む機械学習技術を用いてロボット装置に所定の作業を実行させるように制御することが知られている。作業対象物の位置等が異なる複数の作業状況において、カメラ等の環境センサの情報とロボット装置の動作指令の対応を機械学習した学習モデルを構築し、学習モデルに環境センサの出力を入力して生成した動作指令を用いてロボット装置を制御することで、作業対象物の位置等が異なる作業状況においてもロボット装置に作業を実行させることができる。
機械学習した学習器を用いたロボット装置の制御システムとして、特許文献1に記載された制御システムがある。特許文献1に記載された制御システムは、ロボットカメラにより取得した画像に対して、ロボットが適切な動作をした際に撮像された画像を推測するように機械学習された画像予測部を有している。そして、この制御システムは、現在の画像が画像予測部から出力する推測画像に近づくように動作指令を生成する。
特許文献1に記載された技術によれば、ロボットカメラの取得画像に対して、機械学習された画像予測部を用いて動作を生成するため、作業対象物の位置ずれに対して柔軟に対応して動作を生成することができる。
ところで、ロボット装置は同じ作業を異なる位置や異なる条件下で実施することがあり、その場合は環境センサとロボットと作業対象物の向き等の位置関係が変化した環境で、同じ作業を実施する必要がある。
特許文献1に記載の制御システムでは、カメラ画像に対するロボットの適切な動作を機械学習した学習モデルを使用しているが、学習モデルは機械学習した際の画像センサとロボットと作業対象物のお互いの位置関係が成り立つ環境でのみ適切な推測結果を出力できる。画像センサとロボットと作業対象物の向きなどの位置関係が機械学習した際と異なる環境の場合は、画像に対するロボットの適切な動作を出力できず、ロボットを適切に動作できない。
そのため、再度、異なる環境に対応するように機械学習し、ロボット装置の構築を行わねばならず、そのための煩雑な作業を要することがあった。
本発明は、機械学習された学習モデルを用いる制御システムにおいて、環境センサとロボットと作業対象物のお互いの位置関係が変わる作業環境に適切に対応し、ロボット装置の動作の教示に関する作業を軽減することが可能なロボット装置の制御システム及び制御方法を提供することを目的とする。
上記目的を達成するため、本発明は次のように構成される。
制御システムにおいて、1つ以上の関節で構成されたロボットアームと、エンドエフェクタとを有するロボット装置と、前記ロボット装置、及び前記ロボット装置が取り扱う作業対象物を含む前記ロボット装置の作業環境に関する環境情報を取得する環境センサと、前記環境情報と前記ロボット装置の状態に対する前記ロボット装置の制御パターンの対応関係を学習し、前記環境情報と前記ロボット装置の状態の入力に対応する前記ロボット装置の制御信号を出力する動作パターン生成部と、を有する学習型制御装置と、を備え、前記学習型制御装置は、さらに、前記環境センサの出力に基づいて、前記動作パターン生成部の入出力データが、前記動作パターン生成部が学習したときと同様なデータになる変換内容を判定し出力するデータ変換調整部と、前記環境情報、および前記ロボット装置の状態の入力を、前記データ変換調整部が判定した変換内容に基づいて変換し、前記動作パターン生成部へ出力する環境情報変換部と、前記動作パターン生成部の出力内容を、前記データ変換調整部が判定した変換内容に基づいて変換し、前記ロボット装置へ出力する制御信号変換部と、を備える。
ロボットアームと、エンドエフェクタとを有するロボット装置と、前記ロボット装置、及び前記ロボット装置が取り扱う作業対象物を含む前記ロボット装置の作業環境に関する環境情報を取得する環境センサと、前記環境情報と前記ロボット装置の状態に対する前記ロボット装置の制御パターンの対応関係を学習し、前記環境情報と前記ロボット装置の状態の入力に対応する前記ロボット装置の制御信号を出力する動作パターン生成部とを有する学習型制御装置と、を備える制御システムの制御方法であって、前記環境センサにより、前記作業環境を取得して、予め記憶された前記ロボット装置及び前記作業対象物の作業環境基準座標と比較して、取得した前記作業環境の相対座標を推定し、前記推定した相対座標と前記作業環境基準座標とに基づいて、前記推定した相対座標における前記ロボット装置と前記作業対象物の画像が前記作業環境基準座標における前記ロボット装置と前記作業対象物の画像と同様な位置関係となるためのロボット状態変換量を設定し、前記ロボット変換量に基づいて、前記ロボット装置の制御信号を変換する。
本発明によれば、機械学習された学習モデルを用いる制御システムにおいて、環境センサとロボットと作業対象物のお互いの位置関係が変わる作業環境に適切に対応し、ロボット装置の動作の教示に関する作業を軽減することが可能なロボット装置の制御システム及び制御方法を提供することができる。
以下、本発明の実施形態について図面を用いて説明する。
(実施例1)
図1及び図2を用いて、実施例1におけるロボット装置1及びロボット装置1の制御システム100の構成について説明する。
図1及び図2を用いて、実施例1におけるロボット装置1及びロボット装置1の制御システム100の構成について説明する。
図1は、本発明を適用したロボット装置1の制御システム100の構成例を示す概略図である。図1において、制御システム100は、ロボット装置1と、環境センサであるカメラ12と、学習型制御装置8とを備えている。ロボット装置1は、移動台車9と、移動台車9に取り付けられたロボットアーム10と、ロボットアーム10の先端に取り付けられたエンドエフェクタ11を有し、作業台3上の作業対象物2に対して作業を実行する。
ロボット装置1の各装置は、ロボット制御装置7に接続され、ロボット制御装置7の制御指令(ロボットアーム10のモータ電流、エンドエフェクタ11のモータ電流、等)を受け動作するとともに、ロボット装置1の状態(ロボットアーム10の関節に取り付けられた角度センサの電圧、等)をロボット制御装置7に送信する。
ロボット制御装置7は、ネットワーク6を介して学習型制御装置8に接続され、ロボット装置1から得られたロボット装置1の状態を変換(ロボットアーム10の関節角度、エンドエフェクタ11の手先位置等)して学習型制御装置8に送信する。ロボット制御装置7は、学習型制御装置8が出力する動作指令(エンドエフェクタ11の目標手先位置、等)とロボット装置1から入力したロボット装置1の状態を基にロボット装置1に対する制御指令を演算するように構成されている。
また、作業台3上の作業対象物2とロボット装置1の状態を計測するカメラ12は、ネットワーク6を介して学習型制御装置8に接続されており、撮像した作業対象物2とロボット装置1に関する画像を学習型制御装置8に送信する。
図2は本発明を適用した実施例1によるロボット装置1の制御システムにおいて、ソフトウェアを実行するためのハードウェア構成例を示す概略図である。なお、図2ではインタフェースを「I/F」と記載している。
図2において、ロボット装置1のロボット制御装置7は、制御装置71、通信インタフェース72、制御インタフェース73及び記憶装置74が互いに電気的に接続されたコンピュータである。
制御装置71は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を含み、プログラム及び各種データに基づいて情報処理を実行するように構成される。
記憶装置74は、ハードディスクドライブ等の補助記憶装置であり、制御装置71が実行する制御プログラム741を記憶する。
制御インタフェース73は、ロボット装置1のロボットアーム10、エンドファクタ11及び移動台車9と接続し、ロボット装置1のロボットアーム10、エンドファクタ11及び移動台車9への制御指令と、ロボットアーム10、エンドファクタ11及び移動台車9ロボット装置1の状態に関するデータを送受信するためのインタフェースであり、ロボット装置1を構成する機器に応じて適宜構成される。
通信インタフェース72は、学習型制御装置8と接続し、ロボット装置1への動作指令とロボット装置1の状態に関するデータを送受信するためのインタフェースであり、ネットワーク6を介して学習型制御装置8の通信インタフェース82と通信する。
ロボット制御装置7は、電源の投入等により起動すると、記憶装置74に記憶されている制御プログラム741を制御装置71に展開し実行する。制御プログラム741は通信インタフェース72から入力される学習型制御装置8の動作指令と制御インタフェース73から入力されるロボット装置1のロボットアーム10等の状態に基づいてロボット装置1への制御指令を生成し、制御インタフェース73からロボット装置1へ制御指令を出力する。また、ロボット制御装置7は、制御インタフェース73から入力されるロボット装置1のロボットアーム10等の状態を通信インタフェース72から学習型制御装置8へ出力する。
学習型制御装置8は、制御装置81、通信インタフェース82、入力装置83、記憶装置84が互いに電気的に接続されたコンピュータである。制御装置81は、CPU、RAM、ROM等を含み、プログラム及び各種データに基づいて情報処理を実行するように構成される。通信インタフェース82は、ロボット制御装置7と接続し、ロボット制御装置7へのロボット装置1の動作指令とロボット装置1の状態を送受信するためのインタフェースであり、ネットワーク6を介してロボット制御装置7の通信インタフェース72と通信する。
また、通信インタフェース82は、ネットワーク6を介してカメラ12と通信する。入力装置83はマウスやキーボード等のユーザーからの入力を取り込む装置であり、学習型制御装置8のプログラムの実行等を制御する。記憶装置84はハードディスクドライブ等の補助記憶装置であり、制御装置81が実行する学習プログラム851、工程実行プログラム861、動作指令プログラム862、学習用データ852、モデルパラメータデータ863を記憶する。
学習型制御装置8は電源の投入等により起動すると、記憶装置84に記憶されている学習プログラム851、工程実行プログラム861、動作指令プログラム862を制御装置81に展開する。
学習プログラム851は、入力装置83を介してユーザーから学習の実行が指示されると、通信インタフェース82から入力されるロボット装置1の状態を用いて学習用データ852を生成し記憶装置84に記憶し、学習用データ852を用いて後述する学習モデルを機械学習し、モデルパラメータデータ863を生成する。
工程実行プログラム861は、入力装置83を介してユーザーからロボット装置1による作業開始が指示されると、通信インタフェース82から得られるロボット装置1の状態に基づいて動作指令プログラム862を実行するタイミングを判定し、動作プログラム862の実行指示を出力する。
動作指令プログラム862は、工程実行プログラム861から動作の実行が指示されると、モデルパラメータデータ862を読込み、通信インタフェース82から得られるロボット装置1の状態とカメラ12の画像と後述する学習モデルを用いてロボット装置1の動作指令を生成し、動作指令を通信インタフェース82からロボット制御装置7に出力する。
なお、学習型制御装置8とロボット制御装置7は同一のハードウェアで構成してもよく、制御プログラム741、学習プログラム851、工程実行プログラム861、制御指令プログラム862を同一のハードウェア上で実行されるように構成されていても良い。
学習型制御装置8をハードウェアで構成する場合は、学習プログラム851は学習部、工程実行プログラム861は工程実行部、動作指令プログラム862は動作指令部となる。
学習型制御装置8をハードウェアで構成する場合は、学習プログラム851は学習部、工程実行プログラム861は工程実行部、動作指令プログラム862は動作指令部となる。
動作指令プログラム862をハードウェアで構成する場合は、動作パターン生成部864、データ変換調整部865、環境情報変換部866及び制御信号変換部867もハードウェアで構成する。
制御インタフェース73と通信インタフェース72が同一の構成であってもよく、ロボット制御装置7はネットワーク6を介してロボット装置1を制御するように構成されていてもよい。また、ロボット制御装置7と学習型制御装置8の接続はネットワーク6を介して接続されなくてもよく、通信インタフェース72、82が直接接続されている構成であってもよい。動作指令プログラム862は作業内容に応じて複数用意するように構成されていてもよく、工程実行プログラム861がロボット装置1の状態やカメラ12の撮像画像に基づいて作業の進捗を判断し、複数の動作指令プログラムの中で実行するプログラムを選択するように構成してもよい。
また、学習プログラム851と、工程実行プログラム861、および制御指令プログラム862は同一の学習型制御装置8に記憶されていなくてもよく、ネットワーク6を介して異なる学習型制御装置8が学習用データ852やモデルパラメータデータ863を通信するように構成されていてもよい。
次に、本発明の実施例1であるロボット装置1の制御システム100において、環境情報に対する動作を学習し、ロボット装置1への制御指令として出力するように構成した学習型制御装置8が、作業対象物とロボットの位置関係を推定し、制御指令を変換して出力する方法を図3乃至図7Cを用いて説明する。
図3は、ロボット装置1によって実行される作業の一例を示す外観図である。
図3を用いてロボット装置1の作業例を説明する。
多品種少量生産を行う現場では、いくつかの作業(組立て作業、等)を複数の作業場所に分散して行うことがある。
例えば、図3に示すように、複数のロボット装置1が、複数の作業台3上に配置された作業対象物2や自動搬送車5により搬送される作業対象物2を組み立てる作業などがある。このような現場における作業では、需要変動に応じて作業内容の入替えが発生することがある。例えば、ある作業台3で組立て作業を行っていたロボット装置1が、生産計画の変更に応じて異なる作業台3に移動して作業を行うことがある。
このとき、ロボット装置1は移動距離の短縮や、他のロボット装置1との干渉を回避するために作業台3に対して異なる方向から作業を行うことがある。また、生産計画の変更に応じて、自動搬送車5により搬送される作業対象物2の受け渡し場所が変更され、組立て作業におけるロボット装置1と作業対象物2の位置関係が変更されることがある。
上述した現場において、ロボット装置1が適切に作業を実行するためには、ロボット装置1の停止位置のずれや自動搬送車5の部品供給位置のずれ等により発生する作業対象物2の位置ずれなどに対して柔軟に対応するとともに、ロボット装置1と作業対象物2の位置や向き等の位置関係の変更に対応する必要がある。
図4は学習型制御装置8が実行する学習プログラム851のソフトウェア構成を示す模式図である。図4を用いて学習型制御装置8が、ロボット装置1の動作指令の生成方法を学習する方法を説明する。なお、学習プログラム851は、制御装置81に展開され実行するときに、データ収集部853、データ収集指示部854、学習処理部855をソフトウェアモジュールとして備えるように構成される。
データ収集部853は、入力装置83を介したユーザーの指示に基づいて学習用データ852の収集を指示するデータ収集指示部854を備え、ロボット装置1が稼働している時のカメラ12のカメラ画像、エンドエフェクタ11の手先位置であるロボット手先位置、エンドエフェクタ11の目標手先位置であるロボット動作指令を、通信インタフェース82を介して取得し、学習用データ852として保存する。例えば、予めロボット制御装置7の制御プログラム741に、ロボット装置1の手先位置を複数指定し、所定の時間で指定した手先位置に移動するようにプログラミングし、そのプログラムにて作業を実行している際の、予め定められたサンプリング毎のデータを取得し、時系列データを1つの学習用データとして保存する。
そして、データ収集部853は、作業対象物2の位置を僅かに変更する等、作業の条件を変更した状態で複数の作業を実行している際の、複数の学習用データを収集する。
学習処理部855は、データ収集部853により収集された学習用データ852を用いて学習モデル856を機械学習する。学習処理部855は、学習用データ852のカメラ画像とロボット手先位置を入力とし、ロボット動作指令の推定結果を出力するニューラルネットワークである学習モデル856と、学習用データ852の動作指令と、学習モデル856の推定動作指令を比較して、学習用データ852の内容と学習モデル856の出力が一致するように学習モデル856のモデルパラメータ(ニューラルネットワークの各ニューロン間の結合度やニューロンの発火閾値等の重み)の更新量を演算するパラメータ更新量演算部857を備える。
そして、学習処理部855は、予め定められた条件に達するまで学習モデル856のモデルパラメータを、パラメータ更新量演算部857が演算する更新量に従い更新し続け、予め定められた条件に達した場合、その時の学習モデル856のモデルパラメータをモデルパラメータデータ863として保存する。
なお、図4に示す学習モデル856のニューラルネットワークは単純な多層パーセプトロン(MLP:Multi Layer Perceptron)を図示しているが、異なるネットワークを用いてもよく、例えば畳み込みネットワーク(CNN:Convolutional Neural Network)や再帰型ネットワーク(RNN:Recurrent Neural Network)等を用いる構成にしてもよく、さらにこれらのネットワークを組み合わせた構成としてもよい。
図5は学習型制御装置8が実行する動作指令プログラム862のソフトウェア構成を示す模式図である。図6は動作指令プログラム862の動作パターン生成部864、データ変換調整部855、環境情報変換部866、制御信号変換部867がロボット装置1へ動作指令を出力しロボット装置1の動作を生成する方法を示すフローチャートである。
図7A、図7B及び図7Cはデータ変換調整部865がデータの変換内容を設定し、環境情報変換部866、および制御信号変換部867が環境情報、およびロボット動作指令を変換する方法を示す概略図である。
図7Aはモデルパラメータデータ863を学習した際のロボット装置1と作業対象物2aおよび2bとカメラ12の位置関係を示している。図7B及び図7Cはモデルパラメータデータ863を学習したときと異なるロボット装置1と作業対象物2aおよび2bとカメラ12の位置関係を示している。
図5乃至図7Cを用いて学習型制御装置8が、作業対象物2a及び2bとロボット装置1の位置関係を推定し、制御指令を変換して出力する方法を説明する。なお、図6の全てのステップは学習型制御装置8において、予め定められたサンプリング毎に実行される。また、動作指令プログラム862は、工程実行プログラム861から動作実行指示を受けると記憶装置84に記憶された動作指令プログラム861を制御装置81に展開し実行することで、動作パターン生成部864、データ変換調整部865、環境情報変換部866、制御信号変換部867をソフトウェアモジュールとして備えるように構成する。図7A、図7B及び図7Cに示した位置関係における作業は説明の一例として作業対象物2aの凹部に作業対象物2bを把持して挿入する作業を示している。
動作指令プログラム862は、通信インタフェース82を介して入力されるカメラ12からのカメラ画像に基づいて、カメラ画像とロボット手先位置に関する環境情報の変更内容、およびロボット動作指令の変更内容を設定するデータ変換調整部865と、カメラ画像とロボット手先位置を入力とし、入力された2つの情報の位置や向きに関する内容を変更する環境情報変換部866と、モデルパラメータデータ863を反映した学習モデル856を備え、環境情報変換部866により変換されたカメラ画像とロボット手先位置を入力とし、ロボット動作指令を出力する動作パターン生成部864と、動作パターン生成部864のロボット動作指令の位置や向きに関する内容を変更する制御信号変換部867により構成され、工程実行プログラム861から動作実行指示が入力されプログラムが実行されると、通信インタフェース82を介して、制御信号変換部867から出力されるロボット動作指令を、ロボット制御装置7へ出力する。
工程実行プログラム861により動作指令プログラム862が起動されると、データ変換調整部865は、ステップS100でカメラ画像を取得し、続いてステップS101でカメラ12の基準座標に対する作業対象物2a、2bの相対座標(作業対象物座標)を推定する。
作業対象物座標は図7A、図7B及び図7Cに示すように、作業対象物2aの凹部方向にx軸、そこから作業対象物2bが置かれている方向をy軸と予め定義する。
図7Aに示すモデルパラメータデータ863を学習した際の、カメラ基準座標と作業対象物座標の向きが一致しており、かつカメラ座標におけるx軸上に作業対象物2aの座標の原点がある状態を基準状態とする。
図7Bに示す状態の作業対象物座標は、基準状態に対し作業対象物座標をカメラ基準座標の正のx方向と負のy方向に移動した後、90度回転した相対座標であると推定する。図7Cに示す状態の作業対象座標は、作業対象物2aに対する作業対象物2bの位置が図7Aに示した位置と異なっているため、基準状態に対し作業対象物座標のx軸を中心に反転した相対座標であると推定する。
なお、作業対象物2a、2bの相対座標の推定は、画像中からテンプレート画像に一致する箇所を見つけるテンプレートマッチングを用いて作業対象物2a、2bの位置や形状を認識し、認識結果に基づいて作業対象物座標を推定するように構成してもよく、またR-CNN(Regions with Convolutional Neural Networks)に基づく物体検出手法を用いて作業対象物2a、2bの位置や形状を認識して作業対象物座標を推定してもよい。
ステップS102では、作業対象物座標に対するロボット装置1の相対座標(ロボット座標)を推定する。ロボット装置1の座標はロボット制御装置7がロボット装置1の制御に用いる固有の座標定義(ロボットアーム10と移動台車9の接続部を中心とした座標)を使用する。
そして、図7Aに示すように、ロボット座標が作業対象物座標のx軸の正方向、y軸の負方向に移動した後に90度回転した状態を基準状態とする。
図7Bに示す状態のロボット座標は、基準状態に対し作業対象物座標のx軸の正方向とy軸の正方向に移動した後、‐90度回転した相対座標と推定する。
図7Cに示す状態のロボット座標は、作業対象物座標のx軸の正方向とy軸の正方向に移動した後、ロボット座標のy軸を中心に反転した相対座標と推定する。なお、ロボット座標はロボット装置1の移動台車9の移動量に基づく自己位置推定結果を用いて、作業現場全体に対するグローバル座標を求め、グローバル座標における作業対象物の座標の差分から求めるように構成していてもよい。
ステップS103では環境情報変換部866における画像の変換量を設定する。
図7Bに示す状態において、作業対象物2a、2bの撮像結果が図7Aに示す基準状態と同様になるためには、画像をカメラ基準座標のx軸の負方向とy軸の正方向に移動した後、‐90度回転すると基準状態と同様な画像となる。このため、変換量をカメラ基準座標のx軸の負方向とy軸の正方向への移動と‐90度の回転と設定する。
図7Cに示す状態において、作業対象物2a、2bの撮像結果が図7Aに示す基準状態と同様になるためには、画像をカメラ基準座標のx軸を中心に反転すると、基準状態と同様の画像となるので、変換量をカメラ基準座標のx軸を中心とした反転と設定する。
ステップS104では環境情報変換部866におけるロボット状態の変換量を設定する。
図7Bに示す状態において、作業対象物座標とロボット座標の相対位置が図7Aに示す基準状態と同様になるためには、ロボット座標をロボット座標上で90度回転した後、x軸の負方向とy軸の正方向に移動すると基準状態と同様な位置関係になるので、変換量をロボット座標上の90度の回転とx軸の負方向とy軸の正方向への移動と設定する。
図7Cに示す状態において、作業対象物の座標とロボット座標の相対位置が図7Aに示す基準状態と同様になるためには、ロボット座標の原点をロボット座標上のy軸を中心に反転し、ロボット座標上でx軸の負方向とy軸の正方向に移動すると基準状態と同様な位置関係になるので、変換量をロボット座標のy軸を中心とした反転とロボット座標上のx軸の負方向とy軸の正方向への移動と設定する。
ステップS105では制御信号変更部867における制御指令の変更量を設定する。制御指令の変更量は、ステップS104で設定したロボット状態の変換と反対の変換となるように設定する。
次に、ステップS106では、ロボット装置1に動作指令を出力し、動作の初期位置に移動する。動作の初期位置はモデルパラメータデータ863を学習した際の動作の開始点であり、図7Aに示すように、作業対象物座標上のx軸上の正の位置を初期位置として予め設定される。
そして、図7B、および図7Cに示すように、ステップS101で推定した作業対象物座標における初期位置を設定し、設定した初期位置に対しステップS105で設定した変換量を用いて変換した位置を目標位置として、ロボット装置1が目標位置へ移動するようにロボット装置1への動作指令を出力する。
なお、ステップS106における動作指令は一般的な産業用ロボットにおける動作指令でありエンドエフェクタ11が所定の位置と姿勢に移動するように動作するPoint to Point(PtP)による動作指令としてもよく、一般的な軌道計画手法を用いたその他の動作指令としてもよい。
環境情報変換部866は、ステップS107でロボット装置1の環境情報であるカメラ画像とロボット手先位置を取得し、続いてステップS108で、データ変換調整部865がステップS103とステップS104で設定した変換量を取得したデータに適用し、出力する。環境情報変換部866は、環境センサであるカメラ12の出力データを、カメラ12の座標系を基準とした回転または反転する変換を行う。
なお、画像の変換はアフィン変換を用いた画像処理を行うように構成してもよく、ロボット手先位置の変換は同時変換行列を用いた座標の変換を行うように構成してもよい。
動作パターン生成部864は、モデルパラメータデータ863を適用した学習モデル856に環境情報変更部866がステップS108で変更した環境情報を入力し、ステップS109でロボット装置1の動作指令を推定して生成し、出力する。
制御信号変換部867は、ステップS110でデータ変換調整部865がステップS105で設定した変換量を動作パターン生成部864から出力された動作指令に適用し、出力する。データ変換調整部865は、環境センサであるカメラ12の座標系における、作業対象物2a、2bの基準座標、およびロボット装置1の基準座標を推定し、環境センサであるカメラ12の座標系に対する、作業対象物2a、2b、およびロボット装置1の座標系の位置と姿勢の差分に基づいて、環境情報変換部866および制御信号変換部867の変換内容を調整する。
動作指令プログラム862は、ステップS111で、制御信号変換部867が出力した動作指令を、通信インタフェース82を介してロボット制御装置7に出力し、続くステップS112において動作が完了したか判定する。
動作が完了していない場合はステップS107の前に処理を戻し、動作指令を繰り返し出力する。
そして、ステップS112において、動作が完了している場合は処理を終了する。
環境情報変換部866は、環境センサであるカメラ12の出力データを、カメンラ12の座標系を基準とした回転、または反転する変換を行い、制御信号変換部867は、ロボット装置1への制御信号を、ロボット装置1の座標系を基準とした回転、または平行移動、または反転する変換を行う。
環境情報変換部866は、環境センサであるカメラ12の出力データを、カメンラ12の座標系を基準とした回転、または反転する変換を行い、制御信号変換部867は、ロボット装置1への制御信号を、ロボット装置1の座標系を基準とした回転、または平行移動、または反転する変換を行う。
なお、動作の完了の判断は予め設定した時間が経過したときに動作を終了したと判定してもよく、また、所定の位置に移動したときに動作を終了したと判定するように構成してもよく、他の条件に基づいて動作を終了したと判定してもよい。
なお、説明を簡単にするため、図7A、図7B及び図7Cでは、2次元平面座標における回転と移動に関する変換を用いているが、3次元空間座標による変換にしてもよい。また、ステップS101、およびステップS106における作業対象物の座標推定や初期位置の設定は予め設定されているものとしたが、固定された設定に限定される必要はなく、データ収集部853で学習用データ852を生成する際に作業対象物2a、2bの座標の定義や初期位置を定義するとともに、座標の定義や初期位置の定義をモデルパラメータデータ863に含むように構成してもよく、データ変換調整部865は座標の定義や初期位置の定義が含まれたモデルパラメータデータ863を読込み、定義された座標の定義や初期位置を用いて変換量を設定されるように構成していてもよい。
このように、本発明の実施例1によれば、ロボット装置1と作業対象物2a、2bと画像センサであるカメラ12の位置関係を判別し、学習モデル856を学習したときと同様の位置関係となるように環境情報と制御信号を変換することで、環境に対応するための再学習が不要となり、ロボット装置1の動作の教示に関する作業を軽減することができる。
つまり、機械学習された学習モデルを用いる制御システムにおいて、環境センサとロボットと作業対象物のお互いの位置関係が変わる作業環境に適切に対応し、ロボット装置の動作の教示に関する作業を軽減することが可能なロボット装置の制御システム及び制御方法を提供することができる。
また、学習モデル856は、ロボット装置1と作業対象物2a、2bと画像センサ12の位置関係が変わるなどの、大きく異なる作業状況での動作を学習しようとすると、条件が多岐にわたりモデルの最適化が適切に行われないために動作精度が低下することがあるが、本発明の実施例1を適用することで、学習モデル856は作業状況の変化への対応が不要となり、動作精度を向上することができる。
実施例1による制御システムの制御方法を以下に記載する。
ロボットアーム10と、エンドエフェクタ11とを有するロボット装置1と、ロボット装置1、及びロボット装置1が取り扱う作業対象物2a、2bを含むロボット装置1の作業環境に関する環境情報を取得するカメラ(環境センサ)12と、環境情報とロボット装置1の状態に対するロボット装置1の制御パターンの対応関係を学習し、環境情報とロボット装置1の状態の入力に対応するロボット装置1の制御信号を出力する動作パターン生成部864とを有する学習型制御装置8と、を備える制御システムの制御方法であって、カメラ(環境センサ)12により作業環境を取得して、予め記憶されたロボット装置1及び作業対象物2a、2bの作業環境基準座標と比較して、取得した作業環境の相対座標を推定し、推定した相対座標と作業環境基準座標とに基づいて、推定した相対座標におけるロボット装置1と作業対象物2a、2bの画像が作業環境基準座標におけるロボット装置1と作業対象物2a、2bの画像と同様な位置関係となるためのロボット状態変換量を設定し、ロボット変換量に基づいて、ロボット装置1の制御指令を変換する。
(実施例2)
次に、本発明の実施例2であるロボット装置1の制御システム200として、学習型制御装置8が、作業対象物2a、2bと複数のロボット装置1a、1bの位置関係を推定し、制御指令を変換して出力するともに作業に適切なロボット装置1aまたはロボット装置1bを選択する例を図8乃至図10を用いて説明する。
次に、本発明の実施例2であるロボット装置1の制御システム200として、学習型制御装置8が、作業対象物2a、2bと複数のロボット装置1a、1bの位置関係を推定し、制御指令を変換して出力するともに作業に適切なロボット装置1aまたはロボット装置1bを選択する例を図8乃至図10を用いて説明する。
図8は、本発明の実施例2を適用したロボット装置1a、1bの制御システム200の構成例を示す概略図である。
図8において、制御システム200は、ロボット装置1a(ロボットアーム10aとエンドエフェクタ11aを備える)と異なるロボット装置1b(ロボットアーム10bとエンドエフェクタ11baを備える)を有し、2つのロボット装置1aと1bは一つの作業台3上の作業対象物2(2a、2b)に対して作業を実行する。
ロボット装置1a及びロボット装置1bのロボット制御装置7a、及び7bは、ネットワーク6を介して学習型制御装置8に接続される。
図9は、本発明の実施例2を適用した異なるロボット装置1a、1bの学習型制御装置8が実行する動作指令プログラム862のソフトウェア構成を示す模式図である。
図9において、動作指令プログラム862は、実施例1における図5の例に、さらに、データ変換調整部865の指示を受けて制御信号変換部867が出力する動作指令の出力先をロボット装置1aまたはロボット装置1bのどちらかに切り替える(選択する)制御指令送信先設定部868を有するように構成される。つまり、データ変換調整部865は、作業対象物2a、2bと複数のロボット装置1a、1bの位置関係に基づいて、作業に使用するロボット装置を複数のロボット装置1a、1bから選択する。
図10A及び図10Bは、本発明の実施例2を適用した異なるロボット装置1a、1bのデータ変換調整部865と制御指令送信先設定部868が動作指令の出力先を切り替える方法を示す概略図である。
図10Aは、図7Aと同じくモデルパラメータデータ863を学習した際のロボット装置1と作業対象物2aおよび2bとカメラ12の位置関係を示している。図10Bは、ロボット装置1aおよびロボット装置1bと作業対象物2aおよび2bとカメラ12の位置関係を示している。ロボット装置1a、1bの動作を生成する方法は、以下に示すステップS102及びS111以外は、図6に示すフローチャートと同様となる。
データ変換調整部865は、図6のステップS102において、作業対象物2a、2bに対するロボット装置1aの相対座標(ロボットa座標)とロボット装置1bの相対座標(ロボットb座標)を推定し、それぞれの相対座標における変化量をさらに算出する。
図10Bに示すように、ロボットa座標は、図10Aに示した基準状態の作業対象物座標に対して、移動および回転がない状態である一方、ロボットb座標は図7Bと同様に、基準状態に対し作業対象物座標の正のx方向と正のy方向に移動した後、‐90度回転した相対座標と推定される。これより、ロボット装置1aを用いて作業を行う場合は、環境情報変換部866にて画像を回転させる処理を行うのみで十分であるが、ロボット装置1bを用いて作業を行う場合は、画像の回転とロボット状態の入力と動作指令の変換が必要になる。
このとき、ロボット状態の入力と動作指令の変換を行う場合、ロボットアーム10が実現できない動作目標を出力する可能性があり、作業を遂行できない場合があるので、ロボット状態の入力と動作指令の変換量はなるべく小さい方が望ましい。
データ変換調整部865は、それぞれの相対座標における変化量を算出し、変化量が小さいロボット装置1aまたは1bの判別結果を制御指令送信先設定部868に出力する。
制御指令送信先設定部868は、図6のステップS111において、制御指令をロボット装置1aに出力するように、通信インタフェース82の送信先を変更する。
実施例2によれば、実施例1と同様な効果を得ることができる他、2つのロボット装置1aと1bが一つの作業台3上の作業対象物2(2a、2b)に対して作業を実行する場合において、複数のロボット装置1a、1bに対して環境情報や制御信号の変換量を推定し、変換量が小さいロボット装置1a、1bを選択することで、ロボットアーム10が実現不可能となる姿勢になるような動作指令の出力を回避するので、作業成功率を向上することができる。
(実施例3)
次に、本発明の実施例3について説明する。
次に、本発明の実施例3について説明する。
本発明の実施例3であるロボット装置1の制御システムとして、複数の環境情報変換部866a、866b・・・、および制御信号変換部867a、867b・・・の変換結果から適切な変換量を推定する例図11を用いて説明する。
図11は、本発明の実施例3を適用した異なるロボット装置の学習型制御装置8が実行する動作指令プログラム862のソフトウェア構成を示す模式図である。
図11において、動作指令プログラム862は、予め変換量が設定された複数の環境情報変換部866a、866b・・・と、複数の制御信号変換部867a、867b・・・と、複数の動作パターン生成部864a、864b・・・とを備え、複数の環境情報変換部866a、866b・・・からの変換画像と、複数の動作パターン生成部864a、864b・・・からの予測画像をデータ変換調整部865に入力するように構成する。複数の環境情報変換部866a、866b・・・からの変換画像は、複数の動作パターン生成部864a、864b・・・に出力され、複数の動作パターン生成部864a、864b・・・からの予測画像は、複数の制御信号変換部867a、867b・・・に出力される。
そして、データ変換調整部865の出力結果に基づいて複数の制御信号変換部867の出力結果から1つの制御信号を選択する制御信号選択部869をさらに備えるように構成される。制御信号選択部869は、選択した制御信号をロボット動作指令として通信インタフェース82に出力する。
動作パターン生成部864a、864b・・・の内部の学習モデル856は制御信号の推定結果とともに、入力されたカメラ画像を予測(再現)した予測画像をさらに出力するように構成する。
このとき、学習モデル856は、入力したカメラ画像が学習した時と同様の画像であれば入力した画像を精度よく再現するが、学習した時と異なる環境の画像を入力された場合、学習時の画像を再現しようとし、入力したカメラ画像と異なる画像を出力する。
換言すれば、入力された画像と予測画像の差分を取ることで、現在の環境が学習時とどの程度近い環境であるかを判定することができる。
データ変換調整部865は、複数の環境情報変換部866a、866b・・・により変換された画像と、変換された画像に対応する複数の予測画像の組み合わせ(ペア)の差分を取り、差分が最も小さい組合せを判別し、判別した環境情報の変換内容となるように制御信号選択部869の選択を変更する指示を出力する。
なお、説明を簡単にするため予め変換量が設定された複数の環境情報変換部866a、866b・・・の中から変換画像と予測画像の差分が最も小さい組合せを選択する構成としたが、予め定められた設定でなくてもよく、設定値を変更しながら繰り返し演算を行い、変換画像と予測画像の差分が最も小さくなる設定値を探索する構成としてもよいことは明白である。
このように、実施例3によれば、実施例1と同様な効果を得ることができる他、学習モデルの予測結果を用いて変換内容を選択するように構成することで、学習モデルにより適合する変換内容を適用することができ、ロボット装置1の動作精度を向上することができる。
なお、本発明は上記の実施例に限定されるものではなく、様々な変形例が含まれる。
例えば、本実施例1~3の説明に用いたロボットアーム11は垂直多関節型ロボットとして図示しているが、直交座標型ロボット、水平多関節型ロボット、パラレルリンクロボット等であっても良い。ロボット装置1の作業状況を計測するデバイス(環境センサ)としてカメラ12以外の機器を用いてもよく、例えばレーザーを用いた測距計であるLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)を用いて、作業対象物2や周囲の物体の形状を計測することで環境条件を計測するように構成してもよいことは明白である。
また、実施例2において、ロボット装置1a、1bの2つのみならず、2つ以上とすることもできる。
また、動作パターン生成部864は、カメラ12の撮像画像とロボットアーム10の手先位置の情報に基づいて目標手先位置を動作指令として出力しているが、ロボットアーム10の関節角度に基づいて目標関節角度を動作指令として出力しても良い。
また、一定のサンプリング周期で動作するように構成し、手先位置の相対移動量(1サンプリングの動作量)を動作指令として出力するように構成していても良い。
さらに、学習用データ852やモデルパラメータデータ862はネットワーク6を介して、他の現場における学習型制御装置8と共有するように構成してもよいことは明白である。
1、1a、1b・・・ロボット装置、2、2a、2b・・・作業対象物、3・・・作業台、6・・・ネットワーク、7・・・ロボット制御装置、8・・・学習型制御装置、9・・・移動台車、10、10a、10b・・・ロボットアーム、11、11a、11b・・・エンドエフェクタ、12・・・カメラ、71、81・・・制御装置、72、82・・・通信インタフェース、73・・・制御インタフェース、74、84・・・記憶装置、83・・・入力装置、100、200・・・制御システム、851・・・学習プログラム、852・・・学習用データ、853・・・データ収集部、854・・・データ記録指示部、855・・・学習処理部、856・・・学習モデル、857・・・パラメータ更新量演算部、861・・・工程実行プログラム、862・・・動作指令プログラム、863・・・モデルパラメータデータ、864・・・動作パターン生成部、865・・・データ変換調整部、866・・・環境情報変換部、867・・・制御信号変換部、869・・・制御信号選択部
Claims (10)
- 1つ以上の関節で構成されたロボットアームと、エンドエフェクタとを有するロボット装置と、
前記ロボット装置、及び前記ロボット装置が取り扱う作業対象物を含む前記ロボット装置の作業環境に関する環境情報を取得する環境センサと、
前記環境情報と前記ロボット装置の状態に対する前記ロボット装置の制御パターンの対応関係を学習し、前記環境情報と前記ロボット装置の状態の入力に対応する前記ロボット装置の制御信号を出力する動作パターン生成部と、を有する学習型制御装置と、
を備え、
前記学習型制御装置は、さらに、
前記環境センサの出力に基づいて、前記動作パターン生成部の入出力データが、前記動作パターン生成部が学習したときと同様なデータになる変換内容を判定し出力するデータ変換調整部と、
前記環境情報、および前記ロボット装置の状態の入力を、前記データ変換調整部が判定した変換内容に基づいて変換し、前記動作パターン生成部へ出力する環境情報変換部と、
前記動作パターン生成部の出力内容を、前記データ変換調整部が判定した変換内容に基づいて変換し、前記ロボット装置へ出力する制御信号変換部と、
を備えることを特徴とする制御システム。 - 請求項1に記載の制御システムにおいて、
前記データ変換調整部は、前記環境センサの座標系における、前記作業対象物の基準座標および前記ロボット装置の基準座標を推定し、前記環境センサの座標系に対する、前記作業対象物および前記ロボット装置の座標系の位置と姿勢の差分に基づいて、前記環境情報変換部および前記制御信号変換部の変換内容を調整することを特徴とする制御システム。 - 請求項1に記載の制御システムにおいて、
前記環境情報変換部は、前記環境センサの出力データを、前記環境センサの座標系を基準とした回転、または反転する変換を行い、
前記制御信号変換部は、前記ロボット装置への制御信号を、前記ロボット装置の座標系を基準とした回転、または平行移動、または反転する変換を行うことを特徴とする制御システム。 - 請求項1に記載の制御システムにおいて、
前記ロボット装置は、2つ以上のロボット装置を有し、
前記データ変換調整部は、前記作業対象物と前記複数のロボット装置の位置関係に基づいて、作業に使用するロボット装置を前記複数のロボット装置から選択する制御指令送信先設定部を備えることを特徴とする制御システム。 - 請求項1記載の制御システムにおいて、
前記動作パターン生成部は、前記環境情報と前記ロボット装置の状態の入力に対応する前記ロボット装置の制御信号と前記環境情報の予測情報をさらに出力し、
前記学習型制御装置は、変換内容が異なる複数の環境情報変換部と制御信号変換部を有し、
前記データ変換調整部は、前記複数の環境情報変換部を介して得られる前記動作パターン生成部の複数の環境情報の予測情報と、前記環境センサが出力する環境情報を比較し、最も一致する前記環境情報変換部の変換内容を選択する制御信号選択部を備えることを特徴とする制御システム。 - ロボットアームと、エンドエフェクタとを有するロボット装置と、前記ロボット装置、及び前記ロボット装置が取り扱う作業対象物を含む前記ロボット装置の作業環境に関する環境情報を取得する環境センサと、前記環境情報と前記ロボット装置の状態に対する前記ロボット装置の制御パターンの対応関係を学習し、前記環境情報と前記ロボット装置の状態の入力に対応する前記ロボット装置の制御信号を出力する動作パターン生成部とを有する学習型制御装置と、を備える制御システムの制御方法であって、
前記環境センサにより、前記作業環境を取得して、予め記憶された前記ロボット装置及び前記作業対象物の作業環境基準座標と比較して、取得した前記作業環境の相対座標を推定し、
前記推定した相対座標と前記作業環境基準座標とに基づいて、前記推定した相対座標における前記ロボット装置と前記作業対象物の画像が前記作業環境基準座標における前記ロボット装置と前記作業対象物の画像と同様な位置関係となるためのロボット状態変換量を設定し、
前記ロボット変換量に基づいて、前記ロボット装置の制御信号を変換することを特徴とする制御システムの制御方法。 - 請求項6に記載の制御システムの制御方法において、
前記環境センサの座標系における、前記作業対象物の基準座標および前記ロボット装置の基準座標を推定し、前記環境センサの座標系に対する、前記作業対象物および前記ロボット装置の座標系の位置と姿勢の差分に基づいて、前記ロボット装置の前記制御信号の変換内容を調整することを特徴とする制御システムの制御方法。 - 請求項6に記載の制御システムの制御方法において、
前記環境センサの出力データを、前記環境センサの座標系を基準とした回転、または反転する変換を行い、
前記ロボット装置への制御信号を、前記ロボット装置の座標系を基準とした回転、または平行移動、または反転するように変換することを特徴とする制御システムの制御方法。 - 請求項6に記載の制御システムの制御方法において、
前記ロボット装置は、2つ以上のロボット装置を有し、
前記作業対象物と前記複数のロボット装置の位置関係に基づいて、作業に使用するロボット装置を前記複数のロボット装置から選択することを特徴とする制御システムの制御方法。 - 請求項6記載の制御システムの制御方法において、
前記環境情報と前記ロボット装置の状態に対応する前記ロボット装置の制御信号と前記環境情報の予測情報を出力し、
複数の環境情報の予測情報と、前記環境センサが出力する前記環境情報を比較し、最も一致する環境情報の変換内容を選択するように変換内容を調整することを特徴とする制御システムの制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021128477A JP2023023193A (ja) | 2021-08-04 | 2021-08-04 | 制御システム及び制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021128477A JP2023023193A (ja) | 2021-08-04 | 2021-08-04 | 制御システム及び制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023023193A true JP2023023193A (ja) | 2023-02-16 |
JP2023023193A5 JP2023023193A5 (ja) | 2024-03-13 |
Family
ID=85203857
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021128477A Pending JP2023023193A (ja) | 2021-08-04 | 2021-08-04 | 制御システム及び制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023023193A (ja) |
-
2021
- 2021-08-04 JP JP2021128477A patent/JP2023023193A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9149932B2 (en) | Robot picking system, control device, and method of manufacturing a workpiece | |
US10974393B2 (en) | Automation apparatus | |
US8768512B2 (en) | Robot and control method thereof | |
Vijayakumar et al. | Statistical learning for humanoid robots | |
CN110640730A (zh) | 生成用于机器人场景的三维模型的方法和系统 | |
JP2019107704A (ja) | ロボットシステム及びロボット制御方法 | |
US12090673B2 (en) | Control apparatus, control method, and computer-readable storage medium storing a control program | |
JP6322949B2 (ja) | ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム | |
CN113910218A (zh) | 基于运动学与深度神经网络融合的机器人标定方法和装置 | |
CN114096968A (zh) | 模型生成装置、模型生成方法、控制装置以及控制方法 | |
Zeller et al. | Motion planning of a pneumatic robot using a neural network | |
JP7492440B2 (ja) | ロボット制御システム、ロボット制御方法及びプログラム | |
WO2024041577A1 (zh) | 机器人控制方法、装置、设备和机器人 | |
JP7263987B2 (ja) | 制御装置、制御方法、及び制御プログラム | |
JP2023023193A (ja) | 制御システム及び制御方法 | |
Behera et al. | A hybrid neural control scheme for visual-motor coordination | |
dos Santos et al. | A neural autonomous robotic manipulator with three degrees of freedom | |
Chen et al. | Robot autonomous grasping and assembly skill learning based on deep reinforcement learning | |
Kim et al. | Improvement of Door Recognition Algorithm using Lidar and RGB-D camera for Mobile Manipulator | |
CN115465799A (zh) | 塔吊控制参数调节方法及装置、计算设备和存储介质 | |
Shauri et al. | Sensor integration and fusion for autonomous screwing task by dual-manipulator hand robot | |
KR20220065232A (ko) | 강화학습 기반으로 로봇을 제어하는 장치 및 방법 | |
JPH06106490A (ja) | 制御装置 | |
WO2022230280A1 (ja) | ロボット制御システム、ロボット制御方法及びプログラム | |
Palenta et al. | Kuka robot motion planning using the 1742 ni smart camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240305 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240305 |