JP7478848B2 - 教師データ生成装置、機械学習装置、及びロボット関節角度推定装置 - Google Patents
教師データ生成装置、機械学習装置、及びロボット関節角度推定装置 Download PDFInfo
- Publication number
- JP7478848B2 JP7478848B2 JP2022572200A JP2022572200A JP7478848B2 JP 7478848 B2 JP7478848 B2 JP 7478848B2 JP 2022572200 A JP2022572200 A JP 2022572200A JP 2022572200 A JP2022572200 A JP 2022572200A JP 7478848 B2 JP7478848 B2 JP 7478848B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- dimensional
- camera
- unit
- joint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010801 machine learning Methods 0.000 title claims description 43
- 238000012549 training Methods 0.000 claims description 20
- 230000036544 posture Effects 0.000 description 39
- 238000010586 diagram Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 17
- 238000000034 method Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 13
- 230000015654 memory Effects 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 9
- 230000004044 response Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- 230000001360 synchronised effect Effects 0.000 description 5
- 238000011176 pooling Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 101100521334 Mus musculus Prom1 gene Proteins 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 241001292396 Cirrhitidae Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 101100126329 Mus musculus Islr2 gene Proteins 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1605—Simulation of manipulator lay-out, design, modelling of manipulator
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
Description
しかしながら、ログ機能又は専用I/Fが実装されていないロボットでは、ロボットの各関節軸の角度を取得することができない。
<一実施形態>
まず、本実施形態の概略を説明する。本実施形態では、スマートフォン等の端末装置は、学習フェーズにおいて、端末装置に含まれるカメラにより撮影されたロボットの2次元画像と、カメラとロボットとの間の距離及び傾きと、を入力して、2次元画像が撮影された時のロボットに含まれる複数の関節軸の角度と、複数の関節軸の中心の位置を示す2次元姿勢と、を推定する学習済みモデルを生成するための教師データを生成する教師データ生成装置(アノテーション自動化装置)として、動作する。
端末装置は、生成した教師データを機械学習装置に提供し、機械学習装置は、提供された教師データに基づき教師あり学習を実行し、学習済みモデルを生成する。機械学習装置は、生成した学習済みモデルを携帯端末に提供する。
端末装置は、運用フェーズにおいて、カメラにより撮影されたロボットの2次元画像と、カメラとロボットとの間の距離及び傾きと、を学習済みモデルに入力し、2次元画像が撮影された時のロボットの複数の関節軸の角度と、複数の関節軸の中心の位置を示す2次元姿勢と、を推定するロボット関節角度推定装置端末装置として動作する。
以上が本実施形態の概略である。
<学習フェーズにおけるシステム>
図1は、学習フェーズにおける一実施形態に係るシステムの機能的構成例を示す機能ブロック図である。図1に示すように、システム1は、ロボット10、教師データ生成装置としての端末装置20、及び機械学習装置30を有する。
また、後述するように、端末装置20は、機械学習装置30を含むようにしてもよい。また、端末装置20及び機械学習装置30は、ロボット制御装置(図示しない)に含まれてもよい。
以下の説明では、教師データ生成装置として動作する端末装置20は、全てのデータが同期の取れるタイミングで取得されたデータのみを教師データとして取得する。例えば、端末装置20に含まれるカメラが30フレーム/秒でフレーム画像を撮影し、ロボット10に含まれる複数の関節軸の角度を取得できる周期が100ミリ秒で、他のデータが即時に取得できる場合、端末装置20は、100ミリ秒周期で教師データをファイル出力する。
ロボット10は、例えば、当業者にとって公知の産業用ロボット等であり、関節角度応答サーバ101を組み込んで有する。ロボット10は、ロボット制御装置(図示しない)からの駆動指令に基づいて、ロボット10に含まれる図示しない複数の関節軸の各々に配置される図示しないサーボモータを駆動することにより、ロボット10の可動部材(図示しない)を駆動する。
なお、以下では、ロボット10は、6つの関節軸J1~J6を有する6軸の垂直多関節ロボットとして説明するが、6軸以外の垂直多関節ロボットでもよく、水平多関節ロボットやパラレルリンクロボット等でもよい。
また、関節角度応答サーバ101は、ロボット10とは独立した装置でもよい。
端末装置20は、例えば、スマートフォン、タブレット端末、拡張現実(AR:Augmented Reality)グラス、複合現実(MR:Mixed Reality)グラス等である。
図1に示すように、端末装置20は、運用フェーズにおいて、教師データ生成装置として、制御部21、カメラ22、通信部23、及び記憶部24を有する。また、制御部21は、3次元物体認識部211、自己位置推定部212、関節角度取得部213、順運動学計算部214、投影部215、入力データ取得部216、及びラベル取得部217を有する。
入力データ241は、後述する入力データ取得部216により取得された入力データを格納する。
ラベルデータ242は、後述するラベル取得部217により取得されたラベルデータを格納する。
なお、端末装置20が教師データ生成アプリケーションプログラムを起動した時に、ワールド座標系が定義され、端末装置20(カメラ22)のカメラ座標系の原点の位置が、当該ワールド座標系の座標値として取得される。そして、教師データ生成アプリケーションプログラムを起動した後に端末装置20(カメラ22)が移動すると、カメラ座標系における原点はワールド座標系における原点から移動する。
制御部21は、CPU(Central Processing Unit)、ROM、RAM、CMOS(Complementary Metal-Oxide-Semiconductor)メモリ等を有し、これらはバスを介して相互に通信可能に構成される、当業者にとって公知のものである。
CPUは端末装置20を全体的に制御するプロセッサである。CPUは、ROMに格納されたシステムプログラム及び教師データ生成アプリケーションプログラムを、バスを介して読み出し、システムプログラム及び教師データ生成アプリケーションプログラムに従って端末装置20全体を制御する。これにより、図1に示すように、制御部21が、3次元物体認識部211、自己位置推定部212、関節角度取得部213、順運動学計算部214、投影部215、入力データ取得部216、及びラベル取得部217の機能を実現するように構成される。RAMには一時的な計算データや表示データ等の各種データが格納される。また、CMOSメモリは図示しないバッテリでバックアップされ、端末装置20の電源がオフされても記憶状態が保持される不揮発性メモリとして構成される。
3次元物体認識部211は、カメラ22により撮影されたロボット10のフレーム画像を取得する。3次元物体認識部211は、例えば、公知のロボットの3次元座標認識の方法(例えば、https://linx.jp/product/mvtec/halcon/feature/3d_vision.html)を用いて、カメラ22により撮影されたロボット10のフレーム画像からエッジ量等の特徴量を抽出する。3次元物体認識部211は、抽出した特徴量と、3次元認識モデルデータ243に格納された3次元認識モデルの特徴量とのマッチングを行う。3次元物体認識部211は、マッチングの結果に基づいて、例えば、一致度が最も高い3次元認識モデルにおけるワールド座標系におけるロボット原点の3次元座標値、及びロボット座標系のX軸、Y軸、Z軸それぞれの方向を示す情報を取得する。
なお、3次元物体認識部211は、ロボットの3次元座標認識の方法を用いて、ワールド座標系におけるロボット原点の3次元座標値、及びロボット座標系のX軸、Y軸、Z軸それぞれの方向を示す情報を取得したが、これに限定されない。例えば、3次元物体認識部211は、ロボット10にチェッカーボード等のマーカーを取り付け、公知のマーカー認識技術に基づいてカメラ22により撮影された当該マーカーの画像からワールド座標系におけるロボット原点の3次元座標値、及びロボット座標系のX軸、Y軸、Z軸それぞれの方向を示す情報を取得するようにしてもよい。
あるいは、ロボット10にUWB(Ultra Wide Band)等の屋内測位デバイスが取り付けられ、3次元物体認識部211は、屋内測位デバイスからワールド座標系におけるロボット原点の3次元座標値、及びロボット座標系のX軸、Y軸、Z軸それぞれの方向を示す情報を取得するようにしてもよい。
自己位置推定部212は、公知の自己位置推定の手法を用いて、ワールド座標系におけるカメラ22のカメラ座標系の原点の3次元座標値(以下、「カメラ22の3次元座標値」ともいう)を取得する。自己位置推定部212は、取得したカメラ22の3次元座標値と、3次元物体認識部211により取得された3次元座標と、に基づいて、カメラ22とロボット10との間の距離及び傾きを算出するようにしてもよい。
関節角度取得部213は、例えば、通信部23を介して上述の100ミリ秒等の同期の取れる所定の周期で関節角度応答サーバ101にリクエストを送信し、フレーム画像が撮影された時のロボット10の関節軸J1~J6の角度を取得する。
順運動学計算部214は、例えば、予め定義したDH(Denavit-Hartenberg)パラメータ表を用いて、関節角度取得部213により取得された関節軸J1~J6の角度から順運動学を解き、関節軸J1~J6の中心の位置の3次元座標値を計算し、ワールド座標系におけるロボット10の3次元姿勢を計算する。なお、DHパラメータ表は、例えば、ロボット10の仕様書を基に予め作成され、記憶部24に記憶される。
投影部215は、例えば、公知の2次元平面への投影の方法を用いて、順運動学計算部214により計算されたロボット10の関節軸J1~J6の中心の位置をワールド座標系の3次元空間に配置し、自己位置推定部212により算出されたカメラ22とロボット10との間の距離及び傾きで決まるカメラ22の視点から、カメラ22とロボット10との間の距離及び傾きで決まる投影面に投影することで、関節軸J1~J6の中心の位置の2次元座標(ピクセル座標)(xi,yi)をロボット10の2次元姿勢として生成する。なお、iは、1~6の整数である。
図2Aは、関節軸J4の角度が90度のフレーム画像の一例を示す図である。図2Bは、関節軸J4の角度が-90度のフレーム画像の一例を示す図である。
図2Aのフレーム画像では、関節軸J6が隠れて写っていない。一方、図2Bのフレーム画像では、関節軸J6が写っている。
そこで、投影部215は、ロボット10の隣接する関節軸同士を線分で繋ぐとともに、予め設定されたロボット10のリンク幅で各線分に厚みを定義する。投影部215は、順運動学計算部214により算出されたロボット10の3次元姿勢と、カメラ22とロボット10との間の距離及び傾きで決まるカメラ22の光軸方向と、に基づいて線分上に他の関節軸があるか否かを判定する。投影部215は、他の関節軸Jiが線分に対してカメラ22側と反対の奥行方向にある、図2Aのような場合、他の関節軸Ji(図2Aの関節軸J6)の確信度ciを「0」に設定する。一方、投影部215は、他の関節軸Jiが線分に対してカメラ22側にある、図2Bのような場合、他の関節軸Ji(図2Bの関節軸J6)の確信度ciを「1」に設定する。
すなわち、投影部215は、投影した関節軸J1~J6の中心の位置の2次元座標(ピクセル座標)(xi,yi)に対して、フレーム画像において各関節軸J1~J6が写っているか否かを示す確信度ciをロボット10の2次元姿勢に含めるようにしてもよい。
図3は、教師データの数を増やすための一例を示す図である。
図3に示すように、投影部215は、例えば、教師データを増やすために、カメラ22とロボット10との間の距離及び傾きをランダムに与え、順運動学計算部214により算出されたロボット10の3次元姿勢を回転させる。投影部215は、回転されたロボット10の3次元姿勢を、ランダムに与えられた距離及び傾きで決まる2次元平面に投影することによりロボット10の2次元姿勢を多数生成してもよい。
入力データ取得部216は、カメラ22により撮影されたロボット10のフレーム画像と、フレーム画像を撮影したカメラ22とロボット10との間の距離及び傾きと、を入力データとして取得する。
具体的には、入力データ取得部216は、例えば、カメラ22からフレーム画像を入力データとして取得する。また、入力データ取得部216は、取得したフレーム画像が撮影された時のカメラ22とロボット10との間の距離及び傾きを自己位置推定部212から取得する。入力データ取得部216は、取得したフレーム画像と、カメラ22とロボット10との間の距離及び傾きと、を入力データとして取得し、取得した入力データを記憶部24の入力データ241に格納する。
なお、入力データ取得部216は、学習済みモデルとして構成される後述する関節角度推定モデル252の生成にあたり、図4に示すように、投影部215により生成された2次元姿勢に含まれる関節軸J1~J6の中心の位置の2次元座標(ピクセル座標)(xi,yi)を、ロボット10のベースリンクである関節軸J1を原点とし、フレーム画像の幅で除算して-1<X<1、及びフレーム画像の高さで除算して-1<Y<1にそれぞれ正規化したXY座標の値に変換するようにしてもよい。
ラベル取得部217は、上述の100ミリ秒等の同期の取れる所定の周期でフレーム画像が撮影された時のロボット10の関節軸J1~J6の角度と、当該フレーム画像におけるロボット10の関節軸J1~J6の中心の位置を示す2次元姿勢と、をラベルデータ(正解データ)として取得する。
具体的には、ラベル取得部217は、例えば、ロボット10の関節軸J1~J6の中心の位置を示す2次元姿勢、及び関節軸J1~J6の角度を、投影部215、及び関節角度取得部213から、ラベルデータ(正解データ)として取得する。ラベル取得部217は、取得したラベルデータを記憶部24のラベルデータ242に記憶する。
機械学習装置30は、例えば、上述の入力データ241に格納されるカメラ22により撮影されたロボット10のフレーム画像と、フレーム画像を撮影したカメラ22とロボット10との間の距離及び傾きと、を端末装置20から入力データとして取得する。
また、機械学習装置30は、ラベルデータ242に格納されるカメラ22によりフレーム画像が撮影された時のロボット10の関節軸J1~J6の角度と、関節軸J1~J6の中心の位置を示す2次元姿勢と、を端末装置20からラベル(正解)として取得する。
機械学習装置30は、取得した入力データとラベルとの組の訓練データにより教師あり学習を行い、後述する学習済みモデルを構築する。
そうすることで、機械学習装置30は、構築した学習済みモデルを端末装置20に提供することができる。
機械学習装置30について、具体的に説明する。
なお、本発明では、学習済みモデルを、2次元骨格推定モデル251と、関節角度推定モデル252と、から構成されるように構築する。
図5は、2次元骨格推定モデル251と関節角度推定モデル252との関係の一例を示す図である。
図5に示すように、2次元骨格推定モデル251は、ロボット10のフレーム画像を入力し、フレーム画像におけるロボット10の関節軸J1~J6の中心の位置を示すピクセル座標の2次元姿勢を出力するモデルである。一方、関節角度推定モデル252は、2次元骨格推定モデル251から出力された2次元姿勢と、カメラ22とロボット10との間の距離及び傾きと、を入力し、ロボット10の関節軸J1~J6の角度を出力するモデルである。
そして、学習部301は、構築した2次元骨格推定モデル251と関節角度推定モデル252との学習済みモデルを端末装置20に対して提供する。
以下、2次元骨格推定モデル251及び関節角度推定モデル252それぞれの構築について説明する。
学習部301は、例えば、公知のマーカーレス動物追跡ツール(例えば、DeepLabCut)等に用いられる深層学習モデルに基づいて、端末装置20から受け付けたロボット10のフレーム画像の入力データと、当該フレーム画像が撮影された時の関節軸J1~J6の中心の位置を示す2次元姿勢のラベルと、の訓練データを基に機械学習し、端末装置20のカメラ22により撮影されたロボット10のフレーム画像を入力し、撮影されたフレーム画像におけるロボット10の関節軸J1~J6の中心の位置を示すピクセル座標の2次元姿勢を出力する2次元骨格推定モデル251を生成する。
具体的には、2次元骨格推定モデル251は、ニューラルネットワークである、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)に基づいて構築する。
畳み込み層では、エッジ抽出等の特徴抽出を行うために、入力されたフレーム画像に対して所定のパラメータのフィルタをかける。このフィルタにおける所定のパラメータは、ニューラルネットワークの重みに相当しており、フォワードプロパゲーションやバックプロパゲーションを繰り返すことにより学習されていく。
プーリング層では、ロボット10の位置ズレを許容するために、畳み込み層から出力された画像をぼかす。これにより、ロボット10の位置が変動しても同一の物体であるとみなすことができる。
これら畳み込み層及びプーリング層を組み合わせることによって、フレーム画像から特徴量を抽出することができる。
図6は、ロボット10の関節軸J1~J6の特徴マップの一例を示す図である。
図6に示すように、各関節軸J1~J6の特徴マップでは、確信度ciの値を0~1の範囲で表わされ、セルが関節軸の中心の位置に近いほど「1」に近い値が得られ、関節軸の中心の位置から離れるに従い「0」に近い値が得られる。
出力層では、全結合層からの出力を、各関節軸J1~J6の特徴マップにおいて確信度が最大値となるセルの行(row)、列(column)及び確信度(maximum)を出力する。なお、畳み込み層でフレーム画像が1/Nに畳み込まれた場合、出力層では、セルの行(row)及び列(column)をN倍して、フレーム画像における各関節軸J1~J6の中心の位置を示すピクセル座標とする(Nは1以上の整数)。
図7は、フレーム画像と2次元骨格推定モデル251の出力結果との比較の一例を示す図である。
学習部301は、例えば、カメラ22とロボット10との間の距離及び傾き、及び上述の正規化された関節軸J1~J6の中心の位置を示す2次元姿勢を入力データと、フレーム画像が撮影された時のロボット10の関節軸J1~J6の角度のラベルデータと、の訓練データを基に機械学習し、関節角度推定モデル252を生成する。
なお、学習部301は、2次元骨格推定モデル251から出力された関節軸J1~J6の2次元姿勢を正規化したが、2次元骨格推定モデル251から正規化された2次元姿勢が出力されるように、2次元骨格推定モデル251を生成するにしてもよい。
そうすることで、普段のロボット10の撮影から訓練データを自動的に得ることができるため、ロボット10の2次元姿勢及び関節軸J1~J6の角度の推定精度を日常的に上げることができる。
オンライン学習とは、ロボット10のフレーム画像が撮影され、訓練データが作成される都度、即座に教師あり学習を行うという学習方法である。また、バッチ学習とは、ロボット10のフレーム画像が撮影され、訓練データが作成されることが繰り返される間に、繰り返しに応じた複数の訓練データを収集し、収集した全ての訓練データを用いて、教師あり学習を行うという学習方法である。さらに、ミニバッチ学習とは、オンライン学習と、バッチ学習の中間的な、ある程度訓練データが溜まるたびに教師あり学習を行うという学習方法である。
以上、ロボット関節角度推定装置として動作する場合の端末装置20が備える2次元骨格推定モデル251及び関節角度推定モデル252を生成するための機械学習について説明した。
次に、運用フェーズにおけるロボット関節角度推定装置として動作する端末装置20について説明する。
図9は、運用フェーズにおける一実施形態に係るシステムの機能的構成例を示す機能ブロック図である。図1に示すように、システム1は、ロボット10、及びロボット関節角度推定装置としての端末装置20を有する。なお、図1のシステム1の要素と同様の機能を有する要素については、同じ符号を付し、詳細な説明は省略する。
図1に示すように、運用フェーズにおけるロボット関節角度推定装置として動作する端末装置20は、制御部21a、カメラ22、通信部23、及び記憶部24aを有する。また、制御部21aは、3次元物体認識部211、自己位置推定部212、入力部220、及び推定部221を有する。
制御部21aは、CPU(Central Processing Unit)、ROM、RAM、CMOS(Complementary Metal-Oxide-Semiconductor)メモリ等を有し、これらはバスを介して相互に通信可能に構成される、当業者にとって公知のものである。
CPUは端末装置20を全体的に制御するプロセッサである。CPUは、ROMに格納されたシステムプログラム及びロボット関節角度推定アプリケーションプログラムを、バスを介して読み出し、システムプログラム及びロボット関節角度推定アプリケーションプログラムに従ってロボット関節角度推定装置として端末装置20全体を制御する。これにより、図9に示すように、制御部21aが、3次元物体認識部211、自己位置推定部212、入力部220、及び推定部221の機能を実現するように構成される。
入力部220は、カメラ22により撮影されたロボット10のフレーム画像と、自己位置推定部212により算出されたカメラ22とロボット10との間の距離L、X軸の傾きRx、Y軸の傾きRy、及びZ軸の傾きRzと、を入力する。
推定部221は、入力部220により入力されたロボット10のフレーム画像と、カメラ22とロボット10との間の距離L、X軸の傾きRx、Y軸の傾きRy、及びZ軸の傾きRzと、を、学習済みモデルとしての2次元骨格推定モデル251及び関節角度推定モデル252に入力する。そうすることで、推定部221は、2次元骨格推定モデル251及び関節角度推定モデル252の出力から、入力されたフレーム画像が撮影された時のロボット10の関節軸J1~J6の角度、及び関節軸J1~J6の中心の位置を示す2次元姿勢を推定することができる。
なお、推定部221は、上述したように、2次元骨格推定モデル251から出力される関節軸J1~J6の中心の位置のピクセル座標を正規化して、関節角度推定モデル252に入力する。また、推定部221は、2次元骨格推定モデル251から出力される2次元姿勢の確信度ciも、0.5以上の場合に「1」に設定し、0.5未満の場合に「0」に設定するようにしてもよい。
端末装置20は、推定されたロボット10の関節軸J1~J6の角度、及び関節軸J1~J6の中心の位置を示す2次元姿勢を、端末装置20に含まれる液晶ディスプレイ等の表示部(図示しない)に表示するようにしてもよい。
次に、本実施形態に係る端末装置20の推定処理に係る動作について説明する。
図10は、運用フェーズにおける端末装置20の推定処理について説明するフローチャートである。ここで示すフローは、ロボット10のフレーム画像が入力される度に繰り返し実行される。
上述の実施形態では、機械学習装置30は、ロボット10のロボット制御装置(図示しない)、及び端末装置20と異なる装置として例示したが、機械学習装置30の一部又は全部の機能を、ロボット制御装置(図示しない)、又は端末装置20が備えるようにしてもよい。
また例えば、上述の実施形態では、ロボット関節角度推定装置として動作する端末装置20は、機械学習装置30から提供された学習済みモデルとしての2次元骨格推定モデル251及び関節角度推定モデル252を用いて、入力されたロボット10のフレーム画像及びカメラ22とロボット10との間の距離及び傾きからロボット10の関節軸J1~J6の角度及び関節軸J1~J6の中心の位置を示す2次元姿勢を推定したが、これに限定されない。例えば、図11に示すように、サーバ50は、機械学習装置30により生成された2次元骨格推定モデル251及び関節角度推定モデル252を記憶し、ネットワーク60を介してサーバ50に接続されたm個のロボット関節角度推定装置として動作する端末装置20A(1)~20A(m)と2次元骨格推定モデル251及び関節角度推定モデル252を共有してもよい(mは2以上の整数)。これにより、新たなロボット、及び端末装置が配置されても2次元骨格推定モデル251及び関節角度推定モデル252を適用することができる。
なお、ロボット10A(1)~10A(m)の各々は、図9のロボット10に対応する。端末装置20A(1)~20A(m)の各々は、図9の端末装置20に対応する。
この教師データ生成装置によれば、ログ機能又は専用I/Fが実装されていないロボットでもロボットの各関節軸の角度を容易に取得するための学習済みモデルを生成するのに最適な教師データを生成することができる。
この機械学習装置30によれば、ログ機能又は専用I/Fが実装されていないロボットでもロボットの各関節軸の角度を容易に取得するのに最適な学習済みモデルを生成することができる。
そうすることで、機械学習装置30は、教師データを容易に取得することができる。
このロボット関節角度推定装置によれば、ログ機能又は専用I/Fが実装されていないロボットでもロボットの各関節軸の角度を容易に取得することができる。
そうすることで、ロボット関節角度推定装置は、ログ機能又は専用I/Fが実装されていないロボットでもロボットの各関節軸の角度を容易に取得することができる。
そうすることで、ロボット関節角度推定装置は、新たなロボット、及びロボット関節角度推定装置が配置されても学習済みモデルを適用することができる。
そうすることで、ロボット関節角度推定装置は、(1)から(6)と同様の効果を奏することができる。
10 ロボット
101 関節角度応答サーバ
20 端末装置
21、21a 制御部
211 3次元物体認識部
212 自己位置推定部
213 関節角度取得部
214 順運動学計算部
215 投影部
216 入力データ取得部
217 ラベル取得部
220 入力部
221 推定部
22 カメラ
23 通信部
24、24a 記憶部
241 入力データ
242 ラベルデータ
243 3次元認識モデルデータ
251 2次元骨格推定モデル
252 関節角度推定モデル
30 機械学習装置
301 学習部
302 記憶部
Claims (6)
- カメラにより撮影されたロボットの2次元画像を入力し前記2次元画像が撮影された時の前記ロボットに含まれる複数の関節軸の中心の位置を示す2次元姿勢を出力する2次元骨格推定モデルと、前記2次元骨格推定モデルから出力された前記2次元姿勢並びに前記カメラと前記ロボットとの間の距離及び傾きを入力し前記複数の関節軸の角度を出力する関節角度推定モデルと、を含む学習済みモデルを生成するための教師データを生成する教師データ生成装置であって、
前記カメラにより撮影された前記ロボットの2次元画像と前記カメラと前記ロボットとの間の距離及び傾きと、を取得する入力データ取得部と、
前記2次元画像が撮影された時の前記複数の関節軸の角度と、前記2次元姿勢と、をラベルデータとして取得するラベル取得部と、
を備える教師データ生成装置。 - 請求項1に記載の教師データ生成装置により生成された教師データに基づいて教師あり学習を実行し、学習済みモデルを生成する学習部
を備える機械学習装置。 - 請求項1に記載の教師データ生成装置を備える、請求項2に記載の機械学習装置。
- 請求項2又は請求項3に記載の機械学習装置により生成された学習済みモデルと、
カメラにより撮影されたロボットの2次元画像と、前記カメラと前記ロボットとの間の距離及び傾きと、を入力する入力部と、
前記入力部により入力された前記2次元画像と、前記カメラと前記ロボットとの間の距離及び傾きと、を前記学習済みモデルに入力し、前記2次元画像が撮影された時の前記ロボットに含まれる複数の関節軸の角度と、前記2次元画像における前記複数の関節軸の中心の位置を示す2次元姿勢と、を推定する推定部と、
を備えるロボット関節角度推定装置。 - 前記学習済みモデルを、前記ロボット関節角度推定装置からネットワークを介してアクセス可能に接続されるサーバに備える、請求項4に記載のロボット関節角度推定装置。
- 請求項2又は請求項3に記載の機械学習装置を備える、請求項4又は請求項5に記載のロボット関節角度推定装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020211712 | 2020-12-21 | ||
JP2020211712 | 2020-12-21 | ||
PCT/JP2021/046117 WO2022138339A1 (ja) | 2020-12-21 | 2021-12-14 | 教師データ生成装置、機械学習装置、及びロボット関節角度推定装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2022138339A1 JPWO2022138339A1 (ja) | 2022-06-30 |
JP7478848B2 true JP7478848B2 (ja) | 2024-05-07 |
Family
ID=82159082
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022572200A Active JP7478848B2 (ja) | 2020-12-21 | 2021-12-14 | 教師データ生成装置、機械学習装置、及びロボット関節角度推定装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20240033910A1 (ja) |
JP (1) | JP7478848B2 (ja) |
CN (1) | CN116615317A (ja) |
DE (1) | DE112021005322T5 (ja) |
WO (1) | WO2022138339A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019138111A1 (en) | 2018-01-15 | 2019-07-18 | Technische Universität München | Vision-based sensor system and control method for robot arms |
WO2020084667A1 (ja) | 2018-10-22 | 2020-04-30 | 富士通株式会社 | 認識方法、認識プログラム、認識装置、学習方法、学習プログラムおよび学習装置 |
US20200311855A1 (en) | 2018-05-17 | 2020-10-01 | Nvidia Corporation | Object-to-robot pose estimation from a single rgb image |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0588721A (ja) * | 1991-09-30 | 1993-04-09 | Fujitsu Ltd | 関節型ロボツトの制御装置 |
JPH05189398A (ja) * | 1992-01-14 | 1993-07-30 | Fujitsu Ltd | ニューラルネットワークによる学習方法 |
JP2774939B2 (ja) | 1994-09-16 | 1998-07-09 | 株式会社神戸製鋼所 | ロボットのツールパラメータ導出方法及び較正方法 |
-
2021
- 2021-12-14 JP JP2022572200A patent/JP7478848B2/ja active Active
- 2021-12-14 US US18/267,293 patent/US20240033910A1/en active Pending
- 2021-12-14 CN CN202180084147.1A patent/CN116615317A/zh active Pending
- 2021-12-14 WO PCT/JP2021/046117 patent/WO2022138339A1/ja active Application Filing
- 2021-12-14 DE DE112021005322.1T patent/DE112021005322T5/de active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019138111A1 (en) | 2018-01-15 | 2019-07-18 | Technische Universität München | Vision-based sensor system and control method for robot arms |
US20200311855A1 (en) | 2018-05-17 | 2020-10-01 | Nvidia Corporation | Object-to-robot pose estimation from a single rgb image |
WO2020084667A1 (ja) | 2018-10-22 | 2020-04-30 | 富士通株式会社 | 認識方法、認識プログラム、認識装置、学習方法、学習プログラムおよび学習装置 |
Also Published As
Publication number | Publication date |
---|---|
CN116615317A (zh) | 2023-08-18 |
WO2022138339A1 (ja) | 2022-06-30 |
DE112021005322T5 (de) | 2023-09-07 |
US20240033910A1 (en) | 2024-02-01 |
JPWO2022138339A1 (ja) | 2022-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112109075B (zh) | 控制系统和控制方法 | |
JP5852364B2 (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
JP6946831B2 (ja) | 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法 | |
CN113327281A (zh) | 运动捕捉方法、装置、电子设备以及拉花系统 | |
CN113246131B (zh) | 运动捕捉方法、装置、电子设备以及机械臂控制系统 | |
CN113664835A (zh) | 机器人自动手眼标定方法与系统 | |
Ila et al. | Fast incremental bundle adjustment with covariance recovery | |
CN112847336B (zh) | 动作学习方法、装置、存储介质及电子设备 | |
CN113146634A (zh) | 机器人姿态的控制方法、机器人及存储介质 | |
CN113361365A (zh) | 定位方法和装置、设备及存储介质 | |
CN113319859A (zh) | 一种机器人示教方法、系统、装置及电子设备 | |
Vakanski et al. | An image-based trajectory planning approach for robust robot programming by demonstration | |
CN114299039B (zh) | 一种机器人及其碰撞检测装置和方法 | |
US20240144532A1 (en) | CALIBRATION METHOD FOR CAMERA, and CAMERA CALIBRATION SYSTEM | |
JP7478848B2 (ja) | 教師データ生成装置、機械学習装置、及びロボット関節角度推定装置 | |
CN116670565A (zh) | 用于确定符合性的方法和系统 | |
CN109531578B (zh) | 仿人机械手臂体感控制方法及装置 | |
JP6996455B2 (ja) | 検出器生成装置、モニタリング装置、検出器生成方法及び検出器生成プログラム | |
CN114029940B (zh) | 机械臂的运动路径规划方法、装置、设备、介质及机械臂 | |
CN112643718B (zh) | 图像处理设备及其控制方法和存储其控制程序的存储介质 | |
JP7427115B2 (ja) | 安心ビジョン装置、及び安心ビジョンシステム | |
JP2022026157A (ja) | 移動体の位置推定装置、移動体の位置推定方法、及びプログラム | |
KR102556642B1 (ko) | 기계 학습 훈련을 위한 데이터 생성방법 | |
US20200058135A1 (en) | System and method of object positioning in space for virtual reality | |
US20240276920A1 (en) | Agricultural cutting system and cut-point method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230519 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240422 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7478848 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |