JP2017100202A - ロボットシステム、制御装置、制御方法、及びプログラム - Google Patents
ロボットシステム、制御装置、制御方法、及びプログラム Download PDFInfo
- Publication number
- JP2017100202A JP2017100202A JP2015233251A JP2015233251A JP2017100202A JP 2017100202 A JP2017100202 A JP 2017100202A JP 2015233251 A JP2015233251 A JP 2015233251A JP 2015233251 A JP2015233251 A JP 2015233251A JP 2017100202 A JP2017100202 A JP 2017100202A
- Authority
- JP
- Japan
- Prior art keywords
- sphere
- scanner
- scanning
- robot
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】スキャナ座標系からロボット座標系への座標変換の推定を高精度に実行できるロボットシステム、制御装置、制御方法、及びプログラムを提供する。【解決手段】ロボットシステム1は、スキャナ2、ロボット3、制御装置5を備え、エンドエフェクタ40に固定した球体70を用いることで、スキャナ座標系からロボット座標系へのキャリブレーションを高精度且つ自動で行う。制御装置5は、基準位置算出処理、回転成分算出処理、並進成分算出処理を実行する。各算出処理において、制御装置5は、ハンド部42を様々な位置姿勢に移動させたときの球体70の点群データをスキャナ2から取得し、球体70の位置を推定する。制御装置5は、各算出処理で推定された球体70の位置データに基づき、キャリブレーションの回転成分RVと並進成分SVを推定する。【選択図】図2
Description
本発明は、ロボットシステム、制御装置、制御方法、及びプログラムに関する。
従来、ターゲットをピッキング可能なハンド部を有する垂直多関節型のロボットと、ターゲットのスキャニングを実行可能なスキャナと、ロボット及びスキャナを駆動し制御する制御装置とを備えたロボットシステムが知られている。制御装置は、スキャナでスキャニングされたターゲットのスキャニングデータに基づき、ターゲットの位置姿勢を特定し、該位置姿勢を特定したターゲットの把持を指示する制御指令をロボットに出力する。
このようなロボットシステムでは、使用前に、スキャナの座標系であるスキャナ座標系からロボットの座標系であるロボット座標系への座標変換の推定(キャリブレーション)が必要である。例えば、マーカが印刷されたチェッカーボードをロボットに持たせ、三次元スキャナとして機能するステレオカメラから出力されるチェッカーボードの可視画像データに基づき、キャリブレーションを行うロボットビジョンシステム及び自動キャリブレーション方法が提案されている(例えば、特許文献1参照)。
チェッカーボードを使ったキャリブレーション方法では、スキャナが可視画像データを出力できることが必須であるが、一般的なスキャナの中には、可視画像をそもそも撮影できないものや、撮影できても写りが悪くキャリブレーションには使えないスキャナ等も存在するため、これらのスキャナは使用できないという問題点があった。また、レーザ光の反射強度を可視画像として出力するスキャナを用いた場合、可視画像は、解像度が低いので、チェッカーボードのマーカ位置検出に十分な精度が得られにくいという問題点もあった。また、反射強度を使うので、チェッカーボードの背景とマーカの色が識別しにくいという問題点もあった。
本発明の目的は、スキャナ座標系からロボット座標系への座標変換の推定を高精度に実行できるロボットシステム、制御装置、制御方法、及びプログラムを提供することである。
本発明の第1態様に係るロボットシステムは、ターゲットを保持可能なハンド部を有するエンドエフェクタを備え、回転と並進が可能であるロボットと、前記ターゲットのスキャニングを実行するスキャナと前記スキャナでスキャニングされた前記ターゲットのスキャニングデータに基づき、前記ターゲットの位置姿勢を特定し、該位置姿勢を特定した前記ターゲットの保持を指示する制御指令を前記ロボットに出力する制御手段とを備えたロボットシステムであって、前記制御手段は、前記スキャナの座標系であるスキャナ座標系から前記ロボットの座標系であるロボット座標系への座標変換に用いる回転成分と並進成分である変換用回転成分と変換用並進成分を夫々推定する推定手段を備え、前記推定手段は、前記ハンド部を基準位置姿勢に移動させたときの、前記エンドエフェクタに取り付けた球体の表面形状を三次元スキャニングした点群データである第一スキャニングデータを前記スキャナから取得し、取得した前記第一スキャニングデータに基づき、前記球体の基準位置を推定する基準位置推定手段と、前記ハンド部を、前記基準位置姿勢に対して、回転成分が同一で並進成分が異なる第一位置姿勢に移動させた後の前記球体の表面形状を三次元スキャニングした点群データである第二スキャニングデータを前記スキャナから取得し、取得した前記第二スキャニングデータに基づき推定される前記球体の位置データに基づき、前記変換用回転成分を推定する回転成分推定手段と、前記ハンド部を、前記基準位置姿勢に対して異なる回転成分である第二位置姿勢に移動させた後の前記球体の表面形状を三次元スキャニングした点群データである第三スキャニングデータを前記スキャナから取得し、取得した前記第三スキャニングデータに基づき推定される前記球体の位置データに基づき、前記変換用並進成分を推定する並進成分推定手段とを備えたことを特徴とする。
第1態様では、スキャナ座標系からロボット座標系へのキャリブレーションにおいて球体を用いる。そして、球体の表面をスキャナで三次元スキャニングさせ、その球体の点群データを用いることで、球体の位置を容易に推定できる。ロボットシステムは、そのような球体の点群データである第一、第二、第三スキャニングデータを用いることで、座標変換に用いる変換用回転成分と変換用並進成分を高精度に推定できる。
第1態様は、前記基準位置推定手段、前記回転成分推定手段、及び前記並進成分推定手段は、前記球体の前記点群データに基づき、前記球体の中心位置を推定する中心位置推定手段を備え、当該中心位置推定手段で推定された前記中心位置を、前記球体の位置として特定してもよい。それ故、球体の位置を容易且つ高精度に推定できる。
第1態様の前記球体は、少なくとも表面が拡散反射するものであってもよい。球体の表面は拡散反射するので、スキャナから照射される光(例えばレーザ光)を球体の表面に反射させ、その反射光を受光できる。このことから、球体の表面を正確にスキャニングできる。よって、ロボットシステムは、球体の位置を高精度に認識できる。
第1態様の前記ロボットは、回転と並進が可能な多関節を有するアーム部を備え、前記エンドエフェクタは、前記アーム部の先端部に設けられた取付部に着脱可能に取り付けられる被取付部と、前記ハンド部とは異なる位置に、前記球体を着脱可能に固定する球体固定部とを備えてもよい。球体は、ハンド部に保持させることもできるが、エンドエフェクタの球体固定部に固定することもできる。例えば、ハンド部が吸着方式でターゲットを保持するものがある。このタイプのハンド部では、球体に吸着させる部分が樹脂で形成されている場合があり、例えば球体を水平方向に保持した状態では、球体に吸着させる部分が球体の重さで下がる可能性がある。その場合、球体の正確な位置が推定できないので、球体固定部に固定することで、球体はエンドエフェクタと一体して移動するので、球体の位置がずれることがない。よって、球体の正確な位置が推定できるので、キャリブレーションを良好に行うことができる。
本発明の第2態様に係る制御装置は、ターゲットを保持可能なハンド部を有するエンドエフェクタを備え、回転と並進が可能であるロボットと、前記ターゲットのスキャニングを実行するスキャナとを備えたロボットシステムの制御を行い、前記スキャナでスキャニングされた前記ターゲットのスキャニングデータに基づき、前記ターゲットの位置姿勢を特定し、該位置姿勢を特定した前記ターゲットの保持を指示する制御指令を前記ロボットに出力することが可能な制御装置であって、前記スキャナの座標系であるスキャナ座標系から前記ロボットの座標系であるロボット座標系への座標変換に用いる回転成分と並進成分である変換用回転成分と変換用並進成分を夫々推定する推定手段を備え、前記推定手段は、前記ハンド部を基準位置姿勢に移動させたときの、前記エンドエフェクタに取り付けた球体の表面形状を三次元スキャニングした点群データである第一スキャニングデータを前記スキャナから取得し、取得した前記第一スキャニングデータに基づき、前記球体の基準位置を推定する基準位置推定手段と、前記ハンド部を、前記基準位置姿勢に対して、回転成分が同一で並進成分が異なる第一位置姿勢に移動させた後の前記球体の表面形状を三次元スキャニングした点群データである第二スキャニングデータを前記スキャナから取得し、取得した前記第二スキャニングデータに基づき推定される前記球体の位置データに基づき、前記変換用回転成分を推定する回転成分推定手段と、前記ハンド部を、前記基準位置姿勢に対して異なる回転成分である第二位置姿勢に移動させた後の前記球体の表面形状を三次元スキャニングした点群データである第三スキャニングデータを前記スキャナから取得し、取得した前記第三スキャニングデータに基づき推定される前記球体の位置データに基づき、前記変換用並進成分を推定する並進成分推定手段とを備えたことを特徴とする。
第2態様では、スキャナ座標系からロボット座標系へのキャリブレーションにおいて球体を用いる。そして、球体の表面をスキャナで三次元スキャニングさせ、その球体の点群データを用いることで、球体の位置を容易に推定できる。ロボットシステムの制御装置は、そのような球体の点群データである第一、第二、第三スキャニングデータを用いることで、座標変換に用いる変換用回転成分と変換用並進成分を高精度に推定できる。
本発明の第3態様に係る制御方法は、ターゲットを保持可能なハンド部を有するエンドエフェクタを備え、回転と並進が可能であるロボットと、前記ターゲットのスキャニングを実行するスキャナとを備えたロボットシステムの制御を行い、前記スキャナでスキャニングされた前記ターゲットのスキャニングデータに基づき、前記ターゲットの位置姿勢を特定し、該位置姿勢を特定した前記ターゲットの保持を指示する制御指令を前記ロボットに出力可能な制御装置の制御方法であって、前記スキャナの座標系であるスキャナ座標系から前記ロボットの座標系であるロボット座標系への座標変換に用いる回転成分と並進成分である変換用回転成分と変換用並進成分を夫々推定する推定工程を備え、前記推定工程は、前記ハンド部を基準位置姿勢に移動させたときの、前記エンドエフェクタに取り付けた球体の表面形状を三次元スキャニングした点群データである第一スキャニングデータを前記スキャナから取得し、取得した前記第一スキャニングデータに基づき、前記球体の基準位置を推定する基準位置推定手段と、前記ハンド部を、前記基準位置姿勢に対して、回転成分が同一で並進成分が異なる第一位置姿勢に移動させた後の前記球体の表面形状を三次元スキャニングした点群データである第二スキャニングデータを前記スキャナから取得し、取得した前記第二スキャニングデータに基づき推定される前記球体の位置データに基づき、前記変換用回転成分を推定する回転成分推定工程と、前記ハンド部を、前記基準位置姿勢に対して異なる回転成分である第二位置姿勢に移動させた後の前記球体の表面形状を三次元スキャニングした点群データである第三スキャニングデータを前記スキャナから取得し、取得した前記第三スキャニングデータに基づき推定される前記球体の位置データに基づき、前記変換用並進成分を推定する並進成分推定工程とを備えたことを特徴とする。第3態様では、制御装置が上記工程を行うことで、第2態様に記載の効果を得ることができる。
本発明の第4態様に係るプログラムは、ターゲットを保持可能なハンド部を有するエンドエフェクタを備え、回転と並進が可能であるロボットと、前記ターゲットのスキャニングを実行するスキャナとを備えたロボットシステムの制御を行い、前記スキャナでスキャニングされた前記ターゲットのスキャニングデータに基づき、前記ターゲットの位置姿勢を特定し、該位置姿勢を特定した前記ターゲットの保持を指示する制御指令を前記ロボットに出力可能な制御装置のコンピュータに実行させるプログラムであって、前記スキャナの座標系であるスキャナ座標系から前記ロボットの座標系であるロボット座標系への座標変換に用いる回転成分と並進成分である変換用回転成分と変換用並進成分を夫々推定する推定ステップを備え、前記推定ステップは、前記ハンド部を基準位置姿勢に移動させたときの、前記エンドエフェクタに取り付けた球体の表面形状を三次元スキャニングした点群データである第一スキャニングデータを前記スキャナから取得し、取得した前記第一スキャニングデータに基づき、前記球体の基準位置を推定する基準位置推定ステップと、前記ハンド部を、前記基準位置姿勢に対して、回転成分が同一で並進成分が異なる第一位置姿勢に移動させた後の前記球体の表面形状を三次元スキャニングした点群データである第二スキャニングデータを前記スキャナから取得し、取得した前記第二スキャニングデータに基づき推定される前記球体の位置データに基づき、前記変換用回転成分を推定する回転成分推定ステップと、前記ハンド部を、前記基準位置姿勢に対して異なる回転成分である第二位置姿勢に移動させた後の前記球体の表面形状を三次元スキャニングした点群データである第三スキャニングデータを前記スキャナから取得し、取得した前記第三スキャニングデータに基づき推定される前記球体の位置データに基づき、前記変換用並進成分を推定する並進成分推定ステップとを備えたことを特徴とする。第4態様では、制御装置のコンピュータが上記プログラムを実行することで、第2態様に記載の効果を得ることができる。
以下、図面を参照し、本発明の実施形態を説明する。なお、参照する図面は本発明が採用し得る技術的特徴を説明する為に用いられるものである。図面に記載した各処理工程、及び装置構成等はそれのみに限定する趣旨ではなく単なる説明例である。
図1を参照し、ロボットシステム1の構成を説明する。ロボットシステム1は、スキャナ2、ロボット3、制御装置5を備える。ロボットシステム1は、ターゲット10の位置と形状をスキャナ2で特定し、該ターゲット10をロボット3によってピッキングして搬送するものである。
スキャナ2について説明する。スキャナ2は、ターゲット10の三次元スキャニングが可能な周知の三次元スキャナ(3Dスキャナ)である。スキャナ2は、レーザ光をターゲット10へ照射することで、ターゲット10を撮影し、3次元のスキャニングデータに変換する。測定原理は例えば三角測量に基づいたものである。スリット状の光を複数パターン照射し、スリット光が物体に移った瞬間をカメラ(図示略)で撮影する。カメラとスリット光源部の距離、撮影した複数枚の画像を解析した結果から対象物との距離を算出し、点群データに変換する。これにより、物体の絶対的な大きさや形状を認識できる。なお、本実施形態では、一台のスキャナ2を用いているが、撮像する物体の形、数、大きさ等に合わせて、複数台のスキャナ2を組み合わせることもできる。
ロボット3について説明する。ロボット3は、周知である垂直多関節型の6軸ロボットである。ロボット3は、基部31、アーム部32、エンドエフェクタ40等を備える。基部31は、ロボット3の台座であり、内部にアーム部32の駆動制御を行う為の駆動制御機構(図示略)を備える。基部31の上面には、回転部R1が設けられている。回転部R1の軸心は、上下方向に延びる。アーム部32は、基部31の上面に支持されている。アーム部32は、長尺状の第一アーム部33と第二アーム部34を備える。第一アーム部33の一端部は、基部31の上面に設けられた回転部R1上において、揺動部Q1を介して揺動可能に支持されている。揺動部Q1の軸心は、略水平方向に延びる。
第二アーム部34の一端部は、上方に延びる第一アーム部33の他端部に対して揺動部Q2を介して揺動可能に連結されている。第二アーム部34の長手方向中央部よりも先端側には、回転部R2が設けられている。回転部R2の軸心は、第二アーム部24の軸線方向に沿って延びる。それ故、第二アーム部34の回転部R2よりも先端側の部分は、回転部R2よりも後端側の部分に対し、回転部R2の軸心を中心に回転可能である。アーム部32(第二アーム部34)の先端部には、揺動部Q3が設けられている。揺動部Q3の軸心は、第二アーム部34の軸線方向に直交する方向に延びる。揺動部Q3には、回転部R3が設けられている。回転部R3の軸心は、揺動部Q3の軸心に対して直交する。それ故、回転部R3は、第二アーム部34に対し、揺動部Q3の軸心を中心に揺動可能である。回転部R3には、フランジ部341が固定されている。それ故、フランジ部341は、回転部R3を中心に回転可能である。フランジ部341には、エンドエフェクタ40が着脱可能に連結される。
エンドエフェクタ40は、本体部41とハンド部42を備える。ハンド部42は、本体部41の先端側に固定されている。ハンド部42は、例えば二つの爪部421を備え、それらを互いに接触又は離間する方向に移動させることで、ターゲット10を把持したり、離したりすることができる。なお、ハンド部42に設けられる爪部421の数、形状、動作等は、これに限らず、様々な変更が可能である。また、ハンド部42によるターゲット10の把持方式も、ターゲット10を爪部421等で挟み込む方式に限らず、例えば、吸盤等を用いた吸着方式も適用可能である。
上記構成を備えるエンドエフェクタ40の本体部41の側面の先端側には、球体固定軸45が設けられている。球体固定軸45には、後述するキャリブレーション処理実行時に用いられる球体70が着脱可能に取り付けられる。キャリブレーション処理では、ターゲット10の代わりに、球体70の位置を認識することで、スキャナ座標系からロボット座標系への変換の推定(キャリブレーション)が行われる。球体固定軸45は、例えば、ネジ山が周面に形成された軸状に形成され、本体部41の側面に対して垂直方向に外側に突出している。球体固定軸45に対して、例えば、球体70に形成された螺子孔(図示略)を螺合させることで、球体固定軸45に対して球体70が取り付けられる。球体固定軸45の位置は、本体部41であれば何処でもよいが、ハンド部42に近い方がより好ましい。
制御装置5について説明する。制御装置5は、CPU51、HDD52、RAM53等を備える。HDD52には、後述するキャリブレーション処理(図3参照)を実行する為のキャリブレーションプログラム、後述する基準位置算出処理(図4参照)を実行する為の基準位置算出プログラム、後述する回転成分算出処理(図5参照)を実行する為の回転成分算出プログラム、後述する並進成分算出処理(図6参照)を実行する為の並進成分算出プログラム、後述する球体認識処理(図7参照)を実行する為の球体認識プログラム等、各種プログラムが記憶されている。制御装置5は、スキャナ2及びロボット3と有線又は無線により通信可能に接続されている。制御装置5は、例えば周知のPC(パーソナルコンピュータ)を用いることができるが、専用機であってもよい。
図1を参照し、ロボットシステム1によるターゲット10のピッキング動作の一例を簡単に説明する。スキャナ2は、机上に載置されたターゲット10を撮像し、三次元スキャニングを実行する。スキャナ2は、三次元スキャニングによって得られた点群データをスキャニングデータとして、制御装置5に出力する。制御装置5のCPU51は、スキャナ2から受信したスキャニングデータに基づき、ターゲット10の位置姿勢認識を行う。基準位置は、例えばターゲット10の重心付近とする。位置姿勢認識によって得られた位置姿勢情報は三次元ユークリッド変換行列で管理し、例えばRAM53に記憶する。次いで、ターゲット10を把持位置姿勢を決定する。ターゲット10の把持する位置は、例えば基準位置よりZ方向に少し上とする。把持する姿勢であるZ軸回りの回転角RZは、ターゲット10の位置(x,y)を用いてRZ=tan−1(y/x)とすればよい。CPU51は、ターゲット10の位置姿勢と、決定した把持位置と姿勢に基づき、ロボット3に対し、ターゲット10の位置までハンド部42を移動させ、ターゲット10を把持させる為の制御指令を出力する。ロボット3は、CPU51からの制御指令に基づき、ハンド部42をターゲット10の把持位置まで移動させた後、ターゲット10を把持し、所定位置まで搬送して載置する。なお、ロボット3のハンド部42は、Z軸方向をアプローチ方向とし、リフトアップ方向もZ軸方向とすればよい。
次に、ロボットシステム1におけるスキャナ2とロボット3の自動キャリブレーション方法について説明する。
−数学的な準備−
(三次元直交)座標系Aから座標系Bへの座標変換をTA→Bと表す。この座標変換は、回転・スケール成分R∈GL3および並進成分S∈R3の組み合わせからなり、(R;S)のように表す。
ここで、GL3は三次実正則行列の全体、R3は三次元ユークリッド空間である。ロボット座標系をW、スキャナ座標系をVとする。ハンド部42の位置姿勢は、ロボット座標原点からの変換とみなすことで(R;S)と表せる。そこで、これらの数学的な準備を踏まえ、スキャナ座標系Vからロボット座標系Wへの座標変換TV→W=(RV;SV)を自動的に推定する為のキャリブレーション処理を説明する。
−数学的な準備−
(三次元直交)座標系Aから座標系Bへの座標変換をTA→Bと表す。この座標変換は、回転・スケール成分R∈GL3および並進成分S∈R3の組み合わせからなり、(R;S)のように表す。
図2,図3を参照し、キャリブレーション処理を説明する。ユーザが制御装置5の入力部(図示略)において、キャリブレーション開始の指示を入力すると、制御装置5のCPU51は、HDD52に記憶されたキャリブレーションプログラムを読み込み、図3に示すキャリブレーション処理を実行する。
−球体70の取り付け−
先ず、キャリブレーション処理を開始する前に、作業者は、図2に示すように、エンドエフェクタ40の球体固定軸45に球体70を手作業で取り付ける。球体70の材料は、特に限定しないが、三次元スキャナに適した拡散反射する素材であるのが好ましい。なお、球体70の少なくとも表面が拡散反射すればよいので、例えば、表面だけを拡散反射する素材で形成してもよく、表面を研磨等で加工することによって拡散反射させてもよい。本実施形態の球体70の重量は、ピッキングの対象であるターゲット10と略同一にするのが好ましく、例えば100gである。球体70のサイズは、ピッキングの対象であるターゲット10と略同一サイズにするのが好ましい。また、本実施形態では、球体固定軸45に球体70を取り付けているが、ハンド部42に球体70を把持させてもよい。このとき、ハンド部42の位置と、球体70の中心位置とが一致していなくてもよい。但し、ロボット3が動作しても球体70がずれ落ちてしまわないように、ハンド部42に確実に固定されていることが重要である。それ故、本実施形態では、球体70を球体固定軸45に取り付けることで、ハンド部42と一体して動作するエンドエフェクタ40に確実に固定できる。球体70の取付作業が完了した場合、ユーザは、制御装置5の入力部(図示略)において、球体70の取付作業の完了操作を行う。
先ず、キャリブレーション処理を開始する前に、作業者は、図2に示すように、エンドエフェクタ40の球体固定軸45に球体70を手作業で取り付ける。球体70の材料は、特に限定しないが、三次元スキャナに適した拡散反射する素材であるのが好ましい。なお、球体70の少なくとも表面が拡散反射すればよいので、例えば、表面だけを拡散反射する素材で形成してもよく、表面を研磨等で加工することによって拡散反射させてもよい。本実施形態の球体70の重量は、ピッキングの対象であるターゲット10と略同一にするのが好ましく、例えば100gである。球体70のサイズは、ピッキングの対象であるターゲット10と略同一サイズにするのが好ましい。また、本実施形態では、球体固定軸45に球体70を取り付けているが、ハンド部42に球体70を把持させてもよい。このとき、ハンド部42の位置と、球体70の中心位置とが一致していなくてもよい。但し、ロボット3が動作しても球体70がずれ落ちてしまわないように、ハンド部42に確実に固定されていることが重要である。それ故、本実施形態では、球体70を球体固定軸45に取り付けることで、ハンド部42と一体して動作するエンドエフェクタ40に確実に固定できる。球体70の取付作業が完了した場合、ユーザは、制御装置5の入力部(図示略)において、球体70の取付作業の完了操作を行う。
図3に示すように、CPU51は、球体70の取付作業が完了したか否か判断する(S1)。完了操作が行われるまで(S1:NO)、CPU51は待機する。完了操作が行われた場合(S1:YES)、CPU51は、HDD52からサブルーチンである基準位置算出プログラムを読み出し、基準位置算出処理を実行する(S2)
−基準位置算出処理−
CPU51は、ループ変数kを0に初期化する(S10)。kは、後述する球体認識処理を実行した回数に相当し、RAM53に記憶される。CPU51は、kに1加算し(S11)、HDD52から球体位置認識プログラムを読み出し、球体認識処理を実行する(S12)。
CPU51は、ループ変数kを0に初期化する(S10)。kは、後述する球体認識処理を実行した回数に相当し、RAM53に記憶される。CPU51は、kに1加算し(S11)、HDD52から球体位置認識プログラムを読み出し、球体認識処理を実行する(S12)。
−球体認識処理−
球体認識処理は、基準位置算出処理、回転成分算出処理、及び並進成分算出処理の何れにおいても実行される処理であるので、最初に、球体認識処理の一般的な処理内容を説明する。球体認識処理はハンド部42の位置姿勢(R;S)を引数とする。図7に示すように、CPU51はロボット3に対し、ハンド部42の(R;S)への移動を開始する(S101)。CPU51は移動が完了したか否か判断する(S102)。移動が完了するまで(S102:NO)、CPU51は移動を継続する。移動が完了すると(S102:YES)、CPU51はスキャナ2に対してスキャン実行命令を送信し、スキャニングデータを取得する(S103)。スキャニングデータは、図8に示す点群データである。最後に、CPU51は取得した点群データから球体70の中心位置q∈Vを推定し(S104)、その推定した中心位置qを戻り値として、例えばRAM53に記憶する。なお、球体70の位置推定は、既存の手法を用いることができ、例えば、RANSAC(RANdom SAmple Consensus)法を用いることができる。RANSAC法は、ノイズが載ったデータに対しても高精度に中心位置qを推定できる。CPU51は球体認識処理を終了する。
球体認識処理は、基準位置算出処理、回転成分算出処理、及び並進成分算出処理の何れにおいても実行される処理であるので、最初に、球体認識処理の一般的な処理内容を説明する。球体認識処理はハンド部42の位置姿勢(R;S)を引数とする。図7に示すように、CPU51はロボット3に対し、ハンド部42の(R;S)への移動を開始する(S101)。CPU51は移動が完了したか否か判断する(S102)。移動が完了するまで(S102:NO)、CPU51は移動を継続する。移動が完了すると(S102:YES)、CPU51はスキャナ2に対してスキャン実行命令を送信し、スキャニングデータを取得する(S103)。スキャニングデータは、図8に示す点群データである。最後に、CPU51は取得した点群データから球体70の中心位置q∈Vを推定し(S104)、その推定した中心位置qを戻り値として、例えばRAM53に記憶する。なお、球体70の位置推定は、既存の手法を用いることができ、例えば、RANSAC(RANdom SAmple Consensus)法を用いることができる。RANSAC法は、ノイズが載ったデータに対しても高精度に中心位置qを推定できる。CPU51は球体認識処理を終了する。
図4に戻り、基準位置算出処理における球体認識処理(S12)では、CPU51は、キャリブレーションで基準となる球体70の位置を算出する。なお、球体認識処理を開始する前に、ユーザは、1個のハンド基準位置姿勢(RA;SA)を手作業で決め、HDD52に記憶する。この位置姿勢は、ピッキング対象エリア(スキャナ2のスキャン対象範囲と同義)の中央付近とする。CPU51は、球体70の位置qAKの推定が完了すると、ループ変数kはL以上か否か判断する(S13)。Lは1以上とする。kがL未満の場合(S13:NO)、CPU51はS11に戻り、kに1加算して、球体認識処理を再度実行する(S12)。それ故、CPU51は、球体認識処理をL回繰り返して実行する。球体位置を繰り返し認識することで、基準位置のバラつきを低減できる。
CPU51は、ループ変数k∈{1,・・・,L}に対し、引数にHDD52から読み出した(RA;SA)を与え、戻り値の球体位置をqAk∈Vにセットする。つまり、ループ2回目以降は、ロボット3は動作しない。kがLに達した場合(S13:YES)、CPU51は、以下の[数2]に示すように、得られた球体位置のL個のデータを平均化することによって、基準位置qAを推定する(S14)。
CPU51は、推定した基準位置qAを戻り値として、例えばRAM53に記憶し、図3のキャリブレーション処理に戻ってS3に処理を進める。CPU51は、HDD52からサブルーチンである回転成分算出プログラムを読み出し、回転成分算出処理を実行する(S3)。
−回転成分算出処理−
CPU51は、ループ変数kを0に初期化する(S20)。kは、球体認識処理を実行した回数に相当し、RAM53に記憶される。CPU51は、kに1加算し(S21)、HDD52から球体位置認識プログラムを読み出し、球体認識処理を実行する(S22)。
CPU51は、ループ変数kを0に初期化する(S20)。kは、球体認識処理を実行した回数に相当し、RAM53に記憶される。CPU51は、kに1加算し(S21)、HDD52から球体位置認識プログラムを読み出し、球体認識処理を実行する(S22)。
回転成分算出処理における球体認識処理(S22)では、スキャナ座標系からロボット座標系への変換の回転成分RVを算出する。球体認識処理を開始する前に、ユーザは、M個の回転成分算出用のハンド部42の位置姿勢(RA;SB1),・・・,(RA;SBM)を手作業で決め、HDD52に記憶する。なお、以下説明では、ハンド部42の位置姿勢のことを「ハンド位置姿勢」と呼ぶ。Mは4以上とする。例えば、図9に示すように、これらの位置姿勢の回転成分は基準姿勢と同じ(RA)で、並進成分だけが変化している(SB1,SB2,・・・)点が重要である。これらのハンド位置姿勢は、球体70がピッキング対象領域内に存在していること、尚且つ位置が同一直線あるいは同一平面上に分布しないようにすることを条件とする。
CPU51は、上記の球体認識処理を実行し(S22)、球体70の位置qBKを推定する。CPU51は、RAM53に記憶するkがM以上か否か判断する(S23)。kがM未満の場合(S23:NO)、CPU51はS21に戻り、kに1加算して、球体認識処理を再度実行する(S22)。それ故、CPU51は、球体認識処理をM回繰り返して実行する。
CPU51は、ループ変数k∈{1,・・・,M}に対し、引数にHDD52から読み出した(RA;SBk)を与え、戻り値の球体70の位置(以下「球体位置」と呼ぶ)をqBk∈Vにセットする。kがMに達した場合(S23:YES)、CPU51は、回転成分RVを推定する(S24)。これは、球体位置qB1,・・・,qBM∈Vからハンド部42の位置(以下「ハンド位置」と呼ぶ)SB1,・・・,SBM∈Wへの対応付けを基に、以下の[数3]で表した仮の座標変換を求め、更に以下の[数4]のようにおけばよい。
なぜなら、回転成分算出用のハンド位置姿勢は基準位置姿勢と同じなので、ハンド部42と球体70の位置関係が常に保たれるからである。[数3]で示す仮の座標変換は、次の[数5]で示す誤差関数Eを最小化する変数により与えられる。
CPU51は、その推定した回転成分RVを戻り値として、例えばRAM53に記憶し、図3のキャリブレーション処理に戻ってS4に処理を進める。CPU51は、HDD52からサブルーチンである並進成分算出プログラムを読み出し、並進成分算出処理を実行する(S4)。
−並進成分算出処理−
CPU51は、ループ変数kを0に初期化する(S30)。kは、球体認識処理を実行した回数に相当し、RAM53に記憶される。CPU51は、kに1加算し(S31)、HDD52から球体位置認識プログラムを読み出し、球体認識処理を実行する(S32)。
CPU51は、ループ変数kを0に初期化する(S30)。kは、球体認識処理を実行した回数に相当し、RAM53に記憶される。CPU51は、kに1加算し(S31)、HDD52から球体位置認識プログラムを読み出し、球体認識処理を実行する(S32)。
並進成分算出処理における球体認識処理(S32)では、スキャナ座標系からロボット座標系への変換の並進成分SVを算出する。基本的な処理内容を説明する。もし球体位置とハンド位置が一致していれば、座標変換の並進成分SVは、上述の回転成分算出処理で求めた仮の並進成分と同じ値になる。しかし、球体70は手作業で取り付けるため、以下の[数6]に示す並進成分の誤差ΔSは、ゼロとはならない。
そこで、スキャナ座標系からロボット座標系への変換の仮の回転成分と並進成分を設定し、ハンド部42を動作させる。球体位置とハンド位置とが異なっていれば、ハンド部42の移動によって、球体70の予測される位置と現実の位置とに違いが出るはずである。この誤差からΔSを推定する(図10参照)。
例えば、ハンド部42を基準位置姿勢から(R';S')だけ相対移動したと仮定する。このとき、球体位置は、以下の[数8]に示す位置となる。
よって、スキャナ座標系における移動後の球体位置は、以下の[数9]に示す位置となる。
更に、[数3]の仮の座標変換を使えば、以下に示す[数10]と書き換えられる。
以上の準備を元にして、並進成分算出処理を説明する。球体認識処理を開始する前に、ユーザは、N個の回転成分算出用のハンド位置姿勢(RC1;SC1),・・・,(RCN;SCN)を手作業で決め、HDD52に記憶する。Nは1以上とする。これらの位置姿勢は、球体70がピッキング対象領域内に存在していること、異なる軸回転の姿勢が多いことを条件とする。CPU51は、上記の球体認識処理を実行し(S32)、球体70の位置qCKを推定する。CPU51は、RAM53に記憶するkがN以上か否か判断する(S33)。kがN未満の場合(S33:NO)、CPU51はS31に戻り、kに1加算して、球体認識処理を再度実行する(S32)。それ故、CPU51は、球体認識処理をN回繰り返して実行する。
CPU51は、ループ変数k∈{1,・・・,N}に対し、引数にHDD52から読み出した(RCk;SCk)を与え、戻り値の球体位置をqCk∈Vにセットする。kがNに達した場合(S33:YES)、CPU51は、並進成分SV、つまりは、誤差ΔSを推定する(S34)。ΔSは、以下の[数11]に示す誤差関数Fを最小化する変数で与えられる。
但し、以下の[数12]に示すように、
とし、(R'Ck;S'Ck)は、基準位置姿勢(RA;SA)から(RCk;SCk)への相対移動とする。最後に、以下の[数13]に示すように、
とすることによって、CPU51は、スキャナ座標系からロボット座標系への変換(RV;SV)を得ることができる。CPU51は、その推定した回転成分RVを戻り値として、例えばRAM53に記憶する。このようにして、スキャナ座標系からロボット座標系への変換(RV;SV)がRAM53に記憶される。
CPU51は、図3のキャリブレーション処理のS5に処理を進め、球体70の取外し作業が完了したか否か判断する。ユーザは、エンドエフェクタ40の球体固定軸45から、球体70を手作業で取り外す。球体70の取外し作業が完了した場合、ユーザは、制御装置5の入力部(図示略)において、球体70の取外し作業の完了操作を行う。完了操作が行われるまでは(S5:NO)、CPU51は待機する。完了操作が行われた場合(S5:YES)、CPU51は、キャリブレーション処理を終了する。このようにして、ロボットシステム1は、球体70を用いることで、スキャナ座標系からロボット座標系へのキャリブレーションを自動で且つ高精度に行うことができる。
以上説明において、図3に示すキャリブレーション処理を実行するCPU51が、本発明の「推定手段」の一例である。図4に示す基準位置算出処理を実行するCPU51が、本発明の「基準位置推定手段」の一例である。図5に示す回転成分算出処理を実行するCPU51が、本発明の「回転成分推定手段」の一例である。図6に示す並進成分算出処理を実行するCPU51が、本発明の「並進成分推定手段」の一例である。図7に示す球体認識処理を実行するCPU51が、本発明の「中心位置推定手段」の一例である。図1に示すフランジ部341が本発明の「取付部」の一例である。本体部41が本発明の「被取付部」の一例である。球体固定軸45が本発明の「球体固定部」の一例である。
CPU51が実行するキャリブレーション処理が、本発明の「推定工程」及び「推定ステップ」の一例である。CPU51が実行する基準位置算出処理が、本発明の「基準位置推定工程」及び「基準位置推定ステップ」の一例である。CPU51が実行する回転成分算出処理が、本発明の「回転成分推定工程」及び「回転成分推定ステップ」の一例である。CPU51が実行する並進成分算出処理が、本発明の「並進成分推定工程」及び「並進成分推定ステップ」の一例である。
基準位置算出処理における球体認識処理(S12)において、スキャナ2から取得する点群データは、本発明の「第一スキャニングデータ」の一例である。回転成分算出処理における球体認識処理(S22)において、スキャナ2から取得する点群データは、本発明の「第二スキャニングデータ」の一例である。並進成分算出処理における球体認識処理(S32)において、スキャナ2から取得する点群データは、本発明の「第三スキャニングデータ」の一例である。
以上説明したように、本実施形態のロボットシステム1は、スキャナ2、ロボット3、制御装置5を備える。ロボット3は、ターゲット10を把持可能なハンド部42を有するエンドエフェクタ40を備え、回転と並進が可能である垂直多関節型ロボットである。スキャナ2は、ターゲット10の三次元スキャニングを実行可能ある。制御装置5は、スキャナ2でスキャニングされたターゲット10のスキャニングデータ(点群データ)に基づき、ターゲット10の位置姿勢を特定し、該位置姿勢を特定したターゲット10のピッキングを指示する制御指令をロボット3に出力する。制御装置50のCPU51は、スキャナ座標系からロボット座標系への座標変換に用いる回転成分RVと並進成分SVを夫々推定する。
具体的には、CPU51は、基準位置算出処理、回転成分算出処理、並進成分算出処理を実行する。基準位置推定処理では、ハンド部42を基準位置姿勢に移動させたときの、エンドエフェクタ40に取り付けた球体70の表面形状の点群データをスキャナ2から取得し、球体70の基準位置を推定する。回転成分算出処理では、ハンド部42を、基準位置姿勢に対して、回転成分が同一で並進成分が異なる位置姿勢に移動させた後の球体70の点群データをスキャナ2から取得し、取得した点群データに基づき推定される球体70の位置データに基づき、回転成分RVを推定する。並進成分算出処理では、ハンド部42を、基準位置姿勢に対して異なる回転成分である位置姿勢に移動させた後の球体70の点群データをスキャナ2から取得し、取得した点群データに基づき推定される球体70の位置データに基づき、並進成分SVを推定する。これにより、ロボットシステム1は、スキャナ座標系からロボット座標系へのキャリブレーションを高精度且つ自動で行うことができる。また、ロボットシステム1は、球体70をキャリブレーションに用いることで、レーザ光の反射強度を可視画像として出力するスキャナを用いることができる。また、ロボットシステム1は、スキャナ2によるターゲット10の測定場面に応じて、自動でキャリブレーションできるので、ターゲット10の把持位置を自動で決定できる。
また、本実施形態のCPU51は、基準位置算出処理、回転成分算出処理、及び並進成分算出処理において、球体認識処理を実行することで、スキャナ2から出力される球体70の点群データに基づき、球体70の中心位置を推定するので、球体70の位置を容易且つ高精度に推定できる。よって、ロボットシステム1は、スキャナ座標系からロボット座標系へのキャリブレーションを高精度に行うことができる。
また、本実施形態において、キャリブレーション実行時に用いる球体70は、少なくとも表面が拡散反射するものを採用するので、スキャナ2から照射されるレーザ光を球体70の表面に反射させ、その反射光を受光できる。このことから、球体70の表面を正確にスキャニングできる。よって、ロボットシステム1は、球体70の位置を高精度に認識できるので、スキャナ座標系からロボット座標系へのキャリブレーションを高精度に行うことができる。
また、本実施形態のロボット3は、回転と並進が可能な多関節を有するアーム部32を備える。エンドエフェクタ40は、アーム部32の先端部に設けられたフランジ部341に着脱可能に取り付けられる本体部41と、ハンド部42とは異なる位置に、球体70を着脱可能に固定する球体固定軸45を備える。球体70は、ハンド部42に把持させることもできるが、エンドエフェクタ40の球体固定軸45に固定することもできる。例えば、ハンド部42のようにターゲット10を挟み込む方式ではなく、吸着させてターゲット10を保持する吸着方式のハンド部も存在する。このタイプでは、球体70に吸着させる部分が樹脂で形成されている場合があり、球体70を水平方向に保持した状態では、球体70に吸着させる部分が球体70の重さで下がる可能性がある。その場合、球体70の正確な位置が推定できない。このような場合に、球体70を球体固定軸45に固定することで、球体70はエンドエフェクタ40と一体して移動するので、球体70の位置がずれることがない。よって、球体70の正確な位置が推定できるので、キャリブレーションを良好に行うことができる。
なお、本発明は上記実施の形態に限定されず、様々な変形が可能である。上記実施形態では、スキャナ2と制御装置5が別体であるが、例えば、スキャナ2と制御装置5が一体となったスマートカメラであってもよい。その場合、PCのような制御装置が不要にできるので、ロボットシステムの構成を簡素化できる。その他、本発明のロボットは、例えば直交4軸ロボットの先端に、関節(揺動部)を備えたハンドを取り付けたロボットにも適用可能である。直交4軸とは、スライダを組み合わせたXYZ軸と回転R軸からなるロボットである。回転R軸の先端に、1個の関節(揺動部)を備えたハンドを取り付けることで、並進と回転の運動を実現できる。
上記実施形態のロボット3は、3つの回転部R1〜R3と、3つの揺動部Q1〜Q3とを備えることで、6軸を備える垂直多関節型のロボットであるが、6軸に限らず、これよりも多くても少なくてもよい。また、ロボット3は、回転と並進が可能なロボットであればよく、垂直多関節型以外にも、例えば、水平多関節ロボットにも適用可能である。
上記実施形態では、説明の便宜上、机上において水平方向に並んで載置されたターゲット10をピッキングする例を説明したが、ばら積みのターゲット10をピッキングすることも可能である。
1 ロボットシステム
2 スキャナ
3 ロボット
5 制御装置
10 ターゲット
32 アーム部
40 エンドエフェクタ
41 本体部
42 ハンド部
45 球体固定軸
51 CPU
70 球体
341 フランジ部
2 スキャナ
3 ロボット
5 制御装置
10 ターゲット
32 アーム部
40 エンドエフェクタ
41 本体部
42 ハンド部
45 球体固定軸
51 CPU
70 球体
341 フランジ部
Claims (7)
- ターゲットを保持可能なハンド部を有するエンドエフェクタを備え、回転と並進が可能であるロボットと、
前記ターゲットのスキャニングを実行するスキャナと、
前記スキャナでスキャニングされた前記ターゲットのスキャニングデータに基づき、前記ターゲットの位置姿勢を特定し、該位置姿勢を特定した前記ターゲットの保持を指示する制御指令を前記ロボットに出力する制御手段と
を備えたロボットシステムであって、
前記制御手段は、
前記スキャナの座標系であるスキャナ座標系から前記ロボットの座標系であるロボット座標系への座標変換に用いる回転成分と並進成分である変換用回転成分と変換用並進成分を夫々推定する推定手段を備え、
前記推定手段は、
前記ハンド部を基準位置姿勢に移動させたときの、前記エンドエフェクタに取り付けた球体の表面形状を三次元スキャニングした点群データである第一スキャニングデータを前記スキャナから取得し、取得した前記第一スキャニングデータに基づき、前記球体の基準位置を推定する基準位置推定手段と、
前記ハンド部を、前記基準位置姿勢に対して、回転成分が同一で並進成分が異なる第一位置姿勢に移動させた後の前記球体の表面形状を三次元スキャニングした点群データである第二スキャニングデータを前記スキャナから取得し、取得した前記第二スキャニングデータに基づき推定される前記球体の位置データに基づき、前記変換用回転成分を推定する回転成分推定手段と、
前記ハンド部を、前記基準位置姿勢に対して異なる回転成分である第二位置姿勢に移動させた後の前記球体の表面形状を三次元スキャニングした点群データである第三スキャニングデータを前記スキャナから取得し、取得した前記第三スキャニングデータに基づき推定される前記球体の位置データに基づき、前記変換用並進成分を推定する並進成分推定手段と
を備えたこと
を特徴とするロボットシステム。 - 前記基準位置推定手段、前記回転成分推定手段、及び前記並進成分推定手段は、前記球体の前記点群データに基づき、前記球体の中心位置を推定する中心位置推定手段を備え、当該中心位置推定手段で推定された前記中心位置を、前記球体の位置として特定すること
を特徴とする請求項1に記載のロボットシステム。 - 前記球体は、少なくとも表面が拡散反射するものであること
を特徴とする請求項1又は2に記載のロボットシステム。 - 前記ロボットは、
回転と並進が可能な多関節を有するアーム部を備え、
前記エンドエフェクタは、
前記アーム部の先端部に設けられた取付部に着脱可能に取り付けられる被取付部と、
前記ハンド部とは異なる位置に、前記球体を着脱可能に固定する球体固定部と
を備えたこと
を特徴とする請求項1から3の何れかに記載のロボットシステム。 - ターゲットを保持可能なハンド部を有するエンドエフェクタを備え、回転と並進が可能であるロボットと、前記ターゲットのスキャニングを実行するスキャナとを備えたロボットシステムの制御を行い、前記スキャナでスキャニングされた前記ターゲットのスキャニングデータに基づき、前記ターゲットの位置姿勢を特定し、該位置姿勢を特定した前記ターゲットの保持を指示する制御指令を前記ロボットに出力することが可能な制御装置であって、
前記スキャナの座標系であるスキャナ座標系から前記ロボットの座標系であるロボット座標系への座標変換に用いる回転成分と並進成分である変換用回転成分と変換用並進成分を夫々推定する推定手段を備え、
前記推定手段は、
前記ハンド部を基準位置姿勢に移動させたときの、前記エンドエフェクタに取り付けた球体の表面形状を三次元スキャニングした点群データである第一スキャニングデータを前記スキャナから取得し、取得した前記第一スキャニングデータに基づき、前記球体の基準位置を推定する基準位置推定手段と、
前記ハンド部を、前記基準位置姿勢に対して、回転成分が同一で並進成分が異なる第一位置姿勢に移動させた後の前記球体の表面形状を三次元スキャニングした点群データである第二スキャニングデータを前記スキャナから取得し、取得した前記第二スキャニングデータに基づき推定される前記球体の位置データに基づき、前記変換用回転成分を推定する回転成分推定手段と、
前記ハンド部を、前記基準位置姿勢に対して異なる回転成分である第二位置姿勢に移動させた後の前記球体の表面形状を三次元スキャニングした点群データである第三スキャニングデータを前記スキャナから取得し、取得した前記第三スキャニングデータに基づき推定される前記球体の位置データに基づき、前記変換用並進成分を推定する並進成分推定手段と
を備えたこと
を特徴とする制御装置。 - ターゲットを保持可能なハンド部を有するエンドエフェクタを備え、回転と並進が可能であるロボットと、前記ターゲットのスキャニングを実行するスキャナとを備えたロボットシステムの制御を行い、前記スキャナでスキャニングされた前記ターゲットのスキャニングデータに基づき、前記ターゲットの位置姿勢を特定し、該位置姿勢を特定した前記ターゲットの保持を指示する制御指令を前記ロボットに出力可能な制御装置の制御方法であって、
前記スキャナの座標系であるスキャナ座標系から前記ロボットの座標系であるロボット座標系への座標変換に用いる回転成分と並進成分である変換用回転成分と変換用並進成分を夫々推定する推定工程を備え、
前記推定工程は、
前記ハンド部を基準位置姿勢に移動させたときの、前記エンドエフェクタに取り付けた球体の表面形状を三次元スキャニングした点群データである第一スキャニングデータを前記スキャナから取得し、取得した前記第一スキャニングデータに基づき、前記球体の基準位置を推定する基準位置推定手段と、
前記ハンド部を、前記基準位置姿勢に対して、回転成分が同一で並進成分が異なる第一位置姿勢に移動させた後の前記球体の表面形状を三次元スキャニングした点群データである第二スキャニングデータを前記スキャナから取得し、取得した前記第二スキャニングデータに基づき推定される前記球体の位置データに基づき、前記変換用回転成分を推定する回転成分推定工程と、
前記ハンド部を、前記基準位置姿勢に対して異なる回転成分である第二位置姿勢に移動させた後の前記球体の表面形状を三次元スキャニングした点群データである第三スキャニングデータを前記スキャナから取得し、取得した前記第三スキャニングデータに基づき推定される前記球体の位置データに基づき、前記変換用並進成分を推定する並進成分推定工程と
を備えたこと
を特徴とする制御方法。 - ターゲットを保持可能なハンド部を有するエンドエフェクタを備え、回転と並進が可能であるロボットと、前記ターゲットのスキャニングを実行するスキャナとを備えたロボットシステムの制御を行い、前記スキャナでスキャニングされた前記ターゲットのスキャニングデータに基づき、前記ターゲットの位置姿勢を特定し、該位置姿勢を特定した前記ターゲットの保持を指示する制御指令を前記ロボットに出力可能な制御装置のコンピュータに実行させるプログラムであって、
前記スキャナの座標系であるスキャナ座標系から前記ロボットの座標系であるロボット座標系への座標変換に用いる回転成分と並進成分である変換用回転成分と変換用並進成分を夫々推定する推定ステップを備え、
前記推定ステップは、
前記ハンド部を基準位置姿勢に移動させたときの、前記エンドエフェクタに取り付けた球体の表面形状を三次元スキャニングした点群データである第一スキャニングデータを前記スキャナから取得し、取得した前記第一スキャニングデータに基づき、前記球体の基準位置を推定する基準位置推定ステップと、
前記ハンド部を、前記基準位置姿勢に対して、回転成分が同一で並進成分が異なる第一位置姿勢に移動させた後の前記球体の表面形状を三次元スキャニングした点群データである第二スキャニングデータを前記スキャナから取得し、取得した前記第二スキャニングデータに基づき推定される前記球体の位置データに基づき、前記変換用回転成分を推定する回転成分推定ステップと、
前記ハンド部を、前記基準位置姿勢に対して異なる回転成分である第二位置姿勢に移動させた後の前記球体の表面形状を三次元スキャニングした点群データである第三スキャニングデータを前記スキャナから取得し、取得した前記第三スキャニングデータに基づき推定される前記球体の位置データに基づき、前記変換用並進成分を推定する並進成分推定ステップと
を備えたこと
を特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015233251A JP2017100202A (ja) | 2015-11-30 | 2015-11-30 | ロボットシステム、制御装置、制御方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015233251A JP2017100202A (ja) | 2015-11-30 | 2015-11-30 | ロボットシステム、制御装置、制御方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017100202A true JP2017100202A (ja) | 2017-06-08 |
Family
ID=59017624
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015233251A Pending JP2017100202A (ja) | 2015-11-30 | 2015-11-30 | ロボットシステム、制御装置、制御方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017100202A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107553469A (zh) * | 2017-09-27 | 2018-01-09 | 西安华航唯实机器人科技有限公司 | 一种工业机器人视觉数字化测量装置 |
CN108692688A (zh) * | 2018-04-28 | 2018-10-23 | 武汉理工大学 | 一种机器人测量-加工系统扫描仪坐标系自动标定方法 |
CN109443200A (zh) * | 2018-10-18 | 2019-03-08 | 广东电网有限责任公司 | 一种全局视觉坐标系和机械臂坐标系的映射方法及装置 |
JP2020139891A (ja) * | 2019-02-28 | 2020-09-03 | クモノスコーポレーション株式会社 | 球形マーカー検出方法 |
WO2021246521A1 (ja) * | 2020-06-05 | 2021-12-09 | 川崎重工業株式会社 | 角度キャリブレーション方法 |
CN114652471B (zh) * | 2021-04-22 | 2024-04-19 | 宁波频泰光电科技有限公司 | 用于三维口腔扫描仪的标定器 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005125478A (ja) * | 2003-09-29 | 2005-05-19 | Yaskawa Electric Corp | 複数ロボット間の相対位置計測方法 |
JP2012091280A (ja) * | 2010-10-27 | 2012-05-17 | Mitsubishi Electric Corp | 座標系校正方法及びロボットシステム |
JP2013526423A (ja) * | 2010-05-14 | 2013-06-24 | コグネックス・テクノロジー・アンド・インベストメント・コーポレーション | マシンビジョンシステムおよびロボットの間のロバストな較正の装置および方法 |
JP2015182144A (ja) * | 2014-03-20 | 2015-10-22 | キヤノン株式会社 | ロボットシステムおよびロボットシステムの校正方法 |
-
2015
- 2015-11-30 JP JP2015233251A patent/JP2017100202A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005125478A (ja) * | 2003-09-29 | 2005-05-19 | Yaskawa Electric Corp | 複数ロボット間の相対位置計測方法 |
JP2013526423A (ja) * | 2010-05-14 | 2013-06-24 | コグネックス・テクノロジー・アンド・インベストメント・コーポレーション | マシンビジョンシステムおよびロボットの間のロバストな較正の装置および方法 |
JP2012091280A (ja) * | 2010-10-27 | 2012-05-17 | Mitsubishi Electric Corp | 座標系校正方法及びロボットシステム |
JP2015182144A (ja) * | 2014-03-20 | 2015-10-22 | キヤノン株式会社 | ロボットシステムおよびロボットシステムの校正方法 |
Non-Patent Citations (1)
Title |
---|
RADU HORAUD, FADI DORNAIKA: ""Hand-eye Calibration"", INTERNATIONAL JOURNAL OF ROBOTICS RESEARCH, vol. 14, no. 3, JPN6017025757, June 1995 (1995-06-01), pages 195 - 210, XP055327441, ISSN: 0003598419, DOI: 10.1177/027836499501400301 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107553469A (zh) * | 2017-09-27 | 2018-01-09 | 西安华航唯实机器人科技有限公司 | 一种工业机器人视觉数字化测量装置 |
CN108692688A (zh) * | 2018-04-28 | 2018-10-23 | 武汉理工大学 | 一种机器人测量-加工系统扫描仪坐标系自动标定方法 |
CN109443200A (zh) * | 2018-10-18 | 2019-03-08 | 广东电网有限责任公司 | 一种全局视觉坐标系和机械臂坐标系的映射方法及装置 |
JP2020139891A (ja) * | 2019-02-28 | 2020-09-03 | クモノスコーポレーション株式会社 | 球形マーカー検出方法 |
JP7208061B2 (ja) | 2019-02-28 | 2023-01-18 | クモノスコーポレーション株式会社 | 球形マーカー検出方法 |
WO2021246521A1 (ja) * | 2020-06-05 | 2021-12-09 | 川崎重工業株式会社 | 角度キャリブレーション方法 |
CN114652471B (zh) * | 2021-04-22 | 2024-04-19 | 宁波频泰光电科技有限公司 | 用于三维口腔扫描仪的标定器 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11911914B2 (en) | System and method for automatic hand-eye calibration of vision system for robot motion | |
JP6180087B2 (ja) | 情報処理装置及び情報処理方法 | |
JP6427972B2 (ja) | ロボット、ロボットシステム及び制御装置 | |
JP5949242B2 (ja) | ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム | |
JP3859574B2 (ja) | 3次元視覚センサ | |
JP2017100202A (ja) | ロボットシステム、制御装置、制御方法、及びプログラム | |
JP5471355B2 (ja) | 3次元視覚センサ | |
JP6734253B2 (ja) | ワークを撮像する視覚センサを備える撮像装置 | |
JP6499273B2 (ja) | ティーチング装置及び制御情報の生成方法 | |
JP6324025B2 (ja) | 情報処理装置、情報処理方法 | |
JP6855492B2 (ja) | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 | |
JP2014013146A (ja) | 3次元計測装置及びロボット装置 | |
JP2015150636A (ja) | ビジュアルフィードバックを利用したロボットシステム | |
JP2013036987A (ja) | 情報処理装置及び情報処理方法 | |
JP2012055999A (ja) | 物体把持システム、物体把持方法、プログラム、およびロボットシステム | |
JP2016099257A (ja) | 情報処理装置及び情報処理方法 | |
JP2008087074A (ja) | ワーク取り出し装置 | |
JP6885856B2 (ja) | ロボットシステムおよびキャリブレーション方法 | |
JPWO2019146201A1 (ja) | 情報処理装置、情報処理方法及び情報処理システム | |
JP2017170571A (ja) | ロボット、ロボット制御装置、及びロボットシステム | |
JP6897396B2 (ja) | 制御装置、ロボットシステムおよび制御方法 | |
JP2017124470A (ja) | ロボット、及びロボットシステム | |
JPWO2018043524A1 (ja) | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 | |
JP2008168372A (ja) | ロボット装置及び形状認識方法 | |
JP2019077026A (ja) | 制御装置、ロボットシステム、制御装置の動作方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170711 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180213 |