JP5834545B2 - ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム - Google Patents
ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム Download PDFInfo
- Publication number
- JP5834545B2 JP5834545B2 JP2011147186A JP2011147186A JP5834545B2 JP 5834545 B2 JP5834545 B2 JP 5834545B2 JP 2011147186 A JP2011147186 A JP 2011147186A JP 2011147186 A JP2011147186 A JP 2011147186A JP 5834545 B2 JP5834545 B2 JP 5834545B2
- Authority
- JP
- Japan
- Prior art keywords
- time
- image data
- image
- arm
- error
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Manipulator (AREA)
Description
このため、ビジュアルサーボでは、画像を露光した時の情報を使って、ロボットに次に移動する指令値を生成するが、ロボットに指令値を送る時は露光した時間から最低でも2フレーム分以上の時間が経過してしまう。
この場合においても、エンコーダー情報から計算されるロボット手先位置・姿勢と実際のロボットの手先位置・姿勢には、重力の影響等によるロボットキャリブレーション誤差が残る。このため、現在の画像を精度良く予測できないため、この画像を用いた場合、精度の良いビジュアルサーボが行えない。
この結果、撮像装置が撮像してから画像取得部に出力するまでに遅れ時間があり、現在時刻である第4の時刻に撮像された画像データが取得されていない状態であっても、現在時刻である第4の時刻の画像データの誤差を考慮して推定することができるので、ロボットキャリブレーション誤差やカメラキャリブレーション誤差等があっても精度良く制御可能なロボットを提供できる。
この結果、撮像装置が撮像してから画像取得部に出力するまでに遅れ時間があり、現在時刻である第4の時刻に撮像された画像データが取得されていない状態であっても、現在時刻である第4の時刻の画像データの誤差を考慮して推定することができるので、ロボットキャリブレーション誤差やカメラキャリブレーション誤差等があっても精度良く制御可能なロボットを提供できる。
この結果、撮像装置が撮像してから画像取得部に出力するまでに遅れ時間があり、現在時刻である第4の時刻に撮像された画像データが取得されていない状態であっても、第4の時刻の画像データを補正するための第3の時刻の画像データの誤差を算出することができるので、ロボットキャリブレーション誤差やカメラキャリブレーション誤差等があっても精度良く制御可能なロボットを提供できる。
この結果、撮像装置が撮像してから画像取得部に出力するまでに遅れ時間があり、現在時刻である第4の時刻に撮像された画像データが取得されていない状態であっても、第3の時刻の画像データの誤差を第4の時刻の画像データの補正値に用いることができるので、ロボットキャリブレーション誤差やカメラキャリブレーション誤差等があっても精度良く制御可能なロボットを提供できる。
この結果、撮像装置が撮像してから画像取得部に出力するまでに遅れ時間があり、現在時刻である第4の時刻に撮像された画像データが取得されていない状態であっても、現在時刻である第4の時刻の画像データの誤差を考慮して推定することができるので、ロボットキャリブレーション誤差やカメラキャリブレーション誤差等があっても精度良く制御可能なロボット制御装置、ロボット制御方法、及びロボット制御プログラムを提供できる。
図1は、本実施形態に係るロボット1の概略構成を示す斜視図である。図1に示すように、ロボット1は、1本のアーム2を備えている。アーム2は、固定部10、アーム部20、及びエンドエフェクター40を備える。また、ロボット1は、制御部100の制御により動作する。また、対象物70は、ステージ72の上面に配置されている。
制御部100は、アーム部20、エンドエフェクター40を制御する。制御部100の詳細は後述する。なお、制御部100は、固定部10の内部ではなく、固定部10の外部に設けるようにしてもよい。
なお、このようなハンドアイではなく、撮像装置60をステージ72に固定し、ロボット1のエンドエフェクター40に非図示のハンドを取り付け、このハンドが対象物72を把持して移動させるようにしてもよい。
図2に示すように、アーム2のアーム部20は、第1リンク21、第2リンク22、第3リンク23、第4リンク24および第5リンク25がこの順に連結されたものである。また、アーム部20は、回転部82、83及び85と、屈折部81、84及び86とを有している。
図3に示すように、制御部100は、アーム制御部101、駆動部102、画像取得部103、クロック発生部104、画像処理部105、記憶部106、位置情報取得部107、位置姿勢算出部108、および、画像推定部109を備えている。また、制御部100には、撮像装置60、エンコーダー90、ロボット1(アーム2含む)、および、画像表示装置65が接続されている。なお、画像推定部とは、位置姿勢算出部108と画像推定部109である。
なお、撮像装置60が出力する画像情報がデジタル信号の場合、画像取得部103は、取得した画像情報を、変換せずにそのまま画像処理部105に出力する。
そして、過去の時刻d2から現在時刻d0における回転分がR20、並進分がt20である。同様に、過去の時刻d1から現在時刻d0における回転分がR10、並進分がベクトルt10である。同様に、過去の時刻d2から過去の時刻d1における回転分がR21、並進分がt21である。
時刻d2とd1におけるエピポーラ拘束の関係は、次式(1)のように表される。同様に、時刻d1とd0におけるエピポーラ拘束の関係は、次式(2)のように表される。同様に、時刻d2とd0におけるエピポーラ拘束の関係は、次式(3)のように表される。なお、エピポーラ拘束とは、基準カメラに写ったある点がもう一方の画像上のある直線(エピポーラライン)上に射影され、異なる視点から得られた2つの画像の対応する点同士が満たす条件である。
図5に示すように、撮像装置60の撮影タイミングが30fps(フレーム/秒)の場合、撮像装置60が撮像した画像は、33[msec]毎に更新される。図5において、時刻d2、d1、d0は、撮像装置60が撮像するタイミングであり、33[msec]間隔である。一方、エンコーダー90が生成するロボット1の手先位置・姿勢を示すエンコーダー情報は、例えば1[msec]毎に取得される。図5において、時刻de1、de2、・・・は、エンコーダー情報が取得されるタイミングであり、1[msec]間隔である。また、時刻d0は現在時刻であり、時刻d1は時刻t0より33[msec]前、時刻d2は、時刻d1より33[msec]前である。
図6は、本実施形態に係るアーム2の手先位置・姿勢を説明する図である。図7は、本実施形態に係る各時刻におけるパラメーター、アーム2の相対移動量、画像の関係を説明する図である。
図6において、アーム部20を簡略化して示している。図6、図7に示すように、時刻d2において、撮像装置60を備えるアーム2の手先位置・姿勢は、ロボット座標(x2,y2,z2,α2,β2,γ2)の位置・姿勢にある。この時刻d2において、撮像装置60は、対象物体70の画像I2を撮像する。なお、推定した画像I0を、以下、推定画像I0’という。同様に、推定した画像I1を、推定画像I1'、推定した画像I2を、推定画像I2'、推定した画像I3を、推定画像I3'という。
次に、時刻d0において、アーム2の手先位置・姿勢は、ロボット座標(x1,y1,z1,α1,β1,γ1) から(x0,y0,z0,α0,β0,γ0)の位置・姿勢に移動する。時刻d1からd0において、アーム部20の手先位置・姿勢の相対移動量は、回転分がR10、並進分がt10である。この場合、時刻d1からd0における基礎行列F10は、次式(6)のように表される。
なお、式(8)において、ベクトルx1は、ワールド座標における時刻d1におけるアーム2の手先位置・姿勢、ベクトルx0は、時刻d0におけるアーム2の手先位置・姿勢、誤差ε1は、時刻d1における画像I1の誤差、誤差ε0は、時刻d0における画像I0の誤差である。
時刻d1における画像I1の誤差ε1は、時刻d1に取得した画像I1と、時刻d1に取得される画像を推定した推定画像(以下、時刻d1の推定画像という)I1’との差を、ニュートン法などを用いて最小化問題を解くことで算出する。例えば、画像I1から、推定した推定画像I1 ’にΔR、ΔT、ΔAを加えて、推定画像I1’を更新した推定画像を減算し、減算結果が最小になるΔR、ΔT、ΔAを算出することで、誤差ε1(ΔR1、ΔT1、ΔA1)を算出する。
時刻d1の推定画像I1’は、上述したように式(4)に基づき、次式(11)を用いて、各画素を算出することで推定する。ただし、この場合、推定された推定画像I1’は、誤差を有している。なお、撮像装置60の内部パラメーターを表す行列Aの各パラメーターは、予めキャリブレーション処理により算出しておく。
この駆動信号により、アーム2の手先位置・姿勢は、時刻d3の時に(x3,y3,z3,α3,β3,γ3)に移動し、時刻d2の時に(x2,y2,z2,α2,β2,γ2)に移動する。また、アーム2の手先位置・姿勢は、時刻d1の時に(x1,y1,z1,α1,β1,γ1)に移動し、時刻d0の時に(x0,y0,z0,α0,β0,γ0)に移動する。そして、時刻d3〜d0の各間隔は、撮像装置60のフレームレートであり、例えば33[msec]である。ステップS1終了後、ステップS2に進む。
また、画像取得部103は、画像I3を取得したときの時刻d2をクロック発生部104から取得する。次に、画像取得部103は、画像I3をアナログ信号からデジタル信号に変換し、変換した画像I3と取得した時刻d2とを画像処理部105に出力する。ステップS2終了後、ステップS3に進む。
また、画像取得部103は、画像I2を取得したときの時刻d1をクロック発生部104から取得する。次に、画像取得部103は、画像I2をアナログ信号からデジタル信号に変換し、変換した画像I2と取得した時刻d1とを画像処理部105に出力する。ステップS5終了後、ステップS6に進む。
また、画像取得部103は、画像I1を取得したときの時刻d0をクロック発生部104から取得する。次に、画像取得部103は、画像I2をアナログ信号からデジタル信号に変換し、変換した画像I1と取得した時刻d0とを画像処理部105に出力する。ステップS8終了後、ステップS9に進む。
次に、位置姿勢算出部108は、時刻d2から時刻d1におけるアーム2の手先位置・姿勢の回転を表す行列R21と並進を表す行列T21を、時刻d2とd1の時のアーム制御部101が出力する駆動信号に基づく情報と、位置情報取得部107が出力するアーム2の手先位置・姿勢を示す情報とを用いて算出する。位置姿勢算出部108は、算出した回転を表す行列R21と並進を表す行列T21、及び撮像装置60の内部パラメーターを表す行列Aを用いて基礎行列F21を、上述した式(5)により算出する。位置姿勢算出部108は、算出した基礎行列F21を画像推定部109に出力する。
ステップS11終了後、ステップS12に進む。
ステップS14終了後、ステップS15に進む。
次に、位置姿勢算出部108は、算出した回転を表す行列R20と並進を表す行列T20、及び撮像装置60の内部パラメーターを表す行列Aを用いて基礎行列F20を、次式(12)により算出する。
ステップS15終了後、ステップS16に進む。
次に、画像推定部109は、ステップS16で算出した誤差ε0(ΔR0、ΔT0、ΔA0)を各基礎行列F10、F20に加算して、各基礎行列F10、F20を更新する。なお、回転行列Rについては、誤差ΔR0を乗じることで更新する。ステップS17終了後、ステップS18に進む。
以上により、時刻d0の画像I0の推定を終了する。
このようにして推定された現在時刻d0の推定画像I0’を用いて、制御部100が、ビジュアルサーボを行う。
また、遅れ時間が1フレームの場合であっても、時刻d3(現在時刻d0より3フレーム前の時刻)、d2(現在時刻d0より2フレーム前の時刻)に撮像された画像I4、I3を用いて、現在時刻d0の画像I0を推定するようにしてもよい。
また、なお、本実施形態では、ステップS18とS19で、時刻d0の画像m0を推定した後、推定した推定画像I0’に誤差を加算して推定画像I0’を更新する例を説明した。しかしながら、ステップS17で算出した誤差ε0(ΔR0、ΔT0、ΔA0)を基礎行列F10に加算して基礎行列F10を更新し、更新したF10を用いて式(13)により時刻d0の推定画像I0’を算出するようにしてもよい。
この結果、撮像装置60による遅れ誤差、ロボットキャリブレーション誤差、及びカメラキャリブレーション誤差を考慮した現在時刻d0における推定画像I0’を精度良く推測できる。そして、この推定された画像を用いてロボット1を制御できるため、ロボットキャリブレーション誤差やカメラキャリブレーション誤差等があっても精度の良いビジュアルサーボを行うことができる。
本実施形態では、エンコーダー90が出力するアーム2の手先位置・姿勢を示す情報が取得できるタイミング毎に画像を推定する。
本実施形態に係る現在時刻d0の画像I0を推定する手順について、図9のフローチャートを用いて説明する。エンコーダー90からの出力は、1[msec]毎に取得できるとして、以下の説明をする。
この駆動信号により、アーム2の手先位置・姿勢は、時刻d3の時に(x3,y3,z3,α3,β3,γ3)に移動し、時刻d2の時に(x2,y2,z2,α2,β2,γ2)に移動する。また、アーム2の手先位置・姿勢は、時刻d1の時に(x1,y1,z1,α1,β1,γ1)に移動し、時刻d0の時に(x0,y0,z0,α0,β0,γ0)に移動する。そして、時刻d3〜d0の間隔は、撮像装置60のフレームレートであり、例えば33[msec]である。ステップS101終了後、ステップS102に進む。
33[msec]経過した場合(ステップS103;Yes)、ステップS104に進む。33[msec]経過していない場合(ステップS103;No)、ステップS106に進む。
記憶部106に画像データが3つ以上記憶されている場合(ステップS106;Yes)、ステップS107に進む。記憶部106に画像データが3つ以上記憶されていない場合(ステップS106;No)、ステップS102に戻る。
次に、位置姿勢算出部108は、時刻d2から時刻d1におけるアーム2の手先位置・姿勢の回転を表す行列R21と並進を表す行列T21を、時刻d2とd1の時のアーム制御部101が出力する駆動信号に基づく情報と、位置情報取得部107が出力するアーム2の手先位置・姿勢を示す情報とを用いて算出する。位置姿勢算出部108は、算出した回転を表す行列R21と並進を表す行列T21、及び撮像装置60の内部パラメーターを表す行列Aを用いて基礎行列F21を、上述した式(5)により算出する。位置姿勢算出部108は、算出した基礎行列F21を画像推定部109に出力する。
ステップS107終了後、ステップS108に進む。
ステップS110終了後、ステップS111に進む。
ステップS111終了後、ステップS112に進む。
次に、画像推定部109は、ステップS112で算出した誤差ε0(ΔR0、ΔT0、ΔA0)を各基礎行列F10、F20に加算して、各基礎行列F10、F20を更新する。なお、回転行列Rについては、誤差ΔR0を乗じることで更新する。ステップS113終了後、ステップS114に進む。
全ての画素の情報について算出することで、画像推定部109は、時刻d0の推定画像I0’を推定する。
このようにして推定された現在時刻d0の推定画像I0’を用いて、制御部100が、エンコーダー90がアーム2の手先位置・姿勢を示す情報を出力するタイミング毎に、ビジュアルサーボを行う。
例えば、低いフレームレートの撮像装置60を用いたロボット1では、ロボット1の制御におけるサーボループのゲインを上げないと高速に制御できない。しかしながら、低いフレームレートの撮像装置60を用いたロボット1では、サーボループのゲインを上げると振動が発生するため、サーボループのゲインを上げられず、このためロボット1を高速に制御することができない。また、高速な制御を行うために高いフレームレートの撮像装置60を用いた場合、撮像装置60が高価であるため、ロボット1のコストアップになってしまう。
本実施形態によれば、低いフレームレートの撮像措置60を用いた場合でも、撮像装置60のフレームレートより速い間隔で、予測した画像を用いてロボット1を制御することができる効果がある。
また、本実施形態では、エンコーダー90がアーム2の手先位置・姿勢を示す情報を出力するタイミング毎(例えば、1[msec]毎)に現在時刻の画像を推定する例を説明したが、画像を推定する間隔は、制御する用途に応じて任意でもよい。
図10は、本実施形態に係るロボット1aの概略構成を示す斜視図である。図10に示すように、ロボット1aは、2本のアーム2−1と2−2を備えている。アーム2−1と2−2は、本体部500に連結されている。また、本体部500は、固定部10aに連結されている。
アーム2−1は、アーム部20−1、及びエンドエフェクター40−1を備える。アーム2−2は、アーム部20−2、力センサー30−2、及びエンドエフェクター40−2を備える。また、ロボット1は、制御部100aの制御により動作する。
アーム部20−2は、第1実施形態と同様に第1リンク21−2、第2リンク22−2、第3リンク23−2、第4リンク24−2および第5リンク25−2がこの順に連結されたものである。アーム部20−2の第5リンク25−2の他方端には、エンドエフェクター40−2が設けられている。アーム部20−2の第5リンク25−2とエンドエフェクター40−2の間には、力センサー30−2が介挿されている。力センサー30−2は、検出したアーム2−2のエンドエフェクター40−2に加わる力成分とトルク成分を含む情報を制御部100aに出力する。なお、エンドエフェクター40−2は、例えば把持部(ハンド部)である。
図11に示すように、ロボット1aは、各アーム2−1、2−2がそれぞれ6自由度を有し、さらに本体部500が1自由度を有している。図11に示すように、アーム2−1と同様に、アーム2−1のアーム部20−1は、回転部82−1、83−1及び85−1と、屈折部81−1、84−1及び86−1とを有している。そして、アーム2−1のアーム部20−1は、エンドエフェクター40−1との間に力センサー30を有している。
この結果、本実施形態のロボット1は、第1実施形態と同様に、撮像装置60が出力する画像データに遅れ時間があり現在時刻の画像データが取得できず、さらにロボットキャリブレーション誤差やカメラキャリブレーション誤差等があっても精度良くアームを制御して例えば部品の取り付け等の作業を、精度良く行うことができる。また、第2実施形態の処理方法を組み合わせることで、本実施形態のロボット1は、撮像装置60のフレームレートより高いレートで画像データの推定を行うことで、撮像装置60が低いフレームレートであっても、高速でアームを精度良く制御することができる。
また、「コンピューターシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD−ROM等の可搬媒体、USB(Universal Serial Bus) I/F(インタフェース)を介して接続されるUSBメモリー、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、サーバーやクライアントとなるコンピューターシステム内部の揮発性メモリーのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
30・・・力センサー 40・・・エンドエフェクター 60・・・撮像装置
70・・・対象物 100・・・制御部 101・・・アーム制御部
102・・・駆動部 103・・・画像取得部 104・・・クロック発生部
105・・・画像処理部 106・・・記憶部 107・・・位置情報取得部
108・・・位置姿勢算出部(誤差算出部) 109・・・画像推定部
F01、F02、F12・・・基礎行列
R・・・回転を表す行列 T・・・並進を表す行列 t・・・並進
A・・・カメラ(撮像装置60)の内部パラメーターを表す行列
ベクトルx1、ベクトルx2、ベクトルx0・・・アームの手先位置・姿勢
ε・・・実際に取得された画像と推定された画像との誤差
I1、I2・・・撮像された画像 I0’・・・現在時刻d0の推定画像
m1、m2・・・I1、I2の各画素
Claims (11)
- ロボット制御装置により制御されて動作するロボットであって、
前記ロボット制御装置は、
ロボットの可動可能なアームに設けられ、撮像した画像データを出力する撮像装置と、
第4の時刻より前の異なる第1の時刻と第2の時刻及び第3の時刻との3つの時刻と、前記第4の時刻とに、第1の画像データと第2の画像データと第3の画像データ及び第4の画像データを取得する画像取得部と、
前記第1の画像データ及び前記第2の画像データに基づき前記第3の時刻に撮像される画像データを推定し、前記第2の画像データ及び前記第3の画像データに基づき前記第4の時刻に撮像される画像データを推定し、前記推定した前記第3の時刻の画像データと、前記画像取得部が取得した前記第3の時刻に撮像される画像データとの誤差を算出し、前記算出した誤差に基づき前記第4の時刻の画像データに含まれる誤差を算出する画像推定部と、
前記アームを制御するアーム制御部と、
を備え、
前記画像推定部は、
前記算出した前記画像データに含まれる誤差を用いて前記推定した第4の時刻に撮像される画像データを補正し、
前記アーム制御部は、
前記画像推定部が補正した前記第4の時刻に撮像される画像データを用いて前記アームを制御する
ことを特徴とするロボット。 - 前記画像取得部は、
前記第1の時刻に前記撮像装置が出力する第1の画像データを取得し、前記第1の時刻より後の第2の時刻に前記撮像装置が出力する第2の画像データを取得し、前記第2の時刻より後の第3の時刻に前記撮像装置が出力する第3の画像データを取得し、前記第3の時刻より後の第4の時刻に前記撮像装置が出力する第4の画像データを取得し、
前記画像推定部は、
前記画像取得部が取得した第1の画像データと第2の画像データと第3の画像データ及び第4の画像データを用いて、前記第3の時刻に撮像される画像データと前記第4の時刻に撮像される画像データとを推定する
ことを特徴とする請求項1に記載のロボット。 - 前記アームの位置を検出し、前記検出されたアームの手先位置と姿勢を示す情報を前記画像推定部に出力するエンコーダー
を備え、
前記画像推定部は、
前記第1の画像データが撮像された時刻における前記エンコーダーが出力する前記アームの手先位置と姿勢を示す情報と、前記第2の画像データが撮像された時刻における前記エンコーダーが出力する前記アームの手先位置と姿勢を示す情報と、前記撮像装置の焦点距離を含む内部パラメーターを表す行列と、前記第1の画像データ及び前記第2の画像データに基づき前記第3の時刻に撮像される画像データを推定し、
前記第2の画像データが撮像された時刻における前記エンコーダーが出力する前記アームの手先位置と姿勢を示す情報と、前記第3の画像データが撮像された時刻における前記エンコーダーが出力する前記アームの手先位置と姿勢を示す情報と、前記撮像装置の焦点距離を含む内部パラメーターを表す行列と、前記第2の画像データと、前記第3の画像データとに基づき前記第4の時刻に撮像される画像データを推定し、
前記算出した画像データに含まれる誤差を用いて前記推定した第4の時刻に撮像される画像データを補正する
ことを特徴とする請求項1または請求項2に記載のロボット。 - 前記画像推定部は、
前記第1の時刻から前記第3の時刻までの前記アームの位置と姿勢に基づく第1の回転を表す行列及び第1の並進を表す行列と、前記撮像装置の焦点距離を含む内部パラメーターを表す行列を用いて、第1の基礎行列を算出し、前記第2の時刻から前記第3の時刻における前記アームの位置と姿勢に基づく第2の回転を表す行列及び第2の並進を表す行列と、前記撮像装置の焦点距離を含む内部パラメーターを表す行列を用いて、第2の基礎行列とを算出し、
前記算出した前記第1の基礎行列、前記第2の基礎行列、前記第1の画像データ及び前記第2の画像データを用いて前記第3の時刻の画像データを推定し、前記第3の時刻において、前記推定した前記第3の時刻の画像データと前記画像取得部が取得した前記第3の時刻の画像データとの画像データ間の誤差を算出する
ことを特徴とする請求項1から請求項3のいずれか1項に記載のロボット。 - 前記画像推定部は、
前記誤差が時間や前記アームの手先位置と姿勢に依存しない場合、前記推定した前記第3の時刻の画像データと前記画像取得部が取得した前記第3の時刻の画像データとの間の誤差を、前記第4の時刻における画像データに含まれる誤差として算出し、前記画像データに含まれる誤差を用いて前記第4の時刻に撮像される画像データを補正する
ことを特徴とする請求項1から請求項4のいずれか1項に記載のロボット。 - 前記画像推定部は、
前記撮像装置が撮像を行うフレームレートの間隔より短い周期で前記第4の時刻の画像データを推定し、
前記アーム制御部は、
前記画像推定部が推定した前記第4の時刻の画像データを用いて、前記撮像装置が撮像を行うフレームレートの間隔より短い周期で前記アームを制御する
ことを特徴とする請求項1から請求項5のいずれか1項に記載のロボット。 - 前記画像推定部は、
前記エンコーダーが前記アームの位置を示す情報を前記画像推定部に出力する周期で前記第4の時刻の画像データを推定し、
前記アーム制御部は、
前記画像推定部が、前記第4の時刻の画像データを用いて、前記エンコーダーが前記アームの位置を示す情報を前記画像推定部に出力する周期で前記アームを制御する
ことを特徴とする請求項3に記載のロボット。 - 前記画像推定部は、
前記第1の画像データが撮像された時刻を、前記第1の画像データが取得された第1の時刻と前記撮像装置が撮像してから画像データを出力するまでの遅延時間を用いて算出し、前記第2の画像データが撮像された時刻を、該第2の画像データが取得された第2の時刻と前記撮像装置が撮像してから画像データを出力するまでの遅延時間を用いて算出する
ことを特徴とする請求項1から請求項7のいずれか1項に記載のロボット。 - 可動可能なアームに設けられ、撮像した画像データを出力する撮像装置を有するロボットのアームを制御するロボット制御装置であり、
第4の時刻より前の異なる第1の時刻と第2の時刻及び第3の時刻との3つの時刻と、前記第4の時刻とに、第1の画像データと第2の画像データと第3の画像データ及び第4の画像データを取得する画像取得部と、
前記第1の画像データ及び前記第2の画像データに基づき前記第3の時刻に撮像される画像データを推定し、前記第2の画像データ及び前記第3の画像データに基づき前記第4の時刻に撮像される画像データを推定し、前記推定した前記第3の時刻の画像データと、前記画像取得部が取得した前記第3の時刻に撮像される画像データとの誤差を算出し、前記算出した誤差に基づき前記第4の時刻に撮像される画像データに含まれる誤差を算出する画像推定部と、
前記アームを制御するアーム制御部と、
を備え、
前記画像推定部は、
前記算出した前記画像データに含まれる誤差を用いて前記推定した第4の時刻の画像データを補正し、
前記アーム制御部は、
前記画像推定部が補正した前記第4の時刻に撮像される画像データを用いて前記アームを制御する
ことを特徴とするロボット制御装置。 - ロボットの可動可能なアームに設けられ画像撮像して画像データを出力する撮像装置を有し、可動するアームを制御するロボット制御方法であり、
撮像装置が、撮像して画像データを出力する撮像工程と、
画像取得部が、第4の時刻より前の異なる第1の時刻と第2の時刻及び第3の時刻との3つの時刻と、前記第4の時刻とに、第1の画像データと第2の画像データと第3の画像データ及び第4の画像データを取得する画像取得工程と、
画像推定部が、前記第1の画像データ及び前記第2の画像データに基づき前記第3の時刻に撮像される画像データを推定し、前記第2の画像データ及び前記第3の画像データに基づき前記第4の時刻に撮像される画像データを推定し、前記推定した前記第3の時刻の画像データと、前記画像取得部が取得した前記第3の時刻に撮像される画像データとの誤差を算出し、前記算出した誤差に基づき前記第4の時刻の画像データに含まれる誤差を算出する画像推定工程と、
アーム制御部が、前記アームを制御するアーム制御工程と、
を含み、
前記画像推定工程は、
前記算出した前記画像データに含まれる誤差を用いて前記推定した第4の時刻に撮像される画像データを補正し、
前記アーム制御工程は、
前記画像推定部が補正した前記第4の時刻に撮像される画像データを用いて前記アームを制御する
ことを特徴とするロボット制御方法。 - ロボットの可動可能なアームに設けられ画像撮像して画像データを出力する撮像装置を有し、可動するアームを制御する処理をコンピューターに実行させるためのプログラムであり、
前記撮像装置が撮像して画像データを出力する撮像手順と、
第4の時刻より前の異なる第1の時刻と第2の時刻及び第3の時刻との3つの時刻と前記第4の時刻とに、第1の画像データと第2の画像データと第3の画像データ及び第4の画像データを取得する画像取得手順と、
前記第1の画像データ及び前記第2の画像データに基づき前記第3の時刻に撮像される画像データを推定する第1画像推定手順と、
前記第1画像推定手順により推定された前記第3の時刻の画像データと、前記画像取得手順により取得された前記第3の時刻の画像データとの誤差を算出し、前記算出した誤差に基づき前記第4の時刻の画像データに含まれる誤差を算出する誤差算出手順と、
前記第2の画像データと、前記第3の画像データとに基づき前記第4の時刻に撮像される画像データを推定し、前記誤差算出手順が算出した前記画像データに含まれる誤差を用いて前記第4の時刻に撮像される画像データを補正する第2画像推定手順と、
前記第2画像推定手順により補正された前記第4の時刻の画像データを用いて前記アームを制御するアーム制御手順と、
をコンピューターに実行させるためのロボット制御プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011147186A JP5834545B2 (ja) | 2011-07-01 | 2011-07-01 | ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011147186A JP5834545B2 (ja) | 2011-07-01 | 2011-07-01 | ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013013950A JP2013013950A (ja) | 2013-01-24 |
JP5834545B2 true JP5834545B2 (ja) | 2015-12-24 |
Family
ID=47687148
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011147186A Expired - Fee Related JP5834545B2 (ja) | 2011-07-01 | 2011-07-01 | ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5834545B2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5949611B2 (ja) * | 2013-03-21 | 2016-07-13 | トヨタ自動車株式会社 | 遠隔操作ロボットシステム |
CN108081268A (zh) * | 2013-10-10 | 2018-05-29 | 精工爱普生株式会社 | 机器人控制系统、机器人、程序以及机器人控制方法 |
JP2015089575A (ja) * | 2013-11-05 | 2015-05-11 | セイコーエプソン株式会社 | ロボット、制御装置、ロボットシステム及び制御方法 |
JP6326765B2 (ja) * | 2013-11-06 | 2018-05-23 | セイコーエプソン株式会社 | 教示装置、ロボット、ロボットシステム、方法、及びプログラム |
CN104950816A (zh) * | 2015-06-29 | 2015-09-30 | 贵州桂荣科技有限公司 | 一种电子手环组装设备智能编码控制方法 |
JP6919623B2 (ja) * | 2018-04-26 | 2021-08-18 | オムロン株式会社 | 制御システム、制御方法、および制御プログラム |
JP6922829B2 (ja) * | 2018-04-26 | 2021-08-18 | オムロン株式会社 | 制御システム、制御方法、および制御プログラム |
KR20230104161A (ko) * | 2020-10-30 | 2023-07-07 | 가부시키가이샤 니콘 | 로봇 시스템, 로봇 아암, 엔드 이펙터, 및 어댑터 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07244519A (ja) * | 1994-03-04 | 1995-09-19 | Nippon Telegr & Teleph Corp <Ntt> | 画像による可動物体の運動制御方法 |
JP2002189519A (ja) * | 2000-12-21 | 2002-07-05 | Mitsubishi Heavy Ind Ltd | 追跡システム、及び、追跡方法 |
JP2003211381A (ja) * | 2002-01-16 | 2003-07-29 | Denso Wave Inc | ロボット制御装置 |
-
2011
- 2011-07-01 JP JP2011147186A patent/JP5834545B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013013950A (ja) | 2013-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5834545B2 (ja) | ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム | |
JP6335460B2 (ja) | ロボットシステムの制御装置及び指令値生成方法、並びにロボットシステムの制御方法 | |
JP6108860B2 (ja) | ロボットシステム及びロボットシステムの制御方法 | |
US8326460B2 (en) | Robot system comprising visual sensor | |
JP6700669B2 (ja) | 制御方法、ロボット装置、プログラム、記録媒体、及び物品の製造方法 | |
US8977395B2 (en) | Robot control apparatus, robot control method, program, and recording medium | |
JP6429473B2 (ja) | ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体 | |
JP3733364B2 (ja) | 教示位置修正方法 | |
US20180161984A1 (en) | Control device, robot, and robot system | |
JP6180087B2 (ja) | 情報処理装置及び情報処理方法 | |
JP4021413B2 (ja) | 計測装置 | |
JP6180086B2 (ja) | 情報処理装置及び情報処理方法 | |
JP6661028B2 (ja) | 作業位置補正方法 | |
JP6572262B2 (ja) | 教示位置修正装置および教示位置修正方法 | |
CN110253574B (zh) | 一种多任务机械臂位姿检测和误差补偿方法 | |
JP2013526423A (ja) | マシンビジョンシステムおよびロボットの間のロバストな較正の装置および方法 | |
JP2015089575A (ja) | ロボット、制御装置、ロボットシステム及び制御方法 | |
JP6922204B2 (ja) | 制御装置、ロボットおよびロボットシステム | |
JP6044511B2 (ja) | ロボットの制御方法及びロボットシステム | |
US20190376860A1 (en) | Visuo-haptic sensor | |
JP2018001393A (ja) | ロボット装置、ロボット制御方法、プログラム及び記録媒体 | |
JP2019119027A (ja) | ロボットシステムの制御方法、およびロボットシステム | |
JP2019038040A (ja) | ロボットシステム | |
JP5849477B2 (ja) | ロボット、ロボット制御装置、ロボット制御方法、およびプログラム | |
JP6485620B2 (ja) | ロボット制御システムおよびロボット制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140627 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150609 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150730 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151006 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151019 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5834545 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |