JP5904635B2 - 制御装置、制御方法及びロボット装置 - Google Patents

制御装置、制御方法及びロボット装置 Download PDF

Info

Publication number
JP5904635B2
JP5904635B2 JP2012046945A JP2012046945A JP5904635B2 JP 5904635 B2 JP5904635 B2 JP 5904635B2 JP 2012046945 A JP2012046945 A JP 2012046945A JP 2012046945 A JP2012046945 A JP 2012046945A JP 5904635 B2 JP5904635 B2 JP 5904635B2
Authority
JP
Japan
Prior art keywords
unit
robot
control
control signal
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012046945A
Other languages
English (en)
Other versions
JP2013180380A (ja
Inventor
高志 南本
高志 南本
一弘 小菅
一弘 小菅
橋本 浩一
浩一 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
Seiko Epson Corp
Original Assignee
Tohoku University NUC
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC, Seiko Epson Corp filed Critical Tohoku University NUC
Priority to JP2012046945A priority Critical patent/JP5904635B2/ja
Publication of JP2013180380A publication Critical patent/JP2013180380A/ja
Application granted granted Critical
Publication of JP5904635B2 publication Critical patent/JP5904635B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、制御装置、制御方法及びロボット装置に関する。
カメラ画像とロボットの座標の関係を求めるキャリブレーション作業を必要としないで、高精度な部品の位置決めを行う技術として、ビジュアルサーボ技術が知られている。しかしながら、ビジュアルサーボ技術は、一般的に部品を所定の位置に移動させる軌道を決定することが出来ないため、部品同士が接触することを前提とする組み立て作業にビジュアルサーボ技術を適用すると、組み立ての過程で過大な力が生じ、部品を破壊してしまうことがあった。
一方、組み立てを行うロボットにおいて、部品を破壊しないように組み立てを行うために、コンプライアントモーション制御技術が知られている。例えば、特許文献1には、ワークの組付作業を自動的に行う組立用ロボットの制御方法であって、組付動作を開始する前に視覚情報に基づいて組立用ロボットの動作を補正する段階と、組付動作を開始した後に力覚情報に基づいて組立用ロボットの動作を補正する段階と、を有することを特徴とする組立用ロボットの制御方法が開示されている。
特開平8−174457号公報
ここで、特許文献1の制御方法では、力覚情報に基づいて力を制御するロボットの軸を、部品と環境との関係からその向きを決定することができない。そのため、部品が被組み付け部品と接触して、部品と環境との関係が想定した関係からずれると、力の制御が所望の精度を満たさず、部品を破壊してしまうという問題があった。
そこで本発明は、上記問題に鑑みてなされたものであり、対象物が他の物体と接触しても対象物を破壊することを防ぐことを可能とする制御装置、制御方法及びロボット装置を提供することを課題とする。
(1)本発明は前記事情に鑑みなされたもので、本発明の一態様は、ロボットが把持する対象物の撮像画像に基づいて前記対象物と前記対象物を組み付ける被組み付け部品との相対的な位置関係を検出し、検出した前記位置関係に基づいて前記ロボットのマニピュレーターを制御する第1制御信号を生成するビジュアル制御部と、前記ビジュアル制御部が検出した前記位置関係と前記対象物にかかっている力を示す負荷情報とに基づいて、前記マニピュレーターを制御する第2制御信号を生成し、生成した前記第2制御信号と前記ビジュアル制御部が生成した前記第1制御信号との両方に基づいて、前記ロボットのマニピュレーターを制御するコンプライアントモーション制御部と、を備えることを特徴とする制御装置である。
この構成によれば、制御装置は、ロボットが把持する対象物の撮像画像に基づいて対象物と対象物を組み付ける被組み付け部品との相対的な位置関係を検出し、検出した当該位置関係に基づいて第1制御信号を生成し、検出した当該位置関係と対象物にかかっている力を示す負荷情報とに基づいて第2制御信号を生成し、生成した第2制御信号と第1制御信号との両方に基づいてロボットのマニピュレーターを制御する。これにより、制御装置は、対象物の撮像画像に基づいて対象物を移動させつつ、対象物が他の物体と接触しても対象物に過大な力がかからないように対象物を移動させることができる。
その結果、制御装置は、対象物を破壊することなく対象物を適切な位置へ移動させることができる。
)上記に記載の制御装置において、本発明の一態様は、前記コンプライアントモーション制御部は、前記ビジュアル制御部が検出した位置関係と前記負荷情報とに基づいて、ロボットのマニピュレーターを制御する第2制御信号を生成する負荷変位変換部と、前記第1制御信号に基づいて制御信号を生成する軌道生成部を備え、前記第1制御信号と前記軌道生成部が生成した制御信号とに基づいて、前記ロボットのマニピュレーターを制御することを特徴とする。
この構成によれば、制御装置は、コンプライアントモーション制御部による制御とビジュアル制御部による制御とを常に実行することができ、ロボットが把持する対象物に過大な力がかかることを常に防ぎつつ、対象物を目標の位置に向かって移動させることができる。
)上記に記載の制御装置において、本発明の一態様は、前記軌道生成部は、前記第1制御信号を、前記負荷変位変換部が生成する第2制御信号の生成周期と同じ生成周期となるように補間した前記制御信号を生成することを特徴とする。
この構成によれば、制御装置は、コンプライアントモーション制御部による制御とビジュアル制御部による制御とを常に実行することができ、ロボットが把持する対象物に過大な力がかかることを常に防ぎつつ、対象物を目標の位置に向かって移動させることができる。
)上記に記載の制御装置において、本発明の一態様は、力センサーが検出した前記ロボットに働く力に基づいて、前記対象物にかかっている力を示す負荷情報を算出する負荷算出部を備え、前記負荷変位変換部は、前記負荷算出部が算出した負荷情報に基づいて、前記第2制御信号を生成することを特徴とする。
この構成によれば、制御装置は、力センサーが検出した前記ロボットに働く力に基づいて、前記対象物にかかっている力を示す負荷情報を算出し、その負荷情報に基づいて、前記第2制御信号を生成するので、コンプライアントモーション制御部による制御を実行することができ、ロボットが把持する対象物に過大な力がかかることを防ぐことができる。
)上記に記載の制御装置において、本発明の一態様は、前記負荷変位変換部は、
前記負荷情報を、前記力センサーを基準とするセンサー座標系から前記対象物を基準とする物体座標系に変換する第1座標変換部と、前記第1座標変換部によって変換された後の負荷情報に対して、前記対象物の質量とダンパ係数とばね定数とに基づいて決定される伝達関数を乗じる伝達関数乗算部と、前記伝達関数乗算部が乗じることにより得られた負荷情報を前記物体座標系から前記ロボットを基準とするロボット座標系に変換することで、前記第2制御信号を生成する第2座標変換部と、を備えることを特徴とする。
この構成によれば、制御装置は、ロボット座標系において、力センサーが検出した力に
応じてロボットを動かす位置を決定することができるので、ロボットが把持する対象物に過大な力がかかることを防ぐことができ、対象物を破壊することを防止することができる。
)上記に記載の制御装置において、本発明の一態様は、前記ビジュアル制御部は、
現在の対象物を撮像した現在画像と、該対象物を目標の位置に移動させた状態のゴール画像との比較に基づいて、前記第1制御信号を生成することを特徴とする。
この構成によれば、制御装置は、現在画像とゴール画像との比較に基づいて第1制御信
号を生成し、この第1制御信号に基づいてロボットのマニピュレーターを制御するので、対象物を目標の位置に向かうように移動させることができる。
)上記に記載の制御装置において、本発明の一態様は、前前記対象物が目標の位置に到達したか否か判定する判定部を備え、前記コンプライアントモーション制御部は、前記判定部により前記対象物が目標の位置に到達したと判定されるまで、前記ロボットのマニピュレーターの制御を続けることを特徴とする。
この構成によれば、制御装置は、対象物が目標の位置に到達するまで、対象物の撮像画像に基づいて対象物を移動させつつ、対象物が他の物体と接触しても対象物に過大な力がかからないように対象物を移動させることができる。その結果、制御装置は、対象物を破壊せずに対象物を組み立てることができる。
)上記に記載の制御装置において、本発明の一態様は、前記対象物が目標の位置に到達したか否か、及び前記対象物にかかっている力が目標の力に到達したか否か判定する判定部を備え、前記コンプライアントモーション制御部は、前記判定部により前記対象物が目標の位置に到達したと判定され、かつ前記対象物にかかっている力が目標の力に到達したと判定されるまで、前記ロボットのマニピュレーターの制御を続けることを特徴とする。
この構成によれば、制御装置は、対象物が目標の位置に到達するまで、対象物の撮像画像に基づいて対象物を移動させつつ、対象物が他の物体と接触しても対象物に過大な力がかからないように対象物を移動させることができる。その結果、制御装置は、対象物を破壊せずに対象物を組み立てることができる。また、制御装置は、少なくともある1つの向きに対して、力を目標の値に近づけるようにマニピュレーターを制御するので、対象物に過大な力がかからないように移動させるだけでなく、ハンドプレス機を用いたプレス作業などを行わせることができる。
9)本発明の一態様は、ロボットが把持する対象物の撮像画像に基づいて前記対象物と前記対象物を組み付ける被組み付け部品との相対的な位置関係を検出し、検出した前記位置関係と前記対象物にかかっている力を示す負荷情報に基づいて、ビジュアルサーボによる前記ロボットの移動制御とインピーダンス制御による前記ロボットの移動制御を並行して実行することを特徴とする制御装置である
この構成によれば、制御装置は、ロボットが把持する対象物の撮像画像に基づいて前記対象物と前記対象物を組み付ける被組み付け部品との相対的な位置関係を検出し、検出した前記位置関係と前記対象物にかかっている力を示す負荷情報に基づいて、ビジュアルサーボによる前記ロボットの移動制御とインピーダンス制御による前記ロボットの移動制御を並行して実行する。これにより、制御装置は、対象物の撮像画像に基づいて対象物を移動させつつ、対象物が他の物体と接触しても対象物に過大な力がかからないように対象物を移動させることができる。
(1)本発明の一態様は、ビジュアル制御部が、ロボットが把持する対象物の撮像画像に基づいて前記対象物と前記対象物を組み付ける被組み付け部品との相対的な位置関係を検出し、検出した前記位置関係に基づいて前記ロボットのマニピュレーターを制御する第1制御信号を生成する手順と、コンプライアントモーション制御部が、前記ビジュアル制御部が検出した前記位置関係と前記対象物にかかっている力を示す負荷情報とに基づいて、前記マニピュレーターを制御する第2制御信号を生成し、生成した前記第2制御信号と前記ビジュアル制御部が生成した前記第1制御信号との両方に基づいて、前記ロボットのマニピュレーターを制御する手順と、を有することを特徴とする制御方法である。
(1)本発明の一態様は、ロボットが把持する対象物の撮像画像に基づいて前記対象物と前記対象物を組み付ける被組み付け部品との相対的な位置関係を検出し、検出した前記位置関係に基づいて前記ロボットのマニピュレーターを制御する第1制御信号を生成するビジュアル制御部と、前記ビジュアル制御部が検出した前記位置関係と前記対象物にかかっている力を示す負荷情報とに基づいて、前記マニピュレーターを制御する第2制御信号を生成し、生成した前記第2制御信号と前記ビジュアル制御部が生成した前記第1制御信号との両方に基づいて、前記ロボットのマニピュレーターを制御するコンプライアントモーション制御部と、を備えることを特徴とするロボット装置である。
第1の実施形態におけるロボット装置の概略斜視図である。 第1の実施形態における座標系について説明するための図である。 第1の実施形態における制御装置の概略ブロック図である。 第1の実施形態におけるゴール画像の一例である。 第1の実施形態における動作制御部の概略ブロック図である。 第1の実施形態における補間部の処理を説明するための図である。 第1の実施形態におけるビジュアル制御部の概略ブロック図である。 第1の実施形態における負荷変位変換部の概略ブロック図である。 センサー座標系と物体座標系を説明するための図である。 第1の実施形態におけるロボット制御部の概略ブロック図である。 第1の実施形態における位置指示信号が示す位置を説明するための図である。 第1の実施形態における制御装置の処理の流れの一例を示すフローチャートである。 第2の実施形態におけるロボット装置の概略斜視図である。 第2の実施形態における制御装置の概略ブロック図である。 第2の実施形態における制御装置の処理の流れの一例を示すフローチャートである。 第2の実施形態におけるロボット装置の概略斜視図である。
以下、本発明の実施形態について、図面を参照して詳細に説明する。
[第1の実施形態]
図1は、第1の実施形態におけるロボット装置1の概略斜視図である。図1に示すように、ロボット装置1は、制御装置10、多関節ロボット(以下、ロボットともいう)20を備える。なお、図1における部品や構造等の縮尺は、図を明瞭なものとするために実際のものとは異なっている。
制御装置10は、ロボット20の動作を制御する。制御装置10による制御の詳細は後述する。
ロボット20は、地面に固定された支持台20a、旋回可能及び回転可能に支持台20aに連結されたマニピュレーター部(マニピュレーター)20b、マニピュレーター部20bに連結された把持部20c、力センサー20d及び撮像装置30を備える。また、把持部20cは開閉機能を有する。これにより、把持部20cは対象となる物体(以下、対象物という)を把持することができる。本実施形態では、対象物の一例として部品200を用いて説明する。
マニピュレーター部20bは、例えば6軸の垂直多関節型のマニピュレーターであり、把持部20cが把持または挟持する部品200の位置および向きを自在に変更することができる。なお、本実施形態においては、把持または挟持することを「把持する」として説明する。ロボット20は、制御装置10による制御によって、マニピュレーター部20b、把持部20cのうちいずれか一つまたは組み合わせを動かす。
力センサー20dは、把持部20cに加わる力とモーメントを予め決められたレート(本実施形態では、一例として1kHz)で検出する。力センサー20dは、例えば6軸の力センサーである。力センサー20dは、検出した力とモーメントを示す把持部負荷情報を制御装置10へ出力する。
なお、ロボット20の自由度は6軸によるものに限られない。また、支持台20aは、床、壁、天井等、地面に対して固定された場所に設置してもよい。
また、不図示のエンコーダー21は、ロボット20の各関節の角度を検出し、検出した各関節の角度を制御装置10へ送信する。
部品(対象物)200は、被組み付け部品210に組み付けられる部品である。部品200は、一例として、直方体または立方体である。
被組み付け部品210は、部品200が組み合わされる穴211を有している。なお、穴211は、被組み付け部品210を貫通していても、貫通していなくてもよい。
なお、符号220は、後述するように、部品200と被組み付け部品210との接触状態を、2次元で表す場合に用いる平面である。
撮像装置30は、例えば、部品200と被組み付け部品210の穴211との嵌め合わせた状態が確認できる位置に設置されている。撮像装置30は、例えばCCD(Charge Coupled Device)カメラである。撮像装置30は、予め決められたフレームレート(本実施形態では、一例として30Hz)で部品200と被組み付け部品210の穴211が一枚の画像に収まるように撮像する。撮像装置30は、撮像により得られた撮像画像(以下、カメラ画像ともいう)を示す画像データを制御装置10へ出力する。
図2は、第1の実施形態における座標系について説明するための図である。同図において、ΣRはマニピュレーター部20bを基準とするロボット座標系(XYZ座標系)、ΣSは力センサー20dを基準とするセンサー座標系(x’y’z’座標系)、ΣOは物体を基準とする物体座標系(xyz座標系)、ΣCは撮像装置30を基準とするカメラ座標系(uvw座標系)である。
図3は、第1の実施形態における制御装置10の概略ブロック図である。制御装置10は、把持指示部11と、開始位置移動指示部12と、位置姿勢検出部13と、ゴール画像
生成部14と、記憶部15と、動作制御部16と、画像取得部17と、類似度算出部18と、判定部19と、負荷算出部40とを備える。
第1の実施形態における制御装置10は、ビジュアルサーボのループの中にインピーダンス制御を組み込むことで、部品200を破壊しないで、部品200と被組み付け部品210が接触した組み付け後の状態にする。より詳しくは、ビジュアルサーボ技術を用いて、部品200をテンプレート画像と同じ状態にするにあたって、撮像装置30が撮像した画像データを用いて現在の部品200の位置及び姿勢を検出する。制御装置10は、検出した部品200の位置及び姿勢に基づいて、インピーダンス制御によってロボット20を動かす際に、その動作を規定する軸を決定する。
把持指示部11は、部品200を把持部20cで把持することを指示する把持指示信号をロボット20へ送信する。これにより、ロボット20は、部品200を把持部20cで把持する。
開始位置移動指示部12は、マニピュレーター部20bを制御して、部品200を所定の組み付け作業開始位置に移動する。
位置姿勢検出部13は、撮像装置30に部品200及び被組み付け部品210を撮像させ、撮像により得られた画像データを取得する。位置姿勢検出部13は、取得した画像データを用いて、部品200及び被組み付け部品210の位置及び姿勢を検出する。具体的には、例えば、位置姿勢検出部13は、予め部品200及び被組み付け部品210の取り得る位置及び姿勢の全ての状態において撮像されたカメラ画像をそれぞれ取得し、取得したカメラ画像を位置及び姿勢と関連付けて保持しておく。そして、位置姿勢検出部13は、例えば、撮像装置30から取得した画像データと保持しているカメラ画像とを比較し、最も近いカメラ画像に対応する位置及び姿勢を抽出することで、部品200及び被組み付け部品210の位置及び姿勢を検出する。
そして、位置姿勢検出部13は、検出した被組み付け部品210の位置及び姿勢を示す情報を画像データとともにゴール画像生成部14へ出力する。
なお、本実施形態における位置姿勢検出部13は、予め部品の位置及び姿勢を変化させた状態のカメラ画像を取得しておいて、それらとの比較により現在の部品の位置及び姿勢を検出したが、これに限ったものではない。位置姿勢検出部13は、部品の位置及び姿勢を変化させた状態をCG(Computer Graphics)で再現して、それらとの比較により現在の位置及び姿勢を検出してもよい。
ゴール画像生成部14は、位置姿勢検出部13が検出した被組み付け部品210の位置及び姿勢に基づいて、ゴール画像を生成する。ここで、ゴール画像は、対象物を目標の位置に移動させた場合の画像であり、本実施形態では、一例として、部品200が被組み付け部品210に組み付けられた状態の画像である。具体的には、例えば、ゴール画像生成部14は、被組み付け部品210の取り得る位置及び姿勢の全ての状態において、部品200を組み付けた後のカメラ画像をあらかじめ取得し保持しておく。そして、例えば、ゴール画像生成部14は、その中から位置姿勢検出部13によって検出された撮像装置30で取得した画像に写った被組み付け部品210の位置及び姿勢に最も近いカメラ画像をゴール画像として抽出する。
ゴール画像生成部14は、生成したゴール画像を動作制御部16へ出力する。ゴール画像生成部14は、生成したゴール画像を記憶部15に記憶させる。これにより、記憶部15は、ゴール画像を保持する。また、記憶部15には、部品200の3次元モデルImが予め記憶されている。
なお、記憶部15は、予め被組み付け部品210を保持していてもよい。その場合、ゴール画像生成部14は、以下のようにしてゴール画像を生成してもよい。ゴール画像生成部14は、部品200及び被組み付け部品210の3次元モデルを記憶部15から読み出す。そして、ゴール画像生成部14は、位置姿勢検出部13が検出した被組み付け部品210の位置及び姿勢に被組み付け部品210の3次元モデルをモデル空間において配置する。そして、ゴール画像生成部14は、部品200を組み付けた後の相対位置及び姿勢になるよう部品200の3次元モデルをそのモデル空間に配置する。そして、ゴール画像生成部14は、得られたモデル空間の画像をゴール画像としてもよい。
負荷算出部40は、力センサー20dから入力された把持部負荷情報から、部品200にかかっている負荷(例えば、力及びモーメント)を算出し、算出した負荷を示す負荷情報を動作制御部16へ出力する。
動作制御部16は、撮像装置30に現在の対象物を撮像させ、撮像により得られた現在画像を撮像装置30から取得する。そして、動作制御部16は、ゴール画像生成部14から入力されたゴール画像と撮像装置30から取得した現在画像との差分と、負荷算出部40から入力された負荷情報(例えば、部品200にかかる力)とに基づいて、ロボット20の把持部20cの位置を移動させる。これにより、部品200がロボットの把持部20cの位置に応じて移動する。動作制御部16の処理の詳細は後述する。動作制御部16は、ロボット20の把持部20cの位置を移動させた後に、移動制御した旨を示す移動制御済信号を画像取得部17へ出力する。
すなわち、動作制御部16は、視覚情報に基づくロボットの移動制御と力覚情報に基づく該ロボットの移動制御を並行して実行する。換言すれば、動作制御部16は、ビジュアルサーボによるロボットの移動制御とインピーダンス制御による該ロボットの移動制御を並行して実行する。そして、動作制御部16は、判定部19によりロボットが把持する部品20が目標の位置に到達したと判定されるまで、ロボット20の制御を続ける。
画像取得部17は、動作制御部16から移動制御済信号を受信した場合、撮像装置30に部品200を撮像させる。そして、画像取得部17は、撮像装置30が撮像により得られた第2画像データを取得する。そして、画像取得部17は、第2画像データを類似度算出部18へ出力する。
類似度算出部18は、記憶部15からゴール画像を読み出す。類似度算出部18は、画像取得部17から入力された第2画像データと、ゴール画像との類似度を算出する。類似度算出部18は、具体的には、例えば、正規化相互相関関数(NCC:Normalized Cross−Correletion)を類似度として算出してもよい。ここで、一例として類似度が高いほど、現在の部品200の位置及び姿勢が、目標とする位置及び姿勢に近い。
判定部19は、ロボット20が把持する部品20が目標の位置に到達したか否か判定する。具体的には、例えば、判定部19は、算出した類似度が予め決められた閾値より大きいか否か判定する。判定部19は、算出した類似度が予め決められた閾値より大きい場合、現在の部品200の位置及び姿勢が目標となる位置及び姿勢になったと判定する。一方、判定部19は、算出した類似度が予め決められた閾値以下の場合、現在の部品200の位置及び姿勢が目標となる位置及び姿勢になっていないと判定する。そして、制御装置10は、動作制御部16の処理に戻る。
図4は、第1の実施形態におけるゴール画像の一例である。同図のゴール画像は、図1の符号220で示された平面における部品200が被組み付け部品210に組み付けられた状態を示している。ゴール画像生成部14は、一例として、図4に示すゴール画像を生成する。
図5は、第1の実施形態における動作制御部16の概略ブロック図である。動作制御部16は、ビジュアル制御部110と、コンプライアントモーション制御部150とを備える。
ビジュアル制御部110は、ロボットが把持する対象物の撮像画像に基づいてロボットのマニピュレーターを制御する第1制御信号を生成する。本実施形態では、第1制御信号は、一例として、ロボット20を動かす先の相対的な位置を示す信号とする。その場合、ビジュアル制御部110は、現在の対象物を撮像した現在画像と、該対象物を目標の位置に移動させた状態のゴール画像との比較に基づいて、第1制御信号を生成する。
なお、本実施形態では、第1制御信号は、一例として、ロボット20を動かす先の相対的な位置を示す信号としたが、これに限らず、ロボット20を動かす速度などであってもよい。
そして、ビジュアル制御部110は、例えば、撮像装置30の撮像レートに応じて予め決められた時間毎に第1制御信号を制御信号生成部130へ出力する。本実施形態では、一例として、撮像装置30の撮像レートを30フレーム/秒とし、ビジュアル制御部110は、一例として1フレーム撮像するのにかかる時間である33ms毎に、第1制御信号をコンプライアントモーション制御部150の後述する制御信号生成部130へ出力する。
また、ビジュアル制御部110は、撮像画像に基づいて、部品(対象物)200と被組み付け部品210との位置関係を検出する。具体的には、例えば、ビジュアル制御部110は、現在の対象物を撮像した現在画像と、該対象物を目標の位置に移動させた状態のゴール画像とのに基づいて、部品(対象物)200と被組み付け部品210との位置関係を検出する。そして、ビジュアル制御部110は、検出した位置関係を示す位置関係信号をコンプライアントモーション制御部150の後述する負荷変位変換部120へ出力する。これにより、後述する負荷変位変換部120は、位置関係信号に基づいてインピーダンス制御の動作を規定する軸を決定する。
コンプライアントモーション制御部150は、ビジュアル制御部110が生成した第1制御信号と、ロボット20に働く力を示す負荷情報に基づいてロボット20のマニピュレーター部20bを制御する。本実施形態におけるコンプライアントモーション制御部150は、一例として、インピーダンス制御技術を用いて、ロボット20のマニピュレーター部20bを制御する。ここで、コンプライアントモーション制御部150は、負荷変位変換部120と、制御信号生成部130と、ロボット制御部140とを備える。
負荷変位変換部120は、負荷算出部40から入力された負荷情報(例えば、部品200にかかっている力)を予め決められたサンプリングレート(本実施形態では、一例として1kHz)で取得する。そして、負荷変位変換部120は、ビジュアル制御部110から入力された位置関係信号と負荷算出部40から取得した負荷情報とに基づいて、該力に応じてロボット20を動かす先の相対的な位置を示す第2制御信号を生成する。そして、負荷変位変換部120は、予め決められたレート(本実施形態では、一例として1kHz)で、生成した第2制御信号ΔXを制御信号生成部130へ出力する。
本実施形態では、第2制御信号ΔXは、一例として、ロボット20を動かす先の相対的な位置を示す信号としたが、これに限らず、ロボット20を動かす速度などであってもよい。
制御信号生成部130は、ビジュアル制御部110が生成した第1制御信号と負荷変位変換部120が生成した第2制御信号とに基づいて、ロボット20を動かす先の目標位置を示す位置信号X_dを生成する。制御信号生成部130は、生成した位置信号X_dをロボット制御部140へ出力する。
ここで、制御信号生成部130は、第1加算部131と、補間部(軌道生成部)132と、第2加算部133とを備える。
第1加算部131は、ロボット制御部140から入力された把持部20cの現在位置を示す現在位置信号X_cを取得する。第1加算部131は、ビジュアル制御部110から入力された第1制御信号と取得した現在位置信号X_cとを加算して、ビジュアル制御部110によってロボット20が移動された後の位置を示すビジュアル制御位置信号を生成する。第1加算部131は、生成したビジュアル制御位置信号を補間部132へ出力する。
補間部132は、第1加算部131から入力されたビジュアル制御位置信号を負荷変位変換部120が生成する第2制御信号の生成周期に応じて補間した補間信号Xを生成する。本実施形態では、一例として、力センサー20dの取得レートを1kHzとし、第2制御信号の出力レートを力センサー20dの取得レートと同一の1kHzであるとした。そのため、補間部132は、ビジュアル制御位置信号を1kHzで補間した補間信号Xを生成する。補間部132は、生成した補間信号Xを第2加算部133へ出力する。
第2加算部133は、補間部132から入力された補間信号Xと負荷変位変換部120から入力された第2制御信号とを加算し、加算により得られた位置指示信号X_dをロボット制御部140へ出力する。
ロボット制御部140は、制御信号生成部130から位置指示信号X_dが入力される毎に、その位置指示信号X_dが示す位置へロボット20の把持部20cの位置を移動させる。ロボット制御部140は、上記の処理を予め決められた回数行って、ロボット20の把持部20cの位置を移動させる。この回数は、第2制御信号の生成レート(本実施形態では、1kHz)を第1制御信号の生成レート(本実施形態では、30Hz)で割った値(本実施形態では、33回)である。その後に、ロボット制御部140は、移動制御した旨を示す移動制御済信号を画像取得部17へ出力する。
なお、第1及び第2制御信号が速度の場合、ロボット制御部140への出力X_dも速度になるので、その場合ロボット制御部140はX_dが示す速度にロボット20を制御する。
また、ロボット制御部140は、予め決められたレート(本実施形態では、一例として1kHz)で、ロボット20の把持部20cの現在位置を検出し、検出した把持部20cの現在位置を示す現在位置信号X_cを第1加算部131と補間部132へ出力する。
図6は、第1の実施形態における補間部132の処理を説明するための図である。同図において、縦軸はロボット座標系におけるX座標、横軸は時間[ms]を示している。同図において、0、1、2、3、…、30、31、32、33ms後のX座標が、それぞれX_0、X_1、X_2、X_3、…、X_30、X_31、X_32、X_33であることが示されている。
ビジュアル制御部110が出力した第1制御信号が、把持部位置を33msでX軸に沿ってx0からx33まで移動させる際の方向と距離を示す信号だと仮定する。その仮定において、例えば、ビジュアル制御部110は、1ミリ秒後の第1制御信号のX成分としてX1を生成する。同様にして、例えば、ビジュアル制御部110は、t1ミリ秒後(但し、t1は1から33までの整数)の第1制御信号のX成分としてX_t1を生成する。
なお、補間部132は補間信号を生成する際に、現在の位置、速度及び加速度と、移動後の位置、速度及び加速度とを境界条件として、時間に関する5次多項式を用いても良い。
図7は、第1の実施形態におけるビジュアル制御部110の概略ブロック図である。ビジュアル制御部110は、第1位置検出部111と、第2位置検出部112と、第1減算部113と、移動量算出部114と、カメラロボット座標変換部115とを備える。
第1位置検出部111は、一例として記憶部15から、予め関連付けて保持された部品200の取りうる全ての位置及び姿勢と、その状態において撮像されたカメラ画像とを読み出す。そして、第1位置検出部111は、ゴール画像生成部14から入力されたゴール画像Igと読み出したカメラ画像とを比較して、最も類似度の高い画像に関連付けられた位置及び姿勢を、ゴール画像中の部品200のカメラ座標ΣCにおける位置及び姿勢として算出する。第1位置検出部111は、算出した位置を示すカメラ座標位置信号Ugを第1減算部113へ出力する。
第2位置検出部112は、一例として記憶部15から、予め関連付けて保持された部品200の取りうる全ての位置及び姿勢と、その状態において撮像されたカメラ画像とを読み出す。そして、第2位置検出部112は、撮像装置30から取得した現在のカメラ画像Icと読み出したカメラ画像とを比較して、最も類似度の高い画像に関連付けられた位置及び姿勢を、現在の部品200のカメラ座標ΣCにおける位置及び姿勢として算出する。第2位置検出部112は、算出した位置を示す現在カメラ座標位置信号Ucを第1減算部113へ出力する。
第1減算部113は、第1位置検出部111から入力されたカメラ座標位置信号Ugから現在カメラ座標位置信号Ucを減算し、減算により得られた減算後信号を移動量算出部114へ出力する。ここで、減算後信号は、カメラ座標ΣCにおけるゴール画像中の部品200の位置と現在の部品の位置の差を示す信号である。
移動量算出部114は、一例として、PID制御によって減算後信号からカメラ座標系ΣCにおける部品200の移動量を算出する。移動量算出部114は、算出した移動量を示す部品移動量信号をカメラロボット座標変換部115へ出力する。
カメラロボット座標変換部115は、移動量算出部114から入力された部品移動量信号が示す部品200の移動量をカメラ座標系ΣCからロボット座標系に変換することで、ロボット座標系ΣRにおける部品200の移動量を生成する。具体的には、例えば、カメラロボット座標変換部115は、カメラ座標系ΣCからロボット座標系に変換する回転行列を部品200の移動量に乗じることにより、ロボット座標系ΣRにおける部品200の移動量を生成する。カメラロボット座標変換部115は、生成したロボット座標系ΣRにおける部品200の移動量を示す第1制御信号を制御信号生成部130へ出力する。
図8は、第1の実施形態における負荷変位変換部120の概略ブロック図である。負荷変位変換部120は、第1座標変換部121と、伝達関数乗算部124と、第2座標変換部125とを備える。
第1座標変換部121は、力センサー20dが検出した力ベクトルF_sをセンサー座標系から物体座標系に変換する。ここで、力ベクトルF_sは力とモーメントを含むものとする。また、センサー座標系は、力センサー20dが使用する座標系であり、物体座標系は一例として、部品200を基準とする座標系である。なお、物体座標系は、被組み付け部品210を基準とする座標系であっても良いし、部品200と被組み付け部品210の相対的な位置関係を基準とする座標系であっても良い。ここで、第1座標変換部121は、第1変換行列算出部122と、第1乗算部123とを備える。
第1変換行列算出部122は、第2変換行列算出部126から入力された第2変換行列Tに基づいて、センサー座標系ΣSから物体座標系ΣOに変換する第1変換行列Uを算出する。ここで、予めセンサー座標系ΣSからロボット座標系ΣRへの第1の変換式は既知であるので、一例として第1変換行列算出部122がこの第1の変換式を予め保持するものとする。
その場合において、第1変換行列算出部122は、一例として、以下の処理により第1変換行列Uを算出する。第1変換行列算出部122は、例えば、後述する第2変換行列算出部126から、物体座標系ΣOからロボット座標系ΣRへ変換する第2変換行列Tを取得する。そして、第1変換行列算出部122は、第2変換行列Tの逆行列を算出することで、ロボット座標系ΣRから物体座標系ΣOへの第2の変換式を算出する。第1変換行列算出部122は、第1の変換式と第2の変換式を乗じることにより、第1変換行列Uを算出する。そして、第1変換行列算出部122は、算出した第1変換行列Uを第1乗算部123へ出力する。
第1乗算部123は、負荷算出部40から入力された負荷情報に含まれる力ベクトルF_sに、第1変換行列算出部122から入力された第1変換行列Uを乗算し、乗算後の力ベクトルF_oを示す力ベクトル信号を伝達関数乗算部124へ出力する。
伝達関数乗算部124は、第1乗算部123から入力された力ベクトル信号が示す乗算後の力ベクトルF_oに対して、予め決められた伝達関数を乗じる。力ベクトルF_oに含まれる力及びモーメントの6つの要素、及びΔx(→)に含まれる位置及び姿勢の6つの要素をそれぞれF_o[i]、Δx[i]とすると、予め決められた伝達関数は、次式で表される。
Figure 0005904635
この式は、インピーダンス制御で用いられる伝達関数である。ここで、Δxの上に矢印→が付された符号をΔx(→)と表すこととし、Δx(→)は、伝達関数を乗じた後のベクトルを表すものとする。また、m[i]、d[i]及びk[i]は、F_oの各要素F_o[i]に対してΔx(→)の各要素Δx[i]の運動が、慣性質量m[i]、ダンパ係数d[i]及びバネ定数k[i]で特徴付けられる機械インピーダンスを有するように設定する変数であり、要素毎に適宜設定される。伝達関数乗算部124は、伝達関数乗算後のベクトルΔx(→)を示す乗算後信号を第2座標変換部125へ出力する。
第2座標変換部125は、伝達関数乗算部124から入力された乗算後信号が示すベクトルΔx(→)を物体座標系ΣOからロボット座標系ΣRに変換することで、第2制御信号ΔXを生成する。ここで、第2座標変換部125は、第2変換行列算出部126と、第2乗算部127とを備える。
第2変換行列算出部126は、ビジュアル制御部110から入力された位置関係信号に基づいて、物体座標系ΣOからロボット座標系ΣRに変換する第2変換行列Tを算出する。第2座標変換部125は、例えば、以下の処理により第2変換行列Tを算出する。
第2座標変換部125は、例えば、ビジュアル制御部110に含まれる第1位置姿勢検出部の出力から、物体座標系ΣOからカメラ座標系ΣCへの第3の変換式を算出する。そして、第2座標変換部125は、例えば、カメラ座標系ΣCからロボット座標系ΣRへの第4の変換式を算出する。第2座標変換部125は、第3の変換式と第4の変換式を乗じることにより、第2変換行列Tを算出する。
第2変換行列算出部126は、算出した第2変換行列Tを第2乗算部127と第1変換行列算出部122へ出力する。
第2乗算部127は、伝達関数乗算部124から入力された乗算後信号に第2変換行列Tを乗じることにより、第2制御信号ΔXを生成する。そして、第2乗算部127は、生成した第2制御信号ΔXを制御信号生成部130へ出力する。
図9は、センサー座標系と物体座標系を説明するための図である。同図において、把持部20cが部品200を把持している状態が示されている。また、同図において、力センサー20dと被組み付け部品210が示されている。また、力センサー20dの中心を原点とするセンサー座標系(x´y´z´座標系)が示されている。また、部品200の一つの端面の中心を原点とする物体座標系(xyz座標系)が示されている。第1変換行列Uは、このセンサー座標系を物体座標系に変換する変換行列である。
図10は、第1の実施形態におけるロボット制御部140の概略ブロック図である。ロボット制御部140は、角度位置変換部141と、位置角度変換部142と、第2減算部143と、増幅部144とを備える。
角度位置変換部141は、ロボット20が保持するエンコーダー21からロボット20の各関節の角度θcを取得する。そして角度位置変換部141は、取得した各関節の角度θcから、把持部20cの現在位置を算出し、算出した現在位置を示す現在位置信号X_cを第1加算部131へ出力する。
位置角度変換部142は、例えば、制御信号生成部130から入力された位置指示信号X_dが示すロボット20を動かす先の目標位置から、公知の逆運動学の処理によりその目標位置が実現されるロボット20の各関節の目標角度を算出する。そして、位置角度変換部142は、算出した目標角度を示す目標角度信号を第2減算部143へ出力する。
第2減算部143は、位置角度変換部142から入力された目標角度信号からエンコーダー21から入力された現在の関節角度を示す現在関節角度信号θcを減算する。第2減算部143は、減算することにより得られた差分信号を増幅部144へ出力する。
増幅部144は、第2減算部143から入力された差分信号を予め決められたゲインKθを乗じて増幅することにより得られた電流信号をロボット20へ出力する。ここで、電流信号は、例えば、ロボット20の各関節のモータに与える電流を示す6軸のベクトルである。これにより、ロボット20は、増幅部144から入力された電流信号に基づいて、各関節のモータを駆動することにより、位置指示信号X_dが示す目標位置へ把持部20cの位置を移動する。
図11は、第1の実施形態における位置指示信号X_dが示す位置を説明するための図である。同図の例において、ロボット座標系(XYZ座標系)において、原点91を基準として、部品200の現在位置Pと、部品200の移動先の位置Qと、部品200のスタート座標S(X_0,Z_0)と部品200のゴール座標Sとが示されている。また、ビジュアル制御部110が生成する第1制御信号Xが示す第1ベクトル92、負荷変位変換部120が生成する第2制御信号ΔXが示す第2ベクトル93及び制御信号生成部130が生成する位置指示信号X_dが示す第3ベクトル94のそれぞれの一例が示されている。
また、この第1ベクトル92は、スタート座標S(X_0,Z_0)とゴール座標G(X_G,Z_G)を結ぶ直線に沿っていることが示されている。すなわち、ビジュアル制御部110は、部品200のスタート座標Sから部品200のゴール座標Gへ向かって部品200を動かすようロボット20を制御する。ここでは、ビジュアル制御部の出力が、スタート座標Sからゴール座標Sまで直線の例が示されていますが、必ずしも直線になるものではない。
また、同図において、部品200に力Fが加わっていることが示されている。第2ベクトルの方向は、この力Fが加わっている方向である。すなわち、負荷変位変換部120は、力Fが加わっている方向へ部品200を動かすようロボット20を制御する。
また、第3ベクトル94は、第1ベクトル92と第2ベクトル93とを加算したベクトルである。同図の例において、制御信号生成部130は、現在位置Pから第3ベクトル94が示す位置Qへ部品200を動かすようロボット20を制御する。
図12は、第1の実施形態における制御装置20の処理の流れの一例を示すフローチャートである。まず、把持指示部11は、部品200を把持部20cで把持させる(ステップS101)。次に、開始位置移動指示部12は、マニピュレーター部20bを制御して、部品200を所定の組み付け作業開始位置に移動する(ステップS102)。位置姿勢検出部13は、撮像装置30で取得した画像を用いて、部品200及び被組み付け部品210の位置及び姿勢を検出する(ステップS103)。
次に、検出した被組み付け部品210の位置及び姿勢から、部品200の組み付け後のゴール画像を生成する(ステップS104)。ビジュアル制御部110は、ゴール画像と現在画像との差分に基づいて、ビジュアルサーボによる第1の動作指示信号を生成する(ステップS105)。次に、負荷変位変換部120は、部品200と被組み付け部品210の位置及び姿勢からインピーダンス制御による第2の動作指示信号を生成する(ステップS106)。
次に、動作制御部16は、第1の動作指示信号と第2の動作指示信号とに基づいて、動作指示信号を生成し、ロボットの把持部20cの位置を移動させる(ステップS107)。次に、画像取得部17は、撮像装置30で撮像した画像を取得する(ステップS108)。次に、類似度算出部18は、画像取得部17で取得した画像と、ゴール画像との類似度を算出する(ステップS109)。
次に、判定部19は、類似度算出部18が算出した類似度が予め決められた閾値よりも大きいか否か判定する(ステップS110)。その類似度が予め決められた閾値以下の場合(ステップS110 NO)、制御装置10は、ステップS105の処理に戻る。一方、その類似度が予め決められた閾値より大きい場合(ステップS110 YES)、制御装置10は、本フローチャートの処理を終了する。
以上、第1の実施形態におけるロボット装置1における制御装置10の動作制御部16は、視覚情報に基づくロボット20の移動制御と力覚情報に基づくロボット20の移動制御を並行して実行することにより、部品200を把持するロボット20の移動を制御する。このように構成することで、制御装置10は、カメラ座標系ΣCとロボット座標系ΣOの関係を求めるキャリブレーション作業を必要とせずに高精度な部品200の位置決めを行いつつ、組み立ての過程で部品200と被組み付け部品210が接触しても過大な力が生じないようにすることができる。その結果、制御装置10は、部品200を破壊せずに被組み付け部品210に組み付けることができる。
より詳細には、制御装置10において、ビジュアル制御部110が、現在の部品(対象物)200を撮像した現在画像と、部品(対象物)200を目標の位置に移動させた場合のゴール画像との差分に基づいて、ロボット20を動かした後の位置を示す第1制御信号を生成する。また、負荷変位変換部120は、力センサー20dが検出した力に基づいて、該力に応じてロボット20を動かした後の位置を示す第2制御信号を生成する。そして、制御信号生成部130は、ビジュアル制御部110が生成した第1制御信号と負荷変位変換部120が生成した第2制御信号とに基づいて、ロボット20を動かした後の位置を指示する位置指示信号を生成する。そして、動作制御部16は、制御信号生成部が生成した制御信号に基づいて、ロボット20の移動を制御する。
これにより、制御装置10は、部品(対象物)200が障害物に接触しても、部品(対象物)200が障害物に沿うように制御信号を生成するので、対象物が障害物に沿うようにロボット20を制御することができる。これにより、ロボット20は、部品(対象物)200を破壊せずに部品(対象物)200を最終的な目的位置まで移動させることにより、部品(対象物)200を組み立てることができる。
また、本実施形態において、ビジュアル制御部110は、撮像画像に基づいて、部品(対象物)200と部品(対象物)200を組み付ける被組み付け部品210との位置関係を検出する。そして、コンプライアントモーション制御部150の負荷変位変換部120は、ビジュアル制御部110が検出した位置関係と負荷情報とに基づいてロボット20のマニピュレーターを制御する第2制御信号を生成する。そして、コンプライアントモーション制御部150は、ビジュアル制御部110が生成した第1制御信号と負荷変位変換部120が生成した第2制御信号とに基づいて、ロボット20のマニピュレーター20bを制御する。
これにより、制御装置20は、ビジュアル制御部110が位置決めを行うために部品210と被組み付け部品210との位置関係を検出するので、コンプライアントモーション制御部150は、その位置関係に基づいてインピーダンス制御の動作を規定する軸を決定することで、適切なコンプライアントモーションの制御ができる。
また、接触を前提とするロボット20の作業において、ビジュアル制御部110は、現在の対象物を撮像した現在画像と、該対象物を目標の位置に移動させた状態のゴール画像との比較に基づいて、第1制御信号を生成する。これにより、動作制御部16は、対象物を最終的な位置まで移動するようロボット20を制御することができる。それゆえ、制御装置10は、ゴール画像を教示されることで対象物200を被組み付け部品210に組み付けるように制御できるので、接触を前提とするロボット20の作業に対して教示を簡易にすることができる。
また、制御装置10は、部品(対象物)200の姿勢が変わっても、その部品(対象物)200の姿勢に応じて、負荷変位変換部120が制御する座標軸を変更するので、部品(対象物)200に過度な力が働くことを防止でき、部品(対象物)200を破壊することを防止することができる。
また、制御装置10において、位置姿勢検出部13による被組み付け部品210の位置及び姿勢の検出と、ゴール画像生成部14によるゴール画像の生成を随時行うようにすることで、被組み付け部品210が移動しても、その移動した位置に部品(対象物)200を移動するようにロボット20を制御する。これにより、制御装置10は、被組み付け部品210が移動しても部品(対象物)200を被組み付け部品210に組み付けることができる。
例えば、ベルトコンベアーを完全に等速で動かすことは難しいが、被組み付け部品210がベルトコンベアー上に配置されて非等速で移動しても、制御装置10は、被組み付け部品210の移動に追従して、部品(対象物)200を移動するようにロボット20を制御するので、部品(対象物)200を被組み付け部品210に組み付けることができる。
[第2の実施形態]
続いて、本発明の第2の実施形態について説明する。図13は、第2の実施形態におけるロボット装置1bの概略斜視図である。なお、図1と共通する要素には同一の符号を付し、その具体的な説明を省略する。図13のロボット装置1bの構成は、図1のロボット装置1の構成に対して、制御装置10が、制御装置10bに変更されたものとなっている。第2の実施形態における制御装置10bは、収束判定処理が第1の実施形態の制御装置10とは異なる。
図14は、第2の実施形態における制御装置10bの概略ブロック図である。なお、図3と共通する要素には同一の符号を付し、その具体的な説明を省略する。図14の制御装置10bの構成は、図3の制御装置10の構成に対して、選択部41が追加され、負荷算出部40が負荷算出部40bに、判定部19が判定部19bに変更されたものになっている。
負荷算出部40bは、第1の実施形態における負荷算出部40と同様の機能を有するが以下の点で異なる。負荷算出部40bは、部品200にかかる負荷(例えば、力及びモーメント)を示す負荷情報を判定部19bにも出力する。
選択部41は、部品200に設定された座標軸毎に、類似度と負荷情報のうちいずれの指標を用いて収束判定するかを示す選択信号を生成し、生成した選択信号を判定部19bへ出力する。
判定部19bは、第1の実施形態における判定部19と同様の機能を有するが、以下の点で異なる。判定部19bは、部品200に設定された座標軸毎に、類似度算出部18から入力された類似度と負荷算出部40からの入力された負荷情報のうち選択部41から入力された選択信号が示す指標に基づいて、部品200が被組み付け部品210に組み付けられたか否か判定する。
具体的には、例えば、ある座標軸の選択信号が類似度を示す場合、判定部19bは、類似度が予め決められた閾値より大きい場合、部品200が被組み付け部品210に組み付けられたと判定する。一方、類似度が予め決められた閾値以下の場合、判定部19bは、部品200が被組み付け部品210に組み付けられていないと判定する。
また、例えば、ある座標軸の選択信号が負荷情報を示す場合、判定部19bは、選択された軸方向の力又はモーメントと、それに対して予め設定された値との差異が所定の値より小さい場合、部品200が被組み付け部品210に組み付けられたと判定する。一方、上記差異が所定の値以上の場合、判定部19bは、部品200が被組み付け部品210に組み付けられていないと判定する。
図15は、第2の実施形態における制御装置10bの処理の流れの一例を示すフローチャートである。ステップS201〜S209の処理は、図12のステップS101〜S109の処理と同様であるので、その説明を省略する。
次に、ステップS210において、判定部19bは、選択信号が類似度か否か判定する。選択信号が類似度である場合(ステップS210 YES)、判定部19bはステップS211の処理に遷移する。一方、選択信号が類似度でなく負荷情報である場合(ステップS210 NO)、判定部19bはステップS212の処理に遷移する。
次に、ステップS211において、判定部19bは、類似度が予め決められた閾値より大きいか否か判定する。類似度が予め決められた閾値以下の場合(ステップS211 NO)、制御装置10bはステップS205の処理に戻る。一方、類似度が予め決められた閾値より大きい場合(ステップS211 YES)、制御装置10bはステップS213へ遷移する。
次に、ステップS212において、判定部19bは、選択された軸方向の力又はモーメントと、それに対して予め設定された値との差異が所定の値より小さいか否か判定する。上記差異が所定の値以上の場合(ステップS212 NO)、制御装置10bはステップS205の処理に戻る。一方、上記差異が所定の値より小さい場合(ステップS212 YES)、制御装置10bはステップS213へ遷移する。
次に、ステップS213において、判定部19bは、部品200に設定された座標軸の全てで判定したか否か判定する。部品200に設定された座標軸の全てで判定していない場合(ステップS213 NO)、判定部19bは、判定する際の座標軸を変更し(ステップS214)、ステップS210の処理に戻る。一方、部品200に設定された座標軸の全てで判定した場合(ステップS213 YES)、制御装置10bはその処理を終了する。以上で、本フローチャートの処理を終了する。
以上、第2の実施形態のロボット装置1bにおける制御装置10bは、第1の実施形態の効果に加えて、判定部19bが座標軸毎に、部品200が被組み付け部品210に組み付けられたか否かの判定に用いる指標を変更することができる。これにより、制御装置10bは、部品200が被組み付け部品210に組み付けられた際の、部品200と被組み付け部品210の相対位置関係を常に一定の高精度になるようにすることができる。
また、ビジュアルサーボによる位置決めの精度を出しにくい、例えば撮像装置30にとっての奥行き方向については、力又はモーメントの情報を収束判定に適用して被組み付け部品210と部品200との接触を利用して位置決めを行わせることで、高精度な位置決めを実現することが出来る。
[第3の実施形態]
続いて、本発明の第3の実施形態について説明する。第1及び第2の実施形態では、一つのマニピュレーター(マニピュレーター部)を有するロボットについて説明したが、第3の実施形態では、二つのマニピュレーターを備える例を説明する。
図16は、第2の実施形態におけるロボット装置1cの概略斜視図である。図12に示すように、ロボット装置1aは、ロボット20’と、制御装置10cと、本体302とを備える。なお、第1の実施形態と同様のものは、同じ符号を用いて説明を省略する。
ロボット20’は、2つのマニピュレーター部(第1マニピュレーター)20Aおよびマニピュレーター部(第2マニピュレーター)20B、第1把持部20Ac、第2把持部20Bc、第1力センサー20Ad、第2力センサー20Bd、可動部301を備えている。2つのマニピュレーター部20Aおよび20Bは、可動部301に取り付けられている。可動部301は、本体302に取り付けられている。第1把持部20Acの先端には、撮像装置30が取り付けられている。
第1力センサー20Adは、第1の実施形態と同様に、第1把持部20Acに加わる力とモーメントを検出し、検出した力とモーメントを制御装置10cへ送信する。また、第2力センサー20Bdは、第1力センサー20Adと同様に、第2把持部20Bcに加わる力とモーメントを検出し、検出した力とモーメントを制御装置10cへ送信する。
撮像装置30は、部品200と被組み付け部品210とを撮像できる位置に設置されている。撮像装置30は、撮像したカメラ画像を示す画像データを制御装置10cへ送信する。
制御装置10cは、マニピュレーター部20A、マニピュレーター部20B、第1把持部20Ac、第2把持部20Bcを制御する。制御装置10cの構成は、第1の実施形態の制御装置10と同様である。なお、本実施形態では、制御装置10cは本体の外部に配置したが、本体302の内部に制御装置10cを配置してもよい。
本体302は、移動可能なように搬送部303Aおよび303Bを備えている。搬送部303Aおよび303Bは、例えば車輪、キャタピラ等である。
次に、制御装置10cは、部品200と被組み付け部品210を第1把持部303a、第2把持部303bのそれぞれに把持させて、所定位置に移動するように変更する。それ以降の処理は、被組み付け部品210の位置をそのままにして、部品200を動かして部品200を被組み付け部品210に組み付けた状態にする。この処理は、第1の実施形態における制御装置10の処理と同様であるので、その説明を省略する。
以上、第3の実施形態のロボット装置1cにおける制御装置10cは、第1の実施形態の効果に加えて、第2把持部303bに被組み付け部品210を把持させたまま、部品200を被組み付け部品210に組み付けることができる。これにより、制御装置10cは、被組み付け部品210の姿勢がどのような姿勢であっても、部品200を被組み付け部品210に組み付けることができる。
なお、制御装置10cの構成は、第1の実施形態の制御装置10と同様としたが、これに限らず、制御装置10cの構成は、第2の実施形態の制御装置10と同様であってもよい。
また、各実施形態では、類似度算出部18は、類似度を算出し、判定部(19又は19b)は類似度に基づいて収束判定したが、これに限ったものではない。例えば、類似度算出部18は、相違度を算出して、判定部(19又は19b)は相違度に基づいて収束判定してもよい。その際、例えば、類似度算出部18は、SSD(Sum of Squared Difference)を相違度として算出してもいい。ここで、一例として相違度が低いほど、現在の部品200の位置及び姿勢が、目標とする位置及び姿勢に近い。
また、各実施形態において、一例として、部品(対象物)200と被組み付け部品210とが組みつけられた状態の画像を、対象物を目標の位置に移動させた状態のゴール画像として用いたが、これに限ったものではない。
また、ゴール画像は、複数のゴール画像があってもよい。例えば、第1のゴール画像と第2のゴール画像とがあった場合に、各実施形態の制御装置は、現在画像が第1のゴール画像と一致した後に、第2のゴール画像と一致させるようにしてもよい。
また、複数の装置を備えるシステムが、各実施形態の制御装置(10、10b、10c)の各処理を、それらの複数の装置で分散して処理してもよい。
また、各実施形態の制御装置(10、10b、10c)の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、制御装置(10、10b、10c)に係る上述した種々の処理を行ってもよい。
なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
1、1b、1c ロボット装置
10、10b、10c 制御装置
11 把持指示部
12 開始位置移動指示部
13 位置姿勢検出部
14 ゴール画像生成部
15 記憶部
16 動作制御部
17 画像取得部
18 類似度算出部
19 判定部
20、20’ ロボット
30 撮像装置
20a 支持台
20b、20A、20B マニピュレーター部(マニピュレーター)
20c 把持部
20Ac 第1把持部
20Bc 第2把持部
20d、20Ad、20Bd 力センサー
30 撮像装置
40 負荷算出部
41 選択部
110 ビジュアル制御部
111 第1位置検出部
112 第2位置検出部
113 第1減算部
114 移動量算出部
115 カメラロボット座標変換部
120 負荷変位変換部
121 第1座標変換部
122 第1変換行列算出部
123 第1乗算部
124 伝達関数乗算部
125 第2座標変換部
126 第2変換行列算出部
127 第2乗算部
130 制御信号生成部
131 第1加算部
132 補間部(軌道生成部)
133 第2加算部
140 ロボット制御部
141 角度位置変換部
142 位置角度変換部
143 第2減算部
144 増幅部
150 コンプライアントモーション制御部
200 部品(対象物)
210 被組み付け部品
302 本体
303A、303B 搬送部

Claims (11)

  1. ロボットが把持する対象物の撮像画像に基づいて前記対象物と前記対象物を組み付ける被組み付け部品との相対的な位置関係を検出し、検出した前記位置関係に基づいて前記ロボットのマニピュレーターを制御する第1制御信号を生成するビジュアル制御部と、
    前記ビジュアル制御部が検出した前記位置関係と前記対象物にかかっている力を示す負荷情報とに基づいて、前記マニピュレーターを制御する第2制御信号を生成し、生成した前記第2制御信号と前記ビジュアル制御部が生成した前記第1制御信号との両方に基づいて、前記ロボットのマニピュレーターを制御するコンプライアントモーション制御部と、
    を備えることを特徴とする制御装置。
  2. 前記コンプライアントモーション制御部は、
    前記ビジュアル制御部が検出した前記位置関係と前記負荷情報とに基づいて前記第2制御信号を生成する負荷変位変換部と、
    前記第1制御信号に基づいて制御信号を生成する軌道生成部を備え、前記第1制御信号と前記軌道生成部が生成した制御信号とに基づいて、前記ロボットのマニピュレーターを制御することを特徴とする請求項に記載の制御装置。
  3. 前記軌道生成部は、前記第1制御信号を、前記負荷変位変換部が生成する第2制御信号の生成周期と同じ生成周期となるように補間した前記制御信号を生成することを特徴とする請求項に記載の制御装置。
  4. 力センサーが検出した前記ロボットに働く力に基づいて、前記対象物にかかっている力を示す負荷情報を算出する負荷算出部を備え、
    前記負荷変位変換部は、前記負荷算出部が算出した負荷情報に基づいて、前記第2制御信号を生成することを特徴とする請求項またはに記載の制御装置。
  5. 前記負荷変位変換部は、
    前記負荷情報を、前記力センサーを基準とするセンサー座標系から前記対象物を基準とする物体座標系に変換する第1座標変換部と、
    前記第1座標変換部によって変換された後の負荷情報に対して、前記対象物の質量とダンパ係数とばね定数とに基づいて決定される伝達関数を乗じる伝達関数乗算部と、
    前記伝達関数乗算部が乗じることにより得られた負荷情報を前記物体座標系から前記ロボットを基準とするロボット座標系に変換することで、前記第2制御信号を生成する第2座標変換部と、
    を備えることを特徴とする請求項に記載の制御装置。
  6. 前記ビジュアル制御部は、現在の対象物を撮像した現在画像と、該対象物を目標の位置に移動させた状態のゴール画像との比較に基づいて、前記第1制御信号を生成することを特徴とする請求項1から請求項のいずれか一項に記載の制御装置。
  7. 前記対象物が目標の位置に到達したか否か判定する判定部を備え、
    前記コンプライアントモーション制御部は、前記判定部により前記対象物が目標の位置に到達したと判定されるまで、前記ロボットのマニピュレーターの制御を続けることを特徴とする請求項1から請求項のいずれか一項に記載の制御装置。
  8. 前記対象物が目標の位置に到達したか否か、及び前記対象物にかかっている力が目標の力に到達したか否か判定する判定部を備え、
    前記コンプライアントモーション制御部は、前記判定部により前記対象物が目標の位置に到達したと判定され、かつ前記対象物にかかっている力が目標の力に到達したと判定されるまで、前記ロボットのマニピュレーターの制御を続けることを特徴とする請求項1から請求項のいずれか一項に記載の制御装置。
  9. ロボットが把持する対象物の撮像画像に基づいて前記対象物と前記対象物を組み付ける被組み付け部品との相対的な位置関係を検出し、検出した前記位置関係と前記対象物にかかっている力を示す負荷情報に基づいて、ビジュアルサーボによる前記ロボットの移動制御とインピーダンス制御による前記ロボットの移動制御を並行して実行することを特徴とする制御装置。
  10. ビジュアル制御部が、ロボットが把持する対象物の撮像画像に基づいて前記対象物と前記対象物を組み付ける被組み付け部品との相対的な位置関係を検出し、検出した前記位置関係に基づいて前記ロボットのマニピュレーターを制御する第1制御信号を生成する手順と、
    コンプライアントモーション制御部が、前記ビジュアル制御部が検出した前記位置関係と前記対象物にかかっている力を示す負荷情報とに基づいて、前記マニピュレーターを制御する第2制御信号を生成し、生成した前記第2制御信号と前記ビジュアル制御部が生成した前記第1制御信号との両方に基づいて、前記ロボットのマニピュレーターを制御する手順と、
    を有することを特徴とする制御方法。
  11. ロボットが把持する対象物の撮像画像に基づいて前記対象物と前記対象物を組み付ける被組み付け部品との相対的な位置関係を検出し、検出した前記位置関係に基づいて前記ロボットのマニピュレーターを制御する第1制御信号を生成するビジュアル制御部と、
    前記ビジュアル制御部が検出した前記位置関係と前記対象物にかかっている力を示す負荷情報とに基づいて、前記マニピュレーターを制御する第2制御信号を生成し、生成した前記第2制御信号と前記ビジュアル制御部が生成した前記第1制御信号との両方に基づいて、前記ロボットのマニピュレーターを制御するコンプライアントモーション制御部と、
    を備えることを特徴とするロボット装置。
JP2012046945A 2012-03-02 2012-03-02 制御装置、制御方法及びロボット装置 Active JP5904635B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012046945A JP5904635B2 (ja) 2012-03-02 2012-03-02 制御装置、制御方法及びロボット装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012046945A JP5904635B2 (ja) 2012-03-02 2012-03-02 制御装置、制御方法及びロボット装置

Publications (2)

Publication Number Publication Date
JP2013180380A JP2013180380A (ja) 2013-09-12
JP5904635B2 true JP5904635B2 (ja) 2016-04-13

Family

ID=49271413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012046945A Active JP5904635B2 (ja) 2012-03-02 2012-03-02 制御装置、制御方法及びロボット装置

Country Status (1)

Country Link
JP (1) JP5904635B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6314410B2 (ja) * 2013-10-10 2018-04-25 セイコーエプソン株式会社 ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法、及びプログラム
JP6322949B2 (ja) * 2013-10-10 2018-05-16 セイコーエプソン株式会社 ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
JP6322948B2 (ja) * 2013-10-10 2018-05-16 セイコーエプソン株式会社 ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法、及びプログラム
JP2015157340A (ja) * 2014-02-25 2015-09-03 セイコーエプソン株式会社 ロボット、制御装置、ロボットシステム、および制御方法
JP6248694B2 (ja) * 2014-02-25 2017-12-20 セイコーエプソン株式会社 ロボット、ロボットシステム、及び制御装置
JP6380828B2 (ja) 2014-03-07 2018-08-29 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
JP2016021492A (ja) * 2014-07-14 2016-02-04 株式会社ディスコ 加工装置
JP6443837B2 (ja) * 2014-09-29 2018-12-26 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
WO2019146007A1 (ja) * 2018-01-24 2019-08-01 三菱電機株式会社 位置制御装置及び位置制御方法
JP7059968B2 (ja) * 2019-03-01 2022-04-26 オムロン株式会社 制御装置および位置合わせ装置
KR20200115907A (ko) * 2019-03-29 2020-10-08 삼성디스플레이 주식회사 연성회로기판 삽입 장치
US11679508B2 (en) 2019-08-01 2023-06-20 Fanuc Corporation Robot device controller for controlling position of robot
JP7306937B2 (ja) 2019-09-25 2023-07-11 ファナック株式会社 ロボットに支持された部材の位置を調整するロボット装置の制御装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2718687B2 (ja) * 1988-03-01 1998-02-25 日立建機株式会社 多自由度作業機械の位置と力の制御装置
JPH0319683U (ja) * 1989-07-04 1991-02-26
JP2604929B2 (ja) * 1991-12-03 1997-04-30 山武ハネウエル株式会社 ロボットの制御装置
JP2955150B2 (ja) * 1993-06-01 1999-10-04 三菱重工業株式会社 ロボットアームの制御装置
JPH07299785A (ja) * 1994-05-02 1995-11-14 Udono Setsubi Service Kk 型材保持具への型材の移送方法及びそれに用いる装置
JPH08286701A (ja) * 1995-04-11 1996-11-01 Nissan Motor Co Ltd 複数ロボット制御方法およびシステム
JP3193878B2 (ja) * 1996-10-17 2001-07-30 ファナック株式会社 嵌合作業を行なうための協調ロボットシステム

Also Published As

Publication number Publication date
JP2013180380A (ja) 2013-09-12

Similar Documents

Publication Publication Date Title
JP5904635B2 (ja) 制御装置、制御方法及びロボット装置
JP6873941B2 (ja) ロボット作業システム、及びロボット作業システムの制御方法
JP7326911B2 (ja) 制御システムおよび制御方法
JP6826069B2 (ja) ロボットの動作教示装置、ロボットシステムおよびロボット制御装置
Huijun et al. Virtual-environment modeling and correction for force-reflecting teleoperation with time delay
JP6380828B2 (ja) ロボット、ロボットシステム、制御装置、及び制御方法
JP5313562B2 (ja) 行動制御システム
WO2015058297A1 (en) Image-based trajectory robot programming planning approach
JP2014180704A (ja) ロボットピッキングシステム及び被加工物の製造方法
CN107627303A (zh) 一种基于眼在手上结构的视觉伺服系统的pd‑smc控制方法
JP2000288968A (ja) 教示モデル生成装置
JP6761194B2 (ja) ロボットシステム、ロボット制御方法、ロボットコントローラ及びプログラム
Hussein A review on vision-based control of flexible manipulators
JP6777670B2 (ja) 画像処理を利用してロボットの教示を補正するロボットシステム
Vakanski et al. An image-based trajectory planning approach for robust robot programming by demonstration
JP6322949B2 (ja) ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
JP2014144522A (ja) 制御装置、制御方法、ロボット及びロボットシステム
Olsson et al. Force control and visual servoing using planar surface identification
JP5776486B2 (ja) ロボット制御装置、その制御方法及びプログラム
JP6455869B2 (ja) ロボット、ロボットシステム、制御装置、及び制御方法
JP5157545B2 (ja) 全身協調装置、ロボット及びロボットの制御方法
Djelal et al. Target tracking by visual servoing
Olsson et al. Flexible force-vision control for surface following using multiple cameras
CN116408790A (zh) 机器人控制方法、装置、系统及存储介质
JP2014124734A (ja) ロボットおよび動作軌道制御システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20141224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160311

R150 Certificate of patent or registration of utility model

Ref document number: 5904635

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250