JP2015226956A - ロボット、ロボットシステムおよびロボット制御装置 - Google Patents

ロボット、ロボットシステムおよびロボット制御装置 Download PDF

Info

Publication number
JP2015226956A
JP2015226956A JP2014113821A JP2014113821A JP2015226956A JP 2015226956 A JP2015226956 A JP 2015226956A JP 2014113821 A JP2014113821 A JP 2014113821A JP 2014113821 A JP2014113821 A JP 2014113821A JP 2015226956 A JP2015226956 A JP 2015226956A
Authority
JP
Japan
Prior art keywords
palm
fingers
posture
robot
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014113821A
Other languages
English (en)
Inventor
隆之 前田
Takayuki Maeda
隆之 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014113821A priority Critical patent/JP2015226956A/ja
Publication of JP2015226956A publication Critical patent/JP2015226956A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】簡素な処理で確実に対象物の姿勢を制御できるロボット、ロボットシステム及びロボット制御装置を提供する。【解決手段】掌と複数の指とを備えるハンドユニットを備え、前記ハンドユニットは、対象物を把持した前記複数の指の把持力を小さくすることにより前記対象物を前記掌に接触させた後に、前記対象物を所定の姿勢に動かす。【選択図】図8

Description

本発明はロボット、ロボットシステム及びロボット制御装置に関する。
産業用ロボットの分野において、2つの対象物を嵌合させようとする場合、嵌合操作前に、2つの対象物のそれぞれを把持した状態で予め決められた姿勢に動かしておく必要がある。対象物の姿勢を認識する方法として、従来、対象物が撮像された二次元画像とテンプレートを照合するテンプレートマッチングや、ステレオカメラと三次元CADデータを用いた三次元物体認識が知られている。一般に、対象物の認識処理は、対象物を把持する前に実行される。
特開2012−139808号公報
しかしながら、把持する前の状態の対象物の姿勢を認識し、その姿勢で把持したことを前提として、対象物の姿勢を動かして嵌合操作を行うと、把持開始する際に対象物の姿勢が変化する場合には、2つの対象物の嵌合操作が失敗するという問題がある。また、対象物を把持して動かしながら三次元物体認識を繰り返し行うとすると、処理に必要なプロセッサとメモリのリソースが大きくなるという問題がある。
そこで本発明は、このような問題を解決するために創作されたものであって、簡素な処理で確実に対象物の姿勢を制御できるロボット、ロボットシステム及びロボット制御装置を提供する。
(1)上記目的を達成するためのロボットは、掌と複数の指とを備えるハンドユニットを備え、前記ハンドユニットは、対象物を把持した前記複数の指の把持力を小さくすることにより前記対象物を前記掌に接触させた後に、前記対象物を所定の姿勢に動かす。
この構成により、掌の姿勢に対象物の姿勢が倣い、掌の姿勢が対象物の姿勢に対応することとなるため、簡素な処理で確実に対象物の姿勢を制御できる。なお、本明細書において、ハンドユニットとは、掌と複数の指とを備えるハンドと、ハンドを動かす機構とを含むロボットの構成要素である。なお、複数の指の把持力を小さくする際、複数の指から対象物を離しても良いし、指に対して対象物が滑る程度に対象物と指とを接触した状態を維持してもよい。
(2、3)上記目的を達成するためのロボットにおいて、前記ハンドユニットは、前記対象物を把持した前記複数の指の把持力を小さくすることにより前記対象物を前記掌の同一直線上にない3点以上に接触させてもよい。また前記ハンドユニットは、前記対象物を前記掌に接触させた後に、前記複数の指の把持力を大きくして前記対象物を把持し、前記複数の指の把持力を再び小さくすることにより、前記対象物を前記掌の同一直線上にない3点以上に接触させ、前記複数の指の把持力を再び大きくして前記対象物を把持してもよい。
これらの構成により、掌の姿勢に対象物の姿勢をより確実に倣わせることができるため、より正確に対象物の姿勢を制御できる。ここで、掌の同一直線上にない3点以上と接触すると、対象物は、掌のみによって姿勢が決まる。そして、対象物が掌の同一直線上にない3点以上と接触した状態で対象物を把持すれば、対象物の姿勢は掌の姿勢と対応することになる。なお、掌の同一直線上にない3点以上と接触することには、掌と対象物とが面で接触することも含まれる。
(4)上記目的を達成するためのロボットにおいて、前記ハンドユニットは、重力によって前記対象物が前記掌に接触するように前記掌と前記複数の指を動かしてもよい。
この構成により、掌の姿勢に対象物の姿勢を倣わすために主に用いるアクチュエーターが不要になるため、ハンドユニットの構成を簡素化することができる。
(5)上記目的を達成するためのロボットにおいて、前記掌は、前記対象物を吸い付ける吸引口を備えてもよい。
この構成により、アームを動かさずに掌の姿勢に対象物の姿勢を倣わせることができるため、掌の姿勢に対象物の姿勢を短時間で倣わすことができる。
(6)上記目的を達成するためのロボットにおいて、前記ハンドユニットは、前記対象物を他の物に押し当てることにより前記対象物を前記掌に接触させてもよい。
ここで、対象物を押し当てる他の物は、壁、作業台、治具などのロボット外部の物でもよいし、対象物を把持していないハンドユニットなどのロボット自身の筐体でもよい。
(7)上記目的を達成するためのロボットにおいて、前記ハンドユニットは、前記掌を押し上げるアクチュエーターを備え、押し上げられた前記掌に前記対象物を接触させてもよい。
この構成により、複数の指で把持された対象物と掌との距離が大きい状況で複数の指の把持力を小さくした際に、ハンドユニットから対象物が落下したり、対象物が掌に衝突して反転したり破損したりすることを防止することができる。また、アームを動かさずに掌の姿勢に対象物の姿勢を倣わせることができるため、掌の姿勢に対象物の姿勢を短時間で倣わすことができる。
なお、請求項に記載された各構成要素の機能は、構成自体で機能が特定されるハードウェア資源、プログラムにより機能が特定されるハードウェア資源、又はそれらの組み合わせにより実現される。また、これら各構成要素の機能は、各々が物理的に互いに独立したハードウェア資源で実現されるものに限定されない。さらに、本発明は制御装置を備えるロボットシステムとしても、ロボット制御装置としても、ロボット制御プログラムとしても、ロボット制御プログラムの記録媒体としても成立する。むろん、そのコンピュータプログラムの記録媒体は、磁気記録媒体であってもよいし光磁気記録媒体であってもよいし、今後開発されるいかなる記録媒体であってもよい。
本発明の実施形態にかかる正面図。 (2A)(2B)は本発明の実施形態にかかる側面図、(2C)〜(2E)は本発明の実施形態にかかる平面図。 本発明の実施形態にかかるブロック図。 本発明の実施形態にかかるフローチャート。 本発明の実施形態にかかるフローチャート。 (6A)〜(6C)は本発明の実施形態にかかる平面図、(6D)〜(6F)は本発明の他の実施形態にかかる平面図。 本発明の実施形態にかかる正面図。 (8A)〜(8C)は本発明の実施形態にかかる側面図、(8D)は本発明の他の実施形態にかかる平面図。
以下、本発明の実施の形態を添付図面を参照しながら説明する。尚、各図において対応する構成要素には同一の符号が付され、重複する説明は省略される。
1.概要
図1は、本発明の実施形態に係るロボットシステム1の利用状況の一例を示す図である。ロボットシステム1は、ロボット9と、制御装置40とを備える。制御装置40は、ロボット9と通信可能に接続されている。この接続は、例えば、イーサネット(登録商標)やUSB(Universal Serial Bus)等の有線通信規格、Wi−Fi(登録商標)等の無線通信規格に準じる。ロボット9は、撮像部10とハンドユニット20a、20bと胴体ユニット30とを備えている。すなわち、ロボット9は、2つのハンドユニット20a、20bを備える双腕ロボットである。
ロボット9は、対象物Oの三次元位置及び姿勢に基づいた制御信号を制御装置40から取得し、取得した制御信号に基づいて、対象物Oに対して所定の作業を行う。所定の作業とは、例えば、ハンドユニット20により対象物Oを把持し、把持された対象物Oを現在設置されている位置から、他の位置へと移動させることや、移動させた後に別の装置に組み付けを行うこと等の作業である。本実施例では、作業台S上に無作為に置かれた4種類の対象物O1、O2、O3、O4を2つで1組にして嵌合する作業について説明する。なお、対象物O1、O2、O3、O4は、同一形状の直方体ブロックの1つの面の異なる位置に形状の異なる溝やピンが設けられた物体とし、予め決められた2つを正しく嵌合させると、ほぼ立方体形状のブロックが組み上がるものとする。
2.構成
撮像部10は、胴体ユニット30の上部に設けられる。撮像部10は、例えば、レンズとCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子とをそれぞれ備えたカメラ11a、11bによって構成されている。なお本実施例では、撮像部10は、2台のカメラ11a、11bによって構成されるステレオカメラを用いたロボットシステムについて説明するが、撮像部を3台以上のカメラによって構成されているものとしてもよいし、1台のカメラにより二次元画像を撮像するものとしてもよい。ロボットシステム1の操作対象となる対象物Oは、撮像部10によって撮像可能な作業台S上の画角範囲内に無作為に置かれる。撮像部10は、作業台S上に置かれた状態の対象物Oやハンドユニット20に把持された状態の対象物Oを撮像し、撮像した対象物Oの画像を、通信により制御装置40へ出力する。
ハンドユニット20は、胴体ユニット30の上部の2カ所に連結される。ハンドユニット20は、少なくとも3軸のリンクを備えるアーム21と、アーム21の先端部に1軸の自由度で連結されたハンド22とを備える。ハンドユニット20の各軸は図示しないアクチュエーターによって駆動される。ハンドユニット20a、20bは、それぞれのハンド22とアーム21との間に図示しない力センサーを備えている。これにより、インピーダンス制御を使った両腕の協調制御を行うことが可能になる。力センサーは圧電体を含む。例えば圧電体として水晶を使うことにより、温度による影響を受けにくくなり、外力を正確に検出することができる。
図2A、2Bはハンド22の側面図であり、図2C〜2Eはハンド22の正面図である。ハンド22は、掌部221と4本の指222a〜222dとを備え、掌部221に指222a〜222dが接続されている。掌部221は、掌2211を基準方向に移動させるとともに、指222a〜222dを第1移動方向と第2移動方向に移動させるために構成される。基準方向とは板状の掌2211に直交する方向であり、伸びた状態のアーム21の長さ方向とほぼ一致する。第1移動方向と第2移動方向とは、互いに直交し、かつ、基準方向に対しても直交する。なお、図2A、2Bは第1移動方向からハンド22を見た図であり、図2C〜2Eは基準方向からハンド22を見た図である。
掌部221は、掌2211と固定駆動部2212と2個の可動駆動部2213a、2213bと基部2214とを備える。基部2214は、アーム21との連結軸に固定されており、基部2214に対して固定駆動部2212が固定されている。固定駆動部2212は、制御装置40から出力された制御信号に基づいて掌2211と可動駆動部2213a、2213bとを駆動するアクチュエーターである。図2A、2Bに示すように、固定駆動部2212は、掌2211と連結軸T1を介して連結しており、基準方向に突出する連結軸T1の長さを変化させることにより掌2211を基準方向に移動させる。
図2C、2Eに示すように、固定駆動部2212は、可動駆動部2213a、2213bのそれぞれと連結軸T2を介して連結しており、第1移動方向に突出する連結軸T2の長さを変化させることにより可動駆動部2213a、2213bを第1移動方向に移動させる。可動駆動部2213a、2213bのそれぞれの連結軸T2が伸びる方向は第1移動方向における反対方向であり、可動駆動部2213a、2213bのそれぞれの連結軸T2が第1移動方向に伸びる長さは同一である。
可動駆動部2213a、2213bは、制御装置40から出力された制御信号に基づいて指222a〜222dを駆動するアクチュエーターである。可動駆動部2213aは、指222a、222bのそれぞれと連結軸T3を介して連結しており、第2移動方向に突出する連結軸T3の長さを変化させることにより指222a、222bを第2移動方向に移動させる。第2移動方向は第1移動方向の直交方向である。指222a、222bのそれぞれの連結軸T3が伸びる方向は第2移動方向における反対方向であり、指222a、222bのそれぞれの連結軸T3が第2移動方向に伸びる長さは同一である。可動駆動部2213bは、指222c、222dのそれぞれと連結軸T3を介して連結しており、連結軸T3が第2移動方向に伸びる長さを変化させることにより指222c、222dを第2移動方向に移動させる。指222c、222dのそれぞれの連結軸T3が伸びる方向は第2移動方向における反対方向であり、指222c、222dのそれぞれの連結軸T3が第2移動方向に伸びる長さは同一である。
図2C、2Dに示すように、固定駆動部2212が可動駆動部2213a、2213b(非駆動)を移動させることにより、指222a〜222dを第1移動方向に移動させる。図2C、2Eに示すように、固定駆動部2212が非駆動の状態において、可動駆動部2213a、2213bが駆動することにより、指222a〜222dを第2移動方向に移動させる。指222a〜222dのうち2本の指222a、222bの位置は第1移動方向において常に一致し、かつ、指222a〜222dのうち他の2本の指222c、222dの位置は第1移動方向において常に一致する。指222a〜222dのうち2本の指222a、222dの位置は第2移動方向において常に一致し、かつ、指222a〜222dのうち他の2本の指222b、222cの位置は第2移動方向において常に一致する。
次に、図3Aを参照することで、制御装置40のハードウェア構成について説明する。制御装置40は、例えば、CPU(Central Processing Unit)41と、記憶部42と、入力受付部43と、通信部44とを備え、通信部44を介してロボット9と通信を行う。これらの構成要素は、バスBusと図示しない入出力機構を介して相互に通信可能に接続されている。CPU41は、記憶部42に格納された各種プログラムを実行する。記憶部42は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read− Only Memory)、ROM(Read−Only Memory)、RAM(Random Access Memory)などを含み、制御装置40が処理する各種情報や画像、プログラムを格納する。なお、記憶部42は、制御装置40に内蔵されるものに代えて、USB等のデジタル入出力ポート等によって接続された外付け型の記憶装置でもよい。
入力受付部43は、例えば、キーボードやマウス、タッチパッド、その他の入力装置である。なお、入力受付部43は、表示部として機能してもよく、さらに、タッチパネルとして構成されてもよい。通信部44は、例えば、USB等のデジタル入出力ポートやイーサネットポート等を含んで構成される。
次に、図3Bを参照することで、制御装置40の機能構成について説明する。制御装置40は、ロボット9が所定の作業を行うように制御する。より具体的には、制御装置40は、撮像部10により撮像された画像に基づいて、対象物Oの三次元位置及び姿勢を導出する。そして、制御装置40は、導出された対象物Oの三次元位置及び姿勢に基づいて、ハンドユニット20で対象物Oを把持する。その後、制御装置40は、撮像部10で撮像する画像を用いて認識しやすい位置と姿勢にハンドユニット20で対象物Oを動かす。続いて制御装置40は、撮像部10で対象物Oを撮像し、撮像した画像に対するテンプレートマッチングにより対象物Oが対象物O1、O2、O3、O4のいずれであるかを認識する。その後、制御装置40は、予め決められた2つの対象物Ox、Oyをハンドユニット20aで嵌合させる。このため、制御装置40は、画像取得部M1と、画像認識部M2と、ハンドユニット制御部M3とを備える。これらの機能部のうち一部又は全部は、例えば、CPU41が、記憶部42に記憶された各種プログラムを実行することで実現される。また、これらの機能部のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。
画像取得部M1は、撮像部10により撮像された画像を取得し、取得した画像を画像認識部M2に出力する。なお、画像取得部M1は、取得した画像を記憶部42に記憶し、画像認識部M2が記憶部42から画像を読み込むものとしてもよい。画像認識部M2は、画像取得部M1から取得した画像に基づいて、対象物Oの三次元位置及び姿勢を導出し、また、対象物Oが対象物O1、O2、O3、O4のいずれであるかを認識する。そして、画像認識部M2は、導出した対象物Oの三次元位置及び姿勢をハンドユニット制御部M3へ出力する。ハンドユニット制御部M3は、画像認識部M2の出力に基づいてハンドユニット20を制御するための制御信号を出力する。
3.ロボット制御方法
次に、図4Aを参照することで、ロボットシステム1におけるロボット制御方法の概略を説明する。ここでは、作業台S上に4つの対象物Oが無作為に置かれている状態で、予め決められた2つの対象物O1、O2を把持して嵌合し、予め決められた別の2つの対象物O3、O4を嵌合する作業をロボット9に実行させるシーケンスについて説明する。
まず、制御装置40は、撮像部10から作業台S上の画像を取得して作業台S上に置かれた4つの対象物Oの位置と姿勢を特定する(S1)。具体的には、画像認識部M2は、撮像部10から取得した画像に基づいて対象物Oの略輪郭を認識し、認識した略輪郭に基づいて対象物Oが大凡どのような姿勢で作業台S上に置かれているかを特定する。画像認識部M2が認識する略輪郭は、カメラ11aを光源と仮定した場合に対象物のシルエットを形づくる閉曲線である。このように対象物Oの大凡の姿勢を特定することにより、対象物Oをハンド22で確実に把持することが可能になる。また、対象物O毎に記憶しているテンプレートから、実際に把持する対象物Oに対応する可能性が高い1つ以上のテンプレートを選択したり、対象物Oの姿勢毎に記憶しているテンプレートから、実際に撮像される際の対象物Oの姿勢に対応する可能性が高い1つ以上のテンプレートを選択したり、把持する前に対象物Oを転がして姿勢を変えたりして、対象物を認識するのに必要な時間と処理量を減らすことも可能である。なお、この段階では、4つの対象物Oのそれぞれが対象物O1、O2、O3、O4のいずれであるかを認識する必要も、対象物Oの正確な姿勢を特定する必要もないため、二次元画像を用いて4つの対象物Oの位置と姿勢を特定するが、3次元物体認識技術を用いて4つの対象物Oの位置と姿勢を特定してもよい。
次に、制御装置40は、認識対象となる対象物OUを4つの対象物Oのうちから1つ設定する(S2)。ここで設定される対象物OUは、対象物O1、O2、O3、O4のいずれであるかがこの段階では不明であるが、以下、対象物OUとして、他の3つの対象物Oとは区別して表記する。
次に、制御装置40は、対象物OUを一方のハンドユニット20bで把持する処理(把持処理)を実行する(S3)。
次に、制御装置40は、把持した対象物OUを掌2211の同一直線上にない3点以上に確実に接触させるための再把持処理を実行する(S4)。ここで、掌2211の同一直線上にない3点以上と接触すると、対象物Oは、掌2211のみによって姿勢が決まる。そして、対象物Oが掌2211の同一直線上にない3点以上と接触した状態で対象物Oを把持すれば、対象物Oの姿勢は掌2211の姿勢とより確実に対応することになる。なお、掌2211の3点以上と接触することには、掌2211と対象物Oとが面で接触することも含まれる。
次に、制御装置40は、再把持した対象物OUが対象物O1、O2、O3、O4のいずれであるかを認識する認識処理S5を実行する(S5)。
次に、制御装置40は、対象物OUを作業台S上に戻す(S6)。具体的には、ハンド20bで対象物OUを把持する前に対象物OUが作業台S上に置かれていた位置と姿勢に、対象物OUをハンド20bで戻す。このため、作業台S上に予め置かれていた位置と姿勢をステップS1で特定しておけば、ハンドユニット20で把持しようとする度に作業台S上の対象物Oの位置と姿勢を特定する必要が無い。
次に、制御装置40は、4つの対象物Oを全て認識したか否かを判定する(S7)。全ての対象物Oを認識していない場合、認識対象となる対象物Oの設定を変えてステップS2から上述の処理を繰り返す。
全ての対象物Oを認識している場合、次に、制御装置40は、4つの対象物O1、O2、O3、O4のうち予め決められた2つを嵌合対象の一対の対象物Ox、Oyとして設定する(S8)。
次に、制御装置40は、一方(左側)のハンドユニット20aを用いて対象物Oxを把持する処理(把持処理(左))を実行する(S9)。
次に、制御装置40は、把持した対象物Oxをハンドユニット20aの掌2211の同一直線上にない3点以上に確実に接触させるための再把持処理(左)を実行する(S10)。
次に、制御装置40は、他方(右側)のハンドユニット20bを用いて対象物Oyを把持する処理(把持処理(右))を実行する(S11)。
次に、制御装置40は、把持した対象物Oyをハンドユニット20bの掌2211の同一直線上にない3点以上に確実に接触させるための再把持処理(右)を実行する(S12)。
次に、制御装置40は、ハンドユニット20aで把持した対象物Oxと、ハンドユニット20bで把持した対象物Oyとを嵌合させる嵌合処理を実行する(S13)
次に、制御装置40は、すべての対象物O1、O2、O3、O4を嵌合させたか否かを判定する(S14)。すべての対象物O1、O2、O3、O4を嵌合させていない場合、制御装置40は、嵌合対象の対象物Ox、Oyの設定を変えて、上述のステップS8からの処理を繰り返す。すべての対象物O1、O2、O3、O4を嵌合させると、嵌合作業は終了する。
(把持処理)
次に、図4Bを参照することで、把持処理を説明する。なお、上述したステップS2の把持処理、ステップS9の把持処理(左)、ステップS11(右)の把持処理における制御方法は、駆動するハンドユニット20が異なる点を除いて実質的に同一である。
まず、制御装置40は、アーム21を駆動することにより、認識対象または嵌合対象として設定した対象物Oの鉛直上方にハンド22を移動させる(S101)。例えば、制御装置40は、掌2211を固定駆動部2212に連結する連結軸T1が鉛直方向となり、この連結軸T1の延長線上の下方に対象物Oが位置し、かつ、対象物Oと掌2211との距離が所定距離となるようにアーム21を駆動する。次に、制御装置40は、掌2211が対象物Oと接触するまでハンド22を移動させる(S102)。具体的に、制御装置40は、ハンド22に備えられた力センサー(不図示)が掌2211と対象物Oとの接触を検知するまでハンド22を下方に移動させる。次に、制御装置40は、ハンド22を対象物Oから所定距離だけ鉛直上方に離間させる(S103)。具体的には、ステップS102にて対象物Oに掌2211が接触した位置が判明しているため、当該接触した位置よりも低い位置に指222a〜222dの先端が位置する範囲でハンド22を鉛直上方に移動させる。
次に、制御装置40は、指222a〜222dを第1軸方向に接近させて対象物Oを挟む(S104)。図6Aは、ステップS104にて指222a〜222dが対象物Oを挟む様子を示す模式図である。第1軸方向とは、ステップS1にて特定した対象物Oの姿勢に基づいて定められる方向であり、図6Aの例では、平面視矩形状の対象物Oの一対の平行面に直交する方向が第1軸方向として設定されている。図6Aの例では、ステップS101〜103のいずれかにおいて第1軸方向とハンド22の指222a〜222dの第2移動方向とが一致するようにハンド22の姿勢が制御されている。そのため、指222a〜222dを第2移動方向に接近させることは、指222a〜222dを第1軸方向に接近させることを意味する。なお、ハンド22の姿勢が制御されることには、アーム21の姿勢が制御されることと、アーム21に対してハンド22を回転させることとが含まれる。また、ステップS104において、指222a〜222dのうち2本の指222a、222dの位置は第1軸方向において常に一致し、かつ、指222a〜222dのうち他の2本の指222b、222cの位置は第1軸方向において常に一致する。例えば、制御装置40は、所定期間継続して所定速度で指222a〜222dを第1軸方向に接近させる制御信号をハンド22に出力し、所定期間が終了した場合に、指222a〜222dが第1軸方向に対象物Oを挟んでいると見なしてもよい。所定期間とは、例えば所定速度で指222a〜222dを第1軸方向に移動させた場合に、可動領域の全域を移動できる期間であってもよい。図6Aに示すように、指222a〜222dが第1軸方向に対象物Oを挟んだ状態で指222a〜222dの移動は停止するが、2本の指222a、222dの位置x1と、他の2本の指222b、222cの位置x2の中央の位置x0に対象物Oをセンタリングできる。また、図6Aのように、2本の指222a、222dおよび他の2本の指222b、222cが対象物Oの平面を押すため、対象物Oの姿勢のばらつきを抑制できる。
次に、制御装置40は、指222a〜222dを第1軸方向に離間させて対象物Oを挟んだ状態を解除する(S105)。図6Bは、ステップS105にて指222a〜222dが対象物Oを挟んだ状態を解除した様子を示す模式図である。例えば、ステップS140の状態から2本の指222d、222cと他の2本の指222a、222bとの間の間隔が所定距離だけ大きくなるように指222a〜222dが第1軸方向に移動させればよい。
次に、制御装置40は、指222a〜222dを第2軸方向に接近させて対象物Oを把持する(S106)。図6Cは、ステップS106にて指222a〜222dが対象物Oを把持する様子を示す模式図である。本実施形態において、第2軸方向とは、第1軸方向(第2移動方向)と直交する方向である。ステップS104〜S106においてハンド22の位置と方向を一定に維持するため、第2軸方向と第1移動方向とが一致する。従って、制御装置40は、指222a〜222dを第1移動方向に接近させることにより、指222a〜222dを第2軸方向に接近させて対象物Oを把持する。
上述したように、ステップS104において、2本の指222a、222dの位置x1と、他の2本の指222b、222cの位置x2との中央の位置x0に対象物Oをセンタリングできている。センタリングした位置x0を基準に、指222a〜222dが対象物Oを把持する第1軸方向における位置x3、x4を最適化できる。さらに、指222a〜222dが第2軸方向に接近して対象物Oを把持することにより、第2軸方向においても対象物Oをセンタリングできる。これにより、ハンド22に対して正確な位置で対象物Oを把持できる。
(再把持処理)
次に、図5Aを参照することで、再把持処理を説明する。なお、上述したステップS4の再把持処理、ステップS10の再把持処理(左)、ステップS12の再把持処理(右)における制御方法は、駆動するハンドユニット20が異なる点を除いて実質的に同一である。
まず、制御装置40は、掌2211よりも対象物Oが鉛直上方に位置するまでハンド22を動かす(S201)。具体的には例えば、制御装置40は、掌2211の連結軸T1が掌2211の下方にある状態から、図7Bに示すように、連結軸T1が掌2211よりも上方に位置し、かつ、連結軸T1が鉛直方向と平行になるようにアーム21を駆動してハンド22を動かす。
次に、制御装置40は、指222a〜222dによる対象物Oの把持力を小さくすることにより、指222a〜222dで把持された状態から対象物Oを解放する(S202)。具体的には例えば、指222a〜222dが対象物Oから離間するまで指222a〜222dを第1軸方向および第2軸方向に離間させて対象物Oを解放すればよい。また例えば、対象物Oと指222a〜222dが接触した状態で指222a〜222dに対して対象物Oが自重によって滑る程度にまで指222a〜222dの把持力を小さくして対象物Oを解放してもよい。対象物Oを解放すると、対象物Oは、重力によって動き、掌2211に接触した状態で静止する。すなわち対象物Oを挟んだ状態を解除すると、掌2211の姿勢に対象物Oの姿勢が倣い、掌2211の姿勢が対象物Oの姿勢に対応することとなる。
指222a〜222dから対象物Oを解放する際、各指222a〜222dの間隔を広げるほど、対象物Oが回転して掌2211の姿勢に対象物Oの姿勢が倣いやすくなるが、対象物Oの形状によっては対象物Oが指222a〜222dの間から落下する可能性が高まる。したがって、ステップS202における指222a〜222dの移動距離は対象物Oの形状に応じて設定することが望ましい。
次に、制御装置40は、指222a〜222dによる対象物Oの把持力を大きくすることにより、再び指222a〜222dで対象物Oを把持させる(S203)。その結果、掌2211の姿勢に対象物Oの姿勢が倣った状態で対象物Oをハンド22によって把持することができる。
なお、再把持処理では掌2211の同一直線上にない3点以上に対象物Oを接触させることにより、対象物Oの姿勢を確実に掌2211の姿勢に倣わせた状態で対象物Oを再把持する必要がある。そこで、対象物Oを重力によって掌2211に接触させた後に、指222a〜222dの把持力を大きくして把持し、さらにその後に、指222a〜222dの把持力を再び小さくして解放することにより、対象物Oを掌2211の同一直線上にない3点以上に確実に接触させてから、その後に指222a〜222dの把持力を再び大きくして把持してもよい。これにより、例えば掌2211に接触した対象物Oを指222a〜222dで把持する際に対象物Oが掌2211に対して動いたとしても、再び対象物Oを掌2211の同一直線上にない3点以上に確実に接触させることができる。指222a〜222dの把持力を再び小さくする際には、最初に指222a〜222dの把持力を小さくして対象物Oを解放するときよりも、指222a〜222dと対象物との距離が近い範囲で対象物を解放することが好ましい。
(認識処理)
次に、図5Bを参照することで、認識処理を説明する。なお、ここではハンドユニット20bで対象物OUを把持して認識し、認識した対象物OUを作業台S上に戻す処理を繰り返すが、ハンドユニット20a、20bを交互に用いて全ての対象物Oを把持して認識しても良いし、ハンドユニット20a、20bのいずれか一方を繰り返し用いて全ての対象物Oを把持して認識しても良い。
はじめに制御装置40は、ハンドユニット20bを駆動してカメラ11bの光軸上の所定位置の所定姿勢に対象物OUを動かす(S301)。すなわち、制御装置40は、カメラ11bを基準にして予め定められた位置と姿勢に対象物OUを動かす。具体的には、図7Aに示すように、制御装置40は、ハンドユニット20bを駆動することにより、作業台S上に置かれた状態よりもカメラ11aに近い位置に対象物OUが移動し、カメラ11aの光軸に掌2211の連結軸T1が重なる姿勢に対象物OUを動かす。このとき、対象物OUの姿勢は掌2211の姿勢に倣っているとみなしてよいため、対象物Oの姿勢を認識するために画像認識をする必要はない。すなわち対象物OUの所定位置には掌2211の特定姿勢が対応し、対象物OUの所定姿勢には掌2211の特定姿勢が対応するため、制御装置40は、掌2211の特定位置と特定姿勢を目標に設定してハンドユニット20bをフィードバック制御するだけで、対象物Oを所定位置において所定姿勢となるように動かすことができる。そして、対象物OUをカメラ11aに近づけることにより、対象物OUを拡大して撮像することができる。また、対象物OUをカメラ11aの光軸に近づけることにより、対象物OUをテンプレートに対応する歪みのない状態で撮像することができる。なお、カメラ11bを用いて対象物OUを撮像しても良いし、カメラ11a、11bの両方を用いて対象物OUを撮像しても良い。
次に、制御装置40は、対象物OUの画像と予め記憶している4つのテンプレートとを照合するテンプレートマッチングを実行する(S302)。具体的には、まず制御装置40は、撮像部10を制御することにより、カメラ11aが撮像した所定位置における所定姿勢の対象物OUの画像を取得する。次に制御装置40は、対象物の画像を解析することにより対象物OUの輪郭を抽出し、抽出した輪郭と予め記憶している4つのテンプレートとを照合する。輪郭に対して照合される4つのテンプレートのそれぞれは、嵌合相手となる他の対象物Oと嵌合する際に他の対象物Oと対向する対象物O1、O2、O3、O4の面(嵌合面)をそれぞれ正面からカメラ11aで撮像した画像に基づいて、予め作成しておけばよい。
次に、制御装置40は、対象物OUの画像をいずれかのテンプレートとマッチングが成功したか否かを判定する(S303)。
対象物OUの画像をいずれかのテンプレートとマッチングが成功した場合、すなわち、対象物O1、O2、O3、O4の嵌合面のいずれかが認識処理の際にはカメラ11aと正対するように対象物OUが把持されていた場合、制御装置40は、照合できたテンプレートに応じて、対象物OUが対象物O1、O2、O3、O4のいずれであるかを認識して特定し、把持される前に作業台S上に置かれていた状態での対象物OUの姿勢を特定して記憶する。
対象物OUの画像をいずれのテンプレートとも照合できなかった場合、制御装置40は、ステップS302のテンプレートマッチングを対象物OUに対して2回実行したか否かを判定する(S305)。
ステップS302のテンプレートマッチングを対象物OUに対して2回実行していない場合、すなわち、2つあるハンドユニット20の一方であるハンドユニット20bで把持した状態でのみテンプレートマッチングが実行されている場合、制御装置40は、ハンドユニット20bからハンドユニット20aに対象物OUを持ち替える(S306)。具体的には、制御装置40は、ハンドユニット20bの掌2211の連結軸T1と、ハンドユニット20aの掌2211の連結軸T1とが一直線上に並ぶようにハンドユニット20aおよびハンドユニット20bを駆動する。続いて制御装置40は、ハンドユニット20bによって把持されている対象物OUをハンドユニット20aで把持する。続いて制御装置40は、ハンドユニット20aで把持されている対象物OUを、ハンドユニット20bに解放させる。
このように、2回目のテンプレートマッチングが実行される場合、1回目のテンプレートマッチングと2回目のテンプレートマッチングとの間に、一方のハンドユニット20bから他方のハンドユニット20aに対象物OUを持ち替えるため、カメラ11に対する対象物OUの位置と姿勢が1回目のテンプレートマッチングと2回目のテンプレートマッチングとでは異なることになる。具体的には、1回目のテンプレートマッチングにおいてカメラ11と正対して撮像される対象物OUの第一面の裏側に当たる第二面が2回目のテンプレートマッチングにおいてはカメラ11と正対して撮像される。なお、2回目のテンプレートマッチングでは対象物OUを他方のカメラ11bによって撮像することが好ましい。これにより、対象物OUを1回目のテンプレートマッチングのための第一の所定の位置と姿勢から2回目のテンプレートマッチングのための第二の所定の位置と姿勢に動かすために必要なハンドユニット20a、20bの駆動量を抑制することができる。
次に、制御装置40は、ハンドユニット20aについて対象物OUの再把持処理を実行する(S307)。
ステップS302のテンプレートマッチングを対象物OUに対して2回実行している場合、すなわち、ハンドユニット20aで把持した状態でも、ハンドユニット20bで把持した状態でも、対象物OUを撮像した画像を4つあるテンプレートのいずれともマッチングが成功しなかった場合、制御装置40は、ハンドユニット20aを駆動して対象物OUを作業台S上に転がす(S308)。その結果、対象物OUが作業台S上に置かれる姿勢は、対象物OUが把持される前の状態から変わる可能性が高くなる。このようにして対象物OUを作業台S上に転がすと、作業台S上に置かれている4つの対象物Oのすべてについて、位置と姿勢が変化する可能性があるため、上述したステップS1の処理から作業はやり直しとなる。
(嵌合処理)
次に、図5Cを参照することで、嵌合処理を説明する。
はじめに、制御装置40は、ハンドユニット20a、20bを駆動することにより、ハンド22aで把持した対象物Oxと、ハンド22bで把持した対象物Oyとをそれぞれ所定の嵌合位置の所定の嵌合姿勢に動かす(S401)。嵌合位置と嵌合姿勢は、対象物OxとOyの形状によって予め定めればよい。本実施例では、対象物Oxを把持するハンド22aの掌2211の連結軸T1と、対象物Oxを把持するハンド22bの掌2211の連結軸T1とが、一直線上に並ぶように嵌合姿勢を定めるものとする。
次に、制御装置40は、対象物Ox、Oyが指222a〜222dに対して滑る程度に、2つのハンド22a、22bが対象物Ox、Oyを把持する力を小さくする(S402)。
次に、制御装置40は、2つの対象物Ox、Oyを互いに押し付けるように2つのハンドユニット20a、20bを駆動する(S403)。具体的には、制御装置40は、2つのハンド22a、22bの掌2211の連結軸T1が一直線上において接近するようにハンドユニット20a、20bを駆動する。その結果、仮に対象物Ox、Oyのいずれか一方でも掌2211の3点と接触していない状態で把持されていたとしても、その状態が解消されるため、対象物Ox、Oyの両方がそれぞれ確実に掌2211の3点と接触した状態になる。
次に、制御装置40は、予め決められた嵌合シーケンスでハンドユニット20を動かすことにより、対象物Oxと対象物Oyとを嵌合させる(S404)。嵌合シーケンスは、対象物Oxと対象物Oyの形状に応じて、平行移動や回転を組み合わせて予め決めておけばよい。
次に、制御装置40は、一方のハンドユニット20aを駆動してハンド22aから対象物Oxを解放する(S405)。
次に、制御装置40は、他方のハンドユニット20bを駆動して、嵌合している対象物Ox、Oyを作業台S上に置く。
4.効果
以上説明した実施形態によると、認識精度が高い位置と姿勢で対象物Oを撮像して認識できるため、作業台S上に無作為に置かれた対象物OUの認識精度を高めることができる。さらに、対象物OUを大きく撮像し、また、テンプレートに対して歪み無く対象物OUを撮像することができるため、対象物OUの認識精度を高めることができる。
また、テンプレートに対応する対象物OUの輪郭が指222や掌部221に隠れる状態で第一のハンドユニット20aが対象物OUを把持した場合でも、第二のハンドユニット20bに対象物OUを持ち替えることによって、テンプレートに対応する輪郭を撮像して対象物OUを認識することができる。また、いったん作業台Sに対象物OUを戻して同じハンドユニット20aで持ち直す場合に比べると、対象物OUを認識するのに必要な時間と処理量を減らすことができる。
そして、ハンドユニット20aで対象物OUを把持する前にカメラ11によって撮像された対象物OUの略輪郭を認識するため、対象物O毎に記憶しているテンプレートから、実際に把持する対象物OUに対応する可能性が高い1つ以上のテンプレートを選択したり、対象物OUの姿勢毎に記憶しているテンプレートから、実際に撮像される際の対象物OUの姿勢に対応する可能性が高い1つ以上のテンプレートを選択したり、把持する前に対象物OUを転がして姿勢を変えたりして、対象物OUを認識するのに必要な時間と処理量を減らすことも可能である。
また、掌2211の姿勢に対象物Oの姿勢が倣い、掌2211の姿勢が対象物Oの姿勢に対応することとなるため、簡素な処理で確実に対象物Oの姿勢を制御できる。例えば、認識精度が高い姿勢に対象物Oを動かす過程における3次元物体認識を実行しなくても、確実に対象物Oの姿勢を制御することができる。また、掌2211の姿勢に対象物Oの姿勢を倣わす際に、重力によって対象物Oを動かすため、掌2211を動かすためのアクチュエーターを省略して、ハンドユニット20の構成を簡素化することも可能である。
また、ハンドユニット20は対象物Oを掌2211に倣わせた姿勢で精度良く把持できるので、2つの対象物Ox、Oyを協調制御により精度よく嵌合させることが可能になる。
また、ステップS104において、2本の指222a、222dの位置x1と、他の2本の指222b、222cの位置x2との中央の位置x0に対象物Oをセンタリングできている。センタリングした位置x0を基準に、指222a〜222dが対象物Oを把持する第1軸方向における位置x3、x4を最適化できる。さらに、指222a〜222dが第2軸方向に接近して対象物Oを把持することにより、第2軸方向においても対象物Oをセンタリングできる。これにより、ハンド22に対して正確な位置で対象物Oを把持できる。
5.他の実施形態
尚、本発明の技術的範囲は、上述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。
例えば、対象物OUを認識するためにカメラ11に対する所定の位置と姿勢に対象物OUを動かすとき、3次元物体認識技術を用いて対象物OUの姿勢を認識しながら対象物OUの姿勢を動かしても良い。
また例えば、対象物OUを認識するために2回目のテンプレートマッチングを実行するときに、2つのハンドユニット20で対象物OUを持ち替えて第二の所定姿勢に動かす代わりに、1つのハンドユニット20で対象物OUの姿勢を第二の所定姿勢に動かしてもよい。
また例えば、対象物Oの姿勢を掌2211の姿勢に倣わせる前に、図8Aに示す状態から掌2211を固定駆動部2212で動かして、図8Bに示すように対象物Oに掌2211を接近させてもよい。これにより、指222の把持力を弱めて図8Cに示すように対象物Oを解放したときに、対象物Oが複数の指222の間をすり抜けてハンド22から落下することを防止できる。また、対象物Oが掌2211に衝突するときの衝撃によって対象物Oが破損することを防止できる。
また例えば、掌2211に対象物Oを吸い付けるための吸引口2211bを図8Dに示すように備えても良い。この場合、図示しない吸引器で吸引口2211bから空気を吸引することにより、掌2211に対象物Oを吸い付けて掌2211の姿勢に対象物Oを倣わせることができる。したがってこの場合、掌2211の姿勢に対象物Oをより確実に倣わせることができ、また、重力で対象物Oが掌2211に落下させるためだけにハンドユニット20の姿勢を動かす必要がなくなる。
また例えば、一方のハンドユニット20aで把持された対象物Oxを他方のハンドユニット20bで把持された対象物Oyに押し当てて対象物Ox、Oyの姿勢を掌2211の姿勢に倣わせる代わりに、対象物Ox、Oyを作業台Sや壁や他方のハンドユニット20や胴体ユニット30等の他の物に押し当てて対象物Ox、Oyの姿勢を掌2211の姿勢に倣わせてもよい。
また例えば、対象物Oを重力によって掌2211に接触させる際に、指222a〜222dの間から対象物Oが落下しない程度に指222a〜222dを開いた状態で、ハンド22を振動させることによって対象物Oを掌2211の同一直線上にない3点以上に確実に接触させても良い。なお、対象物Oが掌2211の1点または2点若しくは直線で接触している場合であっても、掌2211に接触している限り、掌2211に接触していない場合に比べれば、ハンド22で把持されている対象物Oのハンド22に対する姿勢は変わりにくくなる。
前記実施形態では、第1軸方向と第2軸方向とが直交する関係にあったが、必ずしも第1軸方向と第2軸方向とが直交しなくてもよい。例えば、図6Dに示すように平面視正方形の対象物Oの対角線方向(第1軸方向)に挟んでから、図6Cに示すように対象物Oの対角線から45度傾いた第2軸方向に把持するようにしてもよい。この場合、ステップS104〜S106の間にハンド22を45度回転させておけばよい。また、図6Dに示すように、対象物Oの対角線方向に挟むことにより、対象物Oを対角線方向にセンタリングできる。2本の指222a,222d(指222b,222c)の間に対象物Oの頂角が位置する状態で対象物Oを対角線方向に挟むことにより、対象物Oの姿勢を安定させることができる。
また、図6Eに示すように、ステップS104において、2本の指222a,222dが対象物Oの曲面を押す状態で対象物Oを指222a〜222dで挟んでもよい。この場合、曲面の輪郭線が2本の指222a,222dの先端を通過するように対象物Oを位置決めできる。図6Eの場合、他の2本の指222b,222cが単一平面O1を押すことにより、当該単一平面に直交する方向において対象物Oを位置決めできる。これにより、例えばステップS106において一対の平行面O2a,O2bを指222a〜222dで挟み込んで対象物Oを把持するにあたり、ステップS104におけるハンド22の位置を基準に、正確な位置へと指222a〜222dを移動させることができる。
以上においては、2軸方向に移動可能な指222a〜222dを例示したが、図6Fに示すように指222,222は少なくとも2本備えられ、単一軸方向に移動可能であればよい。この場合、ステップS104,S105にて第1軸方向に指222,222の移動を行った後、かつ、ステップS106を行う前に、指222,222が第2軸方向に移動可能となるようにハンド22を回転させておけばよい。
また、上述した実施例で説明した制御シーケンスはあくまで一例であって、対象物Oの構成やハンドユニット20の構成に応じた様々な制御シーケンスに本発明を適用できることは勿論である。
1…ロボットシステム、9…ロボット、10…撮像部、11…カメラ、20…ハンドユニット、21…アーム、22…ハンド、30…胴体ユニット、40…制御装置、41…CPU、42…記憶部、43…入力受付部、44…通信部、221…掌部、222…指、2211…掌、2211b…吸引口、2214…基部、M1…画像取得部、M2…画像認識部、M3…ハンドユニット制御部、O…対象物

Claims (9)

  1. 掌と複数の指とを備えるハンドユニットを備え、
    前記ハンドユニットは、対象物を把持した前記複数の指の把持力を小さくすることにより前記対象物を前記掌に接触させた後に、前記対象物を所定の姿勢に動かす、
    ロボット。
  2. 前記ハンドユニットは、前記対象物を把持した前記複数の指の把持力を小さくすることにより前記対象物を前記掌の同一直線上にない3点以上に接触させる、
    請求項1に記載のロボット。
  3. 前記ハンドユニットは、前記対象物を前記掌に接触させた後に、前記複数の指の把持力を大きくして前記対象物を把持し、前記複数の指の把持力を再び小さくすることにより、前記対象物を前記掌の同一直線上にない3点以上に接触させ、前記複数の指の把持力を再び大きくして前記対象物を把持する、
    請求項2に記載のロボット。
  4. 前記ハンドユニットは、重力によって前記対象物が前記掌に接触するように前記掌と前記複数の指を動かす、
    請求項1から3のいずれか一項に記載のロボット。
  5. 前記掌は、前記対象物を吸い付ける吸引口を備える、
    請求項1から4のいずれか一項に記載のロボット。
  6. 前記ハンドユニットは、前記対象物を他の物に押し当てることにより前記対象物を前記掌に接触させる、
    請求項1から5のいずれか一項に記載のロボット。
  7. 前記ハンドユニットは、前記掌を押し上げるアクチュエーターを備え、押し上げられた前記掌に前記対象物を接触させる、
    請求項1から6のいずれか一項に記載のロボット。
  8. 掌と複数の指とを備えるハンドユニットと、
    対象物を把持した前記複数の指の把持力を小さくすることにより前記対象物を前記掌に接触させた後に、前記掌の姿勢を動かして前記対象物を所定の姿勢に動かす制御装置と、
    を備えるロボットシステム。
  9. 対象物を把持したロボットの複数の指の把持力を小さくすることにより前記対象物を前記ロボットの掌に接触させた後に、前記掌の姿勢を動かして前記対象物を所定の姿勢に動かすハンドユニット制御部を備える、
    ロボット制御装置。
JP2014113821A 2014-06-02 2014-06-02 ロボット、ロボットシステムおよびロボット制御装置 Pending JP2015226956A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014113821A JP2015226956A (ja) 2014-06-02 2014-06-02 ロボット、ロボットシステムおよびロボット制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014113821A JP2015226956A (ja) 2014-06-02 2014-06-02 ロボット、ロボットシステムおよびロボット制御装置

Publications (1)

Publication Number Publication Date
JP2015226956A true JP2015226956A (ja) 2015-12-17

Family

ID=54884793

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014113821A Pending JP2015226956A (ja) 2014-06-02 2014-06-02 ロボット、ロボットシステムおよびロボット制御装置

Country Status (1)

Country Link
JP (1) JP2015226956A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112016005333T5 (de) 2015-11-19 2018-08-02 Denso Corporation Head-up-display-vorrichtung
JP2022552629A (ja) * 2019-10-25 2022-12-19 デクステリティ・インコーポレーテッド ロボット把持からの滑りの検出
US11969880B2 (en) 2019-10-25 2024-04-30 Dexterity, Inc. Detecting robot grasp of very thin object or feature

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112016005333T5 (de) 2015-11-19 2018-08-02 Denso Corporation Head-up-display-vorrichtung
JP2022552629A (ja) * 2019-10-25 2022-12-19 デクステリティ・インコーポレーテッド ロボット把持からの滑りの検出
US11772262B2 (en) 2019-10-25 2023-10-03 Dexterity, Inc. Detecting slippage from robotic grasp
JP7447246B2 (ja) 2019-10-25 2024-03-11 デクステリティ・インコーポレーテッド ロボット把持からの滑りの検出
US11969880B2 (en) 2019-10-25 2024-04-30 Dexterity, Inc. Detecting robot grasp of very thin object or feature

Similar Documents

Publication Publication Date Title
US10350768B2 (en) Control device, robot, and robot system
JP6380828B2 (ja) ロボット、ロボットシステム、制御装置、及び制御方法
US20160184996A1 (en) Robot, robot system, control apparatus, and control method
JP6771744B2 (ja) ハンドリングシステム及びコントローラ
US10399221B2 (en) Robot and robot system
JP6454960B2 (ja) ロボット、ロボットシステム、ロボット制御装置
JP6364836B2 (ja) ロボット、ロボットシステム、及び制御装置
US20150343634A1 (en) Robot, robot system, and control method
JP4001105B2 (ja) ロボットによる任意形状物体の把持方法
US20170312921A1 (en) Robot and robot system
CN105291088B (zh) 机器人、机器人系统以及控制方法
US20170203434A1 (en) Robot and robot system
JP2016203293A (ja) ピッキング装置およびピッキング方法
JP6885856B2 (ja) ロボットシステムおよびキャリブレーション方法
JP2010064155A (ja) 把持装置
JP2015226956A (ja) ロボット、ロボットシステムおよびロボット制御装置
JP2015182212A (ja) ロボットシステム、ロボット、制御装置、及び制御方法
US20160306340A1 (en) Robot and control device
JP2015071207A (ja) ロボットハンドおよびその制御方法
CN113165187B (zh) 图像信息处理装置、把持系统以及图像信息处理方法
JP6557945B2 (ja) ロボット、ロボットシステムおよび制御装置
JP6455869B2 (ja) ロボット、ロボットシステム、制御装置、及び制御方法
JP6507492B2 (ja) ロボット、ロボットシステム及びロボット制御装置
JP2015226967A (ja) ロボット、ロボットシステム、制御装置、及び制御方法
JP2015157343A (ja) ロボット、ロボットシステム、制御装置、および制御方法

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160617

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160628