JP2014061578A - ロボット、ロボットシステム、ロボット制御装置、ロボット制御方法及びプログラム - Google Patents

ロボット、ロボットシステム、ロボット制御装置、ロボット制御方法及びプログラム Download PDF

Info

Publication number
JP2014061578A
JP2014061578A JP2012209258A JP2012209258A JP2014061578A JP 2014061578 A JP2014061578 A JP 2014061578A JP 2012209258 A JP2012209258 A JP 2012209258A JP 2012209258 A JP2012209258 A JP 2012209258A JP 2014061578 A JP2014061578 A JP 2014061578A
Authority
JP
Japan
Prior art keywords
work
accuracy
robot
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2012209258A
Other languages
English (en)
Inventor
Yoshiji Yamada
喜士 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2012209258A priority Critical patent/JP2014061578A/ja
Publication of JP2014061578A publication Critical patent/JP2014061578A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】適切な領域で作業を行うようにすることにより、ロボット作業の高速化及び精密化を実現することができる。
【解決手段】画像に含まれる対象物の検出精度であって、画像を分割して設定された複数の領域毎の検出精度を取得し、かつロボットが行う第1の作業に用いる部品と、当該第1の作業に必要な精度とを関連付けた精度情報を取得し、これらに基づいて第1の作業を複数の領域のうちのどの領域で作業を行うかを決定する。また、ロボットの作業領域を撮影した画像から第1の作業に用いる部品及びロボットエンドエフェクターを認識する。そして、認識された結果に基づいて、第1の作業に用いる部品を決定部により決定された領域に搬送し、決定された領域内で第1の作業を行うようにロボットを制御する。
【選択図】図2

Description

本発明は、ロボット、ロボットシステム、ロボット制御装置、ロボット制御方法及びプログラムに関する。
特許文献1には、低空間分解能・広視野画像を用いた画像認識処理でトレイの配置位置を特定し、高空間分解能・狭視野画像を用いた画像認識処理でトレイ上の部品の配置位置を特定する作業ロボット制御装置が開示されている。
特開2012−30320号公報
特許文献1に記載の発明では、入力画像を生成する撮影手段自体が有する歪み(例えば、歪曲収差)や撮影手段の設置位置や設置姿勢によって発生する入力画像の歪みが、部品の認識結果に与える影響が考慮されていない。これらの歪みにより、撮影された画像のどこに部品が映っているかによって部品の認識結果の精度が異なる。したがって、特許文献1に記載の発明では、ロボットが取得した部品の位置と実際の部品の位置とが異なり、期待するロボット作業が実現できない場合が発生しうるという問題がある。このような問題を解決するためには、ロボットが部品の位置を正確に把握できるようにする必要がある。
そこで、本発明は、適切な領域で作業を行うようにすることにより、ロボットが部品の位置を正確に把握することができるロボット、ロボットシステム、ロボット制御装置、ロボット制御方法及びプログラムを提供することを目的とする。
上記課題を解決するための第一の態様は、ロボットであって、複数のリンク及びジョイントを有するアームと、前記アームの先端に設けられたエンドエフェクターと、前記エンドエフェクターの作業領域を撮影した画像を取得する画像取得部と、前記取得された画像から対象物を認識する画像認識部と、前記認識された対象物の検出精度であって、前記画像を分割して設定された複数の領域毎の検出精度を取得する精度取得部と、前記エンドエフェクターが行う第1の作業に用いる部品と、当該第1の作業に必要な精度とを関連付けた精度情報を取得する情報取得部と、前記取得された複数の領域毎の検出精度と、前記取得された精度情報とに基づいて、前記第1の作業を前記複数の領域のうちのどの領域で作業を行うかを決定する決定部と、前記画像認識部により認識された結果に基づいて前記アーム及び前記エンドエフェクターを制御する制御部と、を備え、前記画像認識部は、前記第1の作業に用いる部品及び前記エンドエフェクターを前記対象物として認識し、前記制御部は、前記第1の作業に用いる部品を前記決定部により決定された領域に搬送し、前記決定された領域内で前記第1の作業を行うように前記アーム及び前記エンドエフェクターを制御することを特徴とする。
第一の態様によれば、作業領域を撮影した画像から設定される複数の領域毎の検出精度と、第1の作業に必要な精度とに基づいて、第1の作業を行う領域が決定される。そのため、作業で用いる部品に応じて、作業する領域が決定される。例えば、高い精度が必要な部品を用いる作業は作業領域を撮影した画像中で検出精度の高い領域で行われる。このように、適切な領域で作業を行うことで、部品の位置を正確に把握することができる。その結果、ロボット作業の高速化及び精密化を実現することができる。
ここで、前記複数の領域毎の検出精度を設定する精度設定部を備え、前記画像取得部は、所定の模様を撮影した画像を取得し、前記画像認識部は、前記画像に含まれる模様を認識し、精度設定部は、前記所定の模様と、前記認識された模様とを比較することにより検出精度を設定し、前記精度取得部は、前記精度設定部が設定した精度を取得してもよい。これにより、ロボット自身で作業領域を撮影した画像から設定される複数の領域毎の検出精度を設定することができる。
ここで、部品と、当該部品を取り扱うときに求められる精度とが関連付けられた部品情報を取得する部品情報取得部と、前記取得された部品情報に基づいて前記第1の作業に用いる部品の各部品に必要な精度を取得し、前記取得された精度のうちの最も高い精度を前記第1の作業に必要な精度として選択し、当該選択された精度を、前記第1の作業に用いる部品と関連付けて精度情報を生成する精度情報生成部と、を備え、前記情報取得部は、前記生成された精度情報を取得してもよい。これにより、ロボット自身で第1の作業に必要な精度を生成することができる。また、作業に用いる部品に応じて作業に必要な精度を生成することができる。
ここで、前記第1の作業の作業内容を取得する作業内容取得手段を備え、前記精度情報生成部は、取得された作業内容に基づいて前記第1の作業に必要な精度を生成してもよい。これにより、作業内容に応じて作業に必要な精度を生成することができる。
ここで、前記画像取得部は、前記ロボットの上方に設けられた撮影部が撮影した画像を取得し、前記作業領域は、矩形形状の領域であり、前記複数の領域は、前記画像を縦方向及び横方向をそれぞれ均等に複数個に分割することにより設定されてもよい。これにより、作業領域の手前側の精度が高い部分は多くの領域に分けられるため、作業領域を効率よく使用することができる。
本発明の第二の態様は、ロボットシステムであって、アームと、前記アームの先端に設けられたエンドエフェクターとを有するロボットと、前記エンドエフェクターの作業領域を撮影する撮影部と、前記撮影された画像から対象物を認識する画像認識部と、前記認識された対象物の検出精度であって、前記画像を分割して設定された複数の領域毎の検出精度を取得する精度取得部と、前記エンドエフェクターが行う第1の作業に用いる部品と、当該第1の作業に必要な精度とを関連付けた精度情報を記憶する記憶部と、前記取得された複数の領域毎の検出精度と、前記記憶された精度情報とに基づいて、前記第1の作業を前記複数の領域のうちのどの領域で作業を行うかを決定する決定部と、前記画像認識部により認識された結果に基づいて前記アーム及び前記エンドエフェクターを制御する制御部と、を備え、前記画像認識部は、前記第1の作業に用いる部品及び前記エンドエフェクターを前記対象物として認識し、前記制御部は、前記第1の作業に用いる部品を前記決定部により決定された領域に搬送し、前記決定された領域内で前記第1の作業を行うように前記アーム及び前記エンドエフェクターを制御することを特徴とする。これにより、作業で用いる部品に応じて作業する領域を決定することで、部品の位置を正確に把握することができる。
本発明の第三の態様は、ロボット制御装置であって、ロボットの作業領域を撮影した画像を取得する画像取得部と、前記取得された画像から対象物を認識する画像認識部と、前記認識された対象物の検出精度であって、前記画像を分割して設定された複数の領域毎の検出精度を取得する精度取得部と、前記ロボットが行う第1の作業に用いる部品と、当該第1の作業に必要な精度とを関連付けた精度情報を取得する情報取得部と、前記取得された複数の領域毎の検出精度と、前記取得された精度情報とに基づいて、前記第1の作業を前記複数の領域のうちのどの領域で作業を行うかを決定する決定部と、前記画像認識部により認識された結果に基づいて前記ロボットを制御する制御部と、を備え、前記画像認識部は、前記第1の作業に用いる部品及び前記ロボットの可動部を前記対象物として認識し、前記制御部は、前記第1の作業に用いる部品を前記決定部により決定された領域に搬送し、前記決定された領域内で前記第1の作業を行うように前記ロボットを制御することを特徴とする。これにより、作業で用いる部品に応じて作業する領域を決定することで、部品の位置を正確に把握することができる。
本発明の第四の態様は、ロボット制御方法であって、ロボットの作業領域を撮影した画像を取得するステップと、前記取得された画像から対象物を認識するステップと、前記認識された対象物の検出精度であって、前記画像を分割して設定された複数の領域毎の検出精度を取得するステップと、前記ロボットが行う第1の作業に用いる部品と、当該第1の作業に必要な精度とを関連付けた精度情報を取得するステップと、前記取得された複数の領域毎の検出精度と、前記取得された精度情報とに基づいて、前記第1の作業を前記複数の領域のうちのどの領域で作業を行うかを決定するステップと、前記第1の作業に用いる部品と前記ロボットの可動部を前記対象物として認識するステップと、前記対象物を認識した結果に基づいて、前記第1の作業に用いる部品を前記決定された領域に搬送し、前記決定された領域内で前記第1の作業を行うように前記ロボットを制御するステップと、を含むことを特徴とする。これにより、作業で用いる部品に応じて作業する領域を決定することで、部品の位置を正確に把握することができる。
本発明の第五の態様は、プログラムであって、ロボットの作業領域を撮影した画像を取得するステップと、前記取得された画像から対象物を認識するステップと、前記認識された対象物の検出精度であって、前記画像を分割して設定された複数の領域毎の検出精度を取得するステップと、前記ロボットが行う第1の作業に用いる部品と、当該第1の作業に必要な精度とを関連付けた精度情報を取得するステップと、前記取得された複数の領域毎の検出精度と、前記取得された精度情報とに基づいて、前記第1の作業を前記複数の領域のうちのどの領域で作業を行うかを決定するステップと、前記第1の作業に用いる部品と前記ロボットの可動部を前記対象物として認識するステップと、前記対象物を認識した結果に基づいて、前記第1の作業に用いる部品を前記決定された領域に搬送し、前記決定された領域内で前記第1の作業を行うように前記ロボットを制御するステップと、を演算装置に実行させることを特徴とする。これにより、作業で用いる部品に応じて作業する領域を決定することで、部品の位置を正確に把握することができる。
第1の実施形態におけるロボットシステム1の構成の一例を示す図である。 ロボットシステム1の機能構成の一例を示すブロック図である。 部品検出精度範囲情報302Aの一例を示す図である。 撮影された画像における領域を説明する図である。 部品検出精度情報302Bの一例を示す図である。 作業検出精度情報302Cの一例を示す図である。 作業情報302Dの一例を示す図である。 制御部30のハードウェア構成を示す図である。 部品検出精度範囲情報302Aの生成に関する処理の流れを示すフローチャートである。 パターンボード51の一例を示す図である。 パターンボード51を撮影した画像の一例を示す図である。 パターンボード51上の座標と、パターンボード51を撮影した画像上の座標とを示す図である。 作業検出精度情報302Cの作業検出精度格納領域3027の生成に関する処理の流れを示すフローチャートである。 作業検出精度情報302Cの領域格納領域3028の生成に関する処理の流れを示すフローチャートである。 ロボット10の作業に関する処理の流れを示すフローチャートである。
本発明の一実施形態について、図面を参照しながら説明する。
図1は、本発明の一実施形態におけるロボットシステム1の構成の一例を示すシステム構成図である。本実施形態におけるロボットシステム1は、主として、ロボット10と、撮影部20と、制御部30と、作業台40とを備える。
ロボット10は、複数のジョイント(関節)11Aと、複数のリンク11Bとを含むアーム部を2本有するアーム型のいわゆる双腕ロボットである。アーム部の先端には、対象物(ワーク)を把持したり、道具を把持して対象物に対して所定の作業を行ったりすることが可能なハンド11C(いわゆるエンドエフェクター)が設けられる。以下、ロボット10のアーム部及びハンド11Cを可動部11という。
ジョイント11A及びハンド11Cには、それらを動作させるためのアクチュエーター(図示せず)が設けられる。アクチュエーターは、例えば、サーボモーターやエンコーダーなどを備える。エンコーダーが出力するエンコーダー値は、制御部30によるロボット10のフィードバック制御に使用される。
なお、ロボット10の構成は、本実施形態の特徴を説明するにあたって主要構成を説明したのであって、上記の構成に限られない。一般的な把持ロボットが備える構成を排除するものではない。例えば、軸数(ジョイント数)をさらに増加させてもよいし、減らしてもよい。リンクの数を増減させてもよい。また、アーム、ハンド、リンク、ジョイント等の各種部材の形状、大きさ、配置、構造等も適宜変更してよい。また、エンドエフェクターはハンド11Cに限られない。
撮影部20は、作業台40付近を撮影して、画像データを生成するユニットである。撮影部20は、例えば、カメラを含み、作業台、天井、壁などに設けられる。図1では、撮影部20は、ロボット10の上端部に設けられている。撮影部20としては、可視光カメラ、赤外線カメラ等を採用することができる。なお、本実施の形態では、撮影部20をロボット10の上端部に設けたが、撮影部20はロボット10に設ける必要はない。ただし、撮影部20は、作業領域50を前方に見下ろすことができるロボット10の上方に設けられることが望ましい。
制御部30は、ロボット10の全体を制御する処理を行う。制御部30は、ロボット10の本体とは離れた場所に設置してもよいし、ロボット10に内蔵してもよい。制御部30がロボット10の本体と離れた場所に設置されている場合には、制御部30は、有線又は無線でロボット10と接続されている。また、撮影部20は、制御部30ではなくロボット10に接続されるようにしてもよいし、ロボット10に内蔵されるようにしてもよい。
作業台40は、ロボット10の前に設けられる。作業台40には、略中央にロボット10が作業を行う領域である作業領域50が設けられる。給材エリア41は、作業に用いる部品が載置される領域であり、本実施の形態では作業台40の左側に設けられる。組立品除材エリア42は作業後の組立品を載置する領域であり、本実施の形態では作業台40の右側に設けられる。
次に、ロボットシステム1の機能構成例について説明する。図2は、ロボットシステム1の機能ブロック図である。
ロボット10は、アクチュエーターのエンコーダー値、及びセンサーのセンサー値等に基づいて可動部11を制御する動作制御部12を備える。
制御部30は、主として、主制御部301と、記憶部302と、画像取得部303とを備える。また、制御部30は、有線又は無線によりロボット10と通信可能に接続されている。
主制御部301は、他の各部(302、303)を統括的に制御する。また、主制御部301は、精度設定部301Aと、作業精度決定部301Bと、作業領域決定部301Cと、画像認識部301Dと、作業制御部301Eとを備える。
精度設定部301Aは、撮影手段によって撮影された画像の歪みに関する情報(以下、部品検出精度範囲情報という)を、作業領域50に設定された複数の領域毎に設定する。精度設定部301Aが行う処理の詳細については、後に詳述する。
作業精度決定部301Bは、部品を取り扱うときに求められる検出精度をあらわす情報(以下、部品検出精度情報という)に基づいて、ロボット10が行う作業毎に、その作業に求められる精度を決定する。作業精度決定部301Bが決定した精度は、作業検出精度情報302Cとして記憶部302に記憶される。作業精度決定部301Bが行う処理の詳細については、後に詳述する。
作業領域決定部301Cは、部品検出精度情報302Bと、作業検出精度情報302Cとに基づいて、作業領域50に設定された複数の領域のどの領域で作業を行えばよいかを、作業検出精度情報に記憶された作業毎に決定する。作業領域決定部301Cが決定した内容は、作業検出精度情報302Cとして記憶部302に記憶される。作業領域決定部301Cが行う処理の詳細については、後に詳述する。
画像認識部301Dは、画像取得部303を介して取得した画像に含まれる対象物(部品やハンド11C等)を認識する。対象物を認識する方法は、すでに公知の様々な画像処理技術を用いることができる。
作業制御部301Eは、作業検出精度情報302Cに記憶された内容と、画像認識部301Dでの認識結果とに基づいて、作業情報302Dに記憶された作業をロボット10が行うように動作制御部12に制御情報を出力する。
記憶部302は、各種データやプログラム(制御プログラムを含む)を記憶する。また、記憶部302は、部品検出精度範囲情報302Aと、部品検出精度情報302Bと、作業検出精度情報302Cと、作業情報302Dとを記憶する。
図3は、部品検出精度範囲情報302Aの一例を示す図である。部品検出精度範囲情報302Aは、撮影部20によって撮影される画像21において、画像21の歪みを示す情報を、領域を指示する情報とともに記録するものである。部品検出精度範囲情報302Aは、主として、領域格納領域3021と、部品検出精度範囲格納領域3022と、作業範囲情報格納領域3023とを有する。領域格納領域3021と、部品検出精度範囲格納領域3022と、作業範囲情報格納領域3023とは、互いに関連付けられている。
領域格納領域3021には、画像21を複数の領域に分けて設定された領域を示す番号(以下、領域番号という)が格納される。図4は、画像21における領域の位置関係を示す図である。
図4に示すように、画像21は、横方向に1019ピクセル、縦方向に767ピクセルの画像である。画像21は、縦方向に3つ、横方向に3つに分割され、合計で9個の領域が設定されている。9個の領域は2次元配置され、左上が領域1、領域1の隣が領域2、右上が領域3、領域1の下が領域4、領域2の下が領域5、領域3の下が領域6、左下が領域7、領域5の下が領域8、右下が領域9と設定される。
なお、図4は画像21の一例であり、ピクセル数や大きさはこれに限られない。また、図4では、画像21に3×3の9個の領域が設定されているが、領域の数は複数であればよく、複数の領域の数や領域分割方法はこれに限定されない。また、図4においては、画像21を縦方向、横方向に均等に分割して複数の領域を設定しているが、必ずしも画像を均等に分割する必要はない。
図3の説明に戻る。部品検出精度範囲格納領域3022には、各領域の分解能、すなわち領域格納領域3021に格納された各領域において、その領域に含まれる対象物がどの程度の精度で検出されるかを示す部品検出精度範囲が格納される。例えば、領域格納領域3021で「1」が関連付けられている場合には、部品検出精度範囲格納領域3022では上限値「+9.0mm」、下限値「−9.0mm」が記憶されているが、これは、画像21の領域1の分解能が9mm+9mm=18mmであることを示す。
部品検出精度範囲は、撮影部29の歪み(例えばディストーション)や撮影部20の設置位置姿勢によって生じた画像21の歪みに起因する。撮影部29の歪みがあるため、画像21の中心(領域5)は精度が高く、画像21の外側にいくにしたがって精度が低くなっている。また、撮影部20がロボット10の上に設けられているため、画像21に撮影される作業領域50は、奥(画像21の上)にいくに従い狭く撮影される(図4参照)。その結果、部品検出精度範囲は、画像21の下(領域7〜9)は精度が高く、画像21の上にいくにしたがって精度が低くなっている。
作業範囲情報格納領域3023には、領域格納領域3021に格納された各領域の位置を示す情報が格納される。中心Xは、各領域の中心のX座標を示す。中心Yは、各領域の中心のY座標を示す。幅Wは、各領域の横方向の幅を示す。高さHは、各領域の縦方向の高さを示す。中心X、中心Y、幅W及び高さHは、それぞれピクセルで表される。
図5は、部品検出精度情報302Bの一例を示す図である。部品検出精度情報302Bは、ロボット10が取り扱う全部品について、部品を取り扱うときに求められる精度を示す情報である。部品検出精度情報302Bは、主として、部品情報格納領域3024と、部品検出精度格納領域3025とを有する。部品情報格納領域3024と、部品検出精度格納領域3025とは、互いに関連付けられている。
部品情報格納領域3024には、部品の情報が記憶される。「No.」の欄には、部品に固有の番号(以下、部品番号という)が格納され、「形状」に部品の形状及び大きさを示す情報が格納される。図5においては、「形状」に部品の形状を示す図が記載されているが、これは説明のためであり、実際には、部品の形状を示す図を記載するのに十分な文字情報(例えば、円筒形)、及び数値情報(例えば、高さ50mm)が格納される。
部品検出精度格納領域3025には、部品情報格納領域3024に記憶された各部品に対して、部品を取り扱うときに求められる精度が格納される。例えば、「No.」が「1」の部品の場合、「下限許容値」として「−1.5mm」、「上限許容値」として「+1.5mm」の精度での検出精度が必要であることが分かる。
図6は、作業検出精度情報302Cの一例を示す図である。作業検出精度情報302Cは、主として、部品格納領域3026と、作業検出精度格納領域3027と、領域格納領域3028とを有する。部品格納領域3026と、作業検出精度格納領域3027と、領域格納領域3028とは、互いに関連付けられている。
部品格納領域3026には、「No.」と、「部品群」とで構成される。「No.」には、作業の順番を示す番号(以下、作業番号という)が格納される。「部品群」には、作業に必要な部品の情報が記憶される。「部品群」に記憶される部品は、部品情報格納領域3024に記憶された部品を組み合わせたものである。図6においては、「部品群」に部品の形状が記載されているが、「部品群」には少なくとも部品番号が格納されていればよい。
作業検出精度格納領域3027には、部品格納領域3026に記憶された部品を取り扱う作業時に求められる精度が記憶される。本実施の形態では、作業検出精度格納領域3027に格納される値は、部品格納領域3026に記憶された部品のうちの最も求められる精度が高い値である。
領域格納領域3028には、部品格納領域3026に記憶された部品を取り扱う作業をどの領域で行えばよいか(作業を実行する領域)を示す情報が格納される。
図7は、作業情報302Dの一例を示す図である。作業情報302Dは、主として、部品格納領域3026と、作業手順格納領域3029とを有する。部品格納領域3026と、作業手順格納領域3029とは、互いに関連付けられている。
作業手順格納領域3029には、部品格納領域3026に記憶された作業の手順が格納される。作業手順格納領域3029は、作業順序を示す「No.」と、作業内容を示す「内容」とで構成される。「内容」に格納される情報は、基本的に1つの作業であるため、部品格納領域3026に記憶された1つの作業に、複数の作業手順が記憶される。
図2の説明に戻る。記憶部302は、制御部30の内部に設ける必要はない。記憶部302を制御部30、ロボット10の外部装置として用意し、制御部30内あるいはロボット10内の制御部が、記憶部302から作業情報を取得するようにしてもよい。
画像取得部303は、撮影部20で撮影された画像データを取得する。画像取得部303は、撮影された画像データを主制御部301に出力する。
なお、ロボット10及び制御部30の各機能構成は、ロボット10及び制御部30の構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方や名称によって、本願発明が制限されることはない。ロボット10及び制御部30の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。
図8は、制御部30の概略構成の一例を示すブロック図である。図示するように、例えばコンピューターなどで構成される制御部30は、演算装置であるCPU31と、揮発性の記憶装置であるRAMや不揮発性の記憶装置であるROMからなるメモリー32と、外部記憶装置33と、ロボット10等の外部の装置と通信を行う通信装置34と、マウスやキーボード等の入力装置35と、ディスプレイ等の出力装置36と、CDドライブ、DVDドライブ等の読み書き装置37と、制御部30と他のユニットを接続するインターフェイス(I/F)38とを備える。
上記の記憶部302以外の各機能部は、例えば、CPU31がメモリー32に格納された所定のプログラムをメモリー32に読み出して実行することにより実現される。記憶部302は、例えば、メモリー32又は外部記憶装置33により実現される。なお、所定のプログラムは、例えば、予めメモリー32にインストールされてもよいし、通信装置34を介してネットワークからダウンロードされてインストール又は更新されてもよい。
以上のロボットシステム1の構成は、本実施形態の特徴を説明するにあたって主要構成を説明したのであって、上記の構成に限られない。例えば、ロボット10が撮影部20や制御部30を備えていてもよい。また、一般的なロボットシステムが備える構成を排除するものではない。
次に、本実施形態における、上記構成からなるロボットシステム1の特徴的な処理について説明する。
図9は、部品検出精度範囲情報302Aの生成に関する処理の流れを示すフローチャートである。この処理は、例えば、図示しないボタン等を介して作業開始指示が入力されることにより開始される。
撮影部20は、作業者等により作業領域50におかれたパターンボード51を撮影して画像21を取得する(ステップS100)。パターンボード51は、例えば図10に示すように、複数の点51Aが縦横方向に二次元配置された模様を有するものである。図10においては、縦方向に20個、横方向に23個の合計460個の点51Aが配置されている。460個の点51Aは、領域の解像度の算出(後に詳述する)に必要な数であるため、点51Aの数は460個以上である必要がある。なお、パターンボード51の模様は、ステップS100で撮影するパターンの一例であり、予め寸法が分かっている幾何パターンであれば様々な形態が考えられる。例えば、チェッカーフラッグパターンのような幾何パターンでもよい。
画像認識部301Dは、ステップS100で得られた画像21から点51Aを認識し、点51Aのそれぞれについて、画像21の領域1に含まれるパターンボード51上の座標値(x,y)及び画像21上の座標値(X,Y)を保持する。次に、部品検出精度範囲情報302Aの領域格納領域3021の個数を取得し、画像21の領域の総数Nを取得する(ステップS102)。部品検出精度範囲情報302Aは予め作業者等によって設定されているとする。本実施例ではN=9である。画像認識部301Dは、認識結果及びNの情報を精度設定部301Aに出力する。
精度設定部301Aは、i=1に設定する(ステップS104)。なお、iは領域の番号を示す。本実施の形態では、領域1〜9が設定されている(図11参照)ため、iは1〜9の値をとり得る。
精度設定部301Aは、画像21の各領域内に点51Aが何個含まれているか否かを示す情報(M)を取得する(ステップS106)。図11に示す画像21が撮影された場合には、各領域に点51Aが40〜50個程度含まれている。例えば、画像21の領域1の場合(i=1)は、精度設定部301AはM=48を取得する。
精度設定部301Aは、j=1に設定する(ステップS108)。なお、jはある領域に含まれる点51Aの番号を示す。本実施の形態では、画像21の各領域内で点51Aを画像左上から右方向へ走査するように番号付けする。
精度設定部301Aは、画像21に含まれる点51Aの座標値(Xij,Yij)を取得する(ステップS110)。なお、iは領域の番号を示し、jはある領域に含まれる点51Aの番号を示す。例えば、(X11、Y11)は、領域1に含まれる1個目の点51Aを意味する。
精度設定部301Aは、座標値(Xij,Yij)の解像度Δijを算出する(ステップS112)。以下、ステップS112の処理について説明する。
精度設定部301Aは、座標値(x,y)を算出する式(以下の数式1)を記憶部302から取得する。座標値(x,y)を算出する式は、パターンボード51上の点51Aの座標値(x,y)、画像21上の点51Aの座標値(X,Y)としたときに、数式(1)で表される。
Figure 2014061578
精度設定部301Aは、パターンボード51上の点51Aの座標値(x,y)及び画像21上の点51Aの座標値(X,Y)を数式1に代入して、a〜aを算出する。
精度設定部301Aは、数式(1)を微分した数式(2)を、解像度△を算出する式として記憶部302から取得する。
Figure 2014061578
精度設定部301Aは、画像21上の点51Aの座標値(X,Y)と、算出されたa〜aの値とを上記数式2に代入することにより、解像度△ijを算出する。
具体例を用いて説明する。図12に示すように、領域1に含まれる点51Aの座標値(X11,Y11)が、ステップS110で(X1,Y1)と取得される。また、図12に示すように、この点51Aのパターンボード上の座標値は、(x1,y1)である。パターンボード上の点51Aの座標値は、予め記憶部302に記憶しておけばよい。
まず、精度設定部301Aは、画像21の領域1に含まれるパターンボード51上の座標値(x1j,y1j)及び画像21上の座標値(X1j,Y1j)とを数式1に代入して、未知数a〜aを算出する(j=1〜48)。そして、精度設定部301Aは、求められた未知数a〜aと、座標値(X11,Y11)とを数式2に代入して、解像度△11を算出する。
精度設定部301Aは、ステップS112で算出された解像度△ijが、最小値△min_iより小さいか否かを判断する(ステップS114)。
解像度△ijが最小値△min_iより小さい場合(ステップS114でYES)には、解像度△ijが最小値△min_iに置き換えられる(ステップS116)。最小値△min_iは無限大に初期設定されているため、最初にもとめられた△ijは、必ず最小値△min_iに置き換えられる。
解像度△ijが、最小値△min_iより小さくない場合(ステップS114でNO)、及び解像度△ijが最小値△min_iに置き換えられた(ステップS116)場合には、精度設定部301Aは、jに1を追加し(ステップS118)、jがMより大きいか否かを判断する(ステップS120)。
jがMより大きくない場合(ステップS120でNO)には、再度ステップS110を行う。jがMより大きい場合(ステップS120でYES)には、ステップS122に進む。本実施の形態では、Mは48であるため、ステップS120はjが49となるまでYESとなる。
精度設定部301Aは、撮影部20が解像度が最小値△min_iである画像を撮影し、画像認識部301Dが画像認識した場合の検出限界を取得し、これを領域iの部品検出精度範囲として取得する(ステップS122)。様々な解像度の画像を撮影して得られた画像21を画像認識部301Dが画像認識した場合の検出限界を記憶部302に記憶させておき、精度設定部301Aは記憶部302に記憶された結果に基づいて部品検出精度範囲を取得することができる。また、精度設定部301Aは、複数の解像度の画像を撮影して得られた画像21を画像認識部301Dが画像認識した場合の検出限界を記憶部302に記憶させておき、これらの結果を線形補間等することにより、最小値△min_iである画像を撮影して得られた画像を画像認識部301Dが画像認識した場合の検出限界を取得することもできる。
精度設定部301Aは、iに1を追加し(ステップS124)、iがNより大きいか否か、すなわち画像21上のすべての領域に対して処理が終了したか否かを判断する(ステップS126)。
iがNより大きくない場合(ステップS126でNO)は、すべての領域に対して部品検出精度範囲が取得されていないため、精度設定部301Aは再度ステップS106を行う。iがNより大きい場合(ステップS126でYES)は、すべての領域に対して部品検出精度範囲が取得されたため、精度設定部301Aは処理を終了する。精度設定部301Aは、処理が終了したら、取得された部品検出精度範囲を領域と関連付けて記憶することにより、部品検出精度範囲情報302Aを生成する。
図13は、作業検出精度情報302Cの部品検出精度5027の生成に関する処理の流れを示すフローチャートである。この処理は、例えば、作業情報302Dが記憶部302に記憶され、かつ部品検出精度範囲情報302Aの生成に関する処理が終了されることにより、自動的に開始される。
作業精度決定部301Bは、記憶部302から部品検出精度情報302B及び作業情報302Dを取得する(ステップS200)。
作業精度決定部301Bは、iを1に設定する(ステップS202)。なお、iは作業番号を示す。作業精度決定部301Bは、組立作業iで使用する部品を作業情報302Dの部品格納領域3026から取得する(ステップS204)。
作業精度決定部301Bは、部品格納領域3026に記憶された組立作業iに用いる部品の種類の数Niを取得する(ステップS206)。本実施の形態において、iの1の場合には、作業1の部品は2つ(図7参照)であるため、Niは2である。
作業精度決定部301Bは、jを1に設定する(ステップS208)。作業精度決定部301Bは、部品jの部品検出精度Ajを部品検出精度情報302Bから取得する(ステップS210)。
作業精度決定部301Bは、ステップS210で取得された部品検出精度Ajが、組立作業iの検出精度Aiより小さいか否かを判断する(ステップS212)。
部品検出精度Ajが組立作業iの検出精度Aiより小さい場合(ステップS212でYES)には、組立作業iの検出精度Aiが部品検出精度Ajに置き換えられる(ステップS214)。組立作業iの検出精度Aiは無限大に初期設定されているため、最初に取得された部品検出精度Ajは、必ず組立作業iの検出精度Aiに置き換えられる。なお、組立作業iの検出精度Aiの初期設定は、無限大に限らず、最初に取得された部品検出精度Ajが置き換えられる程度の大きさの値であればよい。
部品検出精度Ajが組立作業iの検出精度Aiより小さくない場合(ステップS212でNO)、及び組立作業iの検出精度Aiが部品検出精度Ajに置き換えられた場合(ステップS214)には、作業精度決定部301Bは、jに1を追加し(ステップS216)、jがNiより大きいか否かを判断する(ステップS218)。
jがNiより大きくない場合(ステップS218でNO)には、作業精度決定部301Bは、再度ステップS210を行う。jがNiより大きい場合(ステップS218でYES)には、作業精度決定部301Bは、iに1を追加し(ステップS220)、iが作業工程数より大きいか否かを判断する(ステップS222)。作業工程数は、部品格納領域3026に記憶された「No.」の最大値と同一である。
iが作業工程数より大きくない場合(ステップS222でNO)には、作業精度決定部301Bは、再度ステップS204を行う。iが作業工程数より大きい場合(ステップS222でYES)には、すべての作業について検出精度が求められているため、処理を終了する。作業検出精度情報302Cは、作業情報302Dの部品格納領域3026と、算出された検出精度とを関連付けて記憶部302に記憶することで、作業検出精度格納領域3027を生成する。
図14は、作業検出精度情報302Cの領域格納領域3028の生成に関する処理の流れを示すフローチャートである。この処理は、例えば、作業検出精度情報302Cの部品検出精度5027の生成に関する処理が終了されることにより、自動的に開始される。
作業領域決定部301Cは、部品検出精度範囲情報302A及び図13に示す処理により算出された検出精度を記憶部302から取得する(ステップS300)。また、作業領域決定部301Cは、領域格納領域3021に基づいて領域の総数Mを取得する(ステップS302)。本実施の形態では、M=9(図4参照)である。
作業領域決定部301Cは、kを1に設定する(ステップS304)。なお、kは領域番号を示す。作業領域決定部301Cは、領域kの部品検出精度範囲を部品検出精度範囲格納領域3022から取得する(ステップS306)。
作業領域決定部301Cは、部品検出精度範囲情報302Aの部品検出精度範囲格納領域3022の情報に基づいて、図13に示す処理で算出された組立作業iの部品検出精度Aiが、領域kの部品検出精度範囲の上限、下限の範囲に含まれるか否かを判断する(ステップS308)。例えば、図13に示す処理において、作業1の検出精度の上限許容値が+1.5mm、下限許容値が−1.5mmと算出された(図6参照)場合には、図3に示す部品検出精度範囲格納領域3022を参照すると、上限許容値が+1.5mm以下、下限許容値が−1.5mm以下である領域は領域8である。したがって、作業領域決定部301Cは、作業1の部品検出精度範囲が、領域8の部品検出精度範囲の上限、下限の範囲に含まれると判断する。
作業領域決定部301Cは、組立作業iの部品検出精度Aiが、領域kの部品検出精度範囲の上限、下限の範囲に含まれる場合(ステップS308でYES)には、領域kを、組立作業iを行う領域と決定する(ステップS310)。例えば、作業1の部品検出精度範囲は、領域8の部品検出精度範囲の上限、下限の範囲に含まれるため、領域8については、ステップS308でYESと判定される。したがって、作業領域決定部301Cは、領域8を作業1を行う領域と決定する。その後、ステップS312へ進む。
作業領域決定部301Cは、組立作業iの部品検出精度Aiが、領域kの部品検出精度範囲の上限、下限の範囲に含まれない場合(ステップS308でNO)は、すべての作業の部品検出精度範囲が、領域kの部品検出精度範囲の上限、下限の範囲に含まれない場合である。例えば、領域1の部品検出精度範囲は、図3に示す部品検出精度範囲格納領域3022を参照すると、上限許容値が「+9.0mm」、下限許容値が「−9.0mm」である。しかしながら、作業1〜3の検出精度の上限許容値、下限許容値もこの許容値より小さい(図6参照)。したがって、領域1については、ステップS308でNOと判定される。この場合は、ステップS312に進む。
作業領域決定部301Cは、kに1を追加し(ステップS312)、kが領域の総数Mより大きいか否かを判断する(ステップS314)。kが領域の総数Mより大きくない場合(ステップS312でNO)には、作業領域決定部301Cは、再度ステップS306を行う。kが領域の総数Mより大きい場合(ステップS222でYES)には、すべての領域について行うことが可能な作業が求められているため、処理を終了する。
これにより、高い検出精度が必要な部品を用いる作業は、精度の高い領域で作業を行う等、作業に用いる部品に応じた精度の領域を作業に振り分けることができる。
作業領域決定部301Cは、作業情報302Dの部品格納領域3026と、ステップS308で決定された領域とを関連付けて記憶部302に記憶することで、領域格納領域3028を生成する。これにより、作業検出精度情報302Cが生成される。
図15は、ロボットシステム1のロボット10の作業に関する処理の流れを示すフローチャートである。この処理は、例えば、図示しないボタン等を介して作業開始指示が入力されることにより開始される。
作業制御部301Eは、作業情報302Dを記憶部302から取得し、各作業で用いる部品、作業内容、作業の総数Nを取得する(ステップS400)。作業制御部301Eは、iを1に設定する(ステップS402)。なお、iは作業番号を示す。
作業制御部301Eは、作業検出精度情報302Cを記憶部302から取得し、組立作業iを行う領域jを取得する(ステップS404)。
作業制御部301Eは、作業情報302Dを参照し、組立作業iで用いる部品を給材エリア41から領域jへ移動させるように動作制御部12へ指示を出力すると、動作制御部12は、画像認識部301Dの認識結果を常時参照しつつ、可動部11を移動させ、組立作業iで用いる部品を把持する(ステップS406)。
作業制御部301Eは、把持した部品を給材エリア41から領域jへ移動させるように動作制御部12へ指示を出力すると、動作制御部12は、画像認識部301Dの認識結果を常時参照しつつ、可動部11を移動させ、把持した部品を移動させて、作業領域50のうちの領域j内の任意の位置へ載置する(ステップS408)。
作業制御部301Eは、組立作業iで用いる全ての部品が、作業領域50のうちの領域j内の任意の位置に載置されたか否かを判断する(ステップS410)。部品がすべてそろっていない場合(ステップS410でNO)は、作業制御部301Eは、再度ステップS406を行う。
部品がすべてそろった場合(ステップS410でYES)は、作業制御部301Eは、作業情報302Dの作業手順格納領域3029に格納された情報に基づいて、作業領域50のうちの領域j内の任意の位置内で組立作業iを行うように動作制御部12へ指示を出力すると、動作制御部12は、指示に基づいて可動部11を移動させ、作業領域50のうちの領域j内で組立作業iを行う(ステップS412)。これにより、組立作業iに適した精度の領域jで組立作業iを行うことができる。
作業制御部301Eは、組立品を把持するように動作制御部12へ指示を出力すると、動作制御部12は、指示に基づいて可動部11を移動させ、作業後の組立品を把持する(ステップS414)。
作業制御部301Eは、把持した部品を組立品除材エリア42へ移動させるように動作制御部12へ指示を出力すると、動作制御部12は指示に基づいて可動部11を移動させ、把持した組立品を移動させて組立品除材エリア42へ載置する(ステップS416)。
作業制御部301Eは、iに1を追加し(ステップS418)、iが作業の総数Nより大きいか否かを判断する(ステップS420)。iが作業の総数Nより大きくない場合(ステップS420でNO)には、作業制御部301Eは、再度ステップS404を行う。iが作業の総数Nより大きい場合(ステップS420でYES)には、すべての領域について行うことが可能な作業が求められているため、処理を終了する。
本実施の形態によれば、作業内容に応じて、ロボットが作業する領域を変えることができる。すなわち、精度が必要な場合には精度のよい領域を用い、精度が不要な場合には精度の低い領域を用いるように、作業領域を使い分ける。これにより、作業領域を効率よく使うことができ、ロボット作業の高速化を実現することができる。また、精度が必要な場合には精度のよい領域を用いることで、ロボット作業の精密化を実現することができる。
なお、本実施の形態では、作業検出精度情報302Cの作業検出精度格納領域3027に格納される値は、部品格納領域3026に記憶された部品のうちの最も求められる精度が高い値、すなわち部品に依った値であるが、同じ部品を用いる場合であって作業内容によって要求される精度が異なる場合も考えられる。したがって、作業検出精度格納領域3027に格納される値を作業内容に応じて変えるようにしてもよい。例えば、ある部品の上に他の部品を乗せる作業は、精度は低くてもよいが、ねじ止め作業は精度が必要とされる。したがって、作業手順格納領域3029に格納された作業内容と、要求される精度との関係を示す情報を記憶部302に記憶させておき、これに基づいて作業検出精度格納領域3027に格納される値を変えてもよい。
また、本実施の形態では、全ての作業について作業可能な領域があったが、高い精度が要求される場合には作業可能な領域がない可能性もあり得る。作業検出精度情報302Cが生成されたときに、領域格納領域3028に領域が格納されない作業がある場合には、当該作業を行う場合(図15参照)に、主制御部301が、ロボット作業ができないことを示すエラー出力を出力装置36を介して行うようにしてもよい。
また、本実施の形態では、精度設定部301Aは、部品検出精度範囲情報を作業領域50に設定された複数の領域毎に設定し、これを部品検出精度範囲情報302Aとして記憶部302に記憶したが、本発明の処理は、部品検出精度範囲情報302Aが記憶部302に記憶されていればよい。例えば、図示しない他の装置等から部品検出精度範囲情報302Aを取得し、これを部品検出精度範囲情報302Aとして記憶部302に記憶してもよい。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に多様な変更または改良を加えることが可能であることが当業者には明らかである。また、そのような変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。特に、本発明は、ロボットと、制御部及び撮影部とが別に設けられたロボットシステムに限らず、ロボットに制御部及び撮影部が含まれたロボットとして提供することもできるし、制御部及び撮影部からなる制御装置として提供することもできる。また、本発明は、ロボット等を制御するプログラムやプログラムを記憶した記憶媒体として提供することもできる。
1:ロボットシステム、10:ロボット、11:可動部、11A:ジョイント、11B:リンク、11C:ハンド、12:動作制御部、20:撮影部、21:画像、29:撮影部、30:制御部、31:CPU、32:メモリー、33:外部記憶装置、34:通信装置、35:入力装置、36:出力装置、37:読み書き装置、40:作業台、41:給材エリア、42:組立品除材エリア、50:作業領域、51:パターンボード、301:主制御部、301A:精度設定部、301B:作業精度決定部、301C:作業領域決定部、301D:画像認識部、301E:作業制御部、302:記憶部、302A:部品検出精度範囲情報、302B:部品検出精度情報、302C:作業検出精度情報、302D:作業情報、303:画像取得部、3021:領域格納領域、3022:部品検出精度範囲格納領域、3023:作業範囲情報格納領域、3024:部品情報格納領域、3025:部品検出精度格納領域、3026:部品格納領域、3027:作業検出精度格納領域、3028:領域格納領域、3029:作業手順格納領域

Claims (9)

  1. 複数のリンク及びジョイントを有するアームと、
    前記アームの先端に設けられたエンドエフェクターと、
    前記エンドエフェクターの作業領域を撮影した画像を取得する画像取得部と、
    前記取得された画像から対象物を認識する画像認識部と、
    前記認識された対象物の検出精度であって、前記画像を分割して設定された複数の領域毎の検出精度を取得する精度取得部と、
    前記エンドエフェクターが行う第1の作業に用いる部品と、当該第1の作業に必要な精度とを関連付けた精度情報を取得する情報取得部と、
    前記取得された複数の領域毎の検出精度と、前記取得された精度情報とに基づいて、前記第1の作業を前記複数の領域のうちのどの領域で作業を行うかを決定する決定部と、
    前記画像認識部により認識された結果に基づいて前記アーム及び前記エンドエフェクターを制御する制御部と、
    を備え、
    前記画像認識部は、前記第1の作業に用いる部品及び前記エンドエフェクターを前記対象物として認識し、
    前記制御部は、前記第1の作業に用いる部品を前記決定部により決定された領域に搬送し、前記決定された領域内で前記第1の作業を行うように前記アーム及び前記エンドエフェクターを制御する
    ことを特徴とするロボット。
  2. 請求項1に記載のロボットにおいて、
    前記複数の領域毎の検出精度を設定する精度設定部を備え、
    前記画像取得部は、所定の模様を撮影した画像を取得し、
    前記画像認識部は、前記画像に含まれる模様を認識し、
    前記精度設定部は、前記所定の模様と、前記認識された模様とを比較することにより検出精度を設定し、
    前記精度取得部は、前記精度設定部が設定した精度を取得する
    ことを特徴とするロボット。
  3. 請求項1又は2に記載のロボットにおいて、
    部品と、当該部品を取り扱うときに求められる精度とが関連付けられた部品情報を取得する部品情報取得部と、
    前記取得された部品情報に基づいて前記第1の作業に用いる部品の各部品に必要な精度を取得し、前記取得された精度のうちの最も高い精度を前記第1の作業に必要な精度として選択し、当該選択された精度を、前記第1の作業に用いる部品と関連付けて精度情報を生成する精度情報生成部と、を備え、
    前記情報取得部は、前記生成された精度情報を取得する
    ことを特徴とするロボット。
  4. 請求項3に記載のロボットにおいて、
    前記第1の作業の作業内容を取得する作業内容取得手段を備え、
    前記精度情報生成部は、取得された作業内容に基づいて前記第1の作業に必要な精度を生成する
    ことを特徴とするロボット。
  5. 請求項1から4のいずれか一項に記載のロボットにおいて、
    前記画像取得部は、前記ロボットの上方に設けられた撮影部が撮影した画像を取得し、
    前記作業領域は、矩形形状の領域であり、
    前記複数の領域は、前記画像を縦方向及び横方向をそれぞれ均等に複数個に分割することにより設定される
    ことを特徴とするロボット。
  6. アームと、前記アームの先端に設けられたエンドエフェクターとを有するロボットと、
    前記エンドエフェクターの作業領域を撮影する撮影部と、
    前記撮影された画像から対象物を認識する画像認識部と、
    前記認識された対象物の検出精度であって、前記画像を分割して設定された複数の領域毎の検出精度を取得する精度取得部と、
    前記エンドエフェクターが行う第1の作業に用いる部品と、当該第1の作業に必要な精度とを関連付けた精度情報を記憶する記憶部と、
    前記取得された複数の領域毎の検出精度と、前記記憶された精度情報とに基づいて、前記第1の作業を前記複数の領域のうちのどの領域で作業を行うかを決定する決定部と、
    前記画像認識部により認識された結果に基づいて前記アーム及び前記エンドエフェクターを制御する制御部と、
    を備え、
    前記画像認識部は、前記第1の作業に用いる部品及び前記エンドエフェクターを前記対象物として認識し、
    前記制御部は、前記第1の作業に用いる部品を前記決定部により決定された領域に搬送し、前記決定された領域内で前記第1の作業を行うように前記アーム及び前記エンドエフェクターを制御する
    ことを特徴とするロボットシステム。
  7. ロボットの作業領域を撮影した画像を取得する画像取得部と、
    前記取得された画像から対象物を認識する画像認識部と、
    前記認識された対象物の検出精度であって、前記画像を分割して設定された複数の領域毎の検出精度を取得する精度取得部と、
    前記ロボットが行う第1の作業に用いる部品と、当該第1の作業に必要な精度とを関連付けた精度情報を取得する情報取得部と、
    前記取得された複数の領域毎の検出精度と、前記取得された精度情報とに基づいて、前記第1の作業を前記複数の領域のうちのどの領域で作業を行うかを決定する決定部と、
    前記画像認識部により認識された結果に基づいて前記ロボットを制御する制御部と、
    を備え、
    前記画像認識部は、前記第1の作業に用いる部品及び前記ロボットの可動部を前記対象物として認識し、
    前記制御部は、前記第1の作業に用いる部品を前記決定部により決定された領域に搬送し、前記決定された領域内で前記第1の作業を行うように前記ロボットを制御する
    ことを特徴とするロボット制御装置。
  8. ロボットの作業領域を撮影した画像を取得するステップと、
    前記取得された画像から対象物を認識するステップと、
    前記認識された対象物の検出精度であって、前記画像を分割して設定された複数の領域毎の検出精度を取得するステップと、
    前記ロボットが行う第1の作業に用いる部品と、当該第1の作業に必要な精度とを関連付けた精度情報を取得するステップと、
    前記取得された複数の領域毎の検出精度と、前記取得された精度情報とに基づいて、前記第1の作業を前記複数の領域のうちのどの領域で作業を行うかを決定するステップと、
    前記第1の作業に用いる部品と前記ロボットの可動部を前記対象物として認識するステップと、
    前記対象物を認識した結果に基づいて、前記第1の作業に用いる部品を前記決定された領域に搬送し、前記決定された領域内で前記第1の作業を行うように前記ロボットを制御するステップと、
    を含むことを特徴とするロボット制御方法。
  9. ロボットの作業領域を撮影した画像を取得するステップと、
    前記取得された画像から対象物を認識するステップと、
    前記認識された対象物の検出精度であって、前記画像を分割して設定された複数の領域毎の検出精度を取得するステップと、
    前記ロボットが行う第1の作業に用いる部品と、当該第1の作業に必要な精度とを関連付けた精度情報を取得するステップと、
    前記取得された複数の領域毎の検出精度と、前記取得された精度情報とに基づいて、前記第1の作業を前記複数の領域のうちのどの領域で作業を行うかを決定するステップと、
    前記第1の作業に用いる部品と前記ロボットの可動部を前記対象物として認識するステップと、
    前記対象物を認識した結果に基づいて、前記第1の作業に用いる部品を前記決定された領域に搬送し、前記決定された領域内で前記第1の作業を行うように前記ロボットを制御するステップと、
    を演算装置に実行させることを特徴とするプログラム。
JP2012209258A 2012-09-24 2012-09-24 ロボット、ロボットシステム、ロボット制御装置、ロボット制御方法及びプログラム Withdrawn JP2014061578A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012209258A JP2014061578A (ja) 2012-09-24 2012-09-24 ロボット、ロボットシステム、ロボット制御装置、ロボット制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012209258A JP2014061578A (ja) 2012-09-24 2012-09-24 ロボット、ロボットシステム、ロボット制御装置、ロボット制御方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2014061578A true JP2014061578A (ja) 2014-04-10

Family

ID=50617320

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012209258A Withdrawn JP2014061578A (ja) 2012-09-24 2012-09-24 ロボット、ロボットシステム、ロボット制御装置、ロボット制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2014061578A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107924175A (zh) * 2015-07-23 2018-04-17 X开发有限责任公司 用于确定工作偏移的系统和方法
CN111899629A (zh) * 2020-08-04 2020-11-06 菲尼克斯(南京)智能制造技术工程有限公司 柔性机器人教学系统和方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04344503A (ja) * 1991-05-21 1992-12-01 Sony Corp ロボットの数値制御装置
JPH05277973A (ja) * 1991-12-25 1993-10-26 Sanyo Electric Co Ltd マニピュレータのキャリブレーション方法
JP2004007302A (ja) * 2002-06-03 2004-01-08 Fuji Photo Film Co Ltd 撮像装置
JP2006330771A (ja) * 2005-05-23 2006-12-07 Hitachi Zosen Corp 撮影画像における歪曲収差補正方法
JP2012030320A (ja) * 2010-07-30 2012-02-16 Dainippon Screen Mfg Co Ltd 作業システム、作業ロボット制御装置および作業プログラム
JP2012030350A (ja) * 2010-06-28 2012-02-16 Canon Inc 組立装置及び生産システム
JP2012071394A (ja) * 2010-09-29 2012-04-12 Dainippon Screen Mfg Co Ltd シミュレーションシステムおよびそのためのシミュレーションプログラム
JP2012091280A (ja) * 2010-10-27 2012-05-17 Mitsubishi Electric Corp 座標系校正方法及びロボットシステム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04344503A (ja) * 1991-05-21 1992-12-01 Sony Corp ロボットの数値制御装置
JPH05277973A (ja) * 1991-12-25 1993-10-26 Sanyo Electric Co Ltd マニピュレータのキャリブレーション方法
JP2004007302A (ja) * 2002-06-03 2004-01-08 Fuji Photo Film Co Ltd 撮像装置
JP2006330771A (ja) * 2005-05-23 2006-12-07 Hitachi Zosen Corp 撮影画像における歪曲収差補正方法
JP2012030350A (ja) * 2010-06-28 2012-02-16 Canon Inc 組立装置及び生産システム
JP2012030320A (ja) * 2010-07-30 2012-02-16 Dainippon Screen Mfg Co Ltd 作業システム、作業ロボット制御装置および作業プログラム
JP2012071394A (ja) * 2010-09-29 2012-04-12 Dainippon Screen Mfg Co Ltd シミュレーションシステムおよびそのためのシミュレーションプログラム
JP2012091280A (ja) * 2010-10-27 2012-05-17 Mitsubishi Electric Corp 座標系校正方法及びロボットシステム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107924175A (zh) * 2015-07-23 2018-04-17 X开发有限责任公司 用于确定工作偏移的系统和方法
JP2018522354A (ja) * 2015-07-23 2018-08-09 エックス デベロップメント エルエルシー ワークオフセットを決定するシステムおよび方法
US10456914B2 (en) 2015-07-23 2019-10-29 X Development Llc System and method for determining a work offset
CN111899629A (zh) * 2020-08-04 2020-11-06 菲尼克斯(南京)智能制造技术工程有限公司 柔性机器人教学系统和方法

Similar Documents

Publication Publication Date Title
CN110154017B (zh) 输送机跟踪系统以及校准方法
US10675759B2 (en) Interference region setting apparatus for mobile robot
CN105269578B (zh) 指示装置以及机器人系统
JP5911934B2 (ja) 輪郭線計測装置およびロボットシステム
JP6505729B2 (ja) 視覚センサを用いるロボットシステムのための自動較正方法
JP2012192466A (ja) 画像処理システムに向けられたユーザ支援装置、そのプログラムおよび画像処理装置
JP5928114B2 (ja) ロボットシステム、ロボットシステムのキャリブレーション方法、ロボット
JP5371927B2 (ja) 座標系校正方法及びロボットシステム
JP2008021092A (ja) ロボットシステムのシミュレーション装置
JP2018111165A (ja) 視覚センサのキャリブレーション装置、方法及びプログラム
JP2017042859A (ja) ピッキングシステム、並びに、そのための処理装置、方法及びプログラム
US11590657B2 (en) Image processing device, control method thereof, and program storage medium
JP2016078195A (ja) ロボットシステム、ロボット、制御装置及びロボットの制御方法
JP2020012669A (ja) 物体検査装置、物体検査システム、及び検査位置を調整する方法
JP2014142814A (ja) 生産システム、ロボット、制御装置、生産方法及び制御プログラム
JP2012071394A (ja) シミュレーションシステムおよびそのためのシミュレーションプログラム
JP6390088B2 (ja) ロボット制御システム、ロボット、プログラム及びロボット制御方法
JP2019195885A (ja) 制御装置およびロボットシステム
JP2006224291A (ja) ロボットシステム
JP2014061578A (ja) ロボット、ロボットシステム、ロボット制御装置、ロボット制御方法及びプログラム
JP2018122376A (ja) 画像処理装置、ロボット制御装置、及びロボット
JP2007171018A (ja) 物体位置認識方法及び物体位置認識装置
JP2020091126A (ja) 計測装置、システム、表示方法及びプログラム
JP7199101B2 (ja) ロボット制御システム、ロボット制御装置、ロボット制御方法及びプログラム
JP6220514B2 (ja) ロボット制御システムおよびロボット制御方法

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160510

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20160608

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160610

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160624