JP2018043320A - 制御装置、ロボットおよびロボットシステム - Google Patents
制御装置、ロボットおよびロボットシステム Download PDFInfo
- Publication number
- JP2018043320A JP2018043320A JP2016180254A JP2016180254A JP2018043320A JP 2018043320 A JP2018043320 A JP 2018043320A JP 2016180254 A JP2016180254 A JP 2016180254A JP 2016180254 A JP2016180254 A JP 2016180254A JP 2018043320 A JP2018043320 A JP 2018043320A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- movable
- control device
- corner
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0081—Programme-controlled manipulators with master teach-in means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1633—Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1687—Assembly, peg and hole, palletising, straight line, weaving pattern movement
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/42—Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
- G05B19/423—Teaching successive positions by walk-through, i.e. the tool head or end effector being grasped and guided directly, with or without servo-assistance, to follow a path
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40032—Peg and hole insertion, mating and joining, remote center compliance
Abstract
【課題】ロボットの教示を容易、迅速かつ適確に行うことができる制御装置、ロボットおよびロボットシステムを提供すること。【解決手段】可動部と、前記可動部に設けられた力検出部とを有するロボットを制御する制御装置であって、前記力検出部からの出力に基づいて、第1対象物の第1部分と第2対象物との接触を検知した後、前記第1対象物の第2部分と前記第2対象物との接触を検知し、前記可動部を第1方向に移動させ、前記第1対象物の第3部分と前記第2対象物との接触を検知し、第1情報を記憶部に記憶し、前記可動部を第2方向に移動させ、前記第1対象物の第4部分と前記第2対象物との接触を検知し、第2情報を前記記憶部に記憶し、前記第1情報および前記第2情報に基づいて、前記可動部の教示データを生成する制御部を備えることを特徴とする制御装置。【選択図】図1
Description
本発明は、制御装置、ロボットおよびロボットシステムに関するものである。
従来から、ロボットアームと、ロボットアームの先端に取り付けられたエンドエフェクターとを備えた産業用ロボットが知られている。かかるロボットは、対象物の把持、搬送および組立等の各種作業を行う。
このようなロボットは、実際に作業を行う前に、制御装置によって教示(ティーチング)が行われる。例えば、エンドエフェクターであるハンドにより対象物を把持し、複数の凹部を有するパレットの前記凹部に、前記対象物を配置するパレタイズと呼ばれる工程を有する作業を行うロボットでは、そのロボットアームに対し、パレットの各凹部の位置について、それぞれ、教示が行われる(例えば、特許文献1の従来の技術の欄参照)。このロボットの教示は、作業者が、目視しつつ、ロボットを操作し、ロボットアームを少しずつ移動させて行っている。また、作業領域における複数の基準点を教示し、その基準点からパレタイズ点を算出して教示を行う方法もある(例えば、特許文献1参照)。いずれにしても、作業者が目視でロボットの教示を行っている。
従来の制御装置では、ロボットの教示を作業者が目視で行っているので、その教示には作業者によりバラツキがあり、また、適確に教示できない場合がある。また、パレットの凹部と対象物との間の隙間が小さいと、教示が困難になる。また、目視するためのスペースがないと教示を行うことができない。また、ロボットの教示に多大な労力と長い時間を要するという問題がある。
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態または適用例として実現することが可能である。
本発明の制御装置は、可動部と、前記可動部に設けられた力検出部とを有するロボットを制御する制御装置であって、
前記可動部により第1対象物の第1部分を第2対象物に接近させて、前記力検出部からの出力に基づいて前記第1部分と前記第2対象物との接触を検知した後、前記第1対象物の第2部分を前記第2対象物に接近させて、前記力検出器からの出力に基づいて前記第2部分と前記第2対象物との接触を検知し、前記可動部を第1方向に移動させ、前記力検出部からの出力に基づいて前記第1対象物の第3部分と前記第2対象物との接触を検知し、前記第1対象物の第1位置を有する第1情報を記憶部に記憶させ、前記可動部を前記第1方向と異なる第2方向に移動させ、前記力検出部からの出力に基づいて前記第1対象物の第4部分と前記第2対象物との接触を検知し、前記第1対象物の第2位置を有する第2情報を前記記憶部に記憶させ、前記記憶部に記憶された前記第1情報および前記第2情報に基づいて、前記可動部の教示データを生成する制御部を備えることを特徴とする。
前記可動部により第1対象物の第1部分を第2対象物に接近させて、前記力検出部からの出力に基づいて前記第1部分と前記第2対象物との接触を検知した後、前記第1対象物の第2部分を前記第2対象物に接近させて、前記力検出器からの出力に基づいて前記第2部分と前記第2対象物との接触を検知し、前記可動部を第1方向に移動させ、前記力検出部からの出力に基づいて前記第1対象物の第3部分と前記第2対象物との接触を検知し、前記第1対象物の第1位置を有する第1情報を記憶部に記憶させ、前記可動部を前記第1方向と異なる第2方向に移動させ、前記力検出部からの出力に基づいて前記第1対象物の第4部分と前記第2対象物との接触を検知し、前記第1対象物の第2位置を有する第2情報を前記記憶部に記憶させ、前記記憶部に記憶された前記第1情報および前記第2情報に基づいて、前記可動部の教示データを生成する制御部を備えることを特徴とする。
このような本発明の制御装置によれば、ロボットの教示を容易、迅速かつ適確に行うことができる。これにより、本発明の制御装置により制御されるロボットは、適確に作業を行うことができる。
本発明の制御装置では、前記第2方向は、前記第1方向と反対方向であることが好ましい。
これにより、ロボットの教示を容易、迅速かつ適確に行うことができる。
これにより、ロボットの教示を容易、迅速かつ適確に行うことができる。
本発明の制御装置では、前記可動部が前記第1方向に移動している間、前記第1部分および前記第2部分と前記第2対象物は接触していることが好ましい。
これにより、ロボットの教示を容易、迅速かつ適確に行うことができる。
これにより、ロボットの教示を容易、迅速かつ適確に行うことができる。
本発明の制御装置では、前記第2対象物は、パレットであることが好ましい。
これにより、パレットに第1対象物を配置したり、パレットに配置されている第1対象物を取り出す作業におけるロボットの教示を容易、迅速かつ適確に行うことができる。
これにより、パレットに第1対象物を配置したり、パレットに配置されている第1対象物を取り出す作業におけるロボットの教示を容易、迅速かつ適確に行うことができる。
本発明の制御装置では、前記第1対象物の前記第3部分は、前記第1対象物の第1側面であることが好ましい。
これにより、ロボットの教示を容易、迅速かつ適確に行うことができる。
これにより、ロボットの教示を容易、迅速かつ適確に行うことができる。
本発明の制御装置では、前記第1対象物の前記第4部分は、前記第1対象物の前記第1側面とは異なる前記第1対象物の第2側面であることが好ましい。
これにより、ロボットの教示を容易、迅速かつ適確に行うことができる。
これにより、ロボットの教示を容易、迅速かつ適確に行うことができる。
本発明の制御装置では、前記第2対象物は、内側の側面に第1角部および前記第1角部とは異なる第2角部を有する凹部を備え、
前記第2対象物の前記第3部分と接触する部分は、前記第1角部であり、
前記第2対象物の前記第4部分と接触する部分は、前記第2角部であることが好ましい。
前記第2対象物の前記第3部分と接触する部分は、前記第1角部であり、
前記第2対象物の前記第4部分と接触する部分は、前記第2角部であることが好ましい。
これにより、第2対象物の第1角部に第1対象物を容易、迅速かつ適確に接触させることができ、また、第2対象物の第2角部に第1対象物を容易、迅速かつ適確に接触させることができる。
本発明の制御装置では、前記第1対象物は、外側の側面に第1角部および前記第1角部とは異なる第2角部を有し、
前記第1対象物の前記第3部分は、前記第1角部であり、
前記第1対象物の前記第4部分は、前記第2角部であることが好ましい。
前記第1対象物の前記第3部分は、前記第1角部であり、
前記第1対象物の前記第4部分は、前記第2角部であることが好ましい。
これにより、第2対象物の第1角部に第1対象物の第1角部を容易、迅速かつ適確に接触させることができ、また、第2対象物の第2角部に第1対象物の第2角部を容易、迅速かつ適確に接触させることができる。
本発明の制御装置では、前記第2対象物は、複数の凹部を備え、
前記制御部は、前記複数の凹部のうちの少なくとも3つの前記凹部について、前記第1情報および前記第2情報を取得し、前記第1情報および前記第2情報に基づいて、前記可動部の教示データを生成し、
前記複数の凹部のうちの前記可動部の教示データを求めた凹部とは異なる前記凹部について、前記可動部の教示データを求めた凹部についての前記教示データに基づいて、前記可動部の教示データを生成することが好ましい。
前記制御部は、前記複数の凹部のうちの少なくとも3つの前記凹部について、前記第1情報および前記第2情報を取得し、前記第1情報および前記第2情報に基づいて、前記可動部の教示データを生成し、
前記複数の凹部のうちの前記可動部の教示データを求めた凹部とは異なる前記凹部について、前記可動部の教示データを求めた凹部についての前記教示データに基づいて、前記可動部の教示データを生成することが好ましい。
これにより、複数の凹部のうちの少なくとも3つの凹部についてロボットの教示を行えばよく、これによって、ロボットの教示をより容易かつ迅速に行うことができる。
本発明の制御装置では、前記制御部は、ローカル座標系を設定する機能を有し、前記第2対象物の所定の面に直交する軸を有するローカル座標系を設定することが好ましい。
これにより、実際の作業において、ロボットの制御を容易に行うことができる。
これにより、実際の作業において、ロボットの制御を容易に行うことができる。
本発明の制御装置では、前記ロボットに対しダイレクトティーチを行って前記可動部を移動させた後、前記制御部は、前記可動部により前記第1部分を前記第2対象物に接近させることが好ましい。
これにより、ロボットの教示をより迅速に行うことができる。
これにより、ロボットの教示をより迅速に行うことができる。
本発明の制御装置は、可動部と、前記可動部に設けられた力検出部とを有するロボットを制御する制御装置であって、
前記可動部により第1対象物の第1部分を第2対象物に接近させて、前記力検出部からの出力に基づいて前記第1部分と前記第2対象物との接触を検知した後、前記第1対象物の第2部分を前記第2対象物に接近させて、前記力検出器からの出力に基づいて前記第2部分と前記第2対象物との接触を検知し、前記可動部を第1方向に移動させ、前記力検出部からの出力に基づいて前記可動部の第1部分と前記第2対象物との接触を検知し、前記可動部の第1位置を有する第1情報を記憶部に記憶させ、前記可動部を前記第1方向と異なる第2方向に移動させ、前記力検出部からの出力に基づいて前記可動部の第2部分と前記第2対象物との接触を検知し、前記可動部の第2位置を有する第2情報を前記記憶部に記憶させ、前記記憶部に記憶された前記第1情報および前記第2情報に基づいて、前記可動部の教示データを生成する制御部を備えることを特徴とする。
前記可動部により第1対象物の第1部分を第2対象物に接近させて、前記力検出部からの出力に基づいて前記第1部分と前記第2対象物との接触を検知した後、前記第1対象物の第2部分を前記第2対象物に接近させて、前記力検出器からの出力に基づいて前記第2部分と前記第2対象物との接触を検知し、前記可動部を第1方向に移動させ、前記力検出部からの出力に基づいて前記可動部の第1部分と前記第2対象物との接触を検知し、前記可動部の第1位置を有する第1情報を記憶部に記憶させ、前記可動部を前記第1方向と異なる第2方向に移動させ、前記力検出部からの出力に基づいて前記可動部の第2部分と前記第2対象物との接触を検知し、前記可動部の第2位置を有する第2情報を前記記憶部に記憶させ、前記記憶部に記憶された前記第1情報および前記第2情報に基づいて、前記可動部の教示データを生成する制御部を備えることを特徴とする。
このような本発明の制御装置によれば、ロボットの教示を容易、迅速かつ適確に行うことができる。これにより、本発明の制御装置により制御されるロボットは、適確に作業を行うことができる。
本発明のロボットは、本発明の制御装置により制御され、前記可動部および前記力検出部を備えることを特徴とする。
このような本発明のロボットを制御する制御装置は、ロボットの教示を容易、迅速かつ適確に行うことができる。これにより、本発明のロボットは、適確に作業を行うことができる。
本発明のロボットシステムは、本発明の制御装置と、
前記制御装置によって制御され、前記可動部および前記力検出部を有する前記ロボットと、を備えることを特徴とする。
前記制御装置によって制御され、前記可動部および前記力検出部を有する前記ロボットと、を備えることを特徴とする。
このような本発明のロボットシステムの制御装置によれば、ロボットの教示を容易、迅速かつ適確に行うことができる。これにより、本発明のロボットシステムのロボットは、適確に作業を行うことができる。
以下、本発明の制御装置、ロボットおよびロボットシステムを添付図面に示す実施形態に基づいて詳細に説明する。
<第1実施形態>
≪ロボットシステム≫
まず、本発明のロボットシステムの第1実施形態について説明する。図1は、本発明のロボットシステムの第1実施形態を示す概略側面図である。図2は、図1に示すロボットシステムのブロック図である。図3は、図1に示すロボットシステムのロボットが行う作業に用いられる第1対象物を示す平面図である。図4は、図1に示すロボットシステムのロボットが行う作業に用いられる第1対象物の凹部および第2対象物を示す平面図である。図5〜図10は、それぞれ、図1に示すロボットシステムのロボットの教示を説明するための図である。図11および図12は、それぞれ、図1に示すロボットシステムのロボットの教示の際の制御装置の制御動作および作業者の作業を示すフローチャートである。
≪ロボットシステム≫
まず、本発明のロボットシステムの第1実施形態について説明する。図1は、本発明のロボットシステムの第1実施形態を示す概略側面図である。図2は、図1に示すロボットシステムのブロック図である。図3は、図1に示すロボットシステムのロボットが行う作業に用いられる第1対象物を示す平面図である。図4は、図1に示すロボットシステムのロボットが行う作業に用いられる第1対象物の凹部および第2対象物を示す平面図である。図5〜図10は、それぞれ、図1に示すロボットシステムのロボットの教示を説明するための図である。図11および図12は、それぞれ、図1に示すロボットシステムのロボットの教示の際の制御装置の制御動作および作業者の作業を示すフローチャートである。
なお、以下では、説明の便宜上、図1、図5、図7および図9中の上側を「上」、下側を「下」と言う。また、図1中の基台側を「基端」、その反対側(ハンド側)を「先端」と言う。
また、図1では、説明の便宜上、互いに直交する3軸として、x軸、y軸およびz軸を図示している。本実施形態では、図1に示すx軸、y軸およびz軸は、ベース座標系を示している。また、説明の便宜上、このベース座標系のx軸およびy軸は、第1対象物の2辺(第1対象物の凹部の底面の2辺)に平行であり、z軸は、第1対象物の凹部の底面に直交しているものとする。また、以下では、x軸に平行な方向を「x軸方向」とも言い、y軸に平行な方向を「y軸方向」とも言い、z軸に平行な方向を「z軸方向」とも言う。また、以下では、図示された各矢印の先端側を「+(プラス)」、基端側を「−(マイナス)」といい、+x軸方向に平行な方向を「+x軸方向」とも言い、−x軸方向に平行な方向を「−x軸方向」とも言い、+y軸方向に平行な方向を「+y軸方向」とも言い、−y軸方向に平行な方向を「−y軸方向」とも言い、+z軸方向に平行な方向を「+z軸方向」とも言い、−z軸方向に平行な方向を「−z軸方向」とも言う。
また、図1の上下方向を「鉛直方向」とし、左右方向を「水平方向」とする。本明細書において、「水平」とは、水平に対して5°以下の範囲内で傾斜している場合も含む。同様に、本明細書において、「鉛直」とは、鉛直に対して5°以下の範囲内で傾斜している場合も含む。
また、図5、図7および図9では、ロボットは、第6アームおよびハンドのみが図示されている(図14も同様)。
図1に示すロボットシステム100は、ロボット1と、ロボット1を制御する制御装置5とを備えている。このロボットシステム100は、例えば腕時計や携帯電話のような精密機器やその部品等を製造する製造工程等で用いることができる。
〈ロボット〉
ロボット1は、本実施形態では、後述するハンド30で第1対象物9を把持し、第1対象物9を第2対象物8の後述する凹部81の中央部に配置したり、凹部81の中央部に配置されている第1対象物9をハンド30で把持して取り出す作業を行う。
ロボット1は、本実施形態では、後述するハンド30で第1対象物9を把持し、第1対象物9を第2対象物8の後述する凹部81の中央部に配置したり、凹部81の中央部に配置されている第1対象物9をハンド30で把持して取り出す作業を行う。
また、ロボット1は、6軸の垂直多関節ロボットである。このロボット1は、基台110と、可動部123と、可動部123に設けられた力検出部20とを有している(備えている)。可動部123は、基台110に接続されたロボットアーム(マニピュレーター)10と、エンドエフェクターの1例であるハンド30とを有している。また、力検出部20は、ロボットアーム10の先端部に設けられ、ハンド30は、力検出部20の先端部に設けられている。すなわち、力検出部20は、ロボットアーム10の先端部とハンド30の基端部との間に配置されている。また、図2に示すように、ロボット1は、複数の駆動源130および複数のモータードライバー120を備えている。
図1に示すように、本実施形態では、ロボット1は、例えば床等の設置箇所70に設置された作業台71の上面である作業面710上に設置されている。また、作業台71は、作業面710が水平面と平行になるように設置されている。
ロボットアーム10は、第1アーム11(アーム)と、第2アーム12(アーム)と、第3アーム13(アーム)と、第4アーム14(アーム)と、第5アーム15(アーム)と、第6アーム16(アーム)とを備えている。第1アーム11と第2アーム12と第3アーム13と第4アーム14と第5アーム15と第6アーム16とは、基端側から先端側に向ってこの順に連結されている。第1アーム11は、作業面710上に取り付けられた基台110に接続されている。
基台110と第1アーム11とは、関節を介して連結されており、第1アーム11は、基台110に対して鉛直方向に沿う第1回動軸O1まわりに回動可能となっている。また、第1アーム11と第2アーム12とは、関節を介して連結されており、第2アーム12は、第1アーム11に対して水平方向に沿う第2回動軸O2まわりに回動可能となっている。また、第2アーム12と第3アーム13とは、関節を介して連結されており、第3アーム13は、第2アーム12に対して水平方向に沿う第3回動軸O3まわりに回動可能となっている。また、第3アーム13と第4アーム14とは、関節を介して連結されており、第4アーム14は、第3アーム13に対して第3回動軸O3と直交した第4回動軸O4まわりに回動可能となっている。また、第4アーム14と第5アーム15とは、関節を介して連結されており、第5アーム15は、第4アーム14に対して第4回動軸O4と直交した第5回動軸O5まわりに回動可能となっている。また、第5アーム15と第6アーム16とは、関節を介して連結されており、第6アーム16は、第5アーム15に対して第5回動軸O5と直交した第6回動軸O6まわりに回動可能となっている。
また、基台110と第1アーム11との間の関節、第1アーム11と第2アーム12との間の関節、第2アーム12と第3アーム13との間の関節、第3アーム13と第4アーム14との間の関節、第4アーム14と第5アーム15との間の関節、第5アーム15と第6アーム16との間の関節には、それぞれ、サーボモーター等のモーターおよび減速機を有する駆動源130が設けられている(図2参照)。すなわち、ロボット1は、アーム11〜16と同じ数(本実施形態では6つ)の駆動源130を有している。また、ロボット1は、アーム11〜16と同じ数(本実施形態では6つ)のモータードライバー120を有している。各アーム11〜16は、それぞれ、対応する駆動源130に電気的に接続されたモータードライバー120を介して制御装置5により制御される。以下、前記各関節を「各アーム11〜16の関節」とも言う。
また、各駆動源130には、例えば、エンコーダー等の角度センサー(図示せず)が設けられている。これにより、各駆動源130が有するモーターまたは減速機の回転軸の回転角度を検出することができる。
図1に示すように、第6アーム16の先端部には、力検出部20が着脱可能に取り付けられている。力検出部20は、ハンド30(可動部123)に加わる力やモーメントを検出する力検出器である。本実施形態では、力検出部20として、互いに直交する3つの軸の軸方向の並進力成分Fx、Fy、Fzおよび3つの軸の軸周りの回転力成分(モーメント)Mx、My、Mzの6成分を検出することができる6軸力覚センサーを用いている。
また、図1に示すように、力検出部20の先端部には、ハンド30が着脱可能に取り付けられている。
〈制御装置〉
図1に示すように、本実施形態では、制御装置5は、設置箇所70上に設置され、作業台71の下方に位置している。この制御装置5は、例えば、CPU(Central Processing Unit)やROM(Read Only Memory)およびRAM(Random Access Memory)等のメモリーが内蔵されたパーソナルコンピューター(PC)等で構成することができる。
図1に示すように、本実施形態では、制御装置5は、設置箇所70上に設置され、作業台71の下方に位置している。この制御装置5は、例えば、CPU(Central Processing Unit)やROM(Read Only Memory)およびRAM(Random Access Memory)等のメモリーが内蔵されたパーソナルコンピューター(PC)等で構成することができる。
図2に示すように、制御装置5は、制御部51と、記憶部53とを備えている。
制御部51は、例えば、CPU等で構成され、各アーム11〜16の駆動を担う各駆動源130の駆動、ハンド30の駆動を担う駆動源(図示せず)の駆動等、各部を制御する。例えば、制御部51は、力検出部20および各駆動源130に設けられた角度センサー(図示せず)からの出力、すなわち、角度センサーから出力された検出結果(信号)に基づいて、各アーム11〜16、ハンド30をそれぞれ独立して駆動させたり停止させたりすることができる。
制御部51は、例えば、CPU等で構成され、各アーム11〜16の駆動を担う各駆動源130の駆動、ハンド30の駆動を担う駆動源(図示せず)の駆動等、各部を制御する。例えば、制御部51は、力検出部20および各駆動源130に設けられた角度センサー(図示せず)からの出力、すなわち、角度センサーから出力された検出結果(信号)に基づいて、各アーム11〜16、ハンド30をそれぞれ独立して駆動させたり停止させたりすることができる。
また、制御部51は、後述するロボット1の教示における各制御を行う。例えば、ロボット1の教示の際は、制御部51は、力検出部20からの出力、すなわち、力検出部20から出力された検出結果(信号)に基づいて、後述する部分同士が接触したか否かを判断し、前記部分同士の接触を検知する。そして、制御部51は、ロボット1(可動部123)の教示データを生成する。ここで、教示データとは、ロボット1が行うべき動作をロボット1に教示するためのデータである。
また、記憶部53は、例えば、メモリー等で構成され、各制御装置5が各制御(処理)を行うためのプログラム、データ、各検出部の検出結果等の各情報を記憶する。
このような制御装置5は、本実施形態では、ロボット1と別体で構成されている。この場合は、例えば、ロボット1と制御装置5とをケーブル(配線)で接続し、有線方式で通信を行うようにしてもよく、また、前記ケーブルを省略し、無線方式で通信を行うようにしてもよい。
なお、制御装置5は、前記ロボット1と別体の構成に限定されず、ロボット1にその一部または全部が内蔵されていてもよい。この場合は、例えば、制御装置5は、ロボット1の基台110内に内蔵することが可能である。
また、制御装置5には、画面を有するモニターを備える表示装置45と、マウスやキーボード等の入力装置46とがそれぞれ接続(無線通信を含む)されている。なお、制御装置5には、タッチパネル等が接続されていてもよい。
以上、ロボットシステム100の基本的な構成について簡単に説明した。
以上、ロボットシステム100の基本的な構成について簡単に説明した。
このロボットシステム100のロボット1は、本実施形態では、ハンド30で第1対象物9を把持し、第1対象物9を第2対象物8の凹部81の中央部に配置したり、凹部81の中央部に配置されている第1対象物9をハンド30で把持して取り出す作業を行う。なお、本実施形態では、第1対象物9を凹部81に配置するにあたり、第2対象物8(凹部81)の平面視で、第1対象物9の中心と凹部81の中心とが一致し、第1対象物9の1辺と凹部81の1辺とが平行となるように配置する場合について説明する。
また、制御装置5は、前記作業において、ロボット1を制御し、また、前記作業の前に、ロボット1に前記作業における動作を教示する(ロボット1の教示を行う)。以下、制御装置5によるロボット1の教示について説明する。
まず、第2対象物8および第1対象物9の1例について説明する。なお、第2対象物8は、作業台71の作業面710に載置された状態で説明し、また、第1対象物9は、第2対象物8の凹部81に、適正に配置された状態で説明する。
図3および図4に示すように、第2対象物8は、パレットであり、凹部81を備えている。また、第2対象物8は、複数の凹部81、本実施形態では、16個の凹部81を備えている。これにより、本実施形態では、このようなパレットを用いた作業について、ロボットの教示を容易、迅速かつ適確に行うことができる。また、各凹部81は、行列状に、縦方向(図3中の上下方向)に4つ、横方向(図3中の左右向)に4つ、配置されている。なお、各凹部81は、縦方向に等間隔に配置され、横方向に等間隔に配置されている。
また、第2対象物8の平面視での外形の形状(z軸方向から見たときの外形の形状)は、四角形(長方形)をなしている。また、各凹部81の平面視での形状、すなわち、各凹部81の底面815の形状は、それぞれ、四角形(長方形)をなし、また、その四角形の凹部81の角部811、812、813、814は、それぞれ、丸みを帯びている。また、各凹部81は、その1辺同士が平行となり、かつ、その1辺と第2対象物8の外形の1辺とが平行となるように配置されている。
また、第1対象物9としては、例えば、部品等が挙げられる。
また、第1対象物9の平面視での形状は、四角形(長方形)をなし、また、その四角形の第1対象物9の角部91、92、93、94は、それぞれ、面取りされている。
また、第1対象物9の平面視での形状は、四角形(長方形)をなし、また、その四角形の第1対象物9の角部91、92、93、94は、それぞれ、面取りされている。
この第2対象物8および第1対象物9の各部の寸法のデータは、制御装置5の記憶部53に、予め記憶されている。
次に、図3〜図10と、図11および図12のフローチャートとに基づいて、制御装置5によるロボット1の教示(教示の際の制御動作)について説明する。
[1]ダイレクトティーチ(ステップS101)
図11および図12のフローチャートに示すように、ロボット1の教示(ティーチング)においては、まず、ダイレクトティーチ(ダイレクトティーチング)を行う(ステップS101)。
図11および図12のフローチャートに示すように、ロボット1の教示(ティーチング)においては、まず、ダイレクトティーチ(ダイレクトティーチング)を行う(ステップS101)。
ダイレクトティーチでは、ロボット1のハンド30で第1対象物9を把持し、その状態で、作業者がロボットアーム10(可動部123)を直接手で持って移動させ、第1対象物9を第2対象物8の凹部81内に挿入する。なお、制御装置5は、ハンド30が第1対象物9を把持した状態での第1対象物9の位置(中心の位置)および姿勢を把握している。また、第1対象物9は、実際に作業で使用する対象物でもよく、また、教示専用の対象物でもよい。また、この段階では、第2対象物8は、凹部81の底面815に接触していないが、接触していてもよい。
そして、教示データとして、第1対象物9が凹部81内に挿入された状態での可動部123の姿勢や可動部123の先端部(例えば、ツールセンターポイント(TCP:Tool Center Point))の位置についてのデータ、例えば、各アーム11〜16の関節の角度のデータを記憶部53に記憶する。この場合、作業者が入力装置46等を用いて制御装置5を手動で操作することにより、前記教示データの記憶が自動的に行われる。なお、ツールセンターポイントの1例としては、ハンド30の先端の中心である。
また、力検出部20をリセットする。この力検出部20のリセットは、第1対象物9を第2対象物8の凹部81内に挿入する前に行うことが好ましい。以上により、ダイレクトティーチが完了する。
このように、ロボット1に対しダイレクトティーチを行って可動部123を移動させる。その後、制御部51は、可動部123により第1対象物9の第1部分を第2対象物8に接近させる。すなわち、後述する倣い動作を行う。このダイレクトティーチによれば、ハンド30で把持している第1対象物9を凹部81内に挿入する動作を容易、迅速かつ適確に教示することができる。
[2]倣い動作(ステップS102)
制御部51は、可動部123により第1対象物9の第1部分を第2対象物8に接近させて、力検出部20からの出力に基づいて第1対象物9の第1部分と第2対象物8との接触を検知した後、第1対象物9の第2部分を第2対象物8に接近させて、力検出器20からの出力に基づいて第1対象物9の第2部分と第2対象物8との接触を検知する。
制御部51は、可動部123により第1対象物9の第1部分を第2対象物8に接近させて、力検出部20からの出力に基づいて第1対象物9の第1部分と第2対象物8との接触を検知した後、第1対象物9の第2部分を第2対象物8に接近させて、力検出器20からの出力に基づいて第1対象物9の第2部分と第2対象物8との接触を検知する。
なお、第1対象物9の第1部分は、例えば、第1対象物9の下面における所定の辺や所定の角である。
また、第1対象物9の第1部分が前記辺の場合、第1対象物9の第2部分は、例えば、第1対象物9の下面における前記辺と異なる辺である。この場合は、前記辺と異なる辺を第2対象物8に接触させることにより、4つの辺が第2対象物8に接触する。
また、第1対象物9の第1部分が前記角の場合、第1対象物9の第2部分は、例えば、第1対象物9の下面における4つの辺である。この場合は、例えば、まず、前記4つの辺のうちの所定の1つの辺を第2対象物8に接触させ、その後、前記辺と異なる辺を第2対象物8に接触させる。これにより、4つの辺が第2対象物8に接触する。
具体的には、図5および図6に示すように、制御部51は、凹部81の底面815に接近する方向である−z軸方向に第1対象物9を移動させ、第2対象物8の所定の面の1例である凹部81の底面815に第1対象物9を倣わせる倣い動作を可動部123に行わせる。この倣い動作では、例えば、インピーダンス制御により、第1対象物9の下面を凹部81の底面815に所定の力で押し当てる。これにより、第1対象物9の下面全体が、凹部81の底面815に接触する。そして、このときの第1対象物9の中心のz軸方向の位置(z0:z座標)と、x軸周りの回転角度(w0)、y軸周りの回転角度(v0)とを、第3情報として記憶部53に記憶する。その後、制御部51は、後述する第1制御を行う。なお、z0は、第1対象物9の位置の情報であり、w0、v0は、第1対象物9の姿勢の情報である。
[3]第1制御(ステップS103〜S106)
制御部51は、可動部123を第2対象物8の所定の面の1例である凹部81の底面815に沿って第1方向に移動させ、力検出部20からの出力に基づいて、第2対象物8の第1部分の1例である角部811(第1角部)と、可動部123に把持された第1対象物9の第3部分の1例である角部91(第1角部)との接触を検知し、前記接触を検知したときの第1対象物9の第1位置を有する第1情報を記憶部53に記憶する第1制御を行う。なお、第1情報には、さらに、前記接触を検知したときの第1対象物9の第1姿勢が含まれていてもよい。以下、具体的に説明する。
制御部51は、可動部123を第2対象物8の所定の面の1例である凹部81の底面815に沿って第1方向に移動させ、力検出部20からの出力に基づいて、第2対象物8の第1部分の1例である角部811(第1角部)と、可動部123に把持された第1対象物9の第3部分の1例である角部91(第1角部)との接触を検知し、前記接触を検知したときの第1対象物9の第1位置を有する第1情報を記憶部53に記憶する第1制御を行う。なお、第1情報には、さらに、前記接触を検知したときの第1対象物9の第1姿勢が含まれていてもよい。以下、具体的に説明する。
第1制御では、まず、図7および図8に示すように、第1対象物9を凹部81の底面815に沿って第1方向に移動させ(ステップS103)、第1対象物9の角部91を凹部81の角部811に接触させる(押し当てる)。第1方向は、本実施形態では、凹部81の底面815に平行である。また、「角部91が凹部81の角部811に接触する」とは、「第1対象物9の角部91を挟む2辺が凹部81の角部811を挟む2辺に接触する」と言い換えることも可能である。
このため、第2対象物8の第1部分は、凹部81の第1側面であり、その第1側面は、前記凹部81の角部811を挟む2辺のうちの一方と言うこともできる。
また、第1対象物9の第3部分は、第1対象物9の第1側面であり、その第1側面は、前記第1対象物9の角部91を挟む2辺のうちの一方と言うこともできる。
これにより、第1対象物9の角部91を挟む2辺が凹部81の角部811を挟む2辺に接触した状態で、第2対象物8のx軸方向の位置、y軸方向の位置、z軸周りの回転角度が規定され、適確に教示を行うことができる。
また、第2対象物8は、内側の側面に第1角部および第1角部とは異なる第2角部を有する凹部81を備え、第2対象物8の第1部分は、前記第1角部であり、その第1角部は、凹部81の角部811と言うこともできる。
また、第1対象物9は、外側の側面に第1角部および第1角部とは異なる第2角部を有し、第1対象物9の第3部分は、前記第1角部であり、その第1角部は、第1対象物9の角部91と言うこともできる。
これにより、第1対象物9の角部91が凹部81の角部811に接触した状態で、第2対象物8のx軸方向の位置、y軸方向の位置、z軸周りの回転角度が規定され、適確に教示を行うことができる。
続いて、ステップS103の後、力検出部20から出力された検出結果に基づいて、第1対象物9の角部91が凹部81の角部811に接触したか否かを判断し(ステップS104)、接触していないと判断した場合は、ステップS103に戻り、再度、ステップS103以降を実行する。
また、ステップS104において、接触したと判断した場合は、第1対象物9を停止させる(ステップS105)。
次いで、このときの第1対象物9の中心のx軸方向の位置(x1:x座標)、y軸方向の位置(y1:y座標)と、z軸周りの回転角度(u1)とを、第1情報として記憶部53に記憶する(ステップS106)。なお、x1、y1は、第1対象物9の第1位置の情報であり、u1は、第1対象物9の第1姿勢の情報である。
[4]第2制御(ステップS107〜S110)
制御部51は、可動部123を第2対象物8の所定の面の1例である凹部81の底面815に沿って第1方向と異なる第2方向に移動させ、力検出部20からの出力に基づいて、第2対象物8の第4部分の1例である角部813(第2角部)と、可動部123に把持された第1対象物9の第2部分の1例である角部93(第2角部)との接触を検知し、前記接触を検知したときの第1対象物9の第2位置を有する第2情報を記憶部53に記憶する第2制御を行う。なお、第2情報には、さらに、前記接触を検知したときの第1対象物9の第2姿勢が含まれていてもよい。以下、具体的に説明する。
制御部51は、可動部123を第2対象物8の所定の面の1例である凹部81の底面815に沿って第1方向と異なる第2方向に移動させ、力検出部20からの出力に基づいて、第2対象物8の第4部分の1例である角部813(第2角部)と、可動部123に把持された第1対象物9の第2部分の1例である角部93(第2角部)との接触を検知し、前記接触を検知したときの第1対象物9の第2位置を有する第2情報を記憶部53に記憶する第2制御を行う。なお、第2情報には、さらに、前記接触を検知したときの第1対象物9の第2姿勢が含まれていてもよい。以下、具体的に説明する。
第2制御では、まず、図9および図10に示すように、第1対象物9を凹部81の底面815に沿って第1方向と異なる方向、本実施形態では、第1方向と反対の第2方向に移動させ(ステップS107)、第1対象物9の角部93を凹部81の角部813に接触させる(押し当てる)。第2方向は、本実施形態では、凹部81の底面815に平行である。また、「角部93が凹部81の角部813に接触する」とは、「第1対象物9の角部93を挟む2辺が凹部81の角部813を挟む2辺に接触する」と言い換えることも可能である。
このため、第2対象物8の第4部分は、凹部81の第1側面とは異なる凹部81の第2側面であり、その第2側面は、前記凹部81の角部813を挟む2辺のうちの一方と言うこともできる。
また、第1対象物9の第2部分は、第1対象物9の第1側面とは異なる第1対象物9の第2側面であり、その第2側面は、前記第1対象物9の角部93を挟む2辺のうちの一方と言うこともできる。
これにより、第1対象物9の角部93を挟む2辺が凹部81の角部813を挟む2辺に接触した状態で、第2対象物8のx軸方向の位置、y軸方向の位置、z軸周りの回転角度が規定され、適確に教示を行うことができる。
また、第2対象物8は、内側の側面に第1角部および第1角部とは異なる第2角部を有する凹部81を備え、第2対象物8の第4部分は、前記第2角部であり、その第2角部は、凹部81の角部813と言うこともできる。
また、第1対象物9は、外側の側面に第1角部および第1角部とは異なる第2角部を有し、第1対象物9の第2部分は、前記第2角部であり、その第2角部は、第1対象物9の角部93と言うこともできる。
これにより、第1対象物9の角部93が凹部81の角部813に接触した状態で、第2対象物8のx軸方向の位置、y軸方向の位置、z軸周りの回転角度が規定され、適確に教示を行うことができる。
続いて、ステップS107の後、力検出部20から出力された検出結果に基づいて、第1対象物9の角部93が凹部81の角部813に接触したか否かを判断し(ステップS108)、接触していないと判断した場合は、ステップS107に戻り、再度、ステップS107以降を実行する。
また、ステップS108において、接触したと判断した場合は、第1対象物9を停止させる(ステップS109)。
次いで、このときの第1対象物9の中心のx軸方向の位置(x2:x座標)、y軸方向の位置(y2:y座標)と、z軸周りの回転角度(u2)とを、第2情報として記憶部53に記憶する(ステップS110)。なお、x2、y2は、第1対象物9の第2位置の情報であり、u2は、第1対象物9の第2姿勢の情報である。
なお、前記とは逆に、第2制御を先に行って、第1制御を後に行ってもよい。
なお、前記とは逆に、第2制御を先に行って、第1制御を後に行ってもよい。
また、第1制御、第2制御において、第1対象物9の角部92を凹部81の角部812に接触させ、第1対象物9の角部94を凹部81の角部814に接触させてもよい。
[5]ステップS111
制御部51は、第1情報および第2情報に基づいて、可動部123の教示データを求める(生成する)(ステップS111)。これにより、教示データを容易かつ適確に求めることができる。
制御部51は、第1情報および第2情報に基づいて、可動部123の教示データを求める(生成する)(ステップS111)。これにより、教示データを容易かつ適確に求めることができる。
具体的には、第1情報であるx1、y1、u1と、第2情報であるx2、y2、u2と、第3情報であるz0、w0、v0とに基づいて、第2対象物8(凹部81)の平面視で、第1対象物9の中心と凹部81の中心とが一致し、第1対象物9の1辺と凹部81の1辺とが平行となるように第1対象物9が配置された状態に相当する第1対象物9の中心のx軸方向の位置(x0:x座標)、y軸方向の位置(y0:y座標)、z軸方向の位置(z0:z座標)と、x軸周りの回転角度(w0)、y軸周りの回転角度(v0)、z軸周りの回転角度(u0)とを、教示データとして求める。
この場合、教示データのz0、w0、v0は、それぞれ、第3情報のz0、w0、v0である。
また、教示データのx0は、第1情報のx1と第2情報のx2とに基づいて求める。同様に、教示データのy0は、第1情報のy1と第2情報のy2とに基づいて求める。同様に、教示データのu0は、第1情報のu1と第2情報のu2とに基づいて求める。
[6]ステップS112
制御部51は、ステップS111で生成した教示データを記憶部に記憶する(ステップS112)。
制御部51は、ステップS111で生成した教示データを記憶部に記憶する(ステップS112)。
この教示データは、ハンド30が第1対象物9を把持した状態で、第2対象物8(凹部81)の平面視で、第1対象物9の中心と凹部81の中心とが一致し、第1対象物9の1辺と凹部81の1辺とが平行となるように第1対象物9が配置された状態での可動部123の姿勢や可動部123の先端部(例えば、ツールセンターポイント(TCP:Tool Center Point))の位置についてのデータ、例えば、各アーム11〜16の関節の角度のデータに対応している。
以上の[1]〜[6]を各凹部81についてそれぞれ行う。
以上の[1]〜[6]を各凹部81についてそれぞれ行う。
[7]ローカル座標の設定
制御部51は、ローカル座標系を設定する機能を有している。制御部51は、必要に応じて、第2対象物8の所定の面に直交する軸の1例である図3に示すZ軸を有するローカル座標系を設定する。
制御部51は、ローカル座標系を設定する機能を有している。制御部51は、必要に応じて、第2対象物8の所定の面に直交する軸の1例である図3に示すZ軸を有するローカル座標系を設定する。
すなわち、制御装置5は、必要に応じて、互いに直交する3軸(X軸、Y軸およびZ軸)で構成されたローカル座標系を設定する(図3参照)。このローカル座標系のX軸およびY軸は、四角形の第2対象物8の2辺(四角形の凹部81の2辺)に平行であり、Z軸は、凹部81の底面815に直交している。これにより、実際の作業において、ロボットの制御を容易に行うことができる。また、以降のロボット1の教示においてもロボットの制御を容易に行うことができる。
なお、ローカル座標の設定は、例えば、第1制御の後、第2制御の後、ステップS111の後等に行うことができる。
以上説明したように、制御装置5によれば、ロボット1の教示を容易、迅速かつ適確に行うことができる。
また、第2対象物8の凹部81と第1対象物9との間の隙間が小さくても、また、目視するためのスペースがなくても教示を行うことが可能である。
これにより、ロボット1は、適確に作業を行うことができる。
これにより、ロボット1は、適確に作業を行うことができる。
(変形例1)
第1実施形態では、第2対象物8の凹部81および第1対象物9の平面視での形状は、それぞれ、四角形であるが、これに限定されない。第2対象物8の凹部81および第1対象物9の他の形状としては、それぞれ、例えば、平面視で、三角形、五角形、6角形等の他の多角形、円形、楕円形等が挙げられる。
第1実施形態では、第2対象物8の凹部81および第1対象物9の平面視での形状は、それぞれ、四角形であるが、これに限定されない。第2対象物8の凹部81および第1対象物9の他の形状としては、それぞれ、例えば、平面視で、三角形、五角形、6角形等の他の多角形、円形、楕円形等が挙げられる。
また、例えば、凹部81の平面視での形状が、円形の場合、凹部81内で、第1対象物9を互いに直交する4つの半径方向(互いに直交する2つの直径方向の正逆の両方向)に移動させて、ロボット1の教示を行う。この場合、第1対象物9としては、例えば、4辺に凹部81の円弧と同じ曲率の円弧を有する教示専用の対象物を用いることが好ましい。
(変形例2)
制御装置5の制御部51は、ロボット1の教示において、可動部123により第2対象物8の第1部分を第2対象物9に接近させて、力検出部20からの出力に基づいて前記第1部分と前記第2対象物8との接触を検知した後、第1対象物9の第2部分を第2対象物8に接近させて、力検出器20からの出力に基づいて前記第2部分と第2対象物8との接触を検知し、可動部123を第1方向に移動させ、力検出部20からの出力に基づいて可動部123の第1部分と第2対象物8との接触を検知し、可動部123の第1位置を有する第1情報を記憶部53に記憶し、可動部123を前記第1方向と異なる第2方向に移動させ、力検出部20からの出力に基づいて可動部123の第2部分と第2対象物8との接触を検知し、可動部123の第2位置を有する第2情報を記憶部53に記憶し、記憶部53に記憶された前記第1情報および前記第2情報に基づいて、可動部123の教示データを求めてもよい(生成してもよい)。なお、第1情報には、さらに、前記可動部123の第1部分と第2対象物8との接触を検知したときの可動部123の第1姿勢が含まれていてもよい。また、第2情報には、さらに、前記可動部123の第2部分と第2対象物8との接触を検知したときの可動部123の第2姿勢が含まれていてもよい。
制御装置5の制御部51は、ロボット1の教示において、可動部123により第2対象物8の第1部分を第2対象物9に接近させて、力検出部20からの出力に基づいて前記第1部分と前記第2対象物8との接触を検知した後、第1対象物9の第2部分を第2対象物8に接近させて、力検出器20からの出力に基づいて前記第2部分と第2対象物8との接触を検知し、可動部123を第1方向に移動させ、力検出部20からの出力に基づいて可動部123の第1部分と第2対象物8との接触を検知し、可動部123の第1位置を有する第1情報を記憶部53に記憶し、可動部123を前記第1方向と異なる第2方向に移動させ、力検出部20からの出力に基づいて可動部123の第2部分と第2対象物8との接触を検知し、可動部123の第2位置を有する第2情報を記憶部53に記憶し、記憶部53に記憶された前記第1情報および前記第2情報に基づいて、可動部123の教示データを求めてもよい(生成してもよい)。なお、第1情報には、さらに、前記可動部123の第1部分と第2対象物8との接触を検知したときの可動部123の第1姿勢が含まれていてもよい。また、第2情報には、さらに、前記可動部123の第2部分と第2対象物8との接触を検知したときの可動部123の第2姿勢が含まれていてもよい。
この変形例2では、ロボット1の教示は、ハンド30で第1対象物9を把持しないで行うことができる。また、変形例2の詳細な説明は、第1実施形態とほとんど重複するので、省略する。この場合、基本的に、変形例2では、第1実施形態において、「第1対象物9」を「可動部123」と読み換え、「第3部分」を「第1部分」と読み換え、「第4部分」を「第2部分」と読み換えればよい。
また、可動部123の第1部分および第2部分とは、例えば、ハンド30の異なる2つの指部である。
前記変形例1および2によっても、前述した第1実施形態と同様の効果を発揮することができる。
また、前記変形例1および2は、それぞれ、後述する他の実施形態に適用することができる。
<第2実施形態>
以下、第2実施形態について説明するが、前述した実施形態との相違点を中心に説明し、同様の事項はその説明を省略する。
以下、第2実施形態について説明するが、前述した実施形態との相違点を中心に説明し、同様の事項はその説明を省略する。
第2実施形態のロボットシステム100では、制御装置5の制御部51は、所謂パレタイズ機能を有している。以下、具体的に説明する。
制御装置5の制御部51は、第2対象物8の複数の凹部81の1例である16個の凹部81のうちの少なくとも3つの凹部81について、第1情報および第2情報を取得し、第1情報および第2情報に基づいて、可動部123の教示データを求める(生成する)。
本実施形態では、図3中の左上の凹部81a、図3中の右上の凹部81b、図3中の右下の凹部81cについて、可動部123の教示データを求める。なお、他の3つの凹部81の組み合わせでもよく、また、4以上の凹部81の組み合わせでもよい。
そして、制御部51は、16個の凹部81のうちの可動部123の教示データを求めた凹部81とは異なる凹部81について、可動部123の教示データを求めた凹部81についての教示データに基づいて、可動部123の教示データを求める。
本実施形態では、16個の凹部81のうちの凹部81a、81b、81cとは異なる凹部81について、凹部81a、81b、81cについての教示データに基づいて、可動部123の教示データを求める(生成する)。
この場合、凹部81aと凹部81bとの間の各凹部81についての教示データは、凹部81aについての教示データと凹部81bについての教示データとを用いて求めることができる。また、凹部81bと凹部81cとの間の各凹部81についての教示データは、凹部81bについての教示データと凹部81cについての教示データとを用いて求めることができる。そして、残りの各凹部81についての教示データも同様にして求めることができる。
これにより、16個の凹部81のうちの少なくとも3つの凹部81についてロボット1の教示を行えばよく、これによって、ロボット1の教示をより容易かつ迅速に行うことができる。
以上のような第2実施形態によっても、前述した実施形態と同様の効果を発揮することができる。
<第3実施形態>
図13は、本発明のロボットシステムの第3実施形態における第1対象物および第2対象物を示す正面図である。図14は、本発明のロボットシステムの第3実施形態において、ロボットのハンドが第2対象物を把持している状態を示す側面図である。
図13は、本発明のロボットシステムの第3実施形態における第1対象物および第2対象物を示す正面図である。図14は、本発明のロボットシステムの第3実施形態において、ロボットのハンドが第2対象物を把持している状態を示す側面図である。
以下、第3実施形態について説明するが、前述した実施形態との相違点を中心に説明し、同様の事項はその説明を省略する。
第3実施形態のロボットシステム100では、第2対象物8Aは、棚であり、複数、本実施形態では、4つの凹部81Aを備えている。この場合、可動部123が沿って移動する第2対象物8Aの所定の面は、例えば、側面86Aである。
また、第1対象物9Aは、凸部96Aを有しており、ロボット1のハンド30は、その凸部96Aを把持するようになっている。
ロボット1の教示の際は、第1制御および第2制御において、例えば、第1対象物9Aを図13中の左右方向に移動させ、第1情報および第2情報を取得する。
なお、その他の動作(制御)は、第1実施形態と同様であるので、その説明は省略する。
以上のような第3実施形態によっても、前述した実施形態と同様の効果を発揮することができる。
以上、本発明の制御装置、ロボットおよびロボットシステムを、図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、他の任意の構成物が付加されていてもよい。
また、本発明は、前記各実施形態のうちの、任意の2以上の構成(特徴)を組み合わせたものであってもよい。
また、前記実施形態では、可動部がロボットアームとエンドエフェクター(ハンド)とで構成されている場合を例に挙げて説明したが、本発明では、可動部は、これに限定されず、ロボットの移動可能な部分、すなわち、動くことが可能な部分であればよい。他の具体例としては、可動部は、さらに、ロボットアームおよびエンドエフェクター以外の部品(部材)を有していてもよい。また、例えば、ロボットアームと力検出部とエンドエフェクターとで構成される部分を可動部と捉えてもよく、また、ロボットアームを可動部と捉えてもよく、また、エンドエフェクターを可動部と捉えてもよく、また、第1アーム〜第6アームのうち任意のアームを可動部と捉えてもよい。
また、前記実施形態では、ロボットの基台の設置個所は、作業台であるが、本発明では、これに限定されず、この他、例えば、設置スペースにおける床、天井、壁、地上、移動可能な台車上等が挙げられる。
また、本発明では、ロボットは、セル内に設置されていてもよい。この場合、ロボットの基台の設置個所としては、例えば、セルの床部、天井部、壁部、作業台等が挙げられる。
また、前記実施形態では、ロボット(基台)が設置される平面(面)である設置面は、水平面と平行な平面(面)であるが、本発明では、これに限定されず、例えば、水平面や鉛直面に対して傾斜した平面(面)でもよく、また、鉛直面と平行な平面(面)であってもよい。
また、前記実施形態では、ロボットアームの回動軸の数は、6つであるが、本発明では、これに限定されず、ロボットアームの回動軸の数は、例えば、2つ、3つ、4つ、5つまたは7つ以上でもよい。すなわち、前記実施形態では、アーム(リンク)の数は、6つであるが、本発明では、これに限定されず、アームの数は、例えば、2つ、3つ、4つ、5つ、または、7つ以上でもよい。この場合、例えば、前記実施形態のロボットにおいて、第2アームと第3アームとの間にアームを追加することにより、アームの数が7つのロボットを実現することができる。
また、前記実施形態では、ロボットアームの数は、1つであるが、本発明では、これに限定されず、ロボットアームの数は、例えば、2つ以上でもよい。すなわち、ロボット(ロボット本体)は、例えば、双腕ロボット等の複数腕ロボットであってもよい。
また、本発明では、ロボットは、他の形式のロボットであってもよい。具体例としては、例えば、脚部を有する脚式歩行(走行)ロボット、スカラーロボット等の水平多関節ロボット等が挙げられる。
また、前記実施形態では、力検出部として、6軸力覚センサーを用いた場合を例に挙げて説明したが、本発明では、力検出部としては、これに限定されず、ロボットの構成、作業内容、第1対象物や第2対象物の形状等によっては、他の構成の力覚センサーを用いてもよい。
また、前記実施形態では、力検出部は、ロボットアームの先端部に設けられている場合を例に挙げて説明したが、本発明では、これに限定されず、力検出部の設置箇所は、可動部にかかる力やモーメントを検出することが可能な箇所であれば如何なる箇所であってもよい。例えば、力検出部は、第6アームの基端部(第5アームと第6アームとの間)に設けられていてもよい。
また、前記実施形態では、エンドエフェクターは、ハンドであるが、本発明では、エンドエフェクターは、対象物を把持することが可能なものであれば、これに限定されず、例えば、対象物を吸着することで把持(吸着把持)する構成のものであってもよい。
また、前記実施形態では、記憶部は、制御装置の構成要素であるが、本発明では、これに限定されず、記憶部は、制御装置の構成要素に含まれていなくてもよい。
また、前記実施形態では、第1対象物は、パレット、棚であるが、本発明では、第1対象物は、これに限定されない。
1…ロボット、5…制御装置、8…第2対象物、8A…第2対象物、9…第1対象物、9A…第1対象物、10…ロボットアーム、11…第1アーム、12…第2アーム、13…第3アーム、14…第4アーム、15…第5アーム、16…第6アーム、20…力検出部、30…ハンド、45…表示装置、46…入力装置、51…制御部、53…記憶部、70…設置箇所、71…作業台、81…凹部、81A…凹部、81a…凹部、81b…凹部、81c…凹部、86A…側面、91…角部、92…角部、93…角部、94…角部、96A…凸部、100…ロボットシステム、110…基台、120…モータードライバー、123…可動部、130…駆動源、710…作業面、811…角部、812…角部、813…角部、814…角部、815…底面、O1…第1回動軸、O2…第2回動軸、O3…第3回動軸、O4…第4回動軸、O5…第5回動軸、O6…第6回動軸、S101〜S112…ステップ
Claims (14)
- 可動部と、前記可動部に設けられた力検出部とを有するロボットを制御する制御装置であって、
前記可動部により第1対象物の第1部分を第2対象物に接近させて、前記力検出部からの出力に基づいて前記第1部分と前記第2対象物との接触を検知した後、前記第1対象物の第2部分を前記第2対象物に接近させて、前記力検出器からの出力に基づいて前記第2部分と前記第2対象物との接触を検知し、前記可動部を第1方向に移動させ、前記力検出部からの出力に基づいて前記第1対象物の第3部分と前記第2対象物との接触を検知し、前記第1対象物の第1位置を有する第1情報を記憶部に記憶させ、前記可動部を前記第1方向と異なる第2方向に移動させ、前記力検出部からの出力に基づいて前記第1対象物の第4部分と前記第2対象物との接触を検知し、前記第1対象物の第2位置を有する第2情報を前記記憶部に記憶させ、前記記憶部に記憶された前記第1情報および前記第2情報に基づいて、前記可動部の教示データを生成する制御部を備えることを特徴とする制御装置。 - 前記第2方向は、前記第1方向と反対方向である請求項1に記載の制御装置。
- 前記可動部が前記第1方向に移動している間、前記第1部分および前記第2部分と前記第2対象物は接触している請求項1または2に記載の制御装置。
- 前記第2対象物は、パレットである請求項1ないし3のいずれか1項に記載の制御装置
- 前記第1対象物の前記第3部分は、前記第1対象物の第1側面である請求項1ないし4のいずれか1項に記載の制御装置。
- 前記第1対象物の前記第4部分は、前記第1対象物の前記第1側面とは異なる前記第1対象物の第2側面である請求項5に記載の制御装置。
- 前記第2対象物は、内側の側面に第1角部および前記第1角部とは異なる第2角部を有する凹部を備え、
前記第2対象物の前記第3部分と接触する部分は、前記第1角部であり、
前記第2対象物の前記第4部分と接触する部分は、前記第2角部である請求項1ないし6のいずれか1項に記載の制御装置。 - 前記第1対象物は、外側の側面に第1角部および前記第1角部とは異なる第2角部を有し、
前記第1対象物の前記第3部分は、前記第1角部であり、
前記第1対象物の前記第4部分は、前記第2角部である請求項7に記載の制御装置。 - 前記第2対象物は、複数の凹部を備え、
前記制御部は、前記複数の凹部のうちの少なくとも3つの前記凹部について、前記第1情報および前記第2情報を取得し、前記第1情報および前記第2情報に基づいて、前記可動部の教示データを生成し、
前記複数の凹部のうちの前記可動部の教示データを求めた凹部とは異なる前記凹部について、前記可動部の教示データを求めた凹部についての前記教示データに基づいて、前記可動部の教示データを生成する請求項1ないし6のいずれか1項に記載の制御装置。 - 前記制御部は、ローカル座標系を設定する機能を有し、前記第2対象物の所定の面に直交する軸を有するローカル座標系を設定する請求項1ないし9のいずれか1項に記載の制御装置。
- 前記ロボットに対しダイレクトティーチを行って前記可動部を移動させた後、前記制御部は、前記可動部により前記第1部分を前記第2対象物に接近させる請求項1ないし10のいずれか1項に記載の制御装置。
- 可動部と、前記可動部に設けられた力検出部とを有するロボットを制御する制御装置であって、
前記可動部により第1対象物の第1部分を第2対象物に接近させて、前記力検出部からの出力に基づいて前記第1部分と前記第2対象物との接触を検知した後、前記第1対象物の第2部分を前記第2対象物に接近させて、前記力検出器からの出力に基づいて前記第2部分と前記第2対象物との接触を検知し、前記可動部を第1方向に移動させ、前記力検出部からの出力に基づいて前記可動部の第1部分と前記第2対象物との接触を検知し、前記可動部の第1位置を有する第1情報を記憶部に記憶させ、前記可動部を前記第1方向と異なる第2方向に移動させ、前記力検出部からの出力に基づいて前記可動部の第2部分と前記第2対象物との接触を検知し、前記可動部の第2位置を有する第2情報を前記記憶部に記憶させ、前記記憶部に記憶された前記第1情報および前記第2情報に基づいて、前記可動部の教示データを生成する制御部を備えることを特徴とする制御装置。 - 請求項1ないし12のいずれか1項に記載の制御装置により制御され、前記可動部および前記力検出部を備えることを特徴とするロボット。
- 請求項1ないし12のいずれか1項に記載の制御装置と、
前記制御装置によって制御され、前記可動部および前記力検出部を有する前記ロボットと、を備えることを特徴とするロボットシステム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016180254A JP2018043320A (ja) | 2016-09-15 | 2016-09-15 | 制御装置、ロボットおよびロボットシステム |
US15/704,160 US10537988B2 (en) | 2016-09-15 | 2017-09-14 | Controller, robot and robot system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016180254A JP2018043320A (ja) | 2016-09-15 | 2016-09-15 | 制御装置、ロボットおよびロボットシステム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018043320A true JP2018043320A (ja) | 2018-03-22 |
Family
ID=61559124
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016180254A Pending JP2018043320A (ja) | 2016-09-15 | 2016-09-15 | 制御装置、ロボットおよびロボットシステム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10537988B2 (ja) |
JP (1) | JP2018043320A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110509255A (zh) * | 2018-05-22 | 2019-11-29 | 精工爱普生株式会社 | 控制装置及机器人系统 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6542629B2 (ja) * | 2015-09-18 | 2019-07-10 | 川崎重工業株式会社 | 加工ツールの位置決め装置及び位置決め方法 |
JP7192359B2 (ja) * | 2018-09-28 | 2022-12-20 | セイコーエプソン株式会社 | ロボットを制御する制御装置、および制御方法 |
CN112068422B (zh) * | 2020-08-04 | 2023-04-14 | 广州中国科学院先进技术研究所 | 一种基于小样本的智能机器人的抓取学习方法及装置 |
JP2022073192A (ja) * | 2020-10-30 | 2022-05-17 | セイコーエプソン株式会社 | ロボットの制御方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2549139B2 (ja) | 1988-02-29 | 1996-10-30 | 三菱電機株式会社 | 産業用ロボットの制御装置 |
JP2619146B2 (ja) | 1991-03-15 | 1997-06-11 | 三菱電機株式会社 | パレタイズ装置 |
JPH05338807A (ja) | 1992-06-09 | 1993-12-21 | Toshiba Corp | ロボット制御装置 |
JPH08147024A (ja) | 1994-11-22 | 1996-06-07 | Ricoh Co Ltd | 多関節型ロボットの教示方法 |
US9804593B1 (en) * | 2014-12-12 | 2017-10-31 | X Development Llc | Methods and systems for teaching positions to components of devices |
JP6117853B2 (ja) * | 2015-05-13 | 2017-04-19 | ファナック株式会社 | バラ積みされた物品を取り出すための物品取出システム、および方法 |
JP6915239B2 (ja) * | 2016-07-22 | 2021-08-04 | セイコーエプソン株式会社 | 挿入方法 |
CN107962563B (zh) * | 2016-10-20 | 2022-10-04 | 精工爱普生株式会社 | 控制装置、机器人以及机器人系统 |
-
2016
- 2016-09-15 JP JP2016180254A patent/JP2018043320A/ja active Pending
-
2017
- 2017-09-14 US US15/704,160 patent/US10537988B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110509255A (zh) * | 2018-05-22 | 2019-11-29 | 精工爱普生株式会社 | 控制装置及机器人系统 |
CN110509255B (zh) * | 2018-05-22 | 2022-09-20 | 精工爱普生株式会社 | 控制装置及机器人系统 |
Also Published As
Publication number | Publication date |
---|---|
US20180071911A1 (en) | 2018-03-15 |
US10537988B2 (en) | 2020-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018043320A (ja) | 制御装置、ロボットおよびロボットシステム | |
CN106493711B (zh) | 控制装置、机器人以及机器人系统 | |
JP6733239B2 (ja) | 制御装置及びロボットシステム | |
Ju et al. | Teleoperation of humanoid baxter robot using haptic feedback | |
JP7187765B2 (ja) | ロボット制御装置 | |
US20180111266A1 (en) | Control device, robot, and robot system | |
Abu-Dakka et al. | Solving peg-in-hole tasks by human demonstration and exception strategies | |
CN107107342B (zh) | 双臂机械手的示教系统及双臂机械手的示教方法 | |
JP2018012183A (ja) | ロボット制御装置、ロボットおよびロボットシステム | |
JP2018075672A (ja) | 制御装置、ロボットおよびロボットシステム | |
JP2018118365A (ja) | 制御装置およびロボットシステム | |
JP2012137421A (ja) | 3軸力センサを用いて力制御をおこなうロボットの制御装置 | |
JP6743453B2 (ja) | ロボット制御装置、ロボットおよびシミュレーション装置 | |
JP6939104B2 (ja) | 制御装置、ロボットシステムおよびロボット制御方法 | |
Deepak et al. | Inverse kinematic models for mobile manipulators | |
JPH05111897A (ja) | 複数台のロボツトの相対位置関係取得方式 | |
JP6958075B2 (ja) | ロボットシステムおよび制御方法 | |
JP7302182B2 (ja) | 水平多関節ロボット | |
Muthusamy et al. | Investigation and design of robotic assistance control system for cooperative manipulation | |
Yu et al. | Manipulator handling device for assembly of large‐size panels | |
CN111113373B (zh) | 控制装置、机器人系统及控制方法 | |
WO2022071333A1 (ja) | ロボットと作業機器との位置関係を取得する装置、制御装置、システム、方法、及びコンピュータプログラム | |
WO2022210291A1 (ja) | ロボット装置またはワークに作用する外力の許容値を算出する計算装置およびロボットの制御装置 | |
EP4300231A1 (en) | Teaching method and teaching apparatus | |
JPH03281193A (ja) | マスタスレーブマニピュレータ |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20190322 |