JP2016182648A - Robot, robot control device and robot system - Google Patents
Robot, robot control device and robot system Download PDFInfo
- Publication number
- JP2016182648A JP2016182648A JP2015063920A JP2015063920A JP2016182648A JP 2016182648 A JP2016182648 A JP 2016182648A JP 2015063920 A JP2015063920 A JP 2015063920A JP 2015063920 A JP2015063920 A JP 2015063920A JP 2016182648 A JP2016182648 A JP 2016182648A
- Authority
- JP
- Japan
- Prior art keywords
- tool
- posture
- unit
- robot
- arm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、ロボット、ロボット制御装置およびロボットシステムに関する。 The present invention relates to a robot, a robot control device, and a robot system.
従来、アームに装着されるツールを用いてワークを処理する前に、アームに対するツールのオフセットを設定する処理が行われている。特許文献1には、アームに装着されたツールを実空間の基準点に位置合わせする操作を、アームの姿勢を変えて複数回実行した結果に基づいて、アームに対するツールのオフセットを導出する方法が開示されている。
2. Description of the Related Art Conventionally, processing for setting an offset of a tool with respect to an arm has been performed before processing a workpiece using a tool attached to the arm.
ところでツールによってワークを処理する際には、適切な姿勢でツールをワークに接触させなければならない。しかし、特許文献1に記載された技術によると、ツールの1点と基準点を位置合わせしてオフセットを導出するため、アームに対するツールの位置のオフセットを設定することはできても、アームに対するツールの姿勢のオフセットを設定することはできない。ワークに対するツールの姿勢オフセットが設定されなければ、ワークに対するツールの姿勢を自動制御することができないという問題がある。
By the way, when processing a workpiece with a tool, the tool must be brought into contact with the workpiece in an appropriate posture. However, according to the technique described in
本発明は、これらの問題を解決するために創作されたものであって、アームに対するツールの姿勢オフセットを設定することを目的の一つとする。 The present invention has been created to solve these problems, and an object thereof is to set a posture offset of a tool with respect to an arm.
上記目的を達成するためのロボットは、ツールを装着可能な装着部を有するアームと、前記装着部に装着されたツールが作業空間における基準姿勢になったときに前記装着部の姿勢を取得し、取得した前記装着部の姿勢と前記基準姿勢に基づいて、前記装着部に装着されたツールの前記装着部に対する姿勢を設定するツール設定部と、を備える。
本発明によると、ツールが基準姿勢になったときに、ツールが装着された装着部の姿勢と基準姿勢とに基づいてツールの姿勢オフセットを設定することができる。
The robot for achieving the above-mentioned object acquires the posture of the mounting portion when an arm having a mounting portion on which a tool can be mounted and the tool mounted on the mounting portion becomes a reference posture in a work space, A tool setting unit configured to set a posture of the tool mounted on the mounting unit with respect to the mounting unit based on the acquired posture of the mounting unit and the reference posture.
According to the present invention, when the tool is in the reference posture, the tool posture offset can be set based on the posture of the mounting portion on which the tool is mounted and the reference posture.
なお請求項に記載された各手段の機能は、構成自体で機能が特定されるハードウェア資源、プログラムにより機能が特定されるハードウェア資源、又はそれらの組み合わせにより実現される。また、これら各手段の機能は、各々が物理的に互いに独立したハードウェア資源で実現されるものに限定されない。 Note that the function of each means described in the claims is realized by hardware resources whose function is specified by the configuration itself, hardware resources whose function is specified by a program, or a combination thereof. The functions of these means are not limited to those realized by hardware resources that are physically independent of each other.
以下、本発明の実施の形態を添付図面を参照しながら説明する。尚、各図において対応する構成要素には同一の符号が付され、重複する説明は省略される。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In addition, the same code | symbol is attached | subjected to the corresponding component in each figure, and the overlapping description is abbreviate | omitted.
1 第一実施例
1.1 構成
本発明の第一実施例としてのロボットシステムは、図1に示すように、ロボット1と、ロボット制御装置としてのPC(Personal Computer)3とを備えている。
1 First Embodiment 1.1 Configuration A robot system according to a first embodiment of the present invention includes a
図1Aに簡略化して示すように、ロボット1は、6つの回転軸部材121、122、123、124、125、126をアーム11に備える6軸ロボットである。ロボット1は、第一アーム111、第二アーム112、第三アーム113、第四アーム114、第五アーム115とからなるアーム11と、基台110とを備えている。基台110は、第一アーム111の回転軸部材121を支持している。第一アーム111は回転軸部材121の中心軸を中心にして回転軸部材121とともに基台110に対して回転する。第一アーム111は、第二アーム112の回転軸部材122を支持している。第二アーム112は、回転軸部材122の中心軸を中心にして回転軸部材122とともに第一アーム111に対して回転する。第二アーム112は、第三アーム113の回転軸部材123を支持している。第三アーム113は、回転軸部材123の中心軸を中心にして回転軸部材123とともに第二アーム112に対して回転する。第三アーム113は、第四アーム114の回転軸部材124を支持している。第四アーム114は、回転軸部材124の中心軸を中心にして回転軸部材124とともに第三アーム113に対して回転する。第四アーム114は、第五アーム115の回転軸部材125を支持している。第五アーム115は、回転軸部材125の中心軸を中心にして回転軸部材125とともに第四アーム114に対して回転する。第五アーム115は、ツールが装着される回転軸部材126を支持している。
As shown in a simplified manner in FIG. 1A, the
先端の回転軸部材126には、図2に示すように、ワークを操作するための各種のツールが装着される装着部としてのツールチャック1261が設けられている。図2Aに示すように、ツールチャック1261の取付面は、放射状に分割されており、その中央部にツールの棒状の取付部TJが装着される。ツールチャック1261の先端面の中心をツールセンターポイント(TCP)という。ツールチャック1261は、回転軸部材126の回転軸上にツールTの軸部TJを挟み込んで保持する。したがってツールがツールチャック1261に正しく装着された状態において、ツールの取付部TJの中心軸は、回転軸部材126の回転軸と一致する。
As shown in FIG. 2, a
ロボット1を制御する際に用いられるロボット1の座標系は、作業空間に固定され、それぞれが水平なx軸とy軸と、鉛直下向きを正方向とするz軸とによって定まる3次元の直交座標系である。以下、このようなロボット1の座標系をロボット座標系とも言う。またz軸周りの回転をu、y軸周りの回転をv、x軸周りの回転をwで表す。ロボット座標系の長さの単位はミリメートル、角度の単位は度である。
The coordinate system of the
TCPの位置と姿勢は各種のツールの位置と姿勢の基準となる。すなわち、ツールチャック1261に装着される任意のツールのオフセットは、回転軸部材126に固有の座標系に対して設定される。回転軸部材126に固有の座標系は、TCPを原点とし、回転軸部材126の回転軸と平行なz6軸と、z6軸に垂直なx6軸とy6軸とで定まり、回転軸部材126とともに回転する。以下、このようなTCPに固有の座標系をTCP座標系という。
The position and orientation of the TCP is a reference for the position and orientation of various tools. That is, the offset of an arbitrary tool mounted on the
本実施例では、図3に示すツールTがツールチャック1261に装着され、ツールTのTCPに対する姿勢のオフセット(姿勢オフセット)を設定する手順について説明する。ツールTの平坦面TRを、TCPに対する姿勢オフセットを求める基準となる参照面とし、参照面TR上の1点を参照点TCとする。本実施例ではツールTに対しても、その姿勢を定義するために3軸直交座標系を定める。参照点TCを原点とし、参照面TRに対して垂直なz7軸と、ツールTをツールチャック1261に装着した状態においてTCP座標系のz6軸と同一平面に含まれz7軸に垂直なx7軸と、x7軸とz7軸とに垂直なy7軸とで定まる座標系をツールTの姿勢を定義するための座標系とする。以下、ツールTに固有のこの座標系をツール座標系という。本実施例では、TCP座標系におけるツール座標系の各軸の方向がツールTの姿勢オフセットとして設定される。
In the present embodiment, a procedure for mounting the tool T shown in FIG. 3 on the
図1Bに示すように、ロボット1は、回転軸部材121を駆動するモーター131と、回転軸部材122を駆動するモーター132と、回転軸部材123を駆動するモーター133と、回転軸部材124を駆動するモーター134と、回転軸部材125を駆動するモーター135と、回転軸部材126を駆動するモーター136と、モーター131〜136を制御する制御部14とを備えている。モーター131〜136は、アーム111〜115の構成要素である。モーター131〜136は、目標値と現在値との差分がゼロになるようにフィードバック制御されるサーボモーターである。制御部14は、TCPの位置と姿勢を示す目標値やJOG送り指示をPC3から取得し、目標値とJOG送り指示に基づいてモーター131〜136を制御する。
As illustrated in FIG. 1B, the
PC3はロボット1に接続されている。PC3には、ツールの姿勢オフセットを設定するためのツールセットプログラムがインストールされている。PC3は、図示しないプロセッサ、DRAMからなる図示しない主記憶、図示しない入出力機構、不揮発性メモリからなる図示しない外部記憶、ディスプレイ、指示受付部30として機能するキーボード等を備えるコンピューターである。PC3は、外部記憶に記憶されたツールセットプログラムをプロセッサで実行することにより、指示受付部30、出力部33、ツール設定部35として機能する。
The
指示受付部30は、TCP等の操作点の位置と姿勢を、目標を定めずに変化させるための起動指示、停止指示、加速指示、減速指示といったJOG送り指示や、基準姿勢の設定指示や、ツールの姿勢オフセットを設定するタイミングを指示するためのオフセット設定指示を受け付ける。
出力部33は、JOG送り指示と目標値をロボット1の制御部14に出力する。
ツール設定部35は、オフセット設定指示に応じて、TCPの姿勢を取得し、取得したTCPの姿勢と基準姿勢とに基づいて、TCPに対するツールの姿勢オフセットを導出して設定する。
The
The
The
1.2 ツールセット処理
以下、TCPに対するツールTの姿勢、すなわち姿勢オフセットを導出して設定するためのツールセット処理について図4を参照しながら説明する。
1.2 Tool Set Processing Hereinafter, tool set processing for deriving and setting the posture of the tool T with respect to the TCP, that is, the posture offset will be described with reference to FIG.
ツールの姿勢オフセットを設定するためには、何らかの基準面を設定する必要がある(ステップS10)。基準面は、ツールの基準姿勢を定めるための平面である。本実施例では、上面が平坦な作業台9を基準物とし、その上面を基準面とし、基準面の法線と平行なz軸の単位ベクトル(0,0,1)を基準面の姿勢として設定する。なお、基準面の法線方向はz軸の方向に限らず、ツールを用いた作業内容に応じて任意に設定可能である。基準面の法線方向は、オペレーターに入力させても良いし、予め決めてツールセットプログラムに設定しておいてもよい。基準面の法線方向をツールセットプログラムで予め決めておく場合、予め決められた方向が法線方向となる平坦面を有する基準物をオペレーターが用意する。 In order to set the tool posture offset, it is necessary to set some reference plane (step S10). The reference plane is a plane for determining the reference posture of the tool. In this embodiment, a work table 9 having a flat upper surface is used as a reference object, the upper surface is used as a reference surface, and a z-axis unit vector (0, 0, 1) parallel to the normal of the reference surface is used as the reference surface posture. Set. The normal direction of the reference plane is not limited to the z-axis direction, and can be arbitrarily set according to the work contents using the tool. The normal direction of the reference plane may be input by the operator, or may be determined in advance and set in the tool set program. When the normal direction of the reference surface is determined in advance by the tool set program, the operator prepares a reference object having a flat surface in which the predetermined direction is the normal direction.
基準面を設定すると、オペレーターはツールTの参照面TRを基準面と面接触させるためのJOG送り指示を行う(ステップS11)。すなわちオペレーターは、JOG送り指示により基準面に参照面TRが面接触した状態にすることで、ツールTを基準姿勢にする。 When the reference surface is set, the operator gives a JOG feed instruction for bringing the reference surface TR of the tool T into surface contact with the reference surface (step S11). That is, the operator places the tool T in the standard posture by bringing the reference surface TR into surface contact with the standard surface by a JOG feed instruction.
オペレーターのJOG送り指示に応じて出力部33がJOG送り指示を制御部14に出力すると、アーム11が動く(ステップS12)。例えば図5Aに示すようにツールTの参照面TRが作業台9の上面である基準面から離れた状態から、JOG送り指示により図5Bに示すようにツールTの参照面TRを基準面である作業台9の上面と面接触させると、基準面の法線であるz軸に対して参照面TRが垂直になる。この状態では、ツール座標系の原点である参照点TCは基準面上に位置し、ツール座標系のz7軸は基準面に対して垂直、すなわちロボット座標系のz軸と平行になる。なお、通常、JOG送り指示とそれに応じたアームの動作は繰り返されるが、図4に示すフローチャートでは繰り返しについては省略している。
When the
ツールTの参照面TRが基準面に面接触すると、オペレーターはオフセット設定指示を入力する(ステップS13)。すなわちオペレーターは、JOG送り指示によってツールTを基準姿勢に動かし、ツールTが基準姿勢になったことを自ら目視で確認してオフセット設定指示を入力する。 When the reference surface TR of the tool T comes into surface contact with the reference surface, the operator inputs an offset setting instruction (step S13). That is, the operator moves the tool T to the reference posture by the JOG feed instruction, and visually confirms that the tool T has reached the reference posture, and inputs the offset setting instruction.
オフセット設定指示が入力されると、オフセット設定部35は、基準面の法線方向とTCPの姿勢に基づいてツールの姿勢オフセットを導出して設定する(ステップS14)。図5Cは、図5Bに示すようにツールTの参照面TRが基準面に面接触している状態において、ロボット座標系(x、y、z)とTCP座標系(x6、y6、z6)とツール座標系(x7、y7、z7)の関係を示している。なお図5Cにおいては、ロボット座標系の原点が作業台9の上面上にあると仮定している。この状態において最初に導出すべきツールTの姿勢オフセットは、TCP座標系で表したツール座標系のz7軸の方向である。ツールTの参照面TRが基準面に面接触している状態では、ツール座標系のz7軸の方向とロボット座標系のz軸の方向は一致する。そしてロボット座標系とTCP座標系の変換行列は当然に既知である。したがって、オフセット設定部35は、ツールTの参照面TRが基準面に面接触している状態におけるTCP座標系に対するロボット座標系のz軸の方向を、z7軸の方向すなわち参照面TRの法線方向として導出する。
When the offset setting instruction is input, the offset setting
本実施例においてツールTのx7軸の方向は、その定義から、TCP座標系のz6軸と同一平面上にあってz7軸と垂直である。そこでオフセット設定部35は、ツールTの参照面TRが基準面に面接触している状態におけるTCP座標系のz6軸をロボット座標系のxy平面に投影した直線をx7軸とし、z7軸およびx7軸に垂直な軸をy7軸として、TCP座標系におけるx7軸とy7軸の方向を導出する。ただし、ツールの形態と用途によっては、ツールの参照面の法線方向をTCP座標系で設定できれば十分である。したがって、ツールの姿勢オフセットとして参照面の法線方向を設定してツールオフセットを終了して差し支えない場合もある。
Direction x 7 axis of the tool T in this embodiment, by definition, is perpendicular to the z 7 shaft be on z 6-axis flush with TCP coordinate system. Accordingly, the offset setting
以上述べたとおり、第一実施例では、オペレーターがJOG送り指示によってツールTの参照面TRを基準面と面接触させてツールを基準姿勢にした状態で、ツールTの参照面TRが基準面と面接触したことをオフセット設定指示によってPC3に通知するため、PC3はツールTの参照面TRの法線方向をTCP座標系で導出し、ツールTの姿勢オフセットを設定することができる。
As described above, in the first embodiment, the operator makes the reference plane TR of the tool T the reference plane in a state where the reference plane TR of the tool T is brought into surface contact with the reference plane in accordance with the JOG feed instruction and the tool is in the standard posture. Since the
2.第二実施例
第二実施例では、オペレーターがJOG送り指示によってツールTの参照面TRを基準面と面接触させてツールを基準姿勢にするかわりに、ロボットビジョンを用いてツールを基準姿勢にする方法について説明する。
2. Second Example In the second example, instead of the operator bringing the reference surface TR of the tool T into surface contact with the reference surface in accordance with a JOG feed instruction to bring the tool into the reference posture, the tool is set to the reference posture using robot vision. A method will be described.
第二実施例のロボットシステムは、図6に示すように撮像部2を備え、ロボット制御装置としてのPC3は、ツールセットプログラムを実行することにより画像取得部31、目標値導出部32としても機能する。
The robot system of the second embodiment includes an
本実施例のロボットビジョンは、予め決められた基準面を対象とする二次元のロボットビジョンである。撮像部2は、ロボット座標系のz軸に対して垂直な基準面内におけるワークの大きさ、形状および位置を認識するために用いられるカメラであって、レンズ201、エリアイメージセンサー202、図示しないAD変換器等を備える。撮像部2は、図6Aに示すように、作業台9上の所定位置に、鉛直上向きに撮像できるように設けられる。すなわち撮像部2は、レンズ201の光軸がロボット座標系のz軸と平行になるように設置される。
The robot vision of this embodiment is a two-dimensional robot vision for a predetermined reference plane. The
撮像部2の座標系は、撮像部2から出力される画像の座標系であって、画像の水平右向きを正方向とするB軸と、画像の垂直下向きを正方向とするC軸とによって定まる。以下、撮像部2から出力される画像の座標系を画像座標系とも言う。画像座標系の長さの単位はピクセル、角度の単位は度である。撮像部2によって撮像される画像の重心が光学系の中心に対応するようにエリアイメージセンサー202とレンズ201の位置関係が定められている。すなわちレンズ201の光軸上の点は画像の重心に撮像される。なお、本実施例では、基準面をz軸と垂直に定めるためにレンズ201の光軸がz軸と平行になるように撮像部2を設置するが、基準面の定め方は任意であり、撮像部2はその撮像方向を定めるレンズ201の光軸が基準面に対して垂直になるように設置すればよい。
The coordinate system of the
ツールの姿勢を画像認識するため、本実施例では、図7Aに示すように5つのマーカーM1〜M5が形成されたシール4をツールTの参照面TRに貼付して用いる。シール4は、中央のマーカーM3の中心がツールTの参照点TCと一致するように参照面TRに貼付される。なお、マーカーの数は3つ以上あれば良く、マーカーの形態は画像認識によってその位置を特定可能な形態であればよいし、また、ツールTの参照面TR自体が画像認識によって検出可能な特徴点を3つ以上有している場合、特徴点自体をマーカーとして用いればよい。
In order to recognize an image of the posture of the tool, in this embodiment, a
画像取得部31は、撮像部2に対して撮像を指示し、指示に応じて撮像された画像を撮像部2から取得する。目標値導出部32は、マーカーM1〜M5を画像認識するためのテンプレートを保持している。このテンプレートは撮像部2から取得する画像を解析してマーカーM1〜M5の座標を画像座標系で検出するために用いられる。目標値導出部32は、アーム11を予め決められた状態に変化させるための目標値を、撮像部2が撮像した画像に基づいて導出する。
The
以下、ロボットビジョンを用いてツールを基準姿勢にする傾き補正について、図8を参照しながら説明する。本実施例では、ツールTをツールチャック1261に正しく装着し、ツールTの参照面TRに貼付されたシール4を撮像部2によって撮像可能な位置と姿勢にJOG送り指示で動かし、第一実施例と同様に何らかの基準面を設定すると(ステップS10)、自動的にツールの姿勢オフセットを設定することができる。JOG送り指示でツールTを動かすにあたり、位置と姿勢の精度は必要が無く、ツールTに貼付されたシール4が撮像部2によって撮像可能な位置と姿勢になればよい。
Hereinafter, tilt correction using the robot vision to make the tool a reference posture will be described with reference to FIG. In this embodiment, the tool T is correctly mounted on the
基準面が設定されシール4を撮像部2によって撮像可能になると、PC3は撮像部2が撮像する画像に基づいてアーム11を動かして中央のマーカーM3を撮像部2の光軸に位置合わせする(ステップS201)。具体的には、画像取得部31は撮像部2に撮像を指示して撮像部2から画像を取得し、目標値導出部32は、取得した画像に基づいて中央のマーカーM3を撮像部2の光軸に位置合わせするための目標値を導出する。すなわち目標値導出部32は、テンプレートを用いてマーカーM3の位置を検出し、マーカーMからレンズ202の光軸に対応する画像の重心までの変位を画像座標系で導出し、画像座標系で導出した変位を座標変換行列を用いてロボット座標系に変換する。出力部33はロボット座標系に変換された変位を目標値として制御部14に出力することにより、アーム11を動かす。
When the reference plane is set and the
中央のマーカーM3を撮像部2の光軸に位置合わせすると、PC3はツールTの参照面TRの現在の傾き指標H1を導出する(ステップS202)。参照面TRが撮像部2の光軸に垂直であって中央のマーカーM3を撮像部2の光軸が通る状態で撮像部2によって撮像される画像においては、中央のマーカーM3と周辺のマーカーM1、M2、M4、M5の距離d13、d23、d34、d35は等しくなる。そしてこのとき、画像から検出したマーカーMnの座標をp(n)で表すとすれば、次式が成立する。
When the center marker M3 is aligned with the optical axis of the
|u1|=|u2|
|v1|=|v2|
ただし、
u1=p(3)−p(2)
u2=p(4)−p(3)
v1=p(3)−p(1)
v2=p(5)−p(3)
| U 1 | = | u 2 |
| V 1 | = | v 2 |
However,
u 1 = p (3) −p (2)
u 2 = p (4) −p (3)
v 1 = p (3) −p (1)
v 2 = p (5) -p (3)
そして、参照面TRと撮像部2の光軸が垂直な状態からマーカーM1と基準点M5を結ぶ直線を軸に参照面TRが回転すると、回転角度に応じて|v1|と|v2|の差が大きくなる。また垂直状態からマーカーM2とマーカーM4を結ぶ直線を軸に参照面TRが回転すると、回転角度に応じて|u1|と|u2|の差が大きくなる。したがって、傾き指標として次式のHx、Hyを用いることができる。
Then, when the reference plane TR rotates around a straight line connecting the marker M1 and the reference point M5 from a state where the optical axis of the reference plane TR and the
Hx=|u1|−|u2|
Hy=|v1|−|v2|
H x = | u 1 | − | u 2 |
H y = | v 1 | − | v 2 |
次に目標値導出部32は、導出した傾き指標Hx、Hyを予め決めた閾値と比較し、傾き指標Hx、Hyが予め決められた閾値以下であるか否かを判定する(ステップS203)。傾き指標Hx、Hyが予め決められた閾値以下である場合、傾き補正は成功し、参照面TRは基準面と平行になってツールが基準姿勢となる。 Next, the target value deriving unit 32 compares the derived inclination indexes H x and H y with a predetermined threshold value, and determines whether or not the inclination indexes H x and H y are equal to or less than the predetermined threshold value ( Step S203). When the tilt indices H x and H y are equal to or smaller than a predetermined threshold, the tilt correction is successful, the reference plane TR is parallel to the reference plane, and the tool is in the reference posture.
傾き指標Hx、Hyが予め決められた閾値以下でない場合、目標値導出部32は、後述するステップS212の傾き補正の実施回数が予め決められた閾値未満であるか否かを判定する(ステップS204)。傾き補正の実施回数が予め決められた閾値未満でない場合、傾き補正は失敗して終了する。 If the slope indices H x and H y are not less than or equal to a predetermined threshold value, the target value deriving unit 32 determines whether or not the number of times of slope correction performed in step S212, which will be described later, is less than a predetermined threshold value ( Step S204). If the number of executions of the inclination correction is not less than a predetermined threshold, the inclination correction fails and ends.
ステップS212の傾き補正の実施回数が予め決められた閾値未満である場合、目標値導出部32は現在のTCPの姿勢を姿勢(1)として保存する(ステップS205)。 When the number of executions of the tilt correction in step S212 is less than a predetermined threshold, the target value deriving unit 32 stores the current TCP posture as the posture (1) (step S205).
続いて目標値導出部32は参照面TRをy軸まわりにδ度回転させるための目標値を導出し、出力部33は導出された目標値をロボットに出力する(ステップS206)。δは、ツールの姿勢に許容される誤差に応じて予め決められる微小な角度である。
Subsequently, the target value deriving unit 32 derives a target value for rotating the reference plane TR around the y axis by δ degrees, and the
次にPC3は、参照面TRをδ度回転させた後の参照面TRの傾き指標H2を導出する(ステップS207)。具体的には、画像取得部31は撮像部2に撮像を指示し、撮像部2から画像を取得する。目標値導出部32は取得された画像をステップS202と同様に解析することにより、傾き指標H2を導出する。その結果、姿勢(1)からy軸まわりにδ度回転した参照面TRについて傾き指標H2が導出される。
Next PC3 derives the reference plane TR after the reference surface TR is rotated δ degrees inclination indicator H 2 (step S207). Specifically, the
続いてPC3は、アーム11を姿勢(1)に復帰させる(ステップS208)。すなわち出力部33は、姿勢(1)に復帰させるための目標値を制御部15に出力する。
Subsequently, the
次にPC3は、アーム11を動かして参照面TRをx軸まわりにδ度回転させる(ステップS209)。なお、本実施例ではy軸とx軸の周りに回転させて参照面TRの傾きを補正するが、画像座標系のB軸とC軸の周りに回転させて参照面TRの傾きを補正しても良い。
Next, the
次にPC3は、姿勢(1)からx軸周りにδ度だけ回転した参照面について、ステップS202と同様に傾き指標H3を導出する(ステップS211)。 Next, the PC 3 derives an inclination index H3 for the reference surface rotated by δ degrees around the x axis from the posture (1), similarly to step S202 (step S211).
次にPC3は、傾き指標H1、H2、H3に基づいて、ツールTを基準姿勢にするために参照面TRを基準面と平行にする、すなわち、参照面TRを撮像部2の光軸に対して垂直にするための傾き補正量ΔV、ΔWを導出する(ステップS211)。傾き補正量ΔV、ΔWは、次式によって目標導出部33が導出する。
次に目標値導出部32は導出された傾き補正量ΔV、ΔWに基づいて目標値を導出し、導出された目標値を出力部33がロボットに出力する(ステップS212)。その結果、アーム11が動き、X軸まわりにΔV、Y軸周りにΔWだけ参照面TRが回転する。
Next, the target value deriving unit 32 derives a target value based on the derived inclination correction amounts ΔV and ΔW, and the
傾き補正では、以上述べたステップS202からS212までの処理が、ステップS203で肯定判定がなされるか、ステップS204で否定判定がなされるまで繰り返される。 In the inclination correction, the processes from step S202 to S212 described above are repeated until an affirmative determination is made in step S203 or a negative determination is made in step S204.
参照面TRの基準面に対する傾き指標H1が閾値以下になってステップS203で肯定判定がなされると、PC3は、第一実施例と同様に、現在の基準面TRの法線方向とTCPの姿勢に基づいてツールTの姿勢オフセットを導出して設定する(ステップS14)。すなわち、PC3は、ロボットビジョンを用いてツールTを基準姿勢にした状態で、TCPの姿勢と基準平面の姿勢とに基づいて自動的にツールTの姿勢オフセットを導出して設定する。
If it falls below gradient index H 1 threshold affirmative determination is made in step S203 to the reference plane of the reference surfaces TR is made, PC3, like the first embodiment, the normal direction and TCP current reference plane TR A posture offset of the tool T is derived and set based on the posture (step S14). That is, the
以上説明した第二実施例によると、オペレーターがJOG送り指示によってツールの参照面を基準面と面接触させてツールを基準姿勢にする操作が不要であるため、ツールの姿勢オフセットの設定が容易になる。 According to the second embodiment described above, it is not necessary for the operator to bring the tool reference surface into surface contact with the reference surface by a JOG feed instruction so that the tool posture offset can be easily set. Become.
3.他の実施形態
尚、本発明の技術的範囲は、上述した実施例に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。例えば第一実施例ではオペレーターが目視しながらツールの参照面を基準面と面接触させてオフセット設定指示をPC3に入力したが、ツールの参照面と基準面の接触状態をセンサーを用いて検出しても良い。具体的には、接触状態を検出する光学式又は接触式のセンサーを基準面の3カ所以上に設けることにより、ツールの参照面と基準面が面接触したことを検出可能になる。この場合、センサーがツールの参照面と基準面の面接触を検出したことに応じて、オフセットの導出を自動的に開始することができる。
また本発明は、6軸以外の垂直多関節ロボットにも適用できる。
3. Other Embodiments The technical scope of the present invention is not limited to the above-described embodiments, and it goes without saying that various modifications can be made without departing from the scope of the present invention. For example, in the first embodiment, the operator sets the reference surface of the tool in contact with the reference surface while visually observing the operator and inputs an offset setting instruction to the
The present invention can also be applied to vertical articulated robots other than six axes.
131〜136…モーター、111〜115…アーム、1…ロボット、2…撮像部、3…PC、9…作業台、14…制御部、31…画像取得部、32…目標値導出部、33…出力部、35…ツール設定部、110…基台、111…第一アーム、112…第二アーム、113…第三アーム、114…第四アーム、115…第五アーム、121〜126…回転軸部材、131〜136…モーター、201…レンズ、202…エリアイメージセンサー、1261…ツールチャック、M…マーカー、T…ツール、TR…参照面 131-136 ... motor, 111-115 ... arm, 1 ... robot, 2 ... imaging unit, 3 ... PC, 9 ... work table, 14 ... control unit, 31 ... image acquisition unit, 32 ... target value deriving unit, 33 ... Output unit, 35 ... tool setting unit, 110 ... base, 111 ... first arm, 112 ... second arm, 113 ... third arm, 114 ... fourth arm, 115 ... fifth arm, 121-126 ... rotating shaft Member, 131-136 ... Motor, 201 ... Lens, 202 ... Area image sensor, 1261 ... Tool chuck, M ... Marker, T ... Tool, TR ... Reference plane
Claims (6)
前記装着部に装着されたツールが作業空間における基準姿勢になったときに前記装着部の姿勢を取得し、取得した前記装着部の姿勢と前記基準姿勢に基づいて、前記装着部に装着されたツールの前記装着部に対する姿勢オフセットを設定するツール設定部と、
を備えるロボット。 An arm having a mounting portion on which a tool can be mounted;
When the tool mounted on the mounting portion becomes a reference posture in the work space, the posture of the mounting portion is acquired, and the tool is mounted on the mounting portion based on the acquired posture of the mounting portion and the reference posture. A tool setting unit for setting a posture offset with respect to the mounting unit of the tool;
Robot equipped with.
前記ツール設定部は、前記基準面に前記参照面が面接触したときに前記装着部の姿勢を取得する、
請求項1に記載のロボット。 The reference posture is a posture in which a flat reference surface of a reference object installed in the work space is parallel to a flat reference surface of the tool,
The tool setting unit obtains the posture of the mounting unit when the reference surface comes into surface contact with the reference surface.
The robot according to claim 1.
前記装着部に装着されたツールが前記撮像部によって撮像された画像に基づいて、前記装着部に装着されたツールを前記基準姿勢にするアーム制御部と、
を備える請求項1に記載のロボット。 An image acquisition unit for acquiring an image from an imaging unit installed in the work space;
An arm control unit that sets the tool mounted on the mounting unit to the reference posture based on an image captured by the imaging unit of the tool mounted on the mounting unit;
The robot according to claim 1, comprising:
請求項3に記載のロボット。 The arm control unit detects a plurality of reference points of the tool from an image captured by the imaging unit by a tool mounted on the mounting unit, and based on the detected positions of the plurality of reference points, the mounting unit The tool attached to the reference posture,
The robot according to claim 3.
前記装着部に装着されたツールが作業空間における基準姿勢になったときに前記装着部の姿勢を取得し、取得した前記装着部の姿勢と前記基準姿勢に基づいて、前記装着部に装着されたツールの前記装着部に対する姿勢オフセットを設定するツール設定部と、
を備えるロボット制御装置。 A robot control apparatus for controlling a robot including an arm having a mounting portion on which a tool can be mounted,
When the tool mounted on the mounting portion becomes a reference posture in the work space, the posture of the mounting portion is acquired, and the tool is mounted on the mounting portion based on the acquired posture of the mounting portion and the reference posture. A tool setting unit for setting a posture offset with respect to the mounting unit of the tool;
A robot control device comprising:
作業空間に設置された撮像部と、
前記撮像部から画像を取得する画像取得部と、
前記装着部に装着されたツールが前記作業空間における基準姿勢になったときに前記装着部の姿勢を取得し、取得した前記装着部の姿勢と前記基準姿勢に基づいて、前記装着部に装着されたツールの前記装着部に対する姿勢を設定するツール設定部と、
前記装着部に装着されたツールが前記撮像部によって撮像された画像に基づいて、前記装着部に装着されたツールを前記基準姿勢にするアーム制御部と、
を備えるロボットシステム。 An arm having a mounting portion on which a tool can be mounted;
An imaging unit installed in the work space;
An image acquisition unit for acquiring an image from the imaging unit;
When the tool mounted on the mounting portion becomes a reference posture in the work space, the posture of the mounting portion is acquired, and the tool is mounted on the mounting portion based on the acquired posture of the mounting portion and the reference posture. A tool setting unit for setting a posture of the attached tool with respect to the mounting unit;
An arm control unit that sets the tool mounted on the mounting unit to the reference posture based on an image captured by the imaging unit of the tool mounted on the mounting unit;
A robot system comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015063920A JP2016182648A (en) | 2015-03-26 | 2015-03-26 | Robot, robot control device and robot system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015063920A JP2016182648A (en) | 2015-03-26 | 2015-03-26 | Robot, robot control device and robot system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016182648A true JP2016182648A (en) | 2016-10-20 |
Family
ID=57242259
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015063920A Pending JP2016182648A (en) | 2015-03-26 | 2015-03-26 | Robot, robot control device and robot system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016182648A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10201900B2 (en) | 2015-12-01 | 2019-02-12 | Seiko Epson Corporation | Control device, robot, and robot system |
US10882189B2 (en) | 2017-04-21 | 2021-01-05 | Seiko Epson Corporation | Control device and robot system |
JP2022504368A (en) * | 2018-10-25 | 2022-01-13 | ウィンク・ロボティクス | Detachable end effector for beauty robotics |
CN114952806A (en) * | 2022-06-16 | 2022-08-30 | 法奥意威(苏州)机器人系统有限公司 | Constraint motion control method, device and system and electronic equipment |
-
2015
- 2015-03-26 JP JP2015063920A patent/JP2016182648A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10201900B2 (en) | 2015-12-01 | 2019-02-12 | Seiko Epson Corporation | Control device, robot, and robot system |
US10882189B2 (en) | 2017-04-21 | 2021-01-05 | Seiko Epson Corporation | Control device and robot system |
JP2022504368A (en) * | 2018-10-25 | 2022-01-13 | ウィンク・ロボティクス | Detachable end effector for beauty robotics |
US11787071B2 (en) | 2018-10-25 | 2023-10-17 | Wink Robotics | Detachable end effectors for cosmetics robotics |
CN114952806A (en) * | 2022-06-16 | 2022-08-30 | 法奥意威(苏州)机器人系统有限公司 | Constraint motion control method, device and system and electronic equipment |
CN114952806B (en) * | 2022-06-16 | 2023-10-03 | 法奥意威(苏州)机器人系统有限公司 | Constrained motion control method, constrained motion control device, constrained motion control system and electronic equipment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI670153B (en) | Robot and robot system | |
US9884425B2 (en) | Robot, robot control device, and robotic system | |
US10099380B2 (en) | Robot, robot control device, and robot system | |
US10551821B2 (en) | Robot, robot control apparatus and robot system | |
CN107428009B (en) | Method for commissioning an industrial robot, industrial robot system and control system using the method | |
US9517563B2 (en) | Robot system using visual feedback | |
JP3946711B2 (en) | Robot system | |
JP6427972B2 (en) | Robot, robot system and control device | |
JP5365379B2 (en) | Robot system and robot system calibration method | |
US20160184996A1 (en) | Robot, robot system, control apparatus, and control method | |
US20160279800A1 (en) | Robot, robot control device, and robotic system | |
JP6565175B2 (en) | Robot and robot system | |
US10675759B2 (en) | Interference region setting apparatus for mobile robot | |
KR20140008262A (en) | Robot system, robot, robot control device, robot control method, and robot control program | |
JP5292998B2 (en) | Robot apparatus control method and robot apparatus | |
JP2005201824A (en) | Measuring device | |
JP6950638B2 (en) | Manipulator controller, manipulator control method, and manipulator control program | |
JP6885856B2 (en) | Robot system and calibration method | |
JP2016182648A (en) | Robot, robot control device and robot system | |
US20190030722A1 (en) | Control device, robot system, and control method | |
JP5787646B2 (en) | Robot system and component manufacturing method | |
JP6507792B2 (en) | Robot and robot system | |
JP2016203282A (en) | Robot with mechanism for changing end effector attitude | |
JPWO2020157875A1 (en) | Working coordinate creation device | |
US20230328372A1 (en) | Image processing system and image processing method |