JP2016182648A - Robot, robot control device and robot system - Google Patents

Robot, robot control device and robot system Download PDF

Info

Publication number
JP2016182648A
JP2016182648A JP2015063920A JP2015063920A JP2016182648A JP 2016182648 A JP2016182648 A JP 2016182648A JP 2015063920 A JP2015063920 A JP 2015063920A JP 2015063920 A JP2015063920 A JP 2015063920A JP 2016182648 A JP2016182648 A JP 2016182648A
Authority
JP
Japan
Prior art keywords
tool
posture
unit
robot
arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015063920A
Other languages
Japanese (ja)
Inventor
健至 恩田
Kenji Onda
健至 恩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015063920A priority Critical patent/JP2016182648A/en
Publication of JP2016182648A publication Critical patent/JP2016182648A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To execute easily in a short time, attitude offset of a tool mounted on a robot arm.SOLUTION: A robot includes: an arm having a mounting part where a tool can be mounted; and a tool setting part for acquiring an attitude of the mounting part when the tool mounted on the mounting part has a reference attitude in a work space, and for setting attitude offset to the mounting part of the tool mounted on the mounting part, based on the acquired attitude of the mounting part and the reference attitude.SELECTED DRAWING: Figure 4

Description

本発明は、ロボット、ロボット制御装置およびロボットシステムに関する。   The present invention relates to a robot, a robot control device, and a robot system.

従来、アームに装着されるツールを用いてワークを処理する前に、アームに対するツールのオフセットを設定する処理が行われている。特許文献1には、アームに装着されたツールを実空間の基準点に位置合わせする操作を、アームの姿勢を変えて複数回実行した結果に基づいて、アームに対するツールのオフセットを導出する方法が開示されている。   2. Description of the Related Art Conventionally, processing for setting an offset of a tool with respect to an arm has been performed before processing a workpiece using a tool attached to the arm. Patent Document 1 discloses a method for deriving an offset of a tool with respect to an arm based on a result of performing an operation of aligning a tool attached to an arm with a reference point in real space a plurality of times while changing the posture of the arm. It is disclosed.

特開平8−85083号公報JP-A-8-85083

ところでツールによってワークを処理する際には、適切な姿勢でツールをワークに接触させなければならない。しかし、特許文献1に記載された技術によると、ツールの1点と基準点を位置合わせしてオフセットを導出するため、アームに対するツールの位置のオフセットを設定することはできても、アームに対するツールの姿勢のオフセットを設定することはできない。ワークに対するツールの姿勢オフセットが設定されなければ、ワークに対するツールの姿勢を自動制御することができないという問題がある。   By the way, when processing a workpiece with a tool, the tool must be brought into contact with the workpiece in an appropriate posture. However, according to the technique described in Patent Document 1, since the offset is derived by aligning one point of the tool with the reference point, the tool position relative to the arm can be set even though the offset of the tool position relative to the arm can be set. The posture offset cannot be set. If the tool posture offset with respect to the workpiece is not set, there is a problem that the posture of the tool with respect to the workpiece cannot be automatically controlled.

本発明は、これらの問題を解決するために創作されたものであって、アームに対するツールの姿勢オフセットを設定することを目的の一つとする。   The present invention has been created to solve these problems, and an object thereof is to set a posture offset of a tool with respect to an arm.

上記目的を達成するためのロボットは、ツールを装着可能な装着部を有するアームと、前記装着部に装着されたツールが作業空間における基準姿勢になったときに前記装着部の姿勢を取得し、取得した前記装着部の姿勢と前記基準姿勢に基づいて、前記装着部に装着されたツールの前記装着部に対する姿勢を設定するツール設定部と、を備える。
本発明によると、ツールが基準姿勢になったときに、ツールが装着された装着部の姿勢と基準姿勢とに基づいてツールの姿勢オフセットを設定することができる。
The robot for achieving the above-mentioned object acquires the posture of the mounting portion when an arm having a mounting portion on which a tool can be mounted and the tool mounted on the mounting portion becomes a reference posture in a work space, A tool setting unit configured to set a posture of the tool mounted on the mounting unit with respect to the mounting unit based on the acquired posture of the mounting unit and the reference posture.
According to the present invention, when the tool is in the reference posture, the tool posture offset can be set based on the posture of the mounting portion on which the tool is mounted and the reference posture.

なお請求項に記載された各手段の機能は、構成自体で機能が特定されるハードウェア資源、プログラムにより機能が特定されるハードウェア資源、又はそれらの組み合わせにより実現される。また、これら各手段の機能は、各々が物理的に互いに独立したハードウェア資源で実現されるものに限定されない。   Note that the function of each means described in the claims is realized by hardware resources whose function is specified by the configuration itself, hardware resources whose function is specified by a program, or a combination thereof. The functions of these means are not limited to those realized by hardware resources that are physically independent of each other.

図1Aは本発明の実施形態にかかる模式的な斜視図。図1Bは本発明の実施形態にかかるブロック図。FIG. 1A is a schematic perspective view according to an embodiment of the present invention. FIG. 1B is a block diagram according to an embodiment of the present invention. 図2Aは本発明の実施形態にかかる平面図、図2Bは本発明の実施形態にかかる側面図である。2A is a plan view according to the embodiment of the present invention, and FIG. 2B is a side view according to the embodiment of the present invention. 図3Aは本発明の実施形態にかかる側面図、図3Bは本発明の実施形態に係る上面図、図3Cは本発明の実施形態にかかる底面図である。3A is a side view according to the embodiment of the present invention, FIG. 3B is a top view according to the embodiment of the present invention, and FIG. 3C is a bottom view according to the embodiment of the present invention. 本発明の実施形態にかかるフローチャート。The flowchart concerning embodiment of this invention. 本発明の実施形態にかかる座標図。The coordinate diagram concerning embodiment of this invention. 図6Aは本発明の実施形態にかかる模式的な斜視図、図6Bは本発明の実施形態にかかるブロック図である。FIG. 6A is a schematic perspective view according to the embodiment of the present invention, and FIG. 6B is a block diagram according to the embodiment of the present invention. 本発明の実施形態にかかる平面図。The top view concerning embodiment of this invention. 本発明の実施形態にかかるフローチャート。The flowchart concerning embodiment of this invention.

以下、本発明の実施の形態を添付図面を参照しながら説明する。尚、各図において対応する構成要素には同一の符号が付され、重複する説明は省略される。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In addition, the same code | symbol is attached | subjected to the corresponding component in each figure, and the overlapping description is abbreviate | omitted.

1 第一実施例
1.1 構成
本発明の第一実施例としてのロボットシステムは、図1に示すように、ロボット1と、ロボット制御装置としてのPC(Personal Computer)3とを備えている。
1 First Embodiment 1.1 Configuration A robot system according to a first embodiment of the present invention includes a robot 1 and a PC (Personal Computer) 3 as a robot control device, as shown in FIG.

図1Aに簡略化して示すように、ロボット1は、6つの回転軸部材121、122、123、124、125、126をアーム11に備える6軸ロボットである。ロボット1は、第一アーム111、第二アーム112、第三アーム113、第四アーム114、第五アーム115とからなるアーム11と、基台110とを備えている。基台110は、第一アーム111の回転軸部材121を支持している。第一アーム111は回転軸部材121の中心軸を中心にして回転軸部材121とともに基台110に対して回転する。第一アーム111は、第二アーム112の回転軸部材122を支持している。第二アーム112は、回転軸部材122の中心軸を中心にして回転軸部材122とともに第一アーム111に対して回転する。第二アーム112は、第三アーム113の回転軸部材123を支持している。第三アーム113は、回転軸部材123の中心軸を中心にして回転軸部材123とともに第二アーム112に対して回転する。第三アーム113は、第四アーム114の回転軸部材124を支持している。第四アーム114は、回転軸部材124の中心軸を中心にして回転軸部材124とともに第三アーム113に対して回転する。第四アーム114は、第五アーム115の回転軸部材125を支持している。第五アーム115は、回転軸部材125の中心軸を中心にして回転軸部材125とともに第四アーム114に対して回転する。第五アーム115は、ツールが装着される回転軸部材126を支持している。   As shown in a simplified manner in FIG. 1A, the robot 1 is a six-axis robot including six rotary shaft members 121, 122, 123, 124, 125, and 126 in the arm 11. The robot 1 includes an arm 11 including a first arm 111, a second arm 112, a third arm 113, a fourth arm 114, and a fifth arm 115, and a base 110. The base 110 supports the rotating shaft member 121 of the first arm 111. The first arm 111 rotates with respect to the base 110 together with the rotary shaft member 121 around the central axis of the rotary shaft member 121. The first arm 111 supports the rotating shaft member 122 of the second arm 112. The second arm 112 rotates with respect to the first arm 111 together with the rotary shaft member 122 about the central axis of the rotary shaft member 122. The second arm 112 supports the rotating shaft member 123 of the third arm 113. The third arm 113 rotates with respect to the second arm 112 together with the rotation shaft member 123 around the central axis of the rotation shaft member 123. The third arm 113 supports the rotating shaft member 124 of the fourth arm 114. The fourth arm 114 rotates with respect to the third arm 113 together with the rotation shaft member 124 about the central axis of the rotation shaft member 124. The fourth arm 114 supports the rotating shaft member 125 of the fifth arm 115. The fifth arm 115 rotates with respect to the fourth arm 114 together with the rotation shaft member 125 about the central axis of the rotation shaft member 125. The fifth arm 115 supports the rotary shaft member 126 on which the tool is mounted.

先端の回転軸部材126には、図2に示すように、ワークを操作するための各種のツールが装着される装着部としてのツールチャック1261が設けられている。図2Aに示すように、ツールチャック1261の取付面は、放射状に分割されており、その中央部にツールの棒状の取付部TJが装着される。ツールチャック1261の先端面の中心をツールセンターポイント(TCP)という。ツールチャック1261は、回転軸部材126の回転軸上にツールTの軸部TJを挟み込んで保持する。したがってツールがツールチャック1261に正しく装着された状態において、ツールの取付部TJの中心軸は、回転軸部材126の回転軸と一致する。   As shown in FIG. 2, a tool chuck 1261 as a mounting portion on which various tools for operating the work are mounted is provided on the rotary shaft member 126 at the tip. As shown in FIG. 2A, the attachment surface of the tool chuck 1261 is radially divided, and a tool-like attachment portion TJ of the tool is attached to the center portion thereof. The center of the tip surface of the tool chuck 1261 is referred to as a tool center point (TCP). The tool chuck 1261 sandwiches and holds the shaft portion TJ of the tool T on the rotating shaft of the rotating shaft member 126. Therefore, when the tool is correctly mounted on the tool chuck 1261, the center axis of the tool attachment portion TJ coincides with the rotation axis of the rotation shaft member 126.

ロボット1を制御する際に用いられるロボット1の座標系は、作業空間に固定され、それぞれが水平なx軸とy軸と、鉛直下向きを正方向とするz軸とによって定まる3次元の直交座標系である。以下、このようなロボット1の座標系をロボット座標系とも言う。またz軸周りの回転をu、y軸周りの回転をv、x軸周りの回転をwで表す。ロボット座標系の長さの単位はミリメートル、角度の単位は度である。   The coordinate system of the robot 1 used when controlling the robot 1 is fixed in a work space, and each is determined by a horizontal x-axis and a y-axis, and a z-axis with a vertical downward direction as a positive direction. It is a system. Hereinafter, such a coordinate system of the robot 1 is also referred to as a robot coordinate system. Further, the rotation around the z axis is represented by u, the rotation around the y axis is represented by v, and the rotation around the x axis is represented by w. The unit of length of the robot coordinate system is millimeter and the unit of angle is degree.

TCPの位置と姿勢は各種のツールの位置と姿勢の基準となる。すなわち、ツールチャック1261に装着される任意のツールのオフセットは、回転軸部材126に固有の座標系に対して設定される。回転軸部材126に固有の座標系は、TCPを原点とし、回転軸部材126の回転軸と平行なz軸と、z軸に垂直なx軸とy軸とで定まり、回転軸部材126とともに回転する。以下、このようなTCPに固有の座標系をTCP座標系という。 The position and orientation of the TCP is a reference for the position and orientation of various tools. That is, the offset of an arbitrary tool mounted on the tool chuck 1261 is set with respect to a coordinate system unique to the rotary shaft member 126. The coordinate system unique to the rotation shaft member 126 is determined by the origin of TCP, the z 6 axis parallel to the rotation axis of the rotation shaft member 126, and the x 6 axis and y 6 axis perpendicular to the z 6 axis. Rotates with member 126. Hereinafter, such a coordinate system unique to TCP is referred to as a TCP coordinate system.

本実施例では、図3に示すツールTがツールチャック1261に装着され、ツールTのTCPに対する姿勢のオフセット(姿勢オフセット)を設定する手順について説明する。ツールTの平坦面TRを、TCPに対する姿勢オフセットを求める基準となる参照面とし、参照面TR上の1点を参照点TCとする。本実施例ではツールTに対しても、その姿勢を定義するために3軸直交座標系を定める。参照点TCを原点とし、参照面TRに対して垂直なz軸と、ツールTをツールチャック1261に装着した状態においてTCP座標系のz軸と同一平面に含まれz軸に垂直なx軸と、x軸とz軸とに垂直なy軸とで定まる座標系をツールTの姿勢を定義するための座標系とする。以下、ツールTに固有のこの座標系をツール座標系という。本実施例では、TCP座標系におけるツール座標系の各軸の方向がツールTの姿勢オフセットとして設定される。 In the present embodiment, a procedure for mounting the tool T shown in FIG. 3 on the tool chuck 1261 and setting the posture offset (posture offset) of the tool T with respect to the TCP will be described. The flat surface TR of the tool T is used as a reference surface serving as a reference for obtaining a posture offset with respect to the TCP, and one point on the reference surface TR is set as a reference point TC. In this embodiment, a three-axis orthogonal coordinate system is defined for the tool T in order to define its posture. The reference point TC and the origin, and z 7 axis perpendicular to the reference plane TR, included in z 6 axis flush with TCP coordinate system in a state of mounting the tool T to the tool chuck 1261 perpendicular to the z 7 axis and x 7 axis, the coordinate system for the coordinate system defined by a vertical y 7 axis and x 7 axis and z 7 axes defining the attitude of the tool T. Hereinafter, this coordinate system unique to the tool T is referred to as a tool coordinate system. In this embodiment, the direction of each axis of the tool coordinate system in the TCP coordinate system is set as the posture offset of the tool T.

図1Bに示すように、ロボット1は、回転軸部材121を駆動するモーター131と、回転軸部材122を駆動するモーター132と、回転軸部材123を駆動するモーター133と、回転軸部材124を駆動するモーター134と、回転軸部材125を駆動するモーター135と、回転軸部材126を駆動するモーター136と、モーター131〜136を制御する制御部14とを備えている。モーター131〜136は、アーム111〜115の構成要素である。モーター131〜136は、目標値と現在値との差分がゼロになるようにフィードバック制御されるサーボモーターである。制御部14は、TCPの位置と姿勢を示す目標値やJOG送り指示をPC3から取得し、目標値とJOG送り指示に基づいてモーター131〜136を制御する。   As illustrated in FIG. 1B, the robot 1 drives a motor 131 that drives the rotary shaft member 121, a motor 132 that drives the rotary shaft member 122, a motor 133 that drives the rotary shaft member 123, and a rotary shaft member 124. A motor 134 that drives the rotary shaft member 125, a motor 136 that drives the rotary shaft member 126, and a control unit 14 that controls the motors 131 to 136. The motors 131 to 136 are constituent elements of the arms 111 to 115. The motors 131 to 136 are servo motors that are feedback controlled so that the difference between the target value and the current value becomes zero. The control unit 14 acquires a target value and a JOG feed instruction indicating the position and orientation of the TCP from the PC 3, and controls the motors 131 to 136 based on the target value and the JOG feed instruction.

PC3はロボット1に接続されている。PC3には、ツールの姿勢オフセットを設定するためのツールセットプログラムがインストールされている。PC3は、図示しないプロセッサ、DRAMからなる図示しない主記憶、図示しない入出力機構、不揮発性メモリからなる図示しない外部記憶、ディスプレイ、指示受付部30として機能するキーボード等を備えるコンピューターである。PC3は、外部記憶に記憶されたツールセットプログラムをプロセッサで実行することにより、指示受付部30、出力部33、ツール設定部35として機能する。   The PC 3 is connected to the robot 1. The PC 3 is installed with a tool set program for setting a tool posture offset. The PC 3 is a computer including a processor (not shown), a main memory (not shown) including a DRAM, an input / output mechanism (not shown), an external storage (not shown) including a nonvolatile memory, a display, a keyboard that functions as the instruction receiving unit 30, and the like. The PC 3 functions as the instruction receiving unit 30, the output unit 33, and the tool setting unit 35 by executing the tool set program stored in the external storage by the processor.

指示受付部30は、TCP等の操作点の位置と姿勢を、目標を定めずに変化させるための起動指示、停止指示、加速指示、減速指示といったJOG送り指示や、基準姿勢の設定指示や、ツールの姿勢オフセットを設定するタイミングを指示するためのオフセット設定指示を受け付ける。
出力部33は、JOG送り指示と目標値をロボット1の制御部14に出力する。
ツール設定部35は、オフセット設定指示に応じて、TCPの姿勢を取得し、取得したTCPの姿勢と基準姿勢とに基づいて、TCPに対するツールの姿勢オフセットを導出して設定する。
The instruction receiving unit 30 includes a JOG feed instruction such as a start instruction, a stop instruction, an acceleration instruction, and a deceleration instruction for changing the position and posture of an operation point such as TCP without setting a target, a reference posture setting instruction, An offset setting instruction for instructing the timing for setting the posture offset of the tool is received.
The output unit 33 outputs a JOG feed instruction and a target value to the control unit 14 of the robot 1.
The tool setting unit 35 acquires the posture of the TCP according to the offset setting instruction, and derives and sets the posture offset of the tool with respect to the TCP based on the acquired posture of the TCP and the reference posture.

1.2 ツールセット処理
以下、TCPに対するツールTの姿勢、すなわち姿勢オフセットを導出して設定するためのツールセット処理について図4を参照しながら説明する。
1.2 Tool Set Processing Hereinafter, tool set processing for deriving and setting the posture of the tool T with respect to the TCP, that is, the posture offset will be described with reference to FIG.

ツールの姿勢オフセットを設定するためには、何らかの基準面を設定する必要がある(ステップS10)。基準面は、ツールの基準姿勢を定めるための平面である。本実施例では、上面が平坦な作業台9を基準物とし、その上面を基準面とし、基準面の法線と平行なz軸の単位ベクトル(0,0,1)を基準面の姿勢として設定する。なお、基準面の法線方向はz軸の方向に限らず、ツールを用いた作業内容に応じて任意に設定可能である。基準面の法線方向は、オペレーターに入力させても良いし、予め決めてツールセットプログラムに設定しておいてもよい。基準面の法線方向をツールセットプログラムで予め決めておく場合、予め決められた方向が法線方向となる平坦面を有する基準物をオペレーターが用意する。   In order to set the tool posture offset, it is necessary to set some reference plane (step S10). The reference plane is a plane for determining the reference posture of the tool. In this embodiment, a work table 9 having a flat upper surface is used as a reference object, the upper surface is used as a reference surface, and a z-axis unit vector (0, 0, 1) parallel to the normal of the reference surface is used as the reference surface posture. Set. The normal direction of the reference plane is not limited to the z-axis direction, and can be arbitrarily set according to the work contents using the tool. The normal direction of the reference plane may be input by the operator, or may be determined in advance and set in the tool set program. When the normal direction of the reference surface is determined in advance by the tool set program, the operator prepares a reference object having a flat surface in which the predetermined direction is the normal direction.

基準面を設定すると、オペレーターはツールTの参照面TRを基準面と面接触させるためのJOG送り指示を行う(ステップS11)。すなわちオペレーターは、JOG送り指示により基準面に参照面TRが面接触した状態にすることで、ツールTを基準姿勢にする。   When the reference surface is set, the operator gives a JOG feed instruction for bringing the reference surface TR of the tool T into surface contact with the reference surface (step S11). That is, the operator places the tool T in the standard posture by bringing the reference surface TR into surface contact with the standard surface by a JOG feed instruction.

オペレーターのJOG送り指示に応じて出力部33がJOG送り指示を制御部14に出力すると、アーム11が動く(ステップS12)。例えば図5Aに示すようにツールTの参照面TRが作業台9の上面である基準面から離れた状態から、JOG送り指示により図5Bに示すようにツールTの参照面TRを基準面である作業台9の上面と面接触させると、基準面の法線であるz軸に対して参照面TRが垂直になる。この状態では、ツール座標系の原点である参照点TCは基準面上に位置し、ツール座標系のz軸は基準面に対して垂直、すなわちロボット座標系のz軸と平行になる。なお、通常、JOG送り指示とそれに応じたアームの動作は繰り返されるが、図4に示すフローチャートでは繰り返しについては省略している。 When the output unit 33 outputs the JOG feed instruction to the control unit 14 in response to the operator's JOG feed instruction, the arm 11 moves (step S12). For example, from the state where the reference plane TR of the tool T is separated from the reference plane which is the upper surface of the workbench 9 as shown in FIG. 5A, the reference plane TR of the tool T is the reference plane as shown in FIG. When in surface contact with the upper surface of the work table 9, the reference surface TR becomes perpendicular to the z-axis, which is the normal line of the reference surface. In this state, the reference point TC is the origin of the tool coordinate system is located on the reference plane, z 7 axes of the tool coordinate system is perpendicular to the reference plane, i.e. parallel to the z-axis of the robot coordinate system. Normally, the JOG feed instruction and the corresponding arm operation are repeated, but the repetition is omitted in the flowchart shown in FIG.

ツールTの参照面TRが基準面に面接触すると、オペレーターはオフセット設定指示を入力する(ステップS13)。すなわちオペレーターは、JOG送り指示によってツールTを基準姿勢に動かし、ツールTが基準姿勢になったことを自ら目視で確認してオフセット設定指示を入力する。   When the reference surface TR of the tool T comes into surface contact with the reference surface, the operator inputs an offset setting instruction (step S13). That is, the operator moves the tool T to the reference posture by the JOG feed instruction, and visually confirms that the tool T has reached the reference posture, and inputs the offset setting instruction.

オフセット設定指示が入力されると、オフセット設定部35は、基準面の法線方向とTCPの姿勢に基づいてツールの姿勢オフセットを導出して設定する(ステップS14)。図5Cは、図5Bに示すようにツールTの参照面TRが基準面に面接触している状態において、ロボット座標系(x、y、z)とTCP座標系(x、y、z)とツール座標系(x、y、z)の関係を示している。なお図5Cにおいては、ロボット座標系の原点が作業台9の上面上にあると仮定している。この状態において最初に導出すべきツールTの姿勢オフセットは、TCP座標系で表したツール座標系のz軸の方向である。ツールTの参照面TRが基準面に面接触している状態では、ツール座標系のz軸の方向とロボット座標系のz軸の方向は一致する。そしてロボット座標系とTCP座標系の変換行列は当然に既知である。したがって、オフセット設定部35は、ツールTの参照面TRが基準面に面接触している状態におけるTCP座標系に対するロボット座標系のz軸の方向を、z軸の方向すなわち参照面TRの法線方向として導出する。 When the offset setting instruction is input, the offset setting unit 35 derives and sets the tool posture offset based on the normal direction of the reference plane and the TCP posture (step S14). FIG. 5C shows the robot coordinate system (x, y, z) and the TCP coordinate system (x 6 , y 6 , z) when the reference surface TR of the tool T is in surface contact with the reference plane as shown in FIG. 5B. 6) and it shows the relationship of the tool coordinate system (x 7, y 7, z 7). In FIG. 5C, it is assumed that the origin of the robot coordinate system is on the upper surface of the work table 9. Attitude offset tool T to be first derived in this state is the direction of the z 7 axes of tool coordinate system expressed in TCP coordinate system. In a state where the reference surface TR tool T is in surface contact with the reference surface, the direction of the z-axis direction and the robot coordinate system z 7 axes of the tool coordinate system coincide. The transformation matrix between the robot coordinate system and the TCP coordinate system is naturally known. Accordingly, the offset setting unit 35, the direction of the z-axis of the robot coordinate system with respect to TCP coordinate system in a state where the reference plane TR tool T is in surface contact with the reference surface, the law of direction, that the reference surface TR of z 7 axis Derived as the line direction.

本実施例においてツールTのx軸の方向は、その定義から、TCP座標系のz軸と同一平面上にあってz軸と垂直である。そこでオフセット設定部35は、ツールTの参照面TRが基準面に面接触している状態におけるTCP座標系のz軸をロボット座標系のxy平面に投影した直線をx軸とし、z軸およびx軸に垂直な軸をy軸として、TCP座標系におけるx軸とy軸の方向を導出する。ただし、ツールの形態と用途によっては、ツールの参照面の法線方向をTCP座標系で設定できれば十分である。したがって、ツールの姿勢オフセットとして参照面の法線方向を設定してツールオフセットを終了して差し支えない場合もある。 Direction x 7 axis of the tool T in this embodiment, by definition, is perpendicular to the z 7 shaft be on z 6-axis flush with TCP coordinate system. Accordingly, the offset setting unit 35 sets a straight line obtained by projecting the z 6 axis of the TCP coordinate system on the xy plane of the robot coordinate system in a state where the reference plane TR of the tool T is in surface contact with the reference plane as the x 7 axis, and z 7 as y 7 axial axis perpendicular to the axis and x 7 axes, to derive the direction of the x 7 axis and y 7 axes in TCP coordinate system. However, depending on the form and application of the tool, it is sufficient if the normal direction of the reference plane of the tool can be set in the TCP coordinate system. Therefore, the tool offset may be terminated by setting the normal direction of the reference surface as the tool posture offset.

以上述べたとおり、第一実施例では、オペレーターがJOG送り指示によってツールTの参照面TRを基準面と面接触させてツールを基準姿勢にした状態で、ツールTの参照面TRが基準面と面接触したことをオフセット設定指示によってPC3に通知するため、PC3はツールTの参照面TRの法線方向をTCP座標系で導出し、ツールTの姿勢オフセットを設定することができる。   As described above, in the first embodiment, the operator makes the reference plane TR of the tool T the reference plane in a state where the reference plane TR of the tool T is brought into surface contact with the reference plane in accordance with the JOG feed instruction and the tool is in the standard posture. Since the PC 3 is notified of the contact with the surface by an offset setting instruction, the PC 3 can derive the normal direction of the reference surface TR of the tool T in the TCP coordinate system and set the posture offset of the tool T.

2.第二実施例
第二実施例では、オペレーターがJOG送り指示によってツールTの参照面TRを基準面と面接触させてツールを基準姿勢にするかわりに、ロボットビジョンを用いてツールを基準姿勢にする方法について説明する。
2. Second Example In the second example, instead of the operator bringing the reference surface TR of the tool T into surface contact with the reference surface in accordance with a JOG feed instruction to bring the tool into the reference posture, the tool is set to the reference posture using robot vision. A method will be described.

第二実施例のロボットシステムは、図6に示すように撮像部2を備え、ロボット制御装置としてのPC3は、ツールセットプログラムを実行することにより画像取得部31、目標値導出部32としても機能する。   The robot system of the second embodiment includes an imaging unit 2 as shown in FIG. 6, and the PC 3 as the robot control device also functions as an image acquisition unit 31 and a target value deriving unit 32 by executing a tool set program. To do.

本実施例のロボットビジョンは、予め決められた基準面を対象とする二次元のロボットビジョンである。撮像部2は、ロボット座標系のz軸に対して垂直な基準面内におけるワークの大きさ、形状および位置を認識するために用いられるカメラであって、レンズ201、エリアイメージセンサー202、図示しないAD変換器等を備える。撮像部2は、図6Aに示すように、作業台9上の所定位置に、鉛直上向きに撮像できるように設けられる。すなわち撮像部2は、レンズ201の光軸がロボット座標系のz軸と平行になるように設置される。   The robot vision of this embodiment is a two-dimensional robot vision for a predetermined reference plane. The imaging unit 2 is a camera used for recognizing the size, shape, and position of a workpiece in a reference plane perpendicular to the z-axis of the robot coordinate system, and includes a lens 201, an area image sensor 202, and not shown. An AD converter is provided. As illustrated in FIG. 6A, the imaging unit 2 is provided at a predetermined position on the work table 9 so that it can capture an image vertically upward. That is, the imaging unit 2 is installed so that the optical axis of the lens 201 is parallel to the z-axis of the robot coordinate system.

撮像部2の座標系は、撮像部2から出力される画像の座標系であって、画像の水平右向きを正方向とするB軸と、画像の垂直下向きを正方向とするC軸とによって定まる。以下、撮像部2から出力される画像の座標系を画像座標系とも言う。画像座標系の長さの単位はピクセル、角度の単位は度である。撮像部2によって撮像される画像の重心が光学系の中心に対応するようにエリアイメージセンサー202とレンズ201の位置関係が定められている。すなわちレンズ201の光軸上の点は画像の重心に撮像される。なお、本実施例では、基準面をz軸と垂直に定めるためにレンズ201の光軸がz軸と平行になるように撮像部2を設置するが、基準面の定め方は任意であり、撮像部2はその撮像方向を定めるレンズ201の光軸が基準面に対して垂直になるように設置すればよい。   The coordinate system of the imaging unit 2 is a coordinate system of an image output from the imaging unit 2, and is determined by a B-axis having a horizontal right direction of the image as a positive direction and a C-axis having a vertical downward direction of the image as a positive direction. . Hereinafter, the coordinate system of the image output from the imaging unit 2 is also referred to as an image coordinate system. The unit of length of the image coordinate system is pixel, and the unit of angle is degree. The positional relationship between the area image sensor 202 and the lens 201 is determined so that the center of gravity of the image captured by the imaging unit 2 corresponds to the center of the optical system. That is, the point on the optical axis of the lens 201 is imaged at the center of gravity of the image. In this embodiment, the imaging unit 2 is installed so that the optical axis of the lens 201 is parallel to the z-axis in order to define the reference plane perpendicular to the z-axis, but the method of determining the reference plane is arbitrary, The imaging unit 2 may be installed so that the optical axis of the lens 201 that defines the imaging direction is perpendicular to the reference plane.

ツールの姿勢を画像認識するため、本実施例では、図7Aに示すように5つのマーカーM1〜M5が形成されたシール4をツールTの参照面TRに貼付して用いる。シール4は、中央のマーカーM3の中心がツールTの参照点TCと一致するように参照面TRに貼付される。なお、マーカーの数は3つ以上あれば良く、マーカーの形態は画像認識によってその位置を特定可能な形態であればよいし、また、ツールTの参照面TR自体が画像認識によって検出可能な特徴点を3つ以上有している場合、特徴点自体をマーカーとして用いればよい。   In order to recognize an image of the posture of the tool, in this embodiment, a seal 4 on which five markers M1 to M5 are formed is attached to a reference surface TR of the tool T as shown in FIG. The seal 4 is affixed to the reference surface TR so that the center of the center marker M3 coincides with the reference point TC of the tool T. The number of markers may be three or more, and the form of the marker is not limited as long as its position can be specified by image recognition, and the reference surface TR itself of the tool T can be detected by image recognition. When there are three or more points, the feature points themselves may be used as markers.

画像取得部31は、撮像部2に対して撮像を指示し、指示に応じて撮像された画像を撮像部2から取得する。目標値導出部32は、マーカーM1〜M5を画像認識するためのテンプレートを保持している。このテンプレートは撮像部2から取得する画像を解析してマーカーM1〜M5の座標を画像座標系で検出するために用いられる。目標値導出部32は、アーム11を予め決められた状態に変化させるための目標値を、撮像部2が撮像した画像に基づいて導出する。   The image acquisition unit 31 instructs the imaging unit 2 to perform imaging, and acquires an image captured according to the instruction from the imaging unit 2. The target value deriving unit 32 holds a template for image recognition of the markers M1 to M5. This template is used for analyzing the image acquired from the imaging unit 2 and detecting the coordinates of the markers M1 to M5 in the image coordinate system. The target value deriving unit 32 derives a target value for changing the arm 11 to a predetermined state based on the image captured by the imaging unit 2.

以下、ロボットビジョンを用いてツールを基準姿勢にする傾き補正について、図8を参照しながら説明する。本実施例では、ツールTをツールチャック1261に正しく装着し、ツールTの参照面TRに貼付されたシール4を撮像部2によって撮像可能な位置と姿勢にJOG送り指示で動かし、第一実施例と同様に何らかの基準面を設定すると(ステップS10)、自動的にツールの姿勢オフセットを設定することができる。JOG送り指示でツールTを動かすにあたり、位置と姿勢の精度は必要が無く、ツールTに貼付されたシール4が撮像部2によって撮像可能な位置と姿勢になればよい。   Hereinafter, tilt correction using the robot vision to make the tool a reference posture will be described with reference to FIG. In this embodiment, the tool T is correctly mounted on the tool chuck 1261, and the sticker 4 affixed to the reference surface TR of the tool T is moved to a position and posture that can be imaged by the imaging unit 2 by a JOG feed instruction. If any reference plane is set as in (Step S10), the tool posture offset can be automatically set. When the tool T is moved by the JOG feed instruction, the position and orientation do not need to be accurate, and the sticker 4 attached to the tool T may be in a position and orientation that can be imaged by the imaging unit 2.

基準面が設定されシール4を撮像部2によって撮像可能になると、PC3は撮像部2が撮像する画像に基づいてアーム11を動かして中央のマーカーM3を撮像部2の光軸に位置合わせする(ステップS201)。具体的には、画像取得部31は撮像部2に撮像を指示して撮像部2から画像を取得し、目標値導出部32は、取得した画像に基づいて中央のマーカーM3を撮像部2の光軸に位置合わせするための目標値を導出する。すなわち目標値導出部32は、テンプレートを用いてマーカーM3の位置を検出し、マーカーMからレンズ202の光軸に対応する画像の重心までの変位を画像座標系で導出し、画像座標系で導出した変位を座標変換行列を用いてロボット座標系に変換する。出力部33はロボット座標系に変換された変位を目標値として制御部14に出力することにより、アーム11を動かす。   When the reference plane is set and the seal 4 can be imaged by the imaging unit 2, the PC 3 moves the arm 11 based on the image captured by the imaging unit 2 to align the center marker M3 with the optical axis of the imaging unit 2 ( Step S201). Specifically, the image acquisition unit 31 instructs the imaging unit 2 to perform imaging and acquires an image from the imaging unit 2, and the target value deriving unit 32 sets the center marker M3 of the imaging unit 2 based on the acquired image. A target value for alignment with the optical axis is derived. That is, the target value deriving unit 32 detects the position of the marker M3 using the template, derives the displacement from the marker M to the center of gravity of the image corresponding to the optical axis of the lens 202, and derives it using the image coordinate system. The obtained displacement is converted into a robot coordinate system using a coordinate conversion matrix. The output unit 33 moves the arm 11 by outputting the displacement converted into the robot coordinate system as a target value to the control unit 14.

中央のマーカーM3を撮像部2の光軸に位置合わせすると、PC3はツールTの参照面TRの現在の傾き指標Hを導出する(ステップS202)。参照面TRが撮像部2の光軸に垂直であって中央のマーカーM3を撮像部2の光軸が通る状態で撮像部2によって撮像される画像においては、中央のマーカーM3と周辺のマーカーM1、M2、M4、M5の距離d13、d23、d34、d35は等しくなる。そしてこのとき、画像から検出したマーカーMnの座標をp(n)で表すとすれば、次式が成立する。 When the center marker M3 is aligned with the optical axis of the imaging unit 2, PC3 derives the current gradient index H 1 reference surface TR tool T (step S202). In an image captured by the imaging unit 2 in a state where the reference plane TR is perpendicular to the optical axis of the imaging unit 2 and the optical axis of the imaging unit 2 passes through the central marker M3, the central marker M3 and the peripheral marker M1 , M2, M4, M5 distances d 13, d 23, d 34 , d 35 is equal. At this time, if the coordinates of the marker Mn detected from the image are represented by p (n), the following equation is established.

|u|=|u
|v|=|v
ただし、
=p(3)−p(2)
=p(4)−p(3)
=p(3)−p(1)
=p(5)−p(3)
| U 1 | = | u 2 |
| V 1 | = | v 2 |
However,
u 1 = p (3) −p (2)
u 2 = p (4) −p (3)
v 1 = p (3) −p (1)
v 2 = p (5) -p (3)

そして、参照面TRと撮像部2の光軸が垂直な状態からマーカーM1と基準点M5を結ぶ直線を軸に参照面TRが回転すると、回転角度に応じて|v|と|v|の差が大きくなる。また垂直状態からマーカーM2とマーカーM4を結ぶ直線を軸に参照面TRが回転すると、回転角度に応じて|u|と|u|の差が大きくなる。したがって、傾き指標として次式のH、Hを用いることができる。 Then, when the reference plane TR rotates around a straight line connecting the marker M1 and the reference point M5 from a state where the optical axis of the reference plane TR and the imaging unit 2 is vertical, | v 1 | and | v 2 | The difference becomes larger. Further, when the reference plane TR rotates around the straight line connecting the markers M2 and M4 from the vertical state, the difference between | u 1 | and | u 2 | increases according to the rotation angle. Therefore, the following formulas H x and H y can be used as the inclination index.

=|u|−|u
=|v|−|v
H x = | u 1 | − | u 2 |
H y = | v 1 | − | v 2 |

次に目標値導出部32は、導出した傾き指標H、Hを予め決めた閾値と比較し、傾き指標H、Hが予め決められた閾値以下であるか否かを判定する(ステップS203)。傾き指標H、Hが予め決められた閾値以下である場合、傾き補正は成功し、参照面TRは基準面と平行になってツールが基準姿勢となる。 Next, the target value deriving unit 32 compares the derived inclination indexes H x and H y with a predetermined threshold value, and determines whether or not the inclination indexes H x and H y are equal to or less than the predetermined threshold value ( Step S203). When the tilt indices H x and H y are equal to or smaller than a predetermined threshold, the tilt correction is successful, the reference plane TR is parallel to the reference plane, and the tool is in the reference posture.

傾き指標H、Hが予め決められた閾値以下でない場合、目標値導出部32は、後述するステップS212の傾き補正の実施回数が予め決められた閾値未満であるか否かを判定する(ステップS204)。傾き補正の実施回数が予め決められた閾値未満でない場合、傾き補正は失敗して終了する。 If the slope indices H x and H y are not less than or equal to a predetermined threshold value, the target value deriving unit 32 determines whether or not the number of times of slope correction performed in step S212, which will be described later, is less than a predetermined threshold value ( Step S204). If the number of executions of the inclination correction is not less than a predetermined threshold, the inclination correction fails and ends.

ステップS212の傾き補正の実施回数が予め決められた閾値未満である場合、目標値導出部32は現在のTCPの姿勢を姿勢(1)として保存する(ステップS205)。   When the number of executions of the tilt correction in step S212 is less than a predetermined threshold, the target value deriving unit 32 stores the current TCP posture as the posture (1) (step S205).

続いて目標値導出部32は参照面TRをy軸まわりにδ度回転させるための目標値を導出し、出力部33は導出された目標値をロボットに出力する(ステップS206)。δは、ツールの姿勢に許容される誤差に応じて予め決められる微小な角度である。   Subsequently, the target value deriving unit 32 derives a target value for rotating the reference plane TR around the y axis by δ degrees, and the output unit 33 outputs the derived target value to the robot (step S206). δ is a minute angle determined in advance according to an error allowed in the posture of the tool.

次にPC3は、参照面TRをδ度回転させた後の参照面TRの傾き指標Hを導出する(ステップS207)。具体的には、画像取得部31は撮像部2に撮像を指示し、撮像部2から画像を取得する。目標値導出部32は取得された画像をステップS202と同様に解析することにより、傾き指標Hを導出する。その結果、姿勢(1)からy軸まわりにδ度回転した参照面TRについて傾き指標Hが導出される。 Next PC3 derives the reference plane TR after the reference surface TR is rotated δ degrees inclination indicator H 2 (step S207). Specifically, the image acquisition unit 31 instructs the imaging unit 2 to perform imaging and acquires an image from the imaging unit 2. Target value deriving unit 32 by analyzing an image obtained as in step S202, to derive the gradient index H 2. As a result, the index H 2 slope for the reference surface TR rotated δ degrees about the y-axis from the position (1) is derived.

続いてPC3は、アーム11を姿勢(1)に復帰させる(ステップS208)。すなわち出力部33は、姿勢(1)に復帰させるための目標値を制御部15に出力する。   Subsequently, the PC 3 returns the arm 11 to the posture (1) (step S208). That is, the output unit 33 outputs a target value for returning to the posture (1) to the control unit 15.

次にPC3は、アーム11を動かして参照面TRをx軸まわりにδ度回転させる(ステップS209)。なお、本実施例ではy軸とx軸の周りに回転させて参照面TRの傾きを補正するが、画像座標系のB軸とC軸の周りに回転させて参照面TRの傾きを補正しても良い。   Next, the PC 3 moves the arm 11 to rotate the reference plane TR around the x axis by δ degrees (step S209). In this embodiment, the tilt of the reference plane TR is corrected by rotating around the y axis and the x axis. However, the tilt of the reference plane TR is corrected by rotating around the B axis and the C axis of the image coordinate system. May be.

次にPC3は、姿勢(1)からx軸周りにδ度だけ回転した参照面について、ステップS202と同様に傾き指標Hを導出する(ステップS211)。 Next, the PC 3 derives an inclination index H3 for the reference surface rotated by δ degrees around the x axis from the posture (1), similarly to step S202 (step S211).

次にPC3は、傾き指標H、H、Hに基づいて、ツールTを基準姿勢にするために参照面TRを基準面と平行にする、すなわち、参照面TRを撮像部2の光軸に対して垂直にするための傾き補正量ΔV、ΔWを導出する(ステップS211)。傾き補正量ΔV、ΔWは、次式によって目標導出部33が導出する。

Figure 2016182648
Next, the PC 3 makes the reference plane TR parallel to the reference plane in order to set the tool T to the standard posture based on the tilt indices H 1 , H 2 , and H 3 , that is, the reference plane TR is light of the imaging unit 2. Tilt correction amounts ΔV and ΔW for deriving perpendicular to the axis are derived (step S211). The target derivation unit 33 derives the inclination correction amounts ΔV and ΔW according to the following formula.
Figure 2016182648

次に目標値導出部32は導出された傾き補正量ΔV、ΔWに基づいて目標値を導出し、導出された目標値を出力部33がロボットに出力する(ステップS212)。その結果、アーム11が動き、X軸まわりにΔV、Y軸周りにΔWだけ参照面TRが回転する。   Next, the target value deriving unit 32 derives a target value based on the derived inclination correction amounts ΔV and ΔW, and the output unit 33 outputs the derived target value to the robot (step S212). As a result, the arm 11 moves, and the reference plane TR rotates by ΔV around the X axis and ΔW around the Y axis.

傾き補正では、以上述べたステップS202からS212までの処理が、ステップS203で肯定判定がなされるか、ステップS204で否定判定がなされるまで繰り返される。   In the inclination correction, the processes from step S202 to S212 described above are repeated until an affirmative determination is made in step S203 or a negative determination is made in step S204.

参照面TRの基準面に対する傾き指標Hが閾値以下になってステップS203で肯定判定がなされると、PC3は、第一実施例と同様に、現在の基準面TRの法線方向とTCPの姿勢に基づいてツールTの姿勢オフセットを導出して設定する(ステップS14)。すなわち、PC3は、ロボットビジョンを用いてツールTを基準姿勢にした状態で、TCPの姿勢と基準平面の姿勢とに基づいて自動的にツールTの姿勢オフセットを導出して設定する。 If it falls below gradient index H 1 threshold affirmative determination is made in step S203 to the reference plane of the reference surfaces TR is made, PC3, like the first embodiment, the normal direction and TCP current reference plane TR A posture offset of the tool T is derived and set based on the posture (step S14). That is, the PC 3 automatically derives and sets the posture offset of the tool T based on the posture of the TCP and the posture of the reference plane in a state where the tool T is set to the reference posture using the robot vision.

以上説明した第二実施例によると、オペレーターがJOG送り指示によってツールの参照面を基準面と面接触させてツールを基準姿勢にする操作が不要であるため、ツールの姿勢オフセットの設定が容易になる。   According to the second embodiment described above, it is not necessary for the operator to bring the tool reference surface into surface contact with the reference surface by a JOG feed instruction so that the tool posture offset can be easily set. Become.

3.他の実施形態
尚、本発明の技術的範囲は、上述した実施例に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。例えば第一実施例ではオペレーターが目視しながらツールの参照面を基準面と面接触させてオフセット設定指示をPC3に入力したが、ツールの参照面と基準面の接触状態をセンサーを用いて検出しても良い。具体的には、接触状態を検出する光学式又は接触式のセンサーを基準面の3カ所以上に設けることにより、ツールの参照面と基準面が面接触したことを検出可能になる。この場合、センサーがツールの参照面と基準面の面接触を検出したことに応じて、オフセットの導出を自動的に開始することができる。
また本発明は、6軸以外の垂直多関節ロボットにも適用できる。
3. Other Embodiments The technical scope of the present invention is not limited to the above-described embodiments, and it goes without saying that various modifications can be made without departing from the scope of the present invention. For example, in the first embodiment, the operator sets the reference surface of the tool in contact with the reference surface while visually observing the operator and inputs an offset setting instruction to the PC 3, but the contact state between the reference surface of the tool and the reference surface is detected using a sensor. May be. Specifically, it is possible to detect that the reference surface of the tool and the reference surface are in surface contact by providing optical or contact sensors for detecting the contact state at three or more locations on the reference surface. In this case, the derivation of the offset can be automatically started in response to the detection of the surface contact between the reference surface and the reference surface of the tool.
The present invention can also be applied to vertical articulated robots other than six axes.

131〜136…モーター、111〜115…アーム、1…ロボット、2…撮像部、3…PC、9…作業台、14…制御部、31…画像取得部、32…目標値導出部、33…出力部、35…ツール設定部、110…基台、111…第一アーム、112…第二アーム、113…第三アーム、114…第四アーム、115…第五アーム、121〜126…回転軸部材、131〜136…モーター、201…レンズ、202…エリアイメージセンサー、1261…ツールチャック、M…マーカー、T…ツール、TR…参照面 131-136 ... motor, 111-115 ... arm, 1 ... robot, 2 ... imaging unit, 3 ... PC, 9 ... work table, 14 ... control unit, 31 ... image acquisition unit, 32 ... target value deriving unit, 33 ... Output unit, 35 ... tool setting unit, 110 ... base, 111 ... first arm, 112 ... second arm, 113 ... third arm, 114 ... fourth arm, 115 ... fifth arm, 121-126 ... rotating shaft Member, 131-136 ... Motor, 201 ... Lens, 202 ... Area image sensor, 1261 ... Tool chuck, M ... Marker, T ... Tool, TR ... Reference plane

Claims (6)

ツールを装着可能な装着部を有するアームと、
前記装着部に装着されたツールが作業空間における基準姿勢になったときに前記装着部の姿勢を取得し、取得した前記装着部の姿勢と前記基準姿勢に基づいて、前記装着部に装着されたツールの前記装着部に対する姿勢オフセットを設定するツール設定部と、
を備えるロボット。
An arm having a mounting portion on which a tool can be mounted;
When the tool mounted on the mounting portion becomes a reference posture in the work space, the posture of the mounting portion is acquired, and the tool is mounted on the mounting portion based on the acquired posture of the mounting portion and the reference posture. A tool setting unit for setting a posture offset with respect to the mounting unit of the tool;
Robot equipped with.
前記基準姿勢は、前記作業空間に設置された基準物の平坦な基準面と前記ツールの平坦な参照面が平行になる姿勢であって、
前記ツール設定部は、前記基準面に前記参照面が面接触したときに前記装着部の姿勢を取得する、
請求項1に記載のロボット。
The reference posture is a posture in which a flat reference surface of a reference object installed in the work space is parallel to a flat reference surface of the tool,
The tool setting unit obtains the posture of the mounting unit when the reference surface comes into surface contact with the reference surface.
The robot according to claim 1.
前記作業空間に設置された撮像部から画像を取得する画像取得部と、
前記装着部に装着されたツールが前記撮像部によって撮像された画像に基づいて、前記装着部に装着されたツールを前記基準姿勢にするアーム制御部と、
を備える請求項1に記載のロボット。
An image acquisition unit for acquiring an image from an imaging unit installed in the work space;
An arm control unit that sets the tool mounted on the mounting unit to the reference posture based on an image captured by the imaging unit of the tool mounted on the mounting unit;
The robot according to claim 1, comprising:
前記アーム制御部は、前記装着部に装着されたツールが前記撮像部によって撮像された画像から前記ツールの参照点を複数検出し、検出した複数の前記参照点の位置に基づいて、前記装着部に装着されたツールを前記基準姿勢にする、
請求項3に記載のロボット。
The arm control unit detects a plurality of reference points of the tool from an image captured by the imaging unit by a tool mounted on the mounting unit, and based on the detected positions of the plurality of reference points, the mounting unit The tool attached to the reference posture,
The robot according to claim 3.
ツールを装着可能な装着部を有するアームを備えるロボットを制御するロボット制御装置であって、
前記装着部に装着されたツールが作業空間における基準姿勢になったときに前記装着部の姿勢を取得し、取得した前記装着部の姿勢と前記基準姿勢に基づいて、前記装着部に装着されたツールの前記装着部に対する姿勢オフセットを設定するツール設定部と、
を備えるロボット制御装置。
A robot control apparatus for controlling a robot including an arm having a mounting portion on which a tool can be mounted,
When the tool mounted on the mounting portion becomes a reference posture in the work space, the posture of the mounting portion is acquired, and the tool is mounted on the mounting portion based on the acquired posture of the mounting portion and the reference posture. A tool setting unit for setting a posture offset with respect to the mounting unit of the tool;
A robot control device comprising:
ツールを装着可能な装着部を有するアームと、
作業空間に設置された撮像部と、
前記撮像部から画像を取得する画像取得部と、
前記装着部に装着されたツールが前記作業空間における基準姿勢になったときに前記装着部の姿勢を取得し、取得した前記装着部の姿勢と前記基準姿勢に基づいて、前記装着部に装着されたツールの前記装着部に対する姿勢を設定するツール設定部と、
前記装着部に装着されたツールが前記撮像部によって撮像された画像に基づいて、前記装着部に装着されたツールを前記基準姿勢にするアーム制御部と、
を備えるロボットシステム。
An arm having a mounting portion on which a tool can be mounted;
An imaging unit installed in the work space;
An image acquisition unit for acquiring an image from the imaging unit;
When the tool mounted on the mounting portion becomes a reference posture in the work space, the posture of the mounting portion is acquired, and the tool is mounted on the mounting portion based on the acquired posture of the mounting portion and the reference posture. A tool setting unit for setting a posture of the attached tool with respect to the mounting unit;
An arm control unit that sets the tool mounted on the mounting unit to the reference posture based on an image captured by the imaging unit of the tool mounted on the mounting unit;
A robot system comprising:
JP2015063920A 2015-03-26 2015-03-26 Robot, robot control device and robot system Pending JP2016182648A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015063920A JP2016182648A (en) 2015-03-26 2015-03-26 Robot, robot control device and robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015063920A JP2016182648A (en) 2015-03-26 2015-03-26 Robot, robot control device and robot system

Publications (1)

Publication Number Publication Date
JP2016182648A true JP2016182648A (en) 2016-10-20

Family

ID=57242259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015063920A Pending JP2016182648A (en) 2015-03-26 2015-03-26 Robot, robot control device and robot system

Country Status (1)

Country Link
JP (1) JP2016182648A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10201900B2 (en) 2015-12-01 2019-02-12 Seiko Epson Corporation Control device, robot, and robot system
US10882189B2 (en) 2017-04-21 2021-01-05 Seiko Epson Corporation Control device and robot system
JP2022504368A (en) * 2018-10-25 2022-01-13 ウィンク・ロボティクス Detachable end effector for beauty robotics
CN114952806A (en) * 2022-06-16 2022-08-30 法奥意威(苏州)机器人系统有限公司 Constraint motion control method, device and system and electronic equipment

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10201900B2 (en) 2015-12-01 2019-02-12 Seiko Epson Corporation Control device, robot, and robot system
US10882189B2 (en) 2017-04-21 2021-01-05 Seiko Epson Corporation Control device and robot system
JP2022504368A (en) * 2018-10-25 2022-01-13 ウィンク・ロボティクス Detachable end effector for beauty robotics
US11787071B2 (en) 2018-10-25 2023-10-17 Wink Robotics Detachable end effectors for cosmetics robotics
CN114952806A (en) * 2022-06-16 2022-08-30 法奥意威(苏州)机器人系统有限公司 Constraint motion control method, device and system and electronic equipment
CN114952806B (en) * 2022-06-16 2023-10-03 法奥意威(苏州)机器人系统有限公司 Constrained motion control method, constrained motion control device, constrained motion control system and electronic equipment

Similar Documents

Publication Publication Date Title
TWI670153B (en) Robot and robot system
US9884425B2 (en) Robot, robot control device, and robotic system
US10099380B2 (en) Robot, robot control device, and robot system
US10551821B2 (en) Robot, robot control apparatus and robot system
CN107428009B (en) Method for commissioning an industrial robot, industrial robot system and control system using the method
US9517563B2 (en) Robot system using visual feedback
JP3946711B2 (en) Robot system
JP6427972B2 (en) Robot, robot system and control device
JP5365379B2 (en) Robot system and robot system calibration method
US20160184996A1 (en) Robot, robot system, control apparatus, and control method
US20160279800A1 (en) Robot, robot control device, and robotic system
JP6565175B2 (en) Robot and robot system
US10675759B2 (en) Interference region setting apparatus for mobile robot
KR20140008262A (en) Robot system, robot, robot control device, robot control method, and robot control program
JP5292998B2 (en) Robot apparatus control method and robot apparatus
JP2005201824A (en) Measuring device
JP6950638B2 (en) Manipulator controller, manipulator control method, and manipulator control program
JP6885856B2 (en) Robot system and calibration method
JP2016182648A (en) Robot, robot control device and robot system
US20190030722A1 (en) Control device, robot system, and control method
JP5787646B2 (en) Robot system and component manufacturing method
JP6507792B2 (en) Robot and robot system
JP2016203282A (en) Robot with mechanism for changing end effector attitude
JPWO2020157875A1 (en) Working coordinate creation device
US20230328372A1 (en) Image processing system and image processing method