JP6354248B2 - Robot, robot system, control device, and control method - Google Patents

Robot, robot system, control device, and control method Download PDF

Info

Publication number
JP6354248B2
JP6354248B2 JP2014063235A JP2014063235A JP6354248B2 JP 6354248 B2 JP6354248 B2 JP 6354248B2 JP 2014063235 A JP2014063235 A JP 2014063235A JP 2014063235 A JP2014063235 A JP 2014063235A JP 6354248 B2 JP6354248 B2 JP 6354248B2
Authority
JP
Japan
Prior art keywords
tool
robot
work
hand
ring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014063235A
Other languages
Japanese (ja)
Other versions
JP2015182214A (en
Inventor
工藤 真
真 工藤
勇貴 清澤
勇貴 清澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014063235A priority Critical patent/JP6354248B2/en
Priority to CN201410584919.XA priority patent/CN104608128A/en
Priority to US14/528,278 priority patent/US20150127141A1/en
Publication of JP2015182214A publication Critical patent/JP2015182214A/en
Application granted granted Critical
Publication of JP6354248B2 publication Critical patent/JP6354248B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、ロボット、ロボットシステム、制御装置、及び制御方法に関する。   The present invention relates to a robot, a robot system, a control device, and a control method.

従来、ロボットに道具を用いた作業を行わせることが提案されている。このような作業
において、ロボットのアームにエンドエフェクターを直接接続することが提案されている
(例えば、特許文献1参照)。また、このような作業において、ロボットに動作位置を教
示する方法が提案されている(例えば、特許文献2参照)。また、このような作業におい
て、作業対象物の画像に基づいて所定のポイントの座標を割り出し、位置決めを行うこと
が提案されている(例えば、特許文献3参照)。
Conventionally, it has been proposed to cause a robot to perform work using tools. In such work, it has been proposed to directly connect an end effector to a robot arm (see, for example, Patent Document 1). In such work, a method for teaching an operation position to a robot has been proposed (see, for example, Patent Document 2). Further, in such work, it has been proposed to determine and coordinate the coordinates of a predetermined point based on the image of the work object (see, for example, Patent Document 3).

特開2012−35391号公報JP 2012-35391 A 特開2003−127078号公報JP 2003-127078 A 特開2003−225837号公報JP 2003-225837 A

しかしながら、従来、道具を把持したロボットによる作業の精度を高められない場合が
あった。ロボットが道具を把持して作業を行う場合、当該道具と作業対象物との相対的な
位置及び姿勢を正確に導出することが望ましい。ところが、相対位置の導出において、ア
ームやハンドの製造のばらつき、把持の状態による道具の姿勢のずれ、及びアームの低剛
性等により大きな誤差が生じてしまう場合がある。その結果、ロボットは、把持した道具
を用いた作業に失敗する場合があった。
However, conventionally, there have been cases where the accuracy of work by a robot holding a tool cannot be improved. When the robot performs a work while holding a tool, it is desirable to accurately derive the relative position and posture between the tool and the work target. However, in the derivation of the relative position, a large error may occur due to variations in manufacturing of the arm or hand, a shift in the posture of the tool due to a gripping state, a low rigidity of the arm, and the like. As a result, the robot sometimes fails to work using the grasped tool.

本発明は、前記の点に鑑みてなされたものであり、道具を把持したロボットによる作業
の精度を高めることができるロボット、ロボットシステム、制御装置、及び制御方法を提
供することを目的とする。
The present invention has been made in view of the above points, and an object of the present invention is to provide a robot, a robot system, a control device, and a control method that can improve the accuracy of work performed by a robot holding a tool.

本発明は、上記の課題を解決するためになされたものであり、本発明の一実施形態は、
力センサーと、作業に使用する道具を把持するハンドと、前記ハンドを動作させる制御部
と、を含み、前記制御部は、作業対象物に前記ハンドが把持する前記道具を接触させるこ
とによって前記ハンドの位置又は姿勢を決めた後、前記ハンドに前記作業を行わせる、ロ
ボットである。
この構成により、制御部は、組み立て部材など、その形状に高い精度を有する作業対象
物と道具との接触に基づいてロボットの位置又は姿勢を決めるため、制御部は、道具と作
業対象物との相対的な位置又は姿勢を正確に導出することができる。従って、ロボットは
、作業の精度を高めることができる。また、この構成は、エンドエフェクター等のロボッ
ト専用の道具を必要としないため、ロボット専用の道具を作成するための費用および期間
を低減することができる。
The present invention has been made to solve the above problems, and an embodiment of the present invention is as follows.
A force sensor; a hand that grips a tool used for work; and a control unit that operates the hand, the control unit contacting the tool held by the hand with a work object. After determining the position or posture of the robot, the robot causes the hand to perform the operation.
With this configuration, the control unit determines the position or posture of the robot based on the contact between the tool, such as an assembly member, having a high accuracy in its shape and the tool. The relative position or posture can be accurately derived. Therefore, the robot can improve the accuracy of work. In addition, since this configuration does not require a robot-specific tool such as an end effector, it is possible to reduce the cost and time required for creating the robot-specific tool.

また、本発明の一実施形態は、前記制御部は、前記ハンドの位置又は姿勢を決めた後、
所定の変化量に基づいて前記ハンドの位置又は姿勢を変更し、前記ハンドに前記作業を行
わせる、ロボットである。
この構成により、制御部は、作業対象物との接触により決めた位置又は姿勢からの変化
量に基づいて、ロボットを作業を行う位置に正確に移動させたり、ロボットを作業に適し
た姿勢に動かしたりすることができる。従って、ロボットは、作業の精度を高めることが
できる。
In one embodiment of the present invention, after the control unit determines the position or posture of the hand,
A robot that changes the position or posture of the hand based on a predetermined amount of change and causes the hand to perform the operation.
With this configuration, the control unit accurately moves the robot to the position where the work is performed based on the amount of change from the position or posture determined by contact with the work object, or moves the robot to a posture suitable for the work. Can be. Therefore, the robot can improve the accuracy of work.

また、本発明の一実施形態は、前記制御部は、前記接触の前において前記ハンドに弱い
力で前記道具を把持させ、前記ハンドの位置又は姿勢を決めたときにおいて前記ハンドが
把持する力を強め、前記ハンドに前記作業を行わせる、ロボットである。
この構成により、制御部は、接触によりロボットに対する道具の位置又は姿勢を柔軟に
調節し、位置又は姿勢を決めた後は、道具をしっかりと把持することにより、ロボットに
対する道具の相対的な位置及び姿勢を固定するため、作業の精度を高めることができる。
In one embodiment of the present invention, the control unit causes the hand to grip the tool with a weak force before the contact, and determines the force that the hand grips when the position or posture of the hand is determined. It is a robot that strengthens and causes the hand to perform the work.
With this configuration, the control unit flexibly adjusts the position or posture of the tool with respect to the robot by contact, and after determining the position or posture, the control unit firmly grasps the tool to thereby determine the relative position and the tool of the tool with respect to the robot. Since the posture is fixed, the accuracy of the work can be improved.

また、本発明の一実施形態は、前記制御部は、前記ハンドが把持する前記道具の所定の
部位を前記作業対象物に接触させる、ロボットである。
この構成により、制御部は、ロボットを制御して、道具の所定の部位を作業対象物に接
触させるため、より正確に道具の作用点の位置や道具の姿勢を決めることができる。従っ
て、ロボットは、作業の精度を高めることができる。
Moreover, one Embodiment of this invention is a robot with which the said control part contacts the predetermined | prescribed site | part of the said tool which the said hand hold | grips with the said work target object.
With this configuration, the control unit controls the robot to bring a predetermined part of the tool into contact with the work target, so that the position of the tool action point and the tool posture can be determined more accurately. Therefore, the robot can improve the accuracy of work.

また、本発明の一実施形態は、力センサーと、作業に使用する道具を把持するハンドと
を備えるロボットと、前記ロボットを動作させる制御部と、を含み、前記制御部は、作業
対象物に前記ハンドが把持する前記道具を接触させることによって前記ハンドの位置又は
姿勢を決めた後、前記ロボットに前記作業を行わせる、ロボットシステムである。
この構成により、制御部は、組み立て部材など、その形状に高い精度を有する作業対象
物と道具との接触に基づいてロボットの位置又は姿勢を決めるため、制御部は、道具と作
業対象物との相対的な位置又は姿勢を正確に導出することができる。従って、ロボットシ
ステムは、作業の精度を高めることができる。
In addition, an embodiment of the present invention includes a robot including a force sensor, a hand that holds a tool used for work, and a control unit that operates the robot, the control unit serving as a work target The robot system is configured to cause the robot to perform the operation after determining the position or posture of the hand by contacting the tool held by the hand.
With this configuration, the control unit determines the position or posture of the robot based on the contact between the tool, such as an assembly member, having a high accuracy in its shape and the tool. The relative position or posture can be accurately derived. Therefore, the robot system can improve the accuracy of work.

また、本発明の一実施形態は、力センサーと、作業に使用する道具を把持するハンドと
を備えるロボットを動作させる制御装置であって、作業対象物に前記ハンドが把持する前
記道具を接触させることによって前記ハンドの位置又は姿勢を決めた後、前記ロボットに
前記作業を行わせる、制御装置である。
この構成により、制御装置は、組み立て部材など、その形状に高い精度を有する作業対
象物と道具との接触に基づいてロボットの位置又は姿勢を決めるため、道具と作業対象物
との相対的な位置又は姿勢を正確に導出することができる。従って、制御装置は、ロボッ
トによる作業の精度を高めることができる。
Moreover, one embodiment of the present invention is a control device that operates a robot including a force sensor and a hand that holds a tool used for work, and makes the tool held by the hand contact a work object. After determining the position or posture of the hand, the control device causes the robot to perform the operation.
With this configuration, the control device determines the position or posture of the robot based on the contact between the work object having a high accuracy in its shape, such as an assembly member, and the tool, so that the relative position between the tool and the work object is determined. Alternatively, the posture can be accurately derived. Therefore, the control device can increase the accuracy of work by the robot.

また、本発明の一実施形態は、力センサーと、作業に使用する道具を把持するハンドと
を備えるロボットを動作させる制御方法であって、作業対象物に前記ハンドが把持する前
記道具を接触させることと、前記ハンドの位置又は姿勢を決めることと、前記ロボットに
前記作業を行わせることと、を含む制御方法である。
この方法により、組み立て部材など、その形状に高い精度を有する作業対象物と道具と
の接触に基づいてロボットの位置又は姿勢が決められるため、道具と作業対象物との相対
的な位置又は姿勢が正確に導出される。従って、上述の制御方法は、作業の精度を高める
ことができる。
An embodiment of the present invention is a control method for operating a robot including a force sensor and a hand that grips a tool used for work, wherein the tool gripped by the hand is brought into contact with a work target. And determining the position or posture of the hand and causing the robot to perform the operation.
By this method, since the position or posture of the robot is determined based on the contact between the tool such as an assembly member having a high accuracy in its shape and the tool, the relative position or posture of the tool and the work target is determined. Accurately derived. Therefore, the above-described control method can improve the accuracy of work.

以上のように、本発明によれば、ロボット、ロボットシステム、制御装置、及び制御方
法は、それぞれ、道具を把持したロボットによる作業の精度を高めることができる。
As described above, according to the present invention, the robot, the robot system, the control device, and the control method can each increase the accuracy of the work performed by the robot holding the tool.

本発明の一実施形態に係るロボットシステムの概略的な構成の一例を示す図である。1 is a diagram illustrating an example of a schematic configuration of a robot system according to an embodiment of the present invention. 本発明の一実施形態に係る制御装置の概略的な機能構成の一例を示すブロック図である。It is a block diagram which shows an example of schematic function structure of the control apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るロボットシステムによる作業の第1例を説明するための図である。It is a figure for demonstrating the 1st example of the operation | work by the robot system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る制御装置が実行する処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the process which the control apparatus which concerns on one Embodiment of this invention performs. 本発明の一実施形態に係るロボットシステムの動作の一例を説明するための図である。It is a figure for demonstrating an example of operation | movement of the robot system which concerns on one Embodiment of this invention. 本発明の一実施形態に係るロボットシステムによる作業の第2例を説明するための図である。It is a figure for demonstrating the 2nd example of the operation | work by the robot system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る制御装置が実行する処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the process which the control apparatus which concerns on one Embodiment of this invention performs. 本発明の一実施形態に係るロボットシステムの動作の一例を説明するための図である。It is a figure for demonstrating an example of operation | movement of the robot system which concerns on one Embodiment of this invention. 他の構成例に係るロボットシステムの概略的な構成の一例を示す図である。It is a figure which shows an example of the schematic structure of the robot system which concerns on another structural example.

本発明の実施形態について図面を参照して詳細に説明する。
[ロボットシステムの概要]
図1は、本発明の一実施形態に係るロボットシステム1の概略的な構成例を示す図であ
る。
本実施形態に係るロボットシステム1は、ロボット10と、制御装置20と、撮像部3
0と、を備える。ロボット10は、その内部に制御装置20を含む。撮像部30とロボッ
ト10の制御装置20とは、回線40を介して通信可能に接続される。本実施形態におい
て、回線40は有線であるが、無線であってもよい。
Embodiments of the present invention will be described in detail with reference to the drawings.
[Robot system overview]
FIG. 1 is a diagram illustrating a schematic configuration example of a robot system 1 according to an embodiment of the present invention.
The robot system 1 according to this embodiment includes a robot 10, a control device 20, and an imaging unit 3.
0. The robot 10 includes a control device 20 therein. The imaging unit 30 and the control device 20 of the robot 10 are connected to be communicable via a line 40. In the present embodiment, the line 40 is wired, but may be wireless.

ロボットシステム1は、ロボットが把持した道具による作業を行うシステムである。本
実施形態において、道具は、例えば、人間用に作られたものである。具体的には、道具は
、例えば、Eリングの嵌め込みに用いられるEリングセッターや螺子締めに用いられるド
ライバーなどである。以下では、一例として、Eリングセッターを把持したロボット10
を備えるロボットシステムについて説明する。また、ロボットシステム1は、道具を用い
た作業を行う際に、作業位置を正確に特定するため、基準位置に度当たりを行う。
The robot system 1 is a system that performs work using tools held by a robot. In the present embodiment, the tool is made for human beings, for example. Specifically, the tool is, for example, an E-ring setter used for fitting an E-ring or a screwdriver used for screw fastening. In the following, as an example, the robot 10 holding the E-ring setter
A robot system comprising: Further, the robot system 1 hits the reference position in order to accurately specify the work position when performing the work using the tool.

ここで、作業位置とは、例えば、ロボット10が把持する道具または当該道具が保持す
る部材と、作業対象物との作業の実行における接点の位置のことである。基準位置とは、
作業対象物の表面の特定の位置であり、作業位置の近傍の位置であり、作業位置からの相
対的な位置関係が正確に定められている位置である。作業位置の近傍の位置とは、基準位
置と作業位置との間、制御装置20がロボット10を移動させても、その移動により作業
精度に支障が出る程の誤差を生じない程度の近さの位置である。本実施形態において、作
業対象物とは、例えば、作業に供される部材であり、道具を把持したロボット10が、道
具を接触させることが可能な位置に配置されている。本実施形態において、度当たりとは
、制御装置20がロボット10を制御して、例えば、道具の所定の部位を基準位置に接触
させ、接触によりロボット10に加わる外力やモーメントとの検知結果に基づいて、ロボ
ット10の動作を停止させることをいう。道具の所定の部位とは、例えば、基準位置に道
具を接触させやすい部位であり、例えば、道具の先端などの端点である。
Here, the work position is, for example, the position of a contact point in performing the work between the work object and the tool held by the robot 10 or a member held by the tool. What is the reference position?
It is a specific position on the surface of the work object, a position in the vicinity of the work position, and a position where the relative positional relationship from the work position is accurately determined. The position in the vicinity of the work position is close enough that even if the control device 20 moves the robot 10 between the reference position and the work position, an error that causes trouble in work accuracy due to the movement is not caused. Position. In the present embodiment, the work object is a member used for work, for example, and the robot 10 holding the tool is disposed at a position where the tool can be brought into contact. In the present embodiment, the hit is based on a detection result of an external force or a moment applied to the robot 10 by the contact of the control device 20 with the control unit 20 by bringing the predetermined part of the tool into contact with the reference position, for example. Thus, the operation of the robot 10 is stopped. The predetermined part of the tool is, for example, a part where the tool is easily brought into contact with the reference position, and is, for example, an end point such as a tip of the tool.

ロボット10は、例えば、1本の腕(アーム)を構成するマニピュレーター11を備え
る単腕の多関節ロボットである。マニピュレーター11は、その先端部にハンド(把持部
)12と力(力覚)センサー13とを備える。また、マニピュレーター11は、ハンド1
2や関節部などを駆動する駆動部(アクチュエーター)を備え、制御装置20から取得す
る制御信号に基づいて動作する。ロボット10は、ハンド12やアーム上の複数の点を基
準に位置や姿勢を定め、道具の位置や姿勢を変更できるが、これらの制御方法は、公知の
技術であるため説明を省略する。
The robot 10 is, for example, a single-arm articulated robot including a manipulator 11 that constitutes one arm (arm). The manipulator 11 includes a hand (gripping part) 12 and a force (force sensor) 13 at the tip part. The manipulator 11 is a hand 1
2 and a drive unit (actuator) that drives the joint unit and the like, and operates based on a control signal acquired from the control device 20. The robot 10 can determine the position and posture based on a plurality of points on the hand 12 and the arm, and can change the position and posture of the tool. However, these control methods are well-known techniques, and thus description thereof is omitted.

ハンド12は、道具を把持する構成部材を備え、例えば、2つ以上の指状の構成部材を
備える。ハンド12による道具の把持位置と姿勢とは、道具毎に予め定められており、ハ
ンド12は、道具が所定の姿勢になるように、道具の所定の位置を把持する。本実施形態
において、ハンド12は、Eリングセッターが所定の姿勢になるように、その持ち手部の
所定の位置を把持する。これにより、ロボットシステム1は、ワールド座標系における道
具の端点の座標を取得する。ただし、把持の際に、道具の姿勢や位置に誤差が生じる場合
があり、ワールド座標系における道具の端点の位置は、必ずしも実空間における位置と合
致する正確なものではない。所定の位置の把持のための処理には、公知の技術を用いるこ
とができるため、詳細は省略する。
The hand 12 includes a component that holds the tool, and includes, for example, two or more finger-shaped components. The gripping position and posture of the tool by the hand 12 are determined in advance for each tool, and the hand 12 grips a predetermined position of the tool so that the tool has a predetermined posture. In the present embodiment, the hand 12 holds a predetermined position of the handle portion so that the E-ring setter is in a predetermined posture. Thereby, the robot system 1 acquires the coordinates of the end points of the tool in the world coordinate system. However, an error may occur in the posture and position of the tool during gripping, and the position of the end point of the tool in the world coordinate system is not always exactly the same as the position in the real space. Since a known technique can be used for the process for gripping the predetermined position, details are omitted.

力センサー13は、ハンド12に加わる力とモーメントとを検出する。力センサー13
は、検出した力とモーメントとを示す力覚情報を制御装置20に出力する。力センサー1
3は、例えば、並進3軸方向の力成分とその周りのモーメント成分との6成分を同時に検
出する。ここで、並進3軸とは、例えば、3次元直交座標系を形成する互いに直交する3
つの座標軸(X軸、Y軸、Z軸)である。
The force sensor 13 detects a force and a moment applied to the hand 12. Force sensor 13
Outputs haptic information indicating the detected force and moment to the control device 20. Force sensor 1
3 detects, for example, six components of a force component in the translational three-axis direction and a moment component around it simultaneously. Here, the three translational axes are, for example, three orthogonal to each other forming a three-dimensional orthogonal coordinate system.
These are two coordinate axes (X axis, Y axis, Z axis).

撮像部30は、カメラモジュールを備え、ロボット10が把持する道具と作業対象物と
を含む画像を撮像することが可能な配置で設置される。撮像部30は、道具と作業対象物
とを、例えば、30[msec]などの所定の時間間隔で撮像する。また、撮像部30は
、回線40と接続された通信用インターフェイスを備える。撮像部30は、回線40を介
して、撮像した画像の情報である対象物画像情報を制御装置20に送信する。
The imaging unit 30 includes a camera module and is installed in an arrangement capable of capturing an image including a tool held by the robot 10 and a work target. The imaging unit 30 images the tool and the work target at a predetermined time interval such as 30 [msec], for example. In addition, the imaging unit 30 includes a communication interface connected to the line 40. The imaging unit 30 transmits object image information that is information of the captured image to the control device 20 via the line 40.

制御装置20は、ビジュアルサーボ、インピーダンス制御、および位置姿勢制御の3種
類の制御手法によりロボット10を制御する。
ビジュアルサーボとは、目標物との相対的な位置の変化を視覚情報として計測し、計測
した視覚情報をフィードバック情報として用いることによって目標物を追跡する制御手法
である。制御装置20は、ビジュアルサーボにおいて、撮像部30によって随時撮像され
る対象物画像を目標画像と比較し、対象物画像が目標画像に一致するように視覚的なフィ
ードバック制御を行う。ここで、目標画像は、目標とする位置及び姿勢に対象物が配置さ
れた状態を撮像部30が撮像した画像である。本実施形態において、対象物とは、例えば
、ハンド12が把持する道具である。
The control device 20 controls the robot 10 by three types of control methods: visual servo, impedance control, and position and orientation control.
The visual servo is a control method for tracking a target by measuring a change in position relative to the target as visual information and using the measured visual information as feedback information. In the visual servo, the control device 20 compares the target image captured by the imaging unit 30 as needed with the target image, and performs visual feedback control so that the target image matches the target image. Here, the target image is an image obtained by the imaging unit 30 capturing a state where the target object is arranged at the target position and orientation. In the present embodiment, the object is, for example, a tool held by the hand 12.

インピーダンス制御とは、ロボット10が備える力センサー13の出力に基づく制御で
ある。制御装置20は、インピーダンス制御において、ロボット10に加わる外力を検出
し、当該外力による変位(スチフネス)、速度(粘性)、及び慣性(加速度)の応答が所
望の値となるようにアクチュエーターの駆動トルクを制御する。
Impedance control is control based on the output of the force sensor 13 provided in the robot 10. The control device 20 detects an external force applied to the robot 10 in the impedance control, and drives the actuator so that the displacement (stiffness), speed (viscosity), and inertia (acceleration) responses due to the external force have desired values. To control.

位置姿勢制御は、ロボットシステム1が認識するワールド座標系において、制御対象の
点の座標として特定の目標座標を指定することにより、ロボット10およびロボット10
が把持する物体の位置及び姿勢を制御する制御手法である。本実施形態の位置姿勢制御に
おいて、制御装置20は、例えば、道具の端点の現在の座標を目標座標に一致させるよう
にロボット10を制御する。また、本実施形態の位置姿勢制御において、制御装置20は
、例えば、道具の端点の現在の座標と、目標座標とを結ぶ線分を道具の端点が通過するよ
うに、ロボット10を制御する。
Position and orientation control is performed by designating a specific target coordinate as a coordinate of a point to be controlled in the world coordinate system recognized by the robot system 1, so that the robot 10 and the robot 10
This is a control method for controlling the position and orientation of an object held by the. In the position / orientation control of the present embodiment, the control device 20 controls the robot 10 so that, for example, the current coordinates of the tool end point coincide with the target coordinates. In the position and orientation control of the present embodiment, the control device 20 controls the robot 10 so that the tool end point passes through a line segment connecting the current coordinate of the tool end point and the target coordinate, for example.

[制御装置の概要]
図3は、制御装置20の概略的な機能構成の一例を示すブロック図である。
制御装置20は、ロボット10の動作を制御する制御装置であり、装置の内部にCPU
(Central Processing Unit)と記憶装置とを備える。また、制
御装置20は、記憶部21と、入力部22と、出力部23と、制御部24とを備える。
[Outline of control device]
FIG. 3 is a block diagram illustrating an example of a schematic functional configuration of the control device 20.
The control device 20 is a control device that controls the operation of the robot 10, and a CPU is provided inside the device.
(Central Processing Unit) and a storage device. The control device 20 includes a storage unit 21, an input unit 22, an output unit 23, and a control unit 24.

記憶部21は、例えば、HDD(Hard Disc Drive)、フラッシュメモ
リー、EEPROM(Electrically Erasable Programm
able Read Only Memory)、ROM(Read Only Mem
ory)、又はRAM(Random Access Memory)などを備え、制御
装置20が備えるCPUが実行するための各種プログラムやCPUが実行した処理の結果
などを記憶する。
The storage unit 21 includes, for example, an HDD (Hard Disc Drive), a flash memory, and an EEPROM (Electrically Erasable Program).
bable Read Only Memory), ROM (Read Only Memory)
ory) or RAM (Random Access Memory) or the like, and stores various programs to be executed by the CPU provided in the control device 20, results of processing executed by the CPU, and the like.

また、記憶部21は、各種制御を実行し、作業を達成するための情報を記憶する。例え
ば、記憶部21は、作業における制御の切り替え条件および切り替え順序を記憶する。ま
た、記憶部21は、例えば、ビジュアルサーボに用いる目標画像の情報である目標画像情
報を記憶する。また、記憶部21は、例えば、位置姿勢制御に用いる道具の端点の目標座
標を記憶する。また、記憶部21は、例えば、インピーダンス制御に用いる慣性、減衰係
数、及び剛性のインピーダンスの目標値を記憶する。制御部24の一部または全部は、例
えば、制御装置20が備えるCPUが記憶部21に記憶されているプログラムを実行する
ことによって機能する。また、制御部24の一部または全部は、LSI(Large S
cale Integration)やASIC(Application Speci
fic Integrated Circuit)などのハードウェアにより構成されて
もよい。
Moreover, the memory | storage part 21 performs various control, and memorize | stores the information for achieving an operation | work. For example, the storage unit 21 stores control switching conditions and switching order in work. Further, the storage unit 21 stores, for example, target image information that is information on a target image used for visual servoing. In addition, the storage unit 21 stores, for example, target coordinates of tool end points used for position and orientation control. In addition, the storage unit 21 stores, for example, target values of inertia, attenuation coefficient, and stiffness impedance used for impedance control. Part or all of the control unit 24 functions, for example, when a CPU included in the control device 20 executes a program stored in the storage unit 21. In addition, a part or all of the control unit 24 is an LSI (Large S).
call Integration) and ASIC (Application Speci)
It may be configured by hardware such as fic Integrated Circuit).

入力部22は、外部からの入力を受け付ける。入力部22は、例えば、ロボットシステ
ム1のユーザーから入力される操作を受け付けるためのキーボードやマウスなどを備えて
よい。また、入力部22は、例えば、通信用インターフェイスを備え、外部装置からの入
力を受け付ける機能を備えてよい。
出力部23は、外部に各種情報の出力を行う。出力部23は、例えば、ユーザーに対し
て、画像情報を出力するディスプレーなどを備えてよい。また、出力部23は、例えば、
ユーザーに対して音声情報を出力するスピーカーなどを備えてよい。また、出力部23は
、例えば、通信用インターフェイスを備え、外部装置へ情報を出力する機能を備えてよい
The input unit 22 receives input from the outside. The input unit 22 may include, for example, a keyboard and a mouse for receiving an operation input from a user of the robot system 1. In addition, the input unit 22 may include a function for receiving an input from an external device, for example, including a communication interface.
The output unit 23 outputs various information to the outside. The output unit 23 may include, for example, a display that outputs image information to the user. The output unit 23 is, for example,
You may provide the speaker etc. which output audio | voice information with respect to a user. The output unit 23 may include a communication interface and a function of outputting information to an external device, for example.

制御部24は、目標画像情報取得部241と、対象物画像情報取得部242と、目標座
標取得部243と、センサー出力取得部244と、ビジュアルサーボ部245と、位置姿
勢制御部246と、インピーダンス制御部247と、制御切替部248と、を備える。
The control unit 24 includes a target image information acquisition unit 241, an object image information acquisition unit 242, a target coordinate acquisition unit 243, a sensor output acquisition unit 244, a visual servo unit 245, a position and orientation control unit 246, and an impedance. A control unit 247 and a control switching unit 248 are provided.

目標画像情報取得部241は、記憶部21から目標画像情報を読み出し、読み出した目
標画像情報をビジュアルサーボ部245に出力する。
対象物画像情報取得部242は、対象物画像を示す対象物画像情報を、回線40を介し
て、撮像部30から取得する。対象物画像情報取得部242は、取得した対象物画像情報
をビジュアルサーボ部245に出力する。
The target image information acquisition unit 241 reads target image information from the storage unit 21 and outputs the read target image information to the visual servo unit 245.
The object image information acquisition unit 242 acquires object image information indicating the object image from the imaging unit 30 via the line 40. The object image information acquisition unit 242 outputs the acquired object image information to the visual servo unit 245.

目標座標取得部243は、記憶部21から位置姿勢制御のための目標座標の情報を読み
出し、読み出した目標座標の情報を位置姿勢制御部246に出力する。
センサー出力取得部244は、回線40を介して、力センサー13が出力する力覚情報
を取得し、取得した力覚情報をインピーダンス制御部247に出力する。
The target coordinate acquisition unit 243 reads target coordinate information for position and orientation control from the storage unit 21, and outputs the read target coordinate information to the position and orientation control unit 246.
The sensor output acquisition unit 244 acquires the force information output from the force sensor 13 via the line 40 and outputs the acquired force information to the impedance control unit 247.

ビジュアルサーボ部245は、目標画像情報取得部241から取得する目標画像情報と
、対象物画像情報取得部242から取得する対象物画像情報とに基づいて、ビジュアルサ
ーボによりロボット10を制御するための制御信号を生成する。ビジュアルサーボ部24
5は、生成した制御信号をロボット10に送信する。
The visual servo unit 245 controls the robot 10 by visual servoing based on the target image information acquired from the target image information acquisition unit 241 and the object image information acquired from the object image information acquisition unit 242. Generate a signal. Visual servo section 24
5 transmits the generated control signal to the robot 10.

位置姿勢制御部246は、目標座標取得部243から目標座標を示す情報を取得し、取
得した情報が示す目標座標と、道具の端点の現在の座標とに基づいて、位置姿勢制御によ
りロボット10を制御するための制御信号を生成する。位置姿勢制御部246は、生成し
た制御信号をロボット10に送信する。
The position / orientation control unit 246 acquires information indicating the target coordinates from the target coordinate acquisition unit 243, and controls the robot 10 by position / orientation control based on the target coordinates indicated by the acquired information and the current coordinates of the end points of the tool. A control signal for controlling is generated. The position / orientation control unit 246 transmits the generated control signal to the robot 10.

インピーダンス制御部247は、センサー出力取得部244から力覚情報を取得し、取
得した力覚情報に基づいて、インピーダンス制御によりロボット10を制御するための制
御信号を生成する。インピーダンス制御部247は、生成した制御信号をロボット10に
送信する。本実施形態において、インピーダンス制御部247は、例えば、ハンド12が
把持する道具から受ける反力について、道具を強い力で把持するための大きい目標値と、
道具を弱い力で把持するための小さい目標値との2つの目標値のいずれかに基づく制御信
号を生成する。
The impedance control unit 247 acquires haptic information from the sensor output acquisition unit 244, and generates a control signal for controlling the robot 10 by impedance control based on the acquired haptic information. The impedance control unit 247 transmits the generated control signal to the robot 10. In the present embodiment, for example, the impedance control unit 247 has a large target value for gripping the tool with a strong force with respect to the reaction force received from the tool gripped by the hand 12;
A control signal is generated based on one of two target values, a small target value for gripping the tool with a weak force.

制御切替部248は、ビジュアルサーボ、位置姿勢制御、及びインピーダンス制御のう
ち適用する制御手法とその目標値とを切り替える。例えば、制御切替部248は、記憶部
21が記憶する制御の切り替え条件と制御手順とに基づいて、制御手法とその目標値とを
切り替え、ビジュアルサーボ部245、位置姿勢制御部246、及びインピーダンス制御
部247が生成する制御信号を調整する。例えば、制御切替部248は、後述する度当た
りの判定を行い、位置姿勢制御部246の目標値を切り替える。
The control switching unit 248 switches between a control method to be applied and its target value among visual servo, position and orientation control, and impedance control. For example, the control switching unit 248 switches the control method and the target value based on the control switching condition and the control procedure stored in the storage unit 21, and the visual servo unit 245, the position / orientation control unit 246, and the impedance control The control signal generated by the unit 247 is adjusted. For example, the control switching unit 248 performs determination per degree described later, and switches the target value of the position / orientation control unit 246.

[ロボットシステムの動作の概要]
図3は、ロボットシステム1による作業の第1例を説明するための図である。
図3と、後述する図5、図6、及び図8とにおいて例示されるX軸、Y軸、及びZ軸は
、それぞれ、ワールド座標系の3次元直交座標系の各軸を示す。作業の第1例において、
ロボット10は、ブレード部53と持ち手部54とを備えるEリングセッター52を用い
て、Eリング51を作業対象物60の軸部62に嵌合させる作業を行う。この図に例示す
るように、ロボット10のハンド12は、Eリング51をブレード部53に保持したEリ
ングセッター52を把持する。
[Overview of robot system operation]
FIG. 3 is a diagram for explaining a first example of work by the robot system 1.
The X axis, the Y axis, and the Z axis exemplified in FIG. 3 and FIGS. 5, 6, and 8 to be described later indicate respective axes of the three-dimensional orthogonal coordinate system of the world coordinate system. In the first example of work,
The robot 10 performs an operation of fitting the E ring 51 to the shaft portion 62 of the work object 60 using the E ring setter 52 including the blade portion 53 and the handle portion 54. As illustrated in this figure, the hand 12 of the robot 10 holds an E-ring setter 52 that holds an E-ring 51 on a blade portion 53.

作業対象物60は、固定台61と、軸部62と、ギヤ部63と、を備える。固定台61
は、例えば、ロボット10の動作を妨げない配置で作業台に固定されている。また、固定
台61は、軸部62の長軸方向が水平面に対して垂直になるように軸部62を固定する。
ギヤ部63は、大小2枚の円盤を重ねた形状を有し、円盤面の中心には、円盤面に対して
垂直な孔が形成されている。この孔には、軸部62が隙間なく通されており、ギヤ部63
の円盤面は、水平面に平行に保たれている。また、ギヤ部63の下部には、固定部材が存
在し、この固定部材は、ギヤ部63が重力方向に移動しないようにギヤ部63を固定する
The work object 60 includes a fixed base 61, a shaft part 62, and a gear part 63. Fixed base 61
Are fixed to the work table in an arrangement that does not interfere with the operation of the robot 10, for example. The fixing base 61 fixes the shaft portion 62 so that the major axis direction of the shaft portion 62 is perpendicular to the horizontal plane.
The gear part 63 has a shape in which two large and small disks are stacked, and a hole perpendicular to the disk surface is formed at the center of the disk surface. The shaft portion 62 is passed through this hole without any gaps, and the gear portion 63.
The disk surface is kept parallel to the horizontal plane. Further, a fixing member is present below the gear portion 63, and this fixing member fixes the gear portion 63 so that the gear portion 63 does not move in the direction of gravity.

作業の第1例において、ロボットシステム1は、図3に示す状態から、Eリングセッタ
ー52を用いて、Eリング51をギヤ部63の上部の軸部62に嵌合させる作業を行う。
Eリング51を嵌合させる位置は、例えば、ギヤ部63大円盤の上面から8.0[mm]
上方である。この作業において、ロボットシステム1は、例えば、Z軸方向の誤差が0.
5[mm]以下とする作業精度を要求されているものとする。
In the first example of the work, the robot system 1 performs the work of fitting the E ring 51 to the shaft part 62 on the upper part of the gear part 63 using the E ring setter 52 from the state shown in FIG.
The position where the E-ring 51 is fitted is, for example, 8.0 [mm] from the upper surface of the gear part 63 large disk.
Above. In this operation, the robot system 1 has, for example, an error of 0.
It is assumed that work accuracy of 5 [mm] or less is required.

図4は、作業の第1例において制御装置20が実行する処理の流れの一例を示すフロー
チャートである。
この図は、図3を用いて説明した作業の第1例を実行する場合の処理の一例を示す。ま
ず、制御装置20は、ロボット10を制御して、弱い力で道具を把持させる(ステップS
101)。ここで、弱い力とは、道具を傾けても、道具が落下したり、ハンド12に対す
る道具の相対的な姿勢が変化したりしない程度の強さであり、また、道具が物体に接触し
たときには、その外力によりロボット10に対する道具の相対的な姿勢が柔軟に変化する
程度の強さである。次に、制御装置20は、例えば、ビジュアルサーボを行い、道具が所
定の位置姿勢になるようにロボット10を制御する(ステップS102)。
FIG. 4 is a flowchart illustrating an example of a flow of processing executed by the control device 20 in the first example of work.
This figure shows an example of processing when the first example of the work described with reference to FIG. 3 is executed. First, the control device 20 controls the robot 10 to grip the tool with a weak force (step S).
101). Here, the weak force is such a strength that the tool does not fall or the relative posture of the tool with respect to the hand 12 does not change even when the tool is tilted. The strength of the tool is such that the relative posture of the tool with respect to the robot 10 is flexibly changed by the external force. Next, the control device 20 performs visual servo, for example, and controls the robot 10 so that the tool is in a predetermined position and posture (step S102).

次に、制御装置20は、例えば、位置姿勢制御を行い、所定の位置から作業対象物の基
準位置方向にロボット10を移動させる(ステップS103)。この処理は、道具の端点
を作業対象物の基準位置に接触させることを目的とするが、ロボットシステム1による道
具の端点の認識に誤差が生じており、基準位置を目標としても道具が基準位置に接触しな
い可能性も考えられる。そこで、制御装置20は、道具と基準位置との接触を検知するま
で、同一方向にロボット10を移動させてよい。これにより、より確実に道具を作業対象
物の基準位置に接触させることができる。
Next, for example, the control device 20 performs position and orientation control, and moves the robot 10 from a predetermined position toward the reference position of the work object (step S103). The purpose of this process is to bring the end point of the tool into contact with the reference position of the work object. However, there is an error in the recognition of the end point of the tool by the robot system 1, and the tool is still in the reference position even if the reference position is the target. There is also a possibility that it does not touch the surface. Therefore, the control device 20 may move the robot 10 in the same direction until it detects contact between the tool and the reference position. Thereby, a tool can be made to contact a reference position of a work subject more certainly.

次に、制御装置20は、基準位置に道具が接触したか否かを判定する(ステップS10
4)。例えば、制御装置20は、力センサー13から取得する力覚情報が示す力またはモ
ーメントの単位時間当たりの変化量が所定の値より大きいか否かを判定することにより、
基準位置に道具が接触したか否かを判定する。基準位置に道具が接触していない場合(ス
テップS104;NO)、制御装置20は、ステップS103に処理を戻す。基準位置に
道具が接触した場合(ステップS104;YES)、制御装置20は、インピーダンス制
御により、ロボット10が道具を把持する力を強める(ステップS105)。ここで、強
い力とは、道具が物体に接触した場合であっても、ハンド12に対する道具の相対的な姿
勢が作業精度に影響する程度には変化しない程度の強さである。次に、制御装置20は、
予め定められている基準位置と作業位置との位置関係に基づいた位置姿勢制御を行い、ロ
ボット10を作業位置に移動させる(ステップS106)そして、制御装置20は、ロボ
ット10を制御して作業を実行させる(ステップS107)。
Next, the control device 20 determines whether or not the tool has contacted the reference position (step S10).
4). For example, the control device 20 determines whether or not the amount of change per unit time of the force or moment indicated by the force information acquired from the force sensor 13 is greater than a predetermined value.
It is determined whether or not the tool touches the reference position. When the tool is not in contact with the reference position (step S104; NO), the control device 20 returns the process to step S103. When the tool comes into contact with the reference position (step S104; YES), the control device 20 increases the force with which the robot 10 grips the tool by impedance control (step S105). Here, the strong force is a strength that does not change to the extent that the relative posture of the tool with respect to the hand 12 affects the work accuracy even when the tool contacts the object. Next, the control device 20
Position / orientation control based on the positional relationship between the predetermined reference position and the work position is performed, and the robot 10 is moved to the work position (step S106). Then, the control device 20 controls the robot 10 to perform the work. This is executed (step S107).

図5は、作業の第1例におけるロボットシステム1の動作の一例を説明するための図で
ある。
この図は、図3を用いて説明した作業の第1例を実行する場合の動作の一例を示す。
図5(a)は、作業の第1例における道具と作業対象物60との位置関係の第1例を示
し、作業の開始前の状態を示す。
この図において例示されるように、作業の開始前において、ロボット10が把持するE
リングセッター52は、Eリング51を保持する。点P52は、Eリングセッター52に
おけるブレード部53側の端点を示す。点P11、P12、P13、及びP14は、それ
ぞれ、制御の基準となる点を示す。また、点P11、P12、及びP13はZ軸に平行な
同一直線上にある。また、点P13及びP14は、X軸に平行な同一直線上にある。点P
12は、度当たりの基準位置を示す。点P14は、作業位置を示す。ギヤ部63のような
部材は、通常、例えば、誤差±0.05[mm]以下の高い精度で成型されている。この
一例において、基準位置は、ギヤ部63の表面の特定の位置であり、作業位置は、ギヤ部
63大円盤の上面から8.0[mm]上方の位置である。すなわち、この一例において、
基準位置と作業位置との相対的な位置関係は、正確に定められている。この状態から、ロ
ボットシステム1は、例えば、図4のステップS102に示される処理を実行する。
FIG. 5 is a diagram for explaining an example of the operation of the robot system 1 in the first example of work.
This figure shows an example of the operation when the first example of the work described with reference to FIG. 3 is executed.
Fig.5 (a) shows the 1st example of the positional relationship of the tool in the 1st example of work, and the work target object 60, and shows the state before the start of work.
As illustrated in this figure, the E gripped by the robot 10 before the work is started.
The ring setter 52 holds the E ring 51. A point P52 indicates an end point of the E-ring setter 52 on the blade portion 53 side. Points P11, P12, P13, and P14 each indicate a point serving as a reference for control. Points P11, P12, and P13 are on the same straight line parallel to the Z axis. The points P13 and P14 are on the same straight line parallel to the X axis. Point P
Reference numeral 12 denotes a reference position per degree. A point P14 indicates a work position. A member such as the gear part 63 is usually molded with high accuracy with an error of ± 0.05 [mm] or less, for example. In this example, the reference position is a specific position on the surface of the gear part 63, and the work position is a position 8.0 [mm] above the upper surface of the gear part 63 large disk. That is, in this example,
The relative positional relationship between the reference position and the work position is accurately determined. From this state, the robot system 1 executes, for example, the process shown in step S102 of FIG.

図5(b)は、作業の第1例における道具と作業対象物60との位置関係の第2例を示
す。
図5(a)において例示される状態から、ロボットシステム1が図4のステップS10
2に示される処理を実行すると、端点P52が所定の位置を示す点P11に重なる。この
例において、所定の位置は、度当たりの基準位置の垂直方向上方に設定されている。この
状態から、ロボットシステム1は、例えば、図4のステップS103に示される処理を実
行し、矢印A11に示すように、Eリングセッター52を基準位置の方向である垂直方向
下方に移動させる。
FIG. 5B shows a second example of the positional relationship between the tool and the work object 60 in the first example of work.
From the state illustrated in FIG. 5A, the robot system 1 performs step S10 in FIG.
When the process shown in FIG. 2 is executed, the end point P52 overlaps the point P11 indicating a predetermined position. In this example, the predetermined position is set vertically above the reference position per degree. From this state, for example, the robot system 1 executes the process shown in step S103 of FIG. 4 to move the E-ring setter 52 downward in the vertical direction, which is the direction of the reference position, as indicated by an arrow A11.

図5(c)は、作業の第1例における道具と作業対象物60との位置関係の第3例を示
す。
図5(b)において例示される状態から、ロボットシステム1が図4のステップS10
3に示される処理を実行すると、Eリングセッター52が基準位置の点P12に接触する
。ロボットシステム1は、Eリングセッター52とギヤ部63との接触を検知すると、図
4のステップS105に示される処理を実行し、ロボット10によるEリングセッター5
2の把持力を強める。この状態からロボットシステム1は、図4のステップS106に示
される処理を実行し、矢印A12に示すように、Eリングセッター52を垂直方向上方に
移動させる。このとき、制御装置20は、点P13を目標座標とするのではなく、例えば
、点P12に対する点P13の相対位置に基づいて、ロボット10を制御する。具体的に
は、この一例において、点P12と点P13とはZ軸に平行な同一直線上に存在するため
、制御装置20は、ロボット10を制御して、点P12と点P13との距離分、Z軸方向
にEリングセッター52を移動させる。すなわち、制御装置20は、所定の距離の変化量
に基づいてロボット10を制御する。以下では、このような移動や角度などの変化量に基
づく位置姿勢制御を相対制御と称する。
FIG. 5C shows a third example of the positional relationship between the tool and the work object 60 in the first example of work.
From the state illustrated in FIG. 5B, the robot system 1 performs step S10 in FIG.
When the process shown in FIG. 3 is executed, the E-ring setter 52 comes into contact with the reference position point P12. When the robot system 1 detects the contact between the E-ring setter 52 and the gear unit 63, the robot system 1 executes the process shown in step S105 of FIG.
Increase the gripping force of 2. From this state, the robot system 1 executes the process shown in step S106 of FIG. 4 and moves the E-ring setter 52 upward in the vertical direction as indicated by an arrow A12. At this time, the control device 20 does not set the point P13 as the target coordinate, but controls the robot 10 based on the relative position of the point P13 with respect to the point P12, for example. Specifically, in this example, since the point P12 and the point P13 exist on the same straight line parallel to the Z axis, the control device 20 controls the robot 10 so as to obtain the distance between the point P12 and the point P13. The E-ring setter 52 is moved in the Z-axis direction. That is, the control device 20 controls the robot 10 based on the change amount of the predetermined distance. Hereinafter, such position and orientation control based on the amount of change such as movement and angle is referred to as relative control.

図5(d)は、作業の第1例における道具と作業対象物60との位置関係の第4例を示
す。
ロボットシステム1が図5(c)を用いて説明した処理を実行すると、Eリングセッタ
ー52は、作業位置の高さまで移動する。この一例において、基準位置の点P12と作業
位置の点P14とは、高さ方向に8[mm]しか離れておらず、この移動ではロボット1
0の動作による誤差はほとんど生じない。また、この一例において、ロボットシステム1
は、相対制御により、Eリングセッター52をギヤ部63の大円盤の上面から8[mm]
移動させるため、仮にロボットシステム1が認識しているZ軸の座標系に誤差があったと
しても、実空間の基準位置近傍において、高さ方向の位置の誤差は、ほとんど生じない。
従って、作業の第1例において高い精度が要求される高さ方向について、ロボットシステ
ム1は、高い精度を実現することができる。この状態から、制御装置20は、点P13に
対する点P14の相対位置に基づく相対制御を行い、矢印A13に示されるように、Eリ
ングセッター52を水平方向に移動させる。
FIG. 5D shows a fourth example of the positional relationship between the tool and the work object 60 in the first example of work.
When the robot system 1 executes the processing described with reference to FIG. 5C, the E-ring setter 52 moves to the height of the work position. In this example, the reference position point P12 and the work position point P14 are only 8 [mm] apart from each other in the height direction.
There is almost no error due to zero operation. In this example, the robot system 1
The E-ring setter 52 is moved 8 mm from the upper surface of the large disk of the gear part 63 by relative control.
Even if there is an error in the Z-axis coordinate system recognized by the robot system 1 for movement, there is almost no error in the position in the height direction in the vicinity of the reference position in the real space.
Therefore, the robot system 1 can achieve high accuracy in the height direction where high accuracy is required in the first example of work. From this state, the control device 20 performs relative control based on the relative position of the point P14 with respect to the point P13, and moves the E-ring setter 52 in the horizontal direction as indicated by an arrow A13.

図5(e)は、作業の第1例における道具と作業対象物60との位置関係の第5例を示
す。
ロボットシステム1が図5(d)を用いて説明した処理を実行すると、道具の端点P5
2は、作業位置に移動し、Eリング51が軸部62に嵌合する。この状態から、制御装置
20は、例えば、矢印A14に示されるように、嵌合時とは逆方向にEリングセッター5
2を移動させる。
図5(f)は、作業の第1例における道具と作業対象物60との位置関係の第6例を示
し、作業完了時の状態を示す。
ロボットシステム1は、図5(e)を用いて説明した処理を実行すると、Eリングセッ
ター52からEリング51を外し、作業を完了する。
FIG. 5E shows a fifth example of the positional relationship between the tool and the work object 60 in the first example of work.
When the robot system 1 executes the processing described with reference to FIG. 5D, the tool end point P5
2 moves to the working position, and the E-ring 51 is fitted to the shaft portion 62. From this state, for example, as shown by an arrow A14, the control device 20 moves the E-ring setter 5 in the direction opposite to that during fitting.
Move 2.
FIG. 5F shows a sixth example of the positional relationship between the tool and the work object 60 in the first example of work, and shows a state when the work is completed.
When the robot system 1 executes the process described with reference to FIG. 5E, the robot system 1 removes the E-ring 51 from the E-ring setter 52 and completes the operation.

例えば、撮像部30が撮像する画像に基づいて、ワールド座標系においてハンド12の
先端部の位置を指定する場合、画像の解像度に起因する1[mm]程度の誤差及びキャリ
ブレーション誤差に起因する1[mm]程度の誤差が、それぞれ生じうる。また、撮像部
30の解像度、設置位置、方向、及び撮像間隔の誤差などもハンド12の先端部の位置の
誤差になる場合がある。さらに、ハンド12が道具を把持する際の把持位置や把持姿勢に
よる誤差も含めると、ハンド12の先端部には数[mm]以上の誤差が生じる場合がある
。そのため、作業位置を直接指定してロボット10を制御した場合、作業の第1例のよう
な高い精度を要求される作業を失敗してしまう恐れがある。
For example, when the position of the tip of the hand 12 is designated in the world coordinate system based on an image captured by the imaging unit 30, an error of about 1 [mm] due to the image resolution and a calibration error 1 An error of [mm] can occur. In addition, errors in the resolution, installation position, direction, and imaging interval of the imaging unit 30 may also be errors in the position of the tip of the hand 12. Further, if an error due to the gripping position or gripping posture when the hand 12 grips the tool is included, an error of several [mm] or more may occur at the tip of the hand 12. Therefore, when the robot 10 is controlled by directly specifying the work position, there is a possibility that the work requiring high accuracy as in the first example of work may fail.

これに対して、本実施形態に係る制御装置20は、度当たりにより道具の位置又は姿勢
の決めてから、ロボット10を相対制御する。これにより、ロボット10は、一例として
、相対制御による移動が数[mm]から数[cm]程度であったり、角度の変更が数[度
]程度である場合に、誤差が0.数[mm]又は0.数[度]以下である高い精度の位置
決めが可能である。また、ロボットシステム1によれば、作業毎の度当たりにより誤差が
抑制されるため、上述した画像の解像度やキャリブレーション誤差、道具の把持による誤
差などが累積することもない。
On the other hand, the control device 20 according to the present embodiment relatively controls the robot 10 after determining the position or posture of the tool according to the degree. Thereby, as an example, when the movement by relative control is about several [mm] to several [cm], or the change in angle is about several [degree], the robot 10 has an error of 0. Number [mm] or 0. Positioning with high accuracy of several degrees or less is possible. Further, according to the robot system 1, since the error is suppressed depending on the frequency of each work, the above-described image resolution, calibration error, error due to tool gripping, and the like do not accumulate.

図6は、ロボットシステム1による作業の第2例を説明するための図である。
作業の第2例において、ロボット10は、Eリングセッターを用いて、Eリングスタン
ドからEリングを取り出して保持する作業を行う。この図に例示するように、作業対象物
70は、Eリングスタンド71と傾斜台74とを備える。Eリングスタンド71は、台座
部72と収容部73とを備える。台座部72の下部は、傾斜台74に固定され、台座部7
2の上部は、収容部73を固定する。台座部72上面は、平面である。収容部73は、平
板形状を有するEリング51を取り出し可能に積層して収容する。また、収容部73は、
Eリング51の板面が台座部72の上面と平行を保つようにEリング51を収容する。傾
斜台74は、例えば、ロボット10の動作を妨げない配置で作業台に固定されている。ま
た、傾斜台74は、Eリングスタンド71は、所定の角度で傾斜させて固定する。この一
例において、傾斜台74は、Eリングスタンド71を、水平に対して30[度]、Y軸周
りに傾斜させて固定する。これにより、台座部72上面及びEリング51の上面は水平に
対して30[度]、Y軸周りに傾斜している。
FIG. 6 is a diagram for explaining a second example of work by the robot system 1.
In the second example of the work, the robot 10 uses the E ring setter to take out the E ring from the E ring stand and hold it. As illustrated in this figure, the work object 70 includes an E-ring stand 71 and an inclined table 74. The E-ring stand 71 includes a pedestal part 72 and a storage part 73. The lower part of the pedestal part 72 is fixed to the inclined pedestal 74 and the pedestal part 7
The upper part of 2 fixes the accommodating part 73. The upper surface of the pedestal 72 is a flat surface. The accommodating portion 73 accommodates the E-ring 51 having a flat plate shape by stacking it so that it can be taken out. In addition, the accommodating portion 73 is
The E-ring 51 is accommodated so that the plate surface of the E-ring 51 is kept parallel to the upper surface of the pedestal 72. The tilting table 74 is fixed to the work table in an arrangement that does not interfere with the operation of the robot 10, for example. Further, the tilt base 74 is fixed by tilting the E-ring stand 71 at a predetermined angle. In this example, the tilting table 74 fixes the E-ring stand 71 by tilting around the Y axis by 30 degrees with respect to the horizontal. As a result, the upper surface of the pedestal 72 and the upper surface of the E-ring 51 are inclined about the Y axis by 30 degrees with respect to the horizontal.

作業の第2例において、ロボットシステム1は、図6に示す状態から、Eリングセッタ
ー52を用いて、Eリングスタンド71の収容部73に収容されたEリング51を取り出
す作業を行う。この作業において、ロボットシステム1は、収容部73に積層配置された
Eリング51のうち、最下層に配置されたEリング51に対してEリングセッター52の
ブレード部53を押圧することにより、Eリング51を取り出す。また、この作業におい
て、Eリング51の板面に対し、Eリングセッター52のブレード部53の板面を1[度
]程度下方に傾けてからEリング51に押圧することにより、作業の成功率が高まること
が経験的に知られている。
In the second example of the work, the robot system 1 performs the work of taking out the E-ring 51 housed in the housing portion 73 of the E-ring stand 71 using the E-ring setter 52 from the state shown in FIG. In this operation, the robot system 1 presses the blade portion 53 of the E ring setter 52 against the E ring 51 arranged in the lowermost layer among the E rings 51 arranged in a stack in the accommodating portion 73, thereby Take out the ring 51. Also, in this work, the success rate of the work is achieved by inclining the plate surface of the blade portion 53 of the E ring setter 52 downward by about 1 [degree] with respect to the plate surface of the E ring 51 and then pressing the E ring 51 against the plate surface. It is empirically known that increases.

図7は、作業の第2例において制御装置20が実行する処理の流れの一例を示すフロー
チャートである。
この図は、図6を用いて説明した作業の第2例を実行する場合の処理の一例を示す。な
お、図7のステップS201〜S204、S209、S210に示される処理は、図4の
ステップS101〜S104、S106、S107に示される処理と同様であるため説明
を省略する。
FIG. 7 is a flowchart illustrating an example of a flow of processing executed by the control device 20 in the second example of work.
This figure shows an example of processing when the second example of the work described with reference to FIG. 6 is executed. Note that the processes shown in steps S201 to S204, S209, and S210 in FIG. 7 are the same as the processes shown in steps S101 to S104, S106, and S107 in FIG.

ステップS204において、基準位置に道具が接触した場合(ステップS204;YE
S)、制御装置20は、インピーダンス制御を行い、ロボット10に道具の姿勢を調節さ
せる(ステップS205)。道具の姿勢の調節とは、具体的には、基準位置に道具を度当
たりさせ、基準位置の存在する平面の傾斜に基づいて、道具の姿勢を調節することである
。以下では、基準位置の存在する平面を基準面と称する。本実施形態において、制御装置
20は、基準面とEリングセッター52のブレード部53の板面とを平行に沿わせること
により、Eリングセッター52の姿勢を調節する。この姿勢の調節において、制御装置2
0は、例えば、力センサー13が検出するねじれモーメント等に基づいてインピーダンス
制御を行う。
In step S204, when the tool touches the reference position (step S204; YE
S), the control device 20 performs impedance control, and causes the robot 10 to adjust the posture of the tool (step S205). Specifically, the adjustment of the posture of the tool is to adjust the posture of the tool based on the inclination of the plane on which the reference position exists, by causing the tool to hit the reference position. Hereinafter, the plane on which the reference position exists is referred to as a reference plane. In the present embodiment, the control device 20 adjusts the posture of the E ring setter 52 by causing the reference surface and the plate surface of the blade portion 53 of the E ring setter 52 to run in parallel. In this posture adjustment, the control device 2
0 performs impedance control based on, for example, a torsional moment detected by the force sensor 13.

次に、制御装置20は、インピーダンス制御が収束し、度当たりによる姿勢の調節が行
われたか否かを判定する(ステップS206)。インピーダンス制御が収束していない場
合(ステップS206;NO)、制御装置20は、ステップS205に処理を戻す。イン
ピーダンス制御が収束した場合(ステップS206;YES)、制御装置20は、インピ
ーダンス制御により、ロボット10が道具を把持する力を強める(ステップS207)。
次に、制御装置20は、ロボット10を制御して、道具の姿勢を所定角度傾斜させる(ス
テップS208)。次に、制御装置20は、図4のステップS106及びS107におい
て説明した処理と同様の処理を行い、処理を終了する。
Next, the control device 20 determines whether or not the impedance control has converged and the posture adjustment based on the degree has been performed (step S206). When the impedance control has not converged (step S206; NO), the control device 20 returns the process to step S205. When the impedance control has converged (step S206; YES), the control device 20 increases the force with which the robot 10 grips the tool by the impedance control (step S207).
Next, the control device 20 controls the robot 10 to tilt the posture of the tool by a predetermined angle (step S208). Next, the control device 20 performs a process similar to the process described in steps S106 and S107 in FIG. 4 and ends the process.

図8は、作業の第2例におけるロボットシステム1の動作の一例を説明するための図で
ある。
この図は、図6を用いて説明した作業の第2例を実行する場合の動作の一例を示す。
図8(a)は、作業の第2例における道具と作業対象物70との位置関係の第1例を示
し、作業の開始前の状態を示す。
図6を用いて説明したように、この図に例示するEリングスタンド71は、水平に対し
て30[度]、Y軸周りに傾斜している。すなわち、XZ平面上において、X軸に平行な
線L1と台座部72上面に平行な線L2との交差角度は、30[度]である。収容部73
は、10枚のEリング51を収容している。点P52は、Eリングセッター52における
ブレード部53側の端点を示す。点P21、P22、P23、及びP24は、それぞれ、
制御の基準となる点を示す。また、点P21、P22、及びP23は同一直線上にある。
また、点P23及びP24は、台座部72上面に平行な同一直線上にある。点P22は、
度当たりの基準位置を示す。点P24は、作業位置を示す。この一例において、基準位置
は、台座部72上面の特定の位置であり、作業位置は、台座部72上面に対して、その板
面が平行を保つように収容された最下層のEリング51の中心部である。また、この一例
において、Eリングスタンド71の各部材は、高い精度で成型され、組み合わされており
、台座部72上面とEリング51の板面との距離及び姿勢には、作業精度に支障が出るほ
どの誤差はない。従って、基準位置と作業位置との相対的な位置関係が正確に定められて
いる。この状態から、ロボットシステム1は、例えば、図10のステップS202に示さ
れる処理を実行する。
FIG. 8 is a diagram for explaining an example of the operation of the robot system 1 in the second example of work.
This figure shows an example of an operation when the second example of the work described with reference to FIG. 6 is executed.
Fig.8 (a) shows the 1st example of the positional relationship of the tool and work target object 70 in the 2nd example of work, and shows the state before the start of work.
As described with reference to FIG. 6, the E-ring stand 71 illustrated in this figure is inclined around the Y axis by 30 degrees with respect to the horizontal. That is, on the XZ plane, the intersection angle between the line L1 parallel to the X axis and the line L2 parallel to the upper surface of the pedestal 72 is 30 [degrees]. Housing part 73
Accommodates ten E-rings 51. A point P52 indicates an end point of the E-ring setter 52 on the blade portion 53 side. Points P21, P22, P23, and P24 are respectively
Points that serve as the basis for control. Points P21, P22, and P23 are on the same straight line.
The points P23 and P24 are on the same straight line parallel to the upper surface of the pedestal 72. Point P22 is
Indicates the reference position per degree. A point P24 indicates a work position. In this example, the reference position is a specific position on the upper surface of the pedestal portion 72, and the work position is that of the lowermost E ring 51 accommodated so that the plate surface thereof is parallel to the upper surface of the pedestal portion 72. The center. In this example, the members of the E-ring stand 71 are molded and combined with high accuracy, and the distance and posture between the upper surface of the pedestal 72 and the plate surface of the E-ring 51 may hinder the work accuracy. There is no error to come out. Therefore, the relative positional relationship between the reference position and the work position is accurately determined. From this state, the robot system 1 executes, for example, the process shown in step S202 of FIG.

図8(b)は、作業の第2例における道具と作業対象物70との位置関係の第2例を示
す。
図8(a)において例示される状態から、ロボットシステム1が図7のステップS20
2に示される処理を実行すると、端点P52が所定の位置を示す点P21に重なる。この
一例において、所定の位置は、台座部72上面に対する法線であって、度当たりの基準位
置を通る法線上に設定されている。また、この一例において、所定の姿勢は、Eリングセ
ッター52を端点P52を中心としてY軸周りに数[度]程度ZA方向に回転させた姿勢
であってよい。これにより、ロボットシステム1は、ロボットシステム1による道具の姿
勢の認識に誤差が生じていた場合であっても、より確実に道具の端点P52を作業対象物
の基準位置に接触させ、度当たりにより道具の姿勢を調節することができる。この状態か
ら、ロボットシステム1は、例えば、図7のステップS203に示される処理を実行し、
矢印A21に示すように、Eリングセッター52を基準位置の方向に移動させる。
FIG. 8B shows a second example of the positional relationship between the tool and the work object 70 in the second example of work.
From the state illustrated in FIG. 8A, the robot system 1 performs step S20 in FIG.
When the process shown in FIG. 2 is executed, the end point P52 overlaps the point P21 indicating a predetermined position. In this example, the predetermined position is a normal line with respect to the upper surface of the pedestal portion 72 and is set on a normal line passing through the reference position per degree. In this example, the predetermined posture may be a posture in which the E-ring setter 52 is rotated about the end point P52 in the ZA direction by several degrees around the Y axis. As a result, the robot system 1 ensures that the tool end point P52 is brought into contact with the reference position of the work object more reliably even when there is an error in the recognition of the tool posture by the robot system 1. You can adjust the posture of the tool. From this state, the robot system 1 executes, for example, the process shown in step S203 of FIG.
As shown by arrow A21, the E-ring setter 52 is moved in the direction of the reference position.

図8(c)は、作業の第2例における道具と作業対象物70との位置関係の第3例を示
す。
図8(b)において例示される状態から、ロボットシステム1が図7のステップS20
3に示される処理を実行すると、Eリングセッター52が基準位置の点P22に接触する
。ロボットシステム1は、Eリングセッター52と台座部72との接触を検知すると、図
7のステップS205に示される処理を実行し、例えば、矢印A22に示すようにEリン
グセッター52の姿勢を変化させ、基準面である台座部72上面とEリングセッター52
のブレード部53の板面とが平行になるように、Eリングセッター52の姿勢を調節する
。このとき、ロボットシステム1は、基準面とEリングセッター52のブレード部53の
板面とを、例えば、数[mm]程度接触させ、Eリングセッター52の姿勢を調節して
よい。
FIG. 8C shows a third example of the positional relationship between the tool and the work object 70 in the second example of work.
From the state illustrated in FIG. 8B, the robot system 1 performs step S20 in FIG.
When the process shown in FIG. 3 is executed, the E-ring setter 52 contacts the point P22 of the reference position. When the robot system 1 detects contact between the E-ring setter 52 and the pedestal portion 72, the robot system 1 executes the process shown in step S205 of FIG. 7, and changes the posture of the E-ring setter 52 as indicated by an arrow A22, for example. The upper surface of the pedestal 72, which is the reference surface, and the E-ring setter 52
The posture of the E-ring setter 52 is adjusted so that the plate surface of the blade portion 53 is parallel. At this time, the robot system 1 may adjust the posture of the E-ring setter 52 by bringing the reference surface and the plate surface of the blade portion 53 of the E-ring setter 52 into contact with each other by, for example, about several [mm 2 ].

図8(d)は、作業の第2例における道具と作業対象物70との位置関係の第4例を示
す。
ロボットシステム1は、図7のステップS205に示される処理を実行すると、台座部
72上面とEリングセッター52のブレード部53の板面とが平行になる。この状態から
、ロボットシステム1は、図7のステップS207に示される処理を実行し、ロボット1
0によるEリングセッター52の把持力を強め、例えば、矢印A23に示すように、Eリ
ングセッター52を台座部72上面の法線方向上方に移動させる。このとき、制御装置2
0は、点P23を目標座標とするのではなく、例えば、点P22に対する点P23の相対
位置に基づいて、ロボット10を制御する。具体的には、この一例において、点P22と
点P23とは台座部72上面の法線に平行な同一直線上に存在するため、制御装置20は
、ロボット10を制御して、点P22と点P23との距離分、台座部72上面の法線方向
上方にEリングセッター52を移動させる。
FIG. 8D shows a fourth example of the positional relationship between the tool and the work object 70 in the second example of work.
When the robot system 1 executes the process shown in step S205 of FIG. 7, the upper surface of the pedestal portion 72 and the plate surface of the blade portion 53 of the E-ring setter 52 become parallel. From this state, the robot system 1 executes the process shown in step S207 of FIG.
The gripping force of the E-ring setter 52 by 0 is increased, and the E-ring setter 52 is moved upward in the normal direction on the upper surface of the pedestal portion 72 as indicated by an arrow A23, for example. At this time, the control device 2
0 does not set the point P23 as a target coordinate, but controls the robot 10 based on the relative position of the point P23 with respect to the point P22, for example. Specifically, in this example, since the point P22 and the point P23 exist on the same straight line parallel to the normal line on the upper surface of the pedestal portion 72, the control device 20 controls the robot 10 to control the point P22 and the point P23. The E-ring setter 52 is moved upward in the normal direction on the upper surface of the pedestal 72 by the distance from P23.

図8(e)は、作業の第2例における道具と作業対象物70との位置関係の第5例を示
す。
ロボットシステム1が図8(d)を用いて説明した処理を実行すると、台座部72上面
に対する端点P52の高さは、台座部72上面に対する作業位置の高さとなる。この状態
から、ロボットシステム1は、矢印A24に示すように、Eリングセッター52を、その
端点P52を中心としてY軸周りに1[度]、ZX方向に回転させる。このとき、制御装
置20は、点P23において当該回転させた姿勢を目標姿勢とするのではなく、例えば、
基準面により調節した姿勢から回転させる角度の変化量に基づいて、ロボット10に対し
て相対制御を行う。
FIG. 8E shows a fifth example of the positional relationship between the tool and the work object 70 in the second example of work.
When the robot system 1 executes the process described with reference to FIG. 8D, the height of the end point P52 with respect to the upper surface of the pedestal portion 72 becomes the height of the work position with respect to the upper surface of the pedestal portion 72. From this state, the robot system 1 rotates the E-ring setter 52 in the ZX direction by 1 [degree] around the Y axis around the end point P52, as indicated by an arrow A24. At this time, the control device 20 does not set the rotated posture at the point P23 as the target posture, for example,
Relative control is performed on the robot 10 based on the amount of change in the angle of rotation from the posture adjusted by the reference plane.

図8(f)は、作業の第2例における道具と作業対象物70との位置関係の第6例を示
す。
ロボットシステム1が図8(e)を用いて説明した処理を実行すると、Eリングセッタ
ー52は、Eリングスタンド71の収容部73に収容されているEリング51の板面に対
して、1[度]ZX方向に傾斜する。すなわち、XZ平面上において、Eリング51の板
面に平行な線L5とEリングセッター52の長軸に平行な線L6との交差角度は、1[度
]である。この状態から、制御装置20は、点P23に対する点P24の相対位置に基づ
いてロボット10に対する相対制御を行い、矢印A25に示されるように、Eリングセッ
ター52を水平方向に移動させる。これにより、ロボットシステム1は、Eリングセッタ
ー52にEリング51を保持させることができる。この一例において、基準位置の点P2
2は、作業位置の点P24の近傍であり、基準位置から作業位置までの移動では、ロボッ
ト10の動作による姿勢の誤差はほとんど生じない。また、この一例において、ロボット
システム1は、相対制御により、Eリングセッター52を傾斜させるため、仮にロボット
システム1が認識しているXYZ座標系に誤差があったとしても、実空間の基準面近傍に
おいて、姿勢の誤差は、ほとんど生じない。従って、作業の第2例において、作業の成功
率を高めるための道具の姿勢について、ロボットシステム1は、高い精度を実現すること
ができる。
FIG. 8F shows a sixth example of the positional relationship between the tool and the work object 70 in the second example of work.
When the robot system 1 executes the process described with reference to FIG. 8E, the E ring setter 52 is 1 [on the plate surface of the E ring 51 housed in the housing portion 73 of the E ring stand 71. Degrees] inclines in the ZX direction. That is, on the XZ plane, the crossing angle between the line L5 parallel to the plate surface of the E ring 51 and the line L6 parallel to the major axis of the E ring setter 52 is 1 [degree]. From this state, the control device 20 performs relative control with respect to the robot 10 based on the relative position of the point P24 with respect to the point P23, and moves the E-ring setter 52 in the horizontal direction as indicated by an arrow A25. As a result, the robot system 1 can cause the E ring setter 52 to hold the E ring 51. In this example, the reference position point P2
Reference numeral 2 denotes the vicinity of the work position point P24, and in the movement from the reference position to the work position, an error in posture due to the operation of the robot 10 hardly occurs. In this example, since the robot system 1 tilts the E-ring setter 52 by relative control, even if there is an error in the XYZ coordinate system recognized by the robot system 1, the vicinity of the reference plane in the real space However, there is almost no posture error. Therefore, in the second example of work, the robot system 1 can realize high accuracy with respect to the posture of the tool for increasing the success rate of the work.

[ロボットシステムの他の構成例]
本実施形態では、図1において示されるように単腕のロボット10を備えるロボットシ
ステム1について説明したが、ロボット10とは異なるロボットを備えるロボットシステ
ムに、本実施形態と同様の構成を適用することが可能である。
図9は、他の構成例に係るロボットシステム1aの概略的の構成の第1例を示す図であ
る。
ロボットシステム1aは、ロボット10aと、制御装置20aと、撮像部30aと、を
備える。ロボット10aと制御装置20aとは、回線41を介して通信可能に接続される
。制御装置20aと撮像部30aとは、回線42を介して通信可能に接続される。本実施
形態において、回線41と回線42とは、例えば、有線であるが、無線であってもよい。
[Other configuration examples of the robot system]
In the present embodiment, the robot system 1 including the single-arm robot 10 as illustrated in FIG. 1 has been described. However, a configuration similar to that of the present embodiment is applied to a robot system including a robot different from the robot 10. Is possible.
FIG. 9 is a diagram illustrating a first example of a schematic configuration of a robot system 1a according to another configuration example.
The robot system 1a includes a robot 10a, a control device 20a, and an imaging unit 30a. The robot 10a and the control device 20a are communicably connected via a line 41. The control device 20a and the imaging unit 30a are connected via a line 42 so that they can communicate with each other. In the present embodiment, the line 41 and the line 42 are wired, for example, but may be wireless.

ロボット10aは、1本のマニピュレーター11aを備える単腕のロボットである。マ
ニピュレーター11aは、上述したロボット10のマニピュレーター11と同様の構成を
備える。
制御装置20aは、上述したロボット10の制御装置20と同様の構成を備える。また
、制御装置20aは、ロボット10aの外部装置である。このようにロボット10aと制
御装置20aとは、別の装置であってもよい。
The robot 10a is a single arm robot including one manipulator 11a. The manipulator 11a has the same configuration as the manipulator 11 of the robot 10 described above.
The control device 20a has the same configuration as the control device 20 of the robot 10 described above. The control device 20a is an external device of the robot 10a. Thus, the robot 10a and the control device 20a may be different devices.

[以上の実施形態のまとめ]
一構成例として、ロボット10は、力センサー13と、作業に使用する道具を把持する
ハンド12と、前記ハンド12を動作させる制御部24と、を含み、前記制御部24は、
作業対象物60、70に前記ハンド12が把持する前記道具を接触させることによって前
記ハンド12の位置又は姿勢を決めた後、前記ハンド12に前記作業を行わせる、ロボッ
トである。
[Summary of the above embodiments]
As an example of the configuration, the robot 10 includes a force sensor 13, a hand 12 that holds a tool used for work, and a control unit 24 that operates the hand 12. The control unit 24 includes:
It is a robot that causes the hand 12 to perform the work after determining the position or posture of the hand 12 by bringing the tool gripped by the hand 12 into contact with the work objects 60 and 70.

また、一構成例として、前記制御部24は、前記ハンド12の位置又は姿勢を決めた後
、所定の変化量に基づいて前記ハンド12の位置又は姿勢を変更し、前記ハンド12に前
記作業を行わせる。
また、一構成例として、前記制御部24は、前記接触の前において前記ハンド12に弱
い力で前記道具を把持させ、前記ハンド12の位置又は姿勢を決めたときにおいて前記ハ
ンド12が把持する力を強め、前記ハンド12に前記作業を行わせる。
また、一構成例として、前記制御部24は、前記ハンド12が把持する前記道具の所定
の部位を前記作業対象物60、70に接触させる。
As one configuration example, the control unit 24 determines the position or posture of the hand 12, changes the position or posture of the hand 12 based on a predetermined change amount, and performs the work on the hand 12. Let it be done.
Further, as one configuration example, the control unit 24 causes the hand 12 to grip the tool with a weak force before the contact, and the force that the hand 12 grips when the position or posture of the hand 12 is determined. Strengthen the hand 12 to cause the hand 12 to perform the operation.
As one configuration example, the control unit 24 brings a predetermined part of the tool held by the hand 12 into contact with the work objects 60 and 70.

また、一構成例として、ロボットシステム1は、力センサー13と、作業に使用する道
具を把持するハンド12とを備えるロボット10と、前記ロボット10を動作させる制御
部24と、を含み、前記制御部24は、作業対象物60、70に前記ハンド12が把持す
る前記道具を接触させることによって前記ハンド12の位置又は姿勢を決めた後、前記ロ
ボット10に前記作業を行わせる、ロボットシステムである。
As one configuration example, the robot system 1 includes a robot 10 including a force sensor 13 and a hand 12 that holds a tool used for work, and a control unit 24 that operates the robot 10, and the control The unit 24 is a robot system that causes the robot 10 to perform the work after determining the position or posture of the hand 12 by bringing the tool gripped by the hand 12 into contact with the work objects 60 and 70. .

また、一構成例として、制御装置20は、力センサー13と、作業に使用する道具を把
持するハンド12とを備えるロボット10を動作させる制御装置であって、作業対象物6
0、70に前記ハンド12が把持する前記道具を接触させることによって前記ハンド12
の位置又は姿勢を決めた後、前記ロボット10に前記作業を行わせる、制御装置である。
Further, as one configuration example, the control device 20 is a control device that operates the robot 10 including the force sensor 13 and the hand 12 that holds a tool used for work, and the work target 6
The hand 12 is brought into contact with 0 and 70 by the tool held by the hand 12.
After the position or posture is determined, the control device causes the robot 10 to perform the operation.

また、一構成例として、制御方法は、力センサー13と、作業に使用する道具を把持す
るハンド12とを備えるロボット10を動作させる制御方法であって、作業対象物60、
70に前記ハンド12が把持する前記道具を接触させることと、前記ハンド12の位置又
は姿勢を決めることと、前記ロボット10に前記作業を行わせることと、を含む制御方法
である。
Further, as one configuration example, the control method is a control method for operating the robot 10 including the force sensor 13 and the hand 12 that holds a tool used for work, the work target 60,
70 is a control method including bringing the tool held by the hand 12 into contact with 70, determining the position or posture of the hand 12, and causing the robot 10 to perform the operation.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこ
の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれ
る。
The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

なお、上述した各例において、マニピュレーターは、任意の自由度を有してよい。マニ
ピュレーターは、例えば、6軸や7軸以上の自由度を有する。また、マニピュレーターは
、5軸以下の自由度を有してもよく、任意の自由度を有してよい。
なお、上述した各例において、撮像部は、例えばロボットが設置されている台の上面や
床面、天井、壁面などに固定されて備えられてもよい。また、撮像部は、例えば、人手に
より撮像方向や撮像角度などを変化させることが可能な構成であってもよい。また、撮像
部は、自動的に撮像方向や撮像角度などを変化させる構成を備えてよい。また、撮像部は
、ロボットと一体であってもよいし、一体でなくてもよい。
In each example described above, the manipulator may have an arbitrary degree of freedom. The manipulator has, for example, a degree of freedom of 6 axes or 7 axes or more. In addition, the manipulator may have a degree of freedom of 5 axes or less, and may have an arbitrary degree of freedom.
In each example described above, the imaging unit may be provided fixed to, for example, an upper surface, a floor surface, a ceiling, or a wall surface of a table on which the robot is installed. In addition, the imaging unit may be configured to be able to change the imaging direction, the imaging angle, and the like manually. The imaging unit may be configured to automatically change the imaging direction, the imaging angle, and the like. Further, the imaging unit may be integrated with the robot or may not be integrated.

なお、ロボットシステム1は、度当たりによる位置又は姿勢の決定において、作業対象
物上の点や面のみでなく線を利用してもよい。ロボットシステム1は、作業対象物の稜線
に道具を接触させ、道具の位置又は姿勢を決定してよい。
Note that the robot system 1 may use a line as well as a point or a surface on the work object in determining the position or orientation based on the degree. The robot system 1 may determine the position or posture of the tool by bringing the tool into contact with the ridgeline of the work target.

なお、以上に説明した装置(例えば、ロボット10、10aや制御装置20、20a)
における任意の構成部の機能を実現するためのプログラムを、コンピューター読み取り可
能な記録媒体に記録し、そのプログラムをコンピューターシステムに読み込ませて実行す
るようにしてもよい。なお、ここで言う「コンピューターシステム」とは、OS(Ope
rating System)や周辺機器等のハードウェアを含むものとする。また、「
コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク
、ROM(Read Only Memory)、CD(Compact Disk)−
ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置
のことを言う。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット
等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバ
ーやクライアントとなるコンピューターシステム内部の揮発性メモリー(RAM:Ran
dom Access Memory)のように、一定時間プログラムを保持しているも
のも含むものとする。
The devices described above (for example, robots 10, 10a and control devices 20, 20a)
It is also possible to record a program for realizing the function of any of the components in a computer-readable recording medium, and read the program into a computer system for execution. The “computer system” here refers to OS (Ope
(Rating System) and hardware such as peripheral devices. Also,"
“Computer-readable recording medium” refers to a flexible disk, a magneto-optical disk, a ROM (Read Only Memory), a CD (Compact Disk)-
This refers to a portable medium such as a ROM or a storage device such as a hard disk built in a computer system. Further, the “computer-readable recording medium” means a volatile memory (RAM: Ran) inside a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line.
It also includes those that hold a program for a certain period of time, such as (dom Access Memory).

また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピューターシ
ステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータ
ーシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インタ
ーネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を
伝送する機能を有する媒体のことを言う。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい
。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録さ
れているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プロ
グラム)であってもよい。
In addition, the above program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting a program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
Further, the above program may be for realizing a part of the functions described above. Further, the program may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.

1、1a…ロボットシステム、11、11a…マニピュレータ、12…ハンド、13…
力センサー、20、20a…制御装置、21…記憶部、22…入力部、23…出力部、2
4…制御部、241…目標画像情報取得部、242…対象物画像情報取得部、243…目
標座標取得部、244…センサー出力取得部、245…ビジュアルサーボ部、246…位
置姿勢制御部、247…インピーダンス制御部、248…制御切替部、30、30a…撮
像部、40、41、42…回線、51…Eリング、52…Eリングセッター、53…ブレ
ード部、54…持ち手部、60…作業対象物、61…固定台、62…軸部、63…ギヤ部
、70…作業対象物、71…Eリングスタンド、72…台座部、73…収容部、74…傾
斜台
DESCRIPTION OF SYMBOLS 1, 1a ... Robot system 11, 11a ... Manipulator, 12 ... Hand, 13 ...
Force sensor 20, 20a ... control device, 21 ... storage unit, 22 ... input unit, 23 ... output unit, 2
DESCRIPTION OF SYMBOLS 4 ... Control part, 241 ... Target image information acquisition part, 242 ... Object image information acquisition part, 243 ... Target coordinate acquisition part, 244 ... Sensor output acquisition part, 245 ... Visual servo part, 246 ... Position and orientation control part, 247 ... impedance control unit, 248 ... control switching unit, 30, 30a ... imaging unit, 40, 41, 42 ... line, 51 ... E ring, 52 ... E ring setter, 53 ... blade unit, 54 ... hand portion, 60 ... Work object, 61 ... fixed base, 62 ... shaft part, 63 ... gear part, 70 ... work object, 71 ... E-ring stand, 72 ... pedestal part, 73 ... accommodation part, 74 ... tilting table

Claims (7)

力センサーと、
作業に使用する道具を把持するハンドと、
前記ハンドを動作させる制御部と、を含み、
前記作業は、作業対象物の軸部にEリングを取り付ける作業であり、
前記道具は、Eリングセッターであり、
前記制御部は、
前記作業対象物に前記ハンドが把持する前記道具を接触させることによって前記ハンドの位置又は姿勢を決めた後、ハンドに前記作業を行わせる、
ロボット。
A force sensor;
A hand holding a tool used for work;
A control unit for operating the hand,
The operation is an operation of attaching an E-ring to the shaft portion of the work object,
The tool is an E-ring setter;
The controller is
After determining the position or orientation of the hand by contacting the tool the hand grips on the work object, to perform the work hand,
robot.
前記制御部は、前記ハンドの位置又は姿勢を決めた後、所定の変化量に基づいて前記ハンドの位置又は姿勢を変更し、前記ハンドに前記作業を行わせる、
請求項1に記載のロボット。
The control unit, after determining the position or orientation of the hand, changes the position or orientation of the hand based on a predetermined change amount, and causes the hand to perform the operation.
The robot according to claim 1.
前記制御部は、前記接触の前は、前記ハンドに、前記道具を傾けても、道具が落下したり、前記ハンドに対する道具の相対的な姿勢が変化したりせず、前記道具が物体に接触したときには、前記接触により前記ロボットに対する道具の相対的な姿勢が変化する強さである、第1の力で前記道具を把持させ、前記ハンドの位置又は姿勢を決めたときには、前記ハンドが把持する力を、前記道具が物体に接触した場合であっても、ハンドに対する道具の相対的な姿勢が作業精度に影響しない強さである第2の力に変更し、前記ハンドに前記作業を行わせる、
請求項1または請求項2に記載のロボット。
Wherein, prior to said contacting, in the hand, be inclined to the tool, or tool is dropped, relative posture of a tool with respect to the hand is not or changed, the tool is brought into contact with the object when you are relative strengths posture change of tool for the robot by the contact, by gripping the tool with a first force, when the decided position or orientation of the hand, the hand is Even when the tool is in contact with an object, the gripping force is changed to a second force having a strength that does not affect the work accuracy of the relative posture of the tool with respect to the hand. To do,
The robot according to claim 1 or 2.
前記制御部は、前記ハンドが把持する前記道具の所定の部位を前記作業対象物に接触させる、
請求項1から請求項3のいずれか一項に記載のロボット。
The controller is configured to bring a predetermined part of the tool held by the hand into contact with the work object;
The robot according to any one of claims 1 to 3.
力センサーと、作業に使用する道具を把持するハンドとを備えるロボットと、
前記ロボットを動作させる制御部と、を含み、
前記作業は、作業対象物の軸部にEリングを取り付ける作業であり、
前記道具は、Eリングセッターであり、
前記制御部は、
前記作業対象物に前記ハンドが把持する前記道具を接触させることによって前記ハンドの位置又は姿勢を決めた後、前記ロボットに前記作業を行わせる、
ロボットシステム。
A robot having a force sensor and a hand for holding a tool used for work;
A control unit for operating the robot,
The operation is an operation of attaching an E-ring to the shaft portion of the work object,
The tool is an E-ring setter;
The controller is
After determining the position or orientation of the hand by contacting the tool the hand grips on the work object, to perform the work on the robot,
Robot system.
力センサーと、作業に使用する道具を把持するハンドとを備えるロボットを動作させる制御装置であって、
前記作業は、作業対象物の軸部にEリングを取り付ける作業であり、
前記道具は、Eリングセッターであり、
前記作業対象物に前記ハンドが把持する前記道具を接触させることによって前記ハンドの位置又は姿勢を決めた後、前記ロボットに前記作業を行わせる、
制御装置。
A control device for operating a robot having a force sensor and a hand for holding a tool used for work,
The operation is an operation of attaching an E-ring to the shaft portion of the work object,
The tool is an E-ring setter;
After determining the position or orientation of the hand by contacting the tool the hand grips on the work object, to perform the work on the robot,
Control device.
力センサーと、作業に使用する道具を把持するハンドとを備えるロボットを動作させる制御方法であって、
前記作業は、作業対象物の軸部にEリングを取り付ける作業であり、
前記道具は、Eリングセッターであり、
前記作業対象物に前記ハンドが把持する前記道具を接触させることと、
前記ハンドの位置又は姿勢を決めることと、
前記ロボットに前記作業を行わせることと、
を含む制御方法。
A control method for operating a robot including a force sensor and a hand that holds a tool used for work,
The operation is an operation of attaching an E-ring to the shaft portion of the work object,
The tool is an E-ring setter;
And contacting said tool said hand grips to the work object,
Determining the position or posture of the hand;
Causing the robot to perform the work;
Control method.
JP2014063235A 2013-11-01 2014-03-26 Robot, robot system, control device, and control method Expired - Fee Related JP6354248B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014063235A JP6354248B2 (en) 2014-03-26 2014-03-26 Robot, robot system, control device, and control method
CN201410584919.XA CN104608128A (en) 2013-11-01 2014-10-27 Robot, control device, robot system and robot control method
US14/528,278 US20150127141A1 (en) 2013-11-01 2014-10-30 Robot, control device, robot system and robot control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014063235A JP6354248B2 (en) 2014-03-26 2014-03-26 Robot, robot system, control device, and control method

Publications (2)

Publication Number Publication Date
JP2015182214A JP2015182214A (en) 2015-10-22
JP6354248B2 true JP6354248B2 (en) 2018-07-11

Family

ID=54349355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014063235A Expired - Fee Related JP6354248B2 (en) 2013-11-01 2014-03-26 Robot, robot system, control device, and control method

Country Status (1)

Country Link
JP (1) JP6354248B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022230036A1 (en) * 2021-04-27 2022-11-03

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09319425A (en) * 1996-05-29 1997-12-12 Kobe Steel Ltd Method and device for assembling parts
JP2002144167A (en) * 2000-11-02 2002-05-21 Ricoh Co Ltd Device and method for inserting e-type snap ring
JP4795462B2 (en) * 2009-11-12 2011-10-19 ファナック株式会社 Roll hem processing equipment using robot manipulator with force sensor
JP5895346B2 (en) * 2011-02-04 2016-03-30 セイコーエプソン株式会社 Robot, robot control apparatus, robot control method, and robot control program
JP5810582B2 (en) * 2011-03-29 2015-11-11 セイコーエプソン株式会社 Robot control method and robot

Also Published As

Publication number Publication date
JP2015182214A (en) 2015-10-22

Similar Documents

Publication Publication Date Title
US11090814B2 (en) Robot control method
US10589424B2 (en) Robot control device, robot, and robot system
US10773399B2 (en) Control device and robot system
JP5505138B2 (en) Robot apparatus and gripping method using robot apparatus
US20160184996A1 (en) Robot, robot system, control apparatus, and control method
US20150127141A1 (en) Robot, control device, robot system and robot control method
JP2018015857A (en) Control device, and robot
US20170203434A1 (en) Robot and robot system
JP2020168679A (en) Robot system and imaging method
US20160306340A1 (en) Robot and control device
JP6003312B2 (en) Robot system
JP2018015854A (en) Robot, robot control device, robot system, and control method
JP6387599B2 (en) Robot, robot system, control apparatus and control method
JP7155743B2 (en) ROBOT SYSTEM, ROBOT, AND CONTROL METHOD
JP6354248B2 (en) Robot, robot system, control device, and control method
JP6488571B2 (en) Teaching apparatus and robot system
US20180056517A1 (en) Robot, robot control device, and robot system
JP2016182648A (en) Robot, robot control device and robot system
JP2016209936A (en) Robot device, method of controlling robot, program and recording medium
JP6958091B2 (en) Robot system and robot control method
JP6322948B2 (en) Robot control apparatus, robot system, robot, robot control method, and program
JP2016120530A (en) Robot and robot calibration system
JP5942720B2 (en) State determination method, robot, control device, and program
JP6248694B2 (en) Robot, robot system, and control device
JP2019141966A (en) Robot control device, robot and robot system

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160617

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160628

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180528

R150 Certificate of patent or registration of utility model

Ref document number: 6354248

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees