JP2015150673A - Control device, robot, robot system and control method - Google Patents

Control device, robot, robot system and control method Download PDF

Info

Publication number
JP2015150673A
JP2015150673A JP2014029342A JP2014029342A JP2015150673A JP 2015150673 A JP2015150673 A JP 2015150673A JP 2014029342 A JP2014029342 A JP 2014029342A JP 2014029342 A JP2014029342 A JP 2014029342A JP 2015150673 A JP2015150673 A JP 2015150673A
Authority
JP
Japan
Prior art keywords
end effector
robot arm
robot
marker
speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014029342A
Other languages
Japanese (ja)
Inventor
武馬 山崎
Takema Yamazaki
武馬 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014029342A priority Critical patent/JP2015150673A/en
Publication of JP2015150673A publication Critical patent/JP2015150673A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a control device, a robot, a robot system, and a control method capable of smoothly and quickly receiving/delivering an object and improving production efficiency.SOLUTION: A control device makes a relative position and a relative moving direction of a second end effector 4B with respect to a first end effector 4A into a state that a workpiece 20 can be received/delivered from the first end effector 4A to the second end effector 4B on the basis of imaging information obtained by a camera 121. The control device makes a relative speed |V1-V2| of the second end effector 4B with respect to the first end effector 4A smaller than a first moving speed V1 of the first end effector 4A, and controls an operation of a first robot arm 2A and an operation of a second robot arm 2B so as to receive/deliver the workpiece 20.

Description

本発明は、制御装置、ロボット、ロボットシステムおよび制御方法に関する。   The present invention relates to a control device, a robot, a robot system, and a control method.

従来、ロボットハンドを装着した装着状態で使用される多関節ロボットアームが知られている(例えば、特許文献1、特許文献2参照)。
特許文献1では、装着状態の多関節ロボットアーム同士間で、対象物を受け渡すことができる旨が開示されている。そして、対象物を受け渡す際には、各多関節ロボットアームを制御する制御装置に予め設定されたデーターに基づいて、その受け渡しを行なう。しかしながら、対象物が変更されると、その都度データーを入力しなければならず、そのため、生産効率が低下するという問題があった。
Conventionally, an articulated robot arm used in a wearing state with a robot hand is known (see, for example, Patent Document 1 and Patent Document 2).
Patent Document 1 discloses that an object can be transferred between mounted articulated robot arms. And when delivering a target object, it delivers based on the data preset by the control apparatus which controls each articulated robot arm. However, when the object is changed, the data must be input every time, so that there is a problem that the production efficiency is lowered.

また、特許文献2では、多関節ロボットアームに装着されたロボットハンドで対象物を把持して、目標位置に移動させることができる旨が開示されている。しかしながら、特許文献2では、装着状態の多関節ロボットアームを2本用いて、これらの間で対象物を受け渡すことについては、開示されておらず、また、多関節ロボットアームは、そのような受け渡しを行なうよう構成されたものでもない。   Patent Document 2 discloses that an object can be gripped by a robot hand attached to an articulated robot arm and moved to a target position. However, Patent Document 2 does not disclose using two articulated robot arms in a mounted state and delivering an object between them, and the articulated robot arm is not It is not designed to deliver.

特開平6−71580号公報JP-A-6-71580 特開2003−231078号公報JP 2003-231078 A

本発明の目的は、対象物の受け渡しを円滑かつ迅速に行ない、生産効率の向上を図ることができる制御装置、ロボット、ロボットシステムおよび制御方法を提供することにある。   An object of the present invention is to provide a control device, a robot, a robot system, and a control method capable of smoothly and promptly delivering an object and improving production efficiency.

このような目的は、下記の本発明により達成される。
(適用例1)
本発明に係る制御装置は、第1エンドエフェクターが装着された第1ロボットアームと、第2エンドエフェクターが装着された第2ロボットアームとを備え、対象物の受け渡しを行なう受け渡し領域内で、前記第1ロボットアームに装着された前記第1エンドエフェクターで把持された前記対象物を、前記第2ロボットアームに装着された前記第2エンドエフェクターに受け渡すロボットを制御する制御装置であって、
前記第1ロボットアームの作動と前記第2ロボットアームの作動とを制御する制御部と、
前記受け渡し領域内の前記第1エンドエフェクターおよび前記第2エンドエフェクターを含む撮像画像を撮像して撮像情報を得る撮像部と、
前記受け渡し領域内における、前記第1エンドエフェクターと前記第2エンドエフェクターとの相対速度を求める演算部と、を備え、
前記制御部は、前記撮像情報に基づいて、前記相対速度を前記第1エンドエフェクターの移動速度よりも小さい速度として、前記対象物の受け渡しの制御を行なうことを特徴とする。
これにより、対象物の受け渡しを円滑かつ迅速に行ない、生産効率の向上を図ることができる。
Such an object is achieved by the present invention described below.
(Application example 1)
A control device according to the present invention includes a first robot arm to which a first end effector is attached, and a second robot arm to which a second end effector is attached, and in the delivery region for delivering an object, A control device that controls a robot that delivers the object gripped by the first end effector mounted on a first robot arm to the second end effector mounted on the second robot arm;
A control unit for controlling the operation of the first robot arm and the operation of the second robot arm;
An imaging unit that obtains imaging information by imaging a captured image including the first end effector and the second end effector in the transfer area;
A calculation unit for obtaining a relative speed between the first end effector and the second end effector in the transfer area;
The control unit controls delivery of the object based on the imaging information, with the relative speed set to be a speed smaller than the moving speed of the first end effector.
Thereby, delivery of a target object can be performed smoothly and rapidly, and the improvement of production efficiency can be aimed at.

(適用例2)
本発明に係る制御装置では、前記第1エンドエフェクターおよび前記第2エンドエフェクターには、それぞれ、前記撮像画像中に含まれるマーカーが少なくとも1つ付されており、
前記演算部は、前記撮像画像中の前記マーカーを用いて、前記相対速度を求めるのが好ましい。
これにより、相対位置、相対速度、相対的な移動方向をそれぞれ求めるに際し、これらの諸条件を正確に求めることができ、よって、対象物の受け渡しを高精度に行なうことができる。
(Application example 2)
In the control device according to the present invention, each of the first end effector and the second end effector is provided with at least one marker included in the captured image.
It is preferable that the calculation unit obtains the relative speed using the marker in the captured image.
As a result, when obtaining the relative position, the relative speed, and the relative moving direction, it is possible to accurately obtain these various conditions, so that the object can be delivered with high accuracy.

(適用例3)
本発明に係る制御装置では、前記演算部は、前記相対速度を求める際、前記第1エンドエフェクターの第1移動速度と、前記第2エンドエフェクターの第2移動速度とを求めた後、前記第1移動速度と前記第2移動速度との差を導くことにより、前記相対速度を求めるのが好ましい。
これにより、相対速度を正確に求めることができる。
(Application example 3)
In the control device according to the present invention, the computing unit obtains the first moving speed of the first end effector and the second moving speed of the second end effector when obtaining the relative speed, and then calculates the second speed. It is preferable to obtain the relative speed by deriving a difference between the first moving speed and the second moving speed.
As a result, the relative speed can be accurately obtained.

(適用例4)
本発明に係る制御装置では、前記相対速度は、25cm/sec以下であるのが好ましい。
産業用ロボットの国際規格ISO10218において、人がロボットを停止するのに十分な時間が得られる速度として、25cm/sec(250mm/s)以下が規定されている。前記相対速度を25cm/sec以下にすることにより、受け渡しを行なう際に生じる対象物に対する衝撃を低減することができるとともに、作業の安全性を向上できる。
(Application example 4)
In the control device according to the present invention, the relative velocity is preferably 25 cm / sec or less.
In the international standard ISO10218 for industrial robots, a speed of 25 cm / sec (250 mm / s) or less is defined as a speed at which a person can have enough time to stop the robot. By setting the relative speed to 25 cm / sec or less, it is possible to reduce the impact on the object generated during the delivery, and to improve the safety of work.

(適用例5)
本発明に係る制御装置では、前記ロボットは、前記第1ロボットアームと前記第1エンドエフェクターとの間、および、前記第2ロボットアームと前記第2エンドエフェクターとの間のうちの少なくとも一方には、当該エンドエフェクターに作用した力情報を得る力検出部が設けられており、
前記制御部は、前記力検出部の検出結果に基づいて、前記第1ロボットアームおよび前記第2ロボットアームに対してインピーダンス制御を行なうよう構成されているのが好ましい。
これにより、ワークを受け渡された瞬間から、受け渡しが完了するまでの間、当該ワークと第2エンドエフェクターとがやわらかく接することとなる。これにより、例えば、ワークの損傷を防止することができる。
(Application example 5)
In the control device according to the present invention, the robot may be disposed between at least one of the first robot arm and the first end effector and between the second robot arm and the second end effector. , A force detection unit for obtaining force information acting on the end effector is provided,
The control unit is preferably configured to perform impedance control on the first robot arm and the second robot arm based on a detection result of the force detection unit.
As a result, the workpiece and the second end effector come into soft contact from the moment the workpiece is delivered until the delivery is completed. Thereby, for example, damage to the workpiece can be prevented.

(適用例6)
本発明に係る制御装置では、前記撮像部は、前記ロボットが配置された空間の上方に設置されたカメラで構成されているのが好ましい。
これにより、受け渡し領域全体を確実に撮像することができ、よって、当該受け渡し領域内の第1エンドエフェクターおよび第2エンドエフェクターを含む撮像画像を撮像して撮像情報を確実に得ることができる。
(Application example 6)
In the control device according to the present invention, it is preferable that the imaging unit is configured by a camera installed above a space in which the robot is arranged.
As a result, the entire delivery area can be reliably imaged, and thus the captured information including the first end effector and the second end effector in the delivery area can be captured and the imaging information can be obtained reliably.

(適用例7)
本発明に係るロボットは、第1エンドエフェクターが装着された第1ロボットアームと、第2エンドエフェクターが装着された第2ロボットアームとを備え、対象物の受け渡しを行なう受け渡し領域内で、前記第1エンドエフェクターで把持された前記対象物を、前記第2エンドエフェクターに受け渡すロボットであって、
前記第1ロボットアームの作動と前記第2ロボットアームの作動とを制御する制御部と、
前記受け渡し領域内の前記第1エンドエフェクターおよび前記第2エンドエフェクターを含む撮像画像を撮像して撮像情報を得る撮像部と、
前記受け渡し領域内における、前記第1エンドエフェクターに対する前記第2エンドエフェクターの相対速度を求める演算部と、を備え、
前記制御部は、前記撮像情報に基づいて、前記相対速度を前記第1エンドエフェクターの移動速度よりも小さい速度として、前記第1ロボットアームの作動と前記第2ロボットアームの作動とを制御することを特徴とする。
これにより、対象物の受け渡しを円滑かつ迅速に行ない、生産効率の向上を図ることができる。
(Application example 7)
The robot according to the present invention includes a first robot arm to which a first end effector is attached and a second robot arm to which a second end effector is attached, and the first robot arm is provided in the transfer area for transferring an object. A robot for delivering the object gripped by one end effector to the second end effector,
A control unit for controlling the operation of the first robot arm and the operation of the second robot arm;
An imaging unit that obtains imaging information by imaging a captured image including the first end effector and the second end effector in the transfer area;
A calculation unit for obtaining a relative speed of the second end effector with respect to the first end effector in the transfer region,
The control unit controls the operation of the first robot arm and the operation of the second robot arm by setting the relative speed to be lower than the moving speed of the first end effector based on the imaging information. It is characterized by.
Thereby, delivery of a target object can be performed smoothly and rapidly, and the improvement of production efficiency can be aimed at.

(適用例8)
本発明に係るロボットでは、前記第1ロボットアームおよび前記第2ロボットアームをそれぞれ2本ずつ備え、
前記各第1ロボットアームに装着された前記第1エンドエフェクター同士の間から、前記各第2ロボットアームに装着された前記第2エンドエフェクター同士の間へ、前記対象物の受け渡しを行なうのが好ましい。
これにより、対象物を安定して受け渡すことができる。
(Application example 8)
The robot according to the present invention comprises two each of the first robot arm and the second robot arm,
It is preferable to deliver the object from between the first end effectors mounted on the first robot arms to between the second end effectors mounted on the second robot arms. .
Thereby, a target object can be delivered stably.

(適用例9)
本発明に係るロボットでは、前記第1ロボットアームと前記第1エンドエフェクターとの間、および、前記第2ロボットアームと前記第2エンドエフェクターとの間のうちの少なくとも一方には、当該エンドエフェクターに作用した力情報を得る力検出部が設けられているのが好ましい。
これにより、力検出部の検出結果に基づいて、制御部が例えばインピーダンス制御等の制御を行なうことができる。
(Application example 9)
In the robot according to the present invention, at least one of the first robot arm and the first end effector and the second robot arm and the second end effector may be provided with the end effector. It is preferable that a force detection unit for obtaining information on the applied force is provided.
Accordingly, the control unit can perform control such as impedance control based on the detection result of the force detection unit.

(適用例10)
本発明に係るロボットでは、前記第1エンドエフェクターおよび前記第2エンドエフェクターには、それぞれ、前記演算部で前記相対速度を求める際に用いられるマーカーが少なくとも1つ付されているのが好ましい。
これにより、撮像画像に対して画像処理を行なってマーカーを抽出することができ、よって、その抽出結果から相対位置、相対速度、相対的な移動方向を容易に求めることができる。
(Application Example 10)
In the robot according to the present invention, it is preferable that each of the first end effector and the second end effector is provided with at least one marker used for obtaining the relative speed by the calculation unit.
Thus, the marker can be extracted by performing image processing on the captured image, and the relative position, relative speed, and relative moving direction can be easily obtained from the extraction result.

(適用例11)
本発明に係るロボットでは、前記マーカーは、同一平面上の互いに異なる位置に3つ設けられており、前記3つのマーカーを結んだ仮想線が三角形をなすのが好ましい。
これにより、第1エンドエフェクターでの三角形と第2エンドエフェクターでの三角形との大きさ等を比較することにより、相対位置等を容易に求めることができる。
(Application Example 11)
In the robot according to the present invention, it is preferable that three markers are provided at different positions on the same plane, and a virtual line connecting the three markers forms a triangle.
Thereby, a relative position etc. can be easily calculated | required by comparing the magnitude | size etc. of the triangle in a 1st end effector, and the triangle in a 2nd end effector.

(適用例12)
本発明に係るロボットシステムは、第1エンドエフェクターが装着された少なくとも1本の第1ロボットアームと、第2エンドエフェクターが装着された少なくとも1本の第2ロボットアームとを備え、対象物の受け渡しを行なう受け渡し領域内で、前記第1ロボットアームに装着された前記第1エンドエフェクターで把持された前記対象物を、前記第2ロボットアームに装着された前記第2エンドエフェクターに受け渡すロボットと、
前記ロボットを制御する、本発明に係る制御装置と、を備えることを特徴とする。
これにより、対象物の受け渡しを円滑かつ迅速に行ない、生産効率の向上を図ることができる。
(Application Example 12)
A robot system according to the present invention includes at least one first robot arm to which a first end effector is attached, and at least one second robot arm to which a second end effector is attached, and delivers an object. A robot for delivering the object gripped by the first end effector attached to the first robot arm to the second end effector attached to the second robot arm in a delivery region for performing
And a control device according to the present invention for controlling the robot.
Thereby, delivery of a target object can be performed smoothly and rapidly, and the improvement of production efficiency can be aimed at.

(適用例13)
本発明に係る制御方法は、第1エンドエフェクターが装着された第1ロボットアームと、第2エンドエフェクターが装着された第2ロボットアームとを備え、対象物の受け渡しを行なう受け渡し領域内で、前記第1ロボットアームに装着された前記第1エンドエフェクターで把持された前記対象物を、前記第2ロボットアームに装着された前記第2エンドエフェクターに受け渡すロボットを制御する制御方法であって、
前記第1ロボットアームの作動と前記第2ロボットアームの作動とを制御する制御部と、
前記受け渡し領域内の前記第1エンドエフェクターおよび前記第2エンドエフェクターを含む撮像画像を撮像して撮像情報を得る撮像部と、
前記受け渡し領域内における、前記第1エンドエフェクターに対する前記第2エンドエフェクターの相対位置、相対速度、相対的な移動方向をそれぞれ求める演算部と、を用いて、
前記制御部に、前記撮像情報に基づいて、前記相対速度を、前記第1エンドエフェクターの移動速度よりも小さい速度として、前記対象物の受け渡しを行なうよう前記第1ロボットアームの作動と前記第2ロボットアームの作動とを制御させることを特徴とする。
これにより、対象物の受け渡しを円滑かつ迅速に行ない、生産効率の向上を図ることができる。
(Application Example 13)
A control method according to the present invention includes a first robot arm to which a first end effector is attached, and a second robot arm to which a second end effector is attached, and the above-described control method includes: A control method for controlling a robot that delivers the object gripped by the first end effector attached to a first robot arm to the second end effector attached to the second robot arm,
A control unit for controlling the operation of the first robot arm and the operation of the second robot arm;
An imaging unit that obtains imaging information by imaging a captured image including the first end effector and the second end effector in the transfer area;
A calculation unit that obtains a relative position, a relative speed, and a relative movement direction of the second end effector with respect to the first end effector in the transfer area;
Based on the imaging information, the control unit is configured to operate the first robot arm so that the relative speed is lower than the moving speed of the first end effector and to deliver the object. The operation of the robot arm is controlled.
Thereby, delivery of a target object can be performed smoothly and rapidly, and the improvement of production efficiency can be aimed at.

図1は、本発明に係るロボットシステム(制御装置)(第1実施形態)によるワークの受け渡し過程を順に示す側面図である。FIG. 1 is a side view sequentially illustrating a workpiece transfer process by a robot system (control device) according to the present invention (first embodiment). 図2は、本発明に係るロボットシステム(制御装置)(第1実施形態)によるワークの受け渡し過程を順に示す側面図である。FIG. 2 is a side view sequentially showing a workpiece transfer process by the robot system (control device) according to the present invention (first embodiment). 図3は、本発明に係るロボットシステム(制御装置)(第1実施形態)によるワークの受け渡し過程を順に示す側面図である。FIG. 3 is a side view sequentially showing a workpiece transfer process by the robot system (control device) according to the present invention (first embodiment). 図4は、本発明に係るロボットシステム(制御装置)(第1実施形態)によるワークの受け渡し過程を順に示す側面図である。FIG. 4 is a side view sequentially illustrating a workpiece transfer process by the robot system (control device) according to the present invention (first embodiment). 図5は、図1〜図4に示すロボットシステムのブロック図である。FIG. 5 is a block diagram of the robot system shown in FIGS. 図6は、図1〜図4に示すロボットシステムが備えるロボットアームに装着されるエンドエフェクターの斜視図である。6 is a perspective view of an end effector attached to a robot arm included in the robot system shown in FIGS. 図7は、図6中のエンドエフェクターの側面図であり、(a)は図6中の矢印A方向から見た図、(b)は図6中の矢印B方向から見た図、(c)は図6中の矢印C方向から見た図、(d)は図6中の矢印D方向から見た図である。7 is a side view of the end effector in FIG. 6, (a) is a view seen from the direction of arrow A in FIG. 6, (b) is a view seen from the direction of arrow B in FIG. ) Is a view seen from the direction of arrow C in FIG. 6, and FIG. 図8は、受け渡し過程におけるエンドエフェクター同士の位置関係の例を示す平面図である。FIG. 8 is a plan view showing an example of the positional relationship between end effectors in the delivery process. 図9は、本発明に係るロボットシステム(制御装置)(第2実施形態)によるワークの受け渡し過程を順に示す平面図である。FIG. 9 is a plan view sequentially illustrating a workpiece transfer process by the robot system (control device) (second embodiment) according to the present invention. 図10は、図9に示すロボットシステムが備えるロボットの正面図である。FIG. 10 is a front view of the robot included in the robot system shown in FIG. 図11は、図9に示すロボットシステムのブロック図である。FIG. 11 is a block diagram of the robot system shown in FIG. 図12は、本発明に係るロボット(制御装置)(第3実施形態)を示す正面図である。FIG. 12 is a front view showing a robot (control apparatus) (third embodiment) according to the present invention. 図13は、図12に示すロボットのブロック図である。FIG. 13 is a block diagram of the robot shown in FIG.

以下、本発明の制御装置、ロボット、ロボットシステムおよび制御方法を添付図面に示す好適な実施形態に基づいて詳細に説明する。
<第1実施形態>
図1〜図4は、本発明に係るロボットシステム(制御装置)(第1実施形態)によるワークの受け渡し過程を順に示す側面図である。図5は、図1〜図4に示すロボットシステムのブロック図である。図6は、図1〜図4に示すロボットシステムが備えるロボットアームに装着されるエンドエフェクターの斜視図である。図7は、図6中のエンドエフェクターの側面図であり、(a)は図6中の矢印A方向から見た図、(b)は図6中の矢印B方向から見た図、(c)は図6中の矢印C方向から見た図、(d)は図6中の矢印D方向から見た図である。図8は、受け渡し過程におけるエンドエフェクター同士の位置関係の例を示す平面図である。なお、以下では、説明の都合上、図1〜図4中(図10、図12についても同様)の上側を「上」または「上方」、下側を「下」または「下方」、左側を「左」、右側を「右」と言う。また、図1〜図4中(図9、図10、図12についても同様)のエンドエフェクター側を「先端」、その反対側を「基端」と言う。
Hereinafter, a control device, a robot, a robot system, and a control method according to the present invention will be described in detail based on preferred embodiments shown in the accompanying drawings.
<First Embodiment>
1 to 4 are side views sequentially showing a workpiece transfer process by a robot system (control device) according to the present invention (first embodiment). FIG. 5 is a block diagram of the robot system shown in FIGS. 6 is a perspective view of an end effector attached to a robot arm included in the robot system shown in FIGS. 7 is a side view of the end effector in FIG. 6, (a) is a view seen from the direction of arrow A in FIG. 6, (b) is a view seen from the direction of arrow B in FIG. ) Is a view seen from the direction of arrow C in FIG. 6, and (d) is a view seen from the direction of arrow D in FIG. FIG. 8 is a plan view showing an example of the positional relationship between end effectors in the delivery process. In the following, for convenience of explanation, the upper side in FIGS. 1 to 4 (the same applies to FIGS. 10 and 12) is “upper” or “upper”, the lower side is “lower” or “lower”, and the left side is “Left”, right side is called “right”. The end effector side in FIGS. 1 to 4 (the same applies to FIGS. 9, 10, and 12) is referred to as “tip”, and the opposite side is referred to as “base end”.

図1〜図5に示すように、ロボットシステム100は、ロボット1と、ロボット1を制御する制御装置10とを備え、ワーク20を右側から左側へ搬送することができる。なお、搬送対象物であるワーク20として、本実施形態では四角柱状をなす部材を一例として挙げている。
ロボット1は、水平方向に互いに離間して配置された第1ロボットアーム2Aと第2ロボットアーム2Bとを備え、ワーク20を第1ロボットアーム2A側から第2ロボットアーム2B側に受け渡す装置である。ワーク20の受け渡しは、空間内の特定の領域である受け渡し領域400内で行なわれる。
第1ロボットアーム2Aと第2ロボットアーム2Bとの構成は、力覚センサー3の有無が異なること以外は、ほぼ同じ構成であるため、以下第1ロボットアーム2Aについて代表的に説明する。
As shown in FIGS. 1 to 5, the robot system 100 includes a robot 1 and a control device 10 that controls the robot 1, and can transport a workpiece 20 from the right side to the left side. In the present embodiment, a member having a quadrangular prism shape is taken as an example of the workpiece 20 that is a conveyance object.
The robot 1 is a device that includes a first robot arm 2A and a second robot arm 2B that are spaced apart from each other in the horizontal direction, and delivers the workpiece 20 from the first robot arm 2A side to the second robot arm 2B side. is there. The delivery of the workpiece 20 is performed in a delivery area 400 that is a specific area in the space.
The configurations of the first robot arm 2A and the second robot arm 2B are substantially the same except that the presence or absence of the force sensor 3 is different, and therefore the first robot arm 2A will be described below representatively.

図1〜図4に示すように、第1ロボットアーム2Aは、複数本のリンク21と、隣接するリンク21同士を回動可能に連結する関節22とを有する多関節ロボットアームである。なお、リンク21の本数は、本実施形態では3本であるが、これに限定されず、例えば、2本または4本以上であってもよい。
最も基端側に位置するリンク21は、床面200上に回動可能に支持されている。これにより、第1ロボットアーム2A全体が鉛直軸回りに回動することができる。
As shown in FIGS. 1 to 4, the first robot arm 2 </ b> A is an articulated robot arm having a plurality of links 21 and a joint 22 that rotatably connects adjacent links 21. The number of links 21 is three in the present embodiment, but is not limited thereto, and may be two or four or more, for example.
The link 21 located on the most proximal side is rotatably supported on the floor surface 200. As a result, the entire first robot arm 2A can rotate about the vertical axis.

また、最も先端側に位置するリンク21は、第1エンドエフェクター4Aが着脱自在に装着される。そして、この第1エンドエフェクター4Aが装着された装着状態で第1ロボットアーム2Aが用いられ、第1エンドエフェクター4Aは、最も先端側に位置するリンク21の軸回りに回動することができる。
各関節22には、それぞれ、回動駆動源としてのモーター221が内蔵されている。そして、各関節22の角度、すなわち、各モーター221の回転数を適宜設定することにより、第1ロボットアーム2Aの姿勢を変更することができる(図1〜図4参照)。
Further, the first end effector 4A is detachably attached to the link 21 located on the most distal end side. The first robot arm 2A is used with the first end effector 4A being mounted, and the first end effector 4A can rotate around the axis of the link 21 located on the most distal side.
Each joint 22 incorporates a motor 221 as a rotation drive source. And the attitude | position of the 1st robot arm 2A can be changed by setting suitably the angle of each joint 22, ie, the rotation speed of each motor 221, (refer FIGS. 1-4).

一方、第2ロボットアーム2Bは、力検出部としての力覚センサー3をさらに有している。力覚センサー3は、第2ロボットアーム2Bに第2エンドエフェクター4Bが装着された状態で、最も先端側に位置するリンク21と第2エンドエフェクター4Bとの間に設置されている。この力覚センサー3は、第2エンドエフェクター4Bが受ける力やモーメント等の力情報を容易かつ確実に検出することができる。なお、以下では、力とモーメントとを含めて力と言う。
この力覚センサー3の検出結果、すなわち、力覚センサー3から出力される信号は、制御装置10に入力される。そして、制御装置10は、力覚センサー3の検出結果に基づいて所定の制御を行うことができる。
On the other hand, the second robot arm 2B further includes a force sensor 3 as a force detection unit. The force sensor 3 is installed between the link 21 located on the most distal end side and the second end effector 4B in a state where the second end effector 4B is attached to the second robot arm 2B. The force sensor 3 can easily and reliably detect force information such as a force and a moment received by the second end effector 4B. In the following, the force and the moment are referred to as a force.
A detection result of the force sensor 3, that is, a signal output from the force sensor 3 is input to the control device 10. The control device 10 can perform predetermined control based on the detection result of the force sensor 3.

なお、力覚センサー3としては、特に限定されず、各種のものを用いることができるが、その1例としては、互いに直交する3軸の各軸方向の力および各軸回りのモーメントを検出する6軸力センサー等が挙げられる。
また、力覚センサー3の形状は、特に限定されないが、本実施形態では円盤状となっている。この円盤状をなす力覚センサー3は、中心軸がリンク21の長手方向に沿っている。
The force sensor 3 is not particularly limited, and various sensors can be used. For example, the force sensor 3 detects the forces in the directions of the three axes perpendicular to each other and the moments around the axes. A 6-axis force sensor can be used.
Further, the shape of the force sensor 3 is not particularly limited, but is a disk shape in the present embodiment. The force sensor 3 having a disk shape has a central axis along the longitudinal direction of the link 21.

また、力覚センサー3は、第1ロボットアーム2Aにも設置されていてもよい。
第1ロボットアーム2Aに装着される第1エンドエフェクター4Aと、第2ロボットアーム2Bに装着される第2エンドエフェクター4Bとは、ほぼ同じ構成であるため、以下第1エンドエフェクター4Aについて代表的に説明する。
図6に示すように、第1エンドエフェクター4Aは、ワーク20を挟持する一対の挟持片41と、挟持片41同士を移動可能に支持する支持部42とを有している。
各挟持片41は、長方形をなす板部材で構成されており、対向して配置されている。
The force sensor 3 may also be installed on the first robot arm 2A.
Since the first end effector 4A attached to the first robot arm 2A and the second end effector 4B attached to the second robot arm 2B have substantially the same configuration, the first end effector 4A will be representatively described below. explain.
As shown in FIG. 6, the first end effector 4A includes a pair of clamping pieces 41 that clamp the workpiece 20 and a support portion 42 that supports the clamping pieces 41 so as to be movable.
Each clamping piece 41 is comprised by the plate member which makes a rectangle, and is arrange | positioned facing.

支持部42は、外形形状が平面視で正方形の板状をなし、例えば互いに噛み合う多数の歯車と、その駆動源としてのモーターとが内蔵されている。これらの歯車が連動して回動することにより、挟持片41同士が接近したり、離間したりする。そして、挟持片41同士が接近することにより、ワーク20を挟持して、把持することができる。また、反対に、挟持片41同士が離間することにより、ワーク20を解放ことができる。なお、支持部42は、第1ロボットアーム2Aに装着される部分でもある。   The support portion 42 has a square plate shape in plan view, and includes, for example, a large number of gears that mesh with each other and a motor as a drive source. When these gears rotate in conjunction with each other, the sandwiching pieces 41 approach or separate from each other. And when the clamping pieces 41 approach each other, the workpiece 20 can be clamped and gripped. On the contrary, the workpiece 20 can be released by separating the holding pieces 41 from each other. The support portion 42 is also a portion that is attached to the first robot arm 2A.

また、支持部42には、赤色マーカーR1、R2と、黄色マーカーY1、Y2と、青色マーカーB1、B2と、緑色マーカーG1、G2とが付されている。これらのマーカーは、制御装置10で、受け渡し領域400内における、第1エンドエフェクター4Aに対する第2エンドエフェクター4Bの相対位置、相対速度、相対的な移動方向をそれぞれ求める際に用いられる。以下、これらを単に「相対位置」、「相対速度」、「相対的な移動方向」と言う。なお、各マーカーは、例えば、支持部42とは別体の部材を当該支持部42に固定したものであってもよいし、支持部42に印刷されたものであってもよいし、支持部42にシール等のように貼り付けされたものであってもよい。   The support portion 42 is provided with red markers R1, R2, yellow markers Y1, Y2, blue markers B1, B2, and green markers G1, G2. These markers are used when the control device 10 obtains the relative position, the relative speed, and the relative movement direction of the second end effector 4B with respect to the first end effector 4A in the transfer area 400, respectively. Hereinafter, these are simply referred to as “relative position”, “relative speed”, and “relative movement direction”. Each marker may be, for example, a member separate from the support portion 42 fixed to the support portion 42, printed on the support portion 42, or a support portion It may be affixed to 42 like a seal or the like.

図7(a)に示すように、支持部42の4つの側面421、422、423、424のうちの側面421には、赤色マーカーR1と、黄色マーカーY1、Y2とが付されている。この側面421上では、赤色マーカーR1と黄色マーカーY1と黄色マーカーY2とは、互いを結んだ仮想線が三角形をなすように配されている。
図7(b)に示すように、側面422には、黄色マーカーY1と、青色マーカーB1、B2とが付されている。この側面422上では、黄色マーカーY1と青色マーカーB1と青色マーカーB2とは、互いを結んだ仮想線が三角形をなすように配されている。
As shown in FIG. 7A, a red marker R1 and yellow markers Y1, Y2 are attached to the side surface 421 of the four side surfaces 421, 422, 423, 424 of the support portion. On the side surface 421, the red marker R1, the yellow marker Y1, and the yellow marker Y2 are arranged such that a virtual line connecting each other forms a triangle.
As shown in FIG. 7B, the side surface 422 is provided with a yellow marker Y1 and blue markers B1 and B2. On the side surface 422, the yellow marker Y1, the blue marker B1, and the blue marker B2 are arranged such that a virtual line connecting each other forms a triangle.

図7(c)に示すように、側面423には、青色マーカーB1と、緑色マーカーG1、G2とが付されている。この側面423上では、青色マーカーB1と緑色マーカーG1と緑色マーカーG2とは、互いを結んだ仮想線が三角形をなすように配されている。
図7(d)に示すように、側面424には、緑色マーカーG1と、赤色マーカーR1、R2とが付されている。この側面424では、緑色マーカーG1と赤色マーカーR1と赤色マーカーR2とは、互いを結んだ仮想線が三角形をなすように配されている。
As shown in FIG. 7C, the side surface 423 is provided with a blue marker B1 and green markers G1 and G2. On the side surface 423, the blue marker B1, the green marker G1, and the green marker G2 are arranged such that virtual lines connecting each other form a triangle.
As shown in FIG. 7D, the side surface 424 is provided with a green marker G1 and red markers R1 and R2. On the side surface 424, the green marker G1, the red marker R1, and the red marker R2 are arranged such that a virtual line connecting each other forms a triangle.

そして、これら4つの三角形同士は、形状および大きさが同じである。
なお、黄色マーカーY1は、側面421と側面422とをまたいでおり、青色マーカーB1は、側面422と側面423とをまたいでおり、緑色マーカーG1は、側面423と側面424とをまたいでおり、赤色マーカーR1は、側面424と側面421とをまたいでいる。
These four triangles have the same shape and size.
The yellow marker Y1 straddles the side surface 421 and the side surface 422, the blue marker B1 straddles the side surface 422 and the side surface 423, and the green marker G1 straddles the side surface 423 and the side surface 424. The red marker R1 straddles the side surface 424 and the side surface 421.

ロボットシステム100では、各マーカーや各三角形は、後述するカメラ121が撮像した撮像画像に対して画像処理を行なうことにより、抽出可能となっている。
このようなマーカーが付された第1エンドエフェクター4Aと第2エンドエフェクター4Bとは、ワーク20を受け渡す際に、ロボット1の上方から見た平面視で例えば図8に示す状態を取り得る。
In the robot system 100, each marker and each triangle can be extracted by performing image processing on a captured image captured by a camera 121 described later.
The first end effector 4A and the second end effector 4B to which such a marker is attached can take the state shown in FIG. 8, for example, in a plan view as viewed from above the robot 1 when the workpiece 20 is delivered.

図8(a)に示す状態では、第1エンドエフェクター4Aは、黄色マーカーY1と青色マーカーB1と青色マーカーB2とが視認され、第2エンドエフェクター4Bは、赤色マーカーR1と黄色マーカーY1と黄色マーカーY2とが視認されている。また、第1エンドエフェクター4Aと第2エンドエフェクター4Bとは、同一直線上に位置している。そして、黄色マーカーY1と青色マーカーB1と青色マーカーB2とが描く三角形と、赤色マーカーR1と黄色マーカーY1と黄色マーカーY2とが描く三角形とは、合同となっている。このような条件は、ロボットシステム100では「ワーク20の受け渡しが可能な相対位置、相対的な移動方向である」と判断される。なお、相対位置には、第1エンドエフェクター4Aおよび第2エンドエフェクター4Bの姿勢も含むものとする。   In the state shown in FIG. 8A, the yellow marker Y1, the blue marker B1, and the blue marker B2 are visually recognized in the first end effector 4A, and the red marker R1, the yellow marker Y1, and the yellow marker are recognized in the second end effector 4B. Y2 is visually recognized. The first end effector 4A and the second end effector 4B are located on the same straight line. The triangle drawn by the yellow marker Y1, the blue marker B1, and the blue marker B2 and the triangle drawn by the red marker R1, the yellow marker Y1, and the yellow marker Y2 are congruent. Such a condition is determined by the robot system 100 as “a relative position at which the workpiece 20 can be delivered and a relative movement direction”. The relative position includes the postures of the first end effector 4A and the second end effector 4B.

図8(b)に示す状態でも、第1エンドエフェクター4Aは、黄色マーカーY1と青色マーカーB1と青色マーカーB2とが視認され、第2エンドエフェクター4Bは、赤色マーカーR1と黄色マーカーY1と黄色マーカーY2とが視認されている。しかし、黄色マーカーY1と青色マーカーB1と青色マーカーB2とが描く三角形と、赤色マーカーR1と黄色マーカーY1と黄色マーカーY2とが描く三角形とは、相似となっている。これは、第1エンドエフェクター4Aが第2エンドエフェクター4Bよりも下方に位置しているからである。このような条件は、ロボットシステム100では「ワーク20の受け渡しが不可能である」と判断される。   Even in the state shown in FIG. 8B, the yellow marker Y1, the blue marker B1, and the blue marker B2 are visually recognized in the first end effector 4A, and the red marker R1, the yellow marker Y1, and the yellow marker are recognized in the second end effector 4B. Y2 is visually recognized. However, the triangle drawn by the yellow marker Y1, the blue marker B1, and the blue marker B2 is similar to the triangle drawn by the red marker R1, the yellow marker Y1, and the yellow marker Y2. This is because the first end effector 4A is positioned below the second end effector 4B. Such a condition is determined by the robot system 100 as “unable to deliver the workpiece 20”.

図8(c)に示す状態では、第1エンドエフェクター4Aは、黄色マーカーY1と青色マーカーB1と青色マーカーB2とが視認され、第2エンドエフェクター4Bは、青色マーカーB1と緑色マーカーG1と緑色マーカーG2とが視認されている。そして、黄色マーカーY1と青色マーカーB1と青色マーカーB2とが描く三角形と、青色マーカーB1と緑色マーカーG1と緑色マーカーG2とが描く三角形とは、合同である。しかし、第2エンドエフェクター4Bで視認されるマーカーが図8(a)と異なっている。このような条件は、ロボットシステム100では、図8(b)に示す状態と同様に「ワーク20の受け渡しが不可能である」と判断される。   In the state shown in FIG. 8C, the yellow marker Y1, the blue marker B1, and the blue marker B2 are visually recognized in the first end effector 4A, and the blue marker B1, the green marker G1, and the green marker are recognized in the second end effector 4B. G2 is visually recognized. The triangle drawn by the yellow marker Y1, the blue marker B1, and the blue marker B2 and the triangle drawn by the blue marker B1, the green marker G1, and the green marker G2 are congruent. However, the marker visually recognized by the second end effector 4B is different from FIG. In such a condition, the robot system 100 determines that “the workpiece 20 cannot be delivered” as in the state shown in FIG.

図5に示すように、制御装置10は、第1ロボットアーム2Aおよび第2ロボットアーム2Bと電気的に接続され、各ロボットアームを制御する装置である。制御装置10は、パーソナルコンピューター11と、撮像部12としてのカメラ121とを有している。
パーソナルコンピューター11は、CPU(Central Processing Unit)13と、メモリー(記録媒体)14とが内蔵されている。
As shown in FIG. 5, the control device 10 is a device that is electrically connected to the first robot arm 2A and the second robot arm 2B and controls each robot arm. The control device 10 includes a personal computer 11 and a camera 121 as an imaging unit 12.
The personal computer 11 includes a CPU (Central Processing Unit) 13 and a memory (recording medium) 14.

CPU13は、各種処理を実行する機能を有している。その機能としては、例えば、次に挙げるようなものがある。
・第1ロボットアーム2Aや第2ロボットアーム2B、その他カメラ121の作動を制御する制御部としての機能。
・第1エンドエフェクター4Aや第2エンドエフェクター4Bの各マーカーを抽出する抽出部としての機能。
・相対位置、相対速度、相対的な移動方向をそれぞれ求める演算部としての機能。
The CPU 13 has a function of executing various processes. Examples of the function include the following.
A function as a control unit that controls the operation of the first robot arm 2 </ b> A, the second robot arm 2 </ b> B, and other cameras 121.
A function as an extraction unit for extracting each marker of the first end effector 4A and the second end effector 4B.
A function as a calculation unit for obtaining a relative position, a relative speed, and a relative moving direction.

また、各種処理用の制御プログラムは、メモリー14に記憶されている。そして、CPU13は、実行すべき処理に応じて、該当する制御プログラムをメモリー14から呼び出す。
カメラ121は、ズーム機能を有するCCD(Charge Coupled Device)カメラである。図1〜図4に示すように、カメラ121は、ロボット1が配置された空間の上方にある天井300に下方を向いて支持されている。そして、ズーム機能により、カメラ121の画角θを調整すれば、撮像範囲500を受け渡し領域400全体を含むものとすることができ、よって、当該受け渡し領域400内の第1エンドエフェクター4Aおよび第2エンドエフェクター4Bを含む撮像画像を撮像して撮像情報を得ることができる。また、その撮像画像中に、第1エンドエフェクター4Aや第2エンドエフェクター4Bの各マーカーも納めることができる。このマーカーの見え方によって、前述したようなワーク20の受け渡しの可否が判断される。
また、カメラ121で撮像する領域を受け渡し領域400に指定することによって、当該受け渡し領域400を重点的に高精度に撮像することができる。これにより、ロボットシステム100のランニングコストを低減することができる。
Control programs for various types of processing are stored in the memory 14. Then, the CPU 13 calls the corresponding control program from the memory 14 according to the process to be executed.
The camera 121 is a CCD (Charge Coupled Device) camera having a zoom function. As shown in FIGS. 1 to 4, the camera 121 is supported facing downward on a ceiling 300 located above the space in which the robot 1 is disposed. If the angle of view θ of the camera 121 is adjusted by the zoom function, the entire imaging range 500 can be included, so that the first end effector 4A and the second end effector in the delivery area 400 can be included. Imaging information can be obtained by imaging a captured image including 4B. In addition, each marker of the first end effector 4A and the second end effector 4B can be included in the captured image. Whether or not the workpiece 20 is transferred as described above is determined based on how the marker is seen.
In addition, by designating the area to be imaged by the camera 121 as the delivery area 400, the delivery area 400 can be imaged with high accuracy with a focus on the area. Thereby, the running cost of the robot system 100 can be reduced.

制御装置10では、CPU13は、力覚センサー3の検出結果に基づいて、第1ロボットアーム2Aおよび第2ロボットアーム2Bに対してインピーダンス制御を行なうことができる。「インピーダンス制御」とは、本実施形態の場合、第2ロボットアーム2Bに装着された第2エンドエフェクター4Bに外力が加わったときに、当該第2エンドエフェクター4Bがあたかも受け渡し領域400内でばねやダンパーに支持されているかのように、第2ロボットアーム2Bをふるまわせる制御方法である(坪内孝司・大隅久・米田完著、「これならできるロボット創造設計」、第1刷、講談社、2007年2月10日、p.p.75−76)。そして、このときのばね定数、ダンパーの定数、第2ロボットアーム2B(第2エンドエフェクター4B)の見かけの質量を全て制御プログラム(ソフトウェア)上で指定することができる。   In the control device 10, the CPU 13 can perform impedance control on the first robot arm 2 </ b> A and the second robot arm 2 </ b> B based on the detection result of the force sensor 3. In the case of the present embodiment, “impedance control” means that when an external force is applied to the second end effector 4B attached to the second robot arm 2B, the second end effector 4B appears to be a spring or It is a control method that makes the second robot arm 2B behave as if it is supported by a damper (Tsubouchi Takashi, Ohsumi Hisashi, Yoneda Kan, “Robot Creation Design That Can Do This”, First Print, Kodansha, 2007 February 10, pp 75-76). The spring constant, the damper constant, and the apparent mass of the second robot arm 2B (second end effector 4B) at this time can all be specified on the control program (software).

このインピーダンス制御により、ワーク20を受け渡された瞬間から、受け渡しが完了するまでの間、当該ワーク20と第2エンドエフェクター4Bとがやわらかく接することとなる。これにより、例えば、ワーク20の受け渡し時に第1エンドエフェクター4Aと第2エンドエフェクター4Bとの間に若干の位置ズレが生じてもそのズレを緩和することができる。また、ワーク20の損傷を防止することができる。   By this impedance control, the workpiece 20 and the second end effector 4B come into soft contact from the moment the workpiece 20 is delivered until the delivery is completed. Thereby, for example, even when a slight positional deviation occurs between the first end effector 4A and the second end effector 4B when the workpiece 20 is delivered, the deviation can be reduced. Moreover, damage to the workpiece 20 can be prevented.

また、CPU13は、カメラ121で得られた撮像情報に対する画像処理を行ない、第1エンドエフェクター4Aの各マーカーと、第2エンドエフェクター4Bの各マーカーとを抽出することができる。このような処理は、まず、撮像情報として、図8に相当する濃淡画像を得る。この濃淡画像では、それぞれ、赤色マーカーR1、R2と、黄色マーカーY1、Y2と、青色マーカーB1、B2と、緑色マーカーG1、G2と、これらのマーカー以外の部分との濃淡の程度が異なっている。そして、このような画像を段階的に二値化することにより、赤色マーカーR1、R2と、黄色マーカーY1、Y2と、青色マーカーB1、B2と、緑色マーカーG1、G2とを確実に抽出することができる。   Further, the CPU 13 can perform image processing on the imaging information obtained by the camera 121, and extract each marker of the first end effector 4A and each marker of the second end effector 4B. In such a process, first, a grayscale image corresponding to FIG. 8 is obtained as imaging information. In this grayscale image, the red markers R1 and R2, the yellow markers Y1 and Y2, the blue markers B1 and B2, the green markers G1 and G2, and the portions other than these markers have different shades. . Then, by binarizing such an image in stages, the red markers R1, R2, the yellow markers Y1, Y2, the blue markers B1, B2, and the green markers G1, G2 can be reliably extracted. Can do.

さらに、CPU13は、前記抽出結果に基づいて、すなわち、抽出された赤色マーカーR1、R2と、黄色マーカーY1、Y2と、青色マーカーB1、B2と、緑色マーカーG1、G2とを用いて、相対位置、相対速度、相対的な移動方向をそれぞれ演算して求める。
相対位置を求めるには、例えば図8(a)に示す状態の場合、第1エンドエフェクター4Aの黄色マーカーY1と青色マーカーB1と青色マーカーB2とをメモリー14に記憶する。また、黄色マーカーY1と青色マーカーB1と青色マーカーB2とが描く三角形を演算し、当該演算した三角形もメモリー14に記憶する。
Further, the CPU 13 uses the extracted red markers R1 and R2, the yellow markers Y1 and Y2, the blue markers B1 and B2, and the green markers G1 and G2 on the basis of the extraction result. Calculate the relative speed and the relative moving direction.
In order to obtain the relative position, for example, in the state shown in FIG. 8A, the yellow marker Y1, the blue marker B1, and the blue marker B2 of the first end effector 4A are stored in the memory 14. Further, the triangle drawn by the yellow marker Y1, the blue marker B1, and the blue marker B2 is calculated, and the calculated triangle is also stored in the memory 14.

一方、第2エンドエフェクター4Bの赤色マーカーR1と黄色マーカーY1と黄色マーカーY2とをメモリー14に記憶する。また、赤色マーカーR1と黄色マーカーY1と黄色マーカーY2とが描く三角形を演算し、当該演算した三角形もメモリー14に記憶する。
そして、メモリー14に記憶された第1エンドエフェクター4Aの黄色マーカーY1、青色マーカーB1、青色マーカーB2に対して、メモリー14に記憶された第2エンドエフェクター4Bの赤色マーカーR1、黄色マーカーY1、黄色マーカーY2が、ワーク20の受け渡し可能なマーカーであるか否かを判断する。図8(a)に示す状態では、受け渡し可能なマーカーである。また、この判断とともに、黄色マーカーY1と青色マーカーB1と青色マーカーB2とが描く三角形と、赤色マーカーR1と黄色マーカーY1と黄色マーカーY2とが描く三角形とが、合同であるか否かを判断する。図8(a)に示す状態では、合同である。
このような判断を行なうことにより、ワーク20の受け渡しが可能な相対位置であることを求めることができる。
On the other hand, the red marker R1, the yellow marker Y1, and the yellow marker Y2 of the second end effector 4B are stored in the memory 14. Further, the triangle drawn by the red marker R1, the yellow marker Y1, and the yellow marker Y2 is calculated, and the calculated triangle is also stored in the memory 14.
Then, for the yellow marker Y1, blue marker B1, and blue marker B2 of the first end effector 4A stored in the memory 14, the red marker R1, the yellow marker Y1, and the yellow marker of the second end effector 4B stored in the memory 14 are stored. It is determined whether or not the marker Y2 is a marker that can deliver the workpiece 20. In the state shown in FIG. 8A, the marker can be delivered. In addition to this determination, it is determined whether the triangle drawn by the yellow marker Y1, the blue marker B1, and the blue marker B2 and the triangle drawn by the red marker R1, the yellow marker Y1, and the yellow marker Y2 are congruent. . In the state shown in FIG.
By making such a determination, it is possible to obtain a relative position where the workpiece 20 can be delivered.

また、相対速度を求めるには、前記演算された各三角形の経時的に変化する移動量、すなわち、前記演算された各三角形の単位時間当たりの移動量を演算して、第1エンドエフェクター4Aの第1移動速度V1と、第2エンドエフェクター4Bの第2移動速度V2とを一旦求め、メモリー14に記憶する。そして、メモリー14に記憶された第1移動速度V1と第2移動速度V2との差を演算する、すなわち、差を導くことにより、相対速度|V1−V2|を求めることができる。   Further, in order to obtain the relative speed, the calculated movement amount of each triangle that changes with time, that is, the calculated movement amount of each triangle per unit time is calculated, and the first end effector 4A is operated. The first moving speed V1 and the second moving speed V2 of the second end effector 4B are obtained once and stored in the memory 14. Then, the relative speed | V1−V2 | can be obtained by calculating the difference between the first movement speed V1 and the second movement speed V2 stored in the memory 14, that is, by deriving the difference.

また、相対的な移動方向を求めるには、前記演算された各三角形の経時的に変化する方向を検出し、その検出結果に基づいて、移動する第1エンドエフェクター4Aの三角形に対して、第2エンドエフェクター4Bの三角形がどの方向に移動しているのか、すなわち、相対的な移動方向を求めることができる。
次に、第1エンドエフェクター4Aで把持されたワーク20を、第2エンドエフェクター4Bに受け渡すための制御方法について、図1〜図4、図8を参照しつつ説明する。この制御プログラムは、メモリー14に予め記憶されており、CPU13で実行される。
Further, in order to obtain the relative moving direction, the direction of each of the calculated triangles that changes with time is detected, and based on the detection result, the first end effector 4 </ b> A that moves, In which direction the triangle of the two end effector 4B is moving, that is, the relative movement direction can be obtained.
Next, a control method for transferring the workpiece 20 held by the first end effector 4A to the second end effector 4B will be described with reference to FIGS. This control program is stored in advance in the memory 14 and is executed by the CPU 13.

まず、カメラ121を作動させて受け渡し領域400を撮像する。このカメラ121の作動は、ワーク20の受け渡しが完了するまで継続される。
図1に示すように、第1エンドエフェクター4Aは、受け渡し領域400内で、ワーク20を把持しつつ、第1ロボットアーム2Aの作動により第1移動速度V1で左側に向かって移動している。このときのワーク20は、第2エンドエフェクター4Bに向かって、中心線が水平となるような姿勢で把持されている。
First, the delivery area 400 is imaged by operating the camera 121. The operation of the camera 121 is continued until the delivery of the workpiece 20 is completed.
As shown in FIG. 1, the first end effector 4A moves toward the left side at the first movement speed V1 by the operation of the first robot arm 2A while gripping the workpiece 20 in the delivery area 400. The workpiece 20 at this time is held in such a posture that the center line is horizontal toward the second end effector 4B.

また、第2エンドエフェクター4Bは、受け渡し領域400内で、図8(a)に示す状態となっており、第2ロボットアーム2Bの作動により第2移動速度V2で左側に向かって移動している。これにより、相対位置と相対的な移動方向とが、第1エンドエフェクター4Aから第2エンドエフェクター4Bへワーク20が受け渡し可能な状態となっており、この状態はワーク20の受け渡しが完了するまで維持される。なお、第2エンドエフェクター4Bが例えば図8(b)に示す状態や図8(c)に示す状態となっていた場合は、第2エンドエフェクター4Bが図8(a)に示す状態となるように第2ロボットアーム2Bを作動させて、第2エンドエフェクター4Bの姿勢等を変更する。これにより、受け渡し可能な状態となる。   Further, the second end effector 4B is in the state shown in FIG. 8A within the delivery area 400, and is moving toward the left side at the second movement speed V2 by the operation of the second robot arm 2B. . Thereby, the relative position and the relative movement direction are in a state where the workpiece 20 can be transferred from the first end effector 4A to the second end effector 4B, and this state is maintained until the transfer of the workpiece 20 is completed. Is done. If the second end effector 4B is in the state shown in FIG. 8B or the state shown in FIG. 8C, for example, the second end effector 4B is in the state shown in FIG. The second robot arm 2B is operated to change the posture or the like of the second end effector 4B. Thereby, it will be in the state which can be delivered.

また、相対速度|V1−V2|が第1移動速度V1よりも小さい速度となるように、第1ロボットアーム2Aと第2ロボットアーム2Bとが作動している。なお、相対速度|V1−V2|は、25cm/sec以下であるのが好ましく、5cm/sec以上25cm/sec以下であるのがより好ましい。これにより、受け渡しを行なう際に生じ得るワーク20に対する衝撃を低減することができ、よって、ワーク20の損傷を確実に防止することができる。
このような相対位置、相対速度、相対的な移動方向は、前述したように、カメラ121から得られた撮像情報に基づいて求められる。
Further, the first robot arm 2A and the second robot arm 2B are operated so that the relative speed | V1-V2 | is smaller than the first movement speed V1. The relative speed | V1-V2 | is preferably 25 cm / sec or less, and more preferably 5 cm / sec or more and 25 cm / sec or less. Thereby, the impact with respect to the workpiece | work 20 which may arise when performing delivery can be reduced, Therefore Damage to the workpiece | work 20 can be prevented reliably.
Such a relative position, a relative speed, and a relative movement direction are obtained based on the imaging information obtained from the camera 121 as described above.

次いで、図2に示すように、第1移動速度V1>相対速度|V1−V2|なる関係が維持されたまま、第1移動速度V1が図1の状態よりも徐々に減少していくとともに、第2移動速度V2が図1の状態よりも徐々に増加していく。
そして、図3に示すように、第2エンドエフェクター4Bでワーク20を把持することができる。一方、第1エンドエフェクター4Aは、まだワーク20を把持したままとなっている。また、ここでも第1移動速度V1>相対速度|V1−V2|なる関係が維持されているが、第1移動速度V1と第2移動速度V2とが同じとなっているのが好ましい。なお、このときの第1移動速度V1は、図2の状態よりも低速であり、第2移動速度V2は、図2の状態よりも高速である。
Next, as shown in FIG. 2, the first movement speed V1 gradually decreases from the state of FIG. 1 while maintaining the relationship of the first movement speed V1> relative speed | V1-V2 | The second moving speed V2 gradually increases from the state of FIG.
And as shown in FIG. 3, the workpiece | work 20 can be hold | gripped with the 2nd end effector 4B. On the other hand, the first end effector 4A still holds the workpiece 20. Here, the relationship of the first movement speed V1> relative speed | V1-V2 | is maintained, but it is preferable that the first movement speed V1 and the second movement speed V2 are the same. At this time, the first movement speed V1 is lower than the state shown in FIG. 2, and the second movement speed V2 is higher than the state shown in FIG.

その後、図4に示すように、第1エンドエフェクター4Aがワーク20を解放しつつ、図3の状態よりも低速の第1移動速度V1で移動する。一方、第2エンドエフェクター4Bは、でワーク20を把持しつつ、図3の状態よりも高速の第2移動速度V2で移動する。これにより、ワーク20の受け渡しが行なれる。
以上のような制御により、ワーク20の受け渡しを行なう際に、第1エンドエフェクター4Aと第2エンドエフェクター4Bとをそれぞれ移動させつつ、その受け渡しを行なうことができる。これは、例えば第1エンドエフェクター4Aおよび第2エンドエフェクター4Bのうちの一方を移動させ、他方を停止してワーク20の受け渡しを行なう場合よりも、ワーク20の受け渡しを円滑かつ迅速に行なうことができる。これにより、例えば工業製品の生産ラインでワーク20を搬送する場合に、生産効率の向上を図ることができる。
Thereafter, as shown in FIG. 4, the first end effector 4 </ b> A moves at the first moving speed V <b> 1 that is lower than the state of FIG. 3 while releasing the workpiece 20. On the other hand, the second end effector 4B moves at a second moving speed V2 that is faster than the state of FIG. Thereby, delivery of the workpiece | work 20 can be performed.
With the above-described control, when the workpiece 20 is delivered, the delivery can be performed while moving the first end effector 4A and the second end effector 4B. This is because the workpiece 20 can be delivered smoothly and more quickly than when one of the first end effector 4A and the second end effector 4B is moved and the other is stopped and the workpiece 20 is delivered. it can. Thereby, when conveying the workpiece | work 20 on the production line of an industrial product, for example, the improvement of production efficiency can be aimed at.

また、第1移動速度V1と第2移動速度V2とを経時的に変化させることができ、よって、受け渡し前までは第1移動速度V1を高速に、受け渡し時には第1移動速度V1を低速にすることができる。これにより、安全性を確保しつつ、生産性も確保することができる。
また、第1エンドエフェクター4Aと第2エンドエフェクター4Bの状態をカメラ121で撮像情報として得ることができ、よって、受け渡し作業を精度よく行なうことができる。
In addition, the first movement speed V1 and the second movement speed V2 can be changed with time. Therefore, the first movement speed V1 is set to a high speed before delivery, and the first movement speed V1 is set to a low speed before delivery. be able to. Thereby, productivity can be ensured while ensuring safety.
Further, the state of the first end effector 4A and the second end effector 4B can be obtained as imaging information by the camera 121, so that the delivery work can be performed with high accuracy.

<第2実施形態>
図9は、本発明に係るロボットシステム(制御装置)(第2実施形態)によるワークの受け渡し過程を順に示す平面図である。図10は、図9に示すロボットシステムが備えるロボットの正面図である。図11は、図9に示すロボットシステムのブロック図である。
以下、これらの図を参照して本発明の制御装置、ロボット、ロボットシステムおよび制御方法の第2実施形態について説明するが、前述した実施形態との相違点を中心に説明し、同様の事項はその説明を省略する。
Second Embodiment
FIG. 9 is a plan view sequentially illustrating a workpiece transfer process by the robot system (control device) (second embodiment) according to the present invention. FIG. 10 is a front view of the robot included in the robot system shown in FIG. FIG. 11 is a block diagram of the robot system shown in FIG.
Hereinafter, the second embodiment of the control device, the robot, the robot system, and the control method of the present invention will be described with reference to these drawings. However, the difference from the above-described embodiment will be mainly described, The description is omitted.

本実施形態は、ロボットの構成が異なること以外は前記第1実施形態と同様である。
図9、図11に示すように、本実施形態では、ロボット1は、第1ロボット1Aと第2ロボット1Bとを含む。
図10に示すように、第1ロボット1Aは、胴部5と、当該胴部5に回動可能に連結された2本の第1ロボットアーム2Aとを有する人間型双腕ロボットである。各第1ロボットアーム2Aには、第1エンドエフェクター4Aが装着可能である。そして、2つの第1エンドエフェクター4Aの間でワーク20を挟持することができる。
This embodiment is the same as the first embodiment except that the configuration of the robot is different.
As shown in FIGS. 9 and 11, in this embodiment, the robot 1 includes a first robot 1A and a second robot 1B.
As shown in FIG. 10, the first robot 1 </ b> A is a humanoid double-arm robot having a trunk portion 5 and two first robot arms 2 </ b> A that are rotatably connected to the trunk portion 5. A first end effector 4A can be attached to each first robot arm 2A. And the workpiece | work 20 can be clamped between the two 1st end effectors 4A.

なお、各第1エンドエフェクター4Aは、ワーク20を挟持した状態で吸引するよう構成されていてもよい。これにより、挟持されたワーク20が搬送中にエンドエフェクターから離脱してしまうのを確実に防止することができる。
また、第1ロボットアーム2Aは、力覚センサー3を有するものであるが、力覚センサー3を省略することもできる。
また、胴部5の下部には、複数のキャスター6が設置されている。これにより、例えばロボット1をその背面側から、すなわち、図10中の紙面奥側から手前に向かって押圧することにより、床面200上を移動させることができる。
In addition, each 1st end effector 4A may be comprised so that it may attract | suck in the state which clamped the workpiece | work 20. As shown in FIG. Thereby, it is possible to reliably prevent the clamped work 20 from being detached from the end effector during conveyance.
Further, the first robot arm 2A has the force sensor 3, but the force sensor 3 can be omitted.
A plurality of casters 6 are installed at the lower part of the body part 5. Accordingly, for example, the robot 1 can be moved on the floor surface 200 by pressing the robot 1 from the back side thereof, that is, from the back side of the paper surface in FIG.

一方、第2ロボット1Bも第1ロボット1Aと同様の構成であり、2本の第2ロボットアーム2Bを有する人間型双腕ロボットである。
図9に示すように、ワーク20を受け渡す際には、まず、第1ロボット1Aの各第1ロボットアーム2Aに装着された第1エンドエフェクター4A同士の間にワーク20を挟持する。そして、このワーク20を第2ロボット1Bに向かって搬送し、各第2ロボットアーム2Bに装着された第2エンドエフェクター4B同士の間でワーク20を挟持して、ワーク20の受け渡しが行なわれる。これにより、ワーク20を安定して受け渡すことができる。
On the other hand, the second robot 1B has the same configuration as that of the first robot 1A, and is a humanoid double-arm robot having two second robot arms 2B.
As shown in FIG. 9, when delivering the workpiece 20, first, the workpiece 20 is sandwiched between the first end effectors 4A attached to the first robot arms 2A of the first robot 1A. The workpiece 20 is transported toward the second robot 1B, and the workpiece 20 is sandwiched between the second end effectors 4B mounted on the second robot arms 2B, and the workpiece 20 is transferred. Thereby, the workpiece | work 20 can be delivered stably.

<第3実施形態>
図12は、本発明に係るロボット(制御装置)(第3実施形態)を示す正面図である。図13は、図12に示すロボットのブロック図である。
以下、これらの図を参照して本発明の制御装置、ロボット、ロボットシステムおよび制御方法の第3実施形態について説明するが、前述した実施形態との相違点を中心に説明し、同様の事項はその説明を省略する。
<Third Embodiment>
FIG. 12 is a front view showing a robot (control apparatus) (third embodiment) according to the present invention. FIG. 13 is a block diagram of the robot shown in FIG.
Hereinafter, the third embodiment of the control device, robot, robot system, and control method of the present invention will be described with reference to these drawings. However, the differences from the above-described embodiment will be mainly described, and the same matters will be described. The description is omitted.

本実施形態は、ロボットの構成が異なること以外は前記第1実施形態と同様である。
図12、図13に示すように、本実施形態では、ロボット1は、胴部5と、当該胴部5に回動可能に連結された第1ロボットアーム2Aおよび第2ロボットアーム2Bとを有する人間型双腕ロボットである。胴部5には、CPU13やメモリー14が内蔵されている。
This embodiment is the same as the first embodiment except that the configuration of the robot is different.
As shown in FIGS. 12 and 13, in the present embodiment, the robot 1 includes a body portion 5, and a first robot arm 2 </ b> A and a second robot arm 2 </ b> B that are rotatably connected to the body portion 5. It is a humanoid dual-arm robot. The body 5 includes a CPU 13 and a memory 14.

このような構成のロボット1は、図12中に右側の第1ロボットアーム2Aに装着された第1エンドエフェクター4Aから、左側の第2ロボットアーム2Bに装着された第2エンドエフェクター4Bに、ワーク20を受け渡すことができる。これにより、前記第1実施形態と同様に、ワーク20の受け渡しを円滑かつ迅速に行ない、生産効率の向上を図ることができる。
また、胴部5の上部には、頭部に相当する部分に、撮像部12としての2つのカメラ124が並設されている。これにより、ステレオ視で、ワーク20を確認することができる。
In the robot 1 having such a configuration, the workpiece is transferred from the first end effector 4A attached to the right first robot arm 2A to the second end effector 4B attached to the left second robot arm 2B in FIG. 20 can be delivered. Thereby, like the said 1st Embodiment, the delivery of the workpiece | work 20 can be performed smoothly and rapidly, and the improvement of production efficiency can be aimed at.
In addition, two cameras 124 serving as the imaging unit 12 are arranged in parallel on the upper portion of the trunk portion 5 in a portion corresponding to the head portion. Thereby, the workpiece | work 20 can be confirmed by stereovision.

また、胴部5の下部には、複数のキャスター6が設置されている。これにより、例えばロボット1をその背面側から(図17中の紙面奥側から手前に向かって)押圧することにより、床面200上を移動させることができる。
以上、本発明の制御装置、ロボット、ロボットシステムおよび制御方法を図示の実施形態について説明したが、本発明は、これに限定されるものではなく、制御装置、ロボット、ロボットシステムおよび制御方法を構成する各部は、同様の機能を発揮し得る任意の構成のものと置換することができる。また、任意の構成物が付加されていてもよい。
A plurality of casters 6 are installed at the lower part of the body part 5. Thus, for example, the robot 1 can be moved on the floor surface 200 by pressing the robot 1 from the back side (from the back side of the paper in FIG. 17 toward the front).
The control device, robot, robot system, and control method of the present invention have been described above with respect to the illustrated embodiment. However, the present invention is not limited to this, and the control device, robot, robot system, and control method are configured. Each part to be replaced can be replaced with one having any configuration capable of performing the same function. Moreover, arbitrary components may be added.

また、本発明の制御装置、ロボット、ロボットシステムおよび制御方法は、前記各実施形態のうちの、任意の2以上の構成(特徴)を組み合わせたものであってもよい。
また、ワークの受け渡しは、前記第1実施形態および前記第3実施形態では1本のロボットアームから1本のロボットアームへの受け渡し形態となっており、前記第2実施形態では2本のロボットアームから2本のロボットアームへの受け渡し形態となっているが、これに限定されず、例えば、1本のロボットアームから2本のロボットアームへの受け渡し形態や、2本のロボットアームから1本のロボットアームへの受け渡し形態とすることもできる。
Further, the control device, robot, robot system, and control method of the present invention may be a combination of any two or more configurations (features) of the above embodiments.
Also, the workpiece is transferred from one robot arm to one robot arm in the first embodiment and the third embodiment, and two robot arms in the second embodiment. However, the present invention is not limited to this. For example, the delivery form from one robot arm to two robot arms, or the delivery form from two robot arms to one robot arm. A delivery form to the robot arm can also be adopted.

また、前記第1実施形態では、力覚センサーは、第2ロボットアームと第2エンドエフェクターとの間にのみ設けられているが、これに限定されず、第1ロボットアームと第1エンドエフェクターとの間にのみ設けられていてもよいし、第1ロボットアームと第1エンドエフェクターとの間、第2ロボットアームと第2エンドエフェクターとの間の双方に設けられていてもよい。
また、前記第1実施形態では、相対位置、相対速度、相対的な移動方向をそれぞれ求める際に用いられるマーカーの配置数は、各エンドエフェクターに多数あったが、これに限定されず、1つであってもよい。
In the first embodiment, the force sensor is provided only between the second robot arm and the second end effector. However, the present invention is not limited to this, and the first robot arm, the first end effector, May be provided only between the first robot arm and the first end effector, or between the second robot arm and the second end effector.
In the first embodiment, the number of marker arrangements used for determining the relative position, the relative speed, and the relative movement direction is large for each end effector. However, the present invention is not limited to this. It may be.

また、前記第1実施形態では、第1エンドエフェクターおよび第2エンドエフェクターは、挟持によりワークを支持するよう構成されたものであるが、これに限定されず、例えば、吸着によりワークを支持するよう構成されたものであってもよい。
また、前記第1実施形態では、第1エンドエフェクターおよび第2エンドエフェクターにそれぞれ付されたマーカーを用いて相対位置等を求めていたが、これに限定されず、例えば、各エンドエフェクターのエッジ等の特徴点を用いて相対位置等を求めてもよい。
In the first embodiment, the first end effector and the second end effector are configured to support the workpiece by clamping, but the present invention is not limited to this. For example, the workpiece is supported by suction. It may be configured.
In the first embodiment, the relative position or the like is obtained using the markers attached to the first end effector and the second end effector, but the present invention is not limited to this. For example, the edge of each end effector, etc. The relative position or the like may be obtained using the feature points.

1……ロボット 1A……第1ロボット 1B……第2ロボット 2A……第1ロボットアーム 2B……第2ロボットアーム 21……リンク 22……関節 221……モーター 3……力覚センサー 4A……第1エンドエフェクター 4B……第2エンドエフェクター 41……挟持片 42……支持部 421、422、423、424……側面 5……胴部 6……キャスター 10……制御装置 11……パーソナルコンピューター 12……撮像部 121、124……カメラ 13……CPU(Central Processing Unit) 14……メモリー(記録媒体) 20……ワーク 100……ロボットシステム 200……床面 300……天井 400……受け渡し領域 500……撮像範囲 R1、R2……赤色マーカー B1、B2……青色マーカー Y1、Y2……黄色マーカー G1、G2……緑色マーカー V1……第1移動速度 V2……第2移動速度 |V1−V2|……相対速度 θ……画角   DESCRIPTION OF SYMBOLS 1 ... Robot 1A ... 1st robot 1B ... 2nd robot 2A ... 1st robot arm 2B ... 2nd robot arm 21 ... Link 22 ... Joint 221 ... Motor 3 ... Force sensor 4A ... ... 1st end effector 4B ... 2nd end effector 41 ... clamping piece 42 ... support part 421, 422, 423, 424 ... side face 5 ... trunk 6 ... caster 10 ... control device 11 ... personal Computer 12 ... Imaging unit 121, 124 ... Camera 13 ... CPU (Central Processing Unit) 14 ... Memory (recording medium) 20 ... Work 100 ... Robot system 200 ... Floor surface 300 ... Ceiling 400 ... Delivery area 500 ... Imaging range R1, R2 ... Red marker B1, B2 ... Blue marker Y1, Y2 ... Yellow marker G1, G2 ... Green marker V1 ... First moving speed V2 ... Second moving speed | V1-V2 | ... Relative speed θ ... Angle of view

Claims (13)

第1エンドエフェクターが装着された第1ロボットアームと、第2エンドエフェクターが装着された第2ロボットアームとを備え、対象物の受け渡しを行なう受け渡し領域内で、前記第1ロボットアームに装着された前記第1エンドエフェクターで把持された前記対象物を、前記第2ロボットアームに装着された前記第2エンドエフェクターに受け渡すロボットを制御する制御装置であって、
前記第1ロボットアームの作動と前記第2ロボットアームの作動とを制御する制御部と、
前記受け渡し領域内の前記第1エンドエフェクターおよび前記第2エンドエフェクターを含む撮像画像を撮像して撮像情報を得る撮像部と、
前記受け渡し領域内における、前記第1エンドエフェクターと前記第2エンドエフェクターとの相対速度を求める演算部と、を備え、
前記制御部は、前記撮像情報に基づいて、前記相対速度を前記第1エンドエフェクターの移動速度よりも小さい速度として、前記対象物の受け渡しの制御を行なうことを特徴とする制御装置。
A first robot arm to which a first end effector is attached and a second robot arm to which a second end effector is attached, and is attached to the first robot arm within a delivery area for delivering an object. A control device for controlling a robot that delivers the object gripped by the first end effector to the second end effector mounted on the second robot arm;
A control unit for controlling the operation of the first robot arm and the operation of the second robot arm;
An imaging unit that obtains imaging information by imaging a captured image including the first end effector and the second end effector in the transfer area;
A calculation unit for obtaining a relative speed between the first end effector and the second end effector in the transfer area;
The control unit controls delivery of the object based on the imaging information, with the relative speed set to be a speed smaller than a moving speed of the first end effector.
前記第1エンドエフェクターおよび前記第2エンドエフェクターには、それぞれ、前記撮像画像中に含まれるマーカーが少なくとも1つ付されており、
前記演算部は、前記撮像画像中の前記マーカーを用いて、前記相対速度を求める請求項1に記載の制御装置。
Each of the first end effector and the second end effector is provided with at least one marker included in the captured image,
The control device according to claim 1, wherein the calculation unit obtains the relative speed using the marker in the captured image.
前記演算部は、前記相対速度を求める際、前記第1エンドエフェクターの第1移動速度と、前記第2エンドエフェクターの第2移動速度とを求めた後、前記第1移動速度と前記第2移動速度との差を導くことにより、前記相対速度を求める請求項1または2に記載の制御装置。   When calculating the relative speed, the calculation unit calculates the first movement speed of the first end effector and the second movement speed of the second end effector, and then calculates the first movement speed and the second movement. The control device according to claim 1, wherein the relative speed is obtained by deriving a difference from the speed. 前記相対速度は、25cm/sec以下である請求項1ないし3のいずれか1項に記載の制御装置。   The control device according to claim 1, wherein the relative speed is 25 cm / sec or less. 前記ロボットは、前記第1ロボットアームと前記第1エンドエフェクターとの間、および、前記第2ロボットアームと前記第2エンドエフェクターとの間のうちの少なくとも一方には、当該エンドエフェクターに作用した力情報を得る力検出部が設けられており、
前記制御部は、前記力検出部の検出結果に基づいて、前記第1ロボットアームおよび前記第2ロボットアームに対してインピーダンス制御を行なうよう構成されている請求項1ないし4のいずれか1項に記載の制御装置。
The robot has a force acting on the end effector between at least one of the first robot arm and the first end effector and between the second robot arm and the second end effector. A force detector is provided to obtain information,
The control unit according to any one of claims 1 to 4, wherein the control unit is configured to perform impedance control on the first robot arm and the second robot arm based on a detection result of the force detection unit. The control device described.
前記撮像部は、前記ロボットが配置された空間の上方に設置されたカメラで構成されている請求項1ないし5のいずれか1項に記載の制御装置。   The control device according to claim 1, wherein the imaging unit includes a camera installed above a space in which the robot is disposed. 第1エンドエフェクターが装着された第1ロボットアームと、第2エンドエフェクターが装着された第2ロボットアームとを備え、対象物の受け渡しを行なう受け渡し領域内で、前記第1エンドエフェクターで把持された前記対象物を、前記第2エンドエフェクターに受け渡すロボットであって、
前記第1ロボットアームの作動と前記第2ロボットアームの作動とを制御する制御部と、
前記受け渡し領域内の前記第1エンドエフェクターおよび前記第2エンドエフェクターを含む撮像画像を撮像して撮像情報を得る撮像部と、
前記受け渡し領域内における、前記第1エンドエフェクターに対する前記第2エンドエフェクターの相対速度を求める演算部と、を備え、
前記制御部は、前記撮像情報に基づいて、前記相対速度を前記第1エンドエフェクターの移動速度よりも小さい速度として、前記第1ロボットアームの作動と前記第2ロボットアームの作動とを制御することを特徴とするロボット。
A first robot arm to which a first end effector is attached and a second robot arm to which a second end effector is attached are gripped by the first end effector in a delivery area for delivering an object. A robot for delivering the object to the second end effector,
A control unit for controlling the operation of the first robot arm and the operation of the second robot arm;
An imaging unit that obtains imaging information by imaging a captured image including the first end effector and the second end effector in the transfer area;
A calculation unit for obtaining a relative speed of the second end effector with respect to the first end effector in the transfer region,
The control unit controls the operation of the first robot arm and the operation of the second robot arm by setting the relative speed to be lower than the moving speed of the first end effector based on the imaging information. Robot characterized by.
前記第1ロボットアームおよび前記第2ロボットアームをそれぞれ2本ずつ備え、
前記各第1ロボットアームに装着された前記第1エンドエフェクター同士の間から、前記各第2ロボットアームに装着された前記第2エンドエフェクター同士の間へ、前記対象物の受け渡しを行なう請求項7に記載のロボット。
Two each of the first robot arm and the second robot arm,
8. The object is transferred from between the first end effectors attached to the first robot arms to the second end effectors attached to the second robot arms. The robot described in 1.
前記第1ロボットアームと前記第1エンドエフェクターとの間、および、前記第2ロボットアームと前記第2エンドエフェクターとの間のうちの少なくとも一方には、当該エンドエフェクターに作用した力情報を得る力検出部が設けられている請求項7または8に記載のロボット。   At least one of the first robot arm and the first end effector and between the second robot arm and the second end effector is a force that obtains force information acting on the end effector. The robot according to claim 7 or 8, further comprising a detection unit. 前記第1エンドエフェクターおよび前記第2エンドエフェクターには、それぞれ、前記演算部で前記相対速度を求める際に用いられるマーカーが少なくとも1つ付されている請求項9に記載のロボット。   The robot according to claim 9, wherein each of the first end effector and the second end effector is provided with at least one marker used for obtaining the relative speed by the calculation unit. 前記マーカーは、同一平面上の互いに異なる位置に3つ設けられており、前記3つのマーカーを結んだ仮想線が三角形をなす請求項10に記載のロボット。   The robot according to claim 10, wherein three markers are provided at different positions on the same plane, and a virtual line connecting the three markers forms a triangle. 第1エンドエフェクターが装着された少なくとも1本の第1ロボットアームと、第2エンドエフェクターが装着された少なくとも1本の第2ロボットアームとを備え、対象物の受け渡しを行なう受け渡し領域内で、前記第1ロボットアームに装着された前記第1エンドエフェクターで把持された前記対象物を、前記第2ロボットアームに装着された前記第2エンドエフェクターに受け渡すロボットと、
前記ロボットを制御する、請求項1ないし6のいずれか1項に記載の制御装置と、を備えることを特徴とするロボットシステム。
In a transfer area that includes at least one first robot arm to which a first end effector is mounted and at least one second robot arm to which a second end effector is mounted, and transfers a target, A robot that delivers the object gripped by the first end effector mounted on the first robot arm to the second end effector mounted on the second robot arm;
A robot system comprising: the control device according to claim 1 that controls the robot.
第1エンドエフェクターが装着された第1ロボットアームと、第2エンドエフェクターが装着された第2ロボットアームとを備え、対象物の受け渡しを行なう受け渡し領域内で、前記第1ロボットアームに装着された前記第1エンドエフェクターで把持された前記対象物を、前記第2ロボットアームに装着された前記第2エンドエフェクターに受け渡すロボットを制御する制御方法であって、
前記第1ロボットアームの作動と前記第2ロボットアームの作動とを制御する制御部と、
前記受け渡し領域内の前記第1エンドエフェクターおよび前記第2エンドエフェクターを含む撮像画像を撮像して撮像情報を得る撮像部と、
前記受け渡し領域内における、前記第1エンドエフェクターに対する前記第2エンドエフェクターの相対位置、相対速度、相対的な移動方向をそれぞれ求める演算部と、を用いて、
前記制御部に、前記撮像情報に基づいて、前記相対速度を、前記第1エンドエフェクターの移動速度よりも小さい速度として、前記対象物の受け渡しを行なうよう前記第1ロボットアームの作動と前記第2ロボットアームの作動とを制御させることを特徴とする制御方法。
A first robot arm to which a first end effector is attached and a second robot arm to which a second end effector is attached, and is attached to the first robot arm within a delivery area for delivering an object. A control method for controlling a robot that delivers the object gripped by the first end effector to the second end effector mounted on the second robot arm,
A control unit for controlling the operation of the first robot arm and the operation of the second robot arm;
An imaging unit that obtains imaging information by imaging a captured image including the first end effector and the second end effector in the transfer area;
A calculation unit that obtains a relative position, a relative speed, and a relative movement direction of the second end effector with respect to the first end effector in the transfer area;
Based on the imaging information, the control unit is configured to operate the first robot arm so that the relative speed is lower than the moving speed of the first end effector and to deliver the object. A control method for controlling the operation of a robot arm.
JP2014029342A 2014-02-19 2014-02-19 Control device, robot, robot system and control method Pending JP2015150673A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014029342A JP2015150673A (en) 2014-02-19 2014-02-19 Control device, robot, robot system and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014029342A JP2015150673A (en) 2014-02-19 2014-02-19 Control device, robot, robot system and control method

Publications (1)

Publication Number Publication Date
JP2015150673A true JP2015150673A (en) 2015-08-24

Family

ID=53893463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014029342A Pending JP2015150673A (en) 2014-02-19 2014-02-19 Control device, robot, robot system and control method

Country Status (1)

Country Link
JP (1) JP2015150673A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017100194A (en) * 2015-11-30 2017-06-08 セイコーエプソン株式会社 Robot and control method
JP2018015854A (en) * 2016-07-29 2018-02-01 セイコーエプソン株式会社 Robot, robot control device, robot system, and control method
US10213916B2 (en) 2016-03-23 2019-02-26 Seiko Epson Corporation Control apparatus and robot system
WO2022234752A1 (en) * 2021-05-06 2022-11-10 三菱電機株式会社 Picking system
JP7491743B2 (en) 2020-05-29 2024-05-28 ファナック株式会社 Robot System

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017100194A (en) * 2015-11-30 2017-06-08 セイコーエプソン株式会社 Robot and control method
US10213916B2 (en) 2016-03-23 2019-02-26 Seiko Epson Corporation Control apparatus and robot system
JP2018015854A (en) * 2016-07-29 2018-02-01 セイコーエプソン株式会社 Robot, robot control device, robot system, and control method
JP7491743B2 (en) 2020-05-29 2024-05-28 ファナック株式会社 Robot System
WO2022234752A1 (en) * 2021-05-06 2022-11-10 三菱電機株式会社 Picking system

Similar Documents

Publication Publication Date Title
US10456917B2 (en) Robot system including a plurality of robots, robot controller and robot control method
JP2015150673A (en) Control device, robot, robot system and control method
US10406681B2 (en) Robot
JP5893695B1 (en) Article transport system
US9782896B2 (en) Robot system and control method for robot system
JP6454960B2 (en) Robot, robot system, robot controller
JP2013078825A (en) Robot apparatus, robot system, and method for manufacturing workpiece
JP2015085458A (en) Robot control device, robot system and robot
JP2011115877A (en) Double arm robot
US10293499B2 (en) Movable robot
JP2014522747A5 (en)
US20170203434A1 (en) Robot and robot system
JP6208601B2 (en) Robot hand having workpiece positioning function, robot system, and workpiece positioning and gripping method
JP2012115915A (en) Method of taking out workpiece
JP2015226968A (en) Robot, robot system, control unit and control method
JP2015182212A (en) Robot system, robot, control device, and control method
JP6741329B1 (en) System to change the tool of gripper device
TWI722464B (en) Substrate conveying device and its operating method
US20160306340A1 (en) Robot and control device
JP7141288B2 (en) robot system
JP2015160271A (en) Control device, robot, robot system and control method
JP2017047479A5 (en)
JP2015205383A (en) Work-piece transport device with positioning mechanism
JP7213010B2 (en) ROBOT SYSTEM AND METHOD OF WORKING ON A WORK TRANSFERRED
JP6314431B2 (en) Robot system, control device, robot, and driving method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160610

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160624