JP2015085499A - Robot, robot system, control device and control method - Google Patents

Robot, robot system, control device and control method Download PDF

Info

Publication number
JP2015085499A
JP2015085499A JP2013228831A JP2013228831A JP2015085499A JP 2015085499 A JP2015085499 A JP 2015085499A JP 2013228831 A JP2013228831 A JP 2013228831A JP 2013228831 A JP2013228831 A JP 2013228831A JP 2015085499 A JP2015085499 A JP 2015085499A
Authority
JP
Japan
Prior art keywords
robot
control
force
contact
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013228831A
Other languages
Japanese (ja)
Inventor
浩之 川田
Hiroyuki Kawada
浩之 川田
Original Assignee
セイコーエプソン株式会社
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by セイコーエプソン株式会社, Seiko Epson Corp filed Critical セイコーエプソン株式会社
Priority to JP2013228831A priority Critical patent/JP2015085499A/en
Publication of JP2015085499A publication Critical patent/JP2015085499A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To accurately perform positioning even when positional accuracy by control is low.SOLUTION: A robot moves a first object, and moves the first object so as to move the other point of the first object closer to the other point of a second object when bringing one point of the first object into contact with one point of the second object. The present embodiment can be executed by any of a robot system, a control device and a control method. Further, the present embodiment can be executed by the robot which moves the first object, and moves the first object so as to move the other point of the first object closer to the other point of the second object when bringing one point of the first object into contact with one point of the second object.

Description

本発明は、ロボット、ロボットシステム、制御装置及び制御方法に関する。   The present invention relates to a robot, a robot system, a control device, and a control method.

製造等の作業現場では、製品の組み立て等の作業にロボットが用いられ、人手で行っていた作業の自動化が図られてきた。ロボットによる組み立て作業では、作業対象となる対象物をジグの所定位置に位置決めされた状態で行われることがある。   At work sites such as manufacturing, robots have been used for product assembly and the like, and automation of work that has been performed manually has been attempted. The assembly work by the robot may be performed in a state where the target object to be worked is positioned at a predetermined position of the jig.

当該所定位置を算出する方法としては、例えば、特許文献1に記載されているような、カメラによって撮像された撮像画像を画像処理することによって、当該所定位置を算出する方法が考えられる。   As a method of calculating the predetermined position, for example, a method of calculating the predetermined position by performing image processing on a captured image captured by a camera as described in Patent Document 1.

特開2010−64182号公報JP 2010-64182 A

しかし、ロボットとカメラとのキャリブレーションを厳密に行っていない場合(つまり、簡易的なキャリブレーションである場合)や、画像処理の精度が低い場合には、当該所定位置を正確に算出することができず、対象物をジクに正確に位置決めすることが困難となる。また、キャリブレーションを厳密に行っている場合や、画像処理の精度がある程度の精度を有している場合であっても、ロボットアームの剛性が低い場合には、やはり象物をジクに正確に位置決めすることが困難となる。
そこで、本発明は、制御による位置の精度が低い場合、例えば、キャリブレーションが簡易な場合、アームの剛性が低い場合、等でも正確に位置決めを行うことを課題とする。
However, when the calibration between the robot and the camera is not strictly performed (that is, when the calibration is simple), or when the accuracy of image processing is low, the predetermined position can be accurately calculated. Therefore, it is difficult to accurately position the target object. Even if the calibration is performed strictly or the accuracy of image processing has a certain level of accuracy, if the rigidity of the robot arm is low, the elephant must be accurately It becomes difficult to position.
Therefore, an object of the present invention is to accurately perform positioning even when the position accuracy by control is low, for example, when calibration is simple or when the rigidity of an arm is low.

(1)本発明の一態様は、力センサーと、第1の対象物を把持する把持部を含むアームと、を含み、前記第1の対象物は、少なくとも1つの面を含み、前記把持部により把持される第1の対象物の前記面の一部を構成する第1の部位を第2の対象物に接触させる第1の動作と、前記第1の動作後に、前記第1の部位とは異なる前記第1の対象物の第2の部位で、前記第1の対象物を前記第2の対象物に接触させる第2の動作とを行う、ロボットである。
この構成によれば、第1の対象物が第2の対象物に接触し、第2の対象物の1点と他の1点とを通る面から傾いた状態で配置された場合でも、正確に位置決めを行うことができる。
(1) One aspect of the present invention includes a force sensor and an arm including a gripping part that grips a first object, and the first object includes at least one surface, and the gripping part A first operation for bringing a first part that constitutes a part of the surface of the first object held by the second object into contact with the second object; and after the first operation, the first part Is a robot that performs a second action of bringing the first object into contact with the second object at a second part of the different first object.
According to this configuration, even when the first object is in contact with the second object and is tilted from a plane passing through one point of the second object and the other point, it is accurate. Can be positioned.

(2)本発明の他の態様は、上述したロボットであって、前記面は、平面であり、前記第1の部位は、前記平面を構成する辺であり、前記第1の動作において、前記辺を前記第2の対象物に接触させる。
この構成によれば、第1の部位の平面内の辺を支点として、第2の部位が第2の対象物に接触させるようにすることで、傾きが減少するように補正することができる。
(2) Another aspect of the present invention is the robot described above, wherein the surface is a flat surface, the first part is a side that forms the flat surface, and the first operation includes: An edge is brought into contact with the second object.
According to this structure, it can correct | amend so that inclination may reduce by making a 2nd site | part contact a 2nd target object by using the side in the plane of a 1st site | part as a fulcrum.

(3)本発明の他の態様は、上述したロボットであって、前記第1の部位は、辺を構成する点であり、前記第1の動作において、前記点を前記第2の対象物に接触させる。
この構成によれば、第1の部位を構成する平面内の点を支点として、第2の部位が第2の対象物に接触させるようにすることで、傾きが減少するように補正することができる。
(3) Another aspect of the present invention is the robot described above, wherein the first part is a point that constitutes a side, and the point is set as the second object in the first operation. Make contact.
According to this structure, it can correct | amend so that inclination may reduce by making the 2nd site | part contact the 2nd target object by using the point in the plane which comprises the 1st site | part as a fulcrum. it can.

(4)本発明の他の態様は、上述したロボットであって、前記面は、1つの曲面であり、前記第1の対象物は、前記曲面から構成される物体であり、前記第1の部位及び前記第2の部位は、前記曲面の一部であり、前記第1の動作及び前記第2の動作において、前記第1の対象物を前記第2の対象物と点接触させる。
この構成によれば、第1の部位を構成する曲面の点を支点として、第2の部位が第2の対象物に接触させるようにすることで、傾いた状態で配置された場合でも、傾きが減少するように補正することができる。
(4) Another aspect of the present invention is the above-described robot, wherein the surface is a single curved surface, the first object is an object composed of the curved surface, and the first The part and the second part are part of the curved surface, and the first object and the second object are brought into point contact with each other in the first operation and the second operation.
According to this configuration, even if the second part is brought into contact with the second object with the point of the curved surface constituting the first part as a fulcrum, even if the second part is placed in an inclined state, Can be corrected to decrease.

(5)本発明の他の態様は、上述したロボットであって、前記第1の動作及び前記第2の動作において、前記力センサーの出力を用いて、前記第1の対象物が前記第2の対象物に接触したか否かを判定する。
この構成によれば、第1の対象物と第2の対象物が機械的に接触したことを検知して、第1の対象物への力の作用を停止する手がかりが与えられる。
(5) Another aspect of the present invention is the above-described robot, in which the first object is the second using the output of the force sensor in the first operation and the second operation. It is determined whether or not the object is touched.
According to this configuration, a clue is provided that detects that the first object and the second object are in mechanical contact with each other and stops the action of force on the first object.

(6)本発明の他の態様は、上述したロボットであって、前記第1の動作における前記第1の対象物と前記第2の対象物の接触状態を維持して、前記第2の動作を行う。
この構成によれば、第1の対象物と第2の対象物とのいずれかの部位が接触しながら、他の部位同士が近づくので、傾いた状態で配置された場合でも、傾きが減少するように補正することができる。
(6) Another aspect of the present invention is the robot described above, wherein the second operation is performed while maintaining a contact state between the first object and the second object in the first operation. I do.
According to this configuration, since any part of the first object and the second object is in contact with each other, the other parts come closer to each other, so that the inclination is reduced even when arranged in an inclined state. Can be corrected as follows.

(7)本発明の他の態様は、上述したロボットであって、前記第2の動作を行う際、前記ロボットに前記第1の対象物の前記第1の部位を前記第2の対象物に接触させながら、前記第1の対象物の前記第1の部位と前記第1の対象物の前記第2の部位に垂直な方向に力を作用させる。
この構成によれば、第1の対象物の第1の部位と第2の部位を通る面が、第2の対象物の第1の部位と第2の部位を通る面に倣う力を効率よく生じされることができる。そのため、第1の対象物に無理な力を作用させなくても傾きを効率よく補正することができる。
(7) Another aspect of the present invention is the robot described above, wherein when the second operation is performed, the first part of the first object is used as the second object when the robot performs the second operation. A force is applied in a direction perpendicular to the first part of the first object and the second part of the first object while making contact.
According to this configuration, the surface passing through the first part and the second part of the first object efficiently applies a force following the surface passing through the first part and the second part of the second object. Can be generated. Therefore, the tilt can be corrected efficiently without applying an excessive force to the first object.

(8)本発明の他の態様は、上述したロボットであって、前記ロボットに力を作用させる際、前記第1の対象物にかかる重力を相殺する。
この構成によれば、第1の対象物に作用させる重力を解消することができるので、第1の対象物に生じた傾きをより効率よく補正することができる。
(8) Another aspect of the present invention is the above-described robot, which cancels gravity applied to the first object when a force is applied to the robot.
According to this configuration, since gravity applied to the first object can be eliminated, the tilt generated in the first object can be corrected more efficiently.

(9)本発明の他の態様は、上述したロボットであって、前記力センサーは、前記把持部と前記アームとの間に配置される。
この構成によれば、力センサーは把持部に加えられた力を有効に検出することができる。
(9) Another aspect of the present invention is the robot described above, wherein the force sensor is disposed between the grip portion and the arm.
According to this configuration, the force sensor can effectively detect the force applied to the grip portion.

(10)本発明の他の態様は、力センサーと、アームとを含むロボットを含み、前記アームは、第1の対象物を把持する把持部を含み、前記第1の対象物は、少なくとも1つの面を含み、前記ロボットは、前記把持部により把持される第1の対象物の前記面の一部を構成する第1の部位を第2の対象物に接触させる第1の動作と、前記第1の動作後に、前記第1の部位とは異なる前記第1の対象物の第2の部位で、前記第1の対象物を前記第2の対象物に接触させる第2の動作とを行う、ロボットシステムである。
この構成によれば、第1の対象物が第2の対象物に接触し、第2の対象物の1点と他の1点とを通る面から傾いた状態で配置された場合でも、正確に位置決めを行うことができる。
(10) Another aspect of the present invention includes a robot including a force sensor and an arm, and the arm includes a grip portion that grips a first object, and the first object includes at least one. A first operation that makes a first part of the surface of the first object gripped by the gripper contact a second object; and After the first operation, a second operation of bringing the first object into contact with the second object at a second part of the first object different from the first part is performed. The robot system.
According to this configuration, even when the first object is in contact with the second object and is tilted from a plane passing through one point of the second object and the other point, it is accurate. Can be positioned.

(11)本発明の他の態様は、力センサーと、アームとを含むロボットを動作させる制御装置であって、前記アームは、第1の対象物を把持する把持部を含み、前記第1の対象物は、少なくとも1つの面を含み、前記ロボットに、前記把持部により把持される第1の対象物の前記面の一部を構成する第1の部位を第2の対象物に接触させる第1の動作と、前記第1の動作後に、前記第1の部位とは異なる前記第1の対象物の第2の部位で、前記第1の対象物を前記第2の対象物に接触させる第2の動作とを行わせる、制御装置である。
この構成によれば、第1の対象物が第2の対象物に接触し、第2の対象物の1点と他の1点とを通る面から傾いた状態で配置された場合でも、正確に位置決めを行うことができる。
(11) Another aspect of the present invention is a control device that operates a robot including a force sensor and an arm, and the arm includes a gripping unit that grips a first object. The object includes at least one surface, and causes the robot to contact the second object with a first part that constitutes a part of the surface of the first object gripped by the gripper. After the first operation and the first operation, the first object is brought into contact with the second object at a second part of the first object different from the first part. 2 is a control device that performs the second operation.
According to this configuration, even when the first object is in contact with the second object and is tilted from a plane passing through one point of the second object and the other point, it is accurate. Can be positioned.

(12)本発明の他の態様は、力センサーと、アームとを含むロボットの制御方法であって、前記アームは、第1の対象物を把持する把持部を含み、前記第1の対象物は、少なくとも1つの面を含み、前記ロボットに、前記把持部により把持される第1の対象物の前記面の一部を構成する第1の部位を第2の対象物に接触させる第1の動作を行わせることと、前記ロボットに、前記第1の部位とは異なる前記第1の対象物の第2の部位で、前記第1の対象物を前記第2の対象物に接触させる第2の動作を行わせることと、を含む、制御方法である。
この構成によれば、第1の対象物が第2の対象物に接触し、第2の対象物の1点と他の1点とを通る面から傾いた状態で配置された場合でも、正確に位置決めを行うことができる。
(12) Another aspect of the present invention is a robot control method including a force sensor and an arm, wherein the arm includes a gripping unit that grips a first object, and the first object Includes at least one surface, and causes the robot to contact a second object with a first part constituting a part of the surface of the first object gripped by the gripper. Causing the robot to perform a second operation to bring the first object into contact with the second object at a second part of the first object different from the first part. A control method including:
According to this configuration, even when the first object is in contact with the second object and is tilted from a plane passing through one point of the second object and the other point, it is accurate. Can be positioned.

本実施形態に係るロボットシステムの概略図である。It is a schematic diagram of a robot system concerning this embodiment. 本実施形態に係るロボットシステムの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the robot system which concerns on this embodiment. 本実施形態に係るロボットシステムにおける制御の流れの一例を示すブロック図である。It is a block diagram which shows an example of the flow of control in the robot system which concerns on this embodiment. 本実施形態に係るロボット制御処理を示すフローチャートである。It is a flowchart which shows the robot control processing which concerns on this embodiment. 傾き補正に係る動作例(1)を示す図である。It is a figure which shows the operation example (1) which concerns on inclination correction. 傾き補正に係る動作例(2)を示す図である。It is a figure which shows the operation example (2) which concerns on inclination correction. 傾き補正に係る動作例(3)を示す図である。It is a figure which shows the operation example (3) which concerns on inclination correction. 傾き補正に係る動作例(4)を示す図である。It is a figure which shows the operation example (4) which concerns on inclination correction. 傾き補正に係る動作例(5)を示す図である。It is a figure which shows the operation example (5) which concerns on inclination correction. 傾き補正に係る動作例(6)を示す図である。It is a figure which shows the operation example (6) which concerns on inclination correction. 傾き補正に係る動作例(7)を示す図である。It is a figure which shows the operation example (7) which concerns on inclination correction. 傾き補正に係る動作例(8)を示す図である。It is a figure which shows the operation example (8) which concerns on inclination correction. 傾き補正に係る動作例(9)を示す図である。It is a figure which shows the operation example (9) which concerns on inclination correction.

以下、本発明の実施形態について、図面を参照しながら説明する。
図1は、本実施形態に係るロボットシステム1の概略図である。
ロボットシステム1は、ロボット制御装置10と、ロボット20と、1個又は複数(この例では、2個)の撮像装置30とを備える。ロボット制御装置10、ロボット20及び撮像装置30は、互いに通信することができるように接続される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic diagram of a robot system 1 according to the present embodiment.
The robot system 1 includes a robot control device 10, a robot 20, and one or a plurality (two in this example) of imaging devices 30. The robot control device 10, the robot 20, and the imaging device 30 are connected so that they can communicate with each other.

ロボット制御装置10は、ロボット20の動作を制御する。ここで、ロボット制御装置10は、ロボット20に第1の対象物(例えば、対象物W1)を動作させ、第1の対象物の1点が第2の対象物(例えば、対象物W2)の1点に接触したとき、第1の対象物の他の1点が第2の対象物の他の1点に近づくように前記第1の対象物を動作させる。
ロボット制御装置10は、ロボット20の動作を制御する際、例えば、力制御を実行する。力制御は、ロボット20の可動部21(後述)に作用する力が目的とする作業に適合した値に近づくように制御する手法である。
The robot control device 10 controls the operation of the robot 20. Here, the robot control apparatus 10 causes the robot 20 to operate the first object (for example, the object W1), and one point of the first object is the second object (for example, the object W2). When the first object is touched, the first object is moved so that the other one point of the first object approaches the other one point of the second object.
When controlling the operation of the robot 20, the robot control device 10 executes force control, for example. The force control is a method for controlling the force acting on the movable part 21 (described later) of the robot 20 so as to approach a value suitable for the intended work.

ロボット20は、ロボット制御装置10からの制御信号に従って動作し、所定の作業を行う。ロボット20の作業内容は、例えば作業台T上で作業の対象となる対象物W1を対象物W2に配置する作業が該当する。対象物は、ワークとも呼ばれる。
ロボット20は、1もしくは複数(この例では、2本)のアーム22と、アーム22の先端部に設けられたハンド26と、アーム22の手首部分に設けられた力覚センサー25と、を備える。アーム22の手首部分とはアーム22の先端部とハンド26との間の部分である。アーム22は、1もしくは複数(この例では、左右各6個)のジョイント23及び1もしくは複数(この例では、左右各5個)のリンク24を含んで構成される。
The robot 20 operates in accordance with a control signal from the robot control apparatus 10 and performs a predetermined operation. The work content of the robot 20 corresponds to, for example, the work of placing the object W1 to be worked on the work table T on the object W2. The object is also called a workpiece.
The robot 20 includes one or a plurality of (two in this example) arms 22, a hand 26 provided at the tip of the arm 22, and a force sensor 25 provided at the wrist portion of the arm 22. . The wrist portion of the arm 22 is a portion between the tip portion of the arm 22 and the hand 26. The arm 22 includes one or a plurality of (in this example, six on each of the left and right) joints 23 and one or a plurality of (in this example, five on each of the left and right) links 24.

力覚センサー25は、例えば、ハンド26に作用する力や、モーメントを検出する。力覚センサー25は、検出した力やモーメントを示すセンサー値をロボット制御装置10に出力する。センサー値は、例えば、ロボット制御装置10においてロボット20での力制御に用いられる。力覚センサー25は、例えば、6軸力覚センサーである。6軸力覚センサーは、並進3軸方向の力成分と、回転3軸まわりのモーメント成分との6成分を同時に検出することができるセンサーである。並進3軸とは、例えば、3次元直交座標系を形成する互いに直交する3つの座標軸(X軸、Y軸、Z軸)である。回転3軸とは、例えば、その3つの座標軸のそれぞれである。力覚センサー25が検出する成分の個数は、6成分に限られず、例えば、3成分(3軸力覚センサー)であってもよい。なお、力覚センサー25は、力検出部とも呼ばれる。   The force sensor 25 detects a force and a moment acting on the hand 26, for example. The force sensor 25 outputs a sensor value indicating the detected force or moment to the robot controller 10. The sensor value is used for force control by the robot 20 in the robot control device 10, for example. The force sensor 25 is, for example, a 6-axis force sensor. The six-axis force sensor is a sensor that can simultaneously detect six components, ie, a force component in the translational three-axis direction and a moment component around the three rotation axes. The translational three axes are, for example, three coordinate axes (X axis, Y axis, Z axis) that are orthogonal to each other and that form a three-dimensional orthogonal coordinate system. The three rotation axes are, for example, each of the three coordinate axes. The number of components detected by the force sensor 25 is not limited to six components, and may be, for example, three components (three-axis force sensor). The force sensor 25 is also called a force detection unit.

ハンド26は、例えば、4個の指状の構成部を備える。指状の構成部を、単に指と呼ぶ。ハンド26は、指を用いて対象物(例えば、対象物W1)を把持することができる。ここで、ハンド26は、対象物が有する面の1つを、いずれかの座標軸(例えば、Z軸)に垂直になるように把持することができる。
ハンド26は、アームの22の先端部に対して着脱可能であってもよい。ハンド26は、エンドエフェクターの一種ということができる。つまり、ロボット20は、ハンド26に代え、又はハンド26とともにハンド26以外の種類のエンドエフェクターを備えてもよい。エンドエフェクターとは、対象物を把持したり、持ち上げたり、吊り上げたり、吸着したり、加工する、等の操作を行う部材である。エンドエフェクターは、ハンドフック、吸盤、等、様々な形態をとることができる。また、エンドエフェクターは、1本のアーム22について各1個に限らず、2個、又は2個よりも多く備えられてもよい。
The hand 26 includes, for example, four finger-shaped components. The finger-shaped component is simply called a finger. The hand 26 can grip an object (for example, the object W1) using a finger. Here, the hand 26 can grip one of the surfaces of the object so as to be perpendicular to any coordinate axis (for example, the Z axis).
The hand 26 may be detachable from the tip of the arm 22. The hand 26 can be said to be a kind of end effector. That is, the robot 20 may be provided with an end effector other than the hand 26 in place of the hand 26 or together with the hand 26. An end effector is a member that performs operations such as gripping, lifting, lifting, adsorbing, and processing an object. The end effector can take various forms such as a hand hook, a suction cup, and the like. Further, the number of end effectors is not limited to one for each arm 22, and two or more end effectors may be provided.

アーム22、力覚センサー25、及びハンド26を含むユニットは、可動部21を形成する。可動部21は、マニュピレーターとも呼ばれる。図1に示す例では、ロボット20は、2本の可動部21を備える。可動部21は、ジョイント23やハンド26等の各部を動作させるための駆動部、例えば、アクチュエーター(図示せず)を備える。アクチュエーターは、例えば、サーボモーターや、エンコーダー、等を備える、エンコーダーは、自部で検出した変位をエンコード(符号化)してエンコーダー値に変換し、変換したエンコーダー値をロボット制御装置に出力する。エンコーダー値は、ロボット制御装置10においてロボット20に対するフィードバック制御、等に用いられる。   The unit including the arm 22, the force sensor 25, and the hand 26 forms the movable portion 21. The movable part 21 is also called a manipulator. In the example shown in FIG. 1, the robot 20 includes two movable parts 21. The movable unit 21 includes a drive unit for operating each unit such as the joint 23 and the hand 26, for example, an actuator (not shown). The actuator includes, for example, a servo motor, an encoder, and the like. The encoder encodes the displacement detected by itself and converts it into an encoder value, and outputs the converted encoder value to the robot controller. The encoder value is used for feedback control on the robot 20 in the robot control apparatus 10.

ロボット20は、ロボット制御装置10から入力された制御命令に従って、各ジョイント23を連動して駆動する。これにより、ロボット制御装置10は、アーム22の先端部等に設定された注目位置を所定の可動範囲内で所望の位置に移動させたり、所望の方向に向けたりすることができる。この注目位置を、端点と呼ぶ。端点は、エンドポイントとも呼ばれる。また、ロボット制御装置10は、ハンド26を駆動することで、対象物等を把持したり、解放したりすることができる。
なお、端点は、アーム22の先端部に限られず、例えば、ハンド26等のエンドエフェクターの先端部であってもよい。
The robot 20 drives each joint 23 in conjunction with each other in accordance with a control command input from the robot control device 10. As a result, the robot control apparatus 10 can move the target position set at the tip of the arm 22 or the like to a desired position within a predetermined movable range, or can point it in a desired direction. This attention position is called an end point. An end point is also called an end point. Further, the robot control apparatus 10 can grip or release an object or the like by driving the hand 26.
The end point is not limited to the distal end portion of the arm 22 and may be the distal end portion of an end effector such as the hand 26, for example.

撮像装置30は、ロボット20の作業領域を表す画像を撮像し、撮像した画像を示す画像データを生成する。ロボット20の作業領域は、図1に示す例では、作業台T上において可動部21により作業可能な範囲である3次元空間であり、可動部21の端点を含む領域である。作業台T上には、それぞれ異なる位置に配置された2台の撮像装置30が、対象物W2の中心部に向けられている。撮像装置30は、例えば、可視光カメラ、赤外線カメラ、等である。撮像装置30は、生成した画像データをロボット制御装置10に出力する。   The imaging device 30 captures an image representing the work area of the robot 20 and generates image data indicating the captured image. In the example shown in FIG. 1, the work area of the robot 20 is a three-dimensional space that is a workable area on the worktable T by the movable part 21, and is an area that includes an end point of the movable part 21. On the work table T, two imaging devices 30 arranged at different positions are directed toward the center of the object W2. The imaging device 30 is, for example, a visible light camera, an infrared camera, or the like. The imaging device 30 outputs the generated image data to the robot control device 10.

上述したロボットシステム1の構成は、本実施形態の概要を説明するための一例に過ぎない。即ち、上述したロボットシステム1の構成は、上述した構成に限られず、その他の構成を有していてもよい。
例えば、図1は、ジョイント23の数(軸数)が左右各6個(6軸)である例を示すが、ジョイント23の数は各6個よりも少なくてもよいし、各6個よりも多くてもよい。リンク24の数は、ジョイント23の数に応じて定められる。また、ジョイント23、リンク24、ハンド26、等の部材の形状、大きさ、配置、構造を適宜変更してもよい。
The configuration of the robot system 1 described above is merely an example for explaining the outline of the present embodiment. That is, the configuration of the robot system 1 described above is not limited to the configuration described above, and may have other configurations.
For example, FIG. 1 shows an example in which the number of joints 23 (number of axes) is six on each of the left and right sides (six axes), but the number of joints 23 may be less than six or less than six. May be more. The number of links 24 is determined according to the number of joints 23. Further, the shape, size, arrangement, and structure of members such as the joint 23, the link 24, and the hand 26 may be appropriately changed.

また、撮像装置30の設置位置は、図1に示すように作業台T上に限られず、天井や壁面上であってもよい。また、これらの撮像装置30に代えて、又はこれに加えて、アーム22の先端部、胴体部、頭部、等に撮像装置30を設けてもよい。また、撮像装置30は、ロボット制御装置10に代えてロボット20に接続されてもよい。その場合には、撮像装置30が生成した画像データは、ロボット20を介してロボット制御装置10に入力される。   Further, the installation position of the imaging device 30 is not limited to the work table T as shown in FIG. Further, instead of or in addition to these imaging devices 30, the imaging device 30 may be provided at the distal end portion, the trunk portion, the head portion, or the like of the arm 22. Further, the imaging device 30 may be connected to the robot 20 instead of the robot control device 10. In that case, the image data generated by the imaging device 30 is input to the robot control device 10 via the robot 20.

図2は、本実施形態に係るロボットシステム1の機能構成を示すブロック図である。
ロボット20は、駆動制御部200を備える。駆動制御部200は、ロボット制御装置10から入力された制御信号と、アクチュエーターで取得されたエンコーダー値及び力覚センサー25で取得されたセンサー値、等に基づいて、端点の位置が制御信号で指示される目標位置となるように、アクチュエーターを駆動させる。なお、端点の現在位置は、例えば、アクチュエーターにおけるエンコーダー値等から求めることができる。
FIG. 2 is a block diagram showing a functional configuration of the robot system 1 according to the present embodiment.
The robot 20 includes a drive control unit 200. Based on the control signal input from the robot control device 10, the encoder value acquired by the actuator, the sensor value acquired by the force sensor 25, and the like, the drive control unit 200 indicates the position of the end point with the control signal. The actuator is driven so that the target position is reached. Note that the current position of the end point can be obtained from, for example, an encoder value in the actuator.

ロボット制御装置10は、力制御部120と、動作制御部130と、画像取得部140とを備える。
力制御部120は、センサー情報取得部122と、軌道生成部124とを備える。
The robot control apparatus 10 includes a force control unit 120, an operation control unit 130, and an image acquisition unit 140.
The force control unit 120 includes a sensor information acquisition unit 122 and a trajectory generation unit 124.

力制御部120は、ロボット20の力覚センサー25からのセンサー情報(力情報やモーメント情報を示すセンサー値)に基づいて、力制御(力覚制御ともいう)を行う。
なお、力制御を行うためには、ハンド26等のエンドエフェクターに加わる力やモーメントを検出する必要があるが、エンドエフェクターに加わる力やモーメントを検出する方法は力覚センサーを用いるものに限られない。例えば、アーム22の各軸トルク値からエンドエフェクターに及ぼす外力を推定することもできる。したがって、力制御を行うためには、直接または間接的にエンドエフェクターに加わる力を取得する手段を、アーム22が有していればよい。
The force control unit 120 performs force control (also referred to as force sense control) based on sensor information (sensor values indicating force information and moment information) from the force sensor 25 of the robot 20.
In order to perform force control, it is necessary to detect the force and moment applied to the end effector such as the hand 26, but the method of detecting the force and moment applied to the end effector is limited to that using a force sensor. Absent. For example, it is possible to estimate the external force exerted on the end effector from each axis torque value of the arm 22. Therefore, in order to perform force control, the arm 22 only needs to have means for acquiring a force applied directly or indirectly to the end effector.

センサー情報取得部122は、ロボット20の力覚センサー25から出力されるセンサー情報(検出されたセンサー値など)を取得する。なお、センサー情報取得部122は、力検出部と呼ぶこともできる。   The sensor information acquisition unit 122 acquires sensor information (such as detected sensor values) output from the force sensor 25 of the robot 20. The sensor information acquisition unit 122 can also be called a force detection unit.

軌道生成部124は、力制御により端点の移動方向及び移動量を決定する。また、軌道生成部124は、端点の移動方向及び移動量に基づいて、各ジョイント23に設けられた各アクチュエーターの目標角度を決定する。また、軌道生成部124は、目標角度だけアーム22を移動させるような指令値を生成し、動作制御部130へ出力する。なお、軌道生成部124が行う軌道の生成処理、目標角度の決定処理、指令値の生成処理等は、一般的な様々な技術を用いることができるため、詳細な説明を省略する。   The trajectory generation unit 124 determines the moving direction and moving amount of the end points by force control. Further, the trajectory generation unit 124 determines a target angle of each actuator provided in each joint 23 based on the moving direction and moving amount of the end points. In addition, the trajectory generation unit 124 generates a command value that moves the arm 22 by the target angle and outputs the command value to the operation control unit 130. The trajectory generation process, the target angle determination process, the command value generation process, and the like performed by the trajectory generation unit 124 can use various general techniques, and thus detailed description thereof is omitted.

なお、関節を持つロボット20では、各関節の角度を決定すると、フォワードキネマティクス処理により端点の位置は一意に決定される。つまり、N関節ロボットではN個の関節角度により1つの目標位置を表現できることになるから、当該N個の関節角度の組を1つの目標関節角度とすれば、端点の軌道を目標関節角度の集合と考えることができる。よって、軌道生成部124から出力される指令値は、位置に関する値(目標位置)であってもよいし、関節の角度に関する値(目標角度)であってもよい。   In the robot 20 having a joint, when the angle of each joint is determined, the position of the end point is uniquely determined by forward kinematics processing. In other words, an N-joint robot can express one target position by N joint angles. Therefore, if the set of N joint angles is one target joint angle, the trajectory of the end point is a set of target joint angles. Can be considered. Therefore, the command value output from the trajectory generation unit 124 may be a value related to a position (target position) or a value related to a joint angle (target angle).

画像取得部140は、撮像装置30が撮像した画像データを取得し、取得した画像データを動作制御部130に出力する。   The image acquisition unit 140 acquires image data captured by the imaging device 30 and outputs the acquired image data to the operation control unit 130.

動作制御部(制御部)130は、力覚センサー25から入力されたセンサー値に基づいて可動部21を移動させる制御信号をロボット20に出力する。ここで、目標位置が時間経過に応じて第2の対象物に予め定めた方向、速度で接近することを示す指令値が与えられることで、動作制御部130は、可動部21を動作させてハンド26で把持した第1の対象物を第2の対象物に接近させることができる。   The operation control unit (control unit) 130 outputs a control signal for moving the movable unit 21 to the robot 20 based on the sensor value input from the force sensor 25. Here, when the command value indicating that the target position approaches the second object with a predetermined direction and speed as time passes is given, the operation control unit 130 operates the movable unit 21. The first object gripped by the hand 26 can be brought close to the second object.

動作制御部130は、第1の対象物の1点が第2の対象物の1点に接触したか否かを判定する。動作制御部130は、例えば、力覚センサー25から入力されたセンサー値のうち、可動部21の端点の移動方向のセンサー値の単位時間当たりの変化が予め定めたセンサー値の変化よりも急激である場合、接触したと判定する。この場合には、第1の対象物は、第2の対象物から反力を受け始めるためである。   The motion control unit 130 determines whether one point of the first object has touched one point of the second object. For example, the motion control unit 130 has a sensor value input from the force sensor 25 whose change per unit time of the sensor value in the moving direction of the end point of the movable unit 21 is more rapid than a predetermined change in sensor value. If there is, it is determined that contact has occurred. In this case, the first object starts receiving a reaction force from the second object.

動作制御部130は、接触したと判定したとき、可動部21の端点の動きを一時的に停止する。この状態では、制御の目標とする姿勢(目標姿勢)と第1の対象物の姿勢との差(傾き)が生じることがある。目標姿勢は、例えば、第1の対象物の1面、つまり、第1の対象物が有する面のうち第2対象物に相対する面が、第2対象物が有する面のうち第1対象物に相対する面と平行な方向である。この目標姿勢では、第1の対象物を第2の対象物に対して安定に組み付けられる。   When the operation control unit 130 determines that the contact has occurred, the operation control unit 130 temporarily stops the movement of the end point of the movable unit 21. In this state, a difference (inclination) between the posture to be controlled (target posture) and the posture of the first object may occur. The target posture is, for example, one surface of the first object, that is, a surface opposite to the second object among the surfaces of the first object, and the first object among the surfaces of the second object. The direction is parallel to the surface opposite to. In this target posture, the first object is stably assembled to the second object.

そして、動作制御部130は、第2の対象物の他の1点に近づくように第1の対象物の他の1点を動作させる(傾き補正)。ここで、動作制御部130は、例えば、第1の対象物の1面に垂直な方向に第1の対象物の1点を第2の対象物の1点に接触させながら力を加えるように可動部21を動作させる。ここで、第2の対象物の1点を支点とするモーメントが生じる。第1の対象物の1面の方向は、ハンド26が第1の対象物を把持する際の予め定めた位置関係によって定められる既知情報である。   Then, the operation control unit 130 operates the other one point of the first object so as to approach the other point of the second object (tilt correction). Here, for example, the motion control unit 130 applies a force while bringing one point of the first object into contact with one point of the second object in a direction perpendicular to one surface of the first object. The movable part 21 is operated. Here, a moment is generated with one point of the second object as a fulcrum. The direction of one surface of the first object is known information determined by a predetermined positional relationship when the hand 26 holds the first object.

そして、動作制御部130は、第1の対象物の1面が第2の対象物に相対して接触したか否かを判定する。第1の対象物の1面が第2の対象物に相対して接触したとは、少なくとも第1の対象物の1面上の1点と他の1点と、第2の対象物の1点と他の点がそれぞれ接触した状態である。例えば、第1の対象物の1面の全体又は予め定めた大きさよりも大きい領域で第2の対象物に接触した状態である。動作制御部130は、例えば、その第1の対象物の1面に垂直な方向のモーメントに係るセンサー値の単位時間当たりの変化が予め定めたセンサーの変化よりも急激である場合、接触したと判定する。この場合、第1の対象物は、第2の対象物の面で反力を受け始めるからである。
これにより、第2の対象物に面で接触するように、第1の対象物の姿勢を補正することができる。その後、動作制御部130は、第1の対象物に力を加えて駆動する制御を停止する。動作制御部130は、第1の対象物を第2の対象物の表面上に接触しながら、移動させることができるため、組み付けようとする目標位置への搬送を精度よく行うことができる。
Then, the operation control unit 130 determines whether one surface of the first object has come into contact with the second object. That one surface of the first object is in contact with the second object means that at least one point on the first surface of the first object, one other point, and 1 of the second object. The point and the other points are in contact with each other. For example, it is a state in which the second object is in contact with the entire surface of the first object or an area larger than a predetermined size. For example, when the change per unit time in the sensor value related to the moment in the direction perpendicular to one surface of the first object is more rapid than the change in the predetermined sensor, the motion control unit 130 is in contact. judge. In this case, the first object starts to receive a reaction force on the surface of the second object.
Thereby, the attitude | position of a 1st target object can be correct | amended so that a 2nd target object may be contacted in a surface. Thereafter, the operation control unit 130 stops the control to drive the first object by applying a force. Since the operation control unit 130 can move the first object while contacting the surface of the second object, the operation control unit 130 can accurately carry the object to the target position to be assembled.

次に、本実施形態に係るロボットシステム1における制御の流れの一例について説明する。
図3は、本実施形態に係るロボットシステム1における制御の流れの一例を示すブロック図である。但し、動作制御部130の図示が省略されている。
力制御部120において、力覚センサー25から入力されたセンサー値に基づいて、目標として設定した力の目標値で、ロボット20の可動部21の端点を物体に接触させるためのフィードバックループが回っている。軌道生成部124は、入力されたセンサー値が、目標値となるように軌道及び指令値(ここでは、目標角度)を生成する。
動作制御部(制御部)130は、力制御部120から入力された指令値を示す制御信号であって可動部21を移動させる制御信号をロボット20に出力する。
Next, an example of a control flow in the robot system 1 according to the present embodiment will be described.
FIG. 3 is a block diagram illustrating an example of a control flow in the robot system 1 according to the present embodiment. However, the illustration of the operation control unit 130 is omitted.
In the force control unit 120, based on the sensor value input from the force sensor 25, a feedback loop for bringing the end point of the movable unit 21 of the robot 20 into contact with the object with the target value of the force set as a target rotates. Yes. The trajectory generation unit 124 generates a trajectory and a command value (here, a target angle) so that the input sensor value becomes a target value.
The operation control unit (control unit) 130 outputs a control signal indicating a command value input from the force control unit 120 and moving the movable unit 21 to the robot 20.

駆動制御部200には、ロボット制御装置10から指令値(目標角度)が入力される。駆動制御部200は、各ジョイント23に設けられた各アクチュエーターのエンコーダー値等に基づいて現在角度を取得し、目標角度と現在角度の差分(偏差角度)を算出する。また、駆動制御部200は、偏差角度に基づいてアーム22の移動速度を算出し、可動部21を算出した移動速度に応じた偏差角度だけ移動させる。   A command value (target angle) is input from the robot control device 10 to the drive control unit 200. The drive control unit 200 acquires the current angle based on the encoder value of each actuator provided in each joint 23 and calculates the difference (deviation angle) between the target angle and the current angle. Further, the drive control unit 200 calculates the moving speed of the arm 22 based on the deviation angle, and moves the movable unit 21 by the deviation angle corresponding to the calculated moving speed.

次に、本実施形態に係るロボット制御処理について説明する。
図4は、本実施形態に係るロボット制御処理を示すフローチャートである。
この例では、ロボット制御装置10が可動部21に第1の対象物を把持させ、初期において第1の対象物が第2の対象物から所定の方向に所定の距離をもって離れ、力制御により第1の対象物の位置、姿勢を制御する場合を仮定している。
Next, robot control processing according to the present embodiment will be described.
FIG. 4 is a flowchart showing the robot control process according to the present embodiment.
In this example, the robot control device 10 causes the movable unit 21 to grip the first object, and at the initial stage, the first object is separated from the second object by a predetermined distance in a predetermined direction, and the first control is performed by force control. It is assumed that the position and orientation of one object are controlled.

(ステップS101)動作制御部130は、把持している第1の対象物が第2の対象物に接近するように可動部21の動作を制御する。ここで、動作制御部130は、力制御部120から入力された指令値を示す制御信号をロボット20に出力する。その後、ステップS102に進む。
(ステップS102)動作制御部130は、力覚センサー25から入力されたセンサー値に基づいて把持している第1の対象物の1点が第2の対象物の1点に接触(点で接触)したか否かを判定する。接触したと判定された場合(ステップS102 YES)、ステップS103に進む。接触していないと判定された場合(ステップS102 NO)、ステップS101を繰り返す。
(Step S <b> 101) The operation control unit 130 controls the operation of the movable unit 21 so that the gripped first object approaches the second object. Here, the operation control unit 130 outputs a control signal indicating the command value input from the force control unit 120 to the robot 20. Thereafter, the process proceeds to step S102.
(Step S <b> 102) The motion control unit 130 contacts one point of the first object that is gripped based on the sensor value input from the force sensor 25 with one point of the second object. ) Is determined. When it is determined that contact has been made (YES in step S102), the process proceeds to step S103. When it is determined that they are not in contact (NO in step S102), step S101 is repeated.

(ステップS103)動作制御部130は、可動部21の端点の動作を一時的に停止させる。その後、ステップS104に進む。
(ステップS104)動作制御部130は、第2の対象物の他の1点に近づくように第1の対象物の他の1点を動作させる(傾き補正)。その後、ステップS105に進む。
(ステップS105)動作制御部130は、力覚センサー25から入力されたセンサー値に基づいて、第1の対象物の1面が第2の対象物に相対して接触(面で接触)したか否かを判定する。接触したと判定された場合(ステップS105 YES)、第1の対象物を動作させる制御を停止し、図4に示す処理を終了する。接触していないと判定された場合(ステップS105 NO)、ステップS104を繰り返す。
(Step S103) The operation control unit 130 temporarily stops the operation of the end point of the movable unit 21. Thereafter, the process proceeds to step S104.
(Step S104) The motion control unit 130 operates the other one point of the first object so as to approach the other one point of the second object (tilt correction). Thereafter, the process proceeds to step S105.
(Step S105) Based on the sensor value input from the force sensor 25, the operation control unit 130 makes contact with one surface of the first object relative to the second object (contact with the surface). Determine whether or not. When it determines with having contacted (step S105 YES), the control which operates a 1st target object is stopped, and the process shown in FIG. 4 is complete | finished. If it is determined that they are not in contact (NO in step S105), step S104 is repeated.

次に、上述した傾き補正に係る動作例について説明する。
図5は、傾き補正に係る動作例(1)を示す図である。
この例は、水平方向の傾き補正の一例である。図5の右方、下方は、それぞれ絶対座標系のX方向、Y方向を示す。X方向、Y方向は水平面に平行であって互いに直交する2つの方向である。対象物W2の表面は、X方向及びZ方向(鉛直方向)に平行である。
Next, an operation example related to the above-described tilt correction will be described.
FIG. 5 is a diagram illustrating an operation example (1) related to tilt correction.
This example is an example of horizontal inclination correction. The right side and the lower side in FIG. 5 indicate the X direction and the Y direction of the absolute coordinate system, respectively. The X direction and the Y direction are two directions that are parallel to the horizontal plane and orthogonal to each other. The surface of the object W2 is parallel to the X direction and the Z direction (vertical direction).

一点破線で示されたA線は、ハンド26で把持される対象物W1の面のうち、対象物W2に相対する面に垂直な方向を示す線である。Fx、Fy、Fzは、それぞれ力制御の一方法であるインピーダンス制御において力を制御する際に用いられる制御軸を示す。3つのインピーダンス制御軸Fx、Fy、Fzの各方向は、可動部21を基準とする3次元直交座標系(ロボット座標系)の各座標軸方向である。この例では、インピーダンス制御軸Fxの方向がA線に平行であり、インピーダンス制御軸Fy、Fzの方向がA線にそれぞれ垂直である。   A line indicated by a one-dot broken line is a line indicating a direction perpendicular to a surface facing the object W2 among the surfaces of the object W1 held by the hand 26. Fx, Fy, and Fz represent control axes used when controlling force in impedance control, which is one method of force control. The directions of the three impedance control axes Fx, Fy, and Fz are coordinate axis directions of a three-dimensional orthogonal coordinate system (robot coordinate system) with the movable portion 21 as a reference. In this example, the direction of the impedance control axis Fx is parallel to the A line, and the directions of the impedance control axes Fy and Fz are perpendicular to the A line.

ここでは、対象物W1がハンド26に把持され、Y方向に移動させられた後に、対象物W1の1点P1が対象物W2に接触している。ハンド26の上方の左下向きの矢印は、可動部21がハンド26を介して対象物W1に加えている力の方向を示す。この方向は、A線の方向に平行である。このとき、対象物W1が点P1で対象物W2に接触しながら、点P1を支点として対象物W2の表面に倣う方向の力、つまり、インピーダンス制御軸Fxの周りに回転するモーメントMxが生じる。これにより、対象物W1に無理な力を加えずに有効に、傾き補正を施すことができる。制御に用いられるインピーダンス制御軸は、Fy、Fz、Mxである。
なお、Mx、My、Mzは、それぞれインピーダンス制御軸Fx、Fy、Fz周りのモーメントを制御する際に用いられるインピーダンス制御軸である。
Here, after the object W1 is gripped by the hand 26 and moved in the Y direction, one point P1 of the object W1 is in contact with the object W2. An arrow pointing downward to the left above the hand 26 indicates the direction of the force that the movable part 21 applies to the object W <b> 1 via the hand 26. This direction is parallel to the direction of the A line. At this time, while the object W1 is in contact with the object W2 at the point P1, a force in a direction following the surface of the object W2 with the point P1 as a fulcrum, that is, a moment Mx rotating around the impedance control axis Fx is generated. Thereby, tilt correction can be effectively performed without applying an excessive force to the object W1. The impedance control axes used for control are Fy, Fz, and Mx.
Mx, My, and Mz are impedance control axes used when controlling moments around the impedance control axes Fx, Fy, and Fz, respectively.

図6は、傾き補正に係る動作例(2)を示す図である。
この例では、対象物W2に接触する前に対象物W1に加えられる力の方向がY方向である。それ以外の点では、図5に示す例と同様である。この例では、対象物W1に加えられる力は、主に点P1を介してY方向に加えられ、点P1を支点として対象物の表面に倣う方向の力が弱くなる。そのため、対象物W1の傾き補正が行われないことや、無理な力が加わることによって対象物W1が破損することがある。
FIG. 6 is a diagram illustrating an operation example (2) related to the inclination correction.
In this example, the direction of the force applied to the object W1 before contacting the object W2 is the Y direction. The other points are the same as the example shown in FIG. In this example, the force applied to the object W1 is mainly applied in the Y direction via the point P1, and the force in the direction following the surface of the object is weakened with the point P1 as a fulcrum. Therefore, the inclination of the object W1 is not corrected, or the object W1 may be damaged by applying an excessive force.

図7は、傾き補正に係る動作例(3)を示す図である。
この例は、鉛直方向の傾き補正の一例である。図7の右方、下方は、それぞれ絶対座標系のX方向、Z方向を示す。Z方向は水平面に垂直な方向(鉛直方向)である。対象物W3の表面は、Z方向に垂直である。
一点破線で示されたB線は、ハンド26で把持される対象物W1の面のうち、対象物W3に相対する面に垂直な方向を示す線である。この例では、インピーダンス制御軸Fzの方向がB線に平行であり、インピーダンス制御軸Fx、Fyの方向がB線にそれぞれ垂直である
FIG. 7 is a diagram illustrating an operation example (3) related to tilt correction.
This example is an example of vertical inclination correction. The right side and the lower side in FIG. 7 indicate the X direction and the Z direction of the absolute coordinate system, respectively. The Z direction is a direction (vertical direction) perpendicular to the horizontal plane. The surface of the object W3 is perpendicular to the Z direction.
A line B indicated by a one-dot broken line is a line indicating a direction perpendicular to a surface facing the object W3 among the surfaces of the object W1 held by the hand 26. In this example, the direction of the impedance control axis Fz is parallel to the B line, and the directions of the impedance control axes Fx and Fy are each perpendicular to the B line.

ここでは、対象物W1がハンド26に把持され、Z方向に移動させられた後に、対象物W1の1点P2が対象物W3に接触している。ハンド26の上方の左下向きの矢印は、可動部21がハンド26を介して対象物W1に加えている力の方向を示す。この方向は、B線の方向に平行である。これにより、対象物W1が点P1で対象物W3に接触しながら、点P1を支点として対象物W3の表面に倣う方向の力、つまり、インピーダンス制御軸Fyの周りに回転するモーメントMyが生じる。これにより、対象物W1に無理な力を加えずに有効に傾き補正を施すことができる。
このとき、制御に用いられるインピーダンス制御軸は、Fx、Fz、Myである。
Here, after the object W1 is gripped by the hand 26 and moved in the Z direction, one point P2 of the object W1 is in contact with the object W3. An arrow pointing downward to the left above the hand 26 indicates the direction of the force that the movable part 21 applies to the object W <b> 1 via the hand 26. This direction is parallel to the direction of line B. As a result, a force My that follows the surface of the object W3 with the point P1 as a fulcrum, that is, a moment My that rotates around the impedance control axis Fy is generated while the object W1 contacts the object W3 at the point P1. Thereby, it is possible to effectively perform the tilt correction without applying an excessive force to the object W1.
At this time, the impedance control axes used for control are Fx, Fz, and My.

図8は、傾き補正に係る動作例(4)を示す図である。
この例では、対象物W3に接触する前に対象物W1に加えられる力の方向がZ方向である。それ以外の点では、図7に示す例と同様である。この例では、対象物W1に加えられる力は、主に点P2を介してZ方向に加えられ、点P2を支点として対象物の表面に倣う方向の力が弱くなる。そのため、対象物W1の傾き補正が行われないことや、無理な力が加わることによって対象物W1が破損することがある。
FIG. 8 is a diagram illustrating an operation example (4) related to tilt correction.
In this example, the direction of the force applied to the object W1 before contacting the object W3 is the Z direction. The other points are the same as the example shown in FIG. In this example, the force applied to the object W1 is applied mainly in the Z direction via the point P2, and the force in the direction following the surface of the object is weakened with the point P2 as a fulcrum. Therefore, the inclination of the object W1 is not corrected, or the object W1 may be damaged by applying an excessive force.

図5−図8は、ハンド26がその主面に垂直な方向に対象物W1を把持する場合(垂直把持)を例にとったが、これには限られない。次に説明するように、ハンド26が対象物W1の底面及び表面に水平な形状を有し、対象物W1の側面を挟み込んで把持する場合(水平把持)の場合も同様に傾き補正を行うことができる。
図9は、傾き補正に係る動作例(5)を示す図である。
この例は、水平把持による水平方向の傾き補正の一例である。
図9の右方、下方は、それぞれ絶対座標系のX方向、Y方向を示す。対象物W4の表面は、Y方向に垂直である。
一点破線で示されたC線は、ハンド26で把持される対象物W1の面のうち、対象物W4に相対する面に垂直な方向を示す線である。この例では、インピーダンス制御軸Fxの方向がC線に平行であり、インピーダンス制御軸Fy、Fzの方向がC線にそれぞれ垂直である
5 to 8 exemplify the case where the hand 26 grips the object W1 in the direction perpendicular to the main surface (vertical gripping), but the present invention is not limited to this. As will be described below, the tilt correction is similarly performed when the hand 26 has a horizontal shape on the bottom surface and the surface of the object W1 and grips the side surface of the object W1 (horizontal gripping). Can do.
FIG. 9 is a diagram illustrating an operation example (5) related to the inclination correction.
This example is an example of horizontal inclination correction by horizontal gripping.
The right side and the lower side in FIG. 9 indicate the X direction and the Y direction of the absolute coordinate system, respectively. The surface of the object W4 is perpendicular to the Y direction.
A C line indicated by a one-dot broken line is a line indicating a direction perpendicular to a surface facing the object W4 among the surfaces of the object W1 held by the hand 26. In this example, the direction of the impedance control axis Fx is parallel to the C line, and the directions of the impedance control axes Fy and Fz are each perpendicular to the C line.

ここでは、対象物W1がハンド26に把持され、Y方向に移動させられた後に、対象物W1の1点P3が対象物W4に接触している。ハンド26の上方の左下向きの矢印は、可動部21がハンド26を介して対象物W1に加えている力の方向を示す。この方向は、C線の方向に平行である。これにより、対象物W1が点P1で対象物W4に接触しながら、点P3を支点として対象物W4の表面に倣う方向の力、つまり、インピーダンス制御軸Fzの周りに回転するモーメントMzが生じる。これにより、対象物W1に無理な力を加えずに有効に、傾き補正を施すことができる。
このとき、制御に用いられるインピーダンス制御軸は、Fx、Fy、Mzである。
Here, after the object W1 is gripped by the hand 26 and moved in the Y direction, one point P3 of the object W1 is in contact with the object W4. An arrow pointing downward to the left above the hand 26 indicates the direction of the force that the movable part 21 applies to the object W <b> 1 via the hand 26. This direction is parallel to the direction of the C line. As a result, a force in a direction following the surface of the object W4 with the point P3 as a fulcrum, that is, a moment Mz rotating around the impedance control axis Fz is generated while the object W1 contacts the object W4 at the point P1. Thereby, tilt correction can be effectively performed without applying an excessive force to the object W1.
At this time, the impedance control axes used for control are Fx, Fy, and Mz.

図10は、傾き補正に係る動作例(6)を示す図である。
この例では、対象物W4に接触する前に対象物W1に加えられる力の方向がY方向である。それ以外の点では、図9に示す例と同様である。この例では、対象物W1に加えられる力は、主に点P3を介してY方向に加えられ、点P3を支点として対象物の表面に倣う方向の力が弱くなる。そのため、対象物W1の傾き補正が行われないことや、無理な力が加わることによって対象物W1が破損することがある。
図9、10は、水平方向の傾き補正の例を示したが、水平把持の場合でも対象物W1の面のうち、1点が接触した対象物に相対する面に垂直な方向に力を加える制御を行うことで鉛直方向の傾き補正を実現することができる。
FIG. 10 is a diagram illustrating an operation example (6) related to the inclination correction.
In this example, the direction of the force applied to the object W1 before contacting the object W4 is the Y direction. The other points are the same as the example shown in FIG. In this example, the force applied to the object W1 is mainly applied in the Y direction via the point P3, and the force in the direction following the surface of the object is weakened with the point P3 as a fulcrum. Therefore, the inclination of the object W1 is not corrected, or the object W1 may be damaged by applying an excessive force.
9 and 10 show examples of horizontal inclination correction, even in the case of horizontal gripping, a force is applied in a direction perpendicular to the surface of the object W1 that faces the object that is in contact with one point. By performing the control, the tilt correction in the vertical direction can be realized.

なお、力制御部120は、上述した傾き補正に係る処理において対象物W1にかかる力に重力を加えて力制御を実行してもよい。ここで、力制御部120は、対象物W1に力を示すセンサー値から、ロボット座標系における重力の各座標値の成分を加えて重力が加えられたセンサー値を算出する。力制御部120は、算出したセンサー値に基づいて指令値を生成し、生成した指令値を動作制御部130に出力する。力制御において、重力との合力が目標となる力となるように可動部21の端点の動作が制御される。これにより、重力が相殺されるので、重力方向に対象物W1の位置が偏る誤差を防止し、傾き補正の精度を向上することができる。   Note that the force control unit 120 may execute force control by adding gravity to the force applied to the object W1 in the process related to the inclination correction described above. Here, the force control unit 120 calculates a sensor value to which gravity is added by adding a component of each coordinate value of gravity in the robot coordinate system from the sensor value indicating the force to the object W1. The force control unit 120 generates a command value based on the calculated sensor value, and outputs the generated command value to the operation control unit 130. In the force control, the operation of the end point of the movable portion 21 is controlled so that the resultant force with the gravity becomes a target force. Thereby, since gravity is canceled, the error which the position of the target object W1 deviates to a gravity direction can be prevented, and the precision of inclination correction | amendment can be improved.

次に、重力を考慮した傾き補正の例について説明する。
図11は、傾き補正に係る動作例(7)を示す図である。
この例は、垂直方向の傾き補正の一例である。図11の右方、下方は、それぞれ絶対座標系のX方向、Z方向を示す。
一点破線で示されたD線は、対象物W1の面のうち、対象物W5に相対する面に垂直な方向を示す線である。左下向きの太い矢印は移動方向を示す。この移動方向は、可動部21が対象物W1に加えようとする力の方向であり、D線の方向とインピーダンス制御軸Fxとともに等しい。下向きの太い矢印は重力方向を示す。対象物W1には、重力がかかるが、力制御部120は、重力との合力がD線の方向、つまり左下向きの太い矢印で示される移動方向となるように制御する。そこで、力制御部120は、インピーダンス制御軸Fx、Fy、Mzへの重力の成分を加えてインピーダンス制御を行う。
Next, an example of tilt correction in consideration of gravity will be described.
FIG. 11 is a diagram illustrating an operation example (7) related to the inclination correction.
This example is an example of vertical inclination correction. The right side and the lower side of FIG. 11 indicate the X direction and the Z direction of the absolute coordinate system, respectively.
A D-line indicated by a one-dot broken line is a line indicating a direction perpendicular to the surface of the object W1 facing the object W5. A thick arrow pointing to the left indicates the direction of movement. This moving direction is the direction of the force that the movable part 21 tries to apply to the object W1, and is equal to the direction of the D line and the impedance control axis Fx. A thick downward arrow indicates the direction of gravity. Although gravity is applied to the object W1, the force control unit 120 controls the resultant force with the gravity to be in the direction of the D line, that is, the moving direction indicated by the thick left-pointing arrow. Therefore, the force control unit 120 performs impedance control by adding gravity components to the impedance control axes Fx, Fy, and Mz.

図12は、傾き補正に係る動作例(8)を示す図である。
この例は、水平方向の傾き補正の一例である。図12の右斜め上、右方、下方は、それぞれ絶対座標系のX方向、Y方向、Z方向を示す。
一点破線で示されたE線は、対象物W1の面のうち、対象物W6に相対する面に垂直な方向を示す線である。右下向きの太い矢印は移動方向を示す。この移動方向は、可動部21が対象物W1に加えようとする力の方向であり、E線の方向及びインピーダンス制御軸Fxの方向とともに等しい。下向きの太い矢印は重力方向を示す。対象物W1には、重力がかかるが、力制御部120は、重力との合力がE線の方向、つまり左下向きの太い矢印で示される移動方向となるように制御する。重力方向は、この例では、インピーダンス制御軸Fzの方向である。そこで、力制御部120は、インピーダンス制御軸Fx、Fy、Mzの他、インピーダンス制御軸Fzに重力による成分を加えてインピーダンス制御を行う。
FIG. 12 is a diagram illustrating an operation example (8) related to the inclination correction.
This example is an example of horizontal inclination correction. The diagonally upper right, right side, and lower side of FIG. 12 indicate the X direction, the Y direction, and the Z direction of the absolute coordinate system, respectively.
The E line indicated by the one-dot broken line is a line indicating a direction perpendicular to the surface facing the object W6 among the surfaces of the object W1. A thick arrow pointing downward to the right indicates the direction of movement. This moving direction is the direction of the force that the movable part 21 tries to apply to the object W1, and is equal to the direction of the E line and the direction of the impedance control axis Fx. A thick downward arrow indicates the direction of gravity. Although gravity is applied to the object W1, the force control unit 120 controls the resultant force with the gravity to be in the direction of the E line, that is, the moving direction indicated by the thick left arrow. In this example, the direction of gravity is the direction of the impedance control axis Fz. Therefore, the force control unit 120 performs impedance control by adding a component due to gravity to the impedance control axis Fz in addition to the impedance control axes Fx, Fy, and Mz.

上述では、ロボット20が行う作業が1つの対象物を他の対象物に接触させる接触作業に用いる場合を例にとって説明したが、これには限られず、他の作業に用いられてもよい。他の作業には、例えば、1つの対象物を他の対象物を嵌め合わせる作業(嵌め合わせ)、1つの対象物の一部を他の対象物の凹部又は孔部に嵌め込む作業(嵌め込み)、等がある。   In the above description, the case where the work performed by the robot 20 is used as a contact work in which one target object is brought into contact with another target object is described as an example. For other work, for example, work for fitting one object to another object (fitting), work for fitting a part of one object into a recess or hole of another object (fit) , Etc.

上述したロボットシステム1の構成は、本実施形態の特徴を説明するものであって、これには限られない。ロボット制御装置10は、コンピューターで構成されていてもよい。
図13は、本実施形態に係るロボット制御装置10の機能構成の他の例を示す図である。
ロボット制御装置10は、CPU(Central Processing Unit)11、メモリー12、外部記憶装置13、通信装置14、入力装置15、出力装置16、及びI/F(Interface)17を含んで構成される。
CPU11は、上述した処理に係る演算を行う。メモリー12は、不揮発性の記憶装置であるROM(Read Only Memory)や揮発性の記憶装置であるRAM(Random Access Memory)を含む。通信装置14は、ロボット20との間で通信を行う。入力装置15は、ユーザーの操作を受け付け、受け付けた操作に応じた操作入力信号を入力する装置、例えば、マウス、キーボード、等である。出力装置16は、画像データを視認可能に出力する装置、例えば、ディスプレイ、等である。I/F17は、他の装置と接続し、データを入力又は出力する。例えば、I/F17は、例えば撮像装置30から画像データを入力する。
The configuration of the robot system 1 described above describes the features of the present embodiment, and is not limited to this. The robot control apparatus 10 may be configured with a computer.
FIG. 13 is a diagram illustrating another example of the functional configuration of the robot control apparatus 10 according to the present embodiment.
The robot control device 10 includes a CPU (Central Processing Unit) 11, a memory 12, an external storage device 13, a communication device 14, an input device 15, an output device 16, and an I / F (Interface) 17.
CPU11 performs the calculation which concerns on the process mentioned above. The memory 12 includes a ROM (Read Only Memory) that is a non-volatile storage device and a RAM (Random Access Memory) that is a volatile storage device. The communication device 14 communicates with the robot 20. The input device 15 is a device that accepts a user's operation and inputs an operation input signal corresponding to the accepted operation, such as a mouse, a keyboard, or the like. The output device 16 is a device that outputs image data so as to be visible, such as a display. The I / F 17 is connected to another device, and inputs or outputs data. For example, the I / F 17 inputs image data from the imaging device 30, for example.

上述の各機能部は、例えば、CPU11がメモリー12に格納された所定のプログラムを読み出して実行することにより実現される。なお、所定のプログラムは、例えば、予めメモリー12にインストールされてもよいし、通信装置14を介してネットワークからダウンロードされてインストール又は更新されてもよい。   Each functional unit described above is realized, for example, by the CPU 11 reading and executing a predetermined program stored in the memory 12. The predetermined program may be installed in advance in the memory 12, for example, or may be downloaded from the network via the communication device 14 and installed or updated.

ロボット制御装置10とロボット20は、上述のように互いに別体で構成されてもよいが、一体化したロボット20として構成されてもよい。一体化して構成される場合には、ロボット20は、ロボット制御装置10を内蔵してもよい。
また、撮像装置30は、上述のようにロボット制御装置10又はロボット20と別体であってもよいが、一体化されてもよい。
また、本実施形態では、ロボット20の一例として、2本の可動部21を備える双腕ロボットを示したが、1本の可動部21を備える単腕ロボット、3本以上の可動部21を備えるロボットであってもよい。また、ロボット20は、スカラーロボットでもよく、垂直多関節ロボットでもよい。また、ロボット20は、移動を可能にするために、例えば、車輪や脚部を備えてもよい。
The robot control device 10 and the robot 20 may be configured separately from each other as described above, but may be configured as an integrated robot 20. When configured integrally, the robot 20 may incorporate the robot control device 10.
The imaging device 30 may be separate from the robot control device 10 or the robot 20 as described above, but may be integrated.
In the present embodiment, a double-arm robot including two movable parts 21 is shown as an example of the robot 20, but a single-arm robot including one movable part 21 and three or more movable parts 21 are provided. It may be a robot. The robot 20 may be a scalar robot or a vertical articulated robot. Further, the robot 20 may include wheels and legs, for example, in order to enable movement.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
上述したロボットシステム1の機能構成は、ロボットシステム1の構成について理解を容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方や名称によって、本願発明が制限されることはない。ロボットシステム1の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。
The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.
The functional configuration of the robot system 1 described above is classified according to main processing contents in order to facilitate understanding of the configuration of the robot system 1. The present invention is not limited by the way of classification and names of the constituent elements. The configuration of the robot system 1 can be classified into more components depending on the processing content. Moreover, it can also classify | categorize so that one component may perform more processes. Further, the processing of each component may be executed by one hardware or may be executed by a plurality of hardware.

また、ロボット制御装置10及びロボット20の機能及び処理の分担は、図示した例に限られない。例えば、ロボット制御装置10の少なくとも一部の機能は、ロボット20に含まれ、ロボット20により実現されてもよい。また、例えば、ロボット20の少なくとも一部の機能は、ロボット制御装置10に含まれ、ロボット制御装置10により実現されてもよい。   Further, the functions and processing sharing of the robot control device 10 and the robot 20 are not limited to the illustrated example. For example, at least a part of the functions of the robot control device 10 may be included in the robot 20 and realized by the robot 20. Further, for example, at least a part of the functions of the robot 20 may be included in the robot control device 10 and realized by the robot control device 10.

また、上述したフローチャートの各処理単位は、ロボット制御装置10の処理を理解容易にするために、主な処理内容に応じて分割したものである。処理単位の分割の仕方や名称によって、本願発明が制限されることはない。ロボット制御装置10の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできる。また、1つの処理単位がさらに多くの処理を含むように分割することもできる。   In addition, each processing unit in the above-described flowchart is divided according to main processing contents in order to facilitate understanding of the processing of the robot control apparatus 10. The present invention is not limited by the way of dividing the processing unit or the name. The processing of the robot control device 10 can be divided into more processing units according to the processing content. Moreover, it can also divide | segment so that one process unit may contain many processes.

以上、本発明について実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に多様な変更または改良を加えることが可能であることが当業者には明らかである。また、そのような変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be made to the above embodiment. In addition, it is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

1…ロボットシステム、
10…ロボット制御システム、11…CPU、12…メモリー、13…外部記憶装置、
14…通信装置、15…入力装置、16…出力装置、17…I/F、
120…力制御部、122…センサー情報取得部、124…軌道生成部、
130…動作制御部、140…画像取得部、
20…ロボット、21…可動部、22…アーム、23…ジョイント、24…リンク、
25…力覚センサー、26…ハンド、200…駆動制御部、
30…撮像装置
1 ... Robot system,
DESCRIPTION OF SYMBOLS 10 ... Robot control system, 11 ... CPU, 12 ... Memory, 13 ... External storage device,
14 ... Communication device, 15 ... Input device, 16 ... Output device, 17 ... I / F,
120 ... Force control unit, 122 ... Sensor information acquisition unit, 124 ... Trajectory generation unit,
130: Operation control unit, 140: Image acquisition unit,
20 ... Robot, 21 ... Movable part, 22 ... Arm, 23 ... Joint, 24 ... Link,
25 ... force sensor, 26 ... hand, 200 ... drive control unit,
30 ... Imaging device

Claims (12)

力センサーと、
第1の対象物を把持する把持部を含むアームと、を含み、
前記第1の対象物は、少なくとも1つの面を含み、
前記把持部により把持される第1の対象物の前記面の一部を構成する第1の部位を第2の対象物に接触させる第1の動作と、
前記第1の動作後に、前記第1の部位とは異なる前記第1の対象物の第2の部位で、前記第1の対象物を前記第2の対象物に接触させる第2の動作と、を行う、
ロボット。
A force sensor;
An arm including a gripping part for gripping the first object,
The first object includes at least one surface;
A first operation of bringing a first part constituting a part of the surface of the first object held by the holding unit into contact with the second object;
A second action of bringing the first object into contact with the second object at a second part of the first object different from the first part after the first action; I do,
robot.
前記面は、平面であり、
前記第1の部位は、前記平面を構成する辺であり、
前記第1の動作において、前記辺を前記第2の対象物に接触させる、
請求項1に記載のロボット。
The plane is a plane;
The first part is a side constituting the plane,
In the first operation, the side is brought into contact with the second object.
The robot according to claim 1.
前記第1の部位は、前記辺を構成する点であり、
前記第1の動作において、前記点を前記第2の対象物に接触させる、
請求項2に記載のロボット。
The first part is a point constituting the side,
In the first operation, the point is brought into contact with the second object;
The robot according to claim 2.
前記面は、1つの曲面であり、
前記第1の対象物は、前記曲面から構成される物体であり、
前記第1の部位及び前記第2の部位は、前記曲面の一部であり、
前記第1の動作及び前記第2の動作において、前記第1の対象物を前記第2の対象物と点接触させる、
請求項1に記載のロボット。
The surface is a curved surface,
The first object is an object composed of the curved surface,
The first part and the second part are a part of the curved surface,
In the first operation and the second operation, the first object is brought into point contact with the second object.
The robot according to claim 1.
前記第1の動作及び前記第2の動作において、前記力センサーの出力を用いて、前記第1の対象物が前記第2の対象物に接触したか否かを判定する、
請求項1から請求項4のいずれか1項に記載のロボット。
In the first operation and the second operation, the output of the force sensor is used to determine whether the first object has contacted the second object.
The robot according to any one of claims 1 to 4.
前記第1の動作における前記第1の対象物と前記第2の対象物の接触状態を維持して、前記第2の動作を行う、
請求項1から請求項5のいずれか1項に記載のロボット。
Maintaining the contact state between the first object and the second object in the first operation, and performing the second operation;
The robot according to any one of claims 1 to 5.
前記第2の動作を行う際、前記ロボットに前記第1の対象物の前記第1の部位を前記第2の対象物に接触させながら、前記第1の対象物の前記第1の部位と前記第1の対象物の前記第2の部位を通る面に垂直な方向に力を作用させる請求項1から請求項6のいずれか1項に記載のロボット。   When performing the second operation, the robot makes the first part of the first object contact the second object while the robot makes the first part of the first object contact the second object. The robot according to any one of claims 1 to 6, wherein a force is applied in a direction perpendicular to a plane passing through the second portion of the first object. 前記ロボットに力を作用させる際、前記第1の対象物にかかる重力を相殺する請求項7に記載のロボット。   The robot according to claim 7, wherein when a force is applied to the robot, the gravity applied to the first object is canceled. 前記力センサーは、前記把持部と前記アームとの間に配置される、
請求項1から請求項8のいずれか1項に記載のロボット。
The force sensor is disposed between the grip portion and the arm.
The robot according to any one of claims 1 to 8.
力センサーと、アームとを含むロボットを含み、
前記アームは、第1の対象物を把持する把持部を含み、
前記第1の対象物は、少なくとも1つの面を含み、
前記ロボットは、
前記把持部により把持される第1の対象物の前記面の一部を構成する第1の部位を第2の対象物に接触させる第1の動作と、
前記第1の動作後に、前記第1の部位とは異なる前記第1の対象物の第2の部位で、前記第1の対象物を前記第2の対象物に接触させる第2の動作と、を行う、
ロボットシステム。
Including a robot including a force sensor and an arm,
The arm includes a grip portion that grips a first object,
The first object includes at least one surface;
The robot is
A first operation of bringing a first part constituting a part of the surface of the first object held by the holding unit into contact with the second object;
A second action of bringing the first object into contact with the second object at a second part of the first object different from the first part after the first action; I do,
Robot system.
力センサーと、アームとを含むロボットを動作させる制御装置であって、
前記アームは、第1の対象物を把持する把持部を含み、
前記第1の対象物は、少なくとも1つの面を含み、
前記ロボットに、前記把持部により把持される第1の対象物の前記面の一部を構成する第1の部位を第2の対象物に接触させる第1の動作と、
前記第1の動作後に、前記第1の部位とは異なる前記第1の対象物の第2の部位で、前記第1の対象物を前記第2の対象物に接触させる第2の動作と、を行わせる、
制御装置。
A control device for operating a robot including a force sensor and an arm,
The arm includes a grip portion that grips a first object,
The first object includes at least one surface;
A first action for causing the robot to contact a second object with a first part constituting a part of the surface of the first object grasped by the grasping unit;
A second action of bringing the first object into contact with the second object at a second part of the first object different from the first part after the first action; To do,
Control device.
力センサーと、アームとを含むロボットの制御方法であって、
前記アームは、第1の対象物を把持する把持部を含み、
前記第1の対象物は、少なくとも1つの面を含み、
前記ロボットに、前記把持部により把持される第1の対象物の前記面の一部を構成する第1の部位を第2の対象物に接触させる第1の動作を行わせることと、
前記ロボットに、前記第1の部位とは異なる前記第1の対象物の第2の部位で、前記第1の対象物を前記第2の対象物に接触させる第2の動作を行わせることと、を含む、
制御方法。
A method for controlling a robot including a force sensor and an arm,
The arm includes a grip portion that grips a first object,
The first object includes at least one surface;
Causing the robot to perform a first action of bringing a first part constituting a part of the surface of the first object held by the holding unit into contact with the second object;
Causing the robot to perform a second action of bringing the first object into contact with the second object at a second part of the first object different from the first part; ,including,
Control method.
JP2013228831A 2013-11-01 2013-11-01 Robot, robot system, control device and control method Pending JP2015085499A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013228831A JP2015085499A (en) 2013-11-01 2013-11-01 Robot, robot system, control device and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013228831A JP2015085499A (en) 2013-11-01 2013-11-01 Robot, robot system, control device and control method

Publications (1)

Publication Number Publication Date
JP2015085499A true JP2015085499A (en) 2015-05-07

Family

ID=53048843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013228831A Pending JP2015085499A (en) 2013-11-01 2013-11-01 Robot, robot system, control device and control method

Country Status (1)

Country Link
JP (1) JP2015085499A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6046218B1 (en) * 2015-07-09 2016-12-14 ファナック株式会社 Robot controller for a robot that puts objects together
JP2017052049A (en) * 2015-09-09 2017-03-16 ファナック株式会社 Object attitude calculation system
WO2022004372A1 (en) * 2020-07-03 2022-01-06 住友重機械工業株式会社 Method for operating robot arm, robot system, teaching method, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6046218B1 (en) * 2015-07-09 2016-12-14 ファナック株式会社 Robot controller for a robot that puts objects together
CN106335053A (en) * 2015-07-09 2017-01-18 发那科株式会社 Robot controller for robot which sets two objects in combined state
JP2017019039A (en) * 2015-07-09 2017-01-26 ファナック株式会社 Robot control device for robot for setting two objects in alignment state
US9724825B2 (en) 2015-07-09 2017-08-08 Fanuc Corporation Robot controller for robot which sets two objects in combined state
JP2017052049A (en) * 2015-09-09 2017-03-16 ファナック株式会社 Object attitude calculation system
CN106514712A (en) * 2015-09-09 2017-03-22 发那科株式会社 Object posture calculation system
US9903698B2 (en) 2015-09-09 2018-02-27 Fanuc Corporation Object posture calculation system
CN106514712B (en) * 2015-09-09 2018-04-06 发那科株式会社 The posture computing system of object
WO2022004372A1 (en) * 2020-07-03 2022-01-06 住友重機械工業株式会社 Method for operating robot arm, robot system, teaching method, and program

Similar Documents

Publication Publication Date Title
JP6511715B2 (en) Robot control device, robot system, and robot
US20150127141A1 (en) Robot, control device, robot system and robot control method
US10456917B2 (en) Robot system including a plurality of robots, robot controller and robot control method
JP5533727B2 (en) Work picking system
US10751874B2 (en) Method of teaching robot and robotic arm control device
JP2014176940A (en) Robot system, method for controlling robot and method for manufacturing workpiece
US10434646B2 (en) Robot control apparatus, robot, and robot system
JP2007098501A (en) Robot system
US20190022859A1 (en) Robot apparatus, control method for the robot apparatus, assembly method using the robot apparatus, and recording medium
CN106493711B (en) Control device, robot, and robot system
JP6314429B2 (en) Robot, robot system, and robot controller
JP2015085499A (en) Robot, robot system, control device and control method
JP2005335010A (en) Gripping control device
JP5787646B2 (en) Robot system and component manufacturing method
JP4640499B2 (en) Grip control device
JP6003312B2 (en) Robot system
JP2014240106A (en) Robot, robot control device, and driving method of robot
JP2006315128A (en) Shifting from one hand to the other hand control method for robot hand
JP2019155523A (en) Robot control device, robot control method, assembly method for article using robot control device, program, and recording medium
JP2018167395A (en) Robot device, control device, and robot control method
CN110914020A (en) Manipulating device with robot, method and computer program
JP2016209936A (en) Robot device, method of controlling robot, program and recording medium
JP2015085502A (en) Robot, robot system, and robot control device
JP6516546B2 (en) Control method of robot device, robot device, and method of manufacturing article
US20210299869A1 (en) Teaching Method